mos al algoritmo, o bien su lógi-
ca y, transparentemente, ajustar y
re-evaluar el mismo. No es así con
la AI. La AI, además de tomar de-
cisiones complejas, hace cosas que,
aunque sencillas para los humanos,
son difíciles para las computadoras.
Como entender de lo que estamos
hablando o identificar objetos en
una imagen y luego tomar una de-
cisión difícil o arrojar un resultado.
Para eso, hemos tenido que desa-
rrollar algoritmos que se encarguen
de cada aspecto necesario para la
toma de decisión, y hacer que es-
tos diferentes algoritmos trabajen
juntos. A este modelo le llamamos
Redes Neuronales Computaciona-
les, pues están basados en cómo el
cerebro humano entiende y ejecuta
su toma de decisiones. Las Redes
Neuronales (RN) pueden tomar las
decisiones complejas que necesita-
mos y que, en muchas ocasiones, ni
siquiera son evidentes para el hu-
mano promedio. El año pasado, la
AI de piloto automático de un carro
Tesla identificó un choque antes de
que sucediera y metió los frenos en
un tiempo de reacción que proba-
blemente un humano promedio no
hubiera podido realizar. En 2014,
un algoritmo de visión computacio-
nal identificó una relación entre dos
pinturas que no había sido identifi-
cada por historiadores del arte.
El resultado de construir algoritmos
tan complejos que usan modelos
como las RN es que, a pesar de
que nos traen grandes beneficios,
sus decisiones no son transparentes
para quien los desarrolla. No sabe-
mos qué llevó a una red neuronal a
tomar una decisión o producir un
resultado porque las capas de cóm-
puto y de datos que usa para entre-
narse son excesivamente vastas y
complejas. La mejor forma que ten-
emos de saber que construimos bien
una RN es cuando contrastamos su
resultado con la realidad y vemos
su positividad. En el caso del carro
de Tesla, por ejemplo, sabemos que
funcionó porque consiguió evitar
un choque.
A veces, como es de esperarse, una
RN no da un resultado claro ni es-
perado. Los flash-crashes del NAS-
DAQ son un ejemplo. Este año, la
noticia de que Facebook apagó un
par de inteligencias artificiales que
se comunicaron de maneras que los
desarrolladores no esperaban dio la
vuelta al mundo. La noticia estaba
inflada, pues esas AI no estaban to-
mando decisiones que perjudicaran
a nadie; sin embargo la decisión
de apagarla constituye una de las
más importantes directrices para
manejar redes neuronales: si no
está produciendo el resultado que
esperas, apágala. ¿Por qué? Pri-
mero porque no sirve para lo que
la construiste. Pero especialmente
porque no tienes manera de saber
cómo llegó a esas decisiones. Las
AI que Facebook apagó no repre-
sentaban ningún peligro pero, ¿qué
tal si les confiáramos decisiones
más importantes, como la distribu-
ción energética? ¿O la compra-ven-
ta de acciones? Después de la ola
de flash-crashes en el NASDAQ los
humanos introdujeron un compo-
nente humano a la toma de decisio-
nes por AI. Ésa es la segunda direc-
triz que nos parece importante a la
hora de hablar de AI. Toda AI debe-
ría tener un componente humano en
su proceso que pueda confirmar las
decisiones. Ya sea en el proceso de
desarrollo o en el proceso de uso.
Sin embargo, los humanos también
tienen sesgos y éstos se reproducen
en la inteligencia artificial. En una
ocasión estuvimos en una presenta-
ción de un algoritmo de reconoci-
miento de lenguaje natural, esto es,
el algoritmo que reconoce tu voz,
las palabras que dices y lo que estás
tratando de decir. El algoritmo fun-
cionaba perfectamente hasta que lo
probó una mujer. No funcionaba.
Al instante los desarrolladores su-
pieron el porqué: en 6 años de de-
sarrollo, nunca habían entrenado el
algoritmo con voces de mujer. La
ciencia tiene numerosos ejemplos
de cómo, al no incluir a mujeres o
distintas poblaciones en el proceso
de ideación, desarrollo y evalua-
ción, deriva en inevitables sesgos
que a su vez provocan un impac-
to negativo en las poblaciones no
representadas. Las inteligencias
artificiales no son la excepción. A
medida que les delegamos nuestra
toma de decisiones, es importante
la representación en los procesos de
construcción.
Quizá al filósofo le emocione saber,
como al tecnológo, que hay espa-
cio en la AI para sus contribucio-
nes. Las redes neuronales utilizan
modelos que son conceptualmen-
te familiares al filósofo. Las RN
perciben datos, ya sea a modo de
sonidos, texto, o imágenes (con re-
percusiones en la epistemología);
hacen procesamiento de lenguaje
natural y los transforman en con-
ceptos que valoran o evalúan (esté-
ticamente) y los utilizan para operar
en la realidad (éticamente). Pueden
ser sujetos éticos ya que sus com-
portamientos tienen impacto en la
actividad humana; quizá, al menos
en este punto del siglo XXI no son
responsables de sus acciones, pero
es necesario entender cómo regu-
larlos sin coartar los beneficios que
nos pueden traer. Y para ello nece-
sitamos también de la filosofía .▪
Ali González García
Haydé Martínez Landa
Autarquía
7