Search

Ni tan inteligente, ni tan artificial: introducci贸n a la IA. Parte I

Autor
Catherine Munoz
Catherine Munoz
Categor铆a
Art铆culo
Fecha de Publicaci贸n
2022/06/28
Temas
6 more properties
Por Catherine Mu帽oz, Abogada, LL.M. int. Universidad de Heidelberg. Directora de la consultora IDONEA y de la ONG OPTIA, consultora especializada en materias relacionadas con innovaci贸n, 茅tica, regulaci贸n de tecnolog铆as y derechos humanos.

Ladrando al 谩rbol equivocado: sobre las met谩foras de la IA

Y sin embargo, aunque nuestro cerebro emplea m谩s de 101010^{10} neuronas, los representantes de la 芦inteligencia artificial禄 tienen la soltura de decir que est谩n a punto de descubrir c贸mo funciona el cerebro. Dicen: He trabajado en una m谩quina que funciona tal cual el cerebro. Digo: 隆Oh, felicidades! Y por cierto, 驴c贸mo funciona el cerebro鈥? Nadie lo sabe. Entonces, no se puede ni siquiera hacer la comparaci贸n. Solo se puede decir que la m谩quina funciona as铆 y as谩, pero no se puede decir que funciona como el cerebro, porque nadie lo sabe. Pero quiz谩s no hace falta saber c贸mo funciona el cerebro. Tal vez solo sea, como dice el refr谩n americano, que 芦estamos ladrando al 谩rbol equivocado禄 (1) Heinz von Foerster
Heinz von Foerster, cient铆fico del siglo XX, gran exponente de la cibern茅tica y estrecho colaborador de Humberto Maturana, dijo que es com煤n que proyectemos caracter铆sticas humanas en cosas o funciones porque nos facilita crear met谩foras para comprender y comunicar lo que hacen. Tampoco son met谩foras tan complejas: estamos hablando de la cabeza del martillo, la pata de la mesa y la oreja de la taza.
El problema, seg煤n Von Foerster, es que se romantizaron funciones intelectuales y se le atribuyeron a las m谩quinas. Al decir que los computadores 芦recuperan informaci贸n禄 (en realidad, los humanos lo hacen), 芦resuelven problemas禄 (nuevamente, los humanos), 芦aprenden禄 (no aprenden ni coco), 芦descubren禄 (ehm, no) o 芦demuestran teoremas禄 (jajajaja... 隆No!) usamos figuras ret贸ricas que trivializan procesos humanos complejos como la conciencia o cognici贸n. Von Foerster agrega que, incre铆blemente y de forma gradual, se ha empezado a creer por parte de los propios ingenieros que estas funciones intelectuales residen efectivamente en las m谩quinas (!!!).
En la actualidad, la publicidad y el marketing han sacado provecho de estas met谩foras, personificaciones y confusiones (y esto solo va en aumento). No cuestionamos cuando se habla de la capacidad de la inteligencia artificial (IA) para solucionar nuestros graves problemas sociales, predecir comportamientos, prevenir delitos, violencia, etc. usando 芦sistemas inteligentes禄, 芦aut贸nomos禄, 芦que se entrenan禄, 芦piensan禄, 芦aprenden禄 y pueden 芦reemplazar y sobrepasar completamente funciones cognitivas humanas禄.
Lo que estas personificaciones transmiten, es en realidad parte de lo que se denomina inteligencia artificial general (AGI, por sus siglas en ingl茅s), el Santo Grial de la IA y que, por el momento, son solo hip贸tesis y estudios sobre potenciales inteligencias artificiales a nivel humano y con capacidad de generalizaci贸n (lo que vemos hasta el cansancio en las pel铆culas de ciencia ficci贸n) (2). Las discusiones en torno a la AGI son sobre si podr铆a ser alcanzable en un plazo relativo (durante las pr贸ximas cinco d茅cadas o m谩s) o sobre el hecho de que no contar铆a con las condiciones b谩sicas para materializarse ni ahora ni en el futuro (3). Es decir, la AGI es humo.
Humo y cringe. Mucho cringe.
Lo cierto es que, de acuerdo con el actual estado del arte, lo que existe se denomina IA estrecha (Narrow AI). La IA estrecha puede describir potentes modelos matem谩ticos, pero estos se traducen en sistemas que resuelven tareas limitadas y espec铆ficas, como reconocer objetos o jugar ajedrez, entre otros. Es decir, la IA estrecha act煤a dentro del marco sobre el cual ha sido programada, pero es incapaz de responder en otro contexto, aunque sea levemente diferente (4).
La IA entendida como una rama de las ciencias computacionales 鈥搚 que, como dec铆amos, deber铆a denominarse IA estrecha, en vista al estado de la t茅cnica鈥 se ha centrado en la realidad, fuera de laboratorios y universidades, en el aprendizaje autom谩tico o machine learning, definido como un proceso automatizado de descubrimiento de correlaciones entre variables en un conjunto de datos, a menudo para hacer predicciones o estimaciones de alg煤n resultado (5).
鈥斅縀ste es tu sistema de aprendizaje autom谩tico? 鈥斅ip! Viertes los datos en esta gran pila de 谩lgebra lineal y luego recoges las respuestas de este otro lado. 鈥斅縌u茅 pasa si las respuestas son incorrectas? 鈥擲olo se revuelve la pila hasta que comiencen a verse correctas.
Volviendo a Von Foerster, la denominaci贸n misma de IA y el hecho de que un tipo de sistema se denomine 芦aprendizaje autom谩tico禄 son parte de las cl谩sicas met谩foras romantizadas de funciones intelectuales. Por eso, es necesario tener presente que 芦aprendizaje禄 corresponde a 芦un cambio u optimizaci贸n禄 y no a una mente peque帽a dentro de un software y que, por ejemplo, 芦predicci贸n禄 es el resultado de correlaciones (que perfectamente podr铆an no tener ninguna relaci贸n con la realidad) y no una predestinaci贸n vislumbrada por una inteligencia superior.
As铆 como estas met谩foras suelen ser enga帽osas, tambi茅n lo es la afirmaci贸n de que un sistema de IA 芦soluciona problemas禄: el sistema no tienen ning煤n problema que deba ser resuelto porque es solo una herramienta. Y, como cualquier herramienta, es un apoyo para que nosotros solucionemos nuestros problemas, de la misma forma en que un martillo no une dos piezas de madera con un clavo: es el buen uso de la herramienta y del clavo por parte de una persona lo que permite unir las piezas de madera.
Lo anterior parece una trivialidad, pero no lo es: hay una peligrosa sutileza sem谩ntica al trasladar la responsabilidad de la acci贸n de la persona a la m谩quina, ya que nos hace perder de vista el real problema, su dimensi贸n, qu茅 nos motiva a resolverlo y cu谩l es la soluci贸n. Al olvidar que son met谩foras de fraccionadas funciones cognitivas, creemos que un sistema de IA est谩 efectivamente solucionando un problema. Pero en realidad est谩 implementando un mecanismo diferente dentro de un marco limitado. Lo que parece una 芦soluci贸n禄 es una salida de un modelo en base a correlaciones. Luego, podemos percatarnos de que nada de ello guarda relaci贸n y sentido con el real problema: hay un error y tratamos de enmendarlo dentro del mismo marco metaf贸rico limitado sin 茅xito, o podemos aceptar esta supuesta soluci贸n como satisfactoria, sin mayor cuestionamiento, perdiendo completamente de vista el problema real. En cualquiera de los dos casos, probablemente, como dice el refr谩n americano, 芦estamos ladrando al 谩rbol equivocado禄.
Jar Jar Binks, 隆gu铆anos!

Entonces, 驴qu茅 es la IA?

No hay una 煤nica definici贸n de IA. Existen diversos conceptos, algunos de ellos caracterizados por elementos de la AGI. Otros conceptos suelen ser espec铆ficos a un 谩rea de desarrollo determinada, por lo que optar por una definici贸n y generalizarla siempre ser谩 una elecci贸n reduccionista. Entonces no, no podemos dar una definici贸n de IA.
Pero s铆 podemos mencionar el elemento principal de esta definici贸n. El primero es que la IA debe ser descrita como sistemas sociot茅cnicos, que son aquellos que interact煤an con entornos sociales y producen resultados socialmente beneficiosos (?). Desde esa perspectiva, los dise帽os tecnol贸gicos son en esencia, sociot茅cnicos: no est谩n ligados a objetos espec铆ficos, sino a contextos sociales concretos (6).
Desde esta perspectiva sociot茅cnica, ingenieros, dise帽adores, cient铆ficos de datos y tomadores de decisiones en general deben pasar de la b煤squeda de una soluci贸n t茅cnica a la ponderaci贸n de diferentes marcos para anticipar y responder a las tensiones, incertidumbres y conflictos, en base a consideraciones como (6) si el sistema es adecuado para una situaci贸n particular o existen otras soluciones que consideren el contexto social y pol铆tico. Esto 煤ltimo se recomienda con el objeto de evitar el famoso tecnosolucionismo, es decir, que se afecte al contexto social de forma predecible, pero sin producir ning煤n beneficio al implementar un sistema o, incluso, produciendo un perjuicio.

驴Qu茅 es un algoritmo?

A menudo solemos emplear la expresi贸n 芦IA禄 y 芦algoritmo禄 indistintamente. En su definici贸n generalizada, un algoritmo es un conjunto de reglas que definen con precisi贸n una secuencia de operaciones (7). Es decir, IA y algoritmo no son sin贸nimos: un algoritmo puede ser una receta de cocina con pasos detallados hasta complejas reglas matem谩ticas. Pero, 驴es la IA es un algoritmo?
Revisemos el funcionamiento b谩sico de un machine learning con un ejemplo de un aprendizaje supervisado: se programa un algoritmo para obtener un modelo optimizado que d茅 respuesta a una tarea determinada a partir de la identificaci贸n de patrones de un conjunto de datos previamente etiquetados, training data o datos de entrenamiento. El algoritmo estima las tasas de error de cada modelo aplicando otro conjunto externo de datos, los validation set. Si el modelo tiene un rendimiento satisfactorio, termina el entrenamiento. Si el rendimiento no produce suficientes resultados, se modifica el modelo y se repite el proceso. El algoritmo selecciona el modelo que mejor describe las caracter铆sticas y tendencias a partir de los conjuntos de datos de entrenamiento y validaci贸n. Finalmente, mediante un tercer conjunto de datos llamados test set o datos de pruebas, se calcula el error de predicci贸n generalizado, lo que queda a disposici贸n del usuario final para una evaluaci贸n adecuada del nivel predictivo o an谩lisis del modelo.
De la descripci贸n anterior, podemos distinguir tres elementos esenciales en un sistema de IA: (a) los datos, (b) un algoritmo y (c) un modelo, esta distinci贸n es relevante ya que permite explicar con prioridad y claridad en distintos tipos sesgos producidos. Tambi茅n la distinci贸n es importante ya que permite diferenciar aquellas caracter铆sticas, en particular, de los modelos que son l铆mites t茅cnicos a los mismos, siendo factores desencadenantes de determinados sesgos.
En el 谩mbito de los datos podemos encontrar, entre muchos otros, el sesgo de recopilaci贸n, que ocurre por la inferencia de sesgos incrustados en los mismos datos. Tambi茅n existe el sesgo de representaci贸n, que se presenta cuando un sistema de IA es entrenado con datos de una parte limitada de una poblaci贸n que no es representativa de la totalidad: esto suele subrrepresentar, usualmente, a grupos vulnerables.
Los modelos, por su parte, contienen la informaci贸n estructurada resultante de la etapa de entrenamiento (芦aprendidas禄 por el algoritmo de entrenamiento) que definen una secuencia de operaciones. Los sesgos pueden ser provocados de forma intencional, por malas decisiones en su dise帽o o como consecuencia de sus propios l铆mites t茅cnicos (8), ya que son modelos matem谩ticos de car谩cter cuantitativo. Esto significa que deben reducir los datos, porque son incapaces de analizar todas las variables presentes en construcciones sociales: por ello, son bastante frecuentes los impactos negativos causados por un resultado sesgado de los modelos.
Sin perjuicio de que los impactos negativos en las personas se expresan en los modelos, los principales tipos de algoritmos de machine learning que estructuran dichos modelos tienen bastante que decir. El algoritmo de regresi贸n lineal fue desarrollado por los eugenistas del siglo XX y uno de los algoritmos m谩s usados en machine learning, de agrupamiento jer谩rquico o cl煤ster, deriva de un modelo de segregaci贸n habitacional racista de los a帽os 1950 (9).
En particular, estos algoritmos tienen una tendencia o preferencia hacia la optimizaci贸n de un resultado predefinido y, en consecuencia, generan como contrapartida exclusi贸n que repercute en perjuicios sobre las personas, usualmente sobre grupos hist贸ricamente vulnerados y oprimidos.
Si bien, seg煤n la definici贸n general, un modelo tambi茅n ser铆a un algoritmo, no es correcto hablar indistintamente de sistema de IA y algoritmos, ya que adem谩s de ser confuso para explicar sus componente esenciales e impactos, tiene una trampa y la misma sutileza sem谩ntica mencionada en los p谩rrafos anteriores. Al hablar de 芦algoritmos禄, queda impl铆cita la idea de que no existen personas responsables detr谩s, por lo que cualquier perjuicio causado al aplicar los resultados del algoritmo ser铆a responsabilidad de un conjunto de complejas reglas matem谩ticas aprendidas de forma automatizada: es decir, no habr铆a ning煤n responsable particular. Y esto, como ya se ha se帽alado, es totalmente irreal: la IA es un sistema sociot茅cnico y, como tal, siempre hay alguien responsable o irresponsable detr谩s.

驴Para qui茅n es la IA?

Todos hemos escuchado sobre los grandes avances y beneficios de la IA. Pero, 驴nos hemos preguntado si estos avances y beneficios son para todos? 驴Para qui茅n es la inteligencia artificial? 驴A qui茅n realmente beneficia?
Quiz谩s sea el momento de hacerse esas preguntas. O quiz谩s debamos dejarlas abiertas, dependiendo de su grado de optimismo. Lo que s铆 podemos afirmar es para qui茅n no es la IA.
La IA no es para grupos vulnerables, hist贸ricamente excluidos, marginados. Y, probablemente, no lo sea para la gran mayor铆a de nosotros. Esto lo explicaremos en la segunda parte de este art铆culo hablando sobre dos tipos de aplicaciones de IA: (a) los sistemas de reconocimiento facial 鈥攜 el resurgimiento de la oscura pseudociencia racista que arrastra鈥; y (b) los sistemas de toma de decisiones automatizadas que, al ser usados como medio para resolver problemas sociales, usualmente amplifican y perpet煤an injusticias hist贸ricas sobre grupos vulnerables.

Referencias

1.
H. Von Foerster, Understanding understanding: Essays on cybernetics and cognition. Springer Science & Business Media, 2007.
2.
B. Goertzel, 芦Artificial general intelligence: concept, state of the art, and future prospects禄, J. Artif. Gen. Intell., vol. 5, n.o 1, p. 1, 2014.
3.
R. Fjelland, 芦Why general artificial intelligence will not be realized禄, Humanit. Soc. Sci. Commun., vol. 7, n.o 1, pp. 1-9, 2020.
4.
G. Marcus, 芦The next decade in ai: four steps towards robust artificial intelligence禄, ArXiv Prepr. ArXiv200206177, 2020.
5.
M. Broussard, Artificial Unintelligence: How Computers Misunderstand the World. MIT Press, 2018.
6.
A. D. Selbst, D. Boyd, S. A. Friedler, S. Venkatasubramanian, y J. Vertesi, 芦Fairness and abstraction in sociotechnical systems禄, en Proceedings of the conference on fairness, accountability, and transparency, 2019, pp. 59-68.
7.
芦What is an 鈥渁lgorithm鈥? It depends whom you ask禄, MIT Technology Review. https://www.technologyreview.com/2021/02/26/1020007/what-is-an-algorithm/ (accedido 22 de febrero de 2022).
8.
M. Malik, 芦A Hierarchy of Limitations in Machine Learning禄, ArXiv200205193 Cs Econ Math Stat, feb. 2020, Accedido: 8 de marzo de 2021. [En l铆nea]. Disponible en: http://arxiv.org/abs/2002.05193
9.
芦Homophily: The Urban History of an Algorithm - Architecture - e-flux禄. https://www.e-flux.com/architecture/are-friends-electric/289193/homophily-the-urban-history-of-an-algorithm/ (accedido 22 de febrero de 2022).
Gallery