Search

Chanter IA

Autor
Invitado Especial
Invitado Especial
Alejandro Sophila
Alejandro Sophila
Fecha de Publicación
Empty
8 more properties
Importante: La caja de arriba debe ser el primer elemento del artículo, y su texto luego de cleanUrl debe ajustarse para que contenga la URL "simple" en que se publicará este post. es decir, ahí va todo lo que sigue a etilmercurio.com Así: cleanUrl: /futbol-circular hará que este post quede en etilmercurio.com/futbol-circular Este comentario puede borrarse, y comenzar a escribir el post desde aquí en adelante, pero mantengan la caja de arriba. Debe ser lo primero escrito en el artículo, una vez publicado el artículo, esa caja no se verá.

¬ŅQu√© es IA?

Ladrando al √°rbol equivocado: sobre las met√°foras de la IA

‚ÄúY sin embargo, aunque nuestro cerebro emplea m√°s de 10^10 neuronas, los representantes de la "inteligencia artificial" tienen la soltura de decir que est√°n a punto de descubrir c√≥mo funciona el cerebro. Dicen: He trabajado en una m√°quina que funciona tal cual el cerebro. Digo: Oh, felicidades!, y por cierto, ¬Ņc√≥mo funciona el cerebro? ...Nadie lo sabe. Entonces no se puede ni siquiera hacer la comparaci√≥n. S√≥lo se puede decir que la maquina funciona as√≠ y as√°, pero no se puede decir que funciona como el cerebro, porque nadie lo sabe. Pero quiz√°s no hace falta saber c√≥mo funciona el cerebro. Tal vez s√≥lo sea, como dice el refr√°n americano, que "estamos ladrando al √°rbol equivocado‚ÄĚ[1]
El anterior es un extracto del libro ‚ÄúUnderstanding Understanding: Essays on Cybernetics and Cognition‚ÄĚ de Heinz von Foerster, un reconocido cient√≠fico del siglo XX, ¬†gran exponente de la cibern√©tica y estrecho colaborador de Humberto Maturana. ¬†von Foerster, en se√Īala que proyectar la imagen de nosotros en cosas o funciones es bastante com√ļn, ya que teniendo un conocimiento directo sobre nosotros, es f√°cil crear mapas conceptuales de elementos externos si podemos vernos representados en ellos. Es lo que usualmente hacemos con nuestras herramientas.
El anterior es un extracto del libro ‚ÄúUnderstanding Understanding: Essays on Cybernetics and Cognition‚ÄĚ de Heinz von Foerster, un reconocido cient√≠fico del siglo XX, ¬†gran exponente de la cibern√©tica y estrecho colaborador de Humberto Maturana. ¬†von Foerster, en simple, dice que es com√ļn que proyectemos caracter√≠sticas humanas en cosas o funciones porque nos facilita crear met√°foras para comprender y comunicar lo que hacen.
El problema, se√Īal√≥ von Foerster por el a√Īo 1991, es que se han romantizado funciones intelectuales atribuidas a las m√°quinas. Los computadores ‚Äúrecuperan informaci√≥n‚ÄĚ , ‚Äúresuelven problemas‚ÄĚ, ‚Äúaprenden‚ÄĚ, ‚Äúdescubren‚ÄĚ, ‚Äúdemuestran teoremas‚ÄĚ, todas met√°foras que trivializan reducciones aisladas de complejos procesos humanos como la conciencia o cognici√≥n, agrega von Foerster que incre√≠blemente de forma gradual se ha empezado a creer por parte de los propios ingenieros que estas funciones intelectuales residen efectivamente en las m√°quinas.
El problema, se√Īal√≥ von Foerster por el a√Īo 1991, es que se han romantizado funciones intelectuales atribuidas a las m√°quinas. Los computadores ‚Äúrecuperan informaci√≥n‚ÄĚ (en realidad, los humanos lo hacen), ‚Äúresuelven problemas‚ÄĚ(nuevamente, los humanos), ‚Äúaprenden‚ÄĚ (no aprenden ni coco), ‚Äúdescubren‚ÄĚ (ehm no), ‚Äúdemuestran teoremas‚ÄĚ (jajajaja... ¬°no!), todas met√°foras que trivializan procesos humanos complejos como la conciencia o cognici√≥n, agrega von Foerster que incre√≠blemente de forma gradual se ha empezado a creer por parte de los propios ingenieros que estas funciones intelectuales residen efectivamente en las m√°quinas. (!!!)
En la actualidad, la publicidad y el marketing han sabido sacar provecho de estas met√°foras y confusiones que se han mantenido y agudizado con el paso de los a√Īos. No hacemos mayor cuestionamiento cuando nos hablan de la capacidad de la IA para solucionar nuestros graves problemas sociales, predecir comportamientos, prevenir delitos, violencia, por parte de sistemas inteligentes, aut√≥nomos, que entrenan, piensan, aprenden y pueden reemplazar y sobrepasar completamente funciones cognitivas humanas.
En la actualidad, la publicidad y el marketing han sacado provecho de estas met√°foras y confusiones (que solo van en aumento). No cuestionamos cuando se habla de la capacidad de la IA para solucionar nuestros graves problemas sociales, predecir comportamientos, prevenir delitos, violencia, etc, usando ‚Äúsistemas inteligentes‚ÄĚ, ‚Äúaut√≥nomos‚ÄĚ, ‚Äúque se entrenan‚ÄĚ, ‚Äúpiensan‚ÄĚ, ‚Äúaprenden‚ÄĚ y pueden ‚Äúreemplazar y sobrepasar completamente funciones cognitivas humanas‚ÄĚ.
No obstante, estas metáforas son parte de una narrativa exagerada asociada a la denominada inteligencia artificial general (AGI, por sus siglas en inglés), la que por décadas ha sido la gran promesa de la IA, corresponde hasta ahora a una hipótesis sobre el desarrollo y estudio de inteligencias artificiales a nivel humano y con capacidad de generalización y que es la que usualmente vemos en las películas de ciencia ficción. [2] Actualmente, hay muchas discusiones sobre si la AGI podría ser alcanzable en un plazo relativo (próximas 5 décadas o más) o sobre el hecho que no contaría con las condiciones básicas para materializarse ni ahora ni en el futuro. [3]
Lo que estas metáforas transmiten, es en realidad parte de lo que se denomina inteligencia artificial general (AGI, por sus siglas en inglés), el santo grial de la IA, y que por el momento corresponde a hipótesis y estudios sobre inteligencias artificiales a nivel humano y con capacidad de generalización (que es lo que vemos hasta el cansancio en las películas de ciencia ficción). [2] Las discusiones en torno a la AGI son sobre sobre si podría ser alcanzable en un plazo relativo (próximas 5 décadas o más) o sobre el hecho que no contaría con las condiciones básicas para materializarse ni ahora ni en el futuro. [3] Es decir: Humo.
Lo cierto es que de acuerdo al actual estado del arte, lo que existe se denomina IA estrecha (Narrow AI) que aun cuando describe potentes modelos matemáticos, estos se traducen en sistemas que resuelven tareas limitadas y específicas, como reconocer objetos, jugar ajedrez, entre otros, actuando dentro del marco sobre el cual han sido programados, no respondiendo en otro contexto aunque sea levemente diferentes. [4]
La IA entendida como una rama de las ciencias computacionales ‚Äď y que se denomina IA estrecha, en vista al estado de la t√©cnica- se ha centrado en la realidad, fuera de laboratorios y universidades, en el aprendizaje autom√°tico o machine learning, definido como un proceso automatizado de descubrimiento de correlaciones entre variables en un conjunto de datos, a menudo para hacer predicciones o estimaciones de alg√ļn resultado. [5]
Volviendo a von Foerster, la denominaci√≥n misma de IA, y el hecho que un tipo de sistema se denomine ‚Äúaprendizaje‚ÄĚ ‚Äúautom√°tico‚ÄĚ, son parte de las cl√°sicas met√°foras romantizadas de funciones intelectuales, por lo que es necesario tener presente que, ‚Äúaprendizaje‚ÄĚ corresponde a ‚Äúun cambio u optimizaci√≥n‚ÄĚ y no a una mente peque√Īa dentro de un software, y que por ejemplo, ‚Äúpredicci√≥n‚ÄĚ es el resultado de correlaciones (que perfectamente podr√≠a no tener ninguna relaci√≥n con la realidad) y no una predestinaci√≥n de una inteligencia superior.¬†
As√≠ como estas met√°foras suelen ser enga√Īosas, tambi√©n lo es la afirmaci√≥n que un sistema de IA "soluciona problemas‚ÄĚ, lo cual no es efectivo, partiendo porque el sistema no tienen ning√ļn problema que deba ser resuelto, siendo en definitiva y como cualquier herramienta, un apoyo para que nosotros solucionemos nuestros problemas, tal como usamos un martillo. Lo anterior parece una trivialidad y no lo es, hay una peligrosa sutileza sem√°ntica al trasladar la responsabilidad de la acci√≥n del hombre a la m√°quina, ya que nos hace perder de vista el real problema, su dimensi√≥n, que nos motiva a resolverlo y cual es la soluci√≥n. Al olvidar que son met√°foras de fraccionadas funciones cognitivas, creemos que un sistema de IA est√° efectivamente solucionando un problema, cuando en definitiva est√° implementando un mecanismo diferente dentro de un marco limitado, y aparentemente dando una soluci√≥n cuando es una salida de un modelo en base a correlaciones. Luego, podemos percatarnos que nada de ello guarda relaci√≥n y sentido con el real problema, hay un error y tratamos de enmendarlo dentro del mismo marco metaf√≥rico limitado sin √©xito, o podemos aceptar esta supuesta soluci√≥n como satisfactoria, sin mayor cuestionamiento, perdiendo completamente de vista nuestra problem√°tica real. En cualquiera de los dos casos, probablemente, como dice el refr√°n americano, "estemos ladrando al √°rbol equivocado‚ÄĚ.

La IA como sistemas sociotécnicos.

¬ŅProblemas sociales? La IA va al rescate (?)

No hay una √ļnica definici√≥n de IA existiendo diversos conceptos, algunos de ellos caracterizados por elementos de la AGI, otros suelen ser espec√≠ficos a un √°rea de desarrollo determinada, por lo que optar por una definici√≥n y generalizarla siempre ser√° una elecci√≥n reduccionista. No obstante lo anterior, desde el punto de vista de los impactos de la IA en las personas, para prop√≥sitos sociales, de mitigaci√≥n de riesgos y regulatorios, es necesario que cualquiera sea el concepto de IA, este describa sistemas sociot√©cnicos.
Los sistemas sociot√©cnicos, en t√©rminos generales, son aquellos destinados a interactuar con entornos sociales y producir resultados socialmente beneficiosos. Desde esa perspectiva, los dise√Īos tecnol√≥gicos son en esencia, sociot√©cnicos, no estando ligados a objetos espec√≠ficos, sino a contextos sociales concretos. [5] Por el contrario, si no se considera el elemento social, se cae en el riesgo de configurar un encuadre estrecho de un solo problema t√©cnico asociado al modelo o los datos del sistema.
Desde la perspectiva sociot√©cnica, ingenieros, dise√Īadores, data scientists y tomadores de decisiones en general, deben pasar de buscar una soluci√≥n t√©cnica a ponderar diferentes marcos para anticipar y responder a las tensiones, incertidumbres y conflictos, en base a consideraciones como las siguientes[5]: (1) si el sistema a dise√Īar o implementar es adecuado a la situaci√≥n particular, o existen otros tipos de soluciones, en consideraci√≥n al contexto social y pol√≠tico, con el objeto de evitar el famoso tecnosolucionismo, (2) si afecta al contexto social de forma predecible, no produciendo ning√ļn beneficio la implementaci√≥n de un sistema, o m√°s bien produciendo un perjuicio, (3) si, se resguarda la protecci√≥n de las personas vulnerables o grupos hist√≥ricamente excluidos y existen mecanismos legales de rendici√≥n de cuenta, acciones de protecci√≥n y de reparaci√≥n frente a eventuales vulneraciones de derechos por el uso de sistemas de IA.

Responsabilidad y rendición de cuentas en materia de IA

En retrospectiva parece inconcebible, pero hace un poco m√°s de 50 a√Īos en USA y hace muchos menos a√Īos en Chile, los autom√≥viles no contaban con cintur√≥n de seguridad, frenos antibloqueos, airbags y una lista de elementos que hoy consideramos esenciales en materia de seguridad. Ralph Nader, un abogado norteamericano, hoy congresista, tard√≥ varios a√Īos en investigar todas estas falencias y public√≥ en el a√Īo 1965 un libro llamado ‚ÄúUnsafe at Any Speed: The Designed-In Dangers of the American Automobile‚ÄĚ con el resultado de dicha investigaci√≥n.[6]
Nader denunci√≥ la poca seguridad de los autom√≥viles y responsabiliz√≥ directamente a los ingenieros, dise√Īadores y ejecutivos de la industria automotriz. El tema principal de su an√°lisis fue la existencia de brecha entre el dise√Īo existente y la seguridad m√≠nima necesaria, situaci√≥n que la industria automotriz estaba ignorando deliberadamente, mientras miles de personas mor√≠an en las carreteras. Menos de un a√Īo despu√©s de la publicaci√≥n del libro, se dict√≥ una ley de seguridad automotriz y se cre√≥ la agencia de seguridad federal que se convirti√≥ en la Administraci√≥n Nacional de Seguridad del Tr√°fico en las Carreteras, cuya misi√≥n declarada es salvar vidas, prevenir lesiones y reducir los accidentes.[7]
Por su parte, en materia de AI e impactos que causan perjuicio sobre las personas, al igual que en el caso automotriz podemos distinguir responsabilidades desde el dise√Īo, esto es, respecto de ingenieros y dise√Īadores, as√≠ como responsabilidad de los tomadores de decisiones de las empresas fabricantes, agregando un actor adicional, el intermediario, correspondiendo a aquel que adquiere la tecnolog√≠a y utiliza en terceras personas, pudiendo ser organismos p√ļblicas, privados y personas naturales. Para definir y hacer efectiva dichas responsabilidades es necesaria una robusta pol√≠tica de rendici√≥n de cuentas normas claras al respecto.
La palabra accountability es un concepto norteamericano, que en su versi√≥n amplia ha evolucionado desde la contabilidad hacia conceptos que involucran transparencia, equidad, eficiencia, responsabilidad, siendo un t√©rmino evaluativo de integridad de un ente y no un concepto anal√≠tico. Como concepto evaluativo no existe un est√°ndar determinado y su comprensi√≥n depende del contexto hist√≥rico y social donde se utilice. En materia de IA se utiliza la expresi√≥n accountability en su sentido estricto, como sin√≥nimo de rendici√≥n de cuentas. Siguiendo la definici√≥n de Mark Bovens la rendici√≥n de cuentas se define como ‚Äúuna relaci√≥n entre un actor y un foro, en la que el actor tiene la obligaci√≥n de explicar y justificar su conducta y el foro puede plantear preguntas y emitir juicios, pudiendo el actor estar expuesto a consecuencias‚ÄĚ [8].
En este caso, la rendici√≥n de cuentas se configura por la relaci√≥n entre el actor quien usa o dise√Īa un sistema de IA y el foro que puede hacer cumplir normas de conductas, estando el actor sujeto a consecuencias. Esta relaci√≥n en general es construida a trav√©s de legislaci√≥n vinculante y en menor medida de pol√≠ticas y recomendaciones[1]. Tambi√©n esta relaci√≥n se genera desde la sociedad civil principalmente a trav√©s de auditor√≠as algor√≠tmicas de car√°cter externo [9], en consecuencia, la rendici√≥n de cuentas no es un compromiso voluntario ya que conlleva expl√≠citamente consecuencias de orden legal por actos sometidos a conocimiento del foro.

¬ŅPara qui√©n es la IA?

Todos hemos escuchado sobre los grandes avances y beneficios de la IA, pero estos avances y beneficios ¬Ņson para todos? Nunca se han preguntado ¬Ņpara qui√©n es la inteligencia artificial? ¬Ņa qui√©n realmente beneficia? Quiz√°s es el momento de hacerlo. En esta serie de art√≠culos abordaremos 3 de los principales desarrollos en materia de IA que tienen un impacto directo en las personas ......

El resurgimiento de la oscura pseudociencia racista en sistemas de reconocimiento facial

Durante la pandemia se han incorporado muchas tecnolog√≠as relacionadas con procesos educativos a distancia. Se cre√≥ un sistema de IA para reconocer las expresiones faciales de los ni√Īos ‚Äúcon precisi√≥n a nivel humano‚ÄĚ seg√ļn se describe en una nota de CNN [1] agregando que el sistema genera informes sobre fortalezas, debilidades y niveles de motivaci√≥n; y pronostica calificaciones, siendo muy √ļtiles para los profesores durante la pandemia ya que pueden monitorear de forma remota las emociones de sus alumnos.
La empresa israel√≠ Faception [2] ofrece sus servicios de reconocimiento facial para detectar personas introvertidas, extrovertidos, ped√≥filos, genios y delincuentes, entre muchas otras caracter√≠sticas, en base a an√°lisis fotogr√°ficos. Esta empresa fue contratada por el gobierno de USA hace algunos a√Īos para detectar terroristas. Por su parte, existe un aumento del inter√©s de las empresas de retail por usar sus c√°maras ‚Äúde seguridad‚ÄĚ para al mismo tiempo detectar las expresiones de sus compradores incorporando sistemas de IA que leen emociones con el objeto de generar estrategias de marketing m√°s efectivas y personalizadas [3]. Y sin ir m√°s lejos, en el 2019, la Municipalidad de Las Condes adquiri√≥ un millonario software de reconocimiento facial para reconocer delincuentes que no ha tenido ning√ļn resultado hasta hoy[4].
En un estudio muy conocido del a√Īo 2016, dos investigadores Wu y Zhang, entrenaron un sistema de IA de machine learning (a trav√©s de ¬†aprendizaje supervisado) con fotograf√≠as de hombres chinos delincuentes proporcionadas por el Estado y fotograf√≠as de hombres chinos no delincuentes tomadas de buscadores de internet, la idea era que el sistema detectara hombres chinos delincuentes de otro que no lo eran frente a nuevos datos, caras en este caso, todo para prevenir en definitiva delitos, Minority Report, la pel√≠cula, bueno ese mismo rollo.
Su experimento comenz√≥ utilizando IA m√°s b√°sicas y luego con el uso de una red neuronal convolucional mas avanzada, AlexNet, logrando seg√ļn indicaron una precisi√≥n de clasificaci√≥n de casi el 90% de hombres delincuentes al procesar im√°genes nuevas[5]. El resultado era algo como esto:
Todos estos son ejemplos de sistemas de reconocimiento facial, ahora ¬ŅC√≥mo funcionan o que hacen en la pr√°ctica? Bueno en primer lugar diremos lo que no hacen: no pueden hacer nada de lo prometido en los casos indicados, ning√ļn sistema de RF puede reconocer emociones, detectar ped√≥filos, terroristas ni ser un medio para reducir la delincuencia, todo lo anterior es un muy sofisticado disfraz de ciencia que confunde a las personas bajo un velo de veracidad, en definitiva una pseudociencia m√°s, como las constelaciones familiares y los cursos de eneagrama (si Freud y Jung), pero peligrosa porque es una pseudociencia basada en el racismo. Y si pudi√©ramos resumir en una frase que hace el reconocimiento facial, podr√≠amos decir que detecta estereotipos basados en frenolog√≠a y fisonom√≠a antiguas pseudociencias.
Los estereotipos corresponden a una sobrerrepresentaci√≥n, un modo de clasificar y definir a un grupo de personas por parte de otro dominante, y que por s√≠ mismo constituyen un acto discriminatorio, usado como fundamento para dominar a grupos vulnerables o hist√≥ricamente oprimidos, lo usaron espa√Īoles en la constituci√≥n de la llamada Am√©rica, los norteamericanos para justificar la permanencia de esclavos, lo usamos actualmente al compararnos con pueblos originarios. ¬ŅNo lo creen?, hagan una simple prueba, busquen en Google im√°genes, ¬ęhombres chilenos¬Ľ, el resultado que arroja muestra a hombres blancos, sonriendo y posando (no reflejando al com√ļn de los hombres chilenos para nada por lo dem√°s) sin ning√ļn contexto en particular. No aparecen alusiones a la cultura, tradici√≥n e historia y los botones de b√ļsqueda adicional sugerida son triviales (j√≥venes, famosos, normales, actores). Si luego buscan, ¬ęhombres mapuches¬Ľ, la mayor parte de las im√°genes representan a personas enojadas o confrontaciones caracterizadas por sus vestimentas y dentro de un contexto cultural exacerbado alejado de la modernidad. Un claro reflejo de un estereotipo definido por un grupo dominante.
Si volvemos al experimento de Wu y Zhang y de las fotos se√Īaladas ustedes sacar√≠an las mismas conclusiones sobre cuales son delincuentes y cuales no, probablemente concuerden con los autores y probablemente sea una clasificaci√≥n totalmente err√≥nea basada en estereotipos, las personas supuestamente delincuentes est√°n enojadas mientras que las personas ‚Äúno delincuentes‚ÄĚ sonr√≠en, usan traje, entre otras cualidades estereotipadas. Tambi√©n es razonable suponer que las fotograf√≠as policiales tomadas en el contexto amenazante y humillante del arresto se ven diferentes de las fotograf√≠as tomadas para el perfil de LinkedIn.
Por su parte, las emociones est√°n compuestas simult√°neamente por componentes fisiol√≥gicos, mentales, psicol√≥gicos, culturales y fenomenol√≥gicos individualmente subjetivos por lo que no pueden ser reconocidas por sistemas de IA y nuevamente lo √ļnico que pueden reconocer son estereotipos que son creados en contextos sociales particulares, por lo que no son en ning√ļn caso predictores de emociones reales, como lo postulaba Paul Ekman conocido por malas pr√°cticas y enga√Īosas pseudociencias.
Esto buscaba la frenolog√≠a y fisonom√≠a‚Ķ. pseudociencias desacreditadas de finales del siglo XIX y principios del XX que afirmaban ser capaces de inferir rasgos de car√°cter o personalidades a partir de signos fisiol√≥gicos exteriores, como la forma del cr√°neo o cara, con la finalidad de clasificar personas superiores e inferiores. Evidentemente muchos estudios posteriores evidenciaron que no existe tal cosa como una ‚Äúcara criminal‚ÄĚ
pero increíblemente han sido reformuladas bajo una tecnología, que es una nueva forma de oprimir y dominar, una nueva forma de herramienta dentro de la dinámica de poder, de clasificar personas superiores e inferiores, de control social.
Entonces lo que hace Faception y el sistema de la Municipalidad de Las Condes es catalogar como delincuentes a personas de grupos vulnerables históricamente marginados, quienes son los grupos que usualmente son estereotipados.
Tan peligrosa es esta nueva pseudociencia, que tiene otras muchas aristas cuando es usada en otros √°mbitos, adem√°s de no cumplir con la finalidad declarada, tienen otros problemas adicionales como el que descubri√≥ Joy Buolamwini, en el laboratorio de su universidad cuando se percat√≥ que un sistema de RF no reconoc√≠a su cara, b√°sicamente porque los datos de entrenamiento de ese sistema eran mayoritariamente de blancos y no representativos de la poblaci√≥n afroamericana...dar ejemplos de discriminacion Y luego, perfeccionar el reconocimiento facial por ejemplo agregando datos m√°s representativos nunca resolver√° el problema de discriminaci√≥n, sino que perfeccionar√≠a el racismo, convirti√©ndolos en potenciales mecanismos a√ļn m√°s da√Īinos para las personas vulnerables y marginadas.
Muchos de los sistemas de RF actualmente en uso para m√ļltiples fines, pero en particular para prevenir delitos, est√°n compuestos por datos incompletos, reflejos de detenciones ilegales, racismo policial hist√≥rico, datos obtenidos sin consentimiento.
Y ya para terminar esta pel√≠cula de horror los sistemas de reconocimiento facial son usados como mecanismo de vigilancia masiva ‚Äďdesde migrantes a detractores pol√≠ticos‚Äď donde el anonimato se pierde sin consentimiento, donde se vulnera la libertad de expresi√≥n, derecho de protesta, mecanismo que ha cobrado la vida de activistas y personas que por una mala jugada del destino se cruzaron frente a una c√°mara que los catalog√≥ como terroristas sin serlo

La automatización de la segregación y desigualdad

Luego de m√ļltiples demandas colectivas interpuestas, en el a√Īo 2016 la Agencia de Seguro de Desempleo de Michigan, Estados Unidos de Am√©rica, luego de una revisi√≥n, confirm√≥ que hab√≠a acusado err√≥neamente a m√°s de 20.000 personas de fraude en la obtenci√≥n de beneficios de desempleo, lo cual correspond√≠a a mas del 93% de los casos detectados (Crawford y Schultz 2019). Con posterioridad en el a√Īo 2019 el n√ļmero de casos confirmados aument√≥ a 40.000.[1]
La detección de fraudes en el pago de beneficios de desempleo era establecida por un sistema algorítmico de toma de decisiones automatizadas, determinándose que las personas detectadas por el algoritmo debían pagar al Estado 5 veces la cantidad solicitada. Las personas erróneamente afectadas eran notificadas tardíamente por lo que no tenían opción de impugnar la medida, viéndose obligadas a pagar multas elevadas, lo que llevó a que muchas familias fueran llevadas a la quiebra, otras se desintegraron y al menos dos suicidios estuvieron involucrados.[2]
A principios del a√Īo 2021, en un hecho sin precedentes el gobierno de los Pa√≠ses Bajos anunci√≥ su dimisi√≥n en bloque luego de una investigaci√≥n realizada por el parlamento que concluy√≥ que tanto el Jefe de Estado como sus principales ministros eran culpables de menoscabo institucional y discriminaci√≥n contra un grupo vulnerable de la poblaci√≥n holandesa, luego de detectar que un sistema de inteligencia artificial (IA) de toma de decisiones automatizada hab√≠a err√≥neamente detectado fraude en la solicitud de subsidios sociales correspondientes a mantenci√≥n infantil en al menos 26.000 familias, la gran mayor√≠a de origen marroqu√≠es y tunecinos. Al igual que en el caso anterior, estas falsas acusaciones desencadenaron ruina financiera, depresi√≥n, intentos de suicidios¬†¬†¬† y graves problemas de salud en las personas afectadas.[3]
A pesar de la evidencia documentada sobre los impactos negativos de este tipo de tecnolog√≠a aplicada como servicios p√ļblicos, estos han aumentado de forma progresiva, siendo globalmente implementados en diversas √°reas bajo pol√≠ticas de modernizaci√≥n estatal, eficiencia p√ļblica y austeridad.
En muchos casos ha quedado demostrado que este tipo de sistemas aplicado a complejidades sociales, como asignación de calificaciones estudiantiles, predicción de delitos y predicción de abusos infantiles, entre otros, implica un riesgo concreto de reproducción, amplificación y perpetuación de injusticias sociales sobre grupos históricamente excluidos y vulnerables, tales como, pueblos originarios, comunidades LGBTIQ+, minorías religiosas y personas de escasos recursos (Benjamin 2019; Costanza-Chock 2020; Eubanks 2018).
Los ejemplos descritos muestran, adem√°s, la extensi√≥n de los impactos de este tipo de tecnolog√≠as cuando son utilizados para la prestaci√≥n de servicios p√ļblicos. Es claro que sobre estos sistemas es necesario regular su dise√Īo e implementaci√≥n adem√°s de establecer un marco regulatorio adecuado para la protecci√≥n y reparaci√≥n de las personas.
[1] Cook, Jameson. ‚ÄúState Residents Win Lawsuit Ruling over False Fraud Findings by Jobless Agency.‚ÄĚ The News Herald, 5 Apr. 2019, www.thenewsherald.com/2019/04/05/state-residents-win-lawsuit-ruling-over-false-fraud-findings-by-jobless-agency/amp/. Accedido el 15 de diciembre de 2021.
[2] Claburn, Thomas. ‚ÄúFraud Detection System with 93% Failure Rate Gets IT Companies Sued.‚ÄĚ Www.theregister.com, 8 Mar. 2017, www.theregister.com/2017/03/08/fraud_detection_system_with_93_failure_rate_gets_it_companies_sued/. Accedido el 15 de diciembre de 2021.
[3] Vervloesem, Koen. ‚ÄúHow Dutch Activists Got an Invasive Fraud Detection Algorithm Banned.‚ÄĚ AlgorithmWatch, 6 Apr. 2020, algorithmwatch.org/en/syri-netherlands-algorithm/. Accedido el 26 de diciembre de 2021.
Dónde se usa
Origen histórico-social de la técnica
Consecuencias

Sobre loros estoc√°sticos y otros modelos de lenguaje

Dónde se usa
Origen histórico-social de la técnica
Consecuencias
Colección de MATERIAL EN BRUTO
Colección sobre Reconocimiento facial y pseudociencia.

Referencias

[1]¬†¬† B. Goertzel, ¬ęArtificial general intelligence: concept, state of the art, and future prospects¬Ľ, J. Artif. Gen. Intell., vol. 5, n.o 1, p. 1, 2014.
[2]¬†¬† R. Fjelland, ¬ęWhy general artificial intelligence will not be realized¬Ľ, Humanit. Soc. Sci. Commun., vol. 7, n.o 1, pp. 1-9, 2020.
[3]¬†¬† G. Marcus, ¬ęThe next decade in ai: four steps towards robust artificial intelligence¬Ľ, ArXiv Prepr. ArXiv200206177, 2020.
[4]   H. Von Foerster, Understanding understanding: Essays on cybernetics and cognition. Springer Science & Business Media, 2007.
[5]¬†¬† A. D. Selbst, D. Boyd, S. A. Friedler, S. Venkatasubramanian, y J. Vertesi, ¬ęFairness and abstraction in sociotechnical systems¬Ľ, en Proceedings of the conference on fairness, accountability, and transparency, 2019, pp. 59-68.
[1]¬†¬†¬†¬†¬†¬†¬† M. C. Business CNN, ¬ęThis AI reads children‚Äôs emotions as they learn¬Ľ, CNN. https://www.cnn.com/2021/02/16/tech/emotion-recognition-ai-education-spc-intl-hnk/index.html (accedido 19 de enero de 2022).
[2]¬†¬†¬†¬†¬†¬†¬† ¬ęFACEPTION | Facial Personality Analytics¬Ľ, faception. https://www.faception.com (accedido 19 de enero de 2022).
[3]¬†¬†¬†¬†¬†¬†¬† J. Rose, ¬ęBrands Want To Predict Your Behavior By Mining Your Face From YouTube Videos¬Ľ, Vice, 24 de mayo de 2016. https://www.vice.com/en/article/jpggab/facial-recognition-brands-mattersight (accedido 19 de enero de 2022).
[4]¬†¬†¬†¬†¬†¬†¬† P. por M. F. L. y T. S. | Sep 2 y 2021 | Reportajes, ¬ęMunicipalidad de Las Condes pag√≥ $352 millones por software de reconocimiento facial que no funciona¬Ľ, Cr√≥nicas Transparentes, 2 de septiembre de 2021. https://cronicas.americatransparente.org/municipalidad-de-las-condes-pago-350-millones-por-software-de-reconocimiento-facial-que-no-funciona/ (accedido 19 de enero de 2022).
[5]        X. Wu y X. Zhang, Automated Inference on Criminality using Face Images. 2016.
ANTES DE TERMINAR EL POST, CAMBIAR EL FILTRO DE LA GALER√ćA DE ABAJO PARA QUE OFREZCA ART√ćCULOS SOBRE EL MISMO TEMA y borrar este bloque, obvio