Search

El Salami de ChatGPT

Autor
Alejandro Sophila
Alejandro Sophila
Fecha de Publicación
8 more properties

No tenemos la m√°s p√°lida idea de qu√© es inteligencia, pero tenemos personalidad para ponerle como nombre ‚ÄúInteligencia Artificial‚ÄĚ a un programa de computador

1.
No existe "Inteligencia Artificial", pero bue, el nombre pegó
2.
Haciendo predicciones a punta de patrones
3.
Algo de historia sobre los orígenes de la IA
4.
IA Predictiva
5.
IA Generativa: No es más que un teclado predictivo en cocaína, y sin teclado
6.
Problemas: La gente cree que es un "buscador", o que es "inteligente"
7.
Problemas 2: Los que quieren hacer plata fácil a costa de pasar por encima de la ética y justicia
8.
Qué podemos hacer?
9.
Un mensaje pa los haters y succionadores de pico de Elon Musk y su pandilla
Tal como lo contamos en este artículo, y en este artículo, uno de los problemas con los que nos vamos a encontrar cada vez que hablemos de este tipo de tecnologías es un problema de semántica y de metáforas.
SALAMI
A lo largo del √ļltimo siglo se han desarrollado m√©todos matem√°ticos y estad√≠sticos para "predecir" el valor de un elemento en una lista. Por ejemplo, nosotros como humanos, al ser presentados con esta lista: 2, 4, 6, 8, 10, X Podemos usar nuestro razonamiento y l√≥gica para determinar que hay un patr√≥n y a partir de eso, calcular el valor de X. Con estad√≠stica se puede hacer una regresi√≥n lineal, y poder usarla en forma general para "predecir" el valor que tendr√° esa lista en N elementos m√°s. Si tiramos algo m√°s complejo, supongamos una lista que dice: Lunes: 100 Martes: 50 Mi√©rcoles: 0 Jueves: 80 Viernes: 100 S√°bado: 90 Domingo: X De una forma similar a la anterior, nuestro cerebro trata de buscar un patr√≥n, no lo encuentra en forma pura, pero si detecta un comportamiento que le hace sentido en el contexto de sus experiencias y relaci√≥n con la realidad.
Si le pasamos esto a un sistema estadístico, es posible que trate de hacer una regresión, o un ajuste cuadrático, o cualquiera de esas cosas, y lograr un resultado que no sea del todo insensato.
Hasta ahí estamos hablando de métodos super conocidos, donde sabemos lo que ocurre en cada paso del proceso de cálculo. Podemos hacerlo a mano, podemos ver los resultados intermedios, podemos trazar de dónde salió todo.
Alejandro , [23-04-23 11:22] Pero, en los 50's y 60's se desarrollaron teorías matemáticas en torno a métodos que no son deterministas. Donde no se tiene el detalle del paso a paso de como se hacen los cálculos, y donde se usa el azar para generar sutiles variaciones en el cálculo para probar si mejora o empeora con esa introducción de caos.
Alejandro , [23-04-23 11:24] Estos métodos fueron llamados colectivamente "Inteligencia Artificial", porque se podían usar para llegar a un resultado SIN decirle qué método usar, es decir, le dábamos los datos de entrada, algunos ejemplos pasados de lo que debía pasar, y estos métodos "encontraban" una forma de acercarse a los resultados que le estaban pidiendo, a partir de los datos históricos suministrados.
Alejandro , [23-04-23 11:24] Dentro de estos métodos están las Redes Neuronales, los Algorítmos Genéticos y la lógica difusa, entre otros menos populares.
Alejandro , [23-04-23 11:26] No fue hasta hace unos 10 a√Īos que empezamos a tener m√°quinas y lenguajes que fueran eficientes para manejar grandes cantidades de datos en memoria para poder hacer este ejercicio de "prueba y error" para encontrar resultados en forma r√°pida.
Alejandro , [23-04-23 11:30] Se inició tratando de hacer predicciones de cosas complejas, por ejemplo, de cosas que dependieran de decenas o cientos de variables. Se alimentó todo esto en una red neuronal (que no son nada más que neuronas: pedacitos de memoria en el computador que reciben un valor, lo multiplican por otro, y mandan el resultado a la siguiente neurona). Estas redes neuronales, a punta de prueba y error, lograban predecir resultados para sistemas con cientos de variables, cosa que nosotros, humanos, a punta de papel, lápiz, excel y ecco, no podríanos hacer. Algo terrible empezó a pasar ahí: las metáforas que se utilizaban se popularizaron, y la gente empezó a creer que las redes neuronales tenían neuronas (como las humanas), que la Inteligencia Artificial era Inteligente, y que las Predicciones eran el resultado del razonamiento y lógica.
Alejandro , [23-04-23 11:30] Nada de eso es verdad
Alejandro , [23-04-23 11:31] Son n√ļmeros multiplic√°ndose con otros n√ļmeros para dar otros n√ļmeros que se acercan a lo que nosotros estimamos como el resultado correcto.
Alejandro , [23-04-23 11:32] Alguien pens√≥: Oye, y si en vez de predecir el n√ļmero de una secuencia, predecimos la siguiente palabra de un texto?
Alejandro , [23-04-23 11:33] Así, si ponías una lista diciendo "uno, dos, tres, cuatro, X", estas redes neuronales (que no tienen idea de lo que significa cada una de esas palabras), podían (basadas en sus datos de entrenamiento), llegar a la conclusión de que X es "cinco".
Alejandro , [23-04-23 11:34] Nuevamente, no es inteligencia, es la capacidad de un método para llegar a resultados que nosotros consideramos correctos.
Alejandro , [23-04-23 11:37] Pero alguien dijo: Oye, y si como datos de entrenamiento le metemos TODO EL CONTENIDO ESCRITO QUE PODAMOS CONSEGUIR?, y que las columnas con variables sean muchas, onda MILES DE MILLONES? Estamos hablando que esas columnas contienen: lenguaje, cantidad de vocales, cantidad de consonantes, palabra anterior, palabra siguiente, palabra subsiguiente, palabra con la que inicia la frase, palabra con la que termina la frase, cantidad de n√ļmeros en la fr√°se, etc, etc, etc... 5mil millones de columnas para el entrenamiento.
Alejandro , [23-04-23 11:38] Al alimentar una red neuronal con esto, obtienes un predictor de texto megapoderoso. Una máquina que es capaz de generar texto que esté bien escrito y que tenga coherencia (aunque la máquina no tiene idea de lo que significa nada de eso).
Alejandro , [23-04-23 11:39] A estas redes neuronales entrenadas con miles de millones de variables, y con cientos de millones de textos en muchos idiomas, formatos y dem√°s, empezaron a ser conocidas como LLM: Large Language Models.
Alejandro , [23-04-23 11:40] Cada vez que ustedes le preguntan algo a un LLM, no les va a decir "la verdad", un LLM no tiene idea de lo que es verdad o no, lo que es sensato o no, lo que les va a decir es la secuencia de palabras que estadísticamente sean más probables de ir juntas como continuación a lo que ustedes escribieron como pregunta.
Alejandro , [23-04-23 11:44] Como era "fome" que siempre respondiera lo mismo, los autores de los LLM introdujeron el concepto de "Temperatura" del modelo. Baja temperatura: el modelo escoge siempre las secuencia m√°s probable. A mayor temperatura, el modelo a√Īade un poco de azar en la selecci√≥n de la secuencia de palabras, y as√≠ aparecen variaciones. La gente vio esto y le llam√≥ "Creatividad" de la "Inteligencia Artificial". Nuevamente, no hay creatividad ac√°, es un m√©todo estad√≠stico sumado a un generador de aleatoriedad, que da como resultado una secuencia de texto que nos parece sensata.
Alejandro , [23-04-23 11:45] Est√° lejos de ser un or√°culo, o un sistema perfecto, a menos que busques un sistema que escriba cosas que vayan bien con lo que le pasaste como entrada, como "Prompt".
Alejandro , [23-04-23 11:46] Entonces
Alejandro , [23-04-23 11:49] Volviendo a lo que le pasó a @CarrieMathison, que le decía cosas bacanes, pero le referenciaba artículos ficticios: El sistema, a punta de todos los textos que usó para su entrenamiento, genera textos que son consistentes con tu pregunta, y con lo que tiene en su "memoria", y como es esperable que cada una de esas declaraciones tenga una fuente, el sistema predice cada una de las palabras que se esperan en una referencia científica... Pero es una predicción cosmética (todo es cosmético acá), muy bien conformada como referencia, pero apuntando a papers que no existen, creados por investigadoras no no existen, en páginas que no existen, etc.

Referencias

1.
a
2.
b
3.
c
Gallery