ESPERANZA Y PELIGRO

El trabajo de investigación de Microsoft, provocadoramente titulado “Sparks of Artificial General Intelligence” (“Destellos de Inteligencia Artificial General”), va al corazón de lo que los tecnólogos han estado buscando -y temiendo- durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligroso.

Y también podría ser una tontería. Hacer afirmaciones de AGI puede acabar con la reputación de un científico computacional. Lo que un investigador cree que es una señal de inteligencia puede ser fácilmente explicado por otro, y el debate a menudo suena más apropiado para un club de filosofía que para un laboratorio computacional.

El año pasado, Google despidió a un investigador que afirmó que un sistema de inteligencia artificial similar estaba consciente, un paso más allá de lo que afirmaba Microsoft. Un sistema consciente no sería simplemente inteligente: sería capaz de percibir o sentir lo que está sucediendo en el mundo a su alrededor.

Pero algunos creen que la industria ha avanzado poco a poco en el último año hacia algo que no se puede explicar: un nuevo sistema de inteligencia artificial que está generando respuestas e ideas similares a las humanas que no fueron programadas en él.

Microsoft ha reorganizado partes de sus laboratorios de investigación para incluir múltiples grupos dedicados a explorar la idea. Uno estará a cargo de Sébastien Bubeck, quien fue el autor principal del trabajo de investigación de Microsoft AGI.

Hace unos cinco años, empresas como Google, Microsoft y OpenAI comenzaron a crear grandes modelos de lenguaje o LLMs.

Esos sistemas a menudo pasan meses analizando grandes cantidades de texto digital, incluyendo libros, artículos de Wikipedia y registros de chat. Al identificar patrones en ese texto, aprendieron a generar texto propio, incluyendo trabajos finales, poesía y código computacional. Incluso pueden sostener una conversación.

GPT-4 de OpenAI, la tecnología con la que estaban trabajando los investigadores de Microsoft, es considerado el más potente de esos sistemas. Microsoft es un socio cercano de OpenAI y ha invertido 13 mil millones de dólares en la empresa de San Francisco.

Los investigadores incluyeron a Bubeck, un expatriado francés de 38 años y ex profesor de la Universidad de Princeton. Una de las primeras cosas que hicieron él y sus colegas fue pedir a GPT-4 que escribiera una demostración matemática mostrando que había infinitos números primos y que lo hiciera de manera que rimara.

La demostración poética de la tecnología fue tan impresionante -tanto matemática como lingüísticamente- que le resultó difícil entender con qué estaba hablando.

“En ese momento, yo estaba como: ¿Qué está pasando?”, dijo en marzo durante un seminario en el Instituto Tecnológico de Massachusetts (MIT).

Durante varios meses, él y sus colegas documentaron comportamiento complejo exhibido por el sistema y creyeron que demostraba una “comprensión profunda y flexible” de los conceptos y habilidades humanos.

Cuando las personas usan GPT-4 se “sorprenden por su capacidad para generar texto”, dijo Lee. “Pero resulta ser mucho mejor para analizar, sintetizar, evaluar y juzgar el texto que para generarlo”.

Cuando le pidieron al sistema que dibujara un unicornio empleando un lenguaje de programación llamado TiKZ, instantáneamente generó un programa que podía dibujar un unicornio.

Cuando eliminaron el tramo de código que dibujaba el cuerno del unicornio y le pidieron al sistema que modificara el programa para que una vez más dibujara un unicornio, hizo precisamente eso.

Le pidieron que escribiera un programa que tomara en cuenta la edad, el sexo, el peso, la estatura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de diabetes. Le pidieron que escribiera una carta de apoyo a un electrón como candidato presidencial de Estados Unidos, en voz de Mahatma Gandhi, dirigida a su esposa. Y le pidieron que escribiera un diálogo socrático que explorara los usos indebidos y peligros de los LLMs.

Lo hizo todo de una manera que parecía mostrar una comprensión de campos tan disímiles como la política, la física, la historia, la ciencia computacional, la medicina y la filosofía mientras combinaba sus conocimientos.

“¿Todas las cosas que pensé que no sería capaz de hacer? Definitivamente fue capaz de hacer muchos de ellas, si no es que la mayoría de ellas”, dijo Bubeck.

AÚN SIN SUSTENTOS

Algunos expertos en inteligencia artificial vieron la investigación de Microsoft como un esfuerzo oportunista para hacer grandes afirmaciones sobre una tecnología que nadie entendía del todo. Los investigadores también discuten que la inteligencia general requiere una familiaridad con el mundo físico, que GPT-4 en teoría carece.

“Los ‘Destellos de AGI’ son ejemplo de algunas de estas grandes empresas que se apropian del formato de trabajo de investigación para argumentos de relaciones públicas”, dijo Maarten Sap, investigador y profesor en la Universidad Carnegie Mellon.

“Literalmente reconocen en la introducción de su investigación que su enfoque es subjetivo e informal y puede no satisfacer los rigurosos estándares de la evaluación científica”.

Bubeck y Lee dijeron que no estaban seguros de cómo describir el comportamiento del sistema y finalmente se decidieron por “Destellos de AGI” porque pensaron que atraería la imaginación de otros investigadores.

Debido a que los investigadores de Microsoft estaban probando una versión anterior de GPT-4 que no había sido ajustada para evitar el discurso de odio, la desinformación y demás contenido indeseado, las afirmaciones hechas en la investigación no pueden ser verificadas por expertos externos.

Microsoft dice que el sistema disponible para el público no es tan potente como la versión que probaron.

Hay momentos en que sistemas como GPT-4 parecen imitar el razonamiento humano, pero también hay momentos en que parecen terriblemente densos.

“Estos comportamientos no siempre son consistentes”, dijo Ece Kamar, investigadora en Microsoft.

Alison Gopnik, profesora de psicología que forma parte del grupo de investigación de IA en la Universidad de California, en Berkeley, dijo que los sistemas como GPT-4 sin duda eran potentes, pero no estaba claro que el texto generado por estos sistemas fuera el resultado de algo como razonamiento humano o sentido común.

“Cuando vemos un sistema o máquina complicado, lo antropomorfizamos; todo mundo lo hace -las personas que trabajan en el campo y las personas que no lo hacen”, dijo Gopnik. “Pero pensar en esto como una comparación constante entre la IA y los humanos -como una especie de competencia de un programa de concurso- no es la forma correcta de pensar en ello”.