¿Por qué los chatbots de IA dicen mentiras y actúan de forma extraña? Mírate en el espejo.

Cuando Microsoft agregó un chatbot a su motor de búsqueda Bing este mes, la gente notó que ofrecía todo tipo de información falsa sobre Gap, la vida nocturna mexicana y la cantante Billie Eilish.

Luego, cuando los periodistas y otros probadores tempranos entablaron largas conversaciones con el bot de IA de Microsoft, se deslizó en un comportamiento grosero e inquietantemente espeluznante.

En los días transcurridos desde que el comportamiento del bot de Bing se convirtió en una sensación mundial, la gente ha luchado por comprender la rareza de esta nueva creación. La mayoría de las veces, los científicos han dicho que los humanos merecen gran parte de la culpa.

Pero todavía hay un poco de misterio sobre lo que puede hacer el nuevo chatbot y por qué lo haría. Su complejidad hace que sea difícil de diseccionar y aún más difícil de predecir, y los investigadores lo están mirando a través de una lente filosófica, así como del código duro de la informática.

Como cualquier otro estudiante, un sistema de IA puede aprender mala información de malas fuentes. ¿Y ese extraño comportamiento? Puede ser el reflejo distorsionado de un chatbot de las palabras y las intenciones de las personas que lo usan, dijo Terry Sejnowski, neurocientífico, psicólogo e informático que ayudó a sentar las bases intelectuales y técnicas para la inteligencia artificial moderna.

“Esto sucede cuando profundizas más y más en estos sistemas”, dijo el Dr. Sejnowski, profesor del Instituto Salk de Estudios Biológicos y la Universidad de California en San Diego, quien publicó un artículo de investigación sobre este fenómeno este mes en la revista científica. Revista Computación Neural. “Sea lo que sea que estés buscando, lo que sea que desees, ellos te lo proporcionarán”.

Google también mostró un nuevo chatbot, Bard, este mes, pero los científicos y los periodistas rápidamente se dieron cuenta de que estaba escribiendo tonterías sobre el telescopio espacial James Webb. OpenAI, una empresa nueva de San Francisco, lanzó el auge de los chatbots en noviembre cuando presentó ChatGPT, que tampoco siempre dice la verdad.

Los nuevos chatbots están impulsados ​​por una tecnología que los científicos llaman modelo de lenguaje grande, o LLM. Estos sistemas aprenden analizando enormes cantidades de texto digital extraído de Internet, que incluye volúmenes de material falso, sesgado y tóxico. El texto del que aprenden los chatbots también está un poco desactualizado, porque deben pasar meses analizándolo antes de que el público pueda usarlos.

A medida que analiza ese mar de información buena y mala de Internet, un LLM aprende a hacer una cosa en particular: adivinar la siguiente palabra en una secuencia de palabras.

Funciona como una versión gigante de la tecnología de autocompletar que sugiere la siguiente palabra a medida que escribe un correo electrónico o un mensaje instantáneo en su teléfono inteligente. Dada la secuencia “Tom Cruise es un ____”, podría adivinar “actor”.

Cuando chatea con un chatbot, el bot no solo se basa en todo lo que ha aprendido de Internet. Se basa en todo lo que le has dicho y en todo lo que te ha respondido. No es solo adivinar la siguiente palabra en su oración. Es adivinar la siguiente palabra en el largo bloque de texto que incluye tanto tus palabras como sus palabras.

Cuanto más larga se vuelve la conversación, más influencia tiene un usuario sin saberlo sobre lo que dice el chatbot. Si quieres que se enoje, se enoja, dijo el Dr. Sejnowski. Si lo persuades para que se vuelva espeluznante, se vuelve espeluznante.

Las reacciones de alarma ante el extraño comportamiento del chatbot de Microsoft eclipsaron un punto importante: el chatbot no tiene personalidad. Ofrece resultados instantáneos arrojados por un algoritmo informático increíblemente complejo.

Microsoft pareció reducir el comportamiento más extraño cuando puso un límite a la duración de las conversaciones con el chatbot de Bing. Eso fue como aprender del conductor de pruebas de un automóvil que ir demasiado rápido durante demasiado tiempo quemará el motor. El socio de Microsoft, OpenAI y Google también están explorando formas de controlar el comportamiento de sus bots.

Pero hay una advertencia para esta tranquilidad: debido a que los chatbots están aprendiendo de tanto material y juntándolo de una manera tan compleja, los investigadores no tienen del todo claro cómo los chatbots están produciendo sus resultados finales. Los investigadores observan qué hacen los bots y aprenden a poner límites a ese comportamiento, a menudo, después de que sucede.

Microsoft y OpenAI han decidido que la única forma en que pueden averiguar qué harán los chatbots en el mundo real es dejarlos sueltos y atraerlos cuando se desvíen. Creen que su gran experimento público vale la pena el riesgo.

El Dr. Sejnowski comparó el comportamiento del chatbot de Microsoft con el Espejo de Oesed, un artefacto místico en las novelas de Harry Potter de JK Rowling y las muchas películas basadas en su mundo inventivo de jóvenes magos.

“Eised” es “deseo” escrito al revés. Cuando la gente descubre el espejo, parece proporcionar verdad y comprensión. Pero no es así. Muestra los deseos profundamente arraigados de cualquiera que lo mire. Y algunas personas se vuelven locas si miran demasiado tiempo.

“Debido a que tanto el ser humano como los LLM se reflejan entre sí, con el tiempo tenderán hacia un estado conceptual común”, dijo el Dr. Sejnowski.

No fue sorprendente, dijo, que los periodistas comenzaran a ver un comportamiento espeluznante en el chatbot de Bing. Ya sea consciente o inconscientemente, empujaban al sistema en una dirección incómoda. A medida que los chatbots toman nuestras palabras y nos las reflejan, pueden reforzar y ampliar nuestras creencias y convencernos de que creamos lo que nos dicen.

El Dr. Sejnowski se encontraba entre un pequeño grupo de investigadores a fines de la década de 1970 y principios de la de 1980 que comenzaron a explorar seriamente un tipo de inteligencia artificial llamada red neuronal, que impulsa los chatbots de hoy.

Una red neuronal es un sistema matemático que aprende habilidades mediante el análisis de datos digitales. Esta es la misma tecnología que permite que Siri y Alexa reconozcan lo que dices.

Alrededor de 2018, los investigadores de empresas como Google y OpenAI comenzaron a construir redes neuronales que aprendieron de grandes cantidades de texto digital, incluidos libros, artículos de Wikipedia, registros de chat y otras cosas publicadas en Internet. Al identificar miles de millones de patrones en todo este texto, estos LLM aprendieron a generar texto por sí mismos, incluidos tweets, publicaciones de blog, discursos y programas de computadora. Incluso podrían mantener una conversación.

Estos sistemas son un reflejo de la humanidad. Aprenden sus habilidades analizando el texto que los humanos han publicado en Internet.

Pero esa no es la única razón por la que los chatbots generan un lenguaje problemático, dijo Melanie Mitchell, investigadora de inteligencia artificial en el Instituto Santa Fe, un laboratorio independiente en Nuevo México.

Cuando generan texto, estos sistemas no repiten lo que está en Internet palabra por palabra. Producen texto nuevo por su cuenta mediante la combinación de miles de millones de patrones.

Incluso si los investigadores entrenaran estos sistemas únicamente en la literatura científica revisada por pares, aún podrían producir declaraciones que fueran científicamente ridículas. Incluso si aprendieron únicamente del texto que era cierto, aún podrían producir falsedades. Incluso si aprendieron solo de un texto que era saludable, aún podrían generar algo espeluznante.

“No hay nada que les impida hacer esto”, dijo el Dr. Mitchell. “Simplemente están tratando de producir algo que suene como el lenguaje humano”.

Los expertos en inteligencia artificial saben desde hace tiempo que esta tecnología exhibe todo tipo de comportamientos inesperados. Pero no siempre pueden ponerse de acuerdo sobre cómo se debe interpretar este comportamiento o qué tan rápido mejorarán los chatbots.

Debido a que estos sistemas aprenden de muchos más datos de los que los humanos podríamos entender, incluso los expertos en inteligencia artificial no pueden entender por qué generan un texto en particular en un momento dado.

El Dr. Sejkowski dijo que creía que, a largo plazo, los nuevos chatbots tenían el poder de hacer que las personas fueran más eficientes y brindarles formas de hacer su trabajo mejor y más rápido. Pero esto viene con una advertencia tanto para las empresas que construyen estos chatbots como para las personas que los usan: también pueden alejarnos de la verdad y llevarnos a lugares oscuros.

“Esto es terra incógnita”, dijo el Dr. Sejkowski. “Los humanos nunca han experimentado esto antes”.