No, la IA de Google no es inteligente


Según una historia reveladora en el Washington Post el sábado, un ingeniero de Google dijo que después de cientos de interacciones con un sistema de IA de vanguardia e inédito llamado LaMDA, creía que el programa había alcanzado un nivel de conciencia.

En entrevistas y declaraciones públicas, muchos en la comunidad de IA rechazaron las afirmaciones del ingeniero, mientras que algunos señalaron que su historia destaca cómo la tecnología puede llevar a las personas a asignarle atributos humanos. Pero la creencia de que la IA de Google podría ser sensible destaca tanto nuestros temores como nuestras expectativas sobre lo que esta tecnología puede hacer.

LaMDA, que significa «Modelo de lenguaje para aplicaciones de diálogo», es uno de varios sistemas de inteligencia artificial a gran escala que se ha entrenado en grandes franjas de texto de Internet y puede responder a indicaciones escritas. Ellos tienen la tarea, esencialmente, de encontrar patrones y predecir qué palabra o palabras deben venir a continuación. Dichos sistemas se han vuelto cada vez más buenos para responder preguntas y escribir de maneras que pueden parecer convincentemente humanas, y Google mismo presentó a LaMDA en mayo pasado en una publicación de blog como uno que puede «participar de manera fluida sobre una cantidad aparentemente infinita de temas». » Pero los resultados también pueden ser extravagantes, extraños, perturbadores y propensos a divagar.

Según los informes, el ingeniero, Blake Lemoine, le dijo al Washington Post que compartió evidencia con Google de que LaMDA era sensible, pero la compañía no estuvo de acuerdo. En un comunicado, Google dijo el lunes que su equipo, que incluye especialistas en ética y tecnólogos, «revisó las preocupaciones de Blake según nuestros Principios de IA y le informaron que la evidencia no respalda sus afirmaciones».

El 6 de junio, Lemoine publicó en Medium que Google lo puso en licencia administrativa pagada «en relación con una investigación sobre preocupaciones éticas de IA que estaba planteando dentro de la empresa» y que podría ser despedido «pronto». (Mencionó la experiencia de Margaret Mitchell, quien había sido líder del equipo de inteligencia artificial ética de Google hasta que Google la despidió a principios de 2021 luego de su franqueza con respecto a la salida a fines de 2020 del entonces co-líder Timnit Gebru. Gebru fue expulsado después de peleas internas, incluido uno relacionado con un trabajo de investigación que el liderazgo de IA de la compañía le dijo que se retirara de la consideración para la presentación en una conferencia, o que quitara su nombre).

Un portavoz de Google confirmó que Lemoine permanece en licencia administrativa. Según The Washington Post, fue suspendido por violar la política de confidencialidad de la empresa.

Lemoine no estuvo disponible para hacer comentarios el lunes.

El surgimiento continuo de poderosos programas informáticos entrenados en datos de tesoros masivos también ha generado preocupaciones sobre la ética que rige el desarrollo y el uso de dicha tecnología. Y a veces los avances se ven a través de la lente de lo que puede venir, en lugar de lo que es posible actualmente.

Las respuestas de los integrantes de la comunidad de IA a la experiencia de Lemoine rebotaron en las redes sociales durante el fin de semana y, en general, llegaron a la misma conclusión: la IA de Google no se acerca a la conciencia. Abeba Birhane, miembro sénior de IA confiable en Mozilla, tuiteó el domingo, «hemos entrado en una nueva era de ‘esta red neuronal es consciente’ y esta vez va a consumir mucha energía para refutar». Gary Marcus, fundador y director ejecutivo de Geometric Intelligence, que se vendió a Uber, y autor de libros que incluyen «Reiniciar la IA: construir una inteligencia artificial en la que podamos confiar», llamó a la idea de LaMDA como «tonterías sobre zancos» en un tuit. Rápidamente escribió una publicación de blog señalando que todo lo que hacen estos sistemas de inteligencia artificial es hacer coincidir patrones extrayéndolos de enormes bases de datos de lenguaje.

En una entrevista el lunes con CNN Business, Marcus dijo que la mejor manera de pensar en sistemas como LaMDA es como una «versión glorificada» del software de autocompletar que puede usar para predecir la siguiente palabra en un mensaje de texto. Si escribes «Tengo mucha hambre, quiero ir a un», podría sugerir «restaurante» como la siguiente palabra. Pero esa es una predicción hecha usando estadísticas.

«Nadie debería pensar que el autocompletado, incluso con esteroides, es consciente», dijo.

En una entrevista, Gebru, quien es el fundador y director ejecutivo del Instituto de Investigación de IA Distribuida, o DAIR, dijo que Lemoine es víctima de numerosas empresas que afirman que la IA consciente o la inteligencia general artificial, una idea que se refiere a la IA que puede realizar tareas similares a las humanas e interactuar con nosotros de manera significativa, no están muy lejos. Por ejemplo, señaló, Ilya Sutskever, cofundadora y científica en jefe de OpenAI, tuiteó en febrero que «puede ser que las grandes redes neuronales de hoy sean ligeramente conscientes». Y la semana pasada, el vicepresidente y colega de Google Research, Blaise Aguera y Arcas, escribió en un artículo para The Economist que cuando comenzó a usar LaMDA el año pasado, «sentía cada vez más que estaba hablando con algo inteligente». (Ese artículo ahora incluye una nota del editor que señala que, desde entonces, Lemoine «supuestamente ha sido puesto en licencia después de afirmar en una entrevista con el Washington Post que LaMDA, el chatbot de Google, se había vuelto ‘consciente'»).

«Lo que está sucediendo es que existe una carrera para usar más datos, más cómputo, para decir que has creado esta cosa general que lo sabe todo, responde a todas tus preguntas o lo que sea, y ese es el tambor que has estado tocando», dijo Gebru. . «Entonces, ¿cómo te sorprendes cuando esta persona lo está llevando al extremo?»

En su declaración, Google señaló que LaMDA se ha sometido a 11 «revisiones distintas de principios de IA», así como a «investigaciones y pruebas rigurosas» relacionadas con la calidad, la seguridad y la capacidad de presentar declaraciones basadas en hechos. “Por supuesto, algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales de hoy, que no son sensibles”, dijo la compañía.

«Cientos de investigadores e ingenieros han conversado con LaMDA y no tenemos conocimiento de que nadie más haya hecho afirmaciones de gran alcance, o antropomorfizado a LaMDA, como lo ha hecho Blake», dijo Google.