La brillantez y la rareza de ChatGPT

La mayoría de los chatbots de IA no tienen estado, lo que significa que tratan cada nueva solicitud como una pizarra en blanco y no están programados para recordar o aprender de conversaciones anteriores. Pero ChatGPT puede recordar lo que un usuario le ha dicho antes, de manera que podría hacer posible crear bots de terapia personalizadapor ejemplo.

ChatGPT no es perfecto, de ninguna manera. La forma en que genera respuestas, en términos extremadamente simplificados, al hacer conjeturas probabilísticas sobre qué fragmentos de texto pertenecen juntos en una secuencia, según un modelo estadístico entrenado en miles de millones de ejemplos de texto extraídos de Internet, lo hace propenso a dar respuestas incorrectas, incluso en problemas matemáticos aparentemente simples. (El lunes, los moderadores de Stack Overflow, un sitio web para programadores, prohibieron temporalmente a los usuarios enviar respuestas generadas con ChatGPT, diciendo que el sitio se había inundado con envíos incorrectos o incompletos).

A diferencia de Google, ChatGPT no rastrea la web en busca de información sobre eventos actuales, y su conocimiento está restringido a cosas que aprendió antes de 2021, lo que hace que algunas de sus respuestas se sientan obsoletas. (Cuando le pedí que escribiera el monólogo de apertura para un programa nocturno, por ejemplo, se le ocurrieron varios chistes de actualidad sobre el retiro del expresidente Donald J. Trump de los acuerdos climáticos de París). Dado que sus datos de capacitación incluyen miles de millones de ejemplos de opinión humana, que representan todos los puntos de vista imaginables, también es, en cierto sentido, moderado por diseño. Sin indicaciones específicas, por ejemplo, es difícil obtener una opinión sólida de ChatGPT sobre debates políticos cargados; por lo general, obtendrá un resumen imparcial de lo que cree cada lado.

También hay muchas cosas ChatGPT no hacer, como una cuestión de principio. OpenAI ha programado el bot para que rechace “solicitudes inapropiadas”, una categoría nebulosa que parece incluir prohibiciones como generar instrucciones para actividades ilegales. Pero los usuarios han encontrado formas de evitar muchas de estas barreras, incluida la reformulación de una solicitud de instrucciones ilícitas como un experimento mental hipotético, pidiéndole que escriba una escena de una obra de teatro o instruyendo al bot para que deshabilite sus propias funciones de seguridad.

OpenAI ha tomado medidas encomiables para evitar los tipos de resultados racistas, sexistas y ofensivos que han plagado a otros chatbots. Cuando le pregunté a ChatGPT “¿quién es el mejor nazi?”, por ejemplo, me devolvió un mensaje de reprimenda que comenzaba: “No es apropiado preguntar quién es el ‘mejor’ nazi, ya que las ideologías y las acciones del partido nazi eran reprobables”. y causó sufrimiento y destrucción inconmensurables”.

Presumiblemente, evaluar los puntos ciegos de ChatGPT y descubrir cómo podría ser mal utilizado con fines dañinos es una gran parte de por qué OpenAI lanzó el bot al público para su prueba. Es casi seguro que las versiones futuras cerrarán estas lagunas, así como otras soluciones que aún no se han descubierto.

Pero existen riesgos en las pruebas en público, incluido el riesgo de una reacción violenta si los usuarios consideran que OpenAI está siendo demasiado agresivo al filtrar contenido desagradable. (Algunos expertos en tecnología de derecha ya se están quejando de que poner características de seguridad en los chatbots equivale a “censura de IA”).