La IA y el cerebro humano: ¿qué tan similares son?

La IA y el cerebro humano: ¿qué tan similares son?

En el prólogo de su libro de 2020, El problema de la alineación: aprendizaje automático y valores humanos, Brian Christian cuenta la historia de los inicios de la idea de las redes neuronales artificiales. En 1942, Walter Pitts, un matemático y lógico adolescente, y Warren McCulloch, un neurólogo en la mitad de su carrera, se unieron para desentrañar los misterios de cómo funcionaba el cerebro. Ya se sabía que las neuronas disparan o no disparan debido a un umbral de activación.

“Si la suma de las entradas a una neurona excediera este umbral de activación, entonces la neurona se dispararía; de lo contrario, no se dispararía”, explica Christian.

McCulloch y Pitts vieron de inmediato la lógica en el umbral de activación: que el pulso de la neurona, con sus estados de encendido y apagado, era una especie de puerta lógica. En el papel de 1943 que surgió de su colaboración temprana, escribieron: “Debido al carácter de ‘todo o nada’ de la actividad nerviosa, los eventos neuronales y las relaciones entre ellos pueden tratarse por medio de la lógica proposicional”. Se dieron cuenta de que el cerebro era una especie de máquina celular, dice Christian, “con el pulso o su ausencia significando encendido o apagado, sí o no, verdadero o falso. Este fue realmente el lugar de nacimiento de las redes neuronales”.

Un modelo del cerebro, no una copia

Entonces, la inteligencia artificial (IA) se inspiró en el cerebro humano, pero ¿cuánto se parece realmente al cerebro? Yoshua Bengio, pionero en aprendizaje profundo y redes neuronales artificiales, tiene cuidado de señalar que la IA es un modelo de lo que sucede en el cerebro, no una copia.

“Se inspiró mucho del cerebro en el diseño de las redes neuronales tal como se usan ahora”, dice Bengio, profesor de informática en la Universidad de Montreal y director científico de la Instituto MILA-Quebec AI, “pero los sistemas que hemos construido también son muy diferentes del cerebro en muchos aspectos”. Por un lado, explica, los sistemas de IA de última generación no usan pulsos, sino Números de punto flotante. “A la gente del lado de la ingeniería no le importa tratar de reproducir nada en el cerebro”, dice. “Solo quieren hacer algo que funcione”.


Lee mas: Los pros y los contras de la inteligencia artificial


Pero como señaló Christian, lo que funciona en las redes neuronales artificiales es notablemente similar a lo que funciona en las redes neuronales biológicas. Si bien está de acuerdo en que estos programas no son exactamente como el cerebro, Randall O’Reilly dice: “Los modelos de redes neuronales se ajustan más a lo que realmente es el cerebro”. haciendo que a una descripción puramente abstracta a nivel computacional”.

O’Reilly es neurocientífico e informático en la Universidad de California Davis. “Las unidades de estos modelos están haciendo algo parecido a lo que hacen las neuronas reales en el cerebro”, dice. “No es solo una analogía o una metáfora. Realmente hay algo compartido a ese nivel”.

Similar a Inteligencia Artificial

el mas nuevo arquitectura del transformador que impulsa grandes modelos de lenguaje, como GPT3 y ChatGPT, es incluso más similar al cerebro en algunos aspectos que los modelos anteriores. Estos sistemas más nuevos, dice O’Reilly, están mapeando cómo funcionan las diferentes áreas del cerebro, no solo lo que está haciendo una neurona individual. Pero no es un mapeo directo; es lo que O’Reilly llama una “remezcla” o un “mash-up”.

El cerebro tiene áreas separadas, como el hipocampo y la corteza, cada una de las cuales se especializa en una forma diferente de computación. El transformador, dice O’Reilly, combina esos dos juntos. “Me lo imagino como una especie de puré de cerebro”, dice. Este puré se esparce por cada parte de la red y hace algunas cosas parecidas al hipocampo y algunas cosas parecidas a la corteza.

O’Reilly compara las redes neuronales genéricas que precedieron a los transformadores con la corteza posterior, que está involucrada en la percepción. Cuando llegaron los transformadores, agregaron algunas funciones similares a las del hipocampo, que, explica, es bueno para almacenar y recuperar datos detallados, por ejemplo, lo que comiste en el desayuno o la ruta que tomas para llegar al trabajo. Pero en lugar de tener un hipocampo separado, todo el sistema de IA es como un hipocampo enorme, hecho puré.

Mientras que una computadora estándar tiene que buscar información por su dirección en la memoria o algún tipo de etiqueta, la red neuronal puede recuperar información automáticamente en función de las indicaciones (¿qué desayunaste?). Esto es lo que O’Reilly llama el “superpoder” de las redes neuronales.

Sin embargo, el cerebro es diferente

Las similitudes entre el cerebro humano y las redes neuronales son sorprendentes, pero las diferencias son, quizás, profundas. Una forma en que estos modelos difieren del cerebro humano, dice O’Reilly, es que no tienen el ingrediente esencial para la conciencia. Él y otros que trabajan en esta área postulan que para tener conciencia, las neuronas deben tener una conversación de ida y vuelta.

“La esencia de la conciencia es realmente que tienes una idea del estado de tu cerebro”, dice, y conseguir eso requiere conectividad bidireccional. Sin embargo, todos los modelos existentes solo tienen conversaciones unidireccionales entre las neuronas de IA. Sin embargo, O’Reilly está trabajando en ello. Su investigación se ocupa precisamente de este tipo de conectividad bidireccional.

No todos los intentos de aprendizaje automático se han basado en redes neuronales, pero los más exitosos sí. Y eso probablemente no debería ser sorprendente. Durante miles de millones de años, la evolución encontró la mejor manera de crear inteligencia. Ahora estamos redescubriendo y adaptando esas mejores prácticas, dice Christian.

“No es un accidente, no es una mera coincidencia”, dice, “que los modelos más inspirados biológicamente hayan resultado ser los de mejor desempeño”.