Las computadoras ya aprenden de nosotros. ¿Pero pueden enseñarse a sí mismos?

Este artículo es parte de nuestro último Informe especial de Inteligencia Artificial, que se centra en cómo la tecnología continúa evolucionando y afectando nuestras vidas.

La inteligencia artificial parece estar en todas partes, pero lo que realmente estamos presenciando es una revolución de aprendizaje supervisado: enseñamos a las computadoras a ver patrones, tanto como enseñamos a los niños a leer. Pero el futuro de A.I. Los investigadores dicen que depende de los sistemas informáticos que aprenden solos, sin supervisión.

Cuando una madre señala a un perro y le dice a su bebé: “Mire al perrito”, el niño aprende cómo llamar a los peludos amigos de cuatro patas. Es decir aprendizaje supervisado. Pero cuando ese bebé se para y tropieza, una y otra vez, hasta que puede caminar, eso es otra cosa.

Las computadoras son iguales. Así como los humanos aprenden principalmente a través de la observación o el ensayo y error, las computadoras tendrán que ir más allá del aprendizaje supervisado para alcanzar el santo grial de la inteligencia a nivel humano.

“Queremos pasar de sistemas que requieren mucho conocimiento humano e ingeniería de mano humana” hacia “sistemas cada vez más autónomos”, dijo David Cox, Director de IBM de MIT-IBM Watson AI Lab. Incluso si un sistema de aprendizaje supervisado leyera todos los libros del mundo, señaló, aún carecería de inteligencia a nivel humano porque gran parte de nuestro conocimiento nunca se anota.

El aprendizaje supervisado depende de datos anotados: imágenes, audio o texto etiquetado minuciosamente por hordas de trabajadores. Rodean a las personas o delinean las bicicletas en imágenes del tráfico de la calle. Los datos etiquetados se envían a algoritmos informáticos, enseñándoles a los algoritmos qué buscar. Después de ingerir millones de imágenes etiquetadas, los algoritmos se vuelven expertos en reconocer lo que se les ha enseñado a ver.

Pero el aprendizaje supervisado está limitado a dominios relativamente estrechos definidos en gran medida por los datos de capacitación.

“Hay un límite a lo que puede aplicar el aprendizaje supervisado en la actualidad debido al hecho de que necesita una gran cantidad de datos etiquetados”, dijo Yann LeCun, uno de los fundadores de la actual revolución de inteligencia artificial y un receptor de la Premio Turing, el equivalente a un Premio Nobel de informática, en 2018. Es vicepresidente y jefe de A.I. científico en Facebook.

Los métodos que no dependen de una supervisión tan precisa proporcionada por humanos, aunque mucho menos explorados, se han visto eclipsados ​​por el éxito del aprendizaje supervisado y sus múltiples aplicaciones prácticas, desde automóviles autónomos hasta traducción de idiomas. Pero el aprendizaje supervisado aún no puede hacer muchas cosas simples, incluso para los niños pequeños.

“No será suficiente para el IA de nivel humano”, dijo Yoshua Bengioquien fundó Mila, el Instituto de IA de Quebecy compartió el Premio Turing con el Dr. LeCun y Geoffrey Hinton. “Los humanos no necesitan tanta supervisión”.

Ahora, los científicos a la vanguardia de la investigación de inteligencia artificial han vuelto su atención a los métodos menos supervisados. “Hay ideas auto supervisadas y otras ideas relacionadas, como reconstruir la entrada después de forzar el modelo a una representación compacta, predecir el futuro de un video o enmascarar parte de la entrada e intentar reconstruirla”, dijo Samy Bengio, Hermano de Yoshua y científico investigador en Google.

También hay aprendizaje de refuerzo, con una supervisión muy limitada que no se basa en datos de capacitación. Aprendizaje de refuerzo en ciencias de la computación, promovido por Richard Sutton, ahora en la Universidad de Alberta en Canadá, sigue el modelo del aprendizaje basado en recompensas en el cerebro: piense en una rata que aprende a empujar una palanca para recibir una bolita de comida. La estrategia se ha desarrollado para enseñar a los sistemas informáticos a tomar medidas.

Establezca una meta, y un sistema de aprendizaje de refuerzo trabajará hacia esa meta a través de prueba y error hasta que reciba una recompensa constantemente. Los humanos hacen esto todo el tiempo. “El refuerzo es una idea obvia si estudias psicología”, dijo el Dr. Sutton.

Un término más inclusivo para el futuro de IA, dijo, es “aprendizaje predictivo”, que significa sistemas que no solo reconoce patrones sino que también predice resultados y elige un curso de acción. “Todos están de acuerdo en que necesitamos aprendizaje predictivo, pero no estamos de acuerdo sobre cómo llegar allí”, dijo el Dr. Sutton. “Algunas personas piensan que llegamos allí con extensiones de ideas de aprendizaje supervisado; otros piensan que llegamos allí con extensiones de ideas de aprendizaje de refuerzo “.

Pieter Abbeelquien dirige el Laboratorio de aprendizaje de robots Berkeley en California, utiliza sistemas de refuerzo de aprendizaje que compiten contra sí mismos para aprender más rápido en un método llamado auto-juego. Robots simulados idénticos, por ejemplo, lucha de sumo entre sí e inicialmente no son muy buenos, pero mejoran rápidamente. “Al jugar contra tu propio nivel o contra ti mismo, puedes ver qué variaciones ayudan y desarrollar gradualmente la habilidad”, dijo.

Tan poderoso como el aprendizaje de refuerzo es, el Dr. LeCun dice que cree que otras formas de aprendizaje automático son más críticas para la inteligencia general.

“Mi dinero está en el aprendizaje auto supervisado”, dijo, refiriéndose a los sistemas informáticos que ingieren grandes cantidades de datos sin etiquetar y tienen sentido sin supervisión ni recompensa. Está trabajando en modelos que aprenden por observación, acumulando suficiente conocimiento de fondo que puede surgir algún tipo de sentido común.

“Imagine que le da a la máquina una entrada, un videoclip, por ejemplo, y le pide que prediga lo que sucederá después”, dijo el Dr. LeCun en su oficina en la Universidad de Nueva York, decorado con imágenes de la película “2001: Una odisea del espacio. “Para que la máquina se entrene para hacer esto, tiene que desarrollar alguna representación de los datos. Tiene que entender que hay objetos que son animados y otros que son inanimados. Los objetos inanimados tienen trayectorias predecibles, los otros no “.

Después de que un sistema informático auto supervisado “mira” millones de videos de YouTube, dijo, destilará alguna representación del mundo de ellos. Luego, cuando se le pide al sistema que realice una tarea particular, puede recurrir a esa representación; en otras palabras, puede enseñarse a sí mismo.

El Dr. Cox en el MIT-IBM Watson AI Lab está trabajando de manera similar, pero combina formas más tradicionales de inteligencia artificial con redes profundas en lo que su laboratorio llama A.I. neuro-simbólico. El objetivo, dice, es construir A.I. sistemas que pueden adquirir un nivel básico de conocimiento de sentido común similar al de los humanos.

“Una gran parte de lo que hacemos en nuestro trabajo diario es refinar constantemente nuestros modelos mentales del mundo y luego usar esos modelos mentales para resolver problemas”, dijo. “Eso encapsula mucho de lo que nos gustaría A.I. que hacer.”

Muchas personas esperan que los robots eventualmente encarnen inteligencia artificial y actúen libremente en el mundo. Pero se necesitará más que un aprendizaje supervisado para llegar allí. Actualmente, los robots pueden operar solo en entornos bien definidos con poca variación.

“Nuestra suposición de trabajo es que si construimos algoritmos suficientemente generales, entonces todo lo que tenemos que hacer, una vez hecho esto, es colocarlos en robots que están en el mundo real haciendo cosas reales”, dijo Sergey Levine, profesor asistente en Berkeley, quien dirige la universidad Robótica A.I. Y laboratorio de aprendizaje.

Está utilizando una forma de aprendizaje auto supervisado en el que los robots exploran su entorno y acumulan los conocimientos básicos de los que hablan el Dr. LeCun y el Dr. Cox.

“Simplemente juegan con su entorno y aprenden”, dijo el Dr. Levine sobre los robots del laboratorio. “El robot esencialmente imagina algo que podría suceder y luego trata de descubrir cómo hacer que eso suceda”.

Al hacerlo, los robots acumulan un conjunto de conocimientos que pueden usar en un nuevo entorno. Eventualmente, los robots podrían conectarse en red para que compartan el conocimiento que cada uno adquiere.

“Un robot pasa unas horas jugando con una puerta, moviéndola de un lado a otro, y puede abrir esa puerta”, dijo el Dr. Levine. “Tenemos seis robots diferentes, por lo que si todos jugamos con diferentes tipos de puertas, tal vez cuando le demos una nueva puerta, en general se generalizará a esa nueva puerta porque ha visto suficiente variedad”.

Dr. Abbeel, fundador de Covariante, una compañía que construye A.I. La robótica para la automatización industrial, dijo que eventualmente todos estos métodos probablemente se combinarían.

¿Podríamos construir máquinas en algún momento que sean tan inteligentes como los humanos? “Por supuesto; no hay duda “, dijo el Dr. LeCun. “Es cuestión de tiempo.”

Craig S. Smith es un ex corresponsal de The Times y presenta el podcast “Ojo en A.I.

Related Stories