Un algoritmo de IA inspirado en cómo aprenden los niños es más difícil de confundir

Manguera de información: La práctica estándar para enseñar un algoritmo de aprendizaje automático es proporcionarle todos los detalles a la vez. Supongamos que está creando un sistema de clasificación de imágenes para reconocer diferentes especies de animales. Usted le muestra ejemplos de cada especie y los etiqueta en consecuencia: “pastor alemán” y “caniche” para perros, por ejemplo.

Pero cuando un padre está enseñando a un niño, el enfoque es completamente diferente. Comienzan con etiquetas mucho más amplias: cualquier especie de perro es al principio simplemente “un perro”. Solo después de que el niño ha aprendido a distinguir estas categorías más simples, el padre divide cada una de ellas en más detalles.

Confusión disipada: Inspirándose en este enfoque, los investigadores de la Universidad Carnegie Mellon crearon una nueva tecnica que enseña una red neuronal para clasificar las cosas en etapas. En cada etapa, la red ve los mismos datos de entrenamiento. Pero las etiquetas comienzan de manera simple y amplia, y se vuelven más específicas con el tiempo.

Para determinar esta progresión de dificultad, los investigadores primero mostraron a la red neuronal los datos de entrenamiento con las etiquetas detalladas finales. Luego calcularon lo que se conoce como una matriz de confusión, que muestra las categorías que el modelo tuvo más dificultad para distinguir. Los investigadores utilizaron esto para determinar las etapas del entrenamiento, agrupando las categorías menos distinguibles juntas bajo una etiqueta en las primeras etapas y dividiéndolas nuevamente en etiquetas más finas con cada iteración.

Mejor precisión: En las pruebas con varios conjuntos de datos de clasificación de imágenes populares, el enfoque casi siempre condujo a un modelo final de aprendizaje automático que superó a uno entrenado por el método convencional. En el mejor de los casos, aumentó la precisión de clasificación hasta un 7%.

Aprendizaje curricular: Si bien el enfoque es nuevo, la idea detrás de él no lo es. La práctica de entrenar una red neuronal en etapas crecientes de dificultad se conoce como “aprendizaje curricular” y existe desde la década de 1990. Pero los esfuerzos previos de aprendizaje curricular se centraron en mostrar a la red neuronal un subconjunto diferente de datos en cada etapa, en lugar de los mismos datos con diferentes etiquetas. El último enfoque fue presentado por la coautora del periódico, Otilia Stretcu, en la Conferencia Internacional de Representaciones de Aprendizaje la semana pasada.

Por qué es importante: La gran mayoría de las investigaciones de aprendizaje profundo de hoy enfatizan el tamaño de los modelos: si un sistema de clasificación de imágenes tiene dificultades para distinguir entre diferentes objetos, significa que no ha sido entrenado en suficientes ejemplos. Pero al tomar conocimiento de la forma en que los humanos aprenden, los investigadores encontraron un nuevo método que les permitió obtener mejores resultados con exactamente los mismos datos de entrenamiento. Sugiere una forma de crear algoritmos de aprendizaje más eficientes en datos.

Related Stories

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí