El blogger detrás de “AI Weirdness” piensa que la IA de hoy es tonta y peligrosa

Claro, la inteligencia artificial está transformando las sociedades y economías del mundo, pero ¿puede una IA proponer ideas plausibles para un disfraz de Halloween?

Janelle Shane ha estado haciendo preguntas tan profundas desde que comenzó Rareza AI blog en 2016. Se especializa en la formación de redes neuronales (que sustentan la mayoría de las técnicas de aprendizaje automático actuales) en conjuntos de datos extravagantes, como compilaciones de instrucciones de tejer, sabores de heladoy nombres de colores de pintura. Luego le pide a la red neuronal que genere sus propias contribuciones a estas categorías, y sobreviene la hilaridad. No es probable que AI interrumpa la industria de la pintura con nombres como “Ronching Blue”, “Dorkwood” y “Turdly”.

Las payasadas de Shane tienen un propósito serio. Su objetivo es ilustrar las serias limitaciones de la IA de hoy y contrarrestar la narrativa prevaleciente que describe la IA también en su camino hacia superinteligencia y completa dominación humana. “El peligro de la IA no es que sea demasiado inteligente”, escribe Shane en su nuevo libro, “sino que no es lo suficientemente inteligente”.

El libro, que salió el martes, se llama Pareces una cosa y te amo. Toma su título extraño de una lista de líneas de recolección generadas por IA, todas las cuales al menos llamarían la atención de una persona si son gritadas, preferiblemente por un robot, en una barra abarrotada. El libro de Shane está lleno de su característico humor absurdo, pero también contiene explicaciones reales de los conceptos y técnicas de aprendizaje automático. Es una forma indolora de tomar AI 101.

Ella hablo con IEEE Spectrum sobre los peligros de confiar demasiado en los sistemas de IA, el extraño fenómeno de IA de las “jirafas” y su próximo disfraz de Halloween potencial.

Janelle Shane en. . .


  1. El origen desagradable de su blog.
  2. “Cuanto más estrecho sea el problema, más inteligente parecerá la IA”
  3. Por qué sobreestimar la IA es peligroso
  4. Jirafa!
  5. Máquina y creatividad humana
  1. El origen desagradable de su blog.

    IEEE Spectrum: Estudiaste ingeniería eléctrica como estudiante universitario y luego obtuviste una maestría en física. ¿Cómo te llevó a convertirte en el comediante de AI?

    Janelle Shane: He estado interesado en el aprendizaje automático desde el primer año de universidad. Durante la orientación en Michigan State, un profesor que trabajó en algoritmos evolutivos dio una charla sobre su trabajo. Estaba lleno de las anécdotas más interesantes, algunas de las cuales he usado en mi libro. Contó una anécdota sobre personas que configuraron un algoritmo de aprendizaje automático para diseñar lentes, y el algoritmo terminó diseñando un sistema óptico que funciona … excepto que una de las lentes tenía 50 pies de grosor, porque no especificaron que no podía No hagas eso.

    Comencé a trabajar en su laboratorio en óptica, haciendo trabajo de pulso láser ultracorto. Terminé haciendo mucha más óptica que el aprendizaje automático, pero siempre me pareció interesante. Un día me encontré con un lista de recetas que alguien había generado usando una red neuronal, y pensé que era divertido y recordé por qué pensaba que el aprendizaje automático era tan genial. Eso fue en 2016, hace mucho tiempo en la tierra de aprendizaje automático.

    Espectro: Entonces decidió “establecer la rareza como su objetivo” para su blog. ¿Cuál fue el primer experimento extraño sobre el que escribiste en tu blog?

    Shane: Estaba generando recetas de libros de cocina. La red neuronal apareció con ingredientes como: “Tome ¼ de libra de huesos o pan fresco”. Esa receta comenzó: “Dore el salmón en aceite, agregue la carne a la mezcla”. Estaba cometiendo errores que mostraban que la cosa no tenía memoria en absoluto.

    Espectro: Dices en el libro que puedes aprender mucho sobre IA dándole una tarea y viéndolo agitarse. ¿Qué aprendes?

    Shane: Una cosa que aprende es cuánto depende de las apariencias superficiales en lugar de la comprensión profunda. Con las recetas, por ejemplo: Obtuvo la estructura del título, categoría, ingredientes, instrucciones, rendimiento al final. Pero cuando miras más de cerca, tiene instrucciones como “Doblar el agua y enrollarla en cubos”. Claramente, esta cosa no entiende el agua, y mucho menos las otras cosas. Es reconocer ciertas frases que tienden a ocurrir, pero no tiene el concepto de que estas recetas estén describiendo algo real. Comienzas a darte cuenta de cuán estrechos son los algoritmos en este mundo. Solo saben exactamente lo que les decimos en nuestro conjunto de datos.

    VOLVER AL INICIO ↑

    “Cuanto más estrecho sea el problema, más inteligente parecerá la IA”

    Espectro: Eso me hace pensar en DeepMind AlphaGo, que fue aclamado universalmente como un triunfo para la IA. Puede jugar el juego Go mejor que cualquier humano, pero no sabe qué es Go. No sabe que está jugando un juego.

    Shane: No sabe qué es un humano, o si está jugando contra un humano u otro programa. Esa también es una buena ilustración de qué tan bien funcionan estos algoritmos cuando tienen un problema realmente limitado y bien definido.

    Cuanto más estrecho sea el problema, más inteligente parecerá la IA. Si no se trata solo de hacer algo repetidamente, sino de comprender algo, la coherencia disminuye. Por ejemplo, tome un algoritmo que pueda generar imágenes de objetos. Si el algoritmo se limita a las aves, podría ser un ave reconocible. Si se le pide a este mismo algoritmo que genere imágenes de cualquier animal, si su tarea es tan amplia, el ave que genera se convierte en una mancha de plumas marrones irreconocible sobre un fondo verde.

    Espectro: Eso suena … inquietante.

    Shane: Es inquietante de una manera extraña y divertida. Lo realmente inquietante son los humanos que genera. No los ha visto suficientes veces para tener una buena representación, por lo que terminas con una cosa amorfa, generalmente pálida, con demasiados orificios. Si le pidió que generara una imagen de una persona comiendo pizza, tendrá bloques de textura de pizza flotando. Pero si le das esa imagen a un algoritmo de reconocimiento de imágenes que fue entrenado en ese mismo conjunto de datos, dirá: “Oh, sí, esa es una persona que come pizza”.

    VOLVER AL INICIO ↑

    Por qué sobreestimar la IA es peligroso

    Espectro: ¿Lo ves como tu papel para perforar la exageración de la IA?

    Shane: Lo veo así. No mucha gente está sacando a relucir este lado de la IA. Cuando comencé a publicar mis resultados, la gente decía: “No entiendo, esto es IA, ¿no debería ser mejor que esto? ¿Por qué no lo entiende? Muchos de los ejemplos impresionantes de IA tienen una tarea realmente limitada, o se han configurado para ocultar la poca comprensión que tiene. Existe una motivación, especialmente entre las personas que venden productos basados ​​en IA, para representar a la IA como más competente y comprensiva de lo que realmente es.

    Espectro: Si las personas sobreestiman las habilidades de la IA, ¿qué riesgo representa?

    Shane: Me preocupo cuando veo personas que confían en la inteligencia artificial con decisiones que no puede manejar, como decisiones de contratación o decisiones sobre moderación de contenido. Estas son tareas realmente difíciles para que la IA tenga éxito. Habrá muchos problemas técnicos. Veo gente que dice: “La computadora decidió esto, por lo que debe ser imparcial, debe ser objetivo”.

    Esa es otra cosa que destaco en el trabajo que estoy haciendo. Si los datos incluyen sesgo, el algoritmo copiará ese sesgo. No se puede decir que no sea parcial, porque no comprende qué es el sesgo. Creo que ese mensaje es importante para que la gente lo entienda.

    Si se encuentra un sesgo, el algoritmo irá tras él. Es como, “Gracias a Dios, finalmente una señal que es confiable”. Pero para un problema difícil como: mirar estos currículums y decidir quién es el mejor para el trabajo. Si su tarea es replicar las decisiones de contratación humana, va a caer en el sesgo de género y el sesgo racial. Hay un ejemplo en el libro de un algoritmo de contratación que Amazon estaba desarrollando que discriminada contra las mujeres, porque los datos históricos en los que se formó tenían ese sesgo de género.

    Espectro: ¿Cuáles son las otras desventajas de usar sistemas de IA que realmente no entienden sus tareas?

    Shane: Existe el riesgo de confiar demasiado en AI y no examinar sus decisiones. Otro problema es que puede resolver los problemas incorrectos, sin que nadie se dé cuenta. Ha habido un par de casos en medicina. Por ejemplo, había un algoritmo que fue entrenado para reconocer cosas como el cáncer de piel. Pero en lugar de reconocer la condición real de la piel, se adhirió a señales como las marcas que hace un cirujano en la piel, o una regla colocada allí para la escala. Trataba esas cosas como un signo de cáncer de piel. Es otra indicación que estos algoritmos no entienden lo que están mirando y cuál es realmente el objetivo.

    VOLVER AL INICIO ↑

    Jirafa

    Espectro: En tu blog, a menudo tienes redes neuronales que generan nombres para cosas, como sabores de helados, colores de pintura, gatos, hongos y tipos de manzanas. ¿Cómo decides sobre los temas?

    Shane: Muy a menudo es porque alguien ha escrito con una idea o un conjunto de datos. Dirán algo como: “Soy el bibliotecario del MIT y tengo una lista completa de Títulos de tesis del MIT. ” Ese fue encantador. O dirán: “Somos un equipo de robótica de secundaria y sabemos dónde hay una lista de nombres del equipo de robótica. ” Es divertido echar un vistazo a un mundo diferente. Tengo que tener cuidado de no burlarme de las convenciones de nombres en el campo. Pero hay mucho humor simplemente en el completo fracaso de la red neuronal para comprender. Juegos de palabras en particular, realmente lucha con juegos de palabras.

    Espectro: Tu blog es bastante absurdo, pero me sorprende que el aprendizaje automático a menudo sea absurdo en sí mismo. ¿Puedes explicar el concepto de jirafa?

    Shane: Este concepto fue introducido originalmente por [internet security expert] Melissa Elliott. Ella propuso esta frase como una forma de describir la tendencia de los algoritmos a ver jirafas mucho más a menudo de lo que sería probable en el mundo real. Ella publicado un montón de ejemplos, como una foto de un campo vacío en el que un algoritmo de reconocimiento de imágenes ha informado con seguridad de que hay jirafas. ¿Por qué cree que las jirafas están presentes tan a menudo cuando en realidad son realmente raras? Porque están capacitados en conjuntos de datos en línea. La gente tiende a decir: “¡Mira, una jirafa!” Y luego toma una foto y compártela. No lo hacen tan a menudo cuando ven un campo vacío con rocas.

    También hay un chatbot eso tiene una peculiaridad encantadora. Si le muestra alguna foto y le pregunta cuántas jirafas hay en la foto, siempre responderá con algún número distinto de cero. Esta peculiaridad proviene de la forma en que se generaron los datos de entrenamiento: Estas fueron preguntas formuladas y respondidas por humanos en línea. La gente solía no hacer la pregunta “¿Cuántas jirafas hay?” cuando la respuesta fue cero. Para que pueda mostrarle una imagen de alguien con un control remoto Wii. Si le preguntas cuántas jirafas hay en la imagen, dirá dos.

    VOLVER AL INICIO ↑

    Máquina y creatividad humana

    Espectro: La IA puede ser absurda y quizás también creativa. Pero usted señala que los proyectos de arte de AI son realmente colaboraciones de humanos con IA: recopilar el conjunto de datos, entrenar el algoritmo y curar la salida son todos actos artísticos por parte del humano. ¿Ves tu trabajo como un proyecto de arte humano-AI?

    Shane: Sí, creo que hay una intención artística en mi trabajo; podrías llamarlo literario o visual. No es tan interesante simplemente tomar un algoritmo pre-entrenado que ha sido entrenado en datos utilitarios y decirle que genere un montón de cosas. Incluso si el algoritmo no es uno en el que me he entrenado, pienso, qué está haciendo que sea interesante, qué tipo de historia puedo contar al respecto y qué quiero mostrarle a la gente.

    Espectro: Durante los últimos tres años has estado obteniendo redes neuronales para generar ideas para disfraces de Halloween. A medida que los modelos de lenguaje han mejorado dramáticamente en los últimos tres años, ¿las sugerencias de vestuario se están volviendo menos absurdas?

    Shane: Si. Antes tenía muchas más palabras sin sentido. Esta vez Obtuve frases relacionadas con cosas reales en el conjunto de datos. No creo que los datos de entrenamiento tuvieran las palabras Flying Dutchman o percebes. Pero fue capaz de aprovechar su conocimiento de qué palabras están relacionadas para sugerir cosas como la lapa sexy y el sexy Flying Dutchman.

    Espectro: Este año, vi en Twitter que alguien hizo el disfraz de jirafa gothy suceder. ¿Te vestirías alguna vez para Halloween con un disfraz sugerido por la red neuronal?

    Shane: Pienso que eso seria divertido. Pero habría algunos desafíos. Me encantaría ir como la sexy Flying Dutchman. Pero mi ambición puede obligarme a hacer algo más como una lista de partes de las piernas.

    VOLVER AL INICIO ↑

El blogger detrás de "AI Weirdness" piensa que la IA de hoy es tonta y peligrosa

Recent Articles

Las acciones australianas caerán, mientras Dow Jones se hunde por el COVID-19 y la incertidumbre electoral

Se espera que el mercado de valores australiano caiga por quinto día consecutivo y se mueva por debajo de su mínimo de tres semanas.Los...

El crecimiento de la nube ayuda a Microsoft a superar las expectativas de Wall Street

Microsoft informó el martes ganancias trimestrales que superaron las expectativas de Wall Street, ya que continuó capeando la pandemia de coronavirus en medio de...

La aplicación móvil de YouTube obtiene nuevos gestos y controles de reproducción

La actualización más destacada es el nuevo gesto que permite a los usuarios ingresar y salir del modo de pantalla completa simplemente deslizando hacia...

Related Stories

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí