Elon Musk ha despedido al equipo de ‘IA ética’ de Twitter

A medida que surgieron más y más problemas con la IA, incluidos los prejuicios sobre la raza, el género y la edad, muchas empresas tecnológicas instalaron equipos de “IA ética” aparentemente dedicados a identificar y mitigar tales problemas.

La unidad META de Twitter fue más progresista que la mayoría en la publicación de detalles de problemas con los sistemas de IA de la empresa y en permitir que investigadores externos probaran sus algoritmos en busca de nuevos problemas.

El año pasado, después de que los usuarios de Twitter notaron que un algoritmo de recorte de fotos parecía favorecer a las caras blancas al elegir cómo recortar las imágenes, Twitter tomó la decisión inusual de permitir que su unidad META publicara los detalles del sesgo que descubrió. El grupo también lanzó uno de los primeros concursos de “recompensa de sesgo”, que permitió a los investigadores externos probar el algoritmo en busca de otros problemas. En octubre pasado, el equipo de Chowdhury también publicó detalles de sesgos políticos no intencionales en Twitter, mostrando cómo las fuentes de noticias de tendencia derechista fueron, de hecho, promocionadas más que las de tendencia izquierdista.

Muchos investigadores externos vieron los despidos como un golpe, no solo para Twitter sino también para los esfuerzos por mejorar la IA. “Qué tragedia”, escribió en Twitter Kate Starbird, profesora asociada de la Universidad de Washington que estudia la desinformación en línea.

contenido de Twitter

Este contenido también se puede ver en el sitio que se origina de.

“El equipo de META fue uno de los únicos buenos casos de estudio de una empresa de tecnología que dirige un grupo de ética de IA que interactúa con el público y la academia con una credibilidad sustancial”, dice Ali Alkhatib, director del Centro de Ética de Datos Aplicados de la Universidad de San Francisco.

Alkhatib dice que Chowdhury está increíblemente bien considerado dentro de la comunidad de ética de la IA y su equipo hizo un trabajo realmente valioso para que Big Tech rindiera cuentas. “No hay muchos equipos de ética corporativa que valga la pena tomar en serio”, dice. “Este fue uno de aquellos cuyo trabajo enseñé en las clases”.

Mark Riedl, profesor que estudia IA en Georgia Tech, dice que los algoritmos que usan Twitter y otros gigantes de las redes sociales tienen un gran impacto en la vida de las personas y deben estudiarse. “Si META tuvo algún impacto dentro de Twitter es difícil de discernir desde el exterior, pero la promesa estaba ahí”, dice.

Riedl agrega que permitir que personas externas investiguen los algoritmos de Twitter fue un paso importante hacia una mayor transparencia y comprensión de los problemas relacionados con la IA. “Se estaban convirtiendo en un perro guardián que podía ayudarnos a entender cómo nos afectaba la IA”, dice. “Los investigadores de META tenían credenciales sobresalientes con una larga historia de estudio de la IA para el bien social”.

En cuanto a la idea de Musk de abrir el algoritmo de Twitter, la realidad sería mucho más complicada. Hay muchos algoritmos diferentes que afectan la forma en que se muestra la información, y es un desafío entenderlos sin los datos en tiempo real que reciben en términos de tweets, vistas y me gusta.

La idea de que hay un algoritmo con una inclinación política explícita podría simplificar demasiado un sistema que puede albergar sesgos y problemas más insidiosos. Descubrirlos es precisamente el tipo de trabajo que estaba haciendo el grupo META de Twitter. “No hay muchos grupos que estudien rigurosamente los sesgos y errores de sus propios algoritmos”, dice Alkhatib de la Universidad de San Francisco. “META hizo eso”. Y ahora, no lo hace.