La investigación de inteligencia artificial de Microsoft genera controversia sobre el posible uso de desinformación

El modelo de IA “DeepCom” desarrollado por el equipo de Microsoft y la Universidad Beihang demostró que podía imitar efectivamente el comportamiento humano al leer y comentar artículos de noticias escritos en inglés y chino. Pero tél papel original cargado en el servidor de preimpresión de arXiv el 26 de septiembre no se mencionaron cuestiones éticas con respecto al posible mal uso de la tecnología. La omisión provocó una reacción violenta que finalmente llevó al equipo de investigación a cargar un papel actualizado abordando esas preocupaciones.

“Un artículo de investigadores de Beijing presenta una nueva técnica de aprendizaje automático cuyos usos principales parecen ser el trolling y la desinformación”, escribió Arvind Narayanan, un informático del Centro de Política de Tecnología de la Información de la Universidad de Princeton, en un Publicación en Twitter. “Ha sido aceptado para su publicación en EMLNP [sic], uno de los 3 mejores lugares para la investigación del procesamiento del lenguaje natural. Cool Cool Cool [sic]. “

El documento de Microsoft y la Universidad de Beihang ha estimulado la discusión dentro de la comunidad de investigación más amplia sobre si los investigadores de aprendizaje automático deberían seguir pautas más estrictas y reconocer más abiertamente las posibles implicaciones negativas de ciertas aplicaciones de IA. El documento está actualmente programado para su presentación en el 2019 Conferencia sobre métodos empíricos en el procesamiento del lenguaje natural (EMNLP) en Hong Kong el 7 de noviembre.

Tanto Narayanan como David Ha, científico de Google Brain Research, expresó su escepticismo de la sugerencia del artículo original de que “La generación automática de comentarios de noticias es beneficiosa para aplicaciones reales, pero no ha atraído suficiente atención de la comunidad de investigación”. Ha preguntó sarcásticamente si habría un documento de seguimiento sobre un modelo de IA llamado “DeepTroll” o “DeepWumao” (“Wumao” es el nombre de los comentaristas chinos de Internet pagados por el Partido Comunista Chino para ayudar a manipular la opinión pública haciendo comentarios en línea).

Jack Clark, un ex periodista convertido en director de políticas de la organización de investigación OpenAI, dio un
refutación contundente a la sugerencia del periódico: “Como ex periodista, puedo decirte que esto es una mentira”.

Investigadores como Alvin Grissom II, un científico de la computación en el Ursinus College en Collegeville, Penn., planteó preguntas sobre qué tipos de investigación sobre IA merecen ser publicitados por conferencias de investigación prominentes como EMNLP. “Creo que hay una diferencia cualitativa entre la investigación sobre problemas fundamentales que tienen el potencial de mal uso y aplicaciones que son específicamente adecuadas, si no están diseñadas para, mal uso”, dijo Grissom en un Publicación en Twitter.

Los investigadores de la Universidad de Microsoft y Beihang papel actualizado, que reconoce algunas de las preocupaciones éticas, se cargó después de que Katyanna Quach informara sobre la controversia por El registro. La versión actualizada también eliminó la declaración del documento original sobre cómo “la generación automática de noticias es beneficiosa para aplicaciones reales”.

“Somos conscientes de posibles problemas éticos con la aplicación de estos métodos para generar comentarios de noticias que se toman como humanos”, escribieron los investigadores en la conclusión del artículo actualizado. “Esperamos estimular la discusión sobre las mejores prácticas y controles sobre estos métodos en torno a los usos responsables de la tecnología”.

La conclusión del documento actualizado sobre posibles aplicaciones también menciona específicamente que el equipo estaba “motivado para ampliar las capacidades de un chatbot popular”. Eso casi con certeza se refiere a la sede de Microsoft en China chatbot llamado Xiaoice. Tiene más de 660 millones de usuarios en todo el mundo y se ha convertido en una celebridad virtual en China. Wei Wu, uno de los coautores del artículo de DeepCom, ocupa el cargo de científico principal aplicado para el equipo Microsoft Xiaoice en Microsoft Research Asia en Beijing.

Los investigadores de la Universidad de Microsoft y Beihang no proporcionaron mucha información adicional cuando fueron contactados para hacer comentarios. En cambio, tanto Wu como un representante de Microsoft se refirieron a la versión actualizada del documento que reconoce los problemas éticos. Pero el representante de Microsoft no pudo referir IEEE Spectrum incluso a una fuente que podría hablar sobre el proceso de revisión de investigación de la empresa.

“Me gustaría saber de Microsoft si tenían algún proceso de revisión ética en marcha, y si planean realizar algún cambio en sus procesos en el futuro en respuesta a las preocupaciones sobre este documento”, escribió Narayanan en un correo electrónico a IEEE Spectrum. Su trabajo anterior incluye investigaciones sobre cómo la IA puede aprender prejuicios raciales y de género del lenguaje

Microsoft ya se había posicionado como líder en ética de IA con iniciativas como la de la empresa. IA y ética en ingeniería e investigación (AETHER) Comité. El consejo de ese comité supuestamente ha llevado a Microsoft a rechazar ciertas ventas de su tecnología comercializada en el pasado. No está tan claro cuánto está involucrado AETHER en la detección de colaboraciones de investigación de IA antes de la etapa de aplicación y comercialización de IA.

Mientras tanto, Nayaranan y otros investigadores también han formulado preguntas sobre el proceso de revisión para aceptar documentos en la conferencia EMNLP que se celebra en Hong Kong. “Las conferencias de seguridad en estos días requieren presentaciones para describir consideraciones éticas y cómo los autores siguieron los principios éticos”, escribió Narayanan en un Publicación en Twitter. “Las conferencias de aprendizaje automático deberían considerar hacer esto”.

Narayanan instó a los asistentes a la conferencia a dirigir preguntas tanto a los autores del artículo como a los presidentes de los programas de la conferencia.

Los organizadores admiten que los autores y revisores no estaban obligados a analizar las consideraciones éticas o el impacto social de las tecnologías descritas en los documentos que se presentaron. Pero los revisores marcaron un puñado de artículos basados ​​en preocupaciones éticas, dice Jing Jiang, un científico de la computación en la Singapore Management University en Singapur que sirvió en la conferencia’S Comité Organizador. El comité decidió que se pedirá a los autores de cualquier artículo marcado que haga un corte por méritos técnicos que aborden cuestiones éticas en un borrador revisado y se sometan a una revisión adicional.

Pero aquí está el problema: el artículo de DeepCom de Microsoft y la Universidad de Beihang no fue marcado por ningún crítico, dice Jiang. Quizás las pautas más formales para considerar cuestiones éticas en los documentos presentados a futuras conferencias estén en orden.

Este artículo fue actualizado el 5 de noviembre.

La investigación de inteligencia artificial de Microsoft genera controversia sobre el posible uso de desinformación

Related Stories

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí