Los 6 peores escenarios de AI: IEEE Spectrum

El peor de los casos de Hollywood El escenario que involucra inteligencia artificial (IA) es familiar como una película de ciencia ficción de gran éxito: las máquinas adquieren una inteligencia similar a la humana, alcanzan la sensibilidad e inevitablemente se convierten en señores malvados que intentan destruir la raza humana. Esta narrativa capitaliza nuestro miedo innato a la tecnología, un reflejo del profundo cambio que a menudo acompaña a los nuevos desarrollos tecnológicos.

Sin embargo, como dice Malcolm Murdock, ingeniero de aprendizaje automático y autor de la novela de 2019
El precio cuántico, dice, “la IA no tiene que ser consciente para matarnos a todos. Hay muchos otros escenarios que nos eliminarán antes de que la inteligencia artificial inteligente se convierta en un problema «.

«Estamos entrando en territorio peligroso e inexplorado con el aumento de la vigilancia y el seguimiento a través de datos, y casi no comprendemos las posibles implicaciones».
—Andrew Lohn, Universidad de Georgetown

En entrevistas con expertos en IA,
Espectro IEEE ha descubierto seis peores escenarios de IA del mundo real que son mucho más mundanos que los que se muestran en las películas. Pero no son menos distópicos. Y la mayoría no necesita un dictador malévolo para llevarlos a cabo plenamente. Más bien, podrían suceder simplemente por defecto, desarrollándose orgánicamente, es decir, si no se hace nada para detenerlos. Para evitar estos peores escenarios, debemos abandonar nuestras nociones de inteligencia artificial de la cultura pop y tomarnos en serio sus consecuencias no deseadas.

1. Cuando la ficción define nuestra realidad …

Puede ocurrir una tragedia innecesaria si permitimos que la ficción defina nuestra realidad. Pero, ¿qué elección hay cuando no podemos distinguir entre lo real y lo falso en el mundo digital?

En un escenario aterrador, el aumento de deepfakes (imágenes, video, audio y texto falsos generados con herramientas avanzadas de aprendizaje automático) puede llevar algún día a los tomadores de decisiones de seguridad nacional a tomar medidas en el mundo real basadas en información falsa, lo que lleva a una gran crisis, o peor aún, una guerra.

Andrew Lohn, investigador senior en Centro de seguridad y tecnología emergente de la Universidad de Georgetown (CSET), dice que «los sistemas habilitados para IA ahora son capaces de generar desinformación en [large scales]. » Al producir mayores volúmenes y variedad de mensajes falsos, estos sistemas pueden ofuscar su verdadera naturaleza y optimizarlos para el éxito, mejorando el impacto deseado con el tiempo.

La mera noción de deepfakes en medio de una crisis también podría hacer que los líderes duden en actuar si la validez de la información no se puede confirmar de manera oportuna.

Marina Favaro, investigador en el Instituto de Investigación y Política de Seguridad en Hamburgo, Alemania, señala que «los deepfakes comprometen nuestra confianza en los flujos de información de forma predeterminada». Tanto la acción como la inacción causadas por deepfakes tienen el potencial de producir consecuencias desastrosas para el mundo.

2. Una peligrosa carrera hacia el fondo

Cuando se trata de inteligencia artificial y seguridad nacional, la velocidad es tanto el punto como el problema. Dado que los sistemas habilitados por IA confieren mayores beneficios de velocidad a sus usuarios, los primeros países en desarrollar aplicaciones militares obtendrán una ventaja estratégica. Pero, ¿qué principios de diseño podrían sacrificarse en el proceso?

Las cosas podrían deshacerse de las fallas más pequeñas del sistema y ser explotadas por piratas informáticos.
Tóner Helen, director de estrategia de CSET, sugiere que una crisis podría “comenzar como un punto único e inocuo de falla que hace que todas las comunicaciones se apaguen, provocando que la gente entre en pánico y que la actividad económica se detenga. Una falta persistente de información, seguida de otros errores de cálculo, podría hacer que la situación se salga de control «.

Vincent Boulanin, investigador senior de la Instituto Internacional de Investigación para la Paz de Estocolmo (SIPRI), en Suecia, advierte que pueden ocurrir grandes catástrofes “cuando las grandes potencias toman atajos para ganar la ventaja de llegar primero. Si un país prioriza la velocidad sobre la seguridad, las pruebas o la supervisión humana, será una carrera peligrosa hacia el fondo «.

Por ejemplo, los líderes de seguridad nacional pueden verse tentados a delegar decisiones de mando y control, eliminando la supervisión humana de los modelos de aprendizaje automático que no comprendemos por completo, para obtener una ventaja de velocidad. En tal escenario, incluso un lanzamiento automático de sistemas de defensa antimisiles iniciado sin autorización humana podría producir una escalada no intencionada y conducir a una guerra nuclear.

3. El fin de la privacidad y el libre albedrío

Con cada acción digital, producimos nuevos datos: correos electrónicos, mensajes de texto, descargas, compras, publicaciones, selfies y ubicaciones de GPS. Al permitir que las empresas y los gobiernos tengan acceso sin restricciones a estos datos, estamos entregando las herramientas de vigilancia y control.

Con la incorporación del reconocimiento facial, la biometría, los datos genómicos y el análisis predictivo habilitado por IA, a Lohn de CSET le preocupa que “estamos entrando en un territorio peligroso e inexplorado con el aumento de la vigilancia y el seguimiento a través de datos, y casi no entendemos el implicaciones potenciales «.

Michael C. Horowitz, Director de Perry World House, de la Universidad de Pensilvania, advierte “sobre la lógica de la IA y lo que significa para la represión interna. En el pasado, la capacidad de los autócratas para reprimir a sus poblaciones dependía de un gran grupo de soldados, algunos de los cuales podían ponerse del lado de la sociedad y llevar a cabo un golpe de estado. La IA podría reducir este tipo de limitaciones «.

El poder de los datos, una vez recopilados y analizados, se extiende mucho más allá de las funciones de seguimiento y vigilancia para permitir el control predictivo. Hoy en día, los sistemas habilitados para IA predicen qué productos compraremos, qué entretenimiento veremos y en qué enlaces haremos clic. Cuando estas plataformas nos conocen mucho mejor de lo que nos conocemos a nosotros mismos, es posible que no notemos el lento avance que nos roba nuestro libre albedrío y nos somete al control de fuerzas externas.

Diagrama de flujo simulado, centrado en la imagen de primer plano de un ojo, rodeando un árbol lógico absurdo con cuadros y flechas y concluyendo con dos cuadrados que dicen  u201cSYSTEM  u201d y  u201cENDMike McQuade

4. Una caja desolladora humana

La capacidad de los niños para retrasar la gratificación inmediata, para esperar el segundo malvavisco, alguna vez se consideró un factor de predicción importante del éxito en la vida. Pronto, incluso los niños del segundo malvavisco sucumbirán al tentador condicionamiento de los algoritmos basados ​​en el compromiso.

Los usuarios de las redes sociales se han convertido en ratas en experimentos de laboratorio, viviendo en humanos.
Cajas desolladoras, pegados a las pantallas de sus teléfonos inteligentes, obligados a sacrificar un tiempo y una atención más valiosos a las plataformas que se benefician de él a su costa.

Helen Toner de CSET dice que «los algoritmos están optimizados para mantener a los usuarios en la plataforma el mayor tiempo posible». Al ofrecer recompensas en forma de me gusta, comentarios y seguimientos, explica Malcolm Murdock, «los algoritmos provocan un cortocircuito en la forma en que funciona nuestro cerebro, lo que hace que nuestro próximo compromiso sea irresistible».

Para maximizar las ganancias publicitarias, las empresas desvían nuestra atención de nuestros trabajos, familias y amigos, responsabilidades e incluso nuestros pasatiempos. Para empeorar las cosas, el contenido a menudo nos hace sentir miserables y peor que antes. Toner advierte que «cuanto más tiempo pasamos en estas plataformas, menos tiempo dedicamos a la búsqueda de vidas positivas, productivas y satisfactorias».

5. La tiranía del diseño de IA

Cada día, entregamos más de nuestras vidas diarias a máquinas habilitadas para IA. Esto es problemático ya que, como observa Horowitz, “todavía tenemos que entender completamente el problema del sesgo en la IA. Incluso con las mejores intenciones, el diseño de sistemas habilitados para IA, tanto los datos de entrenamiento como los modelos matemáticos, refleja las experiencias e intereses estrechos de las personas sesgadas que los programan. Y todos tenemos nuestros prejuicios «.

Como resultado,
Lydia Kostopoulos, vicepresidente senior de conocimientos tecnológicos emergentes en la empresa de seguridad de TI con sede en Clearwater, Florida KnowBe4, argumenta que «muchos sistemas habilitados para IA no toman en cuenta las diversas experiencias y características de diferentes personas». Dado que la IA resuelve problemas basados ​​en perspectivas y datos sesgados en lugar de las necesidades únicas de cada individuo, tales sistemas producen un nivel de conformidad que no existe en la sociedad humana.

Incluso antes del surgimiento de la IA, el diseño de objetos comunes en nuestra vida diaria a menudo se ha dirigido a un tipo particular de persona. Por ejemplo,
los estudios han demostrado que los automóviles, las herramientas portátiles, incluidos los teléfonos móviles, e incluso los ajustes de temperatura en los entornos de oficina se han establecido para adaptarse al hombre de tamaño medio, lo que pone a las personas de distintos tamaños y tipos de cuerpo, incluidas las mujeres, en una gran desventaja y, a veces, en mayor riesgo a sus vidas.

Cuando las personas que caen fuera de la norma sesgada son descuidadas, marginadas y excluidas, la IA se convierte en un guardián kafkiano que niega el acceso al servicio al cliente, trabajos, atención médica y mucho más. Las decisiones de diseño de IA pueden restringir a las personas en lugar de liberarlas de las preocupaciones del día a día. Y estas elecciones también pueden transformar algunos de los peores prejuicios humanos en racistas y sexistas.
contratación y prácticas hipotecarias, así como profundamente viciadas y sesgadas resultados de la sentencia.

6. El miedo a la IA priva a la humanidad de sus beneficios

Dado que la IA actual se basa en conjuntos de datos, modelos estadísticos avanzados y algoritmos predictivos, el proceso de creación de inteligencia artificial se centra en última instancia en las matemáticas. Con ese espíritu, dijo Murdock, «el álgebra lineal puede hacer cosas increíblemente poderosas si no tenemos cuidado». Pero, ¿qué pasa si la gente le tiene tanto miedo a la IA que los gobiernos la regulan de manera que le quiten a la humanidad los muchos beneficios de la IA? Por ejemplo, el programa AlphaFold de DeepMind logró un gran avance en la predicción de cómo los aminoácidos se pliegan en proteínas,
Haciendo posible que los científicos identifiquen la estructura del 98,5 por ciento de las proteínas humanas.. Este hito proporcionará una base fructífera para el rápido avance de las ciencias de la vida. Considere los beneficios de una mejor comunicación y comprensión intercultural que es posible gracias a la traducción sin problemas en cualquier combinación de lenguajes humanos, o el uso de sistemas habilitados por IA para identificar nuevos tratamientos y curas para enfermedades. Las acciones regulatorias instintivas de los gobiernos para protegerse contra los peores escenarios de la IA también podrían ser contraproducentes y producir sus propias consecuencias negativas no deseadas, en las que nos asusta tanto el poder de esta tremenda tecnología que nos resistimos a aprovecharla para el bien real que puede. hacer en el mundo.

Este artículo aparece en la edición impresa de enero de 2022 como «Los peores escenarios reales de AI».