La IA está aprendiendo a manipularnos y no sabemos exactamente cómo

La IA está aprendiendo a manipularnos y no sabemos exactamente cómo

No es ningún secreto que los gigantes tecnológicos recopilan (y compran y venden) enormes cantidades de datos sobre sus clientes, que somos casi todos. Es posible que nos preocupemos con razón por la cantidad de nuestros datos personales que están en manos de empresas privadas. Pero podríamos dedicar menos tiempo a pensar en qué es exactamente lo que hacer con esos datos, incluido el uso de inteligencia artificial (IA) para explotar la toma de decisiones humana.

Una caja negra

Los humanos son bastante buenos manipulándose unos a otros; de hecho, probablemente hemos estado participando en «engaño táctico«durante miles de años. Pero gracias a la ayuda de la IA, los sistemas de software que aprenden por sí mismos, los humanos pueden ser más vulnerables a esa coerción.

Cuando se implementa de la manera correcta, la inteligencia artificial puede persuadirlo de comprar algo, comparte una publicación, votar por un candidato, o hacer cualquier cantidad de cosas. Recientemente, un equipo de investigadores de la Commonwealth Scientific and Industrial Research Organization, la agencia federal de investigación y ciencia de Australia, llevó a cabo una serie de experimentos que exploró cómo la IA influye en la toma de decisiones humana. Los resultados mostraron que la IA podía localizar y explotar las debilidades en la toma de decisiones humanas para guiar a las personas hacia ciertas decisiones. «Las implicaciones de esta investigación son potencialmente bastante asombrosas», dijo Amir Dezfouli, experto en aprendizaje automático en CSIRO e investigador principal del estudio, en un presione soltar.

De la misma manera en que un buen vendedor (o un vendedor ambulante encantador) puede conseguir que usted haga algo que de otra manera no habría hecho, estos algoritmos pueden hacer que haga clic, compre o comparta; no solo porque saben mucho sobre usted, sino también porque saben qué técnicas pueden llevarlo a tomar una decisión en lugar de otra.

Y la parte aterradora es que no entendemos completamente cómo lo hace la IA. «La parte complicada es que la IA es, de alguna manera, una caja negra», dice Shane Saunderson, quien investiga la interacción humano-robot en la Universidad de Toronto. «No es una máquina explícita que dice que dos más dos son cuatro. Es una máquina a la que le muestras una gran cantidad de datos y analiza esos datos en busca de patrones, clasificaciones o conocimientos que pueda extraer de ellos. Y no siempre saber exactamente cómo lo está haciendo «. Por ejemplo, la IA descubrió rápidamente, mediante la recopilación y el análisis de inmensas cantidades de datos, que las redes sociales son mucho más atractivas cuando juegan con las emociones negativasy que las personas reaccionen más y se involucren más con contenido negativo. En los últimos años, ha tenido enormes consecuencias imprevistas.

«Esto definitivamente es algo aterrador», dice Saunderson.

Saunderson describe esto como un ejemplo clásico de la «banalidad del mal. «» No hay ningún actor infame que realmente esté tratando de hacer algo mal «, dice. «Nadie en Facebook salió y dijo: ‘Sí, queremos causar un genocidio en Myanmar, ‘o’ Queremos influir en las elecciones a gran escala ‘. Esa nunca fue la intención de alguien «. La intención, por supuesto, fue venderte cosas, o en el caso de Facebook, mantenerte involucrado en el sitio para que las empresas que compran espacios publicitarios puedan venderte cosas. Pero las consecuencias pueden van mucho más allá del comercio.

Para bien o para mal

Dezfouli señala que si estas tecnologías se utilizan para bien o para mal depende de la responsabilidad con que las diseñamos y las implementamos. En un intento por asegurar buenos resultados, CSIRO y el gobierno australiano desarrollaron un marco ético para la IA en el gobierno y la industria. Estos principios (voluntarios) incluyen mucho de lo que podría esperar, como «Los sistemas de inteligencia artificial deben respetar y defender los derechos de privacidad y la protección de datos». Otro inquilino dice que la transparencia y la divulgación responsable son cruciales, para que las personas puedan entender cuándo se están guiando sus decisiones y averigüe cuándo un sistema de inteligencia artificial está interactuando con ellos.

Ese último es clave, según Saunderson, quien dice que hacer que la IA sea ética se reduce a la transparencia. Él dice que cuando interactúas con un robot o una pieza de IA debes saber, como mínimo, las respuestas a las siguientes preguntas:

1) ¿Quién es el propietario o el interesado que lo respalda?

2) ¿Cuáles son sus objetivos? Por ejemplo, ¿está tratando de venderle algo o de convencerlo de que debe tomar su medicamento?

3) ¿Qué tácticas está utilizando para alcanzar esos objetivos?

4) ¿Qué datos tiene disponible?

Lamentablemente, las respuestas a muchas de esas preguntas siguen siendo, para la mayoría de nosotros, una caja negra.