Responsabilidad de la IA: proceda bajo su propio riesgo

Un nuevo informe sugiere que para mejorar la responsabilidad de la IA, las empresas deben abordar el riesgo de terceros de frente.

Imagen: Willyam - stock.adobe.com

Imagen: Willyam – stock.adobe.com

Un informe emitido por una empresa de investigación tecnológica Forrester, Aspirantes de IA: Caveat Emptor, destaca la creciente necesidad de responsabilidad de terceros en las herramientas de inteligencia artificial.

El informe encontró que la falta de responsabilidad en la inteligencia artificial puede resultar en multas regulatorias, daños a la marca y clientes perdidos, todo lo cual puede evitarse mediante la realización de la debida diligencia de terceros y el cumplimiento de las mejores prácticas emergentes para el desarrollo y la implementación responsable de la inteligencia artificial.

Los riesgos de equivocarse en la IA son reales y, desafortunadamente, no siempre están directamente bajo el control de la empresa, observó el informe. “La evaluación de riesgos en el contexto de la IA se complica por una vasta cadena de suministro de componentes con efectos potencialmente no lineales e imposibles de rastrear en la salida del sistema de IA”, afirmó.

La mayoría de las empresas se asocian con terceros para crear e implementar sistemas de inteligencia artificial porque no tienen la tecnología y las habilidades necesarias internamente para realizar estas tareas por sí mismas, dijo el autor del informe Brandon Purcell, analista principal de Forrester que cubre el análisis de clientes y la inteligencia artificial. cuestiones. “Pueden surgir problemas cuando las empresas no comprenden completamente las muchas piezas móviles que componen la cadena de suministro de la IA. Los datos etiquetados incorrectamente o los datos incompletos pueden generar sesgos dañinos, problemas de cumplimiento e incluso problemas de seguridad en el caso de los vehículos autónomos y la robótica. “, Señaló Purcell.

Peligro adelante

Los casos de uso de IA de mayor riesgo son aquellos en los que un error del sistema genera consecuencias negativas. “Por ejemplo, el uso de la IA para el diagnóstico médico, las sentencias penales y la determinación del crédito son áreas en las que un error en la IA puede tener consecuencias graves”, dijo Purcell. “Esto no quiere decir que no debamos utilizar la IA para estos casos de uso, deberíamos hacerlo, solo debemos ser muy cuidadosos y comprender cómo se construyeron los sistemas y dónde son más vulnerables a errores”. Purcell agregó que las empresas nunca deben aceptar ciegamente la promesa de objetividad de un tercero, ya que es la computadora la que realmente toma las decisiones. “La IA es tan susceptible al sesgo como los humanos porque aprende de nosotros”, explicó.

Brandon Purcell, Forrester

Brandon Purcell, Forrester

El riesgo de terceros no es nada nuevo, sin embargo, la IA se diferencia del desarrollo de software tradicional debido a su naturaleza probabilística y no determinista. “Los procesos de prueba de software probados y verdaderos ya no se aplican”, advirtió Purcell, y agregó que las empresas que adopten la IA experimentarán un riesgo de terceros de manera más significativa en forma de datos deficientes que “infectan la IA como un virus”. Las afirmaciones excesivas de los proveedores y la falla de los componentes, que conducen al colapso sistémico, son otros peligros que deben tomarse en serio, advirtió.

Pasos preventivos

Purcell instó a realizar la debida diligencia con los proveedores de IA de manera temprana y frecuente. “Al igual que los fabricantes, también necesitan documentar cada paso en la cadena de suministro”, dijo. Recomendó que las empresas reúnan a diversos grupos de partes interesadas para evaluar el impacto potencial de un desliz generado por la IA. “Algunas empresas pueden incluso considerar ofrecer ‘recompensas por sesgos’, recompensando a las entidades independientes por encontrar y alertar sobre los sesgos”.

El informe sugirió que las empresas que se embarcan en una iniciativa de IA seleccionen socios que compartan su visión para el uso responsable. La mayoría de los grandes proveedores de tecnología de IA, señaló el informe, ya han publicado marcos y principios éticos de IA. “Estúdialos para asegurarte de que transmitan lo que te esfuerzas por tolerar mientras también evalúas los requisitos técnicos de IA”, decía el informe.

La debida diligencia efectiva, observó el informe, requiere una documentación rigurosa en toda la cadena de suministro de IA. Señaló que algunas industrias están comenzando a adoptar el concepto de lista de materiales de software (SBOM), una lista de todas las piezas reparables necesarias para mantener un activo mientras está en funcionamiento. “Hasta que los SBOM se vuelvan de rigor, priorice los proveedores que ofrecen detalles sólidos sobre el linaje de datos, las prácticas de etiquetado o el desarrollo de modelos”, recomendaba el informe.

Las empresas también deben mirar internamente para comprender y evaluar cómo se adquieren, implementan y utilizan las herramientas de IA. “Algunas organizaciones están contratando directores de ética que son, en última instancia, responsables de la responsabilidad de la IA”, dijo Purcell. En ausencia de esa función, la responsabilidad de la IA debería considerarse un deporte de equipo. Aconsejó a los científicos y desarrolladores de datos que colaboraran con colegas internos de gobernanza, riesgo y cumplimiento para ayudar a garantizar la responsabilidad de la IA. “Las personas que realmente están usando estos modelos para hacer su trabajo deben estar involucradas, ya que en última instancia serán responsables de cualquier percance”, dijo.

Para llevar

Las organizaciones que no priorizan la responsabilidad de la IA serán propensas a dar pasos en falso que conduzcan a multas regulatorias y reacciones violentas de los consumidores, dijo Purcell. “En el clima actual de la cultura de cancelación, lo último que necesita una empresa es cometer un error prevenible con la inteligencia artificial que conduce a un éxodo masivo de clientes”.

Reducir la responsabilidad de la IA nunca es una buena idea, advirtió Purcell. “Asegurar la responsabilidad de la IA requiere una inversión de tiempo inicial, pero en última instancia, los retornos de modelos con más rendimiento serán significativamente mayores”, dijo.

Para obtener más información sobre la inteligencia artificial y la ética y la calidad del aprendizaje automático, lea estos artículos de InformationWeek.

Desenmascarando el problema de la caja negra del aprendizaje automático

Cómo el aprendizaje automático está influyendo en la diversidad y la inclusión

Navegue por las turbulencias con la resiliencia de la IA responsable

Cómo los profesionales de TI pueden liderar la lucha por la ética de los datos

John Edwards es un veterano periodista de tecnología empresarial. Su trabajo ha aparecido en The New York Times, The Washington Post y en numerosas publicaciones de negocios y tecnología, incluidas Computerworld, CFO Magazine, IBM Data Management Magazine, RFID Journal y Electronic … Ver biografía completa

Agradecemos sus comentarios sobre este tema en nuestros canales de redes sociales, o [contact us directly] con preguntas sobre el sitio.

Más información

Recent Articles

Los estadounidenses no podrán descargar TikTok o WeChat a partir del domingo

¿Qué esta pasando? El Departamento de Comercio de EE. UU. emitió una orden prohibir a los estadounidenses descargar aplicaciones de propiedad china TikTok y...

Amazon está diciendo a aquellos que preordenaron PS5 que es posible que no los obtengan en el lanzamiento

El correo electrónico de precaución menciona "alta demanda" ya que los minoristas, Sony agota los pedidos anticipadosComparte este artículoEmpresas en este artículoAmazon advierte a...

The Nest – Reseña de la película

Calificación: B + (Muy bueno) https://www.youtube.com/watch?v=75FdB2nADyw Imágenes de cortesía de la elevación del tráiler / miniatura Con su debut como director de largometrajes Martha Marcy May Marlene,...

Related Stories

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí