¿Qué tan seguros son sus proyectos de inteligencia artificial y aprendizaje automático?

Cuando las empresas adoptan nuevas tecnologías, la seguridad suele quedar en un segundo plano. Puede parecer más importante ofrecer nuevos productos o servicios a los clientes y usuarios internos lo más rápido posible y al menor costo. Una buena seguridad puede resultar lenta y costosa.

Inteligencia artificial (IA) y aprendizaje automático (ML) ofrecen las mismas oportunidades para vulnerabilidades y configuraciones incorrectas que los avances tecnológicos anteriores, pero también tienen riesgos únicos. A medida que las empresas se embarcan en importantes transformaciones digitales, esos riesgos pueden volverse mayores. “No es un buen lugar para apresurarse”, dice Edward Raff, científico jefe de Booz Allen Hamilton.

La IA y el aprendizaje automático requieren más datos y datos más complejos que otras tecnologías. Los algoritmos desarrollados por matemáticos y científicos de datos surgen de proyectos de investigación. “Recientemente, como comunidad científica, hemos llegado a comprender que existen problemas de seguridad con la IA”, dice Raff.


Los requisitos de volumen y procesamiento significan que las plataformas en la nube a menudo manejan las cargas de trabajo, lo que agrega otro nivel de complejidad y vulnerabilidad. No es de extrañar que la ciberseguridad sea el riesgo más preocupante para los que adoptan la IA. De acuerdo a una Encuesta de Deloitte publicado en julio de 2020, el 62% de los adoptantes ven los riesgos de ciberseguridad como una preocupación importante o extrema, pero solo el 39% dijo que está preparado para abordar esos riesgos.

Para agravar el problema, la ciberseguridad es una de las principales funciones para las que se utiliza la IA. Cuanto más experimentadas son las organizaciones con la IA, más preocupadas están por los riesgos de ciberseguridad, dice Jeff Loucks, director ejecutivo del Centro de Tecnología, Medios y Telecomunicaciones de Deloitte.


Además, las empresas, incluso las más experimentadas, no siguen las prácticas de seguridad básicas, como mantener un inventario completo de todos los proyectos de IA y ML o realizar auditorías y pruebas. “Las empresas no están haciendo un gran trabajo en este momento al implementarlos”, dice Loucks.

Related Stories

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí