La ciberseguridad en la IA
Además de la eficacia y la facilidad de uso de las soluciones basadas en la inteligencia artificial, el aspecto de la ciberseguridad también es importante.
Para garantizar la seguridad de un sistema de IA para sus usuarios, hay que tener en cuenta dos ámbitos: los algoritmos no transparentes, que pueden dar lugar a resultados inexplicables, y la privacidad. ¿Por qué exactamente?
La mayoría de los modelos de aprendizaje automático (ML) en los que se basan los sistemas complejos de IA generan resultados o acciones que escapan a la interpretación humana. Estos resultados o acciones pueden ser imprevisibles y poco comprensibles para los humanos. Por ejemplo, si un robot se confunde y coge un objeto en lugar de otro. Los resultados inexplicables pueden provocar riesgos para el propio sistema y para los humanos. Por lo tanto, los desarrolladores deben considerar los mecanismos y herramientas para evaluar y explicar las decisiones sin explicación tomadas por la IA y luego calibrar sus parámetros y métricas para evitarlo.
Los dispositivos impulsados por la IA pueden utilizar diversos sensores para recoger datos: cámaras, micrófonos, radares, láseres, sensores ultrasónicos, cámaras de infrarrojos y otros. Se necesitan enormes cantidades de datos para garantizar la alta calidad de la IA y es fundamental minimizar el riesgo de divulgación de datos sensibles. Para abordar esta cuestión, es necesario desarrollar tecnologías de explicación y mejora de la privacidad como, por ejemplo, el procesamiento en el dispositivo y el aprendizaje conjunto, que reducen al mínimo los datos necesarios para el correcto funcionamiento del modelo.
Elena Krupenina, científica de datos senior en Kaspersky