Usar la IA sin riesgo para la privacidad
La imparable implementación de aplicaciones de inteligencia artificial y modelos de lenguaje como ChatGPT ha provocado importantes debates y desvelos acerca de la seguridad de los datos sensibles, tanto corporativos como personales.
Según el ‘Informe sobre seguridad de la IA de ThreatLabz 2024’1 de Zscaler, empresa líder en seguridad en la nube, las transacciones de IA/ML aumentaron un 595% entre abril de 2023 y enero de 2024.
El tráfico en las transacciones de IA empresarial en EMEA lo lidera Reino Unido con más del 20%, seguido de España con un 5,3%, ocupando el sexto lugar del ranking, según el informe. En este sentido, Pablo Vera, director regional de ventas en España y Portugal en Zscaler, ofrece cinco consejos clave para utilizar la IA sin poner en peligro los datos:
1. Implementar políticas de protección de datos. La filtración de información sensible es uno de los riesgos más significativos al utilizar herramientas de IA generativa. Las empresas deben establecer directrices claras y soluciones sólidas para prevenir fugas de datos, que incluyan controles de acceso estrictos y monitorización del uso de aplicaciones de IA, permitiendo la interacción únicamente a usuarios y dispositivos verificados y autorizados.
2. Evaluar la privacidad y seguridad de las aplicaciones de IA. Las empresas deben garantizar que la información no pública y la propiedad intelectual no se expongan a riesgos. No todas las aplicaciones de IA ofrecen el mismo nivel de privacidad y seguridad por lo que deben evaluar las prácticas de seguridad de las herramientas que utilizan y entender su funcionamiento y gestión antes de utilizarlas para proteger los datos.
3. Monitorización y análisis constante del uso de la IA. Las empresas deben implementar mecanismos para monitorizar continuamente las interacciones de IA y ML. Zscaler recomienda el análisis del tráfico y las interacciones con las herramientas de IA para detectar comportamientos inusuales o potencialmente maliciosos. A través del análisis a más de 18 mil millones de transacciones de IA, recogidos en su informe, la compañía de ciberseguridad ha identificado tendencias y patrones que permiten a las empresas mantenerse un paso por delante de las amenazas impulsadas por la IA.
4. Prestar atención a la calidad de los datos. Las empresas deben asegurarse de que los datos que utilizan para entrenar y alimentar las aplicaciones de IA sean de alta calidad para evitar generar resultados erróneos. En esta línea, el experto de Zscaler pone de relieve la necesidad de controles de seguridad sólidos para verificar la integridad y la calidad de los datos procesados por las aplicaciones de IA.
5. Prepararse contra amenazas potenciadas por la IA. Los atacantes pueden usar la IA para desarrollar diferentes tipos de malware sofisticados, ejecutar campañas de phishing y aprovecharse de vulnerabilidades en las superficies de ataque de las empresas. Por este motivo, Maldonado recomienda a las compañías que adopten soluciones de seguridad avanzadas que utilicen IA para combatir las amenazas impulsadas por la misma. Al utilizar la Inteligencia Artificial en su enfoque de seguridad, las empresas pueden identificar y mitigar las amenazas de manera más efectiva.
“Con la IA en constante evolución, la forma en que la operan las empresas y usuarios es esencial. Para ello, deben adoptar medidas de seguridad sólidas y fiables que les ayuden a proteger los datos sensibles. Además, deben ser proactivas al establecer políticas y controles que permitan el uso seguro de la IA, sin comprometer la integridad y la privacidad de la información”, concluye Carlos Muñoz, System Engineer Manager en Zscaler.