Escaso uso de la IA para detectar ciberamenazas
Únicamente la tercera parte de los equipos de ciberseguridad españoles utiliza la inteligencia artificial con el objeto de detectar ciberamenazas.
El continuo auge de la IA se ha convertido en un arma de doble filo, por lo que los profesionales de la ciberseguridad se están preparando para la afluencia de nuevas amenazas cibernéticas habilitadas por inteligencia artificial, a pesar de que esta tecnología también se utilice para reforzar las defensas. Según el informe sobre el panorama de amenazas a la seguridad de la identidad de 2023 de CyberArk, cerca del 33% de los equipos de ciberseguridad en España están haciendo uso de la Inteligencia Artificial (IA) para la detección y prevención de infracciones.
Asimismo, la IA generativa (GenAI) ya se está utilizando para identificar más rápidamente anomalías de comportamiento y mejorar la resiliencia cibernética, lo que brinda a los equipos más tiempo para mejorar sus capacidades frente a las amenazas o evolucionar las defensas para combatir ciberataques cada vez más innovadores. Y si bien el talento humano sigue siendo fundamental para luchar contra las amenazas emergentes, la IA también puede ayudar a cerrar algunas de las brechas causadas por la escasez de 3,4 millones de trabajadores de ciberseguridad.
Pero las herramientas de GenAI, cada vez más populares, están abriendo una nueva caja de pandora de vulnerabilidades de seguridad, lo que preocupa a los ciberprofesionales. La investigación de CyberArk indica que el 53% de esos profesionales en España considera que los empleados están utilizando herramientas avanzadas con IA, pero no habilitadas, para ayudarles en su trabajo diario, lo cual causa un mayor riesgo. Y que estas ciberamenazas habilitadas por IA afectarán al 99% de las organizaciones españolas en 2023. Por otro lado, la seguridad de los chatbots también es una preocupación importante. Así, para el 63% de los encuestados de nuestro país la principal preocupación es que las tecnologías generativas brindarán a los ciberatacantes los medios para explotar vulnerabilidades e inyectar malware, hacerse pasar por empleados a través de deepfakes y realizar campañas de phishing.
De hecho, los ciberdelincuentes ya están utilizando GenAI para crear textos de correo electrónico que parecen reales para campañas de phishing o incluso generar malware que elude la autenticación de reconocimiento facial o evade la detección. Tales técnicas fueron descubiertas en una investigación de CyberArk a principios de este año, que señaló que los atacantes podrían usar ChatGPT para generar código malicioso y crear malware polimórfico, altamente evasivo para la mayoría de los productos antimalware.
“Los equipos de ciberseguridad tienen que ser muy cuidadosos a la hora de usar la IA. Equilibrar los indudables beneficios que aporta con los considerables riesgos que crea no es una tarea sencilla”, ha señalado David Higgins, director técnico en EMEA de CyberArk, quien afirma que el uso de la IA crea una explosión de identidades de máquinas que los ciberdelincuentes pueden explotar para obtener acceso a datos y controles confidenciales.
“Es imprescindible establecer directrices específicas para la IA, publicar políticas de uso y actualizar los planes de formación en ciberseguridad de los empleados. Es necesaria la debida diligencia antes de introducir cualquier herramienta basada en IA, ya que es la forma más eficaz de mitigar el riesgo y reducir las vulnerabilidades. Sin los controles de seguridad de identidad adecuados y las defensas de malware, va a ser muy difícil contener las innovadoras amenazas a gran escala que pueden comprometer las credenciales en el camino para acceder a datos y activos confidenciales”.