HayCanal.com

Aunque usan la IA, los ciberdelincuentes tienen sus cautelas

Aunque usan la IA, los ciberdelincuentes tienen sus cautelas

La compañía de ciberseguridad Sophos, que estuvo en el último debate de hay canal.com, pone de relieve los pros y los contras que la inteligencia artificial acarrea para los ciberatacantes.

Sophos, líder mundial en innovación y ciberseguridad como servicio, publica dos informes sobre el uso de la IA en la ciberdelincuencia. El primero de ellos, El lado oscuro de la IA: campañas de estafa a gran escala posibles gracias a la IA generativa, demuestra cómo en el futuro, los estafadores podrían aprovechar tecnologías como ChatGPT para llevar a cabo fraudes a gran escala con conocimientos técnicos mínimos.

Sin embargo, una segunda investigación, titulada Los ciberdelincuentes no se ponen de acuerdo sobre los GPT, revela que los atacantes se muestran escépticos e, incluso preocupados, por el uso de la IA como instrumento para sus ataques, a pesar del potencial de la nueva tecnología.

Aunque actualmente la IA sirve a los ciberdelincuentes para automatizar tareas sencillas, como la creación de imágenes y textos basados en IA generativa para atraer a sus víctimas con técnicas de ingeniería social, el uso de las herramientas basadas en IA se encuentra en sus etapas iniciales en el ámbito de la ciberdelincuencia.

El lado oscuro de la IA

Utilizando una sencilla plantilla de comercio electrónico y herramientas LLM como GPT-4, los investigadores de Sophos X-Ops han creado una página web totalmente funcional con imágenes, audio y descripciones de productos generados por IA, así como un inicio de sesión falso en Facebook y una página de pago fraudulenta para robar las credenciales de inicio de sesión y los datos de la tarjeta de crédito de los usuarios. La web requería unos conocimientos técnicos mínimos para su creación y funcionamiento y, utilizando la misma herramienta, los expertos de Sophos X-Ops han sido capaces de crear cientos de portales web similares en cuestión de minutos con un solo botón.

Según Ben Gelman, científico de datos sénior de Sophos, "es natural, y esperable, que los delincuentes recurran a las nuevas tecnologías para automatizarse. La creación original de emails de spam fue un paso crítico en la tecnología de estafa porque cambió la escala del campo de juego. Las nuevas IAs están preparadas para hacer lo mismo. Si existe una tecnología de IA que pueda crear amenazas completas y automatizadas, se acabarán utilizando. Ya hemos visto la integración de elementos de IA generativa en estafas clásicas, como textos o fotografías generados por IA para atraer a las víctimas.

Sin embargo, parte de la razón por la que realizamos esta investigación fue adelantarnos a los delincuentes. Al crear un sistema de generación de páginas web fraudulentas a gran escala, que es más avanzado que las herramientas que los delincuentes utilizan actualmente, tenemos una oportunidad única para analizar y prepararnos para la amenaza antes de que prolifere".

"Cree el ladrón, que todos son de su condición": los cibercriminales desconfían del uso de cuentas de ChatGPT falsas para sus propios ataques

Para llevar a cabo la investigación sobre cuál es la actitud de los atacantes hacia la IA, los investigadores de Sophos X-Ops han examinado cuatro de los principales foros de la dark web con la intención de encontrar debates relacionados con la IA.

A pesar de que el uso de las herramientas de inteligencia artificial parece encontrarse en sus primeras etapas, los cibercriminales están discutiendo su potencial cuando se trata de ingeniería social. El equipo de X-Ops ya ha sido testigo del uso de la IA en estafas de criptomonedas basadas en el romance que usan apps de citas.

Además, Sophos X-Ops ha descubierto que la mayoría de los posts en los foros hablaban sobre la venta de cuentas falsas de ChatGPT y jailbreaks (métodos para eludir la protección interna de los LLM), para que los cibercriminales pudieran utilizarlos con fines maliciosos. Los investigadores de Sophos también han encontrado diez derivados de ChatGPT que, según sus creadores, pueden utilizarse para lanzar ciberataques y desarrollar programas maliciosos. Sin embargo, los cibercriminales manifestaron posturas encontradas ante esta creación y otras aplicaciones maliciosas de los LLM. Muchos ciberdelincuentes expresaron su preocupación de que los creadores de las imitaciones de ChatGPT estuvieran tratando de estafarlos.

Christopher Budd, director de investigación de X-Ops de Sophos, afirma que "aunque desde el lanzamiento de ChatGPT ha habido una gran preocupación por el abuso de la IA y los LLM por parte de los ciberdelincuentes, nuestra investigación ha descubierto que, hasta ahora, los cibercriminales son más escépticos que entusiastas. En dos de los cuatro foros de la dark web que examinamos, solo encontramos 100 mensajes sobre IA. En comparación con la criptomoneda, donde encontramos 1.000 mensajes en el mismo periodo.

Hemos observado que algunos atacantes intentaban crear malware o herramientas de ataque utilizando LLM, pero los resultados eran rudimentarios y a menudo se encontraban con el escepticismo de otros usuarios. En un caso, un cibercriminal, ansioso por mostrar el potencial de ChatGPT, reveló inconscientemente, información sobre su identidad real. Además, encontramos muchos 'tribunas de opinión' sobre los posibles efectos negativos de la IA en la sociedad y las implicaciones éticas de su uso. En otras palabras, al menos por ahora, parece que los ciberdelincuentes mantienen los mismos debates sobre la IA que el resto del mundo".


Noticias que marcan tendencia en el sector IT

Últimas Noticias

Nombramientos