Las ciberamenazas de ChatGPT
El co-fundador de Acronis, Stanislav Protassov, analiza las probabilidades de que hackers y estafadores aprovechen ChatGPT.
En general, ¿cuáles son las probabilidades de que hackers y estafadores aprovechen ChatGPT? Es decir, ¿utilizarán la herramienta para dar más credibilidad a sus estafas? ¿Serán capaces de recopilar más información sobre sus víctimas?
ChatGPT básicamente permite a los ciberdelincuentes acelerar y automatizar más la redacción de mensajes de phishing y la creación de malware básico. Por el momento, es incapaz de crear nuevo malware sofisticado, ni tendrá un impacto significativo en el panorama de amenazas, más allá de aumentar la frecuencia de los ataques. Los modelos como ChatGPT se describen a veces como "loros estocásticos", que hace referencia a modelos de lenguaje entrenados con enormes cantidades de datos, y sí, son muy eficaces a la hora de generar muchos textos. Sin embargo, solo algunas modalidades de phishing se apoyan en el significado de los textos, mientras que otras lo hacen en funciones visibles del correo electrónico; por ejemplo, dar al mensaje apariencia de alerta de transferencias bancaria real, algo que ChatGPT es incapaz de hacer. Sin bien ChatGPT ayudará sin duda a los estafadores a crear más textos, en varios idiomas, no está tan claro que esos textos vayan a ser mejores o más convincentes. La generación de más texto también plantea un peligro para las víctimas potenciales, ya que los propios mecanismos antiphishing podrían basarse en modelos de lenguaje para detectar intenciones maliciosas en el texto. Es previsible que se pueda entrenar a los mecanismos antiphishing para detectar mensajes de correo electrónico generados por ChatGPT, pero sin duda estamos asistiendo a otro giro en esta lucha sin fin en nuevo nivel.
A continuación se incluyen otros usos que los hackers y los estafadores podrían dar a ChatGPT:
• Análisis de código fuente para identificar vulnerabilidades (por ejemplo, inyecciones SQL, desbordamiento del búfer); esto no es nada nuevo, lo que hace ChatGPT es simplemente ayudar a ciberdelincuentes sin experiencia a ganar tiempo.
• Escritura de exploits: aunque las pruebas actuales han demostrado que no siempre funciona tan bien, al menos de momento.
• Automatización de código: ayuda a los principiantes a automatizar más rápidamente su tarea (por ejemplo, escribir un script para utilizar volcados de contraseñas para iniciar sesión en Twitter).
• Escritura de malware: parcialmente bloqueado por las directrices, aunque se permiten macros sencillas. No aporta nada "nuevo", ya que se puede utilizar Google para su búsqueda, aunque, una vez más, facilita el acceso generalizado.
• Bots de chat para ingeniería social: esto puede ser una "innovación" para los ataques BEC, los timos 419, de citas o de acercamiento en LinkedIn, en los que se necesitan varias de interacciones. Esto puede ahora automatizarse para que parezca una conversación real con <1 % de interacción humana, por lo que facilita la escalación.
¿Qué probabilidades tiene de ocurrir y con qué frecuencia?
Se han notificado casos en los que miembros de equipos de seguridad ofensiva (red team) han utilizado ChatGPT para generar mensajes de phishing, luego ya es una realidad. Asimismo, a través de foros clandestinos hemos sabido que algunos ciberdelincuentes han creado ladrones de contraseñas en Python con ChatGPT. Por otro lado, OpenAI se actualiza constantemente y ajusta ChatGPT para reducir la probabilidad de que se utilice para provocar daños, tanto físicos como virtuales.
¿Cómo pueden defenderse las empresas y los individuos, en particular, contra estos timos? ¿Cuáles son los principales indicios a los que hay que prestar atención?
Puesto que ChatGPT se entrenó con textos ya creados, los textos que se generan no serán "mejores". Para detectar mensajes de correo potencialmente maliciosos, puede identificar indicios habituales de estafa, como una inesperada sensación de urgencia. Se pueden detectar mediante determinadas palabras clave, por ejemplo, urgente, transferencia bancaria, actuar ya, contraseña, etc.; elementos que convierten en urgente e importante un mensaje de phishing. Además, ChatGPT no puede, por arte de magia, hacer que un mensaje de correo electrónico tenga la apariencia de uno legítimo enviado por el banco. Los estafadores siguen utilizando viejas artimañas, como el empleo de direcciones de correo y dominios falsos, pero parecidos. Preste atención a indicios como encabezados de correo electrónico o URL, como SPF, DKIM, DMARC; en todos los casos ofrecen información sobre el servidor desde donde se envió el mensajes, así como los dominios para los que está configurado. Esto básicamente significa que incluso si el texto del mensaje parece perfecto, si se envió desde una cuenta de correo tipo falso@hacker.com, seguirá siendo fácil de detectar.
¿Podría facilitar algunos escenarios y/o ejemplos en los que inteligencia artificial como la de ChatGPT puede utilizarse para estafar a gente normal, o hackearlos? ¿Y qué pueden hacer en esos casos?
ChatGPT no puede utilizarse para "hacker a las personas", ya que se trata de un modelo generativo de textos. A veces esto puede dar lugar a conversaciones aparentemente razonables, pero una persona puede detectarlas muy fácilmente. Por ejemplo, si introduce instrucciones sin sentido, una persona lo detectará inmediatamente, pero ChatGPT las intentará procesar y responder a ellas. ChatGPT hace que sea más accesible, de manera que más gente sin experiencia técnica puede sumarse a la ciberdelincuencia, pero las APT (amenazas persistentes avanzadas) y otras llevan años de automatización, por lo que nada cambia en su caso. Hemos observado casos en los que se han redactado mensajes de correo electrónico de phishing convincentes, en particular en ataques BEC o de vulneración del correo electrónico de empresas, si bien en la actualidad no tiene conexión con Internet, y si los ciberdelincuentes quieren personalizar sus mensajes, necesitan combinarlos con LinkedIn, etc. Los modelos de IA como ChatGPT ayudan a crear más variaciones para restar eficacia a las firmas, ya que es más fácil modificar los patrones de texto sobre la marcha. También pueden generar texto en más idiomas, lo que se traduce en una mayor cobertura nativa de idiomas locales, como el alemán.