HayCanal.com

Nuevos datos sobre los riesgos de ChatGPT para la ciberseguridad

Nuevos datos sobre los riesgos de ChatGPT para la ciberseguridad

Sin que sea la intención perjudicar el interés que puedan tener la empresas en la adopción de inteligencia artificial, nos parece oportuno mostrar los informes más recientes sobre las ciberamenazas detectadas en relación a la cada vez más popular aplicación ChatGPT.

Por ello, mostramos en este artículo los tres últimos que nos han remitido a la redacción de hayCANAL: Uno de Palo Alto Networks sobre URL maliciosas relacionadas con ChatGPT, otro de Check Point acerca del mercado de cuentas robadas del chatbot de Open AI, y por último uno más de VU acerca del phishing y fraude online que está trayendo la misma herramienta.

 

Palo Alto Networks contabilizó más de 100 URL maliciosas relacionadas con ChatGPT al día

Unit 42, la unidad de investigación de Palo Alto Networks, realiza un estudio y un seguimiento de los temas en tendencia, de los nuevos registros de dominios y de dominios ilegales relacionados con ChatGPT, la aplicación de consumo de más rápido crecimiento de toda la historia. El inconveniente de la gran popularidad de ChatGPT es que atrae la atención de delincuentes que buscan lucrarse mediante palabras y nombres de dominio que parecen estar relacionados con la web.

Desde noviembre de 2022 hasta principios de abril de 2023, se observó un aumento del 910% en los registros mensuales de dominios relacionados con ChatGPT. Por otra parte, durante ese mismo periodo de tiempo, los registros de DNS Security revelaron un crecimiento del 17.818% en dominios ocupados relacionados. Además, se observaron hasta 118 detecciones diarias de URL maliciosas relacionadas con ChatGPT capturadas a partir del tráfico visible en su sistema avanzado de filtrado de URL.

La investigación presenta varios estudios de casos que ilustran los diversos métodos utilizados por los estafadores para atraer a usuarios y conseguir que descarguen un malware o que compartan información confidencial. Dado que OpenAI lanzó su API oficial para ChatGPT el pasado 1 de marzo, se ha observado un número creciente de productos sospechosos que la utilizan. Por ello, se destacan algunos peligros potencialmente graves derivados del uso de imitadores de chatbots, con el fin de alentar a los usuarios de ChatGPT a que adopten una actitud precavida al respecto.

Los estafadores pueden utilizar la ingeniería social de ChatGPT para el robo de identidad o el fraude financiero. Aunque OpenAI ofrece a los usuarios una versión gratuita de ChatGPT, estos estafadores conducen a las víctimas a sitios web fraudulentos, alegando que tienen que pagar por estos servicios. Tal y como muestra el estudio de Unit 42, la falsa página web de ChatGPT pretende engañar a las víctimas para que faciliten información confidencial, como los datos bancarios y las direcciones de correo electrónico.

A su vez, también se ha detectado que algunos estafadores se aprovechan de la popularidad creciente de OpenAI, de su logotipo o del nombre de personas conocidas como Elon Musk para atraer a sus víctimas y cometer fraudes criptográficos.

 

Nueva alerta: crece el mercado de cuentas robadas de ChatGPT Premium

Check Point Research, la división de Inteligencia de Amenazas Check Point Software Technologies, un proveedor líder especializado en ciberseguridad a nivel mundial, ha detectado un nuevo foco en la sustracción de credenciales de las cuentas de ChatGPT Premium por parte de los ciberdelincuentes, en continuación con la tendencia vista desde finales del año pasado. Su objetivo es sortear las restricciones de “geofencing” impuestas por OpenAI, y así, obtener un acceso ilimitado a las funciones de esta herramienta de inteligencia artificial.

Una problemática que se suma a la reciente polémica sobre la de privacidad de ChatGPT con su prohibición de uso en Italia, y la amenaza de un bloqueo dentro de Alemania y otros países de la Unión Europea. Y es que, tal y como señalan los expertos de Check Point Research, estas cuentas no sólo almacenan las consultas recientes, sino que ofrecen el acceso a información personal, consultas realizadas en la herramienta, o especificaciones de productos o procesos internos de la empresa, entre otros datos sensibles.

Comercio de cuentas robadas de ChatGPT

Los ciberdelincuentes a menudo explotan el hecho de que los usuarios reciclan sus contraseñas en múltiples plataformas, y eso les abre la puerta a utilizar los repertorios de combinaciones de correos electrónicos y claves distribuidos en la Dark Web hasta identificar los conjuntos de credenciales coincidentes para garantizar el acceso.

La mayoría de esas cuentas robadas se están vendiendo, pero algunos de los atacantes también comparten las suscripciones premium robadas de ChatGPT de forma gratuita para anunciar sus propios servicios o nuevas herramientas para el robo de otras cuentas.

Gracias a esto, analizando la forma en que se compartieron las cuentas y su estructura, los investigadores han concluido que los robos se han realizado mediante la utilización de un verificador de cuentas, llevándolos finalmente hasta SilverBullet, una suite no maliciosa destinada a la realización de pruebas web.

Este software se puede utilizar para la extracción y análisis de datos, realizar pruebas de pentesting automatizadas, o pruebas unitarias a través de selenium, entre otras funciones. Sin embargo, también es usado con frecuencia por los ciberdelincuentes para realizar ataques de verificación de credenciales contra diferentes sitios web y, por lo tanto, el robo de cuentas.

Como SilverBullet es una suite configurable, para hacer un ataque de comprobación o fuerza bruta contra una determinada página web tan sólo se requiere un archivo de "configuración" que ajuste este proceso para el sitio web específico, permitiendo a los ciberdelincuentes crear una herramienta de procesado automático con relativa facilidad.

Check Point Research ha identificado que los ciberdelincuentes ofrecían un archivo de configuración de SilverBullet para la plataforma de OpenAI con capacidad para realizar entre 50 y 200 comprobaciones por minuto. Además, la implementación de proxy en muchos casos les permite eludir diferentes protecciones en los sitios web por lo que esta herramienta permite que los ciberdelincuentes roben cuentas a gran escala.

La IA es una herramienta poderosa. En Check Point Software la utilizamos en nuestra ThreatCloud para detectar y bloquear ciberataques en tiempo real. Por desgracia, los ciberdelincuentes también son los primeros en adoptarla”, explica Sergey Shykevich, Threat Intelligence Group Manager de Check Point Research. “Desde el pasado mes de diciembre hemos detectado de que ChatGPT también tiene implicaciones para la ciberseguridad. Ahora, también estamos viendo un creciente mercado de cuentas premium de ChatGPT robadas en la Dark Web, lo que tiene importantes implicaciones potenciales para la privacidad personal y corporativa”.

 

ChatGPT, un arma de doble filo en el mundo de la ciberseguridad

VU

Hoy en día cuando hablamos de Inteligencia Artificial resulta difícil no pensar en la herramienta que ha hecho saltar todas las alarmas a nivel mundial. ChatGPT, el sistema de modelo de lenguaje desarrollado por OpenAI, surgió como una promesa de reducir la carga de trabajo y mejorar la experiencia del usuario. Sin embargo, los expertos en ciberseguridad han alertado de que esta tecnología, utilizada con fines delictivos, podría suponer riesgos considerables para las empresas.

VU, compañía global de ciberseguridad especializada en la protección de la identidad digital y la prevención del fraude con más de 350 millones de usuarios en todo el mundo, explica qué riesgos puede suponer un mal uso de la herramienta ChatGPT para las empresas y recomienda una serie de prácticas para afrontar los desafíos de la IA. "Ahora los cibercriminales cuentan con una nueva arma de doble filo", apunta Sebastián Stranieri, fundador y CEO de VU.

Phishing impulsado por IA

Una de las formas en las que los ciberdelincuentes pueden beneficiarse de ChatGPT para cometer fraude online es la creación de mensajes fraudulentos para utilizarlos en ataques de phishing. Esta inteligencia artificial podría fácilmente desarrollar un correo electrónico o mensaje suplantando la identidad de otra persona o empresa para engañar a las posibles víctimas.

Gracias a la amplia base de conocimientos de esta herramienta, los ciberdelincuentes pueden obtener datos específicos sobre la empresa objetivo, lo que les permite redactar mensajes más creíbles y aumentar las posibilidades de éxito en el fraude.

El desarrollo de este tipo de IA es tan rápido que ahora también es capaz de crear códigos en diferentes lenguajes de programación, lo que se traduce en una forma simple y rápida para que los ciberdelincuentes puedan crear software malicioso. "ChatGPT supone una nueva vía para que cualquier persona pueda aprender a crear un código de malware más efectivo, lo que multiplica las posibilidades de ser víctima de un ciberataque", continúa Stranieri.


Noticias que marcan tendencia en el sector IT

Últimas Noticias

Nombramientos