HayCanal.com

3 desafíos a superar para evitar la pérdida de datos por ataques de ransomware

3 desafíos a superar para evitar la pérdida de datos por ataques de ransomware

Los ataques de este tipo fueron los más comunes el pasado año, superando el 70 por ciento en sectores como la sanidad.

INFINIDAT, proveedor independiente líder en soluciones de almacenamiento empresarial multi-petabyte, ha hecho público un listado de tres desafíos críticos que, a juicio de sus expertos, deben tener en cuenta las empresas para evitar la pérdida de datos debido a ataques de ransomware y cumplir con las estrictas regulaciones que establece el Reglamento General de Protección de Datos (RGPD).

"Desde la entrada en vigor del RGPD, se han multiplicado los debates sobre el riesgo de brechas de datos”, explica Eran Brown, Chief Technology Officer de INFINIDAT EMEA. "Hablamos de un escenario de alto riesgo para cualquier empresa que haya de mantener datos personales, por lo que requiere una atención máxima".

Se considera que se produce una brecha de datos cuando un tercero no autorizado accede a datos personales de clientes manejados por una empresa; una pérdida de datos, por su parte, supone que es la propia empresa la que ve interrumpido su acceso a los datos personales de sus clientes. En los últimos años, la causa más común de la pérdida de datos personales han sido los ataques de ransomware, con nombres como WannaCry, Petya, o CryptoLock. Según, en 2017 las campañas de ransomware fueron los ataques de malware más comunes. En algunos sectores, como el sanitario, este porcentaje superó el 70%.

Dada esta situación, y con muchos retos a los que enfrentarse, INFINIDAT menciona tres desafíos principales que deben ser considerados por los responsables de las organizaciones a fin de desarrollar una estrategia sólida:

1.    Detección de los ataques. Los ataques de ransomware modernos pueden permanecen ocultos durante largos periodos de tiempo antes de ser detectados, con el objetivo de cifrar el mayor número de datos. Luego el malware bloquea al usuario y solicita un “rescate” utilizando como divisa una criptomoneda. Este comportamiento es muy eficiente, pero también es el talón de Aquiles del ataque: dado que los cambios se acumulan con el tiempo, es posible detectar el malware si se utiliza un mecanismo de rastreo.

Los snapshots, que generalmente consumen porcentajes muy reducidos del volumen total de los datos, comenzarán a “inflarse”, al consumir más capacidad. Si el sistema de almacenamiento proporciona algún tipo de monitorización y alarmas sobre consumo de capacidad, la organización podrá detectar fácilmente este aumento y reaccionar antes de que los atacantes puedan bloquear a los usuarios.

2.    Respuesta a los ataques. Si, por ejemplo, el ataque de ransomware ha sido capaz de cifrar 100 Terabytes de datos durante una semana, los backups ejecutados durante esa semana también se verán comprometidos, y no podrán utilizarse para recuperar los datos. Por tanto, los administradores se verán obligados a recuperar 100 TB de información a través de la red desde un sistemas de backup, lo que probablemente llevará horas, y sin garantías de que la recuperación no contenga archivos corruptos.

Pero, al mismo tiempo, el tamaño del snapshot sugerirá inmediatamente si contiene datos cifrados. Por tanto, si una organización utiliza snapshots, podrá acceder a ellos, testarlos en sus propias instalaciones y recuperar el snapshot correcto, reduciendo así el tiempo de recuperación de días a minutos.

3.    Prevención ante la explosión en el volumen de almacenamiento. Un vector de riesgo que a veces no se considera en el contexto del ransomware es que la capacidad adicional que consume durante su tiempo "silencioso" aumenta la carga sobre los arrays de almacenamiento existentes, en promedios de entre un 80% y un 100%, lo que, obviamente, bloqueará las aplicaciones corporativas.

Disponer de un array de mayor capacidad ofrecerá a los administradores un mayor tiempo para identificar y responder ante los ataques de ransomware. Pero, al mismo tiempo, también conllevará un mayor nivel de consolidación de datos y, por tanto, requerirá una mayor fiabilidad. La arquitectura de doble controlador, diseñada en la década de los 90 del siglo pasado para entornos de unos pocos terabytes, no puede proporcionar este nuevo nivel de fiabilidad que se requiere en la era del Petabyte.


También te puede gustar: