HayCanal.com

Retos tecnológicos que enfrenta el anteproyecto de ley sobre contenidos generados por IA

Retos tecnológicos que enfrenta el anteproyecto de ley sobre contenidos generados por IA

La nueva iniciativa legislativa del Gobierno para protegernos de los deepfakes plantea problemas difíciles.

La compañía de ciberseguridad Check Point Software ha alertado sobre los límites tecnológicos frente a los deepfakes al analizar el anteproyecto de ley orgánica aprobado el pasado 13 de enero por el Consejo de Ministros. La normativa busca proteger los derechos al honor, a la intimidad personal y familiar y a la propia imagen, frenando la manipulación de imágenes y voces mediante contenidos generados por inteligencia artificial.

Sin embargo, desde el punto de vista de la ciberseguridad, la iniciativa enfrenta importantes desafíos tecnológicos, ya que la detección fiable de deepfakes sigue siendo extremadamente complicada y aún no existe una solución automatizada capaz de identificar estos contenidos de forma segura y en tiempo real. Además, la evolución acelerada de los deepfakes está reduciendo drásticamente la capacidad de distinguir entre contenidos reales y falsificados, tanto para los usuarios como para las propias organizaciones.

La iniciativa del Gobierno responde a una preocupación real y creciente, pero es importante entender el punto en el que nos encontramos desde el punto de vista tecnológico. Hoy por hoy, los deepfakes son extremadamente difíciles de identificar y, en muy poco tiempo, serán prácticamente indistinguibles de un contenido real”, señala Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Actualmente no existe ninguna herramienta capaz de detectar deepfakes de forma fiable y en tiempo real, y todo apunta a que este reto irá a más. En un horizonte de dos o tres años, si no se producen avances disruptivos, la identificación tecnológica será todavía más compleja, lo que limita enormemente la capacidad de prevención”, añade.

En este contexto, la ley se orienta principalmente a proteger la reputación y los derechos fundamentales de las personas afectadas, algo necesario y positivo, pero que no aborda el problema desde su raíz técnica. Casos como la difusión de vídeos manipulados que atribuyen mensajes falsos o conductas inexistentes a una persona evidencian un vacío legal y operativo, ya que demostrar técnicamente que un contenido es falso puede resultar inviable.

Para empresas y ciudadanos, la realidad es que la defensa frente a los deepfakes no pasa hoy por una solución tecnológica, porque no existe. La protección se basa en procedimientos, verificación manual y medidas organizativas, muchas de ellas ajenas a la tecnología, que permitan contrastar identidades, mensajes y contextos. La legislación puede ayudar a actuar cuando el daño ya se ha producido, pero mientras no exista una capacidad real de detección, el problema seguirá siendo principalmente reputacional, legal y social, más que estrictamente de ciberseguridad”, explica Eusebio Nieva.


Noticias que marcan tendencia en el sector IT

Últimas Noticias

Nombramientos