Aspectos de la nueva ley europea de Inteligencia Artificial que las empresas deberán tener en cuenta
Desde que la inteligencia artificial se popularizara al nivel actual hace poco más de un año, con la llegada de famosas herramientas de IA generativa, las noticias sobre esta tecnología no han dejado de sucederse. Ahora llega un nuevo hito histórico con el acuerdo para la primera ley al respecto.
Hace apenas unos días, la Unión Europea daba luz verde a la primera ley centrada en la regulación de la Inteligencia Artificial, siendo esta la única institución supranacional en legislar acerca de esta materia. Tras un arduo debate en el que los principales escollos estuvieron ligados a la vigilancia biométrica y a la regulación de los modelos fundacionales, los eurodiputados aprobaron la normativa.
Este acuerdo se lleva fraguando mucho tiempo, ya que fue en el año 2021 cuando se presentó el borrador, y tras varios debates y enmiendas se ha conseguido llegar a un consenso. De este modo, la ley no entrará en vigor antes del año 2026 y busca controlar que estos sistemas sean seguros y respeten los derechos fundamentales de los usuarios tanto del sector público como del privado, pero, ¿sabes cómo afectará esta normativa a las organizaciones?
Esta ley es una regulación pionera en el mundo, por lo que se pretende que se establezca como un estándar a nivel global, de manera similar a lo que se ha hecho con el Reglamento General de Protección de Datos. Así pues, con la finalidad de explicar cómo afecta esta nueva normativa a las empresas, los expertos de Evolutio, compañía española experta en integración de servicios tecnológicos, han elaborado 5 puntos en los que se explica cómo va afectar a las organizaciones dicha ley:
• Etiquetas de peligrosidad para cada IA. La Unión Europea, con la finalidad de evitar y reducir los riesgos asociados a la Inteligencia Artificial, ha establecido un método de etiquetas de peligrosidad para clasificar el riesgo de los diferentes sistemas. Así, se dividen en inaceptables, que son las que permiten social scoring; en alto riesgo, que incluyen las tecnologías sujetas a determinados requisitos legales; en específicas de transparencia, en las que se incluyen LLM como ChatGPT o Bard; y aquellas de riesgo mínimo o inexistente que serán permitidos sin restricción alguna.
• Prohibiciones. Con el objetivo de proteger los derechos de privacidad de los ciudadanos se limitará el uso de sistemas de identificación biométrica en espacios públicos por parte de las autoridades policiales. Tan solo se permitirá en usos específicos y siempre bajo condiciones determinadas y delitos graves.
• Propiedad Intelectual. La reciente normativa establecerá requisitos de transparencia, imponiendo la obligación de que tanto las máquinas como sus usuarios operen en conformidad con la legislación de derechos de autor vigente en la Unión Europea. Asimismo, se exigirá la publicación de resúmenes explicativos del contenido utilizado para entrenar a la Inteligencia Artificial junto con la obra correspondiente.
• Modelos genéricos de Inteligencia Artificial. En el caso de las Inteligencias Artificiales catalogadas como de propósito general, como ChatGPT, Bard y otras similares, la Unión Europea ha implementado normativas específicas. Estas reglas tienen como objetivo mejorar la transparencia y seguridad en su aplicación e incluirán la realización de evaluaciones exhaustivas, así como la monitorización de posibles incidentes que puedan surgir.
• Sanciones. Con la finalidad de garantizar el acatamiento de esta legislación, las nuevas normativas introducen un conjunto de sanciones para abordar el posible uso indebido por parte de las empresas. Entre las multas que podrían aplicarse, se incluyen algunas que van desde los 7,5 millones de euros o el 1,5% anual de la facturación de la empresa, aunque en situaciones particulares, estas sanciones podrían incrementarse hasta alcanzar los 35 millones de euros o el 7% del volumen de negocio.