Riesgos y ética de la IA: la regulación
Contexto
La regulación de la IA ha cobrado una gran relevancia en los últimos 18 meses, impulsada por el auge de esta propia tecnología. La Unión Europea ha tomado la iniciativa en la creación de una normativa que establezca lineamientos para su desarrollo y uso. Las normas, que se votaron en el Parlamento Europeo los pasados 10 y 11 de abril, siendo finalmente aprobadas, buscan garantizar la interacción ética y legal de la IA en nuestro día a día. Tras la votación, la legislación entrará en vigor en 20 días.
La normativa establece una clasificación de la inteligencia artificial en función del riesgo que representa. Algunas aplicaciones de "riesgo inaceptable" estarán prohibidas seis meses después de la aprobación. Las obligaciones para modelos como ChatGPT se aplicarán al cabo de un año, y las demás reglas al cabo de dos. En la práctica, la implementación total se espera para finales del 2026.
Tras la entrada en vigor de la ley, las organizaciones y los desarrolladores deberán evaluar sus sistemas de IA para situarlos en uno de los cuatro niveles definidos. Dependiendo de la categoría, diferentes responsabilidades recaerán sobre el desarrollador o el usuario.
En enero de este año, durante el encuentro en Davos, se abordaron los posibles riesgos de la IA, especialmente de los modelos generativos, dada su amplia aplicación. Se alertó sobre su potencial para la desinformación, ligada a los sesgos que pueden surgir al entrenarlos con información amplia y sesgada. Sin embargo, la nueva ley contempla estos posibles riesgos, además de otros como la huella de carbono que dejan estos sistemas e intenta adelantarse a los posibles efectos socioeconómicos a largo plazo, que todavía son inciertos. Así, la normativa establece medidas para mitigar estos riesgos.
¿Qué exige la regulación para garantizar el desarrollo y uso responsable de la IA?
• Vigilancia humana: para mitigar los riesgos potenciales durante el uso de esta tecnología, se implementarán medidas de vigilancia humana. Las herramientas brindarán interfaces y mecanismos que permitirán la supervisión por parte del ser humano, asegurando que todo funcione correctamente según la ley. Este control humano es un aspecto fundamental para mitigar los riesgos.
• Transparencia y explicabilidad: la nueva regulación exige a los desarrolladores de modelos de Deep Learning que expliquen a empresas y ciudadanos cómo funcionan sus sistemas. Para cumplir con la normativa, los desarrolladores deberán proporcionar documentación técnica y funcional que detalle los algoritmos utilizados en sus modelos. Además, tendrán que asegurar que los datos empleados para el entrenamiento respeten los derechos de autor.
• La privacidad del dato: la ley europea de IA se regirá por el Reglamento General de Protección de Datos (RGPD) de la Unión Europea con el objetivo de proteger a los ciudadanos. Este reglamento, de aplicación obligatoria en todo el territorio europeo, establece una serie de normas para garantizar la protección de los datos personales de todo el mundo.
• Trazabilidad y auditabilidad: la regulación exige llevar un registro exhaustivo del desarrollo de los sistemas para asegurar la trazabilidad y auditabilidad del algoritmo en todo momento, especialmente en caso de un funcionamiento inadecuado.
• Detección y control del sesgo: la fase de diseño del algoritmo está sujeta a una serie de obligaciones que abarcan tanto la limpieza y calidad de los datos como el proceso de entrenamiento, validación y prueba del sistema. En este sentido, la norma exige que los conjuntos de datos empleados sean representativos, completos y carezcan de errores. De igual modo, se hace indispensable el diseño e implementación de software para la detección de sesgos en los datos.
¿Qué opina SAS sobre esto?
“Después de tres años, la legislación que define las obligaciones y normas para la IA está a punto de convertirse en una realidad. Esta tecnología, con un poder transformador sin precedentes, ya está presente en diversos sectores y en la vida cotidiana de millones de personas. Sin embargo, es una realidad que esta innovación puede tener tantas posibilidades como riesgos, si no se desarrolla y utiliza correctamente.
La nueva regulación busca fomentar una IA responsable y ética, garantizando la privacidad y seguridad de los ciudadanos europeos. Estas directrices exigen a los proveedores de IA un mayor control en el proceso de desarrollo de sus sistemas.
Más que un cambio tecnológico, las organizaciones ahora se enfrentan a un cambio cultural y de procesos. Para ello, la capacitación de los empleados en el uso ético de la tecnología será fundamental. Es importante recordar que los sesgos presentes en la cultura de una empresa pueden ser amplificados por la IA generando un riesgo que debe ser mitigado.
Lograr una IA explicable, transparente y trazable es posible. En SAS, aplicamos un enfoque de ética por diseño desde hace años, lo que nos permite garantizar la innovación responsable y la creación de soluciones seguras para nuestros clientes. No podemos olvidar que una IA fiable comienza antes de que se escriba la primera línea de código. Además, adoptar una gobernanza de la IA que sea coherente con los valores de la organización, y que sea capaz de adaptarse a los cambios y avances tecnológicos, es un compromiso constante.
Cada vez más empresas están creando comités de IA para asegurar el control y cumplimiento de la normativa. La combinación de cambios en los procesos, herramientas de medición y supervisión, e informes comprensibles que evidencien el uso adecuado de los modelos de IA, permitirá a las organizaciones cumplir con la ley y, al mismo tiempo, garantizar que sus sistemas se ejecutan de forma ética y responsable”.
Jesús Aguilera, Artificial Intelligence & Analytics Presales Manager para SAS en Iberia.