Entender la ética de la inteligencia artificial
El 51 por ciento de los ejecutivos considera que es importante garantizar que los sistemas de IA sean éticos y transparentes para brindar la información adecuada que mejore la toma de decisiones.
En 2018, Elaine Herzberg murió en lo que se cree que es la primera muerte de un peatón a manos de un vehículo autónomo. Este incidente llamó la atención del mundo y planteó preguntas sobre si podíamos confiar en la Inteligencia Artificial (IA) con algo tan importante como nuestras vidas. Pero, ¿qué significa eso para las organizaciones que buscan explotar esta tecnología?
Muchos expertos de la industria de todo el mundo están demandando lo que se denomina como “IA responsable”, al mismo tiempo que los estudios que salen a la luz recogen que las organizaciones están cada vez más preocupadas por las implicaciones de la IA. De hecho, según un estudio del Instituto de Investigación Capgemini, el 51% de los ejecutivos mundiales considera que es importante garantizar que los sistemas de IA sean éticos y transparentes.
La IA, especialmente el machine learning, funciona usando inserciones de datos, aprendiendo algo de ellos y, a partir de eso, infiriendo conclusiones para hacer predicciones. Esto plantea la cuestión de cómo juzgamos si una salida o conclusión de un sistema de IA es segura y si sucumbirá o no al sesgo o causará algún daño. Esta es la clave de la ética de la IA.
“Determinar si un resultado es éticamente aceptable puede suscitar desacuerdos razonables. Por ejemplo, en este período de COVID-19, los médicos, políticos y la población pueden estar en desacuerdo sobre la ética en torno a las decisiones de atención médica, como es el priorizar el uso de ventiladores en los jóvenes antes que en la tercera edad. Si los humanos pueden tener dudas sobre cuál es la decisión acertada, ¿cómo puede mejorar esto una IA?”, comenta Jorge Martínez, director regional de OpenText en España y Portugal. “Centrándonos en el entorno empresarial, en el que la IA se utiliza para automatizar procesos o mejorar la experiencia del cliente, la ética puede parecer un poco menos importante. Pero, para todas las organizaciones, el propósito principal de la IA debe ser brindar información que mejore la toma de decisiones. Por lo tanto, poder confiar y depender de esa información es esencial”.
Puntos clave en la ética de la IA
Hay muchas preguntas éticas que se pueden plantear acerca del impacto social de la IA y que afectan a todo tipo de sectores y ámbitos, como es el uso de inteligencia artificial en la salud, los coches autónomos o los beneficios de esta tecnología en la cadena de suministro. Acotando las cuestiones alrededor de la ética de las soluciones de IA que se crean dentro de cualquier entorno empresarial, OpenText, líder en gestión de la información empresarial, hace énfasis en cuatro puntos clave:
Prejuicios o sesgos. El área de la ética que quizás ha recibido mayor atención es el sesgo, cuando los modelos de datos sesgados o los prejuicios de los desarrolladores se infiltran involuntariamente en el sistema de inteligencia artificial, lo cual no sorprende si se considera que hay 188 sesgos cognitivos diferentes. Ya sea un prejuicio inconsciente del creador del sistema o un sesgo integrado en el modelo de datos que éste utiliza, los resultados serán probablemente injustos, discriminatorios o simplemente incorrectos.
Responsabilidad y explicabilidad. Los conceptos de responsabilidad y explicabilidad se comprenden bien en la vida cotidiana. Si eres responsable de algo, deberías poder explicar por qué ha sucedido como ha sucedido. Lo mismo ocurre en el mundo de la IA. Es esencial que cualquier acción que realice la tecnología pueda explicarse y auditarse por completo: tiene que poder rendir cuentas.
Transparencia. Para ser responsable, el sistema de inteligencia artificial debe ser transparente. Sin embargo, muchas soluciones de IA adoptan un enfoque de "caja negra" que no permite la visibilidad de los algoritmos subyacentes. Sin embargo, la nueva generación de soluciones de IA que adoptan el código abierto permite a las organizaciones integrar sus propios algoritmos y comparar la calidad de los mismos con sus propios datos.
Certeza en los datos. Un punto clave en la creación de sistemas de IA es cómo trabaja ésta con los datos, especialmente los personales, que se utilizan para completar sus modelos. El machine learning y el deep learning requieren enormes conjuntos de datos para aprender y mejorar. Cuantos más datos, mejores serán los resultados a lo largo del tiempo. Sin embargo, la regulación en torno a la privacidad, como la GDPR, impone nuevos niveles de responsabilidad a las organizaciones sobre cómo capturan, almacenan, usan, comparten y reportan los datos personales que poseen. Se debe saber cómo y por qué se están procesando los datos y los riesgos involucrados.
“Incluso si una organización cuenta con un equipo de científicos de datos con experiencia, muchos de los desafíos éticos seguirán siendo relativamente nuevos para ellos, especialmente debido a que la IA es una tecnología que evoluciona continuada y rápidamente y está en pleno auge. Una buena práctica para evitar caer en sesgos, ser transparentes y responsables es establecer un equipo directivo que supervise el uso de la IA a lo largo de toda la empresa, y elaborar un marco ético que describa qué se supone que debe hacer la IA, cómo se debe generar y utilizar y cuáles son los resultados esperados”, explica el responsable de OpenText.