Si vamos a tener Inteligencia Artificial a cascoporro, más nos vale que sea ética

Razones para asustarse y razones para tranquilizarse con la IA

La Inteligencia Artificial está que lo peta. Por mucho que hace semanas dijéramos que nos íbamos a tomar un descanso sobre el tema, la actualidad está lanzando a la tecnología de los algoritmos a lo más visible de la palestra, con aplicaciones como ChatGPT triunfando entre propios y extraños, así que no nos queda más remedio que seguir tratando el asunto.

Ríete ahora de los que a finales de 2021 quisieron meternos entre pecho y espalda el concepto de moda del metaverso. No es que no haya tenido su éxito, pero palidece al lado de los programas de software inteligentes. Metaverso no ha sido la expresión del terminado año 2022, pero sí lo ha sido la Inteligencia Artificial, de la que curiosamente se lleva hablando desde hace muchos más años, e incluso décadas. Lo que pasa es que es ahora cuando el machine learning ha llegado a un punto que ya le deja a uno ojiplático. Y si no, escuchad este podcast a partir del minuto 24:30. Por si fuera poco, noticias como que vaya a ser usada una IA en un juicio suenas todavía más flipantes.

Y claro, cada vez que nos volvemos a percatar del nivel de evolución al que ha llegado la IA en cada nueva etapa de su historia, nos empieza a entrar de nuevo el tembleque motivado por aquello de si se nos acabará subiendo a la chepa y esas cosas. Hace 50 años, uno podía ver 2001, Odisea del Espacio y pensar: “ojo cuidado, como los ordenadores lleguen a ese punto… pero bueno, no pasa nada que eso es una fantasía…”. Hace 40 años, podíamos decir de Blade runner: “No hombre, no, no será para tanto…”. Hace 30, con Terminator 2: “Naaada, no hay de qué preocuparse, hay tiempo para comeeer de sooobra”. Hace 20 con Inteligencia Artificial de Spielberg: “¿Pero y si sí…?”. Ahora ya estamos en el punto del sí, de ver que la tecnología está llegando a lo que solo la ciencia ficción podía imaginar.

Y entonces es cuando vuelve el debate sobre la ética de la IA, que tampoco es nuevo. Precisamente el director de una de esas películas mencionadas, James Cameron (que ahora está petándolo con la segunda de Avatar), cuenta en una entrevista que estuvo en un cónclave de expertos en dicha tecnología, y uno de ellos dijo: “Estamos intentando crear a una persona”, a lo que el director de Terminator preguntó: “¿Cuándo dice persona lo dice en el sentido de tener humanidad? ¿Tienen ego?”, a lo que el experto contestó: “Sí, lo tienen”. Cameron les planteó lo siguiente: “Si es una persona, ¿es libre de elegir? ¿Cómo se puede evitar que haga ciertas cosas?”. El experto respondió: “Estableciéndole ciertos objetivos y poniéndole restricciones”, a lo que el cineasta sentenció: “Así que estáis creando una persona que es tan inteligente o incluso más que nosotros, pero encadenada. La queréis atar. Pues resulta que tenemos una palabra para eso: se llama esclavitud. ¿Cuánto tiempo cree que van a aguantar así?”.

Por todo ello, no es de extrañar que otros expertos estén investigando la manera en la que, aceptando que el desarrollo de la IA es imparable, se podrían evitar sus posibles consecuencias nefastas para la humanidad, como es el caso que más abajo exponemos. El artículo viene a reconocer inconvenientes como los sesgos de los algoritmos, pero explica que, en última instancia, es la forma en que se implementen y utilicen lo que hará que esta tecnología ayude a crear un mundo tecnológico más ético o más injusto. Como toda herramienta a lo largo de la historia (y prehistoria), como el hueso de 2001, Odisea del espacio, que tras ser usado para matar, se transforma metafóricamente en una nave espacial…

 

¿Puede la inteligencia artificial ayudarnos a construir un mundo tecnológico más ético?

Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de las que entren en conflicto con el punto anterior. Y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con lo establecido antes. Estas tres leyes de la robótica fueron formuladas por Isaac Asimov hace ahora ochenta años, mucho antes de que la inteligencia artificial (IA) fuese una realidad. Pero ilustran perfectamente cómo los seres humanos hemos enfrentado los desafíos éticos de la tecnología: protegiendo a los usuarios.

Sin embargo, los desafíos éticos de la humanidad, tengan o no que ver con la tecnología, no son realmente un problema tecnológico, sino social. En este sentido, la tecnología en general, y la inteligencia artificial en particular, podría servir para empoderar al usuario y ayudarnos a avanzar hacia un mundo más éticamente deseable. Es decir, podemos repensar la forma en que diseñamos la tecnología y la inteligencia artificial y apoyarnos en ellas para construir una sociedad más ética.

Este es el enfoque que propone Joan Casas-Roma, investigador del grupo Smartlearn, de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC), en el manifiesto publicado en abierto Ethical Idealism, Technology and Practice: a Manifesto. Para entender cómo debe llevarse a cabo este cambio de paradigma, es necesario retroceder un poco en el tiempo.

La inteligencia artificial es objetiva, ¿o no?

Cuando Asimov formuló por primera vez sus leyes de la robótica, el mundo era un lugar muy poco tecnológico comparado con la actualidad. Era 1942 y Alan Turing apenas acababa de formalizar los conceptos de algoritmo que serían clave en el desarrollo de la computación moderna décadas más adelante. No había ordenadores ni internet, ni mucho menos inteligencias artificiales ni robots autónomos. Pero Asimov ya anticipaba el miedo a que el ser humano lograse fabricar máquinas tan inteligentes que acabasen por rebelarse contra sus creadores.

Sin embargo, más adelante, en los inicios de la computación y las tecnologías de datos en los años sesenta del siglo pasado, estas cuestiones no estaban entre las principales preocupaciones de la ciencia. "Había la creencia de que, al tratar con datos objetivos y científicos, la información resultante iba a ser cierta y de calidad. Se derivaba de un algoritmo de la misma manera que se deriva de un cálculo matemático. La inteligencia artificial era objetiva y, por lo tanto, nos ayudaba a eliminar los sesgos humanos", explica Joan Casas-Roma.

Pero esto no era así. Llegó un momento en que nos dimos cuenta de que los datos y los algoritmos replicaban el modelo o la forma de ver el mundo de la persona que usaba esos datos o que había diseñado el sistema. Es decir, la tecnología no eliminaba por sí misma los sesgos humanos, sino que los trasladaba a un nuevo medio. "Con el tiempo, hemos ido aprendiendo que la inteligencia artificial no tiene por qué ser objetiva y, por tanto, sus decisiones pueden estar muy sesgadas. Las decisiones perpetuaban las desigualdades, no las solucionaban", añade el investigador.

Así, acabamos llegando al mismo punto que anticipaban las leyes de la robótica. Las preguntas sobre la ética y la inteligencia artificial aparecieron sobre la mesa desde un punto de vista reactivo y protector. Como nos dimos cuenta de que la inteligencia artificial no era justa ni objetiva, decidimos empezar a actuar para contener sus efectos nocivos. "La pregunta ética de la inteligencia artificial nació de la necesidad de construir un caparazón para que los efectos indeseables de la tecnología sobre los usuarios no siguieran perpetuándose. Era necesario hacerlo", subraya Casas-Roma.

Tal como detalla el investigador en el manifiesto, el hecho de tener que reaccionar así ha hecho que durante las últimas décadas no hayamos profundizado en otra pregunta fundamental en la relación entre tecnología y ética. ¿Qué consecuencias éticamente deseables podrían ayudarnos a conseguir un conjunto de inteligencias artificiales con acceso a una cantidad de datos sin precedentes? Es decir, ¿cómo puede la tecnología ayudarnos a avanzar en la construcción de un futuro éticamente deseable?

Hacia una relación idealista entre ética y tecnología

Avanzar hacia una sociedad más inclusiva, más integrada y más cooperativa en la que la ciudadanía tenga una mayor comprensión de los desafíos globales: esa es una de las grandes metas que se marca la Unión Europea a medio plazo. Para alcanzarla, la tecnología y la inteligencia artificial pueden ser un gran obstáculo, pero también grandes aliadas. "En función de la forma en que se diseñe la interacción de las personas por medio de la inteligencia artificial, podría promoverse una sociedad más cooperativa", señala Casas-Roma.

El auge de la educación en línea en los últimos años es innegable. Las herramientas de aprendizaje digitales tienen muchas ventajas, pero también pueden fomentar la sensación de aislamiento. "La tecnología podría fomentar más sensación de cooperación y crear un mayor sentimiento de comunidad. Por ejemplo, en lugar de tener un sistema que solo haga correcciones automáticas de los ejercicios, podría también enviar un mensaje a otro compañero o compañera del curso que haya solucionado el problema para facilitar que el estudiantado se ayude. Es solo una idea para entender cómo el diseño de la tecnología puede llevarnos a interactuar de forma en que se fomente la comunidad y la cooperación", añade el investigador.

Para Casas-Roma, bajo una perspectiva de idealismo ético puede repensarse cómo la tecnología y la forma en que los usuarios la usan pueden crear nuevas oportunidades para lograr beneficios éticos para los propios usuarios y la sociedad en su conjunto. Este enfoque idealista de la ética de la tecnología debería tener las siguientes características:

•    Expansivo. La tecnología y sus usos deben estar pensados de forma que permitan a sus usuarios prosperar y empoderarse.

•    Idealista. El objetivo final para tener siempre en mente es cómo la tecnología podría mejorar las cosas.

•    Habilitante. Las posibilidades creadas por la tecnología deben entenderse y moldearse cuidadosamente para garantizar que mejoren y favorezcan el crecimiento ético de los usuarios y las sociedades.

•    Mutable. El estado actual de las cosas no debe darse por sentado. La actual configuración social, política y económica, así como la tecnología y su forma de ser utilizada podrían cambiar para permitir avanzar hacia un estado diferente de las cosas.

•    Basado en principios. La forma en que se usa la tecnología debe verse como una oportunidad para permitir y fomentar comportamientos, interacciones y prácticas alineadas con ciertos principios éticos deseados.

"No es tanto un tema de datos o de algoritmos. Es un tema de repensar cómo interactuamos y cómo querríamos hacerlo, qué es lo que habilitamos mediante una tecnología que se impone como medio", concluye Joan Casas-Roma. "Esta idea no es tanto una propuesta que tenga que ver con la potencia de la tecnología, sino con el pensamiento detrás de quien diseña la tecnología. Es una llamada a un cambio de paradigma, a un cambio de mentalidad. Los efectos éticos de la tecnología no son un problema tecnológico, sino social. Son un problema de cómo interactuamos los unos con los otros y con el entorno mediante la tecnología".