El Cinéfilo tecnológico: Sesgo codificado (2020)

Algoritmos racistas y sexistas

Si, vale, hace poco dijimos que dejaríamos de hablar un tiempo sobre la Inteligencia Artificial, pero es que en la actualidad resulta muy difícil hacer eso en un blog sobre tecnología. En cualquier caso, el tema de hoy en concreto se aleja de los programas de software que se pueden usar libremente en Internet para pasar el rato o hacernos pasar por artistas. Esta vez la cosa es menos interactiva, y también más seria.

El documental Sesgo codificado trata sobre los algoritmos que están presentes en cada vez más ámbitos de nuestra vida en sociedad, tomando decisiones importantes de forma supuestamente más eficaz y precisa que los humanos, pero que sin embargo cometen graves errores de sesgo que discriminan injustamente a muchas personas. Esto afecta a procesos de selección de empleo informatizados, evaluación automatizada de profesionales, cálculo de cuotas de seguros, o análisis predictivos de potenciales delitos en ciertos perfiles de posibles criminales.

El último de los ejemplos recuerda a aquella película de Steven Spielberg, Minority Report, y parece ser que ya estamos en la tesitura de estar superando a la ficción en nuestra realidad actual. De hecho, tanto esa como otras películas de ciencia ficción - sobre todo con robots amenazantes - son aludidas en el documental, lo que por un momento lo convierte en una especie de clip o tráiler de esta misma sección del cinéfilo tecnológico de nuestro blog.

Dejando a un lado nuestras ínfulas medio patológicas de que todo habla sobre nosotros, y también la espectacularidad de Hollywood, este documental muestra algo muy real, desde un punto de vista muy cercano y casi palpable. Nos expone la temática aludida narrándola desde la perspectiva de varias personas que luchan contra esos sesgos de la IA, siendo la protagonista una programadora informática desencantada con el asunto, lo que desmiente la idea de que los que advierten de los riesgos de las nuevas tecnologías son aguafiestas tecnófobos como nuestro Pulpo: de hecho, aquí es al revés: es una tecnófila quien pone sobre la mesa esos problemas.

No deja de tener su enjundia el hecho de que, al principio, Joy Buolamwini, que así se llama la informática, reconozca que se sintiera atraída por la tecnología debido a la desconexión entre ésta y los problemas de la vida real. Ese deseo de evasión (respetable a nivel personal), si es generalizado en el conjunto de los cerebritos que han creado en las últimas décadas toda la tecnología que rige el mundo actual, podría explicar muchas cosas, entre ellas ese famoso eslogan de los gurús de Silicon Valley que consiste en convencer a la gente de necesitar cosas que todavía no saben que necesitan, y que yo traduzco en que, de hecho, no las necesitamos, si siquiera cuando ya llevamos tanto tiempo convencidos que ya creemos que no podemos prescindir de ellas.

Buolamwini empieza a percatarse de los graves errores del machine learning cuando se percata de que un programa que detecta rostros humanos no es capaz de reconocer el suyo, debido al color de su piel. Inicia un estudio en profundidad, y comprueba cómo efectivamente las IA suelen favorecer o funcionar mejor dependiendo de la raza y el género. En definitiva, todos los casos a que antes nos referíamos (selección de empleos, posibles delincuentes, etc.) están condicionados por una IA que comete errores de racismo y sexismo propios de otra época.

La matemática Cathy O'Neil define en el documental a los algoritmos más o menos como a un sistema que predice el futuro en base a datos del pasado. De esta forma, si el pasado de la humanidad es racista y machista, la IA que ha aprendido de esos datos reflejará esas mismas actitudes. Por supuesto, siempre aparecerán comentarios en Internet que digan que si muchos árabes se inmolan, eso es un dato real, y la IA no se equivoca al reflejar ese dato real. Pero claro, si otros árabes tan civilizados y educados como un occidental ejemplar no pueden acceder a un trabajo o incluso se convierten en sospechosos de cometer crímenes por culpa de ese dato real (que no mayoritario) del que ellos en concreto no son responsables ni culpables, entonces la IA sí estará equivocándose, ¿no?

En la película se vuelve a tratar otro tema no por recurrente falto de relevancia, como es el de la privacidad, ahora desde la perspectiva del uso de los datos personales por esas IA que toman decisiones sobre nuestra vida. El caso del uso de la biometría o reconocimiento facial para vigilar a posibles sospechosos de entre la gente que deambula por una calle recuerda inevitablemente a la sociedad hiper - controlada por el Gran hermano de 1984 de George Orwell, y que recientemente se ha mostrado en otro ejemplo. Una distopía que ya se ha asimilado en China, como también muestra y critica el documental (por si alguien pensaba que los objetos de acusación de los realizadores tenían una sola orientación ideológica, que suele ocurrir). El hecho de que allí se reconozca abiertamente y no se disimule como en occidente podría hacerlo parecer al menos más honesto o transparente, pero normalizar e institucionalizar la falta de privacidad es, sencillamente, sentenciar a muerte a la democracia, me parece. Es como la diferencia entre un mundo antiguo en el que existía la esclavitud sin plantearse nada sobre su amoralidad, y un mundo actual en el que sigue existiendo esclavitud pero se considera un crimen contra los derechos humanos.

En definitiva, estamos ante una película que forma una trilogía de recomendable visionado junto a El dilema de las redes y El gran hackeo, y que, aunque le falta para mi gusto parte de la fuerza en el pulso narrativo que sí tienen esas dos, vuelve a tocar asuntos por los que deberíamos estar más preocupados que por tener más o menos likes. Y sin que por ello crea que haya que tirar toda la tecnología a la basura, quede claro.

 

Nota del Pulpo: 7 / 10