Ética artificial
Cuando nos encontramos ante una situación crítica, nuestro cerebro activa un sistema de respuesta ultrarrápida, el sistema límbico, con el objetivo de garantizar nuestra supervivencia.
Este sistema actúa de forma inconsciente, sin análisis de riesgos ni sesgos éticos. Las máquinas carecen de cerebro que haga esta función por ellas y deben incorporar sofisticados algoritmos de inteligencia artificial para suplirlo.
Por eso, el reto de los vehículos autónomos va más allá de solventar los problemas técnicos que se manifestaron hace un año con el atropello mortal que produjo un Uber. Las máquinas son capaces de analizar todas las posibles alternativas en una situación de peligro, pero para elegir cuál tomar alguien debe definir un objetivo que es un dilema ético: ¿supervivencia del conductor y sus acompañantes?, ¿supervivencia de los peatones?, ¿minimización de víctimas?
En 2014 un grupo de investigadores del MIT diseñó la Moral Machine, un experimento para recoger las distintas opiniones y formas de priorizar vidas humanas. Cuarenta millones de opiniones después, de participantes de 233 países, los resultados no pueden ser más dispares si los analizamos según culturas y geografías. Por ejemplo, Japón está en el extremo de priorizar a los peatones mientras China lo está a la hora de salvar a los viajeros.
Consensuar las bases éticas de la inteligencia artificial será una tarea tan titánica como necesaria si queremos beneficiarnos de todas las ventajas que los avances tecnológicos nos traen.
Artículo escrito por Alicia Asín y publicado en 20minutos.es
Bajo Licencia Creative Commons
Alicia Asín, Ingeniera Informática y CEO de Libelium