Nunca pensé que serían unos líderes tecnológicos los que acabarían adoptando el discurso propio de lo que vendría a ser un pulpo en la nube, apelando incluso a ideas como la extinción de la humanidad, para advertir de los riesgos que podría traer la tecnología desarrollada por ellos mismos. Pero así ha ocurrido, amigos.
Como bien sabréis, esta semana se ha publicado una carta abierta en la que personalidades como Sam Altman, director ejecutivo de Open AI (Chat GPT), o su homólogo de Google DeepMind, Demis Hassabis, alertan de la parte peliaguda de la Inteligencia Artificial. No nos ha quedado más remedio, pues, que tratar por enésima vez sobre el temita de moda en el sector IT.
Lo cierto es que el comunicado es bien escueto, apenas 22 palabras, que son estas: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear”. Así de breve, conciso e inquietante. Por otro lado, leyéndolo uno no puede evitar fijarse en que la forma en que está construida la frase no implica una solicitud (como en la anterior carta abierta que pedía claramente “suspender” el desarrollo de la IA), ni tan siquiera una recomendación, sino más bien una sugerencia, con ese “debería” que hasta podría sonar a una especie de reflexión u ocurrencia de amigos techies reunidos en un bar; como quien dice: “igual deberías -yo que sé- limpiar un poco el coche, que ya se puede escribir sobre él -o- tal vez deberíamos preocuparnos por ese olor a gas”, etc.; como diciendo “bueno, id pensando un poco lo de la inteligencia artificial, cuando veáis, sin alarmaros, no por nada, pero con cuidado de no destruir la humanidad…”.
Lanzar así una única frase con ideas de apariencia tan apocalíptica, pero sin concretar ni proponer ni instar a una actuación de forma categórica, me parece bastante desconcertante. Es que incluso la introducción al “manifiesto” está mucho más desarrollada, y parece dar a entender como que “ya que estáis tan preocupados y discutiendo tanto sobre el tema, vamos a dejar claro que os apoyamos, para que podáis dormir más tranquilos”. Dicha introducción reza así: “Expertos en IA, periodistas, responsables políticos y el público en general debaten cada vez más sobre un amplio espectro de riesgos importantes y urgentes de la IA. Aun así, puede resultar difícil expresar preocupación por algunos de los riesgos más graves de la IA avanzada. La sucinta declaración que figura a continuación pretende superar este obstáculo y abrir el debate. También pretende dar a conocer al creciente número de expertos y figuras públicas que también se toman en serio algunos de los riesgos más graves de la IA avanzada”. Pues nada, nos quedamos más tranquilos ahora que sabemos que habéis abierto el debate y que los expertos se lo toman en serio…
Es inevitable preguntarse por qué personas interesadas en la inteligencia artificial se han puesto tan dramáticas aparentemente en contra de su propio negocio. Uno podría pensar que de esta forma se quitan la responsabilidad de todo lo negativo que pueda ocurrir en el futuro, poniéndose la venda antes de recibir la herida. O tal vez, siendo todavía más malpensados, les interesa que cunda el pánico, para que se hable todavía más de la IA, y lo pete cada vez más a nivel de marketing. La opción de que realmente estén preocupados, por un lado, no suele ser la regla entre los gurús tecnológicos (hola Mark Zuckerbeg), pero por otro lado, si es sincera, es casi la peor, porque si están preocupados ellos, es que la cosa es preocupante de verdad, y por lo tanto estamos apañados…
Una paradoja que me hace algo de gracia de toda esta película de ciencia ficción hecha realidad, es que, en este mismo blog, para elaborar nuestro último test del Pulpo, le preguntamos a Chat GPT si existía riesgo de que la inteligencia artificial acabara haciendo en el futuro algo parecido a lo que pasa en las películas de Terminator, y nos contestó que eso era altamente improbable. Ahora, el dueño de la empresa que lanzó esa popular aplicación de chatbot, parece menos convencido que su propia tecnología de que ese riesgo no exista… Esperemos que Chat GPT no esté disimulando (música de terror y fin del post).