Hace 7 años ya hubo otra carta advirtiendo sobre los riesgos de la IA, con similares firmantes
Las noticias sobre el actual desarrollo de la inteligencia artificial y sus múltiples riesgos han llegado a un posible punto de inflexión con la publicación de una carta abierta solicitando que se pause temporalmente su entrenamiento. Pero los firmantes más conocidos de la misma ya hicieron una advertencia similar hace más de 7 años.
En la nueva carta abierta, anunciada este miércoles en diversos medios, tanto especializados como generalistas, y en la que se solicita “que pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”, figuran como firmantes, entre otras 1.000, personalidades tan populares como Elon Musk, precisamente uno de los fundadores de Open AI, empresa creadora de Chat GPT, o Steve Wozniak, co-fundador de Apple. Pues bien, ambos ya habían firmado, a finales de 2015, una carta abierta en la que consideraban importante “investigar cómo cosechar los beneficios de la IA evitando al mismo tiempo peligros potenciales”.
Hay que resaltar que aquella carta data del 28 de octubre de 2015, y que Open AI fue fundada al mes siguiente, con Elon Musk y Sam Altman como fundadores y principales inversores. Durante estos años, la posición de Musk frente al avance de los desarrollos de Open AI ha ido siendo irregular. En 2018 le hizo saber a Altman que el proyecto estaba fracasando, a la sombra de DeepMind de Google. Poco después, Musk abandonó el proyecto, tras no ser capaz de hacerse con los mandos del mismo. Con Altman al control, pasó de ser una ONG a una startup, y más tarde llegó la inversión de Microsoft en Open AI con 30.000 millones, con la consiguiente aparición de las diferentes versiones de GPT.
Ahora, en la nueva carta abierta, se plantean las siguientes cuestiones: "Los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo?".
La carta no solicita que se detenga el progreso de la IA, sino “un paso atrás” para desarrollos más avanzados que GPT-4, evitando dirigirse sin control a "modelos impredecibles". Al mismo tiempo, sugiere la necesidad de protocolos de seguridad compartidos: “Como mínimo, deberían incluir: autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes reservas de capacidad computacional; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por los daños causados por la IA; financiación pública sólida para la investigación técnica sobre seguridad de la IA; e instituciones bien dotadas de recursos para hacer frente a las drásticas perturbaciones económicas y políticas (especialmente para la democracia) que causará la IA”.