Actualidad

Lecciones de Hiroshima y Nagasaki para la Inteligencia Artificial

Por Héctor Casanueva

Se cumplieron 78 años desde los bombardeos atómicos en Hiroshima y Nagasaki. No sabemos con certeza si el tiempo transcurrido desde ese horror ha servido para una mayor conciencia acerca de los límites que no deben ser sobrepasados en el uso y aplicación de los resultados de la investigación científica y tecnológica.

La cadena de decisiones políticas que condujo al desarrollo, fabricación y empleo de la bomba atómica, debería ser un referente para evaluar lo que está sucediendo con la Inteligencia Artificial, que según ha declarado el Secretario General de la ONU ante el Consejo de Seguridad “tiene un enorme potencial para el bien y el mal a gran escala. Sus propios creadores han advertido que se avecinan peligros mucho mayores, potencialmente catastróficos y existenciales”.

Un paralelismo entre energía nuclear e Inteligencia Artificial resulta inevitable, para sacar lecciones, si es que como comunidad internacional y sistema multilateral todavía somos capaces de aprender y rectificar.

Desde las dos fechas fatídicas de agosto de 1945, las armas nucleares no se han vuelto a usar, ni en el peor momento de la guerra fría, porque está claro que su empleo conduciría en lo inmediato a una masiva destrucción, y en el mediano plazo a la extinción de la humanidad. Pero seguimos viviendo en un equilibrio del terror, esta es una amenaza existencial cierta. Según la Federation of American Scientists, hay 12.500 ojivas o cabezas nucleares en manos de nueve países, empezando por Rusia y Estados Unidos, que acaparan casi el 90% del total, y el resto está entre Francia, el Reino Unido, Israel, India. Pakistán, China y Corea del Norte. Una guerra nuclear, sea con armas “tácticas” o “estratégicas”, entrañaría sin ninguna duda el fin de todas las formas de vida. Lo que hace completamente incomprensible que se sigan manteniendo arsenales nucleares, y haya países que procuren tenerlos.

Sabemos que todo descubrimiento científico tiene dos potencialidades, una que aportaría al progreso de la humanidad y otra que la perjudicaría. Es un terreno en el que el poder político, sea local o multilateral, debe tomar las mejores decisiones para la gobernanza de los resultados y la aplicación de la investigación científica, con toda la información, certezas y asesoramiento, escuchando a los científicos, los académicos y a la sociedad.

Por ejemplo, la energía nuclear tiene beneficiosas aplicaciones en generación eléctrica, medicina, agricultura, industria, imagenología, arqueología, ciencia de los materiales, conservación de alimentos, etc. Pero la bomba atómica y los desarrollos posteriores de la energía nuclear aplicada a la creación de armas de destrucción masiva, ponen en evidencia la difícil relación entre la ciencia y la política. O, dicho de otro modo, entre el avance científico y la gobernanza. Es el caso también de Internet, de la decodificación del genoma humano, la genética, la biología sintética, la computación cuántica y en general de la revolución científico-tecnológica. Todo ello de difícil regulación, de la que carecemos a nivel multilateral.

En materia nuclear existe la Organización Internacional de la Energía Atómica (OIEA), a la que pertenecen 176 estados miembros de la ONU, y si bien cumple una función muy importante, es un organismo de cooperación e información, que promueve el uso pacífico de la energía atómica, pero sin poder regulatorio. Pero, en concreto, no existe ningún organismo multilateral que regule el desarrollo científico-tecnológico.

En cuanto a la Inteligencia Artificial, que ha evolucionado exponencialmente en los últimos dos años, podemos decir, sin exagerar, que tiene la potencialidad positiva y negativa de la energía nuclear. Puede ser la bomba atómica del siglo XXI, si no se adopta una decisión política a nivel multilateral para su regulación, evitando que se nos vaya de las manos, y que líderes entusiastas, megalómanos e irresponsables caigan en la tentación de emplearla con fines bélicos.

Las ventajas de la IA son indudables, y no corresponde frenar su desarrollo, sino orientarlo y regularlo. Su aplicación cabe en seguridad ciudadana, medicina, transporte seguro, servicios personales más baratos, acceso a la información, educación y las oportunidades para las empresas en generación de nuevos y mejores productos y servicios, agricultura, alimentación, servicio al cliente, ahorro de energía, y muchas otras.

La Unión Europea, que prepara una ley regulatoria, estima que para el 2035 la productividad laboral podría crecer entre un 11 y un 37%. Por su parte la OCDE también considera los aspectos positivos de la IA en la economía y en la gestión pública. Y según Goldman Sachs, si bien a nivel mundial unos 300 millones de empleos podrían verse afectados por su introducción, no significaría necesariamente reemplazos masivos, sino un apoyo para potenciar la productividad y crearía en el largo plazo más empleos. Su introducción generalizada podría generar un aumento anual del 7% del PIB en los próximos diez años.

Pero hay que considerar que ya son muchas las voces de acreditadas personalidades e instituciones de todo el mundo, que de manera plausible advierten sobre los riesgos de esta nueva herramienta y claman por su gobernanza. En el caso de la energía nuclear, ya sabemos lo que pasó, por una decisión política adoptada sin tener claras las consecuencias, que además desató la competencia por desarrollar y almacenar armamento nuclear hasta nuestros días.

Con la IA, estamos a tiempo de atender a las tempranas advertencias hechas por Stephen Hawking liderando un grupo de científicos, a las que se suman el informe de la Alta Comisionada de la ONU para los Derechos Humanos; la reciente carta de científicos y expertos, entre ellos Bill Gates, Elon Musk, y las cabezas de las principales plataformas tecnológicas pidiendo una regulación y una moratoria, debido a los “riesgos profundos para la sociedad y la humanidad”; las declaraciones en este mismo sentido del creador de OpenAI, responsable de ChatGPT, Sam Altman en el Senado de Estados Unidos, cuyo subcomité ha celebrado ya dos audiencias sobre el tema. Y muchos más.

Según el Centro para la Seguridad de la Inteligencia Artificial, su desarrollo avanzado “podría invitar a una catástrofe, enraizada en cuatro riesgos clave: uso malicioso, carreras de IA, riesgos organizacionales e IA deshonestas, que interconectados pueden amplificar otros riesgos existenciales, como pandemias diseñadas, guerras nucleares, conflictos entre grandes potencias, totalitarismo y ataques cibernéticos a infraestructura crítica”.

Desde el sector de los centros de estudio y asociaciones de expertos y científicos, el think tank global The Millennium Project considera, según palabras de su director, Jerome Glenn, que es urgente hacerse cargo oportunamente, a escala global, mediante una Agencia de la ONU, de orientar la transición desde la actual Inteligencia Artificial Estrecha hacia la Inteligencia Artificial General (AGI), que sin regulación puede conducir en pocos años hacia una Super Inteligencia Artificial fuera de control.

En un intento de autoregulación, Google, Microsoft y OpenAI acaban de anunciar la formación del Frontier Model Forum, un nuevo organismo de la industria centrado en garantizar el desarrollo seguro y responsable de los modelos de IA de frontera, procurando buenas prácticas, cooperación con los gobiernos y la sociedad, y apoyar los esfuerzos para enfrentar los riesgos globales como el cambio climático y otros. Pero sigue siendo necesario que los gobiernos y los organismos multilaterales generen sus marcos normativos.

Tal vez lo más significativo en el nivel multilateral, como consecuencia de todas estas alertas, es la sesión especial sobre Inteligencia Artificial, celebrada recientemente por el Consejo de Seguridad de la ONU, que reconoce en esta herramienta un riesgo para la seguridad global. En dicha instancia, el Secretario General Antonio Guterres fue explícito instando al Consejo a “abordar esta tecnología con un sentido de urgencia, una perspectiva global y una mentalidad de aprendizaje”, acogiendo en este sentido los llamados de algunos Estados miembros para la creación de una nueva entidad de la ONU “que apoye los esfuerzos colectivos para gobernar esta tecnología extraordinaria”. Un grupo convocado por Guterres presentará unas propuestas a final de año.

En septiembre, tendrá lugar una reunión ministerial en Nueva York para ver los avances en la agenda y en la preparación de la Cumbre del Futuro 2024, en la que los jefes de estado y de gobierno de los estados miembros deberán pronunciarse sobre estos temas, y asumir un “pacto por el futuro”. En ese pacto, se debería dotar a la ONU de las capacidades suficientes para hacerse cargo de las amenazas estratégicas y existenciales globales, como es el caso de la Inteligencia Artificial.