En la década de los 1950, una de sus “preocupaciones” era que otros países, además de Estados Unidos y la Unión Soviética, estaban desarrollando capacidad tecnológica para fabricar bombas nucleares y que incluso podría presentarse el caso de que algún “grupo terrorista” se apoderara de un dispositivo nuclear. Había que evitar la “proliferación” de la tecnología nuclear, aunque ya para entonces otros países como Inglaterra y Francia disponían de capacidad nuclear.
La diplomacia desplegada por Kissinger llevó al establecimiento de acuerdos con la URSS para, en principio, diseñar mecanismos que previnieran el uso de las bombas atómicas y evitar que, por “error” se pudiera desatar una conflagración.
De los acuerdos para el “control de las armas nucleares” se pasó a los de “no-proliferación”. En aquellos años, la expectativa de un conflicto bélico estaba presente. La llamada “crisis de los misiles”, en 1962, fue un evento de alto riesgo en el que se enfrentaron los Estados Unidos y la URSS. El gobierno norteamericano detectó que en Cuba se estaban realizando instalaciones, que podrían ser bases de lanzamiento de misiles, acusó a la URSS de ser la responsable y decretó un “embargo”, con el que controló las embarcaciones que se aproximaban a la isla. La URSS nunca aceptó ni desmintió las acusaciones. La crisis se superó.
En la actualidad son nueve los países con capacidad científica y tecnológica para fabricar armas nucleares y proyectiles para su transporte. Estados Unidos, Rusia, China, para empezar, India y Pakistán, Israel, Irán, entre ellos.
La amenaza de conflagración se ha contenido hasta ahora, se argumenta, gracias a que hay conciencia de que en una guerra nuclear nadie saldría ganando.
En el 2019, Kissinger escribió, junto con otros dos autores, un libro en el que se advierte que la Inteligencia Artificial es una amenaza que representa un grave riesgo para la civilización y que requiere una respuesta global. Esta postura sobre los riesgos de la Inteligencia Artificial los asocia Kissinger a la incorporación o integración de la Inteligencia Artificial en los sistemas de armamento. De allí que plantee la necesidad de que Estados Unidos y China se sienten a revisar los riesgos y a establecer medidas que eviten el libre accionar de los sistemas de IA.
Hace apenas un mes, Kissinger escribió, junto con Graham Allison (U. de Harvard), un ensayo que publicó en la revista Foreign Affairs, cuyo título puede traducirse como: “El camino hacia el control de las armas de la IA”
Ante lo que consideran una tecnología aún más “amenazante” que la energía nuclear, se hacen preguntas del siguiente tipo: ¿Los dispositivos de IA, son una amenaza para la humanidad y su status de supremacía? ¿Socavará la IA el monopolio estatal de los medios de violencia masiva? ¿Habilitará la IA a individuos o pequeños grupos con la capacidad para producir virus que puedan provocar muertes masivas en una escala antes reservada a los grandes poderes? ¿Podría la IA erosionar los factores que hasta ahora han evitado el recurrir a las armas nucleares?
Hasta ahora el desarrollo de la IA ha sido el resultado del trabajo de unas cuantas empresas, principalmente de Estados Unidos y China. A diferencia de la energía nuclear, la cual requiere de vastos recursos económicos y ha estado en manos de los gobiernos, en el caso de la IA son unas cuantas empresas (Microsoft, Google, Amazon, Meta, OpenAI) y algunos especialistas los que han actuado hasta ahora con el mayor margen de libertad, sin mayor control.
La lógica de estas empresas está orientada por el interés económico, aun y cuando en el caso de Open AI se planteaba que era una organización sin fines de lucro. Desde la perspectiva de Kissinger y Allison, el interés nacional de los Estados Unidos no está presente en este proceso.
Otra diferencia sustantiva es que en el caso de la tecnología nuclear sus productos se materializan y son tangibles, se pueden contar. En el caso de la IA los principales avances se producen en la mente de seres humanos, su aplicabilidad se desarrolla en laboratorios y su despliegue es difícil de observar. “Las bombas nucleares son tangibles; la esencia de la IA es conceptual”.
Mientras que el control de las armas nucleares se desarrolló a lo largo de años, en el caso de la IA su avance es muy rápido y el tiempo para negociar o deliberar es mínimo.
Según los autores, el control de la IA debe establecerse antes de que las máquinas empiecen a definir sus propios objetivos; lo cual, según algunos expertos, podría ocurrir en los próximos cinco años.
Un elemento positivo, dicen los autores, es que las principales empresas que desarrollan AI reconocen que su responsabilidad no solo es dar resultados a sus accionistas, sino también rendir cuentas ante el país y la humanidad. “Muchos han desarrollado sus propios criterios para evaluar el riesgo antes de desplegar sus avances”.
Reconocen que un paso significativo ha sido la iniciativa del Presidente Biden de convocar, a la Casa Blanca, a los líderes de las siete principales compañías para que asumieran el compromiso de establecer por sí mismas criterios para asegurar control y confianza.
Sin embargo, las distintas iniciativas que se han generado en diferentes países no permiten afirmar que haya un compromiso de las empresas ni criterios aceptados para reducir los riesgos en el desarrollo de la IA.
Mucho menos se ha filtrado información sobre algún esfuerzo de acercamiento o negociación entre China y los Estados Unidos.
Mientras tanto, las empresas de IA avanzan libremente con el excelente negocio que están realizando con sus aplicaciones, sin garantía ninguna de que los riesgos identificados o percibidos estén bajo control. Es de esperar que el gobierno de los Estados Unidos apoyará los esfuerzos de las empresas norteamericanas a fin de que se mantengan en una “posición de avanzada”; concentrando cada vez más poder.