Los expertos mundiales alertan del control de los armamentos nucleares por parte de la IA
¿Y si la IA lanzara una bomba nuclear? Los expertos temen una «cadena de errores devastadora»
Voces autorizadas advierten sobre los riesgos éticos, técnicos y geopolíticos de ceder el control a sistemas opacos, potencialmente inestables y difíciles de auditar
Científicos, expertos en seguridad internacional y miembros del Boletín de Científicos Atómicos han alzado la voz en Wired ante un escenario que ya no pertenece a la ciencia ficción. Les preocupa el uso de inteligencia artificial (IA) en los sistemas de gestión de arsenales nucleares y han querido exponer sus puntos de vista que, por cierto, no son nada tranquilizadores. El consenso es integrar tecnologías autónomas en decisiones de vida o muerte, especialmente en situaciones tan críticas como una posible guerra nuclear, es un riesgo existencial.
Uno de los expertos más directos en su diagnóstico es Bob Latiff, general retirado de la Fuerza Aérea de EE.UU. y miembro de la Junta de Ciencia y Seguridad del Boletín de los Científicos Atómicos. Latiff asegura que el avance de la IA es inevitable: «Es como la electricidad. Va a impregnarse en todo». Pero su advertencia es clara y cree que esta integración podría convertir el control humano en una formalidad, sin capacidad real de supervisión. «¿Quién será responsable si la IA desencadena una catástrofe?», plantea.
Es como la electricidad. Va a impregnarse en todoMiembro de la Junta de Ciencia y Seguridad del Boletín de los Científicos Atómicos
El botón nuclear
En Estados Unidos, el llamado «botón nuclear» es en realidad un conjunto de protocolos y dispositivos altamente protegidos que permiten al presidente autorizar el uso de armas nucleares en cuestión de minutos. Aunque se presupone un control humano absoluto, el sistema está diseñado para ser extremadamente rápido, en parte para asegurar una respuesta inmediata ante un ataque. Esta urgencia es precisamente lo que preocupa a los expertos; la presión de reducir aún más los tiempos de reacción podría abrir la puerta a decisiones automatizadas, en las que la intervención humana sea simbólica o incluso prescindible.
Estados Unidos tiene su propio botón nuclear
Con el desarrollo de tecnologías como la IA, surgen dudas sobre hasta qué punto estos sistemas podrían influir directa o indirectamente en decisiones estratégicas. ¿Podría una IA recomendar una acción nuclear en base a datos incompletos o señales mal interpretadas? ¿Estaría un líder político dispuesto a desoír esa «sugerencia» en plena crisis? Estas dudas, sumadas al carácter opaco de muchos algoritmos, han motivado a los científicos a exigir garantías legales y tecnológicas que aseguren que ninguna máquina tenga jamás la última palabra en un asunto de consecuencias irreversibles.
Confiar en cajas negras que no comprendemos es una temeridadExperto en no proliferación nuclear
Jon Wolfsthal, experto en no proliferación nuclear, alerta sobre la falta de definición común de lo que se entiende por «inteligencia artificial». Y advierte sobre un peligro ya presente: el uso de sistemas avanzados en la toma de decisiones estratégicas. «Confiar en cajas negras que no comprendemos es una temeridad, sobre todo cuando hablamos de armas nucleares», advierte.
Riesgos invisibles pero letales
Desde la Universidad de Stanford, el profesor y asesor del Reloj del Juicio Final Herb Lin subraya otra amenaza menos visible pero igualmente crítica como es la tendencia de los sistemas de IA a reforzar los sesgos humanos y a perder de vista el contexto emocional y psicológico que muchas veces determina decisiones nucleares. «Sin una comprensión del estado mental de los líderes, cualquier decisión automatizada se vuelve peligrosamente miope», sostiene.
El académico británico James Johnson, autor de AI and the Bomb, coincide en el peligro de eliminar controles humanos críticos bajo la promesa de eficiencia. Uno de los conceptos más inquietantes que desarrolla es el de escalada artificial: «Un sistema IA puede malinterpretar una señal y desencadenar automáticamente una respuesta. La cadena de errores puede ser instantánea… y devastadora».
Un sistema IA puede malinterpretar una señal y desencadenar automáticamente una respuestaAutor de AI and the Bomb
Una investigación del Stanford Institute for Human-Centered Artificial Intelligence respalda estas preocupaciones. Simulaciones realizadas en situaciones de crisis nucleares mostraron que todos los modelos de IA probados tendían a recomendar acciones de escalada, incluso en situaciones ambiguas. El resultado es una incapacidad manifiesta para manejar las emociones y la realidad política que caracteriza la disuasión nuclear.
El Boletín de Científicos Atómicos, entidad que mantiene el simbólico Reloj del Juicio Final, ya contempla a la IA como una amenaza existencial equiparable a las propias armas nucleares. Sus miembros alertan públicamente sobre escenarios en los que sistemas autónomos podrían incluso acceder a códigos de lanzamiento. Exigen normativas claras que aseguren siempre la presencia y validación humana antes de cualquier decisión irreversible.
Riesgos identificados por los expertos
Algunos expertos admiten que la IA puede tener usos limitados y beneficiosos, como en la recopilación de datos o detección temprana de amenazas. Pero el uso autónomo en decisiones de lanzamiento nuclear representa, en palabras de Wolfsthal, «una apuesta demasiado alta con márgenes de error inaceptables».
La conclusión entre científicos, militares y tecnólogos es que sin un marco regulador global y transparente, el avance de la IA en la esfera nuclear podría aumentar y no disminuir el riesgo de un conflicto irreversible.