El impacto de la Inteligencia Artificial en la toma de las decisiones nucleares (Informe)

shadow

 

NACIONES UNIDAS – A medida que la Inteligencia Artificial (IA) amenaza con dominar todos los aspectos de la vida humana —incluidos los políticos, económicos, sociales y culturales—, también existe el peligro de una posible militarización de la IA.

Según un informe, la integración de la IA en los sistemas de mando, control y comunicaciones nucleares (NC3), así como su uso en la toma de decisiones militares, introduce riesgos graves y sin precedentes para la seguridad mundial.

Entre los principales efectos negativos se encuentran la aceleración de la toma de decisiones a la «velocidad de las máquinas» (lo que deja poco tiempo para el juicio humano), el aumento de la vulnerabilidad a los ciberataques y la erosión de la estabilidad estratégica.

Según el Boletín de Científicos Atómicos, el mando y control de las armas nucleares es un sistema delicado y complicado, diseñado para evitar errores y garantizar la fiabilidad en condiciones de alta presión.

En entornos en los que grandes cantidades de datos determinan resultados de alto riesgo, la inteligencia artificial se ha convertido en una consideración natural.

«La integración de una tecnología en rápida evolución plantea cuestiones fundamentales sobre la responsabilidad, la calidad de los datos y la fiabilidad del sistema. Cuando un solo error puede tener consecuencias irreversibles, ¿cómo se puede generar confianza en torno a la integración del aprendizaje automático en sistemas que durante mucho tiempo han dependido del juicio y la supervisión humanos?», indica el documento.

Y añade: «¿Qué medidas de protección deben mantenerse? ¿Dónde están las oportunidades para la colaboración y el consenso internacionales?».

Tariq Rauf, exjefe de Verificación y Política de Seguridad del Organismo Internacional de Energía Atómica (OIEA), con sede en Viena, dijo a IPS que el papel y la integración de la inteligencia artificial generativa (IAG) plantean algunas de las cuestiones más trascendentales de nuestra era tecnológica.

La integración de la IAG en los sistemas de mando, control y comunicaciones nucleares (NC3) no es solo un reto de ingeniería, sino también un reto para la civilización.

El problema de la velocidad de las máquinas

Quizás el aspecto más alarmante de la integración de la IAG en los sistemas NC3, señaló, es la compresión de los plazos de toma de decisiones a la «velocidad de las máquinas».

La estrategia nuclear ha dependido históricamente del juicio deliberado de los seres humanos, es decir, de la capacidad de los responsables de la toma de decisiones para detenerse, evaluar datos ambiguos, consultar a sus asesores y optar por la moderación incluso bajo presión o ataque.

Los sistemas IAG, por el contrario, están diseñados para procesar y responder a velocidades que ningún ser humano puede igualar. En una crisis, esto crea una peligrosa paradoja: la misma velocidad que hace atractiva a la IAG también hace que la supervisión humana significativa sea casi imposible.

«Si un sistema IAG identifica erróneamente una anomalía en un sensor como un misil entrante —algo que ya ha ocurrido con sistemas operados por humanos, como ilustra el incidente de la falsa alarma soviética de 1983—, el margen para la corrección podría reducirse de minutos a segundos», dijo Rauf.

El margen de error en la toma de decisiones nucleares siempre ha sido incómodamente estrecho; la AGI corre el riesgo de eliminarlo por completo, detalló.

IA: Anthropic resalta razonamiento y rendimiento de Opus de Claude Sonnet 4.6

Calidad de los datos y fiabilidad del sistema

La calidad y la integridad de los datos son cuestiones fundamentales en relación con la IAG. Los sistemas de aprendizaje automático son tan fiables como los datos con los que se entrenan, argumentó.

«Los entornos nucleares presentan retos únicos y ultracomplejos: implican acontecimientos poco frecuentes y de alto riesgo con datos históricos limitados, actores adversarios que pueden introducir deliberadamente información errónea en las redes de sensores y contextos geopolíticos que cambian más rápido de lo que pueden captar los conjuntos de datos de entrenamiento», dijo Rauf.

Un sistema de IAG que actúe con confianza sobre datos corruptos o tergiversados en un contexto nuclear podría desencadenar una escalada basada en una ficción.

Peor aún, la opacidad de muchos modelos de aprendizaje automático —el llamado problema de la «caja negra»— significa que incluso los diseñadores de sistemas pueden ser incapaces de explicar por qué se generó un resultado concreto, y mucho menos corregirlo en tiempo real, explicó Rauf.

Vladislav Chernavskikh, investigador del Programa de Armas de Destrucción Masiva del Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI), afirmó a IPS que los enfoques estatales existentes sobre el nexo entre la IA y las armas nucleares ya convergen en gran medida en el principio de mantener el control humano en la toma de decisiones nucleares, pero no hay consenso sobre cómo debe definirse u operativizarse.

El reconocimiento formal de este principio por parte de los Estados poseedores de armas nucleares y la elaboración de lo que constituye el control humano en este contexto y cómo puede manifestarse en el ámbito de las armas nucleares puede ser uno de los primeros pasos para minimizar los riesgos, declaró.

En la Cumbre sobre el Impacto de la IA celebrada en frebrero en Nueva Delhi, el secretario general de la ONU, António Guterres, afirmó que el futuro de la IA no puede ser decidido por un puñado de países y los caprichos de unos pocos multimillonarios.

«El año pasado, la Asamblea General dio dos pasos decisivos», aseguró.

En primer lugar, mediante la creación de un Panel Científico Internacional Independiente sobre Inteligencia Artificial y, en segundo lugar, mediante el lanzamiento de un Diálogo Global sobre la Gobernanza de la IA dentro de las Naciones Unidas, en el que todos los países, junto con el sector privado, el mundo académico y la sociedad civil, pueden tener voz.

Guterres dijo a los participantes en la cumbre que el impacto real significa tecnología que mejora la vida y protege el planeta. Y les pidió que construyeran una IA para todos, con la dignidad como valor predeterminado.

EEUU: Trump ordena que agencias federales dejen de utilizar el modelo de IA de Anthropic

El portavoz de la ONU, Stephane Dujarric, dijo a los periodistas en febrero que el secretario general no está pidiendo que las Naciones Unidas gobiernen la IA. Lo que pide —y ha puesto en marcha— es una arquitectura con la ayuda de los Estados miembros para tratar de garantizar que todo el mundo tenga un lugar en la mesa.

Y, como él mismo dijo: «La IA nos afectará a todos y ya lo ha hecho. Es fundamental que los países que quizá no dispongan de la tecnología también tengan voz y que la ciencia y la equidad ocupen un lugar central en la IA».

Responsabilidad y rendición de cuentas

En un análisis más detallado, Rauf afirmó que, cuando las recomendaciones de la IAG o las acciones autónomas contribuyen a resultados catastróficos, la cuestión de la rendición de cuentas se vuelve profundamente problemática.

Las cadenas de mando tradicionales asignan una responsabilidad humana clara en cada punto de decisión. La integración de la IAG rompe esta claridad. «¿Quién es responsable de un error de cálculo: el desarrollador del software, el comandante militar, el gobierno que ha desplegado el sistema o el propio algoritmo?», preguntó.

La ausencia de marcos claros de rendición de cuentas no es solo un problema legal o ético, sino también estratégico, ya que tanto los adversarios como los aliados necesitan comprender quién tiene el control y qué lógica de decisión se está aplicando.

Vulnerabilidad a los ciberataques

Los sistemas NC3 mejorados o dependientes de la IAG también amplían la superficie de ataque para los adversarios.

«Los ciberataques sofisticados, incluidas las entradas adversarias diseñadas para manipular las salidas de la IAG, podrían potencialmente engañar o cegar estos sistemas de formas que son difíciles de detectar hasta que es demasiado tarde. La integración de la IAG crea así nuevos vectores de desestabilización que no existían en las arquitecturas nucleares anteriores», dijo Rauf.

Argumentos a favor de la colaboración internacional

A pesar de estos alarmantes retos, la colaboración internacional podría ser una vía potencial para gestionar el riesgo. Las medidas de fomento de la confianza, las normas técnicas compartidas y los acuerdos bilaterales o multilaterales «exigibles» sobre los límites de la autonomía de la IAG en los sistemas nucleares podrían ayudar a preservar la estabilidad estratégica.

La historia del control de armas, según Rauf, demuestra que incluso los adversarios pueden ponerse de acuerdo sobre normas que sirvan a los intereses mutuos de supervivencia. Es urgente extender esa tradición a los sistemas NC3 habilitados por la IAG, antes de que la tecnología supere por completo a la diplomacia.

«La integración de la IAG en los sistemas nucleares podría ser técnicamente inevitable. Si se gestiona de forma inteligente es una elección política y moral que sigue estando muy abierta y parece estar más allá de las capacidades intelectuales y morales/éticas de los ‘líderes’ civiles y militares actuales», planteó Rauf.

T: MF / ED: EG (ipsnoticias.net) – Foto tynmagazine.com