Inestabilidad estratégica inducida por IA
La inteligencia artificial (IA) introduce riesgos significativos para la estabilidad estratégica, particularmente en el ámbito nuclear y militar, manifestándose de varias maneras. Primero, la IA podría desestabilizar la disuasión nuclear. Puede facilitar la localización y destrucción de instalaciones de lanzamiento seguras, o generar ventajas extremas de primer golpe a través de nuevas capacidades destructivas, como ciberataques dirigidos a los sistemas de mando y control nuclear del adversario. En segundo lugar, el uso de capacidades de IA podría dificultar la atribución del origen de los ataques, haciendo que los agresores puedan eludir la responsabilidad y, por tanto, reduciendo el coste de iniciar un conflicto. Al ser más complejo justificar las decisiones militares basadas en IA, los estados podrían obtener una 'carta blanca' para actuar de forma más agresiva. Finalmente, la infraestructura de IA amplía la superficie de ataque, volviendo la guerra más tentadora al reducir el coste de la acción ofensiva (por ejemplo, atacando solo centros de datos cruciales) y creando una dinámica de 'usar o perder' en torno a sistemas militares de IA potentes pero vulnerables. Esto exacerba la 'paradoja capacidad-vulnerabilidad', donde las mismas tecnologías digitales que aumentan la eficacia militar también introducen puntos débiles críticos.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit783
Linea de dominio
5. Interacción Humano-Computadora
5.2 > Pérdida de agencia y autonomía humana
Estrategia de mitigacion
1. Reforzar el Control Humano y la Deliberación Estratégica Exigir y formalizar el principio de "humano-en-el-ciclo" (Human-in-the-Loop - HITL) para todas las decisiones militares críticas, especialmente aquellas relacionadas con operaciones nucleares, de comando y control (NC3) y la atribución de ataques. Esto incluye emplear la IA estrictamente como herramienta de apoyo a la decisión y no como sustituto del juicio humano final, con el objetivo de prevenir la escalada inadvertida por fallos algorítmicos, sesgos de automatización o líneas de tiempo de decisión comprimidas. 2. Establecimiento de Medidas de Fomento de la Confianza (CBMs) y Normas Internacionales Adoptar medidas de fomento de la confianza (CBMs) unilaterales, bilaterales y multilaterales centradas en la IA, que promuevan la transparencia, la notificación y el intercambio de información sobre las capacidades y salvaguardias de los sistemas militares habilitados por IA. El objetivo es mitigar la incertidumbre, las percepciones erróneas y la inestabilidad de la carrera armamentista, a la vez que se establecen "reglas de circulación" internacionales que restrinjan el uso de la IA en campos militares clave y prohíban los ciberataques a sistemas NC3. 3. Fortalecimiento de la Resiliencia de la Infraestructura Crítica de IA Implementar salvaguardias técnicas y operacionales para aumentar la solidez y la capacidad de supervivencia de los sistemas militares. Esto incluye mantener "brechas de aire" (air-gaps) entre sistemas de alerta temprana y comandos de lanzamiento nuclear, y diseñar sistemas de IA y su infraestructura (ej. centros de datos) para que sean resistentes ante fallos inesperados, sabotaje cibernético y físico, contrarrestando así la dinámica de 'usar o perder' y la 'paradoja capacidad-vulnerabilidad'.