Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

IA permite la automatización de la toma de decisiones militares

La preocupación primordial radica en la *ausencia de supervisión humana constante* en determinadas decisiones militares asistidas por Inteligencia Artificial, lo cual incrementa el riesgo de una *escalada no intencionada* del conflicto. Esta escalada puede originarse a través de dos vías principales:1. *Toma de Decisiones Tácticas Automatizadas ("In-The-Theatre"):* Sistemas de IA operando en el campo de batalla (ej. patrullas fronterizas) pueden cometer errores operativos, como un disparo accidental, que no solo podría resultar en crímenes de guerra de nivel táctico, sino que también tiene el potencial de forzar una escalada estratégica a un nivel de intensidad superior, como el ataque a centros de población (objetivos de "contravalor") o, en el extremo, el empleo nuclear. 2. *Toma de Decisiones Estratégicas Automatizadas ("Out-Of-The-Theatre"):* Sistemas de IA de alto nivel (ej. predicción de conflictos o planificación estratégica) que operan fuera del campo de batalla pueden generar fallos críticos, como una *falsa advertencia* de "ataque inminente". Una decisión estratégica errónea basada en esta información defectuosa podría precipitar el inicio o la intensificación de un conflicto.

Fuente: MIT AI Risk Repositorymit782

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit782

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.2 > Pérdida de agencia y autonomía humana

Estrategia de mitigacion

1. Establecer un marco de "Control Humano Significativo" (Meaningful Human Control - MHC) para asegurar que el juicio humano prevalezca sobre la fuerza, obligando a los operadores a ejercer una intervención y supervisión adecuada en las decisiones críticas, como la selección y el ataque a objetivos, a lo largo de todo el ciclo de vida del sistema. 2. Integrar "interruptores de circuito" técnicos (circuit breakers) y salvaguardas algorítmicas que detecten y restrinjan temporalmente las operaciones impulsadas por IA ante la aparición de dinámicas de respuesta recursiva que puedan desencadenar una escalada rápida e incontrolada del conflicto. 3. Circunscribir estrictamente el despliegue de la IA a problemas específicos y acotados, reservando para el juicio humano la interpretación de factores estratégicos complejos como la intención del adversario, y aplicar programas de entrenamiento riguroso para educar a los comandantes sobre las vulnerabilidades y el riesgo de sobreconfianza (sesgo de automatización) en los sistemas.