Tipo 6: Armamentización estatal
La implementación de sistemas de inteligencia artificial por parte de entidades estatales, particularmente en escenarios de conflicto armado, guerra civil o seguridad pública, representa un vector de riesgo crítico con el potencial de catalizar perjuicios masivos y sistémicos que afecten la estabilidad del tejido social
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit06
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. **Instauración de un marco normativo internacional vinculante para Sistemas de Armas Autónomas Letales (AAL):** Promover urgentemente un tratado internacional que garantice el control humano significativo en el uso de la fuerza y prohíba aquellos sistemas de IA que puedan seleccionar y atacar objetivos sin intervención humana. El objetivo primordial es salvaguardar la responsabilidad, la ética y el cumplimiento del Derecho Internacional Humanitario y de los Derechos Humanos. 2. **Implementación de marcos de gobernanza de la IA centrados en los derechos humanos:** Desarrollar e integrar principios éticos y regulatorios (como los de la Recomendación de la UNESCO) en el ciclo de vida de los sistemas de IA empleados por entidades estatales. Esto incluye exigir transparencia, auditabilidad, proporcionalidad, mecanismos de rendición de cuentas y la prohibición explícita de sistemas de puntuación social o vigilancia masiva que vulneren las libertades fundamentales. 3. **Fortalecimiento de la ciberseguridad y la resiliencia de los sistemas de IA de defensa:** Diseñar e implementar sistemas de IA que sean intrínsecamente resistentes a la manipulación y el compromiso ('tamper-resistant AI'), complementado con protocolos de encriptación robustos y planes de contingencia operacionales. Esta estrategia es crucial para evitar que adversarios desactiven o desvíen el control de las capacidades de IA en el ámbito militar y policial.
EVIDENCIA ADICIONAL
Las herramientas y técnicas diseñadas para abordar la militarización de la IA por parte de actores criminales son también cruciales para prevenir su uso bélico por estados que no poseen laboratorios de investigación avanzada. Sin embargo, ¿qué ocurre con las potencias o estados con mayor capacidad tecnológica? La cuestión de fondo, el gran problema, es que la Inteligencia Artificial puede ser empleada en la guerra. Algunos proponen que, en un escenario ideal, drones mecánicos podrían enfrentarse entre sí en 'batallas sin bajas' para simular el resultado de una confrontación de fuerza letal. Esto, de no ir más allá, supondría una mejora sustancial en comparación con las prácticas de guerra actuales al evitar la pérdida de vidas humanas. No obstante, un riesgo intrínseco es que estas mismas capacidades tecnológicas están peligrosamente cerca de posibilitar la matanza masiva de seres humanos mediante el despliegue de drones armados. Una escalada en dichos conflictos podría desencadenar niveles de violencia y mortalidad sin precedentes, generando un temor y una opresión generalizados en las poblaciones que se conviertan en blanco de estas masacres.