Uso malicioso y abuso (aplicaciones militares)
La rápida evolución de la Inteligencia Artificial con propósitos militares está catalizando una nueva era en la tecnología bélica. Un ejemplo central de esto son los Sistemas de Armas Autónomas Letales (LAWS), que poseen la capacidad de seleccionar, atacar y eliminar objetivos humanos de forma completamente independiente, es decir, sin que un operador humano tome la decisión final. La superioridad de la IA en el combate ya no es hipotética. En un hito de 2020, un agente de IA avanzado no solo desafió a pilotos humanos experimentados de F-16 en simulaciones de combate aéreo, sino que los superó con una victoria de 5-0, empleando "maniobras agresivas y precisas" que estaban fuera de las capacidades de respuesta del piloto. De hecho, los drones de combate totalmente autónomos ya forman parte del arsenal operativo actual.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit687
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
- Implementar el Control Humano Significativo (CHS) en las funciones críticas de ataque para garantizar que los Sistemas de Armas Autónomas Letales (SAAL) operen bajo el juicio ético y legal de un operador humano. - Garantizar la Integración y Conformidad con el Derecho Internacional Humanitario (DIH), desarrollando e integrando mecanismos algorítmicos que aseguren el cumplimiento estricto de los principios de distinción y proporcionalidad, mitigando el riesgo de sesgos algorítmicos. - Establecer un Marco Global de Responsabilidad y Mecanismos de Desactivación que codifiquen la rendición de cuentas por las acciones de los SAAL y permitan la retirada o desactivación de sistemas desplegados con comportamiento errático o ilegal mediante salvaguardas funcionales.