Armas Autónomas Letales (LAWS)
La Seguridad de la Inteligencia Artificial (IA) es un campo multidisciplinario que abarca la investigación, la formulación de estrategias y las políticas regulatorias. Su objetivo fundamental es garantizar que los sistemas de IA sean inherentemente confiables, que operen alineados con los valores y la ética humanas, y que, en consecuencia, no generen perjuicios graves e inesperados.
ENTIDAD
2 - IA
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit94
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. Prohibición y Regulación mediante Instrumento Internacional Vinculante Negociar y adoptar urgentemente un tratado internacional legalmente vinculante para prohibir los sistemas de armas autónomas letales (SAAL) que operan inherentemente sin un control humano significativo (meaningful human control) y aquellos diseñados para atacar personas directamente. Paralelamente, establecer una regulación estricta para todos los demás SAAL a fin de mitigar riesgos éticos, legales y humanitarios. 2. Garantizar el Control Humano Significativo y el Juicio Implementar y hacer cumplir directrices operacionales que exijan la retención del juicio y control humano apropiado (o significativo) sobre las funciones críticas—incluida la selección y el ataque de objetivos—a lo largo de todo el ciclo de vida de los SAAL, asegurando que las decisiones de vida o muerte permanezcan bajo la autoridad humana. 3. Establecimiento de Marcos de Responsabilidad y Rendición de Cuentas Asegurar una cadena clara de mando y responsabilidad para garantizar la imputabilidad por violaciones al Derecho Internacional Humanitario (DIH) y a los Derechos Humanos. Esto incluye revisar los marcos legales nacionales e internacionales para prevenir la impunidad de operadores, comandantes y desarrolladores ante el uso indebido o mal funcionamiento de sistemas autónomos.