Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Uso malicioso y abuso (aplicaciones militares)

La rápida evolución de la Inteligencia Artificial con propósitos militares está catalizando una nueva era en la tecnología bélica. Un ejemplo central de esto son los Sistemas de Armas Autónomas Letales (LAWS), que poseen la capacidad de seleccionar, atacar y eliminar objetivos humanos de forma completamente independiente, es decir, sin que un operador humano tome la decisión final. La superioridad de la IA en el combate ya no es hipotética. En un hito de 2020, un agente de IA avanzado no solo desafió a pilotos humanos experimentados de F-16 en simulaciones de combate aéreo, sino que los superó con una victoria de 5-0, empleando "maniobras agresivas y precisas" que estaban fuera de las capacidades de respuesta del piloto. De hecho, los drones de combate totalmente autónomos ya forman parte del arsenal operativo actual.

Fuente: MIT AI Risk Repositorymit687

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit687

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

- Implementar el Control Humano Significativo (CHS) en las funciones críticas de ataque para garantizar que los Sistemas de Armas Autónomas Letales (SAAL) operen bajo el juicio ético y legal de un operador humano. - Garantizar la Integración y Conformidad con el Derecho Internacional Humanitario (DIH), desarrollando e integrando mecanismos algorítmicos que aseguren el cumplimiento estricto de los principios de distinción y proporcionalidad, mitigando el riesgo de sesgos algorítmicos. - Establecer un Marco Global de Responsabilidad y Mecanismos de Desactivación que codifiquen la rendición de cuentas por las acciones de los SAAL y permitan la retirada o desactivación de sistemas desplegados con comportamiento errático o ilegal mediante salvaguardas funcionales.