Pérdida de Autonomía
La delegación de la toma de decisiones en sistemas de Inteligencia Artificial, especialmente cuando estos carecen de transparencia y de mecanismos para la impugnación de sus resoluciones, puede generar en los individuos una profunda sensación de indefensión y sometimiento ante el poder decisorio de un sistema automatizado.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit96
Linea de dominio
5. Interacción Humano-Computadora
5.2 > Pérdida de agencia y autonomía humana
Estrategia de mitigacion
1. Implementar mecanismos rigurosos de transparencia y explicabilidad algorítmica (XAI) para asegurar que los usuarios y las entidades afectadas comprendan la lógica, los datos y las consecuencias previstas de las decisiones tomadas o asistidas por los sistemas de Inteligencia Artificial. 2. Establecer protocolos de supervisión humana efectiva y obligatoria (Human-on-the-Loop o Human-in-the-Loop), garantizando además mecanismos claros y accesibles para la impugnación, auditoría y recurso de las resoluciones automatizadas que afecten derechos o intereses legítimos. 3. Delimitar y hacer cumplir estrictamente las fronteras de la autonomía de la IA mediante la definición de "líneas rojas" y la implementación de marcos de gobernanza que eviten la excesiva delegación del juicio crítico y estratégico a sistemas automatizados, manteniendo la responsabilidad final en la entidad humana.