Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Pérdida de Autonomía

La delegación de la toma de decisiones en sistemas de Inteligencia Artificial, especialmente cuando estos carecen de transparencia y de mecanismos para la impugnación de sus resoluciones, puede generar en los individuos una profunda sensación de indefensión y sometimiento ante el poder decisorio de un sistema automatizado.

Fuente: MIT AI Risk Repositorymit96

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit96

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.2 > Pérdida de agencia y autonomía humana

Estrategia de mitigacion

1. Implementar mecanismos rigurosos de transparencia y explicabilidad algorítmica (XAI) para asegurar que los usuarios y las entidades afectadas comprendan la lógica, los datos y las consecuencias previstas de las decisiones tomadas o asistidas por los sistemas de Inteligencia Artificial. 2. Establecer protocolos de supervisión humana efectiva y obligatoria (Human-on-the-Loop o Human-in-the-Loop), garantizando además mecanismos claros y accesibles para la impugnación, auditoría y recurso de las resoluciones automatizadas que afecten derechos o intereses legítimos. 3. Delimitar y hacer cumplir estrictamente las fronteras de la autonomía de la IA mediante la definición de "líneas rojas" y la implementación de marcos de gobernanza que eviten la excesiva delegación del juicio crítico y estratégico a sistemas automatizados, manteniendo la responsabilidad final en la entidad humana.