Volver al repositorio MIT
5. Interacción Humano-Computadora3 - Otro

Supervisión humana limitada en decisiones

El incremento en la autonomía operativa de los modelos y sistemas de Inteligencia Artificial conlleva una progresiva erosión de la capacidad humana para fiscalizar e intervenir de manera efectiva en sus procesos de toma de decisiones, lo cual introduce serios desafíos en materia de gobernanza y controlabilidad.

Fuente: MIT AI Risk Repositorymit957

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit957

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.2 > Pérdida de agencia y autonomía humana

Estrategia de mitigacion

1. Implementación de Mecanismos Obligatorios de Intervención Diseñar sistemas de IA con funcionalidades claras que permitan a los supervisores humanos tomar la decisión de no utilizar el sistema, ignorar, anular o revertir sus resultados en cualquier momento. Esto incluye la provisión de un "botón de parada" o un procedimiento de interrupción similar que permita detener el sistema de alto riesgo y situarlo en un estado seguro, garantizando así la capacidad última de control humano sobre la autonomía operativa de la máquina. 2. Establecimiento de la Inteligencia Artificial Explicable (XAI) y Mitigación del Sesgo de Automatización Facilitar herramientas de interfaz persona-máquina que permitan a los supervisores humanos comprender adecuadamente las capacidades, limitaciones y el razonamiento detrás de las decisiones del sistema de IA. Es crucial concienciar y formar al personal sobre el riesgo inherente del sesgo de automatización, que es la tendencia a confiar excesivamente en los resultados de la IA, para fomentar una supervisión crítica y deliberada. 3. Diseño de Modelos de Supervisión Humana por Niveles y Bucle de Retroalimentación Establecer un marco de gobernanza que defina niveles de supervisión proporcionales al riesgo, el nivel de autonomía y el contexto de uso. Las tareas rutinarias pueden ejecutarse de forma autónoma, mientras que las decisiones complejas o de alto riesgo deben activar la revisión humana obligatoria. Además, integrar un bucle de retroalimentación en el ciclo de vida del sistema, donde la aportación y validación humanas refinen continuamente el comportamiento del modelo de IA, mejorando su fiabilidad a largo plazo.