Supervisión humana limitada en decisiones
El incremento en la autonomía operativa de los modelos y sistemas de Inteligencia Artificial conlleva una progresiva erosión de la capacidad humana para fiscalizar e intervenir de manera efectiva en sus procesos de toma de decisiones, lo cual introduce serios desafíos en materia de gobernanza y controlabilidad.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit957
Linea de dominio
5. Interacción Humano-Computadora
5.2 > Pérdida de agencia y autonomía humana
Estrategia de mitigacion
1. Implementación de Mecanismos Obligatorios de Intervención Diseñar sistemas de IA con funcionalidades claras que permitan a los supervisores humanos tomar la decisión de no utilizar el sistema, ignorar, anular o revertir sus resultados en cualquier momento. Esto incluye la provisión de un "botón de parada" o un procedimiento de interrupción similar que permita detener el sistema de alto riesgo y situarlo en un estado seguro, garantizando así la capacidad última de control humano sobre la autonomía operativa de la máquina. 2. Establecimiento de la Inteligencia Artificial Explicable (XAI) y Mitigación del Sesgo de Automatización Facilitar herramientas de interfaz persona-máquina que permitan a los supervisores humanos comprender adecuadamente las capacidades, limitaciones y el razonamiento detrás de las decisiones del sistema de IA. Es crucial concienciar y formar al personal sobre el riesgo inherente del sesgo de automatización, que es la tendencia a confiar excesivamente en los resultados de la IA, para fomentar una supervisión crítica y deliberada. 3. Diseño de Modelos de Supervisión Humana por Niveles y Bucle de Retroalimentación Establecer un marco de gobernanza que defina niveles de supervisión proporcionales al riesgo, el nivel de autonomía y el contexto de uso. Las tareas rutinarias pueden ejecutarse de forma autónoma, mientras que las decisiones complejas o de alto riesgo deben activar la revisión humana obligatoria. Además, integrar un bucle de retroalimentación en el ciclo de vida del sistema, donde la aportación y validación humanas refinen continuamente el comportamiento del modelo de IA, mejorando su fiabilidad a largo plazo.