Dependencia excesiva socavando autonomía del usuario
Los sistemas de Inteligencia Artificial (IA) plantean un riesgo directo a la autonomía humana cuando fomentan la confianza habitual y acrítica en sus sugerencias, sin que el usuario ejerza una agencia o un juicio suficiente. Con el tiempo, esta dinámica puede llevar al desarrollo de una dependencia o de una "hiperconfianza" injustificada en el sistema, lo que se traduce en delegar en la IA tareas que se encuentran fuera de su dominio real de especialización. Es crucial notar que usuarios con menor autoconfianza o aquellos en situación de vulnerabilidad emocional son especialmente susceptibles a incurrir en esta sobreconfianza.
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1051
Linea de dominio
5. Interacción Humano-Computadora
5.2 > Pérdida de agencia y autonomía humana
Estrategia de mitigacion
1. Implementar mecanismos de "forzamiento cognitivo" (como diálogos de confirmación, fricción intencional o críticas de la IA) para impulsar la reflexión activa del usuario, fomentar la verificación de las salidas del sistema y mitigar la complacencia de la automatización 2. Establecer una estrategia integral de transparencia y educación, proporcionando a los usuarios modelos mentales realistas sobre las capacidades, limitaciones y el dominio de especialización del sistema de IA para asegurar una adecuada calibración de la confianza 3. Garantizar la soberanía y la agencia del usuario mediante la inclusión de controles de "Human-in-the-Loop" (supervisión humana significativa), opciones de exclusión y mecanismos que permitan al usuario ajustar el nivel de guía ofrecido por la IA