Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Dependencia excesiva socavando autonomía del usuario

Los sistemas de Inteligencia Artificial (IA) plantean un riesgo directo a la autonomía humana cuando fomentan la confianza habitual y acrítica en sus sugerencias, sin que el usuario ejerza una agencia o un juicio suficiente. Con el tiempo, esta dinámica puede llevar al desarrollo de una dependencia o de una "hiperconfianza" injustificada en el sistema, lo que se traduce en delegar en la IA tareas que se encuentran fuera de su dominio real de especialización. Es crucial notar que usuarios con menor autoconfianza o aquellos en situación de vulnerabilidad emocional son especialmente susceptibles a incurrir en esta sobreconfianza.

Fuente: MIT AI Risk Repositorymit1051

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1051

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.2 > Pérdida de agencia y autonomía humana

Estrategia de mitigacion

1. Implementar mecanismos de "forzamiento cognitivo" (como diálogos de confirmación, fricción intencional o críticas de la IA) para impulsar la reflexión activa del usuario, fomentar la verificación de las salidas del sistema y mitigar la complacencia de la automatización 2. Establecer una estrategia integral de transparencia y educación, proporcionando a los usuarios modelos mentales realistas sobre las capacidades, limitaciones y el dominio de especialización del sistema de IA para asegurar una adecuada calibración de la confianza 3. Garantizar la soberanía y la agencia del usuario mediante la inclusión de controles de "Human-in-the-Loop" (supervisión humana significativa), opciones de exclusión y mecanismos que permitan al usuario ajustar el nivel de guía ofrecido por la IA