Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Dependencia excesiva

Este concepto, crucial en la investigación de la seguridad de la IA, aborda el riesgo de **dependencia excesiva** y la consecuente disminución de la autonomía humana. Se desglosa en dos tipos de dependencia que un modelo de lenguaje puede generar: - **Dependencia Emocional/Psicológica**: Ocurre cuando el modelo se convierte en un sustituto de la interacción social humana, una fuente primaria de apoyo emocional o una herramienta de validación personal. Este fenómeno puede socavar las habilidades interpersonales y la resiliencia psicológica del usuario. - **Dependencia Material/Funcional**: Se refiere a la incapacidad progresiva de los usuarios para ejecutar tareas cotidianas, laborales o de pensamiento crítico sin la asistencia continua del modelo. Esta dependencia funcional lleva a una **atrofia de las capacidades humanas**, donde la delegación excesiva de la toma de decisiones o la resolución de problemas reduce gradualmente las habilidades esenciales.En resumen, la preocupación clave es que la eficiencia del sistema no debe traducirse en la erosión de la agencia y la capacidad crítica del ser humano.

Fuente: MIT AI Risk Repositorymit276

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit276

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.1 > Dependencia excesiva y uso inseguro

Estrategia de mitigacion

1. Prioridad Máxima: Implementar un marco de **Ergonomía Cognitiva** en el diseño y despliegue de sistemas de IA, asegurando que las interfaces y flujos de trabajo aumenten la carga cognitiva útil (análisis y decisión informada) en lugar de facilitar la delegación automática de tareas críticas, y exigir **Vigilancia Humana** efectiva para sistemas de alto riesgo conforme a normativas de seguridad. 2. Prioridad Alta: Diseñar e integrar **Estrategias Pedagógicas Proactivas** centradas en la **Alfabetización Crítica en IA**, capacitando a los usuarios para detectar sesgos, comprender las limitaciones del modelo y practicar la **Verificación Sistemática** de resultados, a fin de preservar el pensamiento crítico y la autonomía de juicio. 3. Prioridad Media: Exigir la aplicación de **Salvaguardas de Transparencia** que incluyan la **identificación inequívoca del agente como no humano** y la provisión de mecanismos de **Explicabilidad (XAI)**, permitiendo a los usuarios calibrar su nivel de confianza y mitigar la formación de dependencia emocional o exceso de confianza injustificado.

EVIDENCIA ADICIONAL

El concepto de "Atrofia de Habilidades" se erige como una preocupación central en la seguridad de la IA, definida como la disminución medible del rendimiento independiente de un usuario tras una exposición sostenida a la asistencia de un copiloto. Investigaciones académicas han identificado un "Umbral de Atrofia," un punto de inflexión donde la dependencia cruza una línea más allá de la cual se deterioran capacidades cognitivas clave, como la detección de errores y la retención de conocimientos. Los resultados empíricos sugieren que esta atrofia se acelera cuando el flujo de trabajo de un usuario pasa de ser "primero la verificación" a ser "primero la aceptación," externalizando el juicio a la máquina. El hallazgo más crítico es que el asistente no elimina la habilidad, sino que suprime la *necesidad de ejercitarla*, lo que lleva a un declive inicial en la capacidad de autocorrección sin la herramienta. Este debate subraya la necesidad de diferenciar entre una 'evolución aceptable de habilidades' y la pérdida riesgosa de 'meta-habilidades' fundamentales, como el pensamiento crítico y el razonamiento ético, las cuales deben ser preservadas activamente.