Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Human–AI interaction

La integración acelerada de los sistemas de Inteligencia Artificial (IA) en diversos aspectos de la vida contemporánea ha suscitado una profunda preocupación ética respecto a su impacto en la agencia y la toma de decisiones humanas. A medida que la IA avanza, existe el riesgo inminente de que influya, e incluso reemplace, el juicio humano en campos específicos, lo que genera una inquietud palpable por la pérdida de autonomía y control. Es crucial, por tanto, establecer un equilibrio riguroso: capitalizar los beneficios de la IA, por un lado, y salvaguardar la soberanía decisional humana, por otro. Este balance no es solo una precaución ética, sino una necesidad operativa para prevenir consecuencias adversas como la dependencia excesiva de la IA, el deterioro de las habilidades cognitivas y el conocimiento, y una potencial disolución de la responsabilidad individual.

Fuente: MIT AI Risk Repositorymit557

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit557

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.2 > Pérdida de agencia y autonomía humana

Estrategia de mitigacion

1. Priorizar la implementación de sistemas de supervisión humana ('Human-in-the-Loop' - HITL) con autoridad final. Esto garantiza que los humanos mantengan la capacidad de intervenir, validar y, en última instancia, anular las decisiones de los sistemas de IA, preservando la autonomía y la rendición de cuentas decisional. 2. Fomentar la transparencia y la interpretabilidad mediante técnicas de IA Explicable (XAI). Es crucial que los usuarios puedan comprender la lógica subyacente y los factores que inciden en las recomendaciones de la IA para ejercer un juicio informado y mitigar la dependencia excesiva. 3. Establecer un marco de gobernanza de IA integral que incorpore activamente principios éticos internacionales (ej. NIST AI RMF, Principios de la OCDE) para regular el ciclo de vida de la IA. Dicho marco debe incluir directrices específicas para el diseño centrado en el usuario y para evitar prácticas de diseño coercitivo.