Confianza
Los riesgos que emanan de una confianza descalibrada (tanto excesiva como insuficiente) en la interacción entre el usuario y los sistemas de inteligencia artificial.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit379
Linea de dominio
5. Interacción Humano-Computadora
5.1 > Dependencia excesiva y uso inseguro
Estrategia de mitigacion
1. Desarrollar e implementar programas de **Alfabetización y Capacitación en IA** dirigidos a los usuarios, con el objetivo de fomentar una **confianza calibrada**. Estos programas deben comunicar de manera transparente las capacidades, limitaciones y el grado de fiabilidad del sistema, incentivando el **pensamiento crítico** y la verificación activa de los resultados. 2. Establecer **Protocolos de Supervisión Humana** explícitos, definiendo los **puntos de intervención obligatoria** (*Human-in-the-Loop*) y los umbrales de riesgo para las tareas críticas. Esto previene la dependencia excesiva y asegura la **responsabilidad** y el **uso seguro** del sistema. 3. Garantizar la **Explicabilidad (XAI)** y **Auditabilidad** de las acciones del sistema. Esto implica implementar mecanismos que permitan a los usuarios y a los equipos de gestión rastrear, comprender y validar la lógica subyacente a las decisiones y recomendaciones de la IA.