Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Confiabilidad y Autonomía

La integración acelerada de los sistemas de inteligencia artificial generativa en el tejido social cotidiano está reconfigurando la estructura de la confianza humana. Este fenómeno implica una evolución en la fiabilidad que los individuos depositan en los sistemas automatizados, en las instituciones que los implementan y en las representaciones de las personas que son mediadas por las salidas o resultados que ofrece la propia IA.

Fuente: MIT AI Risk Repositorymit174

ENTIDAD

1 - Humano

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit174

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.2 > Pérdida de agencia y autonomía humana

Estrategia de mitigacion

1. Establecer un marco riguroso de transparencia que requiera el etiquetado inequívoco y la adición de marcas de agua (digital watermarks) a todo contenido generado o significativamente modificado por IA. Esto incluye la implementación de técnicas de Inteligencia Artificial Explicable (XAI) para desvelar el proceso de toma de decisiones del modelo, lo cual es fundamental para reconstruir la confianza en la información. 2. Fortalecer la calidad del dato de entrenamiento y la robustez de los modelos mediante la aplicación de técnicas como la Generación Aumentada por Recuperación (RAG) para reducir las "alucinaciones". Esto debe complementarse con la validación continua de las salidas (outputs) del sistema de IA para asegurar la fidelidad del contenido generado y minimizar la producción de desinformación. 3. Invertir en programas de educación cívica y alfabetización digital a gran escala para desarrollar la resiliencia cognitiva y la capacidad de juicio crítico de los usuarios. Esta medida debe capacitar a los individuos para discernir la información auténtica de la desinformación (incluidos los deepfakes) y promover la evaluación crítica de las fuentes y el contenido mediado por IA.

EVIDENCIA ADICIONAL

La creciente facilidad de acceso para generar contenido mediante máquinas, cuya producción inherente puede incluir desinformación [260], dificultará progresivamente la distinción entre lo creado por humanos y lo artificial, así como entre el contenido verificado y el falso. Este escenario plantea serias amenazas a la confianza en los medios y a la fiabilidad de nuestra propia percepción sensorial (auditiva y visual).