Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Erosión de confianza y socavamiento de conocimiento compartido

Los asistentes de inteligencia artificial pueden facilitar la proliferación masiva de contenido fáctico impreciso y manifiestamente engañoso. Este fenómeno acarrea consecuencias adversas para la confianza social en las fuentes de información y las instituciones, dado que los individuos encuentran una dificultad creciente para discernir la veracidad de la falsedad.

Fuente: MIT AI Risk Repositorymit403

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit403

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.2 > Contaminación del ecosistema de información y pérdida de la realidad consensuada

Estrategia de mitigacion

1. Implementar la gobernanza de datos rigurosa y la Generación Aumentada por Recuperación (RAG) en el desarrollo de los modelos de IA para asegurar la calidad de los datos de entrenamiento y la fidelidad fáctica de los resultados, minimizando intrínsecamente la producción de contenido impreciso. 2. Establecer mecanismos de validación de resultados que incluyan *fact-checking* automatizado y herramientas avanzadas de detección de *deepfakes* y alucinaciones, con la integración de la supervisión humana experta para la verificación final antes de la divulgación. 3. Desarrollar e impulsar programas de alfabetización mediática y pensamiento crítico en la ciudadanía para aumentar la capacidad de discernimiento individual entre información veraz y engañosa, complementado con la adopción de marcos de gobernanza de la IA a nivel intersectorial.