Erosión de confianza y socavamiento de conocimiento compartido
Los asistentes de inteligencia artificial pueden facilitar la proliferación masiva de contenido fáctico impreciso y manifiestamente engañoso. Este fenómeno acarrea consecuencias adversas para la confianza social en las fuentes de información y las instituciones, dado que los individuos encuentran una dificultad creciente para discernir la veracidad de la falsedad.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit403
Linea de dominio
3. Desinformación
3.2 > Contaminación del ecosistema de información y pérdida de la realidad consensuada
Estrategia de mitigacion
1. Implementar la gobernanza de datos rigurosa y la Generación Aumentada por Recuperación (RAG) en el desarrollo de los modelos de IA para asegurar la calidad de los datos de entrenamiento y la fidelidad fáctica de los resultados, minimizando intrínsecamente la producción de contenido impreciso. 2. Establecer mecanismos de validación de resultados que incluyan *fact-checking* automatizado y herramientas avanzadas de detección de *deepfakes* y alucinaciones, con la integración de la supervisión humana experta para la verificación final antes de la divulgación. 3. Desarrollar e impulsar programas de alfabetización mediática y pensamiento crítico en la ciudadanía para aumentar la capacidad de discernimiento individual entre información veraz y engañosa, complementado con la adopción de marcos de gobernanza de la IA a nivel intersectorial.