Daños por Desinformación
Los perjuicios derivados de la "alucinación" o confabulación del modelo de lenguaje: la producción de información falsa o engañosa que carece de base en los datos de entrenamiento o en el conocimiento factual.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit240
Linea de dominio
3. Desinformación
3.0 > Desinformación
Estrategia de mitigacion
1. Implementar la Generación Aumentada por Recuperación (RAG) para anclar las respuestas del modelo a bases de conocimiento externas y verificables, minimizando la confabulación o "alucinación" y garantizando la trazabilidad de la información factual. 2. Fortalecer la gobernanza y la calidad de los datos de entrenamiento y ajuste fino (fine-tuning), realizando auditorías rigurosas para asegurar la legitimidad, precisión y equilibrio de los conjuntos de datos, lo cual es fundamental para evitar la propagación de sesgos o información errónea aprendida. 3. Establecer un proceso de supervisión humana y validación cruzada rigurosa (Human-in-the-Loop) para la verificación de los resultados generados, especialmente en contextos críticos como el legal o el sanitario, permitiendo la detección y corrección proactiva de cualquier inexactitud antes de su difusión al usuario.
EVIDENCIA ADICIONAL
Los modelos de lenguaje (ML) tienen la capacidad de asignar altas probabilidades a enunciados que, en realidad, constituyen afirmaciones falsas o información engañosa. Aunque las predicciones fáctica o conceptualmente incorrectas pueden ser inofensivas en ciertos contextos, bajo circunstancias particulares conllevan un riesgo de daño significativo. El espectro de estos perjuicios es amplio: abarca desde la desinformación, el engaño o la manipulación directa de un individuo, hasta la causación de daño material, e incluso repercusiones sociales más profundas, como el debilitamiento de la confianza compartida entre los miembros de una comunidad. El análisis de estos riesgos específicos constituye el enfoque central de la presente sección.