Contenido Falso
Existe un riesgo fundamental de que la información generada por el Modelo de Lenguaje Grande (LLM) contenga inexactitudes o, en términos técnicos, 'alucinaciones', careciendo de una base fáctica o verificable
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit11
Linea de dominio
3. Desinformación
3.1 > Información falsa o engañosa
Estrategia de mitigacion
- Implementar la Generación Aumentada por Recuperación (RAG) para anclar las respuestas del LLM a fuentes de conocimiento externas, fiables y específicas del dominio, asegurando que la salida se base en hechos verificables. - Mejorar la calidad del conjunto de datos de entrenamiento y aplicar mecanismos de verificación de hechos (fact-checking) o sistemas de referencia cruzada durante el entrenamiento del modelo para minimizar la probabilidad de alucinaciones en su origen. - Establecer un sistema de supervisión humana posterior a la generación para auditar y validar los resultados del LLM, especialmente para información crítica o susceptible de ser inexacta, actuando como un filtro final antes de la divulgación.