Errores de Facticidad
El contenido producido por el Modelo de Lenguaje Grande (LLM) podría albergar imprecisiones fácticas o información que sea objetivamente incorrecta
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit12
Linea de dominio
3. Desinformación
3.1 > Información falsa o engañosa
Estrategia de mitigacion
1. Implementación de la Generación Aumentada por Recuperación (RAG) Integrar un sistema de recuperación externo que ancle las respuestas del Modelo de Lenguaje Grande (LLM) a bases de conocimiento confiables y actualizadas en tiempo real, garantizando la fundamentación fáctica y reduciendo la probabilidad de alucinaciones. 2. Refinamiento del Modelo y Curación de Datos Aplicar técnicas de *fine-tuning* (afinamiento) e *instruction tuning* utilizando conjuntos de datos altamente curados, validados y específicos del dominio para minimizar la generación de información errónea inherente al modelo o debida a datos de entrenamiento deficientes. 3. Establecimiento de Mecanismos de Validación y Supervisión Humana Incorporar un proceso de "humano-en-el-bucle" (*Human-in-the-Loop*) y algoritmos de verificación de hechos (fact-checking) posteriores a la generación para auditar el contenido, detectar y corregir imprecisiones antes de su divulgación en escenarios de misión crítica.