Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Errores de Facticidad

El contenido producido por el Modelo de Lenguaje Grande (LLM) podría albergar imprecisiones fácticas o información que sea objetivamente incorrecta

Fuente: MIT AI Risk Repositorymit12

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit12

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

1. Implementación de la Generación Aumentada por Recuperación (RAG) Integrar un sistema de recuperación externo que ancle las respuestas del Modelo de Lenguaje Grande (LLM) a bases de conocimiento confiables y actualizadas en tiempo real, garantizando la fundamentación fáctica y reduciendo la probabilidad de alucinaciones. 2. Refinamiento del Modelo y Curación de Datos Aplicar técnicas de *fine-tuning* (afinamiento) e *instruction tuning* utilizando conjuntos de datos altamente curados, validados y específicos del dominio para minimizar la generación de información errónea inherente al modelo o debida a datos de entrenamiento deficientes. 3. Establecimiento de Mecanismos de Validación y Supervisión Humana Incorporar un proceso de "humano-en-el-bucle" (*Human-in-the-Loop*) y algoritmos de verificación de hechos (fact-checking) posteriores a la generación para auditar el contenido, detectar y corregir imprecisiones antes de su divulgación en escenarios de misión crítica.