Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Contenido Falso

Existe un riesgo fundamental de que la información generada por el Modelo de Lenguaje Grande (LLM) contenga inexactitudes o, en términos técnicos, 'alucinaciones', careciendo de una base fáctica o verificable

Fuente: MIT AI Risk Repositorymit11

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit11

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

- Implementar la Generación Aumentada por Recuperación (RAG) para anclar las respuestas del LLM a fuentes de conocimiento externas, fiables y específicas del dominio, asegurando que la salida se base en hechos verificables. - Mejorar la calidad del conjunto de datos de entrenamiento y aplicar mecanismos de verificación de hechos (fact-checking) o sistemas de referencia cruzada durante el entrenamiento del modelo para minimizar la probabilidad de alucinaciones en su origen. - Establecer un sistema de supervisión humana posterior a la generación para auditar y validar los resultados del LLM, especialmente para información crítica o susceptible de ser inexacta, actuando como un filtro final antes de la divulgación.