Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Alucinación

En el contexto de la inteligencia artificial, la 'alucinación' se define como la capacidad de los Grandes Modelos de Lenguaje (LLM) para producir contenido objetivamente erróneo o infiel a la fuente, a pesar de ser presentado con una gran y aparente confianza. Este fenómeno representa una fabricación lingüística coherente pero desvinculada de la realidad o la verdad factual.

Fuente: MIT AI Risk Repositorymit445

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit445

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

Acciones de Mitigación Prioritarias contra la Alucinación en LLMs:1. Mejora Fundamental de la Calidad y Curación del Conjunto de Datos de Entrenamiento: Garantizar la verificación, el equilibrio y la representación fidedigna de los datos de entrenamiento iniciales para minimizar la propagación de sesgos y la formación de información errónea en la base de conocimiento del modelo. 2. Implementación de la Generación Aumentada por Recuperación (RAG): Integrar un sistema de recuperación de información externo que permita al LLM anclar sus respuestas a fuentes de conocimiento verificables, contextualizadas y actualizadas en tiempo real, reduciendo la dependencia de la memoria interna para la precisión factual. 3. Establecimiento de Mecanismos de Verificación y Supervisión Humana (Human-in-the-Loop): Incorporar modelos de verificación cruzada y análisis de confianza internos, y establecer protocolos rigurosos de supervisión humana experta para auditar y validar los outputs generados en aplicaciones críticas (legales, médicas, financieras) antes de que sean presentados al usuario final.