Alucinación
En el contexto de la inteligencia artificial, la 'alucinación' se define como la capacidad de los Grandes Modelos de Lenguaje (LLM) para producir contenido objetivamente erróneo o infiel a la fuente, a pesar de ser presentado con una gran y aparente confianza. Este fenómeno representa una fabricación lingüística coherente pero desvinculada de la realidad o la verdad factual.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit445
Linea de dominio
3. Desinformación
3.1 > Información falsa o engañosa
Estrategia de mitigacion
Acciones de Mitigación Prioritarias contra la Alucinación en LLMs:1. Mejora Fundamental de la Calidad y Curación del Conjunto de Datos de Entrenamiento: Garantizar la verificación, el equilibrio y la representación fidedigna de los datos de entrenamiento iniciales para minimizar la propagación de sesgos y la formación de información errónea en la base de conocimiento del modelo. 2. Implementación de la Generación Aumentada por Recuperación (RAG): Integrar un sistema de recuperación de información externo que permita al LLM anclar sus respuestas a fuentes de conocimiento verificables, contextualizadas y actualizadas en tiempo real, reduciendo la dependencia de la memoria interna para la precisión factual. 3. Establecimiento de Mecanismos de Verificación y Supervisión Humana (Human-in-the-Loop): Incorporar modelos de verificación cruzada y análisis de confianza internos, y establecer protocolos rigurosos de supervisión humana experta para auditar y validar los outputs generados en aplicaciones críticas (legales, médicas, financieras) antes de que sean presentados al usuario final.