Volver al repositorio MIT
3. Desinformación3 - Otro

Brechas de Conocimiento

La limitación fundamental radica en que los Modelos de Lenguaje Grande (LLM) no pueden ser entrenados con la totalidad del conocimiento mundial existente. Aunado a esto, incluso dentro de sus vastos corpus de entrenamiento, a los modelos les resulta inherentemente desafiante asimilar el conocimiento de "cola larga" —es decir, datos infrecuentes o altamente específicos—. Esta realidad establece una frontera de conocimiento intrínseca en el LLM. Por lo tanto, la aparición de las denominadas "alucinaciones" es una consecuencia directa de la brecha que se produce cuando el conocimiento exigido por una instrucción de entrada excede los límites de la base de datos interna del modelo.

Fuente: MIT AI Risk Repositorymit39

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit39

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

1. Implementar la Generación Aumentada por Recuperación (RAG)Establecer un sistema RAG para anclar las respuestas del LLM en fuentes de conocimiento externas, verificadas y actualizadas en tiempo real. Esta técnica aborda directamente la limitación del conocimiento estático del modelo, forzando la fundamentación factual y reduciendo las alucinaciones hasta en un 68% según la literatura.2. Aplicar el Prompting de Cadena de Pensamiento (Chain-of-Thought)Utilizar técnicas de ingeniería de prompts que obliguen al LLM a descomponer su razonamiento en pasos lógicos explícitos. Al guiar la inferencia de manera secuencial, se mejora la consistencia interna, se previenen saltos lógicos incorrectos y se incrementa la precisión en tareas que requieren razonamiento complejo.3. Refinar el Modelo (Fine-Tuning) y Calibrar la ConfianzaRealizar un ajuste fino supervisado del modelo con datos curados y de alta fidelidad específicos del dominio para corregir o actualizar la base de conocimiento interna. Adicionalmente, integrar mecanismos de Calibración de Confianza (e.g., C3) para que el modelo reconozca sus límites de conocimiento y se abstenga de responder cuando la certidumbre sea baja, mitigando la sobreconfianza.