Volver al repositorio MIT
3. Desinformación3 - Otro

Falso Recuerdo de Información Memorizada

Aunque los Grandes Modelos de Lenguaje (LLMs) efectivamente memorizan el conocimiento que se les consulta, pueden fallar al recordar la información específica que se requiere. Esto se debe a que el modelo puede ser confundido por la sobreabundancia de patrones de co-ocurrencia, la dependencia de patrones posicionales, la redundancia de datos duplicados y la ambigüedad generada por entidades con nombres similares.

Fuente: MIT AI Risk Repositorymit42

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit42

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

1. Implementación de la Generación Aumentada por Recuperación (RAG) Este enfoque prioriza anclar la respuesta del Modelo de Lenguaje Grande (LLM) a fuentes de conocimiento externas, confiables y verificadas (como bases de datos vectoriales o documentación de dominio específico). Su aplicación reduce drásticamente la probabilidad de alucinaciones al obligar al modelo a fundamentar sus afirmaciones en evidencia recuperada en tiempo real en lugar de depender únicamente de la información memorizada durante su entrenamiento. 2. Aplicación de Técnicas Avanzadas de Ingeniería de *Prompts* Utilizar metodologías como el *Chain-of-Thought* (Encadenamiento de Pensamiento) o el diseño de *prompts* con instrucciones de verificación explícitas. Esto guía al LLM a seguir un proceso de razonamiento estructurado y a autoevaluar su lógica paso a paso, previniendo así la generación de contenido ilógico o infundado. También se recomienda ajustar parámetros como la temperatura (a valores bajos) para fomentar respuestas más deterministas y menos especulativas. 3. Establecimiento de un Bucle de Supervisión y Validación Humana En entornos críticos y de alto riesgo (financiero, legal, médico), se requiere un mecanismo de "humano-en-el-bucle" para la validación de las salidas generadas por el LLM. Esta práctica debe complementarse con rigurosos mecanismos automatizados de comprobación de hechos y umbrales de confianza para detectar y marcar aquellas respuestas que requieran una revisión de experto antes de su publicación o uso.