Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Alucinación

La 'alucinación' se ha consolidado como una limitación intrínseca y ampliamente reconocida de la Inteligencia Artificial generativa. Este fenómeno se describe fundamentalmente como la producción de contenido —ya sea textual, auditivo, visual o de otro tipo— que resulta ser incoherente, carece de sentido o es directamente infiel a la fuente de entrada proporcionada. De hecho, algunos expertos sugieren que el término 'fabricación de información' podría ser una descripción más precisa de esta deficiencia. A nivel práctico, la alucinación se materializa como desinformación. Los modelos de IA pueden generar respuestas que parecen perfectamente plausibles, pero que contienen información ficticia, fotografías falsas o errores fácticos manifiestos. Esto plantea un desafío significativo, especialmente en contextos de alta rigurosidad como la actividad académica, donde la IA podría inventar literatura o referencias inexistentes. La raíz del problema reside en que los modelos avanzados solo replican las respuestas humanas sin poseer una comprensión subyacente del significado. Esta falta de entendimiento intrínseco hace que la alucinación sea particularmente peligrosa en escenarios sensibles, como la búsqueda de asesoramiento para tratamientos médicos sin la evaluación crítica de un especialista.

Fuente: MIT AI Risk Repositorymit509

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit509

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

1. Implementación de Arquitecturas de Generación Aumentada por Recuperación (RAG) 2. Establecimiento de Protocolos de Validación Humana y Supervisión Factual 3. Optimización del Modelo mediante Calidad de Datos y Técnicas de Alineación (Fine-Tuning)