Inconsistencia
El fenómeno que usted describe se denomina la **Inconsistencia No Determinista** de los modelos de lenguaje. En esencia, plantea la **Crisis de Consistencia de la IA**, donde un mismo modelo es incapaz de mantener una respuesta uniforme. Esto se debe a que el mecanismo de generación de las IAs opera bajo un principio estocástico (probabilístico), no en reglas fijas. Esta naturaleza probabilística permite que el mismo *input* active rutas neurales ligeramente distintas, produciendo una falta de coherencia en los resultados: - Entre usuarios distintos. - En sesiones separadas para el mismo usuario. - Incluso en mensajes consecutivos dentro del mismo hilo de conversación.Esta variación fundamental, si bien puede fomentar la creatividad, compromete su fiabilidad y la integridad lógica de sus evaluaciones en contextos donde la predictibilidad es obligatoria.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit446
Linea de dominio
7. Seguridad, Fallos y Limitaciones del Sistema de IA
7.3 > Falta de capacidad o robustez
Estrategia de mitigacion
1. Aplicar Estrategias de Ingeniería de Prompts EstructuradaDiseñar e implementar plantillas de *prompts* con instrucciones explícitas y un formato de salida predefinido. La adopción de técnicas de razonamiento explícito, como el *Chain-of-Thought Prompting* (Cadena de Pensamiento), obliga al modelo a seguir pasos lógicos metodológicos, reduciendo la variabilidad en las rutas de inferencia y estandarizando la consistencia del *output* generado.2. Restringir la Estocasticidad mediante Control de MuestreoGestionar los hiperparámetros de generación para limitar la naturaleza probabilística del modelo. Se debe **reducir el parámetro de Temperatura** (*Temperature*) a un valor cercano a cero para promover la selección de *tokens* de mayor probabilidad (Decodificación Voraz o *Greedy Decoding*), minimizando la diversidad y aumentando la predictibilidad. Además, el **establecimiento de una semilla aleatoria fija** (*fixed random seed*) es esencial para asegurar la reproducibilidad de resultados bajo condiciones idénticas de *input*.3. Realizar Ajuste Fino y Aumentación de ContextoMejorar la coherencia conductual del modelo a través de su entrenamiento. Esto incluye el **ajuste fino** (*fine-tuning*) con un *corpus* de datos específico de la tarea para interiorizar el comportamiento deseado y el formato de respuesta. Adicionalmente, incorporar arquitecturas de **Generación Aumentada por Recuperación** (RAG) para proporcionar contexto fáctico y ejemplos de pocas tomas (*few-shot examples*), estandarizando la base de conocimiento para la inferencia y mitigando las inconsistencias contextuales.