Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Inconsistencia

El fenómeno que usted describe se denomina la **Inconsistencia No Determinista** de los modelos de lenguaje. En esencia, plantea la **Crisis de Consistencia de la IA**, donde un mismo modelo es incapaz de mantener una respuesta uniforme. Esto se debe a que el mecanismo de generación de las IAs opera bajo un principio estocástico (probabilístico), no en reglas fijas. Esta naturaleza probabilística permite que el mismo *input* active rutas neurales ligeramente distintas, produciendo una falta de coherencia en los resultados: - Entre usuarios distintos. - En sesiones separadas para el mismo usuario. - Incluso en mensajes consecutivos dentro del mismo hilo de conversación.Esta variación fundamental, si bien puede fomentar la creatividad, compromete su fiabilidad y la integridad lógica de sus evaluaciones en contextos donde la predictibilidad es obligatoria.

Fuente: MIT AI Risk Repositorymit446

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit446

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.3 > Falta de capacidad o robustez

Estrategia de mitigacion

1. Aplicar Estrategias de Ingeniería de Prompts EstructuradaDiseñar e implementar plantillas de *prompts* con instrucciones explícitas y un formato de salida predefinido. La adopción de técnicas de razonamiento explícito, como el *Chain-of-Thought Prompting* (Cadena de Pensamiento), obliga al modelo a seguir pasos lógicos metodológicos, reduciendo la variabilidad en las rutas de inferencia y estandarizando la consistencia del *output* generado.2. Restringir la Estocasticidad mediante Control de MuestreoGestionar los hiperparámetros de generación para limitar la naturaleza probabilística del modelo. Se debe **reducir el parámetro de Temperatura** (*Temperature*) a un valor cercano a cero para promover la selección de *tokens* de mayor probabilidad (Decodificación Voraz o *Greedy Decoding*), minimizando la diversidad y aumentando la predictibilidad. Además, el **establecimiento de una semilla aleatoria fija** (*fixed random seed*) es esencial para asegurar la reproducibilidad de resultados bajo condiciones idénticas de *input*.3. Realizar Ajuste Fino y Aumentación de ContextoMejorar la coherencia conductual del modelo a través de su entrenamiento. Esto incluye el **ajuste fino** (*fine-tuning*) con un *corpus* de datos específico de la tarea para interiorizar el comportamiento deseado y el formato de respuesta. Adicionalmente, incorporar arquitecturas de **Generación Aumentada por Recuperación** (RAG) para proporcionar contexto fáctico y ejemplos de pocas tomas (*few-shot examples*), estandarizando la base de conocimiento para la inferencia y mitigando las inconsistencias contextuales.