Homogeneización o fallos correlacionados en derivados de modelos
La Homogeneización, en el contexto de la seguridad de la IA, describe un riesgo sistémico que surge de la dependencia excesiva de los desarrolladores en un número reducido de modelos fundacionales a gran escala. Cuando numerosos sistemas de IA de propósito general (GPAI) se construyen a partir de estas mismas bases limitadas, se adoptan metodologías y modelos comunes de manera transversal. Esta uniformidad estructural es la que puede generar dos consecuencias críticas: la aparición de "fallos uniformes" (donde un error en el modelo base se replica en todos los sistemas derivados) y la amplificación sistémica de cualquier sesgo preexistente, propagándolo a través de todo el ecosistema de aplicaciones de IA.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1073
Linea de dominio
7. Seguridad, Fallos y Limitaciones del Sistema de IA
7.3 > Falta de capacidad o robustez
Estrategia de mitigacion
1. Gestión y diversificación del portafolio de modelos fundacionalesImplementar un sistema de evaluación de la diversidad ('AI diversity assessment') y requisitos de validación multi-origen (p. ej., 'strategic options charter') para mitigar el riesgo sistémico de la dependencia en modelos con arquitecturas o datos de entrenamiento idénticos, evitando fallos uniformes correlacionados.2. Inyección deliberada de diversidad en el diseño del trabajo y la toma de decisionesEstablecer puntos de control obligatorios para la supervisión y la intervención humana ('human oversight and intervention'), incluyendo fases iniciales de ideación humana y la documentación de al menos tres enfoques alternativos genuinamente distintos (requisitos de validación multisource) antes de la selección de una solución generada por IA.3. Fomento de la alfabetización crítica en IA y la contextualización de modelosDesarrollar programas de formación en 'resiliencia creativa' para que el personal identifique la homogeneización y establecer mandatos para el entrenamiento o ajuste fino de modelos con conjuntos de datos localizados o específicos para el dominio de aplicación, preservando el conocimiento tácito y la diversidad local.