Evaluaciones Generales (Evaluaciones sesgadas de valores humanos)
El proceso de alineación de valores humanos en modelos de Inteligencia Artificial presenta un riesgo inherente de sesgo métrico. Existe una propensión a priorizar, durante la evaluación, aquellos valores que resultan más sencillos de codificar y cuantificar (por ejemplo, métricas directas). Esta facilidad de medición se impone a menudo sobre valores que son intrínsecamente más deseables o éticamente superiores, pero cuya complejidad dificulta su cuantificación (por ejemplo, conceptos holísticos de justicia o bienestar). El resultado es un desequilibrio sistémico: los valores de fácil medición terminan dominando el proceso evaluativo, mientras que principios cruciales para una IA robusta permanecen marginados o insuficientemente representados.
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit993
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
- Establecer marcos de evaluación cualitativa y auditorías éticas con revisores diversos para capturar sesgos sutiles y valores intrínsecamente deseables pero difíciles de cuantificar (ej. conceptos holísticos de justicia y bienestar), complementando la insuficiencia de las métricas puramente estadísticas. - Reforzar la gobernanza del ciclo de vida del modelo mediante la inclusión de equipos de desarrollo y auditoría inherentemente diversos (científicos de datos, expertos en dominio, eticistas) desde la fase de concepción, con el fin de desafiar el sesgo de confirmación y asegurar la priorización de una gama integral de valores éticos, no solo los de fácil medición. - Exigir la implementación de técnicas de IA Explicable (XAI) y la documentación detallada del proceso de alineación de valores, permitiendo la trazabilidad y la comprensión precisa de cómo el modelo incorpora y pondera atributos complejos, evidenciando cualquier subrepresentación de valores cruciales durante la toma de decisiones.