Daños Asignativos
Estos perjuicios se configuran cuando un sistema automatizado retiene o deniega información, oportunidades o recursos esenciales a colectivos históricamente marginados, impactando directamente en ámbitos cruciales para el bienestar material, tales como la vivienda, el empleo, los servicios sociales, la financiación, la educación y la asistencia sanitaria.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit140
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
1. Establecer Vigilancia de Sesgos en la Fase de Concepción: Implementar la vigilancia de sesgos desde la concepción del modelo, asegurando que el equipo de desarrollo sea diverso (incluyendo a expertos clínicos, científicos de datos y representantes de poblaciones subrepresentadas) y que el problema de investigación considere activamente la eliminación de sesgos implícitos y sistémicos para maximizar la equidad antes de la fase de procesamiento de datos. 2. Auditoría Obligatoria de Datos de Entrenamiento y Lógica del Modelo: Realizar auditorías periódicas y sistemáticas de los datos de entrenamiento y de la lógica de decisión del sistema de inteligencia artificial para identificar y corregir los sesgos históricos que puedan conducir a la retención o denegación injusta de oportunidades y recursos a grupos marginados. 3. Definición de Métricas de Equidad y Mecanismos de Responsabilidad: Adoptar una definición explícita de justicia (p. ej., un índice de equidad) y configurar el sistema para aplicar restricciones que garanticen una distribución equitativa de recursos u oportunidades, incluso si los resultados brutos del modelo sugieren lo contrario. Adicionalmente, incorporar mecanismos de rendición de cuentas y análisis de sensibilidad para prevenir el uso indebido.