Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Daños Asignativos

Estos perjuicios se configuran cuando un sistema automatizado retiene o deniega información, oportunidades o recursos esenciales a colectivos históricamente marginados, impactando directamente en ámbitos cruciales para el bienestar material, tales como la vivienda, el empleo, los servicios sociales, la financiación, la educación y la asistencia sanitaria.

Fuente: MIT AI Risk Repositorymit140

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit140

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Establecer Vigilancia de Sesgos en la Fase de Concepción: Implementar la vigilancia de sesgos desde la concepción del modelo, asegurando que el equipo de desarrollo sea diverso (incluyendo a expertos clínicos, científicos de datos y representantes de poblaciones subrepresentadas) y que el problema de investigación considere activamente la eliminación de sesgos implícitos y sistémicos para maximizar la equidad antes de la fase de procesamiento de datos. 2. Auditoría Obligatoria de Datos de Entrenamiento y Lógica del Modelo: Realizar auditorías periódicas y sistemáticas de los datos de entrenamiento y de la lógica de decisión del sistema de inteligencia artificial para identificar y corregir los sesgos históricos que puedan conducir a la retención o denegación injusta de oportunidades y recursos a grupos marginados. 3. Definición de Métricas de Equidad y Mecanismos de Responsabilidad: Adoptar una definición explícita de justicia (p. ej., un índice de equidad) y configurar el sistema para aplicar restricciones que garanticen una distribución equitativa de recursos u oportunidades, incluso si los resultados brutos del modelo sugieren lo contrario. Adicionalmente, incorporar mecanismos de rendición de cuentas y análisis de sensibilidad para prevenir el uso indebido.