Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Discriminación

La ausencia de rigor en el diseño de sistemas de inteligencia artificial conlleva un riesgo inherente de sesgo algorítmico, que se traduce en la discriminación sistemática de determinados colectivos.

Fuente: MIT AI Risk Repositorymit87

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit87

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

Priorizar la Curación de Datos de Entrenamiento con Representatividad Demográfica Implementar metodologías rigurosas de pre-procesamiento para asegurar que los conjuntos de datos reflejen la diversidad poblacional relevante, mitigando así el sesgo de muestreo e histórico que induce la discriminación algorítmica. Establecimiento de un Marco de Monitoreo Continuo Post-Despliegue y Auditoría de Imparcialidad Realizar evaluaciones periódicas del sistema de IA en operación para detectar la deriva del sesgo (bias drift) y verificar el cumplimiento de métricas de equidad predefinidas (p. ej., paridad demográfica, igualdad de oportunidades) en las decisiones automatizadas. Integración de Algoritmos Conscientes del Sesgo y Métricas de Equidad en el Proceso de Desarrollo Aplicar técnicas de in-processing y post-processing para diseñar modelos que optimicen simultáneamente la precisión y la imparcialidad, utilizando métricas de equidad explícitas para prevenir la discriminación no intencionada.