Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Equidad

Desde una perspectiva ética y legal, el principio general de la igualdad de trato exige que un sistema de Inteligencia Artificial se adhiera a la equidad. Esto se traduce en un estándar de no discriminación: ante un mismo conjunto de hechos o circunstancias, el sistema debe ofrecer el mismo resultado a todas las personas, a menos que exista una justificación objetiva y demostrable que legitime un trato diferenciado

Fuente: MIT AI Risk Repositorymit179

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit179

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Garantizar la Diversidad y Representatividad de los Datos de Entrenamiento. Implementar un riguroso proceso de auditoría y curación de los conjuntos de datos de entrenamiento para asegurar que sean diversos y representativos de todas las cohortes poblacionales relevantes, aplicando técnicas de reponderación o aumento de datos para balancear grupos subrepresentados. 2. Aplicar Técnicas de Mitigación de Sesgos a Nivel Algorítmico. Integrar algoritmos conscientes de la equidad durante el entrenamiento del modelo (por ejemplo, fair regularization o fair representation learning) para minimizar las disparidades de rendimiento o resultado entre diferentes grupos sensibles y asegurar la coherencia estadística y contextual. 3. Implementar un Marco de Auditoría Continua y Supervisión Humana. Establecer mecanismos de supervisión continua y auditorías periódicas del modelo en entornos reales (post-despliegue) para detectar la deriva del sesgo y los resultados discriminatorios inesperados, e incluir un lazo humano de revisión y feedback para anular decisiones sesgadas o ajustar los resultados mediante técnicas de posprocesamiento.