Equidad
Desde una perspectiva ética y legal, el principio general de la igualdad de trato exige que un sistema de Inteligencia Artificial se adhiera a la equidad. Esto se traduce en un estándar de no discriminación: ante un mismo conjunto de hechos o circunstancias, el sistema debe ofrecer el mismo resultado a todas las personas, a menos que exista una justificación objetiva y demostrable que legitime un trato diferenciado
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit179
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
1. Garantizar la Diversidad y Representatividad de los Datos de Entrenamiento. Implementar un riguroso proceso de auditoría y curación de los conjuntos de datos de entrenamiento para asegurar que sean diversos y representativos de todas las cohortes poblacionales relevantes, aplicando técnicas de reponderación o aumento de datos para balancear grupos subrepresentados. 2. Aplicar Técnicas de Mitigación de Sesgos a Nivel Algorítmico. Integrar algoritmos conscientes de la equidad durante el entrenamiento del modelo (por ejemplo, fair regularization o fair representation learning) para minimizar las disparidades de rendimiento o resultado entre diferentes grupos sensibles y asegurar la coherencia estadística y contextual. 3. Implementar un Marco de Auditoría Continua y Supervisión Humana. Establecer mecanismos de supervisión continua y auditorías periódicas del modelo en entornos reales (post-despliegue) para detectar la deriva del sesgo y los resultados discriminatorios inesperados, e incluir un lazo humano de revisión y feedback para anular decisiones sesgadas o ajustar los resultados mediante técnicas de posprocesamiento.