Sesgo y equidad
La calidad y el comportamiento de un sistema de inteligencia artificial están intrínsecamente ligados a la naturaleza del *corpus* de datos con el que se entrena. Si dicho conjunto de datos incorpora sesgos preexistentes—un fenómeno habitual en la mayoría de las colecciones de datos reales—el modelo de IA resultante no solo replicará, sino que a menudo amplificará, esas mismas tendencias discriminatorias en su operación.
ENTIDAD
2 - IA
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit88
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
1. Recolección y Curación de Datos Representativos: Garantizar la ingestión de un corpus de datos que refleje la diversidad demográfica y socioeconómica de la población objetivo, evitando la sobrerrepresentación o subrepresentación sistemática de subgrupos sensibles. 2. Implementación de Técnicas de Debiasing Pre-Modelado: Aplicar métodos de preprocesamiento, tales como la reponderación (*reweighting*) o el aprendizaje de representaciones justas (*fair representation learning*), directamente sobre el conjunto de entrenamiento para ajustar la distribución y minimizar el impacto de los atributos protegidos en las inferencias. 3. Auditoría de Sesgo Rigurosa en la Fase de Validación: Desarrollar e integrar métricas de equidad y protocolos de validación (e.g., análisis de casos extremos o *A/B testing* segmentado) antes del despliegue para detectar y corregir formalmente cualquier manifestación de discriminación injusta o tergiversación en el modelo.