Volver al repositorio MIT
1. Discriminación y Toxicidad3 - Otro

Borrado de grupos sociales

La ausencia o subrepresentación sistemática de personas, atributos o artefactos ligados a grupos sociales específicos. Las decisiones de diseño [143] y los datos de entrenamiento [212] son factores determinantes que influyen directamente en la capacidad de un sistema algorítmico para reconocer o hacer "legibles" ciertas personas y experiencias.

Fuente: MIT AI Risk Repositorymit136

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit136

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.3 > Rendimiento desigual entre grupos

Estrategia de mitigacion

1. Priorizar la **curación y el aumento de los conjuntos de datos** de entrenamiento para garantizar su representatividad y balanceo demográfico, eliminando la subrepresentación sistemática de grupos sociales específicos en el *input* del sistema. 2. Implementar **auditorías de equidad (Fairness Audits)** continuas y pruebas comparativas para medir el rendimiento del sistema algorítmico y aplicar técnicas de corrección de sesgo (*debiasing*) que ajusten la disparidad de resultados entre los diferentes subgrupos. 3. Adoptar un marco de **Diseño Inclusivo** y fomentar la **diversidad multidisciplinaria** en los equipos de desarrollo para asegurar una perspectiva amplia y la identificación proactiva de sesgos representacionales no intencionados desde la fase de concepción del sistema.

EVIDENCIA ADICIONAL

La persona usuaria describe la fatiga que experimenta al intentar visualizar una boda en el contexto de su actual relación de pareja lésbica. Manifiesta frustración ante la persistente sobrerrepresentación de contenido de bodas heterosexuales en los resultados de búsqueda para el término 'boda lésbica', señalando una brecha en la relevancia y la representación del contenido algorítmico.