Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Discriminación

Discriminación: Se define como el trato desigual, injusto o inadecuado, o la aplicación de una distinción arbitraria a un individuo, fundamentada en su pertenencia a un grupo social o característica protegida, tales como la raza, etnia, edad, género, orientación sexual, religión, origen nacional, estado civil, discapacidad o idioma.

Fuente: MIT AI Risk Repositorymit838

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit838

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Garantizar la calidad e inclusividad de los datos, priorizando la **auditoría exhaustiva** de los conjuntos de entrenamiento para asegurar su **representatividad demográfica** y **balanceo**. Esta medida fundamental busca prevenir la replicación y amplificación de sesgos sociales, éticos e históricos preexistentes en los datos fuente. 2. Adoptar un marco de **Transparencia y Explicabilidad (XAI)** de los modelos de Inteligencia Artificial para el **monitoreo y la auditoría algorítmica continua** post-despliegue. Esto permite la identificación proactiva y la corrección sistemática de la lógica discriminatoria o el **sesgo emergente** en las decisiones del sistema a través de métricas de equidad. 3. Implementar la **intervención y supervisión humana obligatoria** en las etapas críticas de la toma de decisiones automatizada, en conjunto con el fomento de **equipos de desarrollo diversos**. Esta combinación asegura una **revisión ética** de los resultados y reduce la probabilidad de que los sesgos inconscientes se incorporen o se perpetúen en el diseño del modelo.