Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Discriminación

En un sentido más amplio, las decisiones erróneas o los fallos de las herramientas de inteligencia artificial podrían propiciar la perpetuación de la discriminación o la acentuación de las brechas de desigualdad social

Fuente: MIT AI Risk Repositorymit798

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit798

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Implementar metodologías rigurosas para la diversificación, el balanceo y la auditoría continua de los conjuntos de datos de entrenamiento, con el objetivo de asegurar su representatividad demográfica y evitar la perpetuación de sesgos socioeconómicos, raciales o de género preexistentes. 2. Promover la transparencia y explicabilidad (XAI) de los modelos de IA, incorporando algoritmos conscientes de la equidad y métricas de imparcialidad para mitigar disparidades en las decisiones a nivel de subgrupos y facilitar la identificación de lógicas discriminatorias. 3. Establecer un marco integral de gobernanza que incluya la supervisión humana significativa (Human-in-the-Loop) y la auditoría algorítmica periódica y externa, para evaluar el impacto del modelo post-despliegue y garantizar la rendición de cuentas y el cumplimiento normativo.