Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Discriminación y Reproducción de Estereotipos

Los modelos de Inteligencia Artificial de propósito general interpretan y responden a la información que procesan basándose en los datos con los que fueron entrenados, un proceso que puede resultar en la **Reproducción de Discriminación y Estereotipos**. Debido a su naturaleza de "caja negra", el mecanismo preciso detrás de sus decisiones permanece opaco, lo que implica que los intentos por mitigar resultados perjudiciales aún no son totalmente confiables. Estos sistemas tienen la capacidad de influir simultáneamente en una vasta gama de aplicaciones, decisiones y procesos subsecuentes, afectando a un gran número de individuos. La escala de este impacto puede superar la capacidad de supervisión de un solo individuo o grupo, amplificando drásticamente las potenciales consecuencias de cualquier sesgo o estereotipo incrustado en el modelo.

Fuente: MIT AI Risk Repositorymit745

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit745

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. **Establecer un Marco de Gobernanza de la IA (GAI) y Responsabilidad Ética:** Implementar un sistema de gobernanza que defina proactivamente estándares de equidad, transparencia y responsabilidad. Este marco debe incluir procesos obligatorios de Evaluación de Impacto sobre Derechos Fundamentales y revisiones de diseño para prevenir la amplificación de sesgos sociales preexistentes y garantizar que las decisiones opacas del modelo sean rastreables y auditables. 2. **Mitigación Técnica mediante Diversificación de Datos y Ajuste Algorítmico:** Aplicar estrategias de ingeniería de *Machine Learning* para corregir el sesgo en la fuente. Esto requiere la identificación, diversificación y aumento de los conjuntos de datos de entrenamiento para asegurar una representación equitativa de todos los grupos demográficos, complementado con el ajuste de los algoritmos de optimización (ej. justicia algorítmica) para minimizar las discrepancias de rendimiento y resultados sesgados entre distintas poblaciones. 3. **Implementación de Auditoría y Supervisión Continua Post-Despliegue (*Human-in-the-Loop*):** Integrar sistemas de monitoreo en tiempo real para detectar y contener la emergencia de sesgos adaptativos o la reproducción de estereotipos durante la interacción con el usuario. Es fundamental establecer un circuito de retroalimentación *Human-in-the-Loop* que permita a supervisores expertos corregir las respuestas del modelo de forma dinámica y validar la equidad y la coherencia del sistema tras su despliegue operativo.