Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Brecha de Datos/Privacidad y Libertad

Los riesgos inherentes al despliegue de la Inteligencia Artificial (IA) se caracterizan por ser, en gran medida, impredecibles y de naturaleza inexplorada. No obstante, ya existen múltiples ejemplos que evidencian su potencial lesivo: la IA ha introducido sesgos que resultan en decisiones discriminatorias contra minorías, ha reforzado estereotipos sociales preexistentes a través de los algoritmos de búsqueda en internet, y ha sido vector para la violación y fuga de datos sensibles.

Fuente: MIT AI Risk Repositorymit128

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit128

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Recopilación y Preprocesamiento Riguroso de DatosGarantizar que los conjuntos de datos de entrenamiento sean intrínsecamente diversos, completos y representativos de todas las poblaciones a las que se aplicará el sistema de IA. Implementar técnicas de preprocesamiento de datos (p. ej., reponderación, sobremuestreo o anonimización) para corregir desequilibrios estadísticos y eliminar la correlación con atributos sensibles (como raza o género), que son la causa raíz del sesgo algorítmico y la discriminación.2. Diseño Algorítmico Consciente de la Equidad y Auditorías ContinuasIntegrar consideraciones de equidad desde la fase de diseño mediante la aplicación de metodologías de "Fairness-by-Design". Esto incluye el uso de algoritmos conscientes de la imparcialidad (fairness-aware) que minimicen los sesgos durante el entrenamiento. Asimismo, establecer un programa de auditoría continua y pruebas rigurosas del modelo para monitorear métricas de equidad y detectar desviaciones o el surgimiento de sesgos injustos a través del tiempo y en diversos subgrupos de usuarios.3. Gobernanza, Transparencia y Supervisión Humana (Human-in-the-Loop)Establecer un marco de gobernanza de IA robusto que defina la rendición de cuentas (accountability) y exija la revisión y validación humana (Human-in-the-Loop) de las decisiones de alto impacto generadas por el sistema. Fomentar la diversidad de perspectivas en los equipos de desarrollo para reconocer sesgos inadvertidos. Adicionalmente, implementar técnicas de IA Explicable (XAI) para proveer transparencia sobre cómo se toman las decisiones, lo cual es fundamental para identificar y corregir el sesgo.