Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Discriminación

Consiste en la creación, perpetuación o exacerbación de desigualdades y sesgos sociales, impulsados y escalados a nivel masivo por el despliegue de sistemas de inteligencia artificial.

Fuente: MIT AI Risk Repositorymit914

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit914

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Asegurar la Representatividad e Inclusividad del Conjunto de Datos: Implementar protocolos rigurosos para la curación, limpieza y auditoría de los datos de entrenamiento, garantizando la diversidad y la representación equitativa de todos los subgrupos demográficos con el fin de mitigar la replicación y amplificación de sesgos históricos en los modelos de IA. 2. Establecer un Marco de Monitoreo y Auditoría Continua Post-Despliegue: Desarrollar mecanismos de supervisión algorítmica y pruebas de equidad (Fairness Testing) de manera periódica y sistemática. Esto implica evaluar el impacto diferencial de las decisiones del sistema en los diversos grupos de usuarios para la detección y corrección proactiva de cualquier manifestación de sesgo. 3. Fomentar la Transparencia y Explicabilidad Algorítmica (XAI): Incorporar metodologías de Inteligencia Artificial Explicable (XAI) y documentar exhaustivamente el ciclo de vida del modelo para desentrañar su razonamiento interno. Esta trazabilidad es fundamental para la identificación de lógicas discriminatorias y para facilitar la rendición de cuentas a las partes afectadas.