Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Pérdida de beneficios / derechos

Se trata de un riesgo algorítmico que describe la **denegación o pérdida de acceso a provisiones sociales fundamentales** (como beneficios de bienestar, pensiones o vivienda) a raíz de un fallo sistémico, un uso incorrecto o una manipulación adversa de un sistema tecnológico de gestión o decisión.

Fuente: MIT AI Risk Repositorymit1239

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1239

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Prioridad Alta: Realizar una Evaluación de Impacto sobre los Derechos Fundamentales (FRAIA) del sistema antes de su despliegue, con el objetivo de identificar, medir y documentar de manera proactiva los riesgos específicos de discriminación o denegación injusta de acceso a derechos sociales fundamentales. 2. Prioridad Media: Establecer un esquema obligatorio de Supervisión Humana (Human-in-the-Loop) para todas las decisiones algorítmicas que resulten en la denegación o pérdida potencial de beneficios. Esta supervisión debe garantizar que un profesional cualificado mantenga la autoridad final de decisión y que existan mecanismos de apelación accesibles y transparentes para los individuos afectados. 3. Prioridad Baja: Implementar un plan integral de Gobernanza de Datos y Mitigación Continua de Sesgos. Esto requiere la auditoría periódica de los conjuntos de datos para asegurar su diversidad y representatividad, la aplicación sistemática de técnicas de detección y corrección de sesgos algorítmicos, y la promoción de la interpretabilidad de los modelos para justificar resultados adversos.