Volver al repositorio MIT
1. Discriminación y Toxicidad2 - Post-despliegue

Pérdida económica

Los perjuicios financieros son co-producidos por los sistemas algorítmicos, manifestándose de manera crítica en las esferas de la pobreza y la desigualdad económica. Un ejemplo concreto es la aplicación de algoritmos de desmonetización que, al analizar títulos, metadatos y texto, pueden penalizar términos con múltiples acepciones. Este mecanismo tiene un impacto desproporcionado en creadores *queer*, *trans* y en creadores de color. Otro vector de riesgo radica en los algoritmos de precios diferenciales, donde se ofrecen sistemáticamente precios distintos por los mismos bienes o servicios a diversas personas, lo que consecuentemente induce una pérdida económica. Es fundamental comprender que estos algoritmos son altamente sensibles a bucles de retroalimentación que exacerban las inequidades existentes—como las relacionadas con el nivel educativo, los ingresos y la raza—dado que estas desigualdades se ven reflejadas y perpetuadas en los criterios de decisión de los propios sistemas.

Fuente: MIT AI Risk Repositorymit142

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit142

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Implementar metodologías rigurosas de pre-procesamiento de datos y entrenamiento del modelo, como el aseguramiento de la diversidad y representatividad de los conjuntos de datos. Es fundamental aplicar técnicas de *in-processing* (e.g., regularización con términos de paridad) para minimizar la dependencia de las decisiones algorítmicas respecto a atributos sensibles o *proxies* correlacionados (educación, ingresos, raza) que podrían exacerbar las inequidades económicas preexistentes. 2. Establecer un régimen de monitorización y auditoría continua *post-despliegue* que incluya la medición sistemática de métricas de equidad (*fairness metrics*) entre subgrupos. Se deben aplicar técnicas de *post-processing*, como la calibración de umbrales de clasificación o *threshold optimization*, para mitigar y corregir activamente los resultados desfavorables o discriminatorios antes de que el perjuicio económico se consolide. 3. Fomentar la explicabilidad y transparencia del sistema para las partes afectadas, particularmente en contextos de asignación crítica de recursos (crédito, precios, desmonetización). Esto implica divulgar información clara sobre los criterios de riesgo, la lógica de cálculo y los potenciales riesgos de violaciones de equidad para que los usuarios puedan comprender, impugnar y recurrir las decisiones algorítmicas que induzcan una pérdida económica.

EVIDENCIA ADICIONAL

Los Modelos de Lenguaje (LM) pueden generar contenido que, aun sin infringir estrictamente los derechos de autor, perjudica a los artistas al capitalizar sus conceptos e ideas subyacentes. Este fenómeno representa un riesgo de socavar la viabilidad económica y la sostenibilidad de la producción creativa e innovadora al erosionar la rentabilidad del trabajo original.