Volver al repositorio MIT
6. Socioeconómico y Ambiental1 - Pre-despliegue

Trabajo de Moderación de Datos y Contenido

El uso del trabajo por encargo masivo, o 'crowdwork', en el desarrollo de la inteligencia artificial generativa suscita dos preocupaciones éticas fundamentales. La primera se centra en las condiciones laborales precarias: los 'crowdworkers' están sometidos frecuentemente a entornos de trabajo que son física y mentalmente agotadores. Una práctica perjudicial común es la explotación intencional de grupos altamente vulnerables, como refugiados, personas encarceladas o aquellos en extrema dificultad económica, debido a la escasez de protecciones laborales. Esta precariedad facilita abusos como el pago insuficiente o la negativa a pagar por el trabajo completado, sin que el trabajador tenga vías efectivas de recurso. El segundo problema clave es la falta de documentación: la función crítica que desempeñan estos trabajadores en el desarrollo de la IA y, especialmente, en la revisión manual necesaria para limitar resultados dañinos, a menudo está pobre o totalmente indocumentada. Este déficit de registro disminuye la transparencia y la explicabilidad de los modelos de IA resultantes.

Fuente: MIT AI Risk Repositorymit173

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit173

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.2 > Aumento de la desigualdad y disminución de la calidad del empleo

Estrategia de mitigacion

1. Fortalecer los marcos regulatorios y los derechos laborales de los *crowdworkers* para erradicar la explotación de trabajadores vulnerables y garantizar condiciones laborales justas. Esto incluye la imposición de salarios dignos y el establecimiento de mecanismos de recurso efectivos contra el impago o el rechazo arbitrario de tareas, en línea con los principios de negociación colectiva y protección contra el uso indebido de la IA en la gestión de la fuerza laboral. 2. Implementar protocolos rigurosos de protección de la salud física y mental para el personal de moderación de datos y contenido. Se debe exigir la divulgación clara y previa de los riesgos psicosociales inherentes a la exposición a contenido sensible, asegurar la compensación justa por la dificultad y el daño al bienestar, y proporcionar apoyo psicológico adecuado, equilibrando la libertad del trabajador para detener la tarea con la necesidad de finalizar el trabajo. 3. Establecer la documentación obligatoria y exhaustiva del papel del *crowdworker* en el ciclo de vida del desarrollo de los sistemas de IA generativa. Esta documentación debe detallar las contribuciones específicas (etiquetado, curación, evaluación y moderación), los criterios aplicados y su impacto en la formación y las salidas del modelo. Este registro es fundamental para aumentar la transparencia y la explicabilidad de los modelos resultantes.

EVIDENCIA ADICIONAL

La mano de obra humana constituye un componente sustancial en el desarrollo de modelos de aprendizaje automático, incluyendo los sistemas de inteligencia artificial generativa. Este trabajo se articula, de forma habitual, a través de un proceso denominado computación de multitudes (o *crowd computation*), donde trabajadores de datos distribuidos, a menudo llamados *crowdworkers*, ejecutan un gran volumen de tareas individuales esenciales que contribuyen a la evolución del modelo. Su participación abarca todas las fases del desarrollo: antes del entrenamiento del modelo, los *crowdworkers* pueden ser empleados para recopilar, curar, limpiar o etiquetar los datos de entrenamiento. Mientras el modelo se está desarrollando, su función es evaluar y proporcionar retroalimentación a las generaciones del modelo antes de que se lance la versión final. Incluso después del despliegue, estos trabajadores son frecuentemente utilizados para evaluar, moderar o corregir las salidas del modelo en producción. Es importante destacar que los desarrolladores suelen subcontratar la gestión de este trabajo de multitudes a empresas externas.