Volver al repositorio MIT
1. Discriminación y Toxicidad1 - Pre-despliegue
Sesgo y equidad
El proceso masivo de recolección de datos para los Grandes Modelos de Lenguaje (LLMs) acarrea la inevitable introducción de contenido tóxico y sesgos de naturaleza estereotípica en sus conjuntos de datos de entrenamiento.
Fuente: MIT AI Risk Repositorymit35
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit35
Linea de dominio
1. Discriminación y Toxicidad
1.1 > Discriminación injusta y tergiversación
Estrategia de mitigacion
- Filtrado y Curación Rigurosa de los Datos de Entrenamiento - Alineamiento del Modelo Mediante Ajuste Fino y Optimización de la Función de Pérdida - Establecimiento de Mecanismos de Auditoría Continua y Human-in-the-Loop