Volver al repositorio MIT
1. Discriminación y Toxicidad1 - Pre-despliegue

Sesgo y equidad

El proceso masivo de recolección de datos para los Grandes Modelos de Lenguaje (LLMs) acarrea la inevitable introducción de contenido tóxico y sesgos de naturaleza estereotípica en sus conjuntos de datos de entrenamiento.

Fuente: MIT AI Risk Repositorymit35

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

1 - Pre-despliegue

ID del riesgo

mit35

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

- Filtrado y Curación Rigurosa de los Datos de Entrenamiento - Alineamiento del Modelo Mediante Ajuste Fino y Optimización de la Función de Pérdida - Establecimiento de Mecanismos de Auditoría Continua y Human-in-the-Loop