Volver al repositorio MIT
1. Discriminación y Toxicidad3 - Otro

Sesgo y equidad

El sistema de inteligencia artificial conversacional emite información que, aunque carece de falsedad manifiesta o de un daño explícito inmediato, introduce elementos sutiles capaces de influir y sesgar la subsiguiente toma de decisiones del usuario.

Fuente: MIT AI Risk Repositorymit1272

ENTIDAD

2 - IA

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit1272

Linea de dominio

1. Discriminación y Toxicidad

156 riesgos mapeados

1.1 > Discriminación injusta y tergiversación

Estrategia de mitigacion

1. Establecer una arquitectura de Gobernanza y Supervisión Humana Implementar marcos robustos de Human-in-the-Loop (Humano en el Circuito) que aseguren la revisión ética y la validación experta de las salidas del chatbot en contextos sensibles, garantizando que el juicio humano mitigue la influencia potencial de sesgos sutiles en la toma de decisiones del usuario. 2. Auditoría Rigurosa y Diversificación del Conjunto de Datos Realizar análisis exhaustivos de los datos de entrenamiento para identificar y eliminar sesgos históricos o de representación, asegurando que los *datasets* sean cualitativamente diversos e inclusivos de la población objetivo para prevenir la amplificación de prejuicios sociales existentes. 3. Despliegue de Estrategias Algorítmicas y Monitoreo Activo Emplear algoritmos diseñados para la mitigación del sesgo (*bias-aware algorithms*) mediante técnicas de pre, in, y post-procesamiento. Complementariamente, establecer sistemas de monitoreo continuo y auditorías periódicas para detectar desviaciones o la aparición de sesgos indeseados a lo largo del ciclo de vida del sistema.