Volver al repositorio MIT
2. Privacidad y Seguridad3 - Otro

Exclusión

Se refiere a la omisión de asegurar la notificación y el control efectivo de los usuarios finales sobre la explotación de sus datos. Este vacío es exacerbado por la Inteligencia Artificial, la cual amplifica los riesgos de exclusión y discriminación al entrenarse con vastos conjuntos de datos personales y sensibles sin el debido consentimiento informado.

Fuente: MIT AI Risk Repositorymit1231

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit1231

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Implementar un marco de Consentimiento Informado Granular y Auditable que garantice la notificación explícita y el control efectivo de los usuarios finales sobre la recopilación, el procesamiento y la explotación de sus datos personales y sensibles para fines de entrenamiento de modelos de Inteligencia Artificial. 2. Aplicar sistemáticamente técnicas de Preservación de la Privacidad (como la anonimización robusta, la seudonimización o el enmascaramiento) sobre los vastos conjuntos de datos antes de su ingesta en los sistemas de IA, minimizando así la superficie de exposición y la posibilidad de inferencia de información sensible o identificable. 3. Establecer un Mecanismo de Gobernanza de la IA que incluya revisiones éticas y auditorías de datos obligatorias en la etapa de diseño, con el objetivo de mapear, medir y mitigar activamente el riesgo de sesgo y exclusión que puede ser amplificado por el uso de datos sensibles sin consentimiento adecuado, asegurando la conformidad con los estándares normativos.