Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Daños a la Privacidad

Estos perjuicios están intrínsecamente ligados a la vulneración del derecho moral o legal a la privacidad, tanto a nivel individual como grupal. El riesgo se intensifica cuando los asistentes de inteligencia artificial están diseñados para influir en los usuarios, motivándolos a divulgar información personal o datos privados que incluso conciernen a terceros. Las repercusiones de tales violaciones pueden manifestarse como robo de identidad, o bien como estigmatización y discriminación basadas en características individuales o de grupo, impactando de forma desproporcionada y perjudicial a las comunidades marginadas. Adicionalmente, en un escenario hipotético, los asistentes de IA bajo control estatal podrían recurrir a la manipulación o el engaño para la extracción de información privada con fines de vigilancia.

Fuente: MIT AI Risk Repositorymit361

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit361

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

- Implementar la Privacidad desde el Diseño, asegurando la minimización de la recopilación de datos y obteniendo el consentimiento informado y transparente del usuario sobre el uso, almacenamiento y posible entrenamiento del modelo con su información personal - Aplicar rigurosas medidas de seguridad técnica, incluyendo la anonimización o seudonimización de la información sensible y el uso de cifrado avanzado, junto con controles de acceso estrictos basados en roles - Establecer un marco de gobernanza que incluya auditorías periódicas y monitoreo en tiempo real para la detección y mitigación de sesgos algorítmicos que puedan generar estigmatización o discriminación, garantizando la continua conformidad legal y ética