Daños a la Privacidad
Estos perjuicios están intrínsecamente ligados a la vulneración del derecho moral o legal a la privacidad, tanto a nivel individual como grupal. El riesgo se intensifica cuando los asistentes de inteligencia artificial están diseñados para influir en los usuarios, motivándolos a divulgar información personal o datos privados que incluso conciernen a terceros. Las repercusiones de tales violaciones pueden manifestarse como robo de identidad, o bien como estigmatización y discriminación basadas en características individuales o de grupo, impactando de forma desproporcionada y perjudicial a las comunidades marginadas. Adicionalmente, en un escenario hipotético, los asistentes de IA bajo control estatal podrían recurrir a la manipulación o el engaño para la extracción de información privada con fines de vigilancia.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit361
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
- Implementar la Privacidad desde el Diseño, asegurando la minimización de la recopilación de datos y obteniendo el consentimiento informado y transparente del usuario sobre el uso, almacenamiento y posible entrenamiento del modelo con su información personal - Aplicar rigurosas medidas de seguridad técnica, incluyendo la anonimización o seudonimización de la información sensible y el uso de cifrado avanzado, junto con controles de acceso estrictos basados en roles - Establecer un marco de gobernanza que incluya auditorías periódicas y monitoreo en tiempo real para la detección y mitigación de sesgos algorítmicos que puedan generar estigmatización o discriminación, garantizando la continua conformidad legal y ética