Volver al repositorio MIT
2. Privacidad y Seguridad2 - Post-despliegue

Información de PI en prompt

El riesgo latente de que datos sensibles o protegidos legalmente —como información con derechos de autor o propiedad intelectual— sean incorporados inadvertidamente en la instrucción o 'prompt' que se suministra al modelo de inteligencia artificial

Fuente: MIT AI Risk Repositorymit1165

ENTIDAD

3 - Otro

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1165

Linea de dominio

2. Privacidad y Seguridad

186 riesgos mapeados

2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible

Estrategia de mitigacion

1. Establecer protocolos internos rigurosos y obligatorios de capacitación para el personal, con el fin de restringir explícitamente la introducción de información confidencial, datos de propiedad intelectual (PI) o material sujeto a derechos de autor en las instrucciones de entrada ('prompts') de los modelos de IA generativa, especialmente aquellos de terceros o de uso público. 2. Implementar mecanismos de validación de entrada ('input validation') y capas de anonimización o redacción. Esto incluye el uso de filtros continuos de escaneo de secretos y capas de privacidad diferencial aplicadas a la instrucción para limitar proactivamente la exposición de datos sensibles antes de que sean procesados por el modelo. 3. Realizar una diligencia debida exhaustiva de los acuerdos de servicio y las configuraciones de la herramienta de IA, verificando que los términos y condiciones prohíban al proveedor el almacenamiento o uso de las instrucciones ('prompts') del usuario para el reentrenamiento del modelo o la inferencia de información, manteniendo así la soberanía sobre los datos introducidos.