Riesgos de Ciencias de la Información
Estos riesgos se vinculan directamente con la integridad y la confidencialidad de la información. Se materializan a través del uso incorrecto, la interpretación sesgada o la filtración de datos sensibles, lo que invariablemente conduce a la obtención de conclusiones erróneas o a la exposición no deseada de material crítico, como historiales clínicos privados o propiedad intelectual de investigación. Un ejemplo particularmente alarmante es la capacidad demostrada de los Modelos de Lenguaje Grandes (LLM) para generar literatura médica maliciosa destinada a corromper las fuentes de conocimiento estructurado (grafos de conocimiento). Este ataque no solo manipula las aplicaciones biomédicas posteriores, sino que socava la base misma de la integridad del descubrimiento científico y médico. Es fundamental notar que estas vulnerabilidades son transversales a la totalidad de los dominios científicos.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1293
Linea de dominio
2. Privacidad y Seguridad
2.1 > Compromiso de la privacidad por filtración o inferencia de información sensible
Estrategia de mitigacion
1. Implementación de Controles de Acceso Rigurosos y el Principio de Mínimo Privilegio. Definir roles claros con permisos específicos (RBAC) para limitar el acceso a la información sensible (p. ej., historiales clínicos o propiedad intelectual de investigación) únicamente al personal autorizado que posea una "necesidad de conocimiento". Esto se complementa con la aplicación del principio de minimización de datos para reducir la superficie de ataque. 2. Cifrado de Datos y Sanitización Previa a la Ingesta. Asegurar que todos los datos sensibles se cifren tanto en reposo (almacenamiento) como en tránsito (comunicaciones) utilizando algoritmos robustos (p. ej., AES-256). Antes de que los datos sean utilizados para la construcción de grafos de conocimiento o entrenamiento de LLMs, se deben aplicar técnicas de anonimización, enmascaramiento o redacción de PII para mitigar la exposición por filtración. 3. Verificación de la Integridad de la Fuente y Monitoreo Anómalo. Desarrollar y aplicar mecanismos de validación de entradas robustos para auditar la literatura científica o fuentes de datos utilizadas en la construcción de Grafos de Conocimiento (GC). Esto es crucial para detectar y filtrar contenido malicioso generado por LLMs, como el ataque Scorpius. Adicionalmente, establecer sistemas de registro (logging) y análisis de comportamiento (UEBA) para detectar patrones inusuales o tentativas de fuga de información en tiempo real.