Data-related (Difficulty filtering large web scrapes or large scale web datasets)
La recolección masiva de datos provenientes de la web abierta —o *scraping* a gran escala— para conformar los *datasets* de entrenamiento de la inteligencia artificial, introduce vulnerabilidades críticas en la seguridad y la calidad del modelo resultante. Específicamente, esta práctica incrementa significativamente el riesgo de **envenenamiento de datos** (*data poisoning*), facilita la ejecución de **ataques de puerta trasera** (*backdoor attacks*), y conduce a la inclusión de información inherentemente imprecisa o tóxica. Ante la inmensidad de estos *datasets*, la labor de filtrar estas anomalías de calidad se vuelve notoriamente compleja, generando una difícil disyuntiva entre tolerar un riesgo residual elevado o asumir una pérdida significativa del volumen total de datos aprovechables.
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
1 - Pre-despliegue
ID del riesgo
mit973
Linea de dominio
2. Privacidad y Seguridad
2.2 > Vulnerabilidades y ataques a la seguridad del sistema de IA
Estrategia de mitigacion
1. Validación de Datos Rigurosa y Seguridad en la Cadena de Suministro (Prevención Primaria) Establecer protocolos estrictos de validación y saneamiento de datos durante la fase de ingesta, orientados a la detección y filtrado de anomalías, valores atípicos o muestras sospechosas. Dada la dificultad de inspeccionar *datasets* a gran escala, es imperativo auditar la procedencia de los datos y asegurar la cadena de suministro de IA mediante la aplicación de principios de Confianza Cero, restringiendo el acceso a los *datasets* de entrenamiento a personal y sistemas estrictamente autorizados. 2. Monitoreo Continuo del Modelo y Detección de Desviaciones (Detección Temprana) Implementar sistemas de observabilidad y monitoreo en tiempo real para analizar el flujo de datos entrantes y la salida del modelo. Esta supervisión debe incluir técnicas de detección de anomalías para identificar inmediatamente patrones inusuales o un deterioro inesperado en la precisión o rendimiento del modelo, lo cual es indicativo de un ataque de envenenamiento o *backdoor*. 3. Fortalecimiento del Modelo mediante Técnicas de Robustez (Resiliencia) Utilizar métodos de entrenamiento avanzados, como el entrenamiento adversarial, para incrementar la solidez y la resistencia inherente del modelo ante manipulaciones. Adicionalmente, integrar soluciones de seguridad especializadas (*Firewall for AI*) que actúen como capa perimetral para inspeccionar y bloquear peticiones maliciosas que intenten explotar vulnerabilidades a través de la inyección de datos tóxicos.