Cyberspace risks (Risks of confusing facts, misleading users, and bypassing authentication)
La falta de transparencia en la identificación de los sistemas de Inteligencia Artificial y sus productos impide a los usuarios discernir la autoría y procedencia del contenido. Este fallo de atribución introduce un riesgo epistémico, menoscabando la capacidad de determinar la autenticidad de la información y promoviendo el error o el malentendido. Asimismo, la generación de contenido sintético ultrarrealista (imágenes, audio y video) representa una amenaza directa a la seguridad al poder eludir los mecanismos de verificación de identidad basados en datos biométricos, como el reconocimiento facial y de voz, neutralizando así su propósito de autenticación.
ENTIDAD
3 - Otro
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit656
Linea de dominio
3. Desinformación
3.1 > Información falsa o engañosa
Estrategia de mitigacion
1. Prioridad Alta: **Refuerzo de la Integridad de la Identidad y la Información**. Exigir la implementación de **mecanismos de transparencia algorítmica** que incluyan el etiquetado obligatorio y la firma criptográfica (p. ej., C2PA) en todo contenido generado o modificado por IA, asegurando la atribución y procedencia. De manera simultánea, integrar **sistemas de autenticación biométrica robustos** que incorporen tecnologías avanzadas de **Detección de Vitalidad (Liveness Detection)** y autenticación multifactorial para mitigar ataques de suplantación de identidad mediante contenido sintético ultrarrealista (deepfakes). 2. Prioridad Media: **Gobernanza y Monitoreo del Ciclo de Vida**. Establecer e implementar un **Marco de Gestión de Riesgos de la IA (AI RMF)**, alineado con estándares internacionales (como NIST o Ley de IA de la UE), para mapear, medir y gestionar los riesgos de seguridad. Esto debe incluir **auditorías de seguridad periódicas** del sistema y de los proveedores, así como la **monitorización continua** de los flujos y la integridad de los datos para detectar desviaciones o sesgos maliciosos. 3. Prioridad Baja: **Capacitación y Concienciación Proactiva**. Desarrollar un programa integral de **educación y formación continua** dirigido a los usuarios finales y al personal operativo sobre los riesgos epistémicos y de seguridad asociados a la interacción con sistemas de IA no etiquetados y la amenaza de ataques de ingeniería social basados en *deepfakes* y clonación de voz, fomentando la **cultura de la desconfianza verificada** y la notificación de actividades sospechosas.