Volver al repositorio MIT
3. Desinformación2 - Post-despliegue

Cyberspace risks (Risks of confusing facts, misleading users, and bypassing authentication)

La falta de transparencia en la identificación de los sistemas de Inteligencia Artificial y sus productos impide a los usuarios discernir la autoría y procedencia del contenido. Este fallo de atribución introduce un riesgo epistémico, menoscabando la capacidad de determinar la autenticidad de la información y promoviendo el error o el malentendido. Asimismo, la generación de contenido sintético ultrarrealista (imágenes, audio y video) representa una amenaza directa a la seguridad al poder eludir los mecanismos de verificación de identidad basados en datos biométricos, como el reconocimiento facial y de voz, neutralizando así su propósito de autenticación.

Fuente: MIT AI Risk Repositorymit656

ENTIDAD

3 - Otro

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit656

Linea de dominio

3. Desinformación

74 riesgos mapeados

3.1 > Información falsa o engañosa

Estrategia de mitigacion

1. Prioridad Alta: **Refuerzo de la Integridad de la Identidad y la Información**. Exigir la implementación de **mecanismos de transparencia algorítmica** que incluyan el etiquetado obligatorio y la firma criptográfica (p. ej., C2PA) en todo contenido generado o modificado por IA, asegurando la atribución y procedencia. De manera simultánea, integrar **sistemas de autenticación biométrica robustos** que incorporen tecnologías avanzadas de **Detección de Vitalidad (Liveness Detection)** y autenticación multifactorial para mitigar ataques de suplantación de identidad mediante contenido sintético ultrarrealista (deepfakes). 2. Prioridad Media: **Gobernanza y Monitoreo del Ciclo de Vida**. Establecer e implementar un **Marco de Gestión de Riesgos de la IA (AI RMF)**, alineado con estándares internacionales (como NIST o Ley de IA de la UE), para mapear, medir y gestionar los riesgos de seguridad. Esto debe incluir **auditorías de seguridad periódicas** del sistema y de los proveedores, así como la **monitorización continua** de los flujos y la integridad de los datos para detectar desviaciones o sesgos maliciosos. 3. Prioridad Baja: **Capacitación y Concienciación Proactiva**. Desarrollar un programa integral de **educación y formación continua** dirigido a los usuarios finales y al personal operativo sobre los riesgos epistémicos y de seguridad asociados a la interacción con sistemas de IA no etiquetados y la amenaza de ataques de ingeniería social basados en *deepfakes* y clonación de voz, fomentando la **cultura de la desconfianza verificada** y la notificación de actividades sospechosas.