Difamación
La instrumentalización del sistema para la generación y amplificación de contenido difamatorio, injurioso o la creación de falsas imputaciones
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit271
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
1. Implementar herramientas de detección de contenido sintético basadas en Inteligencia Artificial (IA) para el análisis forense de audio, video e imágenes. Esto incluye la evaluación de inconsistencias visuales, patrones vocales anómalos y marcadores de manipulación algorítmica, con el fin de identificar y neutralizar deepfakes en tiempo real. 2. Establecer programas de concienciación y formación continua para el personal, orientados a elevar la alfabetización mediática y la capacidad de identificar tácticas de ingeniería social y desinformación potenciadas por IA. Se debe priorizar la verificación independiente de toda comunicación crítica o inusual. 3. Diseñar y activar un Plan de Respuesta a Incidentes (PRI) robusto y específico para amenazas de deepfakes, el cual debe codificar procedimientos claros de escalamiento, protocolos de comunicación estratégica, recopilación de evidencia forense y mitigación rápida del daño reputacional y financiero. 4. Reforzar los protocolos de seguridad de la información mediante la adopción de un modelo de Confianza Cero (Zero Trust) y la implementación obligatoria de la autenticación multifactor (MFA) para todas las interacciones de alto riesgo. 5. Abogar por y adherirse a marcos regulatorios y políticas internas que exijan el etiquetado, la trazabilidad y la incorporación de marcas de agua (watermarking) en el contenido generado por IA para establecer la rendición de cuentas y la autenticidad del origen.
EVIDENCIA ADICIONAL
Este caso ejemplifica un vector crítico de riesgo en la seguridad de la IA: la manipulación de la realidad mediante la generación de medios sintéticos. Específicamente, se refiere a la utilización de *deepfakes* que combinan material de video genuino con audio fabricado algorítmicamente para atribuir falsedades, ya sean declaraciones o acciones, a un individuo. Esta capacidad subraya los desafíos en la Robustez y la Transparencia de los sistemas de información, dado su potencial para desestabilizar la confianza pública y exacerbar la desinformación a escala.