Riesgos de Persuasión y Manipulación a Gran Escala
La grave malversación de los sistemas de Inteligencia Artificial reside en su capacidad para generar una distorsión cognitiva colectiva y socavar la estabilidad social. Esto se logra a través de dos mecanismos principales: la producción de contenido sintético ultrarrealista (como los deepfakes o las noticias falsas avanzadas); y la manipulación estratégica de plataformas digitales masivas para diseminar o segmentar con precisión información engañosa o ideologías.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1301
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
1. Implementación de Salvaguardas y Gobernanza de la Generación de Contenido Establecer e imponer rigurosas salvaguardas semánticas (guardrails) a nivel de entrada y salida para prevenir la generación de contenido sintético ilícito, engañoso o dañino, como deepfakes. Esto debe incluir el monitoreo continuo y el testeo adversarial (red teaming) de los modelos para asegurar su robustez contra ataques de manipulación y verificar la veracidad y calidad de los datos de entrenamiento para reducir el riesgo de sesgos o alucinaciones que faciliten la desinformación. 2. Adopción de Mecanismos de Trazabilidad y Transparencia del Contenido Adoptar estándares tecnológicos (ej., C2PA) que incorporen de manera obligatoria credenciales de contenido, marcas de agua digitales (watermarks) y metadatos verificables en todo el material generado por Inteligencia Artificial. Este mecanismo de procedencia es fundamental para garantizar la transparencia, permitiendo a las plataformas y al público identificar de forma inequívoca la naturaleza sintética o alterada del contenido. 3. Desarrollo de Estrategias de Alfabetización Mediática a Escala Invertir en programas sistemáticos de alfabetización mediática y concientización dirigidos al público general y a los empleados, enfatizando el desarrollo del pensamiento crítico. Estas iniciativas deben capacitar a los individuos para identificar rápidamente tácticas de desinformación, reconocer la manipulación psicológica y verificar la autenticidad de la información y el contenido digital antes de su consumo o difusión.