Generación automática de desinformación a escala
La desinformación, en sus múltiples modalidades (texto, audio, imágenes y video), ha alcanzado un umbral donde su producción requiere una supervisión humana y un esfuerzo operativo mínimos. Esto se debe a que las herramientas para generarla son de bajo costo y su tecnología se ha democratizado, volviéndose ampliamente accesible. Esta facilidad de implementación conlleva un riesgo inherente: su propagación puede volverse especialmente ubicua y sistémica en escenarios de alta sensibilidad, como los contextos políticos.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1052
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
1. Establecer un marco regulatorio global y corporativo que exija la transparencia y trazabilidad del contenido generado por IA, incluyendo mecanismos para alertar a los usuarios sobre la presencia de medios sintéticos y divulgar información sobre los datos de entrenamiento y modelos utilizados. 2. Implementar sistemas avanzados de detección y verificación de contenidos, utilizando IA para el análisis multimodal (texto, audio, imágenes, video), la identificación de patrones de desinformación, la detección de deepfakes mediante rasgos biométricos y la priorización de la detección de ataques de inyección en tiempo real. 3. Reforzar la gobernanza de los modelos de IA, aplicando controles de acceso estrictos, auditorías periódicas de la calidad e integridad de los datos de entrenamiento y validación continua de las salidas de los modelos para mitigar la propagación de información errónea no intencional y prevenir el envenenamiento intencionado de los modelos.