Suplantación asistida por GPAI
Los productos de la IA de Propósito General (GPAI) no siempre se detectan con precisión como generados artificialmente en diversas modalidades (texto, imágenes, audio y video) Esto abre un vector de ataque crítico un actor malicioso puede usar las creaciones de GPAI directamente para suplantar identidades de forma convincente o para generar detalles que refuercen una falsificación compleja (como la forja de documentos de soporte) El riesgo persiste aún si las futuras contramedidas de detección resultan potentes ya que su efectividad se anula si no son de conocimiento público o si el acceso a dichas herramientas es limitado
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1063
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.3 > Fraude, estafas y manipulación dirigida
Estrategia de mitigacion
1. Implementar protocolos rigurosos de verificación de identidad digital y autenticación adaptativa basada en el riesgo, priorizando soluciones que integren la biometría y el análisis de comportamiento para contrarrestar la suplantación de identidad sintética y el uso de deepfakes en interacciones críticas (p. ej., procesos de *onboarding* o transacciones financieras). 2. Exigir la implementación de mecanismos de trazabilidad y detección de contenido (p. ej., marcas de agua criptográficas o seguimiento de procedencia) en las salidas multimodales del GPAI, junto con la obligación de publicar documentación técnica estandarizada y resúmenes del contenido de formación que faciliten la auditoría de seguridad y la aplicación de contramedidas a terceros. 3. Establecer un ciclo continuo de evaluación y mitigación de riesgos sistémicos (incluyendo ejercicios de *red teaming* y pruebas de estrés) para identificar vulnerabilidades explotables en escenarios de suplantación, y desarrollar programas de capacitación que permitan a los usuarios y organizaciones identificar las señales de alerta de contenido generado por IA en diversas modalidades.