Fraude
Desde una perspectiva de seguridad en IA, este riesgo se define como la capacidad de los modelos para escalar y sofisticar la comisión de actividades maliciosas, específicamente el fraude financiero, la falsificación de documentos y la creación de estafas de suplantación de identidad de alta credibilidad
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit270
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.3 > Fraude, estafas y manipulación dirigida
Estrategia de mitigacion
1. Prioridad Máxima (Alta Ingeniería) Implementación de sistemas de autenticación multi-factor (MFA) obligatoria y tecnologías de detección de contenido sintético. Se requiere el despliegue de mecanismos de *watermarking* o huellas digitales en las salidas del modelo y el uso de *software* de verificación biométrica anti-*deepfake* para neutralizar la suplantación de identidad avanzada facilitada por IA, especialmente en contextos de transferencia de activos o acceso a datos sensibles. 2. Prioridad Alta (Gobernanza Proactiva) Establecimiento de políticas rigurosas de uso aceptable y controles de *guardrails* en el desarrollo y despliegue de modelos generativos. Esto implica la limitación técnica de la capacidad de los modelos para generar voces humanas hiperrealistas, documentos falsificados o cualquier material que facilite directamente el fraude, acompañado de un programa continuo de pruebas de adversarios (*red teaming*) para identificar y mitigar vulnerabilidades de *misuse* antes de su explotación. 3. Prioridad Esencial (Factor Humano) Ejecución de programas de capacitación y sensibilización continua. Es crucial educar al personal y a los usuarios finales sobre las tácticas de ingeniería social emergentes impulsadas por IA, como el *vishing* con voz sintética, enfatizando la obligatoriedad de verificar transacciones o solicitudes sensibles a través de canales de comunicación preestablecidos e inalterables, independientemente de la credibilidad aparente del mensaje.
EVIDENCIA ADICIONAL
Este ejemplo subraya un vector de riesgo crítico en la seguridad de la IA: la suplantación maliciosa de la voz de un individuo de confianza mediante tecnología de *deepfake* de audio. Este tipo de ataque de ingeniería social busca obtener información financiera sensible, como detalles bancarios, lo que refleja una forma avanzada y preocupante de fraude digital. (Verma, 2023; Krishnan, 2023)