Daño a individuos mediante contenido falso
Los sistemas de inteligencia artificial de propósito general (IAPG) representan un riesgo latente, ya que su capacidad puede ser explotada para incrementar la escala y la sofisticación de fraudes y estafas, como ocurre con los ataques de 'phishing' potenciados por IA. Además, estos modelos facilitan la generación de contenido falso y comprometedor que involucra a individuos sin su consentimiento explícito, lo que constituye una grave amenaza directa contra la privacidad y la reputación personal.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit722
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.3 > Fraude, estafas y manipulación dirigida
Estrategia de mitigacion
1. Capacitación Continua y Concientización del Usuario Final Establecer programas de formación periódica y obligatoria dirigidos a todos los *stakeholders* (empleados y clientes) para mejorar su capacidad de identificar y responder a tácticas de ingeniería social avanzadas, como el *spear-phishing* potenciado por IA, la suplantación de voz (*deepvoices*) y el contenido visual manipulado (*deepfakes*). El objetivo primordial es fomentar una cultura de escepticismo y verificación, especialmente ante solicitudes de información confidencial o transacciones financieras que presenten un sentido de urgencia inusual o provengan de canales inesperados. 2. Implementación de Controles de Detección y Prevención Tecnológica Adoptar e integrar soluciones de seguridad con capacidades de inteligencia artificial que permitan la detección de contenido sintético y actividades fraudulentas. Esto incluye la aplicación obligatoria de la Autenticación Multifactor (MFA) en todos los accesos sensibles, el uso de filtros avanzados para *phishing* y *malware*, y la integración de herramientas de detección de *deepfakes* que analicen inconsistencias en el movimiento, la iluminación y la sincronización labial para mitigar el riesgo de suplantación de identidad en tiempo real. 3. Establecimiento de un Marco Estratégico de Gobernanza de Riesgos Desarrollar un Marco de Gestión de Riesgo de Fraude (FGRM) que aborde específicamente los riesgos de uso malicioso de la IA. Este marco debe incluir una evaluación de riesgos periódica para identificar nuevas vulnerabilidades generadas por la IA, la aplicación estricta del Principio del Menor Privilegio (*PoLP*) para limitar el daño por amenazas internas o cuentas comprometidas, y la implementación de protocolos de respuesta rápida que faciliten la denuncia y la contención inmediata de incidentes de fraude y difusión de información falsa.