Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Suplantación asistida por GPAI

Los productos de la IA de Propósito General (GPAI) no siempre se detectan con precisión como generados artificialmente en diversas modalidades (texto, imágenes, audio y video) Esto abre un vector de ataque crítico un actor malicioso puede usar las creaciones de GPAI directamente para suplantar identidades de forma convincente o para generar detalles que refuercen una falsificación compleja (como la forja de documentos de soporte) El riesgo persiste aún si las futuras contramedidas de detección resultan potentes ya que su efectividad se anula si no son de conocimiento público o si el acceso a dichas herramientas es limitado

Fuente: MIT AI Risk Repositorymit1063

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1063

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.3 > Fraude, estafas y manipulación dirigida

Estrategia de mitigacion

1. Implementar protocolos rigurosos de verificación de identidad digital y autenticación adaptativa basada en el riesgo, priorizando soluciones que integren la biometría y el análisis de comportamiento para contrarrestar la suplantación de identidad sintética y el uso de deepfakes en interacciones críticas (p. ej., procesos de *onboarding* o transacciones financieras). 2. Exigir la implementación de mecanismos de trazabilidad y detección de contenido (p. ej., marcas de agua criptográficas o seguimiento de procedencia) en las salidas multimodales del GPAI, junto con la obligación de publicar documentación técnica estandarizada y resúmenes del contenido de formación que faciliten la auditoría de seguridad y la aplicación de contramedidas a terceros. 3. Establecer un ciclo continuo de evaluación y mitigación de riesgos sistémicos (incluyendo ejercicios de *red teaming* y pruebas de estrés) para identificar vulnerabilidades explotables en escenarios de suplantación, y desarrollar programas de capacitación que permitan a los usuarios y organizaciones identificar las señales de alerta de contenido generado por IA en diversas modalidades.