Uso generalizado de herramientas de persuasión
La adopción masiva de herramientas de inteligencia artificial con capacidad persuasiva supone un vector de riesgo que podría desencadenar efectos perjudiciales a escala sistémica
ENTIDAD
1 - Humano
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit971
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
1. Priorizar la implementación de marcos regulatorios que limiten el acceso y la explotación masiva de modelos de IA con alta capacidad persuasiva, especialmente en contextos sensibles como la política, la salud pública y el sector financiero. Esto debe incluir la restricción técnica de capacidades que faciliten la desinformación y el abuso a escala. 2. Establecer y hacer cumplir requisitos obligatorios de transparencia y auditabilidad. Esto implica la implementación de mecanismos ineludibles para el etiquetado de contenido y comunicaciones generadas por IA, garantizando que los usuarios puedan identificar cuándo están interactuando o consumiendo material asistido por sistemas de IA con potencial persuasivo. 3. Impulsar la investigación y desarrollo de contramedidas técnicas de seguridad de IA. Esto debe enfocarse en la mejora de la robustez adversarial de los modelos, el desarrollo de capacidades de detección de anomalías en tiempo real y la incorporación de mecanismos de control (como "interruptores de apagado" o "kill switches") que permitan la intervención humana para detener comportamientos persuasivos indeseados o dañinos.