Uso malicioso y abuso (vigilancia masiva)
La Inteligencia Artificial Generativa (IAG) potencia la automatización del análisis de datos, lo que se traduce en importantes ventajas, como un aumento significativo en la velocidad de procesamiento y la capacidad de gestionar eficientemente volúmenes masivos de información. Esta funcionalidad reduce drásticamente los costes asociados al tratamiento rápido de cantidades de datos sin precedentes y simplifica el análisis de macrodatos sobre las creencias y los comportamientos individuales. Adicionalmente, la IAG optimiza el análisis eficiente de comunicaciones tanto textuales como visuales. Por lo tanto, los modelos generativos incrementan la eficiencia en la monitorización y la censura en tiempo real del contenido difundido en plataformas de redes sociales.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit686
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
1. Prioridad Fundamental: Instauración de un Marco de Gobernanza Ética y Legal Establecer un marco de gobernanza de la Inteligencia Artificial (IA) que integre los principios de derechos humanos, valores democráticos y no causar daño, prohibiendo explícitamente las adopciones o prácticas que socaven la autonomía humana, como la vigilancia masiva o la elaboración de perfiles basados en características protegidas. Dicho marco debe asegurar el cumplimiento riguroso de las regulaciones de protección de datos (e.g., RGPD) y las leyes de IA aplicables para limitar el uso indebido. 2. Prioridad Crítica: Implementación de Controles de Acceso de Confianza Cero y Cifrado de Datos Implementar una arquitectura de confianza cero ("zero-trust") que asuma la desconfianza inherente en el sistema y el usuario, aplicando controles de acceso basados en la identidad con el principio de mínimo privilegio en todos los puntos de acceso a los modelos y datos de GenAI. Adicionalmente, proteger la información sensible que alimenta los sistemas de IA mediante cifrado para los datos en reposo y técnicas de anonimización (e.g., privacidad diferencial) para los conjuntos de datos de entrenamiento. 3. Prioridad Operacional: Monitoreo Continuo y Fomento de la Transparencia Algorítmica Desplegar mecanismos de monitoreo continuo en tiempo real de las interacciones de los usuarios, los insumos de datos y el rendimiento del modelo para detectar anomalías o patrones que indiquen un uso malicioso o abusivo a gran escala. Simultáneamente, incorporar técnicas de IA Explicable (XAI) para incrementar la transparencia algorítmica, facilitando la auditoría de los procesos de toma de decisiones y la identificación de sesgos o abusos potenciales.