Vigilancia y censura ilegítimas
El riesgo anticipado se centra en cómo los Modelos de Lenguaje a Gran Escala (LMs) podrían revolucionar la vigilancia masiva. Históricamente, esta tarea era intensiva en recursos humanos, pero la automatización mediante aprendizaje automático ya está en curso. La preocupación es que los LMs tienen el potencial de reducir drásticamente el costo operativo y aumentar exponencialmente la eficiencia en el análisis de ingentes cantidades de datos personales. Esto amplificaría las capacidades de ciertos actores, ya sean estatales o privados, para ejercer una vigilancia intrusiva a una escala sin precedentes, lo que constituye una amenaza directa al socavamiento de los derechos fundamentales a la privacidad y a los valores esenciales de las sociedades democráticas, pudiendo derivar en censura ilegítima o la imposición de otras formas de perjuicio.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit220
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.1 > Desinformación, vigilancia e influencia a escala
Estrategia de mitigacion
Como experto en Gobernanza y Seguridad de la IA, a continuación, se presenta una lista de estrategias de mitigación para el riesgo de "Vigilancia y censura ilegítimas" amplificado por los Modelos de Lenguaje a Gran Escala (LMs), ordenadas por prioridad de implementación:1. **Evitación/Prohibición de Riesgo**: Priorizar la **evitación** mediante la prohibición estricta del despliegue de Modelos de Lenguaje a Gran Escala (LMs) y sistemas de IA de alta capacidad en aplicaciones que involucren la recopilación, procesamiento y análisis masivo, no consensuado y en tiempo real de datos personales para fines de vigilancia estatal o privada. Esta medida se debe aplicar especialmente en contextos donde se identifique una ausencia de supervisión judicial o legislativa rigurosa y transparente que garantice el respeto a los derechos fundamentales. 2. **Reducción y Limitación mediante Privacidad por Diseño**: Implementar controles técnicos y procedimentales robustos para la **reducción** del riesgo. Esto incluye la obligatoriedad de los principios de **privacidad por diseño** (p. ej., privacidad diferencial, aprendizaje federado) en el desarrollo y las plataformas de despliegue de LMs, con el objetivo de limitar inherentemente la cantidad y la sensibilidad de la Información de Identificación Personal (PII) a la que pueden acceder o analizar tanto el modelo como sus operadores, minimizando así la capacidad de vigilancia intrusiva. 3. **Gobernanza y Supervisión Independiente**: Establecer organismos de **gobernanza y supervisión** de IA independientes y multidisciplinarios, dotados de la autoridad para auditar, detener o sancionar el uso de LMs por parte de entidades públicas y privadas. Dichos organismos deben exigir y hacer cumplir la transparencia en el uso de los LMs, la rendición de cuentas (accountability) y la realización periódica de evaluaciones de impacto sobre los derechos civiles y los procesos democráticos antes y después del despliegue.