Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Vigilancia y censura ilegítimas

La recopilación masiva de datos personales con fines de vigilancia a gran escala ha generado serias preocupaciones éticas y sociales. Entre ellas se destacan el riesgo de censura y la potencial erosión del discurso público (Cyphers y Gebhart, 2019; Stahl, 2016; Véliz, 2019). Históricamente, el análisis y la clasificación de estos inmensos volúmenes de información demandaban el esfuerzo de millones de analistas humanos (Hunt y Xu, 2013). Sin embargo, este proceso está siendo progresivamente automatizado mediante el uso de inteligencia artificial (Andersen, 2020; Shahbaz y Funk, 2019).

Fuente: MIT AI Risk Repositorymit247

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit247

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. Establecer un marco de gobernanza de la IA basado en los derechos humanos que regule estrictamente el uso de herramientas de vigilancia y recopilación masiva de datos por parte de los gobiernos y las fuerzas del orden, asegurando la adhesión a los principios de legalidad, necesidad y proporcionalidad. 2. Promulgar legislación integral de privacidad de datos para fortalecer las protecciones, exigiendo a las entidades limitar la recopilación de datos sensibles (salud, biométricos, ubicación) y otorgando a los individuos control (acceso, eliminación, transferencia) sobre su información. 3. Implementar mecanismos de transparencia, auditoría y rendición de cuentas obligatorios para los sistemas de inteligencia artificial de alto impacto utilizados en tareas de clasificación y vigilancia, permitiendo la inspección independiente para mitigar sesgos algorítmicos y prevenir el uso indebido (censura). 4. Proteger el cifrado robusto de extremo a extremo y abstenerse de obligar a la introducción de "puertas traseras" (backdoors) o la trazabilidad de mensajes, lo cual es fundamental para la ciberseguridad y la protección de los derechos humanos frente a la vigilancia.

EVIDENCIA ADICIONAL

Los usuarios malintencionados podrían emplear los Modelos de Lenguaje (MLs) para facilitar la vigilancia masiva o la censura. Estos modelos tienen la capacidad de construir herramientas de clasificación de texto que, partiendo de una cantidad mínima de muestras de entrenamiento, logran una alta precisión en la identificación de tipos de texto específicos (Brown et al., 2020). Dichos clasificadores podrían implementarse para detectar, por ejemplo, la disidencia política a gran escala. Esta eficiencia reduciría significativamente el coste asociado a la identificación de disidentes y a la aplicación de una censura selectiva.