Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Mal uso para vigilancia y control de población

El riesgo de la IA como vector de control social. Las herramientas de Inteligencia Artificial presentan el potencial de ser utilizadas de forma indebida por actores humanos o institucionales, sirviendo como mecanismos para la vigilancia, el control e incluso la supresión de individuos. En un contexto donde la recolección masiva de datos y el análisis automatizado son prácticas habituales, la integración de sistemas de IA puede actuar como un catalizador, exacerbando significativamente la escala y la eficacia de estas dinámicas de control.

Fuente: MIT AI Risk Repositorymit1059

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1059

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

- Establecimiento de Marcos Regulatorios y Éticos Robustos - Implementar legislación que restrinja explícitamente el uso de herramientas de IA para la vigilancia masiva y el control poblacional. Se debe asegurar la rendición de cuentas institucional y la exigencia de un proceso legal riguroso para el acceso a datos de vigilancia, priorizando la protección de los derechos de privacidad y las libertades individuales. - Implementación de Arquitecturas de Seguridad y Privacidad por Diseño (Privacy by Design) - Integrar el principio de minimización de datos en el diseño de los sistemas de IA para garantizar que solo se recolecte y procese la información estrictamente necesaria. Aplicar políticas de Gobierno de Datos y de Gestión de Identidad y Acceso (IAM) estrictas para controlar quién puede utilizar, modificar o acceder a los datos y modelos asociados, garantizando la trazabilidad y transparencia. - Monitorización Continua y Mecanismos de Intervención Específica - Desarrollar sistemas de monitoreo de interacción que detecten patrones indicativos de un uso malicioso o anómalo sin incurrir en la vigilancia indiscriminada de usuarios legítimos. Utilizar técnicas de "fine-tuning" y filtrado para mitigar las capacidades del modelo para generar contenido dañino y permitir una respuesta rápida y limitada (ej. restricción de acceso) ante comportamientos de alto riesgo previamente definidos.