Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Privacidad

Aunque modelos como GPT-3 de OpenAI fueron diseñados para dificultar la extracción de información personal sensible, como las fechas de nacimiento de figuras públicas, el uso malicioso de la IA sigue erosionando la privacidad. Ejemplos claros de esta intrusión incluyen el sistema automatizado de vigilancia chino "Sharp Eye" [551] y los ciberataques automatizados dirigidos a datos personales [354]. No obstante, una forma aún más drástica y preocupante de vigilancia asistida por IA podría estar emergiendo: la decodificación no quirúrgica del pensamiento [54], una técnica de potencial impacto profundo que, según se informa, ya está siendo empleada por algunas fuerzas policiales [398]

Fuente: MIT AI Risk Repositorymit768

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit768

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.1 > Desinformación, vigilancia e influencia a escala

Estrategia de mitigacion

1. Implementar marcos de gobernanza y legales que clasifiquen los datos neurales y las inferencias sobre estados mentales como "información sensible de máxima protección", exigiendo el consentimiento libre, informado, específico y explícito para su recopilación, procesamiento y uso, en concordancia con los principios de privacidad desde el diseño. 2. Fortalecer la infraestructura de ciberseguridad con contramedidas defensivas asistidas por IA (AI cybersecurity countermeasures) para contrarrestar la creciente sofisticación de los ciberataques automatizados. Esto incluye la aplicación estricta de cifrado de datos, controles de acceso de mínimo privilegio y evaluaciones de vulnerabilidad (penetration testing) realizadas por terceros. 3. Establecer la máxima transparencia y explicabilidad (XAI) en los sistemas de IA utilizados para la vigilancia o el procesamiento de datos sensibles. Se debe proporcionar información clara y accesible a los usuarios sobre los tipos de datos que se recolectan, cómo se toman las decisiones algorítmicas y cómo pueden ejercer sus derechos de acceso y oposición, evitando el uso de jerga técnica.