Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso3 - Otro

Amenazas a instituciones y vida humana

Esta categoría de riesgos representa el 11% de la literatura analizada y aborda los peligros inherentes a sistemas de inteligencia artificial concebidos con una finalidad maliciosa o aquellos cuya implementación podría constituir una amenaza directa o existencial para la vida humana. Su estudio se articula en torno a dos ejes temáticos principales: las amenazas al estado de derecho y los procesos democráticos, y las implicaciones del transhumanismo.

Fuente: MIT AI Risk Repositorymit547

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit547

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

1. Prioridad 1: Implementar un Régimen de Acceso y Despliegue Altamente Restringido para Modelos con Potencial de Riesgo Existencial. Establecer una gobernanza estricta, idealmente coordinada a nivel internacional, para limitar el acceso a modelos de inteligencia artificial avanzados (e.g., AGI) o aquellos con capacidades de daño masivo (e.g., desarrollo de armas, ciberataques sistémicos). Esta medida debe ir acompañada de la atribución de responsabilidades legales explícitas a los desarrolladores por el uso malicioso o no intencionado que constituya una amenaza a la vida humana o a las instituciones. 2. Prioridad 2: Integrar un Marco de Defensa Adversarial Continua y Multicapa. Fortalecer la seguridad de los sistemas de IA mediante la adopción de técnicas de *adversarial training* y la ejecución periódica y rigurosa de ejercicios de *red teaming* y pruebas de penetración. El objetivo es aumentar la robustez de los modelos frente a ataques de evasión, *data poisoning* y extracción, denegando a los actores maliciosos la capacidad de manipular o replicar las funcionalidades críticas de la IA. 3. Prioridad 3: Establecer la Trazabilidad y la Transparencia de los Procesos de Decisión. Desarrollar mecanismos de *Explainable AI* (XAI) y sistemas de registro inmutable (*audit trails*) para garantizar la comprensión completa de las decisiones del modelo, especialmente en contextos que impactan el estado de derecho y los procesos democráticos. Esto es fundamental para identificar sesgos o manipulaciones que socaven la confianza pública y para establecer la rendición de cuentas ante fallos o usos indebidos de la tecnología.