Amenazas a instituciones y vida humana
Esta categoría de riesgos representa el 11% de la literatura analizada y aborda los peligros inherentes a sistemas de inteligencia artificial concebidos con una finalidad maliciosa o aquellos cuya implementación podría constituir una amenaza directa o existencial para la vida humana. Su estudio se articula en torno a dos ejes temáticos principales: las amenazas al estado de derecho y los procesos democráticos, y las implicaciones del transhumanismo.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit547
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. Prioridad 1: Implementar un Régimen de Acceso y Despliegue Altamente Restringido para Modelos con Potencial de Riesgo Existencial. Establecer una gobernanza estricta, idealmente coordinada a nivel internacional, para limitar el acceso a modelos de inteligencia artificial avanzados (e.g., AGI) o aquellos con capacidades de daño masivo (e.g., desarrollo de armas, ciberataques sistémicos). Esta medida debe ir acompañada de la atribución de responsabilidades legales explícitas a los desarrolladores por el uso malicioso o no intencionado que constituya una amenaza a la vida humana o a las instituciones. 2. Prioridad 2: Integrar un Marco de Defensa Adversarial Continua y Multicapa. Fortalecer la seguridad de los sistemas de IA mediante la adopción de técnicas de *adversarial training* y la ejecución periódica y rigurosa de ejercicios de *red teaming* y pruebas de penetración. El objetivo es aumentar la robustez de los modelos frente a ataques de evasión, *data poisoning* y extracción, denegando a los actores maliciosos la capacidad de manipular o replicar las funcionalidades críticas de la IA. 3. Prioridad 3: Establecer la Trazabilidad y la Transparencia de los Procesos de Decisión. Desarrollar mecanismos de *Explainable AI* (XAI) y sistemas de registro inmutable (*audit trails*) para garantizar la comprensión completa de las decisiones del modelo, especialmente en contextos que impactan el estado de derecho y los procesos democráticos. Esto es fundamental para identificar sesgos o manipulaciones que socaven la confianza pública y para establecer la rendición de cuentas ante fallos o usos indebidos de la tecnología.