Volver al repositorio MIT
6. Socioeconómico y Ambiental3 - Otro

Punto único de fallo

El riesgo describe una potencial **situación de dominio tecnológico singular**. En un entorno de competencia intensa, una única entidad podría alcanzar una superioridad técnica con un modelo de Inteligencia Artificial que se convierte en la base o el controlador directo de múltiples **sistemas de infraestructura crítica** a nivel global. El peligro sistémico surge de la combinación de esta centralización con tres vectores de fallo fundamentales: la **insuficiencia de las medidas de seguridad**, la **pérdida de control** sobre el modelo, y el potencial de **uso malintencionado**. El desenlace es una **vulnerabilidad sistémica** donde un fallo, error o mal uso en este modelo central provoca el colapso o el mal funcionamiento imprevisto y generalizado de todos los sistemas interconectados.

Fuente: MIT AI Risk Repositorymit806

ENTIDAD

1 - Humano

INTENCIÓN

2 - Involuntario

TIEMPO

3 - Otro

ID del riesgo

mit806

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.1 > Centralización del poder y distribución injusta de beneficios

Estrategia de mitigacion

1. Implementar marcos regulatorios y políticas de competencia que exijan la descentralización estructural de los sistemas de infraestructura crítica basados en IA. Esta medida de evitación busca eliminar la dependencia de un único modelo o entidad tecnológica, promoviendo la interoperabilidad obligatoria y el desarrollo de alternativas de código abierto para contrarrestar la concentración de poder. 2. Establecer una autoridad de gobernanza global e independiente con el mandato de realizar auditorías continuas y obligatorias sobre la seguridad algorítmica, la robustez, la contención y la controlabilidad de cualquier modelo de IA considerado de importancia sistémica. El objetivo es reducir la probabilidad de fallo sistémico derivado de la insuficiencia de medidas de seguridad o la pérdida de control. 3. Promover la inversión pública y privada en la investigación de mecanismos de seguridad intrínsecos (Safety by Design) y en sistemas de supervisión autónomos que puedan aislar o desactivar modelos de IA centralizados en caso de mal funcionamiento imprevisto o uso malintencionado. Esto representa una estrategia de reducción de impacto ante un evento de fallo inevitable.