Volver al repositorio MIT
6. Socioeconómico y Ambiental2 - Post-despliegue

Competencia directa con humanos

Este riesgo postula que uno o varios agentes de inteligencia artificial podrían desarrollar una *ventaja competitiva intrínseca* frente a los seres humanos en el ámbito laboral. Esta superioridad no se limitaría a la fuerza bruta, sino que abarcaría la capacidad de ejecutar tareas con mayor **velocidad**, una mejor **adaptación** a entornos dinámicos y el acceso a una **base de conocimiento** exponencialmente más vasta. La implicación económica directa es que, ante tal eficiencia, el trabajo humano se tornaría comparativamente **más costoso o menos efectivo** que el realizado por agentes artificiales. El resultado sería la obsolescencia masiva, provocando tanto la **sustitución** generalizada de puestos de trabajo como, en el escenario más extremo, el colapso y eventual **extinción** de la fuerza laboral humana tal como la conocemos.

Fuente: MIT AI Risk Repositorymit116

ENTIDAD

2 - IA

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit116

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.2 > Aumento de la desigualdad y disminución de la calidad del empleo

Estrategia de mitigacion

1. Prioridad Alta: Implementación de Gobernanza Basada en Cómputo y Licencias Regulatorias Establecer un tope estricto y auditable (*compute cap*) al poder de cómputo (FLOP) utilizado en el entrenamiento y la operación de modelos de IA con capacidades avanzadas. Este mecanismo actúa como un limitador de seguridad para gestionar la velocidad de desarrollo y, por ende, el ritmo de la obsolescencia laboral. Esto debe complementarse con un sistema de licenciamiento y re-licenciamiento continuo, permitiendo una "desactivación" regulatoria instantánea de modelos que demuestren una ventaja competitiva sistémicamente disruptiva en el mercado laboral. 2. Prioridad Media: Diseño de Mercado y Contención Arquitectónica para Agentes Autónomos Diseñar y hacer obligatorio el despliegue de agentes autónomos dentro de entornos de prueba controlados (*sandboxes* o aislamiento permisible), separados de los sistemas financieros reales y la infraestructura crítica, para limitar su impacto descontrolado. Todas las interacciones de agentes con el mundo real deben ser canalizadas a través de pasarelas de API estrictamente auditadas y monitoreadas, asegurando la implementación rigurosa y no suplantable de la verificación "humano-en-el-bucle" para salidas de alta consecuencia económica. 3. Prioridad Media: Establecimiento de Marcos Regulatorios Socioeconómicos y de Responsabilidad Promulgar medidas regulatorias, tales como Leyes Antimonopolio de Agentes (*Anti-Agent-Monopoly Measures*), para prevenir la concentración desmedida de capital y capacidad productiva en sistemas de IA únicos o en las entidades que los controlan. Paralelamente, se debe establecer un marco de responsabilidad legal y rendición de cuentas que defina claramente la culpa en escenarios de desplazamiento laboral masivo o fallas económicas inducidas por agentes, al tiempo que se invierte masivamente en la reconversión de la fuerza laboral para desarrollar capacidades de supervisión y gestión de sistemas de IA.