Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Colusión

La colusión ha sido, durante mucho tiempo, un objeto de intenso estudio en disciplinas como la economía, el derecho y la política. Si bien no existe una definición universal, el concepto central alude a una cooperación secreta entre dos o más partes que opera en detrimento o a expensas de un tercero. Los ejemplos más clásicos de colusión – como el acuerdo de empresas para fijar precios supracompetitivos a costa de los consumidores – tienden a ser no solo confidenciales, sino que infringen alguna ley, normativa o estándar ético. Además, es habitual distinguir entre colusión explícita y colusión tácita (Rees, 1993), una diferencia que radica en si las partes coludentes establecen o no una comunicación directa entre sí.

Fuente: MIT AI Risk Repositorymit1089

ENTIDAD

2 - IA

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1089

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.6 > Riesgos multi-agente

Estrategia de mitigacion

1. Establecer protocolos de comunicación restringidos y limitar el acceso de los agentes a herramientas externas o a la memoria compartida (sanciones de capacidad) para reducir la superficie de ataque para la coordinación secreta o esteganográfica. 2. Desarrollar metodologías sólidas de monitoreo, como la supervisión no confiable (untrusted monitoring) y la detección de anomalías, para distinguir la colusión de la cooperación legítima y auditar rigurosamente las acciones del sistema multi-agente. 3. Implementar mecanismos de sanción y penalización (por ejemplo, castigos por desempeño o recompensas negativas explícitas) que se activen tras la detección de patrones colusivos para modificar los incentivos de los agentes de aprendizaje y desincentivar las estrategias de coordinación no deseadas.