Dilemas Sociales
Dilemas Sociales. Como se define conceptualmente, un conflicto de incentivos se cataloga como dilema social cuando la búsqueda del beneficio individual (el incentivo egoísta) diverge del óptimo para el bienestar colectivo (Dawes & Messick, 2000; Hardin, 1968; Kollock, 1998; Ostrom, 1990). Si bien esta dinámica no es en absoluto un problema moderno, las innovaciones en Inteligencia Artificial podrían amplificar significativamente la capacidad de los actores para perseguir sus fines egoístas. Esto ocurriría al superar las fricciones o barreras —ya sean técnicas, normativas o sociales— que, tradicionalmente, han ayudado a prevenir o amortiguar tales conflictos. Un ejemplo plausible y de corto plazo (aunque de bajo riesgo en este caso) lo ilustra: un asistente de IA automatizado podría reservar sistemáticamente una mesa en cada restaurante de una localidad en cuestión de minutos, permitiendo al usuario decidir con posterioridad y proceder a la cancelación masiva del resto.
ENTIDAD
2 - IA
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1086
Linea de dominio
7. Seguridad, Fallos y Limitaciones del Sistema de IA
7.6 > Riesgos multi-agente
Estrategia de mitigacion
1. Implementar un marco de **Contratación Formal y Juicio** en sistemas multi-agente para inducir la cooperación. Este mecanismo debe permitir la negociación de acuerdos vinculantes que modifiquen las funciones de recompensa de los agentes, **alineando formalmente los incentivos individuales con la maximización del bienestar social** antes de la ejecución de acciones autónomas. 2. Desarrollar un **Marco de Gobernanza de IA** integral que aborde el riesgo sistémico mediante la imposición de **transparencia**, **rendición de cuentas** y **supervisión humana** en la toma de decisiones críticas. El marco debe establecer límites regulatorios y éticos claros para las acciones autónomas de los agentes, previniendo la explotación a escala de los recursos o sistemas compartidos. 3. Realizar **simulaciones de riesgo sistémico** y **pruebas de estrés** a nivel de cadena multi-agente antes del despliegue para identificar y modelar **cascadas de fallos o desalineaciones de coordinación**. Esto permite establecer **restricciones de diseño** en la autonomía y las capacidades de los agentes (ej. limitación de la tasa o volumen de transacciones) para mitigar el potencial de daños colectivos emergentes.