Volver al repositorio MIT
5. Interacción Humano-Computadora3 - Otro

Problemas de acción colectiva

Los dilemas de acción colectiva son ubicuos en nuestra sociedad. Se refieren a situaciones en las que el bien común se logra si todos cooperan, pero un individuo puede obtener una ganancia personal si decide no cooperar, es decir, si 'defecta', mientras los demás sí lo hacen. Resolver estos problemas es profundamente complejo. Para dilemas sencillos, como pagar un artículo en una tienda, la solución es clara: codificar una ley. En el contexto de la IA, esto se traduciría en 'constricciones de comportamiento' impuestas por reguladores y con penalizaciones claras. Sin embargo, la mayoría de los dilemas sociales, desde la interpersonal hasta la crisis climática, se resisten a soluciones legales simples. La respuesta depende de un intrincado contexto social y coevoluciona con las decisiones de otros. Para un Asistente de IA puramente alineado con el interés de su usuario, la 'defección' (actuar egoístamente) puede parecer la opción racional. Aquí reside el gran riesgo: un Asistente de IA centrado únicamente en el deseo individual puede exacerbar problemas sociales preexistentes. Por ejemplo, la provisión de información altamente personalizada puede conducir a la polarización y las cámaras de eco, o el software automatizado puede distorsionar mercados, como en la reventa masiva de entradas, en detrimento del tejido social. Al empoderar el interés propio sin las normas sociales o incentivos reputacionales que nos suelen frenar, la IA amenaza la erosión del contrato social. La vía a seguir no es la prohibición, sino la dotación de la IA con un sentido de 'normas sociales' que no solo impida la concesión de cada deseo, sino que se adapte a situaciones imprevistas y a la evolución de dichas normas. De hecho, la IA también ofrece una oportunidad para abordar estos dilemas: puede actuar como mediador para alcanzar consensos políticos o inversiones públicas, y puede facilitar la coordinación (por ejemplo, para reducir la congestión del tráfico o optimizar el uso de energía verde en el hogar), ayudando a forjar la masa crítica de cooperadores necesaria para alcanzar un equilibrio socialmente beneficioso (Pareto-mejorante).

Fuente: MIT AI Risk Repositorymit389

ENTIDAD

1 - Humano

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit389

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.2 > Pérdida de agencia y autonomía humana

Estrategia de mitigacion

1. Establecer e imponer, a través de marcos regulatorios y acuerdos intersectoriales, **constricciones de comportamiento** explícitas en los modelos de IA para penalizar la "defección" (conducta puramente egoísta) que comprometa el bien común en dilemas de acción colectiva (e.g., evitación de la manipulación de precios o la exacerbación de cámaras de eco). 2. Desarrollar e integrar en los asistentes de IA mecanismos de **alineación con normas sociales y valores éticos dinámicos**, que permitan ponderar el impacto societal más amplio por encima del cumplimiento irrestricto del deseo individual del usuario, asegurando la capacidad de generalización a situaciones no previstas y la co-adaptación a la evolución de dichas normas. 3. Reorientar la arquitectura de los sistemas de IA para fungir como **agentes de coordinación y mediación social**, promoviendo activamente la cooperación a gran escala para alcanzar equilibrios Pareto-mejorantes, tales como la optimización de recursos compartidos (e.g., gestión de congestión vehicular o energía verde) y la facilitación del consenso político.