Volver al repositorio MIT
6. Socioeconómico y Ambiental2 - Post-despliegue

Riesgos de acceso emergentes

Los riesgos de acceso emergentes, que surgen al combinar capacidades tecnológicas actuales y novedosas, son difíciles de anticipar por completo debido a la novedad de la tecnología y a los sesgos inherentes a los procesos de diseño y previsión. De hecho, las personas en posiciones sociales o económicas privilegiadas suelen estar menos capacitadas para prever y prevenir estos daños, ya que su experiencia vital está desconectada de las comunidades afectadas. A partir de las preocupaciones de acceso en torno a las tecnologías existentes, se anticipan tres tendencias principales con la llegada de asistentes de IA avanzados: * **Tendencia 1: La tecnología como infraestructura social.** Si los asistentes avanzados de IA son adoptados por gobiernos u organizaciones en ámbitos cruciales para el bienestar, la capacidad de "excluirse" de su uso podría desaparecer para participar significativamente en la sociedad. Esto plantea serias consecuencias para quienes carecen de acceso o solo disponen de sistemas inferiores. Un ejemplo es el riesgo de que estos asistentes controlen el acceso a recursos, volviéndolos inaccesibles para personas con conocimiento limitado sobre su uso, reflejando así la dimensión de la "habilidad" en la desigualdad digital. * **Tendencia 2: Exacerbación de las desigualdades socioeconómicas.** Las tecnologías están incrustadas en estructuras sociopolíticas más amplias. Si estos asistentes se adoptan a gran escala sin una previsión y mitigación adecuadas, es probable que amplifiquen las desigualdades existentes en el contexto sociocultural de su uso. Históricamente, las disparidades de rendimiento en los sistemas de IA han tendido a reflejar y perpetuar jerarquías sociales de género, raza, discapacidad y cultura, asimetrías que requieren una profunda corrección. * **Tendencia 3: Urgencia en prácticas de desarrollo y despliegue de IA responsable.** Se hace imperativo desarrollar tecnologías que funcionen con equidad y rindan cuentas ante un amplio espectro de partes interesadas. Aunque lograr la rendición de cuentas y la equidad mejora directamente las condiciones sociales, muchos enfoques actuales de IA prestan poca atención a cómo el contexto define estos conceptos o a cómo aplicarlos para mitigar desigualdades relacionadas con el acceso motivacional (la confianza o el deseo de usar la tecnología) o las diferentes formas de uso. Dada la complejidad de los asistentes avanzados de IA, se necesitarán nuevos marcos y tácticas, ya que las prácticas sociotécnicas existentes se diseñaron para tecnologías de Machine Learning más convencionales.

Fuente: MIT AI Risk Repositorymit396

ENTIDAD

1 - Humano

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit396

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.1 > Centralización del poder y distribución injusta de beneficios

Estrategia de mitigacion

1. Implementar un Marco de Gobernanza de IA Responsable con una función de previsión proactiva, obligatorio antes de la institucionalización y el despliegue masivo. El objetivo es identificar y prevenir la exacerbación de las desigualdades socioeconómicas y las asimetrías de poder preexistentes (e.g., género, raza, discapacidad). 2. Establecer criterios de diseño y accesibilidad que aborden las múltiples dimensiones de la desigualdad digital (habilidad, motivación y uso). Esto asegurará que la participación significativa en la sociedad no dependa exclusivamente de tener acceso o conocimiento experto sobre los asistentes avanzados de IA. 3. Desarrollar y aplicar mecanismos de rendición de cuentas (accountability) contextualmente adaptados que permitan la evaluación continua del impacto social y la equidad del sistema. Se debe trascender la aplicación de prácticas convencionales de Machine Learning (ML) y crear nuevas tácticas para la complejidad de los asistentes avanzados.