Arraigo y exacerbación de desigualdades existentes
Los riesgos más graves relacionados con el acceso que plantean los asistentes de IA avanzados se centran en el arraigo y la exacerbación de las desigualdades ya existentes (Base de Datos de Desigualdad Mundial) o en la creación de inequidades totalmente nuevas y previamente desconocidas. Aunque los asistentes de IA avanzados son una tecnología novedosa en ciertos aspectos, hay motivos para creer que –sin intervenciones de diseño directas– seguirán afectados por las inequidades evidentes en los sistemas de IA actuales (Bommasani et al., 2022a). Muchos de los riesgos de acceso que anticipamos reflejan aquellos descritos en estudios de caso sobre los tipos de acceso diferencial. En esta sección, los vinculamos más estrechamente a los elementos que definen a un asistente de IA avanzado para mejorar la comprensión y mitigar problemas potenciales, y así sentar las bases para asistentes que apoyen una oportunidad y un acceso amplios e inclusivos. Comenzamos con las capacidades ya existentes establecidas en la definición (ver Capítulo 2) antes de aplicar la prospectiva a aquellas más novedosas y emergentes. Capacidades actuales: Agentes artificiales con interfaces de lenguaje natural. Los agentes artificiales con interfaces de lenguaje natural están muy extendidos (Browne, 2023) y se integran cada vez más en el tejido social y la infraestructura de información existente, incluyendo motores de búsqueda (Warren, 2023), aplicaciones de mensajería empresarial (Slack, 2023), herramientas de investigación (ATLAS.ti, 2023) y aplicaciones de accesibilidad para personas ciegas o con baja visión (Be My Eyes, 2023). Ya existe evidencia de una variedad de daños sociotécnicos que pueden surgir del uso de agentes artificiales con interfaces de lenguaje natural cuando algunas comunidades experimentan un acceso inferior a ellos (Weidinger et al., 2021). Como se describió previamente, estos daños incluyen una calidad de acceso inferior (en el tipo de situación 2) entre grupos de usuarios, lo cual puede reflejar dinámicas sociales más amplias que involucran la raza (Harrington et al., 2022), la discapacidad (Gadiraju et al., 2023) y la cultura (Jenka, 2023). A medida que los desarrolladores facilitan la integración de estas tecnologías en otras herramientas, servicios y sistemas de toma de decisiones (por ejemplo, Marr, 2023; Brockman et al., 2023; Pinsky, 2023), su adopción podría acentuar las inequidades de rendimiento existentes o introducirlas a públicos nuevos y más amplios.
ENTIDAD
1 - Humano
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit393
Linea de dominio
6. Socioeconómico y Ambiental
6.1 > Centralización del poder y distribución injusta de beneficios
Estrategia de mitigacion
1. Implementar marcos rigurosos de Diseño Inclusivo y Ético (D.I.E.) desde la fase de conceptualización, exigiendo la diversificación y representación de los conjuntos de datos de entrenamiento y la aplicación de análisis de impacto con perspectiva de género, discapacidad y cultural para mitigar sesgos algorítmicos y de rendimiento. 2. Establecer políticas públicas y estrategias corporativas que prioricen la inclusión digital universal, lo que implica garantizar el acceso a infraestructura de banda ancha asequible, promover la formación en competencias digitales básicas y desarrollar soluciones de IA con personalización adaptativa que satisfagan activamente las necesidades de accesibilidad de usuarios con diversas capacidades (p. ej., cognitiva, visual, motriz). 3. Desarrollar e implementar marcos de Gobernanza de la IA (AI Governance frameworks) con carácter regulatorio que establezcan la transparencia, la explicabilidad y la rendición de cuentas como principios obligatorios, permitiendo la monitorización y auditoría continua de los sistemas post-despliegue para detectar y corregir proactivamente las desviaciones o inequidades en el desempeño entre diferentes grupos de usuarios.