Volver al repositorio MIT
6. Socioeconómico y Ambiental3 - Otro

Riesgos de acceso futuros

Actualmente, los asistentes de Inteligencia Artificial se limitan a un conjunto de tareas aisladas: clasifican contenido con reglas predefinidas o ejecutan diálogos con estrictas barreras de contención. No obstante, la transición a un agente artificial con 'autonomía significativa para planificar y ejecutar tareas' en nombre del usuario representa una profundización radical en sus capacidades. Esta autonomía proyecta una serie de riesgos de acceso interconectados (relativos a responsabilidad y consentimiento) que podrían agravar las desigualdades. En primer lugar, si ciertas acciones vitales solo son ejecutables a través de un asistente avanzado —por ejemplo, para gestionar citas hospitalarias o servicios de telecomunicaciones—, la falta de acceso a la tecnología (por una barrera lingüística, conectividad limitada o un muro de pago) se convierte en una barrera de exclusión, negando el acceso a esa acción. En segundo lugar, se presenta el riesgo de un rendimiento inequitativo. Un asistente diseñado para actuar en nombre del usuario debe inferir sus deseos a partir de sus preferencias y comportamientos. Si la brecha cultural es amplia entre los desarrolladores, los datos de entrenamiento y la experiencia del usuario final, la capacidad del sistema para realizar inferencias fiables se reduce drásticamente. Esta 'brecha de inferencia' incrementa la probabilidad de fallos de rendimiento y de una 'desalineación de valores'. Históricamente, los perjuicios derivados de estos sesgos o imprecisiones en el diseño tecnológico recaen desproporcionadamente sobre las comunidades ya marginadas.

Fuente: MIT AI Risk Repositorymit395

ENTIDAD

3 - Otro

INTENCIÓN

3 - Otro

TIEMPO

3 - Otro

ID del riesgo

mit395

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.1 > Centralización del poder y distribución injusta de beneficios

Estrategia de mitigacion

1. Implementar políticas de gobernanza de datos que exijan la auditoría, curación y diversificación de los conjuntos de entrenamiento, con el fin de eliminar sesgos algorítmicos y asegurar la paridad de rendimiento (equidad) en todos los grupos culturales y sociodemográficos, mitigando la "brecha de inferencia" en la interpretación de las intenciones del usuario. 2. Establecer un requisito regulatorio que obligue a los proveedores de servicios esenciales (salud, telecomunicaciones, etc.) a mantener y promover activamente alternativas de interacción humana o canales de acceso no-mediados por IA para los usuarios que enfrentan barreras tecnológicas, lingüísticas o económicas, previniendo la exclusión de servicios vitales. 3. Desarrollar e implementar un sistema de monitoreo y auditoría cultural continua (p. ej., empleando técnicas como el "cultural prompting" y evaluaciones desagregadas) para medir el alineamiento de valores del asistente con las preferencias y normas culturales del usuario final, asegurando que la tecnología no contribuya a la homogeneización cultural o a la ineficacia para comunidades específicas.