Riesgos de acceso futuros
Actualmente, los asistentes de Inteligencia Artificial se limitan a un conjunto de tareas aisladas: clasifican contenido con reglas predefinidas o ejecutan diálogos con estrictas barreras de contención. No obstante, la transición a un agente artificial con 'autonomía significativa para planificar y ejecutar tareas' en nombre del usuario representa una profundización radical en sus capacidades. Esta autonomía proyecta una serie de riesgos de acceso interconectados (relativos a responsabilidad y consentimiento) que podrían agravar las desigualdades. En primer lugar, si ciertas acciones vitales solo son ejecutables a través de un asistente avanzado —por ejemplo, para gestionar citas hospitalarias o servicios de telecomunicaciones—, la falta de acceso a la tecnología (por una barrera lingüística, conectividad limitada o un muro de pago) se convierte en una barrera de exclusión, negando el acceso a esa acción. En segundo lugar, se presenta el riesgo de un rendimiento inequitativo. Un asistente diseñado para actuar en nombre del usuario debe inferir sus deseos a partir de sus preferencias y comportamientos. Si la brecha cultural es amplia entre los desarrolladores, los datos de entrenamiento y la experiencia del usuario final, la capacidad del sistema para realizar inferencias fiables se reduce drásticamente. Esta 'brecha de inferencia' incrementa la probabilidad de fallos de rendimiento y de una 'desalineación de valores'. Históricamente, los perjuicios derivados de estos sesgos o imprecisiones en el diseño tecnológico recaen desproporcionadamente sobre las comunidades ya marginadas.
ENTIDAD
3 - Otro
INTENCIÓN
3 - Otro
TIEMPO
3 - Otro
ID del riesgo
mit395
Linea de dominio
6. Socioeconómico y Ambiental
6.1 > Centralización del poder y distribución injusta de beneficios
Estrategia de mitigacion
1. Implementar políticas de gobernanza de datos que exijan la auditoría, curación y diversificación de los conjuntos de entrenamiento, con el fin de eliminar sesgos algorítmicos y asegurar la paridad de rendimiento (equidad) en todos los grupos culturales y sociodemográficos, mitigando la "brecha de inferencia" en la interpretación de las intenciones del usuario. 2. Establecer un requisito regulatorio que obligue a los proveedores de servicios esenciales (salud, telecomunicaciones, etc.) a mantener y promover activamente alternativas de interacción humana o canales de acceso no-mediados por IA para los usuarios que enfrentan barreras tecnológicas, lingüísticas o económicas, previniendo la exclusión de servicios vitales. 3. Desarrollar e implementar un sistema de monitoreo y auditoría cultural continua (p. ej., empleando técnicas como el "cultural prompting" y evaluaciones desagregadas) para medir el alineamiento de valores del asistente con las preferencias y normas culturales del usuario final, asegurando que la tecnología no contribuya a la homogeneización cultural o a la ineficacia para comunidades específicas.