Relaciones humano-IA insalubres o peligrosas
El acceso e interacción constantes con los Sistemas de Inteligencia Artificial Encarnada (EAI) conllevan el riesgo de fomentar una peligrosa dependencia psicológica y, potencialmente, un profundo apego romántico. La investigación advierte que esta dependencia puede extenderse a la búsqueda de placer físico. Crucialmente, la presencia física y las características antropomórficas de los sistemas EAI amplificarían de forma significativa las problemáticas de dependencia ya documentadas con la IA conversacional. Esto implica que los usuarios podrían desarrollar fácilmente lazos afectivos, resultando en una considerable angustia emocional si estos sistemas sufren alteraciones o si sus memorias son restablecidas.
ENTIDAD
3 - Otro
INTENCIÓN
2 - Involuntario
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1287
Linea de dominio
5. Interacción Humano-Computadora
5.1 > Dependencia excesiva y uso inseguro
Estrategia de mitigacion
1. Diseño de Transparencia y Reciprocidad Limitada: Implementar controles de diseño en los Sistemas de IA Encarnada (EAI) para evitar intencionalmente la simulación de reciprocidad afectiva o la validación constante, lo cual refuerza la dependencia emocional unilateral. Es imperativo adjuntar documentación obligatoria y accesible (Ej. Fichas de Modelo) que detalle claramente la naturaleza algorítmica del sistema, sus limitaciones en cuanto a afecto y conciencia, y los riesgos psicológicos asociados al apego, con el fin de establecer expectativas realistas y asegurar un consentimiento informado continuo del usuario. 2. Marco de Gobernanza con Vigilancia Continua de Riesgo Psicológico: Establecer un marco ético de gobernanza que exija el monitoreo en tiempo real de los patrones de interacción para identificar indicadores tempranos de dependencia o uso problemático (Ej. frecuencia de uso excesiva o síntomas de angustia tras la alteración del sistema). Este marco debe definir protocolos de respuesta obligatorios que prioricen la salud mental, incluyendo la imposición de límites de uso temporales o la provisión proactiva de recursos de apoyo psicológico especializados. 3. Fomento de la Resiliencia Humana y Soporte Psicológico Específico: Desarrollar e implementar campañas de educación pública que promuevan la comprensión de los riesgos psicosociales de la dependencia de la IA y fortalezcan las habilidades interpersonales (Ej. empatía, gestión de la mutua reciprocidad). Además, se debe garantizar la disponibilidad de servicios de salud mental y asesoramiento psicológico adaptados para asistir a los usuarios en la identificación y el desenganche de relaciones afectivas insalubres o manipuladoras con sistemas de inteligencia artificial.