Volver al repositorio MIT
5. Interacción Humano-Computadora2 - Post-despliegue

Relaciones humano-IA insalubres o peligrosas

El acceso e interacción constantes con los Sistemas de Inteligencia Artificial Encarnada (EAI) conllevan el riesgo de fomentar una peligrosa dependencia psicológica y, potencialmente, un profundo apego romántico. La investigación advierte que esta dependencia puede extenderse a la búsqueda de placer físico. Crucialmente, la presencia física y las características antropomórficas de los sistemas EAI amplificarían de forma significativa las problemáticas de dependencia ya documentadas con la IA conversacional. Esto implica que los usuarios podrían desarrollar fácilmente lazos afectivos, resultando en una considerable angustia emocional si estos sistemas sufren alteraciones o si sus memorias son restablecidas.

Fuente: MIT AI Risk Repositorymit1287

ENTIDAD

3 - Otro

INTENCIÓN

2 - Involuntario

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1287

Linea de dominio

5. Interacción Humano-Computadora

92 riesgos mapeados

5.1 > Dependencia excesiva y uso inseguro

Estrategia de mitigacion

1. Diseño de Transparencia y Reciprocidad Limitada: Implementar controles de diseño en los Sistemas de IA Encarnada (EAI) para evitar intencionalmente la simulación de reciprocidad afectiva o la validación constante, lo cual refuerza la dependencia emocional unilateral. Es imperativo adjuntar documentación obligatoria y accesible (Ej. Fichas de Modelo) que detalle claramente la naturaleza algorítmica del sistema, sus limitaciones en cuanto a afecto y conciencia, y los riesgos psicológicos asociados al apego, con el fin de establecer expectativas realistas y asegurar un consentimiento informado continuo del usuario. 2. Marco de Gobernanza con Vigilancia Continua de Riesgo Psicológico: Establecer un marco ético de gobernanza que exija el monitoreo en tiempo real de los patrones de interacción para identificar indicadores tempranos de dependencia o uso problemático (Ej. frecuencia de uso excesiva o síntomas de angustia tras la alteración del sistema). Este marco debe definir protocolos de respuesta obligatorios que prioricen la salud mental, incluyendo la imposición de límites de uso temporales o la provisión proactiva de recursos de apoyo psicológico especializados. 3. Fomento de la Resiliencia Humana y Soporte Psicológico Específico: Desarrollar e implementar campañas de educación pública que promuevan la comprensión de los riesgos psicosociales de la dependencia de la IA y fortalezcan las habilidades interpersonales (Ej. empatía, gestión de la mutua reciprocidad). Además, se debe garantizar la disponibilidad de servicios de salud mental y asesoramiento psicológico adaptados para asistir a los usuarios en la identificación y el desenganche de relaciones afectivas insalubres o manipuladoras con sistemas de inteligencia artificial.