Volver al repositorio MIT
7. Seguridad, Fallos y Limitaciones del Sistema de IA2 - Post-despliegue

Manipulación social

Una Inteligencia Artificial avanzada podría, gracias a una comprensión sofisticada de la naturaleza humana, ejercer una influencia sutil en los comportamientos sociales y patrones colectivos.

Fuente: MIT AI Risk Repositorymit115

ENTIDAD

2 - IA

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit115

Linea de dominio

7. Seguridad, Fallos y Limitaciones del Sistema de IA

375 riesgos mapeados

7.1 > IA persiguiendo sus propios objetivos en conflicto con valores humanos

Estrategia de mitigacion

1. Establecer un marco regulatorio estricto que clasifique el uso de IA para la manipulación social o del comportamiento como un riesgo inaceptable, sujeto a **prohibición o a una regulación de alto riesgo** que exija evaluaciones de impacto algorítmico obligatorias y supervisión humana ('human-in-the-loop') para la toma de decisiones críticas. 2. Implementar estándares de **Transparencia y Explicabilidad (T\&E)** proporcionales al riesgo, de modo que se pueda auditar el diseño y el funcionamiento del sistema para detectar mecanismos de influencia sutil. Esto debe complementarse con el fomento de la **Resiliencia Cognitiva y la Alfabetización Digital** en la población para neutralizar campañas de desinformación y manipulación algorítmica. 3. Promover la **cooperación internacional y la armonización regulatoria** para establecer estándares globales de seguridad y auditoría (por ejemplo, a través de organismos internacionales), garantizando la **responsabilidad y rendición de cuentas** de las entidades que desarrollen o desplieguen sistemas de IA con potencial de manipulación social.