Volver al repositorio MIT
6. Socioeconómico y Ambiental2 - Post-despliegue

Cumplimiento

Este riesgo se centra en la *responsabilidad legal y ética* de los sistemas de Inteligencia Artificial. Se refiere al potencial inherente de que una IA incumpla normativas vigentes (incluyendo, por ejemplo, los derechos de autor) o directrices éticas establecidas. Las consecuencias directas de esta *inobservancia* recaen principalmente sobre los desarrolladores y usuarios del sistema, manifestándose como sanciones legales severas, un deterioro significativo de la reputación corporativa y la subsecuente pérdida de la confianza pública.

Fuente: MIT AI Risk Repositorymit159

ENTIDAD

2 - IA

INTENCIÓN

3 - Otro

TIEMPO

2 - Post-despliegue

ID del riesgo

mit159

Linea de dominio

6. Socioeconómico y Ambiental

262 riesgos mapeados

6.5 > Fallo de gobernanza

Estrategia de mitigacion

1. Implementar un *Marco de Gobernanza de IA* integral y formalizado, alineado con estándares internacionales (como NIST AI RMF o ISO/IEC 42001), que defina explícitamente las políticas, los roles de responsabilidad y los procedimientos de evaluación de riesgos legales y éticos a lo largo del ciclo de vida del sistema. 2. Establecer un sistema de *monitoreo continuo y auditorías periódicas* de cumplimiento, enfocado en verificar la adhesión irrestricta de los sistemas de IA a la normativa vigente, incluyendo leyes de protección de datos (GDPR) y regulaciones específicas de propiedad intelectual (derechos de autor), manteniendo la *trazabilidad* completa de las decisiones algorítmicas para fines de *accountability*. 3. Aplicar *controles rigurosos de calidad y titularidad de los datos* (Data Governance), asegurando que los conjuntos de entrenamiento y operación solo utilicen información que respete los derechos de privacidad y la propiedad intelectual. Esto incluye la validación de licencias y el desarrollo de mecanismos para identificar y mitigar el potencial de infracción de derechos de autor, un riesgo crítico en sistemas de IA generativa.