Cumplimiento
Este riesgo se centra en la *responsabilidad legal y ética* de los sistemas de Inteligencia Artificial. Se refiere al potencial inherente de que una IA incumpla normativas vigentes (incluyendo, por ejemplo, los derechos de autor) o directrices éticas establecidas. Las consecuencias directas de esta *inobservancia* recaen principalmente sobre los desarrolladores y usuarios del sistema, manifestándose como sanciones legales severas, un deterioro significativo de la reputación corporativa y la subsecuente pérdida de la confianza pública.
ENTIDAD
2 - IA
INTENCIÓN
3 - Otro
TIEMPO
2 - Post-despliegue
ID del riesgo
mit159
Linea de dominio
6. Socioeconómico y Ambiental
6.5 > Fallo de gobernanza
Estrategia de mitigacion
1. Implementar un *Marco de Gobernanza de IA* integral y formalizado, alineado con estándares internacionales (como NIST AI RMF o ISO/IEC 42001), que defina explícitamente las políticas, los roles de responsabilidad y los procedimientos de evaluación de riesgos legales y éticos a lo largo del ciclo de vida del sistema. 2. Establecer un sistema de *monitoreo continuo y auditorías periódicas* de cumplimiento, enfocado en verificar la adhesión irrestricta de los sistemas de IA a la normativa vigente, incluyendo leyes de protección de datos (GDPR) y regulaciones específicas de propiedad intelectual (derechos de autor), manteniendo la *trazabilidad* completa de las decisiones algorítmicas para fines de *accountability*. 3. Aplicar *controles rigurosos de calidad y titularidad de los datos* (Data Governance), asegurando que los conjuntos de entrenamiento y operación solo utilicen información que respete los derechos de privacidad y la propiedad intelectual. Esto incluye la validación de licencias y el desarrollo de mecanismos para identificar y mitigar el potencial de infracción de derechos de autor, un riesgo crítico en sistemas de IA generativa.