Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Riesgos de Mal Uso

No obstante, incluso si un modelo de IA es completamente fiable y digno de confianza, persisten los denominados Riesgos de Mal Uso o Riesgos Sistémicos. Los modelos de inteligencia artificial de propósito general pueden representar riesgos significativos para la sociedad si esta tecnología es empleada indebidamente por actores maliciosos con el fin de generar consecuencias perjudiciales. Específicamente, estos Riesgos de Mal Uso abarcan tres esferas críticas: el Ciberdelito, las Amenazas a la Bioseguridad y el Mal Uso con Motivación Política.

Fuente: MIT AI Risk Repositorymit748

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit748

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.0 > Uso malicioso

Estrategia de mitigacion

1. Desarrollo e implementación de controles de seguridad técnicos robustos (guardrails) durante las fases de entrenamiento y posdespliegue, incluyendo procesos rigurosos de red-teaming y filtrado de contenido para impedir activamente que el modelo genere código, información o instrucciones que faciliten ciberataques, la creación de amenazas a la bioseguridad o la manipulación a gran escala. 2. Establecimiento de mecanismos estrictos de gobernanza y control de acceso escalonado para modelos de IA de propósito general, especialmente aquellos con alta capacidad. Esto implica requerir la verificación de identidad (KYC) para el acceso a las APIs o los pesos del modelo, y aplicar una trazabilidad detallada sobre el uso para identificar y mitigar patrones de abuso en tiempo real. 3. Colaboración activa con organismos reguladores internacionales y nacionales, agencias de ciberseguridad y expertos en bioseguridad para el desarrollo de marcos legales y políticas que aborden específicamente el uso malicioso de la IA, y el compromiso de compartir información sobre vectores de ataque y vulnerabilidades identificadas.