Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Dual Use Science risks

Los sistemas avanzados de Inteligencia Artificial (IA de frontera) poseen la capacidad de impulsar una aceleración sin precedentes en las ciencias de la vida, desde la capacitación de investigadores noveles hasta la optimización de los flujos de trabajo científicos. Si bien estas innovaciones prometen beneficios transformadores, inherente a esta potencia reside un riesgo significativo: el potencial de que dichas herramientas sean desviadas para propósitos maliciosos, como la facilitación o el desarrollo de armamento biológico o químico.

Fuente: MIT AI Risk Repositorymit1248

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1248

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

1. Integrar un marco de gestión de riesgos de doble uso, alineado con estándares internacionales (e.g., NIST AI RMF), desde las fases tempranas del ciclo de vida de desarrollo de modelos de IA, con especial énfasis en la documentación de un *Dual-Use Risk Register* que mapee las funcionalidades específicas a su potencial de uso malicioso. 2. Implementar salvaguardas técnicas *in-silico* para controlar el acceso y la funcionalidad de los modelos. Esto incluye el desarrollo de sistemas estandarizados y habilitados por IA para el cribado de secuencias de ácidos nucleicos y el despliegue de marcos de detección de medios sintéticos que prevengan el diseño o la adquisición de agentes biológicos o químicos dañinos. 3. Instituir un mecanismo de monitoreo continuo y evaluación adaptativa de las contramedidas. Este proceso debe rastrear la eficacia de las estrategias de detección y mitigación implementadas, utilizando los hallazgos para refinar iterativamente las políticas y los controles operacionales frente a la evolución de las amenazas.