Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Tecnologías Biológicas y Químicas Peligrosas

Sistemas de Inteligencia Artificial avanzados, tales como los Grandes Modelos de Lenguaje (LLMs) y sus versiones especializadas para química y biología, han generado preocupación debido a su potencial para facilitar la creación de armas biológicas, armas químicas y otras tecnologías consideradas peligrosas. El riesgo tiene una doble vertiente: por un lado, los LLMs podrían "democratizar" el acceso a la síntesis de patógenos, permitiendo que individuos con poca experiencia logren avances. De hecho, estudios iniciales (Gopal et al., Soice et al.) demostraron que personas con formación limitada podían utilizarlos para progresar en el desarrollo de amenazas como la cepa de la gripe pandémica de 1918. Por otro lado, herramientas de diseño biológico y químico personalizadas podrían aumentar la capacidad y sofisticación de actores estatales o entidades ya altamente capacitadas. Sin embargo, es crucial notar que investigaciones más recientes (Mouton et al., Patwardhan et al.) han matizado estas alertas, sugiriendo que las capacidades actuales de los LLMs en este contexto no superan la información ya accesible mediante una búsqueda estándar en internet.

Fuente: MIT AI Risk Repositorymit1346

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1346

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

1. Implementar un control de acceso estricto y salvaguardas de alineación conductual (guardarraíles de entrada y salida) en Modelos de Lenguaje Grande (LLMs) y Herramientas Biológicas Habilitadas por IA (BTs) de alta capacidad para prevenir la elusión de restricciones, la extracción de conocimientos peligrosos y la generación de protocolos de armas biológicas o químicas. Esto incluye restringir el acceso a expertos verificados para las capacidades más sensibles. 2. Fortalecer la bioseguridad en la cadena de suministro de síntesis de ácidos nucleicos mediante la obligatoriedad de sistemas de cribado estandarizados y asistidos por IA. Estos sistemas deben ser capaces de identificar y denegar órdenes de secuencias biológicas que puedan generar no solo agentes conocidos, sino también *nuevos* patógenos o toxinas diseñados por IA, superando la limitación de las listas estáticas de agentes regulados. 3. Exigir evaluaciones rigurosas y estandarizadas de bioseguridad (incluyendo ejercicios de *red-teaming* y evaluaciones patógeno-agnósticas) para modelos de IA que muestren capacidades de doble uso en el dominio biológico/químico. Estas evaluaciones deben priorizar los riesgos de alta consecuencia, como el potencial de facilitar la creación de una pandemia, y deben realizarse antes del despliegue público del modelo. 4. Aplicar técnicas de desaprendizaje (unlearning) y "ring-fencing" para eliminar o aislar de los modelos el conocimiento explícito sobre la adquisición, formulación y liberación de agentes letales, asegurando al mismo tiempo la preservación de las capacidades beneficiosas para la investigación.