Descubrimiento y explotación automatizada de sistemas de software
Los sistemas de Inteligencia Artificial de Propósito General (IAPG) se consolidan como una herramienta de doble filo al poder facilitar el descubrimiento automatizado de vulnerabilidades en el *software*. Este potencial de automatización representa una amplificación significativa en las capacidades ofensivas de los actores maliciosos, confiriéndoles una eficiencia sin precedentes en sus ciberataques y, consecuentemente, elevando su potencial destructivo. Esta tecnología les permite expandir la escala de sus operaciones con un coste marginalmente bajo, lo que incrementa notablemente la magnitud de las amenazas. El riesgo se materializa en la posibilidad de generar nuevo *malware* de forma autónoma o de explotar vulnerabilidades ya conocidas para orquestar ataques de una sofisticación muy superior.
ENTIDAD
1 - Humano
INTENCIÓN
1 - Intencional
TIEMPO
2 - Post-despliegue
ID del riesgo
mit1067
Linea de dominio
4. Actores Maliciosos y Mal Uso
4.2 > Ciberataques, desarrollo o uso de armas y daño masivo
Estrategia de mitigacion
1. Priorizar la implementación de Sistemas de Detección y Prevención de Intrusiones (IDPS) potenciados por Inteligencia Artificial, que empleen algoritmos de *Machine Learning* para el análisis del tráfico de red y patrones de comportamiento. Esto permite la identificación y contención autónoma de ciberataques de alta velocidad y adaptación, superando las limitaciones de los métodos de detección basados en firmas. 2. Instituir un programa de Gestión de Vulnerabilidades y Aplicación de Parches (Patching) basado en el riesgo, con énfasis en la automatización del descubrimiento y la corrección de fallos de *software* de manera continua. Dicha estrategia busca reducir proactivamente la superficie de ataque y minimizar la ventana de oportunidad para la explotación automatizada de vulnerabilidades por parte de los GPAI. 3. Desarrollar y desplegar soluciones avanzadas de Análisis de Comportamiento de Usuarios y Entidades (UEBA), utilizando modelos de *Deep Learning* para establecer líneas base de comportamiento normal. El objetivo es alertar sobre anomalías sutiles en los patrones de acceso, comunicación o actividad del sistema, que podrían indicar la amplificación de ataques de ingeniería social o *phishing* asistidos por IA.