Volver al repositorio MIT
4. Actores Maliciosos y Mal Uso2 - Post-despliegue

Amplificación de ciberataques

Los modelos de Inteligencia Artificial de Propósito General (IAPG) poseen la capacidad de incrementar drásticamente la magnitud y la eficacia de los ciberataques, al amplificar las capacidades o los recursos preexistentes de los actores maliciosos. Este aumento de la amenaza se manifiesta a través de diversas aplicaciones específicas que incluyen: - El escaneo automatizado de bases de código abierto y binarios compilados para la identificación de vulnerabilidades potenciales. - La aplicación flexible y a gran escala de *exploits* conocidos; por ejemplo, al identificar equipos vulnerables basándose en señales sutiles en los tiempos de respuesta o en los formatos de salida. - La asistencia en múltiples fases de un ciberataque, abarcando planificación, reconocimiento, búsqueda de *exploits*, control remoto, implementación de *malware* y exfiltración de datos sensibles. - La combinación de técnicas de ingeniería social (*phishing*, *deepfakes*, etc.) con ciberataques a una escala masiva.

Fuente: MIT AI Risk Repositorymit1068

ENTIDAD

1 - Humano

INTENCIÓN

1 - Intencional

TIEMPO

2 - Post-despliegue

ID del riesgo

mit1068

Linea de dominio

4. Actores Maliciosos y Mal Uso

223 riesgos mapeados

4.2 > Ciberataques, desarrollo o uso de armas y daño masivo

Estrategia de mitigacion

Prioridad Alta: Implementación de Sistemas de Detección y Respuesta Autónoma Mejorados por IA Implementar plataformas de seguridad que utilicen algoritmos de Inteligencia Artificial (IA) para el análisis continuo de grandes volúmenes de datos, permitiendo la detección avanzada y sin firma de anomalías de comportamiento y la identificación de contenido sintético (*deepfakes*) en tiempo real. Esto debe complementarse con la automatización de la Orquestación, Automatización y Respuesta de Seguridad (SOAR) para contrarrestar la velocidad y escala exponencial de los ciberataques impulsados por modelos de IA de propósito general (GPAI). Prioridad Media: Adopción de una Arquitectura de Confianza Cero y Controles de Acceso Rigurosos Establecer una arquitectura de Confianza Cero (*Zero Trust*), asegurando que se verifiquen todos los accesos y transacciones. Esto incluye la aplicación obligatoria de autenticación multifactorial (MFA) y el despliegue de herramientas de Análisis del Comportamiento de Usuarios y Entidades (UEBA) para perfilar los patrones de comportamiento legítimos e identificar cualquier desviación anómala que pueda indicar un intento de explotación o suplantación de identidad (como el *phishing* mejorado por IA). Prioridad Baja: Capacitación Continua en Tácticas de Ingeniería Social Potenciadas por IA Desarrollar un programa de concientización y formación para el personal que integre simulaciones periódicas de ataques de ingeniería social de alta fidelidad, tales como el *phishing* y las comunicaciones generadas con *deepfakes*. El objetivo es entrenar la capacidad de discernimiento humano para reconocer las inconsistencias sutiles y las señales de alerta contextuales que las herramientas de IA utilizan para la suplantación masiva de identidad.