Attacco Cyber Autonomo

Attacco condotto da un agent IA senza supervisione umana continua: reconnaissance, exploit, lateral movement, esfiltrazione. Da scenari accademici 2023 a documentazione reale 2024-2025.

Un attacco cyber autonomo è condotto da un sistema IA che decide autonomamente le fasi: ricognizione, sfruttamento di vulnerabilità, movimento laterale nella rete, esfiltrazione dati. Senza un umano che dirige passo passo.

Differenza con l'automazione classica:

  • Automazione: esegui script predefiniti (es. Metasploit con playbook).
  • Autonomia: l'agent IA si adatta a quello che trova, sceglie strategia, recupera da errori.

Ricerca accademica significativa:

  • "LLM Agents can Autonomously Hack Websites" (Fang et al., 2024): GPT-4 con tool risolve l'87% delle vulnerabilità test reali.
  • HackingBuddyGPT: agent open source che prova exploit su sistemi simulati.
  • CAI (Cybersecurity AI): framework per pen-testing autonomo.

Casi reali (limitati e parzialmente documentati):

  • Grupppi APT cinesi e russi sperimentano LLM per fasi di ricognizione su larga scala.
  • Bot di scanning con LLM-driven exploit selection osservati su honeypot.
  • Mass scanning + exploitation di vulnerabilità note (CVE) avviene già con automazione semi-intelligente.

Limiti attuali:

  • Gli LLM allucinano: l'agent inventa exploit che non funzionano.
  • Tempo di esecuzione lungo: ogni step richiede inferenza, costo computazionale alto.
  • Gli ambienti reali sono molto più complessi dei laboratori.
  • I guardrail dei modelli rallentano (anche se sono aggirabili).

Implicazioni difensive:

  • Velocità di risposta: se l'attacco è automatizzato, anche la difesa deve esserlo.
  • Honeypot intelligenti: confondere l'agent attaccante con ambienti finti.
  • Threat intelligence in tempo reale.
  • Patch management aggressivo: l'agent attacca CVE noti, le finestre di vulnerabilità si accorciano.

Per l'Italia: l'ACN (Agenzia Cybersicurezza Nazionale) ha incluso "minacce IA-driven" nel piano strategico 2024-2026.