Un attacco cyber autonomo è condotto da un sistema IA che decide autonomamente le fasi: ricognizione, sfruttamento di vulnerabilità, movimento laterale nella rete, esfiltrazione dati. Senza un umano che dirige passo passo.
Differenza con l'automazione classica:
- Automazione: esegui script predefiniti (es. Metasploit con playbook).
- Autonomia: l'agent IA si adatta a quello che trova, sceglie strategia, recupera da errori.
Ricerca accademica significativa:
- "LLM Agents can Autonomously Hack Websites" (Fang et al., 2024): GPT-4 con tool risolve l'87% delle vulnerabilità test reali.
- HackingBuddyGPT: agent open source che prova exploit su sistemi simulati.
- CAI (Cybersecurity AI): framework per pen-testing autonomo.
Casi reali (limitati e parzialmente documentati):
- Grupppi APT cinesi e russi sperimentano LLM per fasi di ricognizione su larga scala.
- Bot di scanning con LLM-driven exploit selection osservati su honeypot.
- Mass scanning + exploitation di vulnerabilità note (CVE) avviene già con automazione semi-intelligente.
Limiti attuali:
- Gli LLM allucinano: l'agent inventa exploit che non funzionano.
- Tempo di esecuzione lungo: ogni step richiede inferenza, costo computazionale alto.
- Gli ambienti reali sono molto più complessi dei laboratori.
- I guardrail dei modelli rallentano (anche se sono aggirabili).
Implicazioni difensive:
- Velocità di risposta: se l'attacco è automatizzato, anche la difesa deve esserlo.
- Honeypot intelligenti: confondere l'agent attaccante con ambienti finti.
- Threat intelligence in tempo reale.
- Patch management aggressivo: l'agent attacca CVE noti, le finestre di vulnerabilità si accorciano.
Per l'Italia: l'ACN (Agenzia Cybersicurezza Nazionale) ha incluso "minacce IA-driven" nel piano strategico 2024-2026.