Hong Kong, gennaio 2024. Un dipendente del back office di Arup, gigante britannico dell’ingegneria (quello che ha progettato l’Opera House di Sydney), riceve un’email dal CFO inglese: trasferimento confidenziale, urgente. Sospetto, ma viene invitato a una videocall. In call ci sono CFO e altri colleghi che riconosce. Voci giuste, facce giuste. Esegue il bonifico. 25,6 milioni di dollari spariti in 15 transazioni. Erano tutti deepfake. La conferma arriva da Arup stessa via Financial Times mesi dopo. È il caso più eclatante, ma è solo la punta dell’iceberg.
Come funziona l’attacco
Il CEO fraud classico (BEC, Business Email Compromise) costava al mondo 50 miliardi tra 2013 e 2023 secondo l’FBI. Il deepfake lo ha potenziato.
- Raccolta materiale: 30 secondi di voce e 10 minuti di video del target bastano. Fonti: keynote pubblici, podcast, intervista LinkedIn Live, video aziendali.
- Generazione real-time: tool come DeepFaceLive, Avatarify, e nel 2025-2026 modelli commerciali tipo Synthesia e HeyGen, permettono live face-swap durante videocall.
- Voice cloning: ElevenLabs, Resemble, OpenAI Voice Engine. Da 11 secondi di sample a clone funzionante.
- Social engineering classico sopra: urgenza, riservatezza, gerarchia, deviazione dai processi normali.
Casi reali documentati
- Arup, Hong Kong (gennaio 2024): 25,6 milioni dollari, deepfake video multi-partecipante. Confermato pubblicamente.
- Energy firm UK (2019): 220.000 euro persi via voice clone del CEO tedesco. Primo caso pubblico di voice deepfake fraud, riportato dal Wall Street Journal.
- WPP (maggio 2024): tentato deepfake del CEO Mark Read in videocall WhatsApp. Sventato grazie a domande di verifica.
- Ferrari (luglio 2024): tentato voice clone del CEO Benedetto Vigna. Sventato perché il dirigente target ha chiesto il titolo del libro che Vigna gli aveva consigliato giorni prima.
Difesa tecnica
- Detection software: tool come Reality Defender, Pindrop per voce, Microsoft Video Authenticator. Utili come secondo livello, non come unica difesa: i generatori migliorano più veloce dei detector.
- Liveness check su videocall: chiedi al partecipante di girare la testa di 90 gradi, di mettere una mano davanti al volto. I deepfake real-time crollano su questi gesti.
- Out-of-band verification: secondo canale obbligatorio. Il CFO ha chiesto un bonifico in videocall? Tu lo richiami su numero noto a memoria, non su numero che ti dà lui.
- Codeword pre-condivise per transazioni sopra soglia. Banale, funziona.
- Watermarking C2PA sui contenuti aziendali ufficiali (Adobe, Microsoft, BBC stanno adottando). Se un video del CEO non ha firma C2PA, sospetto.
Difesa organizzativa
Tecnologia da sola non basta, anzi il caso Arup lo dimostra: c’era detection software, è saltata la procedura.
- Soglia di doppia firma per bonifici sopra X euro, sempre, anche con CEO in linea.
- Process freeze: nessuna emergenza giustifica saltare il processo. Se c’è emergenza, il processo è fatto male, lo aggiorni dopo.
- Training annuale con esempi deepfake reali, non slide del 2018 con phishing email scritte male in inglese.
- Reporting senza colpa: il dipendente che dubita deve poter chiamare il CEO senza essere sgridato. La cultura del «non rompere» uccide la sicurezza.
- Conformità AI Act art. 50: i contenuti generati IA in contesti aziendali devono essere marcati. Aiuta anche la chain-of-custody interna.
Cosa NON fare
- Non basarti sul riconoscimento visivo o vocale come unico fattore. Il tuo cervello è battibile.
- Non considerare WhatsApp o Telegram canale autenticato per disposizioni economiche. Sono canali instradabili.
- Non assumere che il CEO non possa essere clonato perché «non è famoso». 30 secondi di voce sono ovunque.
- Non fare training una volta sola. Refresh trimestrali, simulazioni, debrief.
Il caso Arup è un manuale di scuola: detection ha fallito, processo ha fallito, cultura ha fallito. 25 milioni in 15 bonifici. La buona notizia: difese semplici (codeword, callback, doppia firma) battono attacchi sofisticati. La cattiva: devi metterle in pratica oggi, non quando qualcuno ti chiama via Zoom dicendo che è il CFO.