Un deepfake è un contenuto multimediale (video, audio, foto) generato artificialmente che imita una persona reale. Il termine viene da "deep learning" + "fake".
Anni fa erano grossolani, riconoscibili a occhio. Nel 2026 alcuni deepfake sono praticamente indistinguibili dall'originale. Per audio, la qualità è già al livello "tua mamma non distingue".
Casi d'uso reali (purtroppo molti negativi):
- Truffe vocali: telefonata con voce clonata di un familiare che chiede soldi urgentemente. In Italia, casi documentati nel 2024-2025.
- Truffe aziendali: video deepfake di un CEO che ordina bonifici a dipendenti. Fatti veri, perdite di milioni.
- Disinformazione politica: fake news con video di leader che dicono cose mai dette.
- Pornografia non consensuale: il caso d'uso più grande e disgustoso, specialmente contro minori. Reato in molti paesi, Italia inclusa.
- Bullismo: studenti che generano deepfake di compagni di scuola.
Strumenti che generano deepfake:
- ElevenLabs, Cartesia: voice cloning di altissima qualità.
- HeyGen, Synthesia: video con avatar parlanti.
- DeepFaceLab, Faceswap: open source, video face swap.
- Sora, Runway, Kling: text-to-video che può imitare persone.
Difese:
- Cultura della verifica: prima di credere, conferma da fonte indipendente. Per chiamate urgenti familiari, richiama tu il numero noto.
- Watermarking: alcuni servizi inseriscono firme nei file generati. Imperfetto.
- Detection AI: strumenti per riconoscere deepfake. Funzionano, ma è una corsa al rialzo.
- Codici di sicurezza familiari: parola d'ordine concordata per chiamate "vere".
Quadro legale italiano: in evoluzione. AI Act EU richiede etichettatura. Codice penale italiano già copre molti casi (truffa, sostituzione di persona, diffamazione).
Articolo dedicato in arrivo: come riconoscere un deepfake e cosa fare se sei vittima.