Deepfake

[diip-feik]

Video, audio o immagini falsi generati con IA che imitano persone reali. Truffe vocali, scam, disinformazione politica: il fenomeno è esploso.

Un deepfake è un contenuto multimediale (video, audio, foto) generato artificialmente che imita una persona reale. Il termine viene da "deep learning" + "fake".

Anni fa erano grossolani, riconoscibili a occhio. Nel 2026 alcuni deepfake sono praticamente indistinguibili dall'originale. Per audio, la qualità è già al livello "tua mamma non distingue".

Casi d'uso reali (purtroppo molti negativi):

  • Truffe vocali: telefonata con voce clonata di un familiare che chiede soldi urgentemente. In Italia, casi documentati nel 2024-2025.
  • Truffe aziendali: video deepfake di un CEO che ordina bonifici a dipendenti. Fatti veri, perdite di milioni.
  • Disinformazione politica: fake news con video di leader che dicono cose mai dette.
  • Pornografia non consensuale: il caso d'uso più grande e disgustoso, specialmente contro minori. Reato in molti paesi, Italia inclusa.
  • Bullismo: studenti che generano deepfake di compagni di scuola.

Strumenti che generano deepfake:

  • ElevenLabs, Cartesia: voice cloning di altissima qualità.
  • HeyGen, Synthesia: video con avatar parlanti.
  • DeepFaceLab, Faceswap: open source, video face swap.
  • Sora, Runway, Kling: text-to-video che può imitare persone.

Difese:

  • Cultura della verifica: prima di credere, conferma da fonte indipendente. Per chiamate urgenti familiari, richiama tu il numero noto.
  • Watermarking: alcuni servizi inseriscono firme nei file generati. Imperfetto.
  • Detection AI: strumenti per riconoscere deepfake. Funzionano, ma è una corsa al rialzo.
  • Codici di sicurezza familiari: parola d'ordine concordata per chiamate "vere".

Quadro legale italiano: in evoluzione. AI Act EU richiede etichettatura. Codice penale italiano già copre molti casi (truffa, sostituzione di persona, diffamazione).

Articolo dedicato in arrivo: come riconoscere un deepfake e cosa fare se sei vittima.