Deepfake Detection

[diipfèik detèction]

Tecniche e strumenti per riconoscere automaticamente video, audio o immagini manipolati con IA. Corsa a chi corre più veloce: i generatori migliorano, i detector inseguono.

La deepfake detection è il campo di ricerca e gli strumenti che cercano di riconoscere automaticamente contenuti generati o manipolati con IA. Foto, video, audio: per ognuno servono tecniche diverse.

Approcci principali:

  • Analisi degli artefatti visivi: i modelli generativi lasciano tracce su pixel, luce, ombre, dettagli (occhi che non riflettono coerentemente, mani con dita storte, capelli che non si muovono fisicamente).
  • Analisi temporale: nei video, incoerenze tra frame consecutivi.
  • Analisi biologica: respiro, micro-espressioni, battito visibile sulla pelle (fotopletismografia remota).
  • Watermark e provenance: vedere se c'è un watermark o metadati C2PA.
  • Modelli neurali addestrati a distinguere: classificatori specifici allenati su deepfake noti.

Strumenti reali:

  • Microsoft Video Authenticator: rilascio limitato a media partner.
  • Intel FakeCatcher: analizza il "battito" del sangue nei pixel del volto.
  • Hive AI: classificatori commerciali.
  • Reality Defender: piattaforma usata da banche e media.

Problema strutturale: corsa agli armamenti. Ogni volta che un detector diventa bravo, esce un generatore migliore che lo aggira. La ricerca accademica mostra che modelli text-to-video di ultima generazione (Sora, Veo, Kling) riducono drasticamente l'accuratezza dei detector pubblici.

Per chi opera nel settore (giornalismo, forensic, banche): non affidarsi a un solo detector. Combinare più strumenti, analisi del contesto (dove è apparso il contenuto, chi lo condivide), verifica della fonte. La detection automatica è un aiuto, non una verità definitiva.

Uso italiano: nelle indagini su frodi telefoniche con voice cloning ("mamma sono io, ho perso il telefono..."), la detection è ancora poco diffusa. Spesso conviene formare le persone più che fidarsi della tecnologia.