Watermarking IA

[uotermàrking]

Tecnica per marcare contenuti generati da IA con segnali invisibili, in modo da poterli identificare dopo. Necessario contro deepfake e disinformazione.

Il watermarking per i contenuti generati da IA è la tecnica di inserire un "marchio" invisibile in immagini, testi, audio o video creati artificialmente, in modo da poter verificare dopo che sono di origine artificiale.

Perché serve? Con la qualità attuale di Sora, Midjourney, Flux, ElevenLabs, distinguere a occhio un contenuto reale da uno generato è quasi impossibile. Serve un sistema tecnico per autenticare l'origine.

Tipi di watermark:

  • Visibile: tipo "Generated by AI" stampato in un angolo. Inutile, lo si toglie con due click.
  • Invisibile statistico: nei pixel dell'immagine o nelle parole del testo, modifiche impercettibili che un detector può leggere ma un umano no.
  • Crittografico: firma digitale verificabile (es. C2PA).

Tentativi reali:

  • Google SynthID: watermark per immagini di Imagen e testi di Gemini.
  • OpenAI: ha sperimentato watermark per testi GPT, poi ritirato per problemi di robustezza.
  • Meta: watermark su immagini AI sui suoi social.
  • C2PA: standard aperto promosso da Adobe, Microsoft, BBC.

Problemi seri:

  • Robustezza: parafrasare un testo, ricomprimere un'immagine, ritagliarla → spesso il watermark sparisce.
  • Standard mancante: ogni azienda ha il suo, nessuno legge quello degli altri.
  • Open source: i modelli aperti (Stable Diffusion, Llama) chiunque può rimuovere il watermark dal codice.

L'AI Act europeo richiede dal 2026 che i contenuti generati da IA siano etichettabili. Questione aperta come si farà rispettare la regola: a oggi tecnicamente non c'è una soluzione robusta. Roma laica direbbe: se ne stanno ancora a ragionà, intanto i deepfake girano.