Il watermarking per i contenuti generati da IA è la tecnica di inserire un "marchio" invisibile in immagini, testi, audio o video creati artificialmente, in modo da poter verificare dopo che sono di origine artificiale.
Perché serve? Con la qualità attuale di Sora, Midjourney, Flux, ElevenLabs, distinguere a occhio un contenuto reale da uno generato è quasi impossibile. Serve un sistema tecnico per autenticare l'origine.
Tipi di watermark:
- Visibile: tipo "Generated by AI" stampato in un angolo. Inutile, lo si toglie con due click.
- Invisibile statistico: nei pixel dell'immagine o nelle parole del testo, modifiche impercettibili che un detector può leggere ma un umano no.
- Crittografico: firma digitale verificabile (es. C2PA).
Tentativi reali:
- Google SynthID: watermark per immagini di Imagen e testi di Gemini.
- OpenAI: ha sperimentato watermark per testi GPT, poi ritirato per problemi di robustezza.
- Meta: watermark su immagini AI sui suoi social.
- C2PA: standard aperto promosso da Adobe, Microsoft, BBC.
Problemi seri:
- Robustezza: parafrasare un testo, ricomprimere un'immagine, ritagliarla → spesso il watermark sparisce.
- Standard mancante: ogni azienda ha il suo, nessuno legge quello degli altri.
- Open source: i modelli aperti (Stable Diffusion, Llama) chiunque può rimuovere il watermark dal codice.
L'AI Act europeo richiede dal 2026 che i contenuti generati da IA siano etichettabili. Questione aperta come si farà rispettare la regola: a oggi tecnicamente non c'è una soluzione robusta. Roma laica direbbe: se ne stanno ancora a ragionà, intanto i deepfake girano.