CSAM sta per Child Sexual Abuse Material, materiale di abuso sessuale su minori. La CSAM detection è l'uso di IA per identificare e rimuovere questi contenuti dalle piattaforme.
Tecniche principali:
- Hash matching (PhotoDNA Microsoft): confronta con database di contenuti già identificati. Veloce, basso falso positivo, ma non rileva nuovo materiale.
- Classifier-based: modelli ML che riconoscono potenziale CSAM nuovo. Più copertura, ma più falsi positivi.
- Apple NeuralHash: tentativo di scansione on-device, ritirato 2022 dopo polemiche su privacy.
- Detection di deepfake CSAM: nuovo fronte, materiale interamente sintetico ma vietato.
Coordinamento internazionale:
- NCMEC (USA): National Center for Missing & Exploited Children, riceve milioni di segnalazioni l'anno.
- INHOPE: rete internazionale di hotline per CSAM.
- IWF (UK): Internet Watch Foundation, hashlist condivisa.
- CNCPO Italia: Centro Nazionale per il contrasto della pedopornografia online (Polizia Postale).
Numeri 2024:
- NCMEC ha ricevuto oltre 36 milioni di segnalazioni nel 2023, in crescita.
- L'IA generativa ha aggiunto un nuovo problema: deepfake CSAM in volumi industriali. Casi reali documentati di "abusi sintetici" usati anche per estorsione contro minori reali.
Quadro italiano:
- L. 269/1998 e L. 38/2006 puniscono possesso, produzione, distribuzione.
- Cassazione 2024 ha chiarito che il deepfake CSAM è reato anche se "sintetico" e nessun minore reale è coinvolto.
- Segnalazioni: Polizia Postale via commissariatodips.it o Telefono Azzurro 19696.
Tensione politica forte: il regolamento UE "Chat Control" propone scansione di chat private (anche cifrate) per CSAM. Garante Privacy, EDPB, Parlamento UE in disaccordo. Il dibattito è aperto, riguarda il principio di scansione preventiva di comunicazioni private.