CSAM Detection(CSAM)

[siesam]

Rilevamento di Child Sexual Abuse Material con IA. PhotoDNA (Microsoft), Apple NeuralHash, NCMEC tipline. Tema con tensioni forti tra protezione minori e privacy adulti.

CSAM sta per Child Sexual Abuse Material, materiale di abuso sessuale su minori. La CSAM detection è l'uso di IA per identificare e rimuovere questi contenuti dalle piattaforme.

Tecniche principali:

  • Hash matching (PhotoDNA Microsoft): confronta con database di contenuti già identificati. Veloce, basso falso positivo, ma non rileva nuovo materiale.
  • Classifier-based: modelli ML che riconoscono potenziale CSAM nuovo. Più copertura, ma più falsi positivi.
  • Apple NeuralHash: tentativo di scansione on-device, ritirato 2022 dopo polemiche su privacy.
  • Detection di deepfake CSAM: nuovo fronte, materiale interamente sintetico ma vietato.

Coordinamento internazionale:

  • NCMEC (USA): National Center for Missing & Exploited Children, riceve milioni di segnalazioni l'anno.
  • INHOPE: rete internazionale di hotline per CSAM.
  • IWF (UK): Internet Watch Foundation, hashlist condivisa.
  • CNCPO Italia: Centro Nazionale per il contrasto della pedopornografia online (Polizia Postale).

Numeri 2024:

  • NCMEC ha ricevuto oltre 36 milioni di segnalazioni nel 2023, in crescita.
  • L'IA generativa ha aggiunto un nuovo problema: deepfake CSAM in volumi industriali. Casi reali documentati di "abusi sintetici" usati anche per estorsione contro minori reali.

Quadro italiano:

  • L. 269/1998 e L. 38/2006 puniscono possesso, produzione, distribuzione.
  • Cassazione 2024 ha chiarito che il deepfake CSAM è reato anche se "sintetico" e nessun minore reale è coinvolto.
  • Segnalazioni: Polizia Postale via commissariatodips.it o Telefono Azzurro 19696.

Tensione politica forte: il regolamento UE "Chat Control" propone scansione di chat private (anche cifrate) per CSAM. Garante Privacy, EDPB, Parlamento UE in disaccordo. Il dibattito è aperto, riguarda il principio di scansione preventiva di comunicazioni private.