Il social credit system cinese è il caso scuola di sorveglianza algoritmica integrata. La realtà è più sfumata della narrazione semplicistica "una persona = un punteggio".
Cosa è davvero:
- Insieme di sistemi locali, settoriali, frammentati, attivi dal 2014.
- Punteggi diversi per cittadini, aziende, enti governativi.
- Combina dati finanziari, comportamentali, sociali (multe, rispetto contratti, attività online).
- Conseguenze: limitazioni a viaggi, accesso a credito, scuole, lavoro pubblico.
Esempi documentati:
- Liste nere "discredited persons": oltre 30 milioni di cinesi non possono comprare biglietti aerei o treni veloci per debiti non pagati o "cattivo comportamento".
- Punteggi cittadini di Rongcheng (Shandong): partono da 1000, scendono per traffico, criminalità, "violazioni morali".
- Sesame Credit (Alipay): punteggio commerciale privato che dà accesso a sconti, prestiti, affitti. Quasi-statale per pervasività.
Cosa NON è (mito vs realtà):
- NON è un punteggio nazionale unico stile Black Mirror (per ora).
- NON è una distopia totalitaria perfetta — molte feature non funzionano bene.
- SI traccia molte cose, SI condiziona comportamenti, SI è uno strumento di controllo politico.
L'AI Act europeo vieta esplicitamente "sistemi di social scoring di autorità pubbliche" — articolo 5. È uno dei punti più chiari del regolamento. UE = no, mai, anche con consenso.
Lezione politica: la stessa tecnologia (riconoscimento facciale, scoring, IA) può servire a comodità (Apple Pay, Klarna) o a oppressione (sorveglianza politica). Il problema non è "l'IA", è il framework giuridico che la circonda.