La radicalizzazione algoritmica è il processo per cui i sistemi di raccomandazione, ottimizzati per l'engagement, conducono utenti progressivamente verso contenuti più estremi.
Meccanismo:
- L'algoritmo impara cosa ti tiene incollato.
- I contenuti estremi generano più reazioni emotive (rabbia, paura, indignazione).
- Il feed "scivola" verso più estremo per massimizzare watch-time.
- L'utente, esposto progressivamente, normalizza le posizioni.
- Comunità chiuse (filter bubble) consolidano l'identità nel gruppo radicalizzato.
Casi documentati:
- ISIS reclutamento via YouTube (2014-2017): algoritmo raccomandava contenuti estremisti dopo video apparentemente neutri.
- Suprematismo bianco: ricerca Tristan Harris e Center for Humane Technology.
- Subcultura incel: passaggio da forum self-help maschili a misoginia violenta.
- QAnon: aggregazione di micro-comunità in mega-cospirazione, amplificata da Facebook 2018-2020.
- Antisemitismo post-7 ottobre 2023: aumento documentato di contenuti d'odio amplificati su X, TikTok.
L'IA generativa aggiunge:
- Generazione automatica di propaganda di alta qualità.
- Chatbot estremisti (caso Gab AI, Mistral non filtrato).
- Echo chamber più convincenti grazie a "amici virtuali" allineati.
- Manuali, ricette, strategie generabili da modelli senza filtri.
Cosa funziona contro:
- Trasparenza algoritmica (DSA UE lo richiede).
- Default di feed cronologico, non algoritmico.
- Programmi di disengagement (es. EXIT, RAN europeo).
- Educazione critica ai media.
- Reportage di whistleblower (Frances Haugen, Facebook Papers 2021).
Il problema centrale è il modello di business basato sull'engagement. Finché vincere = trattenere l'utente, l'estremo vincerà sempre sul moderato. È matematica della psicologia.