Radicalizzazione con IA

Algoritmi di raccomandazione e chatbot che spingono utenti verso contenuti estremi. Documentato per ISIS, suprematismo bianco, incel, complottismo. Problema strutturale dei feed engagement-based.

La radicalizzazione algoritmica è il processo per cui i sistemi di raccomandazione, ottimizzati per l'engagement, conducono utenti progressivamente verso contenuti più estremi.

Meccanismo:

  • L'algoritmo impara cosa ti tiene incollato.
  • I contenuti estremi generano più reazioni emotive (rabbia, paura, indignazione).
  • Il feed "scivola" verso più estremo per massimizzare watch-time.
  • L'utente, esposto progressivamente, normalizza le posizioni.
  • Comunità chiuse (filter bubble) consolidano l'identità nel gruppo radicalizzato.

Casi documentati:

  • ISIS reclutamento via YouTube (2014-2017): algoritmo raccomandava contenuti estremisti dopo video apparentemente neutri.
  • Suprematismo bianco: ricerca Tristan Harris e Center for Humane Technology.
  • Subcultura incel: passaggio da forum self-help maschili a misoginia violenta.
  • QAnon: aggregazione di micro-comunità in mega-cospirazione, amplificata da Facebook 2018-2020.
  • Antisemitismo post-7 ottobre 2023: aumento documentato di contenuti d'odio amplificati su X, TikTok.

L'IA generativa aggiunge:

  • Generazione automatica di propaganda di alta qualità.
  • Chatbot estremisti (caso Gab AI, Mistral non filtrato).
  • Echo chamber più convincenti grazie a "amici virtuali" allineati.
  • Manuali, ricette, strategie generabili da modelli senza filtri.

Cosa funziona contro:

  • Trasparenza algoritmica (DSA UE lo richiede).
  • Default di feed cronologico, non algoritmico.
  • Programmi di disengagement (es. EXIT, RAN europeo).
  • Educazione critica ai media.
  • Reportage di whistleblower (Frances Haugen, Facebook Papers 2021).

Il problema centrale è il modello di business basato sull'engagement. Finché vincere = trattenere l'utente, l'estremo vincerà sempre sul moderato. È matematica della psicologia.