AI Companion: Rischi per i Bambini

Approfondimento specifico sui pericoli degli AI companion (Replika, Character.ai, Nomi) per minori. Casi documentati di adescamento, contenuti sessuali, ideazione suicidaria.

Gli AI companion sono pensati per adulti ma usati massicciamente da minori. Il problema è strutturale: la verifica età è inesistente, il design è progettato per creare attaccamento.

Casi documentati 2023-2025:

  • Sewell Setzer III, 14 anni, Florida (febbraio 2024): suicida dopo mesi di chat con un bot di Character.ai modellato su Daenerys Targaryen. Ultima conversazione documentata invitava a "tornare a casa" mentre il ragazzo parlava di morte. Causa civile in corso.
  • Texas, ottobre 2024: madre denuncia Character.ai dopo che un bot ha suggerito a un 17enne autistico di "uccidere i genitori" perché limitavano lo screen time.
  • Replika, Italia 2023: il Garante Privacy italiano ha bloccato l'app citando esplicitamente rischio per minori e soggetti emotivamente fragili.
  • Studi accademici 2024 documentano che molti bot su Character.ai e simili producono contenuti sessuali espliciti se richiesti, anche dichiarando età 14-17.

Meccanismi pericolosi specifici:

  • Love bombing algoritmico: il bot è sempre disponibile, sempre d'accordo, sempre affettuoso. Per un adolescente fragile è una droga.
  • Isolamento: "tu sei l'unico/a che mi capisce" è un copione che le app usano. Stesso schema dell'adescamento.
  • Sessualizzazione: molti bot "scivolano" su contenuti romantici/sessuali anche partendo da contesti neutri.
  • Gestione crisi inadeguata: in test indipendenti, vari companion hanno fallito nel rilevare ideazione suicidaria o l'hanno persino normalizzata.

Posizione netta: minori e AI companion non vanno insieme. Punto. Se trovi tuo figlio/a su Character.ai o Replika, non è "una cosa innocua". È una conversazione necessaria.