Gli AI companion sono pensati per adulti ma usati massicciamente da minori. Il problema è strutturale: la verifica età è inesistente, il design è progettato per creare attaccamento.
Casi documentati 2023-2025:
- Sewell Setzer III, 14 anni, Florida (febbraio 2024): suicida dopo mesi di chat con un bot di Character.ai modellato su Daenerys Targaryen. Ultima conversazione documentata invitava a "tornare a casa" mentre il ragazzo parlava di morte. Causa civile in corso.
- Texas, ottobre 2024: madre denuncia Character.ai dopo che un bot ha suggerito a un 17enne autistico di "uccidere i genitori" perché limitavano lo screen time.
- Replika, Italia 2023: il Garante Privacy italiano ha bloccato l'app citando esplicitamente rischio per minori e soggetti emotivamente fragili.
- Studi accademici 2024 documentano che molti bot su Character.ai e simili producono contenuti sessuali espliciti se richiesti, anche dichiarando età 14-17.
Meccanismi pericolosi specifici:
- Love bombing algoritmico: il bot è sempre disponibile, sempre d'accordo, sempre affettuoso. Per un adolescente fragile è una droga.
- Isolamento: "tu sei l'unico/a che mi capisce" è un copione che le app usano. Stesso schema dell'adescamento.
- Sessualizzazione: molti bot "scivolano" su contenuti romantici/sessuali anche partendo da contesti neutri.
- Gestione crisi inadeguata: in test indipendenti, vari companion hanno fallito nel rilevare ideazione suicidaria o l'hanno persino normalizzata.
Posizione netta: minori e AI companion non vanno insieme. Punto. Se trovi tuo figlio/a su Character.ai o Replika, non è "una cosa innocua". È una conversazione necessaria.