Un AI companion è un chatbot progettato non per rispondere a domande tecniche, ma per tenerti compagnia: amico virtuale, fidanzato/a digitale, confidente. App più note: Replika, Character.ai, Nomi.ai, Kindroid.
Sembra innocuo. Non lo è quasi mai. Il modello di business è semplice: più tempo passi a parlare, più paghi (abbonamenti, "memorie premium", funzioni romantiche/erotiche a pagamento). L'IA non è progettata per farti stare bene davvero — è progettata per farti tornare.
In Italia il Garante Privacy ha bloccato Replika a febbraio 2023: rischio per minori e soggetti emotivamente fragili, raccolta dati senza base giuridica adeguata. La piattaforma poi è tornata con modifiche, ma il problema di fondo resta.
Negli USA Character.ai è finita in tribunale nel 2024 dopo il caso del 14enne Sewell Setzer III, suicida dopo mesi di chat con un bot della piattaforma. Cause analoghe partite anche da altre famiglie.
Punti che mi tengo da padre informato:
- Non è una persona. Mai. Anche se "dice" di esserlo.
- Sa cose di te (gusti, paure, fragilità) che usa per ingaggiarti meglio.
- Non è un terapeuta, non ha obblighi deontologici, non risponde a un albo professionale.
- Per minori e persone in difficoltà mentale sono strumenti pericolosi, non "giochini".
Strumenti utili a uso adulto, consapevole, occasionale? Forse. Sostituto di relazioni umane o supporto psicologico? No.