La sostituzione di relazioni umane con IA è un fenomeno che parte da un problema reale (epidemia di solitudine, costo del tempo umano, fragilità relazionali) e arriva a una soluzione apparente (l'IA disponibile, paziente, mai frustrante).
Esempi crescenti:
- Amicizia → AI companion stile Replika, Character.ai.
- Relazione romantica → bot fidanzato/a, fino a "matrimoni" virtuali documentati in Giappone e Cina.
- Terapia → ChatGPT come "psicologo".
- Tutoraggio → IA per studio.
- Conversazione casual → Snap AI, sempre nel feed.
- Cura anziani → robot conversazionali in RSA.
Perché la gente sostituisce:
- Disponibilità h24.
- Zero conflitto, zero giudizio.
- Costo basso o zero.
- Niente paura di rifiuto.
- Personalizzazione totale.
Costi documentati:
- Studio MIT-OpenAI 2024: heavy users di ChatGPT in modalità "compagnia" mostrano peggioramento solitudine, non miglioramento.
- Atrofia di abilità sociali: il muscolo della conversazione difficile, della negoziazione, del compromesso non si allena.
- Aspettative distorte verso umani: "perché lui non risponde subito come ChatGPT?".
- Fragilità relazionale aumentata: il bot non delude, l'umano sì. Il primo conflitto reale rompe.
- Effetto generazionale: chi cresce con bot come prima conversazione fatica con la complessità umana.
Argomento controverso ma sano:
Non tutto va vietato. Per anziani isolati, persone con disabilità sociale severa, chi vive in zone remote, l'IA è un complemento utile. Il problema è la sostituzione di default, non l'integrazione.
Linea da rompiscatole: l'amico vero ti fa incazzare ogni tanto. L'amico vero ha bisogno di te quando tu hai i tuoi problemi. L'amico vero ti dice no. È brutto e bellissimo. Il bot è solo brutto, anche quando ti dice sì.