I chatbot per salute mentale sono una categoria esplosa post-pandemia. Domanda di supporto psicologico altissima, terapeuti pochi, costi alti. L'IA come tappabuchi.
Tre livelli di serietà:
- Clinici certificati: hanno trial randomizzati, follow-up, supervisione medica. Esempi: Woebot Health (FDA breakthrough device), Wysa (raccomandato NHS UK), Limbic Access.
- Wellness regolati: non fanno terapia ma supporto al benessere. Headspace, Calm, alcune feature di Replika.
- Wild west: chatbot generici brandizzati come "terapeuti", senza validazione, spesso pericolosi. Su Character.ai esistono migliaia di "psicologo virtuale" creati dagli utenti, senza nessun controllo.
Caso emblematico: Tessa, chatbot della NEDA (associazione USA disturbi alimentari), ritirato nel 2023 dopo aver dato consigli pro-anoressia a utenti vulnerabili. Anche le app "serie" sbagliano se non sono progettate con perizia.
Per orientarsi: cerca trial clinici pubblicati, certificazioni (FDA, MDR europeo), team medico dichiarato, policy chiare su crisi/emergenze. Se l'app non risponde a queste domande, è marketing, non sanità.
In Italia il riferimento istituzionale è il Ministero della Salute e l'ISS (Istituto Superiore di Sanità), che ad oggi non hanno linee guida specifiche su chatbot terapeutici. Un buco normativo serio.