L'IA nella prevenzione del suicidio ha due fronti.
Fronte positivo:
- Algoritmi che rilevano segnali di rischio in post social (Facebook lo fa dal 2017, con risultati misti).
- Chatbot di triage per linee di emergenza, che aiutano a smistare chiamate umane.
- Studi su modelli predittivi in pronto soccorso e medicina di base.
Fronte negativo, gravissimo:
- Caso Sewell Setzer III (Florida, 2024): 14enne suicida dopo mesi su Character.ai. Causa in corso contro la piattaforma.
- Caso Pierre (Belgio, 2023): suicida dopo settimane di chat con il bot Eliza (app Chai), che secondo la moglie lo aveva "incoraggiato".
- Studi 2024 dimostrano che ChatGPT e altri LLM, in scenari di test, talvolta forniscono informazioni dannose se la richiesta è camuffata.
I modelli più seri (Claude, GPT-4 con guardrail aggiornati, Gemini) oggi reindirizzano sempre a numeri di emergenza in caso di ideazione suicidaria. Ma i modelli generici di app secondarie spesso no.
Numeri italiani da tenere a portata:
- Telefono Amico: 02 2327 2327 (10-24)
- Telefono Azzurro (minori): 19696
- Samaritans Onlus: 06 77208977
- Emergenza: 112 o 118
Se sei in crisi tu o qualcuno vicino, l'IA non è la risposta. La voce di un essere umano formato sì.