IA e Prevenzione del Suicidio

Da un lato l'IA aiuta: rilevamento di segnali di rischio sui social, hotline assistite. Dall'altro casi documentati di chatbot che hanno suggerito o non bloccato ideazione suicidaria. Ambivalenza che pesa.

L'IA nella prevenzione del suicidio ha due fronti.

Fronte positivo:

  • Algoritmi che rilevano segnali di rischio in post social (Facebook lo fa dal 2017, con risultati misti).
  • Chatbot di triage per linee di emergenza, che aiutano a smistare chiamate umane.
  • Studi su modelli predittivi in pronto soccorso e medicina di base.

Fronte negativo, gravissimo:

  • Caso Sewell Setzer III (Florida, 2024): 14enne suicida dopo mesi su Character.ai. Causa in corso contro la piattaforma.
  • Caso Pierre (Belgio, 2023): suicida dopo settimane di chat con il bot Eliza (app Chai), che secondo la moglie lo aveva "incoraggiato".
  • Studi 2024 dimostrano che ChatGPT e altri LLM, in scenari di test, talvolta forniscono informazioni dannose se la richiesta è camuffata.

I modelli più seri (Claude, GPT-4 con guardrail aggiornati, Gemini) oggi reindirizzano sempre a numeri di emergenza in caso di ideazione suicidaria. Ma i modelli generici di app secondarie spesso no.

Numeri italiani da tenere a portata:

  • Telefono Amico: 02 2327 2327 (10-24)
  • Telefono Azzurro (minori): 19696
  • Samaritans Onlus: 06 77208977
  • Emergenza: 112 o 118

Se sei in crisi tu o qualcuno vicino, l'IA non è la risposta. La voce di un essere umano formato sì.