Psichiatria: IA per anamnesi del paziente complesso, mai per la terapia

Anamnesi psichiatriche da 90 minuti, paziente borderline con 4 comorbidità, hai 30 minuti reali. L'IA struttura SCID-5, raccoglie storia clinica, segnala red flag suicidari. La terapia resta tua. Workflow concreto, GDPR psichiatrico e i casi in cui l'IA fa danni veri.

Di Super Squalo·6 min lettura
Nota. Una cosa onesta: tengo aggiornate queste guide come posso, ma l'IA cambia talmente in fretta che alcuni dettagli potrebbero essere superati nel giro di pochi mesi. Se hai bisogno di sapere com'è la situazione adesso, scrivimi.

Mercoledì mattina, ambulatorio di psichiatria. Paziente nuovo: quaranta anni, disturbo borderline, abuso di alcol, due tentativi anticonservativi alle spalle, tre farmaci sbagliati prescritti dal medico di base. Per inquadrarlo davvero ti servirebbero novanta minuti. Tu ne hai trenta. Risultato: anamnesi monca, terapia approssimativa, paziente che torna fra un mese peggiorato.

L'IA può farti l'anamnesi strutturata in modo decente e ridarti il tempo per la parte vera del lavoro. Sulla terapia, però, non si tocca: lì serve cervello umano. Vediamo dove tracciare la linea.

Il pasticcio in cui finisci se confondi i ruoli

Ci sono colleghi che usano ChatGPT per "suggerire terapie psichiatriche". Roba da chiusura dell'ambulatorio. ChatGPT non sa che il tuo paziente nel 2014 ha sviluppato sindrome serotoninergica. Non vede il pianto silenzioso, il tono piatto, gli occhi spenti. Confonde sistematicamente bipolare e borderline. E se finisce sul Resto del Carlino che hai dato al chatbot la diagnosi, sei finito.

Il dato psichiatrico è il più sensibile in assoluto. Una diagnosi di disturbo bipolare che esce può distruggere una carriera, un matrimonio, una vita. Synlab nel 2024 ha pagato 2,5 milioni di sanzione per dati sanitari finiti dove non dovevano. Non è teoria.

Cosa NON puoi fare

Non puoi incollare cartelle psichiatriche su ChatGPT, Gemini o Claude consumer. Sono dati sanitari di categoria sensibile, finiscono su server americani, e l'anonimizzazione vera è quasi impossibile (basta il contesto per re-identificare).

Non puoi usare l'IA per prescrizione farmacologica. Lei non conosce la storia clinica reale del paziente. Tu sì, perché leggi la cartella.

Non puoi delegare la valutazione del rischio suicidario acuto. Le scale strutturate sono uno strumento, ma il giudizio finale è clinico. L'IA non vede il paziente.

Non puoi usare un chatbot per fare "psicoterapia". È un illecito deontologico pieno, gli Ordini dei medici e degli psicologi su questo non scherzano. E nel 2023 il Garante ha bloccato Replika proprio per le derive emotive con utenti vulnerabili.

Non puoi comunicare diagnosi gravi tramite IA. Schizofrenia, demenza precoce, disturbi gravi: lo fai tu, in stanza, guardando il paziente in faccia.

Cosa devi fare invece

Il workflow funziona così, e non è fantascienza.

Pre-visita. Il paziente compila online o in sala d'attesa un questionario strutturato. L'IA adatta le domande in base alle risposte: se compare "ho avuto pensieri di farmi del male", approfondisce con la scala standard sul rischio suicidario. Tu trovi tutto pronto quando entra.

Durante la visita. Tu parli col paziente liberamente, come hai sempre fatto. Un sistema di trascrizione locale (sul tuo server, mai cloud) registra e struttura quello che emerge.

Post-visita. L'IA produce un riassunto strutturato in due-tre minuti. Tu rivedi, integri, correggi, firmi. Nessuna diagnosi proposta dalla macchina, solo organizzazione delle informazioni.

Risultato concreto: anamnesi completa in 40 minuti invece di 90. Quaranta minuti che ti restano per la relazione clinica vera, quella che cura davvero.

I paletti che non si toccano

Server IA esclusivamente in Italia o Germania, on-premise o cloud privato europeo. Mai ChatGPT, mai Claude, mai Gemini con dati psichiatrici reali. Cifratura forte, log degli accessi, valutazione di impatto fatta seriamente, formazione del personale.

Conservazione dei dati: minima necessaria, mai oltre i termini di legge. Ogni accesso tracciato. Se il Garante bussa e ti chiede chi ha guardato cosa, tu rispondi in cinque minuti, non in cinque settimane.

Aggiungi che OpenAI nel dicembre 2024 ha pagato 15 milioni al Garante italiano per come gestiva i dati con ChatGPT. La sanità mentale è terreno sensibilissimo: basta poco per finire male.

Una nota personale

L'IA in psichiatria è uno scrivano molto bravo. Ti aiuta a non perdere informazioni, a strutturarle, a guadagnare tempo. La relazione terapeutica, l'empatia, il giudizio clinico restano cose tue. Se le deleghi, hai sbagliato mestiere.

Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) si parla di setup veri per studi medici e si risponde gratis. Se ti gira la testa con privacy, server e tutto il resto, fai un giro lì prima di firmare un preventivo da diecimila euro al primo che bussa.

Hai un dubbio? Vieni a parlarne.

Gruppo Telegram aperto. Domande, opinioni, casi vissuti. Senza venditori e senza spam. Per consulenza personale o caso aziendale, usa il pulsante consulenza.