Giovedì sera, ambulatorio, hai chiuso le visite alle 20:30. Caso del pomeriggio: paziente con sintomi atipici, hai chiesto a un'IA generica "in base a questi sintomi quale diagnosi differenziale?". Il modello ha risposto, ti è sembrata sensata, hai prescritto. Domanda che ti gira in testa adesso: se sbaglia il modello, paghi te?
Risposta breve: sì. Mettiamoci d'accordo subito, collega. Se l'IA "allucina" e tu firmi, paghi tu. La giurisprudenza italiana sulla responsabilità medica non lascia spazio a "non lo sapevo, l'ha detto Claude". Vediamo perché, e come proteggerti operativamente.
Il pasticcio in cui finisci se la consideri un consulente
In diritto italiano la responsabilità del medico è regolata dalla legge Gelli-Bianco del 2017. Risponde per colpa: diligenza, prudenza, perizia. Quando usi un sistema IA per supportare la diagnosi, il modello è uno strumento al pari di un esame di laboratorio. Se l'ecografo dà un risultato sbagliato e tu non lo verifichi, sei comunque responsabile.
L'IA "allucina" in modo subdolo: produce risposte plausibili ma false. Cita studi inesistenti, dosaggi sbagliati, linee guida obsolete. Se il medico medio — quello che è il parametro della diligenza professionale — avrebbe colto l'errore, e tu no, sei in colpa. Niente sconti.
Caso reale del 2024: un medico americano è stato citato in giudizio per aver prescritto un farmaco a dosaggio errato suggerito da ChatGPT. La causa è ancora in corso. Non aspettare di essere il primo caso italiano. Le multe italiane corrono già: il Garante ha sanzionato OpenAI per 15 milioni a dicembre 2024 per come gestiva i dati personali con ChatGPT. Synlab nel 2024 ha pagato 2,5 milioni per dati sanitari finiti dove non dovevano. La sanità è terreno sensibile e basta poco.
Cosa NON puoi fare
Non puoi scrivere in cartella "diagnosi confermata da ChatGPT". Non solo è violazione del segreto professionale: è una confessione scritta. Te la ritrovi in una causa civile come prova contro di te.
Non puoi delegare al modello decisioni che richiedono giudizio clinico complesso senza una verifica indipendente — linee guida ufficiali, banche dati farmaceutiche, letteratura. Il modello è ipotesi da verificare, mai decisione finale.
Non puoi usare ChatGPT, Gemini o Copilot pubblici per "secondo parere" su un caso reale. La qualità dell'output non è tracciata, le fonti non sono verificabili, le allucinazioni sono frequenti. Più, dato sanitario su server americani: ti aggiungi violazione del GDPR alla lista. Triplo errore in una mossa.
Non puoi pensare che la polizza assicurativa ti copra automaticamente per uso IA non autorizzato dalla struttura. Molte polizze richiedono notifica preventiva di nuovi strumenti. Se non l'hai fatta, sei scoperto.
Cosa invece si può fare bene
L'IA come supporto serio, non come scorciatoia, funziona. Tre regole pratiche.
Prima: il modello propone, tu disponi. Usa l'output come ipotesi da verificare sempre. Una linea guida ufficiale, una banca dati farmaceutica seria, un articolo recente — qualcosa che non sia il modello stesso. Cinque minuti di verifica oggi ti salvano dieci anni di rogne domani.
Seconda: documenta in cartella il processo decisionale, non l'uso del tool. Scrivi che hai considerato la diagnosi differenziale X, Y, Z, valutate le linee guida, scelta la terapia W per i motivi A e B. Questo è quello che il giudice vuole vedere se mai capita una causa. Non "ChatGPT ha detto".
Terza: il modello giusto, nel posto giusto. Se la roba è seria, non gira su ChatGPT del tuo profilo personale. Gira su un server in casa o in Europa, con accesso a fonti verificate caricate da te (linee guida ufficiali, prontuari, letteratura tua). Il prompt non esce, l'output cita le fonti che gli hai dato, la cartella resta dove deve restare.
I paletti che non si toccano
Server in Europa, modello in casa o presso fornitore italiano serio. File cifrati in transito e a riposo. Cancellazione automatica dopo qualche giorno. Audit log di chi ha guardato cosa.
Polizza professionale: chiama il broker, dichiara che usi sistemi IA in studio, fatti scrivere nero su bianco che la copertura tiene. È una telefonata di dieci minuti che ti salva la vita. Forma il personale: chi usa l'IA deve sapere cosa è un'allucinazione tipica e come riconoscerla. Non il corso da venti minuti col certificato in PDF, ma un mezzo pomeriggio fatto bene.
E nell'informativa al paziente, una voce chiara: "supporto clinico assistito da IA" tra i trattamenti dichiarati. Senza questo, sei scoperto.
Una nota personale
Io di mestiere monto sistemi IA privati per medici e studi italiani. Non vendo corsi, non vendo formule magiche. Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) si chiacchiera di responsabilità, polizze, casi reali ogni giorno, e si risponde gratis.
La cartella di ieri sera, intanto, riapri e completa il diario clinico. Scrivi il ragionamento. Non il tool.