Mercoledì mattina, ambulatorio. Paziente di sessantadue anni, controllo cardiologico di routine. Le sussurri: "Allora, ho passato il tracciato a un sistema che mi aiuta a leggerlo". Lei alza un sopracciglio: "Dottore, ma scusi, mi fa visitare da una macchina?". Ti si stringe lo stomaco. È la domanda che tutti i medici si beccheranno nei prossimi due anni. La risposta giusta cambia il rapporto col paziente.
Te la racconto onesta: il consenso informato all'IA in studio non è burocrazia, è un pezzo di lavoro nuovo che va fatto bene.
Il pasticcio in cui finisci se non glielo dici
Il paziente ha diritto di sapere come prendi le decisioni cliniche. Lo dice il Codice Deontologico medico, lo dice la Legge 219/2017 sul consenso informato, e ora lo dice anche la legge europea sull'IA. Quando usi un sistema IA per refertare, valutare immagini o suggerire diagnosi, c'è uno strato informativo nuovo da gestire.
Se non lo dici e il paziente lo scopre dopo, hai un guaio doppio. Da un lato la perdita di fiducia, che vale più di un risarcimento. Dall'altro il rischio sanzionatorio: OpenAI 15 milioni a dicembre 2024, Synlab 2,5 milioni nel 2024. Le aziende sanitarie italiane hanno già pagato. Tu sei l'ultimo anello, ma sei pur sempre un anello.
Cosa NON puoi fare
Non puoi usare l'IA in visita senza informare il paziente, neanche "giusto un attimo per vedere". La sorveglianza umana vera vuol dire trasparenza con chi ti siede davanti.
Non puoi nascondere l'uso dell'IA dietro la formula generica "sistemi di supporto alla decisione". Devi dire chiaro che usi intelligenza artificiale, anche solo come bozza di refertazione.
Non puoi infilare il consenso all'IA dentro al modulo del consenso generale dell'ASL e amen. Va specifico, va spiegato, va firmato a parte se l'uso è strutturato.
Non puoi usare il consenso di tre anni fa per coprire un sistema IA che hai introdotto sei mesi fa. Sistema nuovo, informativa nuova, firma nuova.
Cosa invece si può fare bene
Il modo pulito è una scheda informativa di una pagina, scritta in italiano da bar, non in italiano da avvocato. Tre cose dice: che strumento usi (es. "refertazione assistita per immagini cardiologiche"), cosa fa ("propone una bozza che il medico controlla e approva"), dove vanno i dati ("server in Italia, non escono dallo studio").
Il paziente legge, fa due domande, firma. Aggiungi una riga al modulo del consenso generale: "Refertazione assistita da IA: sì / no". Se dice no, lavori in modalità tradizionale, è un suo diritto.
Per visite di routine dove l'IA è solo dietro le quinte (es. trascrizione automatica della cartella che il medico rilegge) basta un avviso in sala d'attesa e una nota nell'informativa generale. Per refertazione di immagini, supporto diagnostico, valutazioni di terapia, serve consenso specifico.
I paletti che non si toccano
Dati sanitari fuori dal cloud commerciale americano. Server in Italia o in Europa, file cifrati. Niente upload di referti su ChatGPT, Gemini, Copilot per "fare prima". Sono dato sanitario, categoria sensibile.
Trasparenza al paziente: se chiede come funziona, sai rispondere. Non puoi sorvegliare quello che non capisci. Se l'IA è una scatola nera anche per te, il consenso è viziato all'origine.
Registro di chi ha usato l'IA, su chi, con quale esito. Serve a te se domani arriva una contestazione, e serve all'ASL se chiede una verifica. Audit log non è burocrazia, è tutela.
E formazione vera al personale, non il corso da venti minuti col certificato in PDF: il segretariato deve sapere come spiegare al paziente in due frasi cosa firma.
Una nota personale
Io di mestiere monto sistemi IA privati per medici e studi italiani. Non vendo corsi, non vendo formule magiche. Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) si parla di consenso informato, GDPR e IA medica ogni settimana, e si risponde gratis.
La paziente di sessantadue anni, intanto, ha diritto a una risposta vera. "Dottoressa, le faccio vedere come funziona" è la risposta giusta.