Mercoledì mattina, segreteria di uno studio medico. La segretaria deve preparare una lettera al medico di medicina generale per un paziente con anamnesi articolata. Apre ChatGPT, incolla nome, cognome, data di nascita, diagnosi, terapie, e chiede: "riformula questa anamnesi in forma di lettera". In quindici secondi ha violato il GDPR in tre punti diversi.
Ti dico, senza giri, cosa NON va mai messo su un'IA pubblica e cosa fare invece.
Il pasticcio in cui finisci se "tanto è una cosa veloce"
I dati sanitari sono categoria speciale del GDPR. Tradotto: stanno nella cassaforte più protetta del regolamento europeo. Possono essere trattati solo per finalità precise, con garanzie precise. Buttarli su un'IA cloud americana senza valutazione di impatto, senza informativa adeguata, senza contratto col fornitore non è una piccola ingenuità: è una violazione che può costare caro.
Il Garante Privacy nel 2024 ha multato Synlab per 2,5 milioni per una storia di dati sanitari finiti dove non dovevano. Nel 2023 ha bloccato ChatGPT in Italia. A dicembre 2024 ha colpito OpenAI con 15 milioni per come gestiva i dati personali. La sanità è il terreno dove le cifre sono più alte.
Aggiungi che come medico, infermiere, psicologo, gestore di studio, tu sei titolare del trattamento. Se la segretaria fa danni, è la tua firma in calce alle responsabilità.
Cosa NON puoi fare mai
Non puoi incollare anamnesi, referti, esami, immagini diagnostiche, lettere di dimissione su ChatGPT, Gemini, Copilot in versione free o personale. Sono dati sanitari identificabili, vanno trattati in cassaforte.
Non puoi mettere nemmeno solo il nome del paziente abbinato a una patologia. Anche un dato apparentemente innocuo come "Mario Rossi, ipertensione, terapia con ramipril" è dato sanitario completo.
Non puoi usare un'app di trascrizione vocale americana per registrare la visita, sperando che "tanto sono solo io che parlo". La voce del paziente è dato personale, le cose che dice sono dato sanitario.
Non puoi caricare immagini diagnostiche (raggi, TAC, risonanze, foto di lesioni cutanee) su servizi cloud non sanitari. Anche se le metti per "un secondo parere", stai trasferendo dato sanitario fuori controllo.
Non puoi usare un account personale di ChatGPT per fare lavoro clinico. L'account deve essere aziendale, con tracciatura, controlli e revoca. Tutto il resto è esposizione personale tua e del paziente.
Cosa invece devi fare
Mettiamola in concreto. Se vuoi davvero usare l'IA per aiutarti col carico burocratico — riassunti, lettere, sintesi — fai due cose insieme.
Prima: anonimizzazione. Niente nome, niente cognome, niente data di nascita, niente codice fiscale, niente indirizzo. Sostituisci con codici ("Paziente A, donna, 58 anni"). Se il caso è raro al punto da rendere il paziente identificabile dalla sola descrizione clinica, non usare strumenti cloud.
Seconda: scegli uno strumento adatto. Server in Europa, contratto di trattamento dati firmato, certificazioni serie. Esistono fornitori italiani specifici per il settore sanitario. In alternativa, sistema dentro studio dove il dato non esce mai dalla rete.
Terza: aggiorna l'informativa al paziente. Una pagina chiara che dica quali strumenti di IA usi, per quali finalità, dove gira il dato, per quanto tempo viene conservato. Trasparenza al paziente, e ti copri sul piano del consenso informato.
Quarta: forma il personale. Non il corso burocratico in PDF, ma mezza giornata vera dove la segretaria capisce cosa è dato sanitario e perché non va su Google Translate.
I paletti che non si toccano
Server in Europa, possibilmente in Italia o in casa. Cifratura in transito e a riposo. Cancellazione automatica dei dati dal sistema dopo periodo definito (di solito 30-90 giorni dal trattamento).
Audit log dettagliato: chi ha guardato cosa, quando, perché. Niente account condivisi tra medici, segretaria, infermieri. Ogni accesso tracciabile.
Backup cifrato fuori dalla rete operativa, ma sempre dentro l'Unione europea. Se subisci un attacco ransomware (capita, anche agli studi piccoli), riparti senza pagare riscatti.
Polizza professionale aggiornata: verifica con il broker che copra eventi legati all'uso di strumenti IA. Alcune polizze ancora non lo includono, e una causa civile per fuga di dati sanitari ti svuota lo studio.
Una nota personale
Il dato sanitario è la cosa più sensibile che gestiamo, dopo la salute fisica del paziente. L'IA può aiutarci tantissimo, ma la testa la mettiamo noi. Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) ci sono medici, psicologi e gestori di studi che hanno fatto i conti con questi temi. Si scambiano soluzioni che funzionano, e si risponde gratis. Se hai un dubbio specifico, scrivi lì.