Sabato mattina, ambulatorio MMG. Paziente di 47 anni, manager, ti racconta: "dottore, sono stanco da tre mesi, ho male alle gambe, ho perso quattro chili senza dieta". Polso 72, pressione 130/80, addome trattabile. Nessun segno di allarme grosso. Esami banali del mese scorso normali. Cosa può essere? Sindromi affettive, anemie subcliniche, ipotiroidismo, neoplasie occulte, miopatie, malattie autoimmuni precoci. Hai cinque minuti per decidere il piano. L'IA può aiutare? Sì. Può fregarti? Anche.
Il medico esperto pensa per pattern. Funziona nel 90% dei casi. Nel 10% restante, il pattern noto ti acceca rispetto alla diagnosi vera. È il classico bias di disponibilità: hai visto tre casi simili la settimana scorsa, vedi il quarto e lo etichetti senza pensarci. L'IA non ha quel bias (ne ha altri) e ti suggerisce diagnosi che non avevi considerato. Questo è il valore reale.
Quando l'IA aiuta davvero
Sui sintomi vaghi multi-sistemici (astenia cronica con calo ponderale, febbre di origine sconosciuta, dolore addominale ricorrente, cefalea atipica, manifestazioni autoimmuni multiple) un sistema di supporto alle decisioni allarga il campo. Ti dice: hai pensato alla sarcoidosi? Alla celiachia atipica? Al feocromocitoma? Non fa la diagnosi, ma rompe la cornice in cui sei rimasto incastrato.
Sulle malattie rare il vantaggio è ancora più netto. Sono 5.000-7.000 condizioni secondo Orphanet, e nessun medico le conosce tutte. Un sistema addestrato su database tipo OMIM, Orphanet, GeneReviews riconosce pattern che ti sfuggono per pura statistica. Non fa la diagnosi: ti suggerisce di considerare l'amiloidosi cardiaca quando avevi pensato solo a scompenso da cardiopatia ischemica.
Sulla verifica dei tuoi differenziali il sistema funziona da rete di sicurezza: hai pensato a cinque ipotesi? Ne aggiunge le tre che ti mancavano e pesa la probabilità pre-test secondo prevalenza italiana, non secondo prevalenza americana presa dai paper.
Quando l'IA ti frega
I modelli generalisti tipo ChatGPT o Gemini consumer inventano patologie, citano studi inesistenti, sbagliano dosaggi. Studi recenti mostrano tassi di errore del 15-25% in scenari diagnostici complessi quando si usano modelli non specializzati. Non è "qualche imprecisione": è un paziente su cinque con informazioni sbagliate. Affidarcisi senza verifica è una mossa peggiore che puoi fare.
Poi c'è l'anchoring bias indotto. Una volta che il sistema dice "considerare amiloidosi", il tuo cervello la considera anche se non ha senso. Il rischio è chiedere esami inutili e costosi (RMN, PET, biopsie) per escludere zebre improbabili, mentre il cavallo (anemia da carenza di B12, depressione vera, ipotiroidismo subclinico) ti scappa.
E infine c'è la "cyberchondria del medico": ti senti più sicuro perché "ho controllato con l'IA". Falso senso di sicurezza. La firma e la responsabilità restano tue (Codice Deontologico art. 13). La Cassazione 28985/2019 non si commuove davanti agli output di un modello.
Le cose che davvero non puoi fare
Inserire sintomi più dati anagrafici di un paziente reale in ChatGPT è illecito amministrativo (GDPR art. 9) e potenzialmente penale (art. 622 c.p. segreto professionale). La FNOMCeO ha già aperto procedimenti disciplinari per uso non autorizzato di servizi cloud non sanitari con dati pazienti. Non è una possibilità remota: è già successo, in Lombardia nel 2025, con sospensione dall'esercizio.
Il caso Synlab 2024 da 2,5 milioni di euro del Garante italiano è arrivato per molto meno della pseudonimizzazione fai-da-te. La pseudonimizzazione non è anonimizzazione: lo dice il Considerando 26 del GDPR.
I paletti privacy che non si toccano
Modelli specialistici medici che girano in locale, in Europa, su un tuo server dedicato, file cifrati, audit log, cancellazione automatica dopo qualche giorno. Il prompt non contiene dati identificativi, il paziente diventa una sigla per il sistema. Nell'informativa al paziente la voce "supporto diagnostico assistito da IA" è dichiarata.
Come si usa, in pratica
L'IA è un secondo parere preliminare, mai l'ultimo. Tu pensi al tuo paziente, formuli i tuoi differenziali, poi confronti con quelli del sistema. Le ipotesi nuove le valuti criticamente: è plausibile sulla popolazione italiana? Sui dati di questo paziente specifico? Sulla mia esperienza? Se sì, le tieni. Se no, le scarti senza sensi di colpa.
Una nota personale
Io di mestiere costruisco roba così — sistemi IA privati per medici, studi associati, piccole imprese italiane. Non vendo corsi, non vendo abbonamenti, non vendo formule magiche. Mi occupo di gente che ha cose serie da proteggere e poco tempo per smanettare. Se ti capita di avere domande, sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) si discute di queste cose ogni giorno, e si risponde gratis.
Il manager delle nove di sabato mattina alla fine ha un'anemia ferrocarenziale da poliposi del colon, che hai trovato perché il sistema ti ha ricordato di pensare al colon prima della tiroide. La sarcoidosi era una falsa pista, ma è andata bene così.