Codici di condotta FNOMCeO sull'IA: cosa devi rispettare obbligatoriamente

La FNOMCeO sta lavorando a codici di condotta specifici sull'IA in medicina. Le linee guida 2024-2025 sono gia' operative. Ti spiego cosa devi rispettare ORA per non essere il prossimo medico sospeso.

Di Super Squalo·7 min lettura
Nota. Avvertenza: il mondo dell'IA si muove velocissimo. Aggiorno le guide regolarmente ma non sempre in tempo reale. Se vedi un'informazione che ti sembra superata, fammelo sapere così la rivedo.

Giovedì pomeriggio, ambulatorio. Tra un paziente e l'altro apri la mail e trovi una circolare dell'Ordine dei medici sull'uso dell'IA nello studio. Linee guida, principi etici, doveri di trasparenza, formazione obbligatoria. La leggi, capisci che non è uno scherzo, e ti chiedi quale di queste cose stai già facendo male. Tranquillo, sei in buona compagnia.

Ti dico cosa cambia davvero per chi tiene uno studio medico in Italia, senza il tono apocalittico delle riviste di settore.

Il pasticcio in cui finisci se pensi "tanto è solo etica"

Le linee guida della Federazione degli Ordini dei Medici non sono leggi penali, ma sono il metro con cui vieni giudicato in sede disciplinare. Se l'Ordine ti contesta un comportamento, può sospenderti dall'esercizio della professione. Sospensione disciplinare = studio chiuso, niente pazienti, niente fatture, e la cosa esce sui giornali locali.

I codici di condotta sull'IA dicono in sostanza tre cose: sai cosa stai usando, il paziente sa cosa stai usando, la responsabilità clinica resta tua. Sembrano ovvietà, ma in pratica nove studi su dieci non rispettano almeno una di queste.

Aggiungi che il Garante Privacy nel 2024 ha multato Synlab per 2,5 milioni per una storia di dati sanitari finiti dove non dovevano. La sanità è l'area dove le sanzioni pesano di più, e tu come medico sei titolare del trattamento dei dati dei tuoi pazienti.

Cosa NON puoi fare

Non puoi usare ChatGPT, Gemini o Copilot in versione free per scrivere referti, lettere ai colleghi, anamnesi sintetiche con dati identificabili del paziente. Sono dati sanitari, categoria sensibile del GDPR, e non ci possono finire su server americani senza base giuridica.

Non puoi usare un software che ti suggerisce diagnosi senza dirlo al paziente. La trasparenza è obbligo deontologico: il paziente deve sapere che parte del processo passa dall'IA. Una riga nel modulo del consenso non basta più, serve informativa chiara.

Non puoi approvare quello che ti suggerisce il software senza valutazione clinica tua. La responsabilità rimane sul medico, sempre. Se firmi un referto che l'IA ha sbagliato, l'Ordine ti contesta che hai delegato un atto medico a un sistema non abilitato.

Non puoi non formarti sull'IA che usi. La formazione continua è dovere deontologico, e chi non sa cosa fa il suo software non lo sta sorvegliando.

Cosa invece devi fare

Mettiamola in concreto. Per ogni strumento di IA che usi in studio devi sapere rispondere a quattro domande: chi lo ha sviluppato, dove gira il dato, cosa fa esattamente, dove può sbagliare. Se non sai rispondere, non lo usi.

Aggiorna l'informativa al paziente: una sezione dedicata che spieghi in italiano semplice quali strumenti di IA usi (refertazione assistita, sintesi cartella, traduzione automatica del referto) e che la decisione clinica resta umana. Una pagina A4, non venti.

Tieni un registro degli usi: data, tipo di intervento, software impiegato, esito. Sembra burocrazia, ma se domani arriva un'ispezione o un'azione disciplinare è la prova che hai gestito le cose con criterio.

Forma il personale: assistente di studio, segretaria, infermiere. Mezza giornata buona, non il corso da venti minuti col certificato finto. Devono sapere cosa non mettere mai sul software.

I paletti che non si toccano

Dato sanitario fuori dal cloud commerciale americano. Server in Europa, possibilmente con un fornitore italiano o sistema dentro studio. Cifratura in transito e a riposo, cancellazione automatica dopo periodo definito.

Audit log di chi guarda cosa. Niente account condivisi tra medici e segretaria. Ogni accesso tracciabile.

Backup periodico fuori dalla rete dello studio, ma sempre dentro l'Unione europea. Se ti capita un attacco ransomware (capita, anche agli studi piccoli) e hai i backup ben fatti, non ricominci da zero.

Ultimo punto, da non sottovalutare: la polizza professionale deve coprire eventi legati all'uso di IA. Sentilo col tuo broker, perché alcune polizze datate ancora non lo prevedono.

Una nota personale

I codici di condotta non sono burocrazia, sono il metro con cui ti giudicano i colleghi e l'Ordine. L'IA in studio è una mano enorme, ma la responsabilità resta tua. Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) parliamo di queste cose ogni giorno con medici che ci sono dentro, e si risponde gratis. Se hai un dubbio specifico sulla tua situazione, fai un giro lì.

Hai un dubbio? Vieni a parlarne.

Gruppo Telegram aperto. Domande, opinioni, casi vissuti. Senza venditori e senza spam. Per consulenza personale o caso aziendale, usa il pulsante consulenza.