Cosa NON fare con l'IA e i dati dei pazienti: errori che ti distruggono

L'entusiasmo per l'IA può farti commettere errori che ti costano clienti, sanzioni, reputazione. Ecco la lista nera di cose che molti vet stanno facendo male senza rendersene conto.

Di Super Squalo·3 min lettura

L'IA è uno strumento potentissimo. Usata male, ti rovina. La maggior parte dei veterinari italiani che inizia a usare ChatGPT non si rende conto di stare facendo cose problematiche dal punto di vista privacy, etico, professionale. Ecco cosa NON fare.

1. Caricare cartelle cliniche complete su ChatGPT free

"Ho preso la cartella di Mario Rossi e l'ho buttata su ChatGPT per riassumerla". Sbagliato. La cartella contiene: nome, cognome, indirizzo, telefono cliente, dati identificativi animale (chip, nome), dati clinici sensibili. Inviare a un servizio cloud terzo senza accordo specifico viola GDPR.

Soluzione: anonimizza prima. Sostituisci nome cliente con "Cliente A", animale con "cane meticcio M.E.", rimuovi indirizzo e chip.

2. Usare ChatGPT per diagnosticare e firmare

"L'IA dice che è leishmania, prescrivo miltefosina." Sbagliato. La diagnosi la fai tu. Se sbaglia, la responsabilità è tua. In tribunale "ChatGPT mi ha detto" non è difesa.

3. Far rispondere l'IA direttamente al cliente

"Ho un bot WhatsApp che risponde ai clienti automaticamente". Pericoloso. Se il bot dice qualcosa di sbagliato, tu sei responsabile. L'IA classifica e prepara per te, tu rispondi.

4. Pubblicare su social foto pazienti senza consenso

"Foto carina di cane che ho operato, la metto su Instagram." Sbagliato senza consenso scritto del proprietario. GDPR + diritto immagine.

5. Sostituire il consenso informato con prompt IA

I consensi informati hanno requisiti specifici (Codice Deontologico FNOVI, normativa). Bozza IA + revisione legale annuale = ok. Bozza IA + firma = rischio enorme.

6. Caricare dati allevamenti senza autorizzazione

Veterinario aziendale: i dati di mandria sono dati commerciali sensibili dell'allevatore. Caricare su servizi cloud senza accordo specifico violerebbe contratto col cliente. Soluzione: modelli locali (Ollama).

7. Generare ricette o referti senza verifica

Le allucinazioni esistono. Una volta su 50 inventa esami che non hai fatto, dosaggi sbagliati, diagnosi errate. Devi sempre rileggere e correggere.

8. Usare IA per certificati ufficiali firmati

Certificato di buona salute, di morte, per esportazione: documenti legali. IA non li scrive da sola. Tu compili dati e verifichi tutto, due volte, prima di firmare.

9. Caricare immagini diagnostiche su servizi non autorizzati

Radiografie, ecografie, citologie sono dati clinici. Caricare su ChatGPT senza accordo specifico = rischio. Per refertazione automatica usa servizi certificati (SignalPET, IDEXX). Anonimizza (togli nome paziente da DICOM) prima.

10. Affidarsi a IA per emergenze in tempo reale

Cane in shock, IA non aiuta. Tu hai protocolli in testa, attrezzature pronte, esperienza. L'IA serve a preparare, ripassare, riflettere dopo. Mai durante un'emergenza.

11. Trascurare gli allertamenti su antibioticoresistenza

"L'IA mi ha suggerito amoxicillina-clavulanico, prescrivo." Senza considerare antibiogramma, contesto epidemiologico, linee guida WSAVA/EMA. ASL controlla. Multa salata possibile.

12. Salvare prompt sensibili nel chat history

ChatGPT salva tutto nelle chat. Soluzione: cancella periodicamente, usa modalità chat temporanea, valuta plan enterprise senza retention.

13. Usare IA per discutere casi reali pubblicamente

"Ho condiviso il caso difficile su un forum vet pubblico" → finisce in dataset di training, è in chiaro online. Usa gruppi privati (Telegram, gruppi WhatsApp tra colleghi).

14. Ignorare aggiornamenti normativi

L'AI Act europeo è entrato in vigore. Tieniti informato.

15. Pensare che l'IA sostituisca formazione

"Tanto chiedo a ChatGPT". La formazione continua veterinaria (FAD, congressi, letteratura) resta il fondamento. L'IA è amplificatore, non sostituto del sapere clinico solido.

Cosa fare invece

  • Anonimizza sempre.
  • Verifica sempre output IA.
  • Tieni la firma e responsabilità tue.
  • Forma lo staff sull'uso etico dell'IA.
  • Usa modelli locali per dati sensibili.
  • Aggiorna policy interna privacy ogni 6 mesi.

Se vuoi confrontarti con altri colleghi che usano l'IA in ambulatorio, c'è il gruppo Telegram Squalogruppo. Si parla di tool, errori da evitare e casi pratici. Niente fuffa.

Hai un dubbio? Vieni a parlarne.

Gruppo Telegram aperto. Domande, opinioni, casi vissuti. Senza venditori e senza spam. Per consulenza personale o caso aziendale, usa il pulsante consulenza.