Ti capita un caso strano. Vuoi vedere cosa dice la letteratura recente. Apri PubMed, fai una ricerca, escono 200 articoli, 90% irrilevanti. Devi leggere abstract uno per uno, scartare, scaricare PDF, leggere paper interi. Mezza giornata. L'IA accorcia molto questo processo.
Strumenti reali
- Elicit.com: cerca paper, riassume, confronta. Specifico per ricerca scientifica.
- Consensus.app: domande in linguaggio naturale, risposte basate su paper.
- Perplexity (modalità ricerca accademica): risposte con citazioni.
- Claude / ChatGPT: lettura e sintesi di paper caricati.
- Scite.ai: capisce se un paper è citato a favore o contro un'affermazione.
- SciSpace: spiega paper complessi in linguaggio semplice.
Workflow tipo
- Definisci la domanda clinica precisa (no "leishmaniosi cane", sì "miltefosina vs allopurinolo monoterapia leishmaniosi cane: efficacia comparata").
- Vai su Consensus o Elicit, digiti la domanda.
- Ti dà 10-20 paper rilevanti con sintesi.
- Selezioni i 3-5 più importanti.
- Scarichi PDF (open access o via università).
- Carichi in Claude. Prompt: "leggi questi 5 paper, fai sintesi comparativa, evidenzia consensi e disaccordi, conclusione applicabile a pratica clinica italiana".
- Tempo totale: 30-45 minuti vs 4-6 ore di metodo tradizionale.
Esempio: aggiornamento su CKD felino
Domanda: "Nuovi marcatori di funzionalità renale gatto, ultimi 3 anni." Consensus mi dà 15 paper. Top 3: SDMA validato vs creatinina, FGF23 marker precoce, lipocalina urinaria. Carico paper in Claude. Sintesi in italiano in 5 minuti. Adesso so cosa misurare in più rispetto a quello che facevo l'anno scorso.
Bias e limiti
- Knowledge cutoff: i modelli IA hanno data limite di training. Per ricerche su pubblicazioni recentissime (ultimi 3-6 mesi) usa Perplexity o motori live, non LLM puri.
- Citazioni inventate: ChatGPT può inventare paper. Verifica sempre che esistano davvero.
- Bias linguistico: letteratura inglese predomina. Letteratura italiana, francese, tedesca rappresentata meno.
- Bias geografico: clinica nordamericana sovrarappresentata vs europea.
Verifica delle citazioni
Quando l'IA cita un paper: vai su PubMed, cerca per autore+anno+rivista. Se non esiste, è inventato. Buttalo.
Lettura critica paper
Carichi paper in Claude. Prompt: "leggi questo paper come revisore peer-review esperto. Identifica: 1) Forza disegno studio 2) Sample size adequato? 3) Bias possibili 4) Validità statistica 5) Applicabilità clinica 6) Conflitti interesse 7) Voto complessivo qualità (alto/medio/basso)."
Output: critical appraisal strutturato. Tu impari a leggere paper meglio col tempo.
Bibliografia per articoli e tesi
Devi scrivere articolo per congresso o tesi specialistica. ChatGPT ti aiuta a strutturare bibliografia, formattarla in stile Vancouver, identificare paper chiave da citare. Verifica sempre citazioni inventate.
Aggiornamento continuo automatizzato
Setup: Google Scholar Alert su 5-10 keyword di tuo interesse → email settimanale con nuovi paper → ChatGPT ti riassume in 5 minuti. Aggiornamento continuo con effort minimo.
Database open access
- PubMed: gratis, copertura buona.
- DOAJ: directory di riviste open access.
- BioRxiv / medRxiv: preprint (non peer-reviewed, attenzione).
- Scopus / Web of Science: a pagamento, accesso via università.
- SciHub: accesso pirata, quasi tutto disponibile, legalmente grigio.
Privacy
I paper pubblicati sono pubblici. Caricarli su IA non ha problemi. Diverso se lavori a paper non ancora pubblicato (riservato): modelli locali.
Costo
Consensus, Elicit, Perplexity hanno tier gratuiti utili. Per uso intenso: 20-30€/mese. Per veterinario che si aggiorna seriamente, ROI in tempo risparmiato è enorme.
Se vuoi confrontarti con altri colleghi che usano l'IA in ambulatorio, c'è il gruppo Telegram Squalogruppo. Si parla di tool, errori da evitare e casi pratici. Niente fuffa.