L'IA di supporto alla diagnosi sta entrando nella sanità in modo serio: dermatologia, radiologia, oftalmologia, anatomia patologica. Ma è importante essere precisi: si chiama "supporto", non "sostituzione". E con buon motivo.
Sistemi reali approvati:
- IDx-DR: prima IA approvata FDA (2018) per diagnosi retinopatia diabetica.
- Aidoc, Viz.ai: AI radiologica per stroke detection.
- Paige.AI: anatomia patologica, prima IA approvata FDA per cancro prostatico.
- Skin Vision, MetaOptima: dermatologia AI.
- Google DeepMind / Verily: ricerca avanzata, screening retina, mammografia.
- ChatGPT/Claude: usati impropriamente da pazienti per autodiagnosi (sconsigliato).
Cosa fanno:
- Pre-screening immagini diagnostiche (ECG, RX, TAC, RMN, vetrini).
- Triage casi urgenti (es. sospetto ictus su TAC).
- Differential diagnosis support (lista possibili diagnosi).
- Predizione progressione malattia.
- Drug interaction checking.
Pro reali documentati:
- Sensibilità a volte superiore a medico singolo (ma comparabile a panel di medici).
- Velocità in screening massivi.
- Riduzione errori di omissione.
- Supporto in zone con carenza di specialisti.
Contro seri:
- Falsi positivi/negativi: errori medici da AI sono certificati e documentati. Causano cure sbagliate.
- Bias addestramento: modelli addestrati su popolazioni nordeuropee falliscono su altre etnie.
- Generalizzazione: un'IA brava su un dataset spesso fa schifo su un altro ospedale.
- Responsabilità: se l'IA sbaglia chi è responsabile? Medico, ospedale, vendor? Zona grigia legale.
- Black box: deep learning non spiega "perché" pensa che ci sia un cancro. Difficile per il medico contraddire.
- AI Act: classifica IA medica come "alto rischio". Servono certificazioni, audit, documentazione.
Verità: questi tool funzionano BENE come secondo lettore. Aiutano il medico a non sbagliare. NON sono medici autonomi e non lo saranno per molti anni. Pazienti: non auto-diagnosticatevi su ChatGPT, è una stronzata che può costarvi la salute.