L'allucinazione è quando un'IA ti dà una risposta plausibile, sicura, ben scritta — ma totalmente sbagliata. Numero inventato. Fatto storico mai successo. Sentenza inesistente. Studio scientifico fasullo.
Non lo fa apposta. Non ti sta mentendo nel senso umano. È il modo in cui funzionano gli LLM: calcolano la prossima parola più probabile. Se la più probabile è plausibile ma falsa, te la danno comunque.
Esempi reali documentati:
- 2023: avvocato americano cita in tribunale sentenze "trovate" da ChatGPT. Le sentenze non esistevano. Sospeso dall'albo.
- 2024: studi accademici devono ritirare articoli scientifici dove l'IA aveva inventato citazioni che non esistevano.
- Casi quotidiani: ChatGPT che ti dà numeri di telefono sbagliati, indirizzi errati, riferimenti normativi inesistenti. Sembrano corretti.
Come ridurre il rischio:
- Mai citare un fatto specifico (numero, data, nome) senza verificarlo da fonte primaria.
- Usare RAG: l'IA risponde solo basandosi su documenti che le hai dato, non sulla sua memoria.
- Modelli con citazioni: alcuni (Perplexity, You) ti danno fonti che puoi cliccare. Comodo per verificare.
- Domanda "su cosa si basa": a volte il modello stesso ammette di non avere fonti certe.
Le allucinazioni sono il motivo numero uno per cui non puoi delegare ciecamente all'IA decisioni serie.