Allucinazione (Hallucination)

[allucinazione / hallùsineishon]

Quando un'IA risponde con sicurezza una cosa che è completamente inventata. Capita più di quanto credi. È il limite più pericoloso degli LLM.

L'allucinazione è quando un'IA ti dà una risposta plausibile, sicura, ben scritta — ma totalmente sbagliata. Numero inventato. Fatto storico mai successo. Sentenza inesistente. Studio scientifico fasullo.

Non lo fa apposta. Non ti sta mentendo nel senso umano. È il modo in cui funzionano gli LLM: calcolano la prossima parola più probabile. Se la più probabile è plausibile ma falsa, te la danno comunque.

Esempi reali documentati:

  • 2023: avvocato americano cita in tribunale sentenze "trovate" da ChatGPT. Le sentenze non esistevano. Sospeso dall'albo.
  • 2024: studi accademici devono ritirare articoli scientifici dove l'IA aveva inventato citazioni che non esistevano.
  • Casi quotidiani: ChatGPT che ti dà numeri di telefono sbagliati, indirizzi errati, riferimenti normativi inesistenti. Sembrano corretti.

Come ridurre il rischio:

  • Mai citare un fatto specifico (numero, data, nome) senza verificarlo da fonte primaria.
  • Usare RAG: l'IA risponde solo basandosi su documenti che le hai dato, non sulla sua memoria.
  • Modelli con citazioni: alcuni (Perplexity, You) ti danno fonti che puoi cliccare. Comodo per verificare.
  • Domanda "su cosa si basa": a volte il modello stesso ammette di non avere fonti certe.

Le allucinazioni sono il motivo numero uno per cui non puoi delegare ciecamente all'IA decisioni serie.