La distinzione tra misinformation (errore non intenzionale) e disinformation (falsità deliberata) è importante. L'IA peggiora entrambe, ma in modi diversi.
Misinformation con IA:
- Allucinazioni di LLM presentate come fatti.
- Articoli generati con dati sbagliati ma plausibili.
- Sintesi automatiche di testi che invertono il senso.
- Tradizioni "trasformate" da modelli che ignorano il contesto.
- Citazioni inventate ma attribuite a persone reali.
Esempi reali:
- Air Canada chatbot (2024): un bot dell'azienda promette uno sconto inesistente, il cliente lo prende sul serio. Tribunale canadese: l'azienda deve onorarlo. Caso scuola.
- Falsi case histories medici: ChatGPT ha citato studi inesistenti come fonti per consigli sanitari.
- Avvocato di NY 2023: usa ChatGPT per scrivere memoria legale, cita 6 sentenze inventate. Sanzionato.
- Wikipedia 2024: tracciati migliaia di articoli con contenuti generati da LLM, alcuni con errori fattuali.
Differenza con la disinformazione:
- Misinformation: nessuno vuole ingannare. Errore tecnico, pigrizia umana, fiducia mal riposta nell'IA.
- Disinformazione: c'è intenzione. Vedi disinformazione elettorale, fake news.
Difese:
- Mai citare un LLM come fonte. L'LLM ti deve indicare la fonte, che tu poi verifichi.
- Doppia verifica per fatti sensibili (date, numeri, citazioni, leggi).
- Tool di provenance (C2PA, watermarking) per contenuti multimediali.
- Educazione digitale: a scuola, in azienda, in famiglia.
Lezione: l'IA non è "una persona che mente". È uno strumento che genera testo plausibile, non vero. Confondere i due piani è la radice di buona parte della misinformation moderna.