Misinformazione con IA

Diffusione di informazioni false (involontaria) potenziata dall'IA. Diversa dalla disinformazione (intenzionale). LLM con allucinazioni amplificano errori in modo virale.

La distinzione tra misinformation (errore non intenzionale) e disinformation (falsità deliberata) è importante. L'IA peggiora entrambe, ma in modi diversi.

Misinformation con IA:

  • Allucinazioni di LLM presentate come fatti.
  • Articoli generati con dati sbagliati ma plausibili.
  • Sintesi automatiche di testi che invertono il senso.
  • Tradizioni "trasformate" da modelli che ignorano il contesto.
  • Citazioni inventate ma attribuite a persone reali.

Esempi reali:

  • Air Canada chatbot (2024): un bot dell'azienda promette uno sconto inesistente, il cliente lo prende sul serio. Tribunale canadese: l'azienda deve onorarlo. Caso scuola.
  • Falsi case histories medici: ChatGPT ha citato studi inesistenti come fonti per consigli sanitari.
  • Avvocato di NY 2023: usa ChatGPT per scrivere memoria legale, cita 6 sentenze inventate. Sanzionato.
  • Wikipedia 2024: tracciati migliaia di articoli con contenuti generati da LLM, alcuni con errori fattuali.

Differenza con la disinformazione:

  • Misinformation: nessuno vuole ingannare. Errore tecnico, pigrizia umana, fiducia mal riposta nell'IA.
  • Disinformazione: c'è intenzione. Vedi disinformazione elettorale, fake news.

Difese:

  • Mai citare un LLM come fonte. L'LLM ti deve indicare la fonte, che tu poi verifichi.
  • Doppia verifica per fatti sensibili (date, numeri, citazioni, leggi).
  • Tool di provenance (C2PA, watermarking) per contenuti multimediali.
  • Educazione digitale: a scuola, in azienda, in famiglia.

Lezione: l'IA non è "una persona che mente". È uno strumento che genera testo plausibile, non vero. Confondere i due piani è la radice di buona parte della misinformation moderna.