L'AI Incident Database (incidentdatabase.ai) è un repository pubblico, gestito dalla Responsible AI Collaborative, che cataloga sistematicamente incidenti reali causati da sistemi di intelligenza artificiale: errori, danni a persone, discriminazioni, fallimenti che hanno avuto conseguenze concrete.
Lanciato nel 2020 ispirato all'Aviation Safety Reporting System dell'aviazione: l'idea è che imparare dagli incidenti passati riduca il rischio di ripeterli.
Tipi di incidenti documentati (oltre 700 a fine 2025):
- Discriminazione algoritmica: COMPAS recidiva, Apple Card credit scoring, Amazon hiring.
- Veicoli autonomi: incidenti Tesla Autopilot, Uber a Tempe (Arizona, 2018, prima vittima fatale).
- Riconoscimento facciale: arresti errati in USA (Robert Williams, Michael Oliver, Nijeer Parks).
- Generazione contenuti: deepfake non consensuali, immagini abuso minori generate, disinformazione politica.
- Chatbot dannosi: Microsoft Tay 2016 (razzista in 24 ore), suicidi indotti da chatbot, terapie scorrette.
- Decisioni automatizzate: Robodebt Australia, sistema fraud welfare olandese SyRI, INPS algoritmi.
- Bias linguistici: traduzione, riassunto, hate speech detection che fallisce su dialetti.
Per ogni incidente:
- Descrizione dell'evento.
- Sistema IA coinvolto.
- Chi ha subito il danno.
- Reportistica giornalistica e accademica.
- Tassonomia (categoria, gravità, causa).
Risorse correlate:
- OECD AI Incident Monitor: equivalente OECD.
- AIAAIC Repository: focus su controversie etiche.
- EU AI Incident Reporting: in fase di sviluppo nell'AI Act per sistemi alto rischio.
Per chi sviluppa o deploya IA: leggere periodicamente il database è formazione gratuita. Vedere come hanno sbagliato gli altri ti fa risparmiare di sbagliare uguale. L'AI Act obbliga reporting di incidenti gravi all'EU AI Office: cultura dell'incident reporting sta diventando standard, non opzione.