La discriminazione algoritmica è la situazione in cui un sistema automatizzato (statistico o IA) produce decisioni che svantaggiano sistematicamente persone appartenenti a categorie protette: genere, etnia, religione, disabilità, orientamento sessuale, età.
Differenza chiave dal semplice bias: il bias è un problema tecnico/statistico, la discriminazione algoritmica è la sua conseguenza giuridica e sociale. Un sistema può essere biased senza che nessuno lo abbia voluto, ma una volta deployato produce discriminazione concreta.
Quadro normativo:
- Costituzione italiana: art. 3 (uguaglianza).
- Codice Pari Opportunità: D.lgs. 198/2006.
- Direttive UE antidiscriminazione: 2000/43, 2000/78, 2004/113, 2006/54.
- GDPR art. 22: divieto decisioni totalmente automatizzate con effetti giuridici.
- AI Act: classifica come "alto rischio" sistemi IA per assunzioni, credit scoring, accesso a servizi pubblici, giustizia.
Casi italiani ed europei:
- Caso Deliveroo Bologna 2020: il Tribunale ha condannato l'algoritmo "Frank" perché penalizzava i rider che facevano sciopero, considerandolo discriminatorio.
- Caso SyRI Olanda 2020: tribunale dell'Aja ha bloccato sistema antifrode welfare per discriminazione su classi povere.
- Caso Foodinho/Glovo 2021: Garante privacy italiano ha sanzionato per profilazione lavoratori senza adeguata trasparenza.
Cosa rischia chi deploya un algoritmo discriminatorio in Italia:
- Cause civili individuali e collettive.
- Sanzioni del Garante Privacy (fino a 20M o 4% fatturato).
- Sanzioni AI Act (fino a 35M o 7% fatturato per violazioni gravi).
- Danni reputazionali.
"Non sapevamo" non è una difesa. La giurisprudenza UE è ferma: chi deploya il sistema è responsabile dei suoi effetti, anche se l'effetto discriminatorio non era voluto.