L'AI fairness è la disciplina che studia come progettare, misurare e correggere sistemi IA affinché trattino equamente persone diverse. Non è solo etica: è anche un campo tecnico con metriche, algoritmi, librerie software.
Problema base: cosa significa "equo"? Sembra ovvio. Non lo è. Esistono almeno 21 definizioni matematiche di fairness in letteratura, e si è dimostrato (Kleinberg et al. 2016, Chouldechova 2017) che alcune sono matematicamente incompatibili: non puoi soddisfarle tutte contemporaneamente.
Definizioni principali:
- Demographic parity: il modello predice "positivo" alla stessa frequenza per tutti i gruppi.
- Equal opportunity: tra chi ha la classe positiva reale, il modello la indovina alla stessa frequenza per tutti i gruppi.
- Equalized odds: parità sia di true positive rate sia di false positive rate.
- Calibration: per ogni livello di confidenza del modello, l'accuratezza è la stessa per tutti i gruppi.
- Counterfactual fairness: la decisione non cambia se cambi l'attributo sensibile (es. genere) tenendo fisso tutto il resto.
Strumenti pratici:
- Fairlearn (Microsoft, open source).
- AI Fairness 360 (IBM, open source).
- What-If Tool (Google).
- Aequitas (University of Chicago).
Approccio pratico per chi sviluppa:
- Identifica gli attributi sensibili rilevanti per il tuo caso (genere, età, etnia, codice postale come proxy).
- Scegli 2-3 metriche di fairness adatte al contesto e documenta perché hai scelto quelle.
- Misura prima e dopo del training.
- Se trovi disparità, applica tecniche di mitigazione: re-sampling, re-weighting, post-processing dei threshold.
- Documenta tutto in una model card.
Realtà brutale: la fairness perfetta non esiste. Ogni scelta è un compromesso. Almeno fai scelte consapevoli e documentate.