AI Fairness

[èi-ai fèrnes]

Disciplina che studia come misurare e migliorare l'equità dei sistemi IA. Esistono decine di definizioni matematiche di fairness, alcune incompatibili tra loro.

L'AI fairness è la disciplina che studia come progettare, misurare e correggere sistemi IA affinché trattino equamente persone diverse. Non è solo etica: è anche un campo tecnico con metriche, algoritmi, librerie software.

Problema base: cosa significa "equo"? Sembra ovvio. Non lo è. Esistono almeno 21 definizioni matematiche di fairness in letteratura, e si è dimostrato (Kleinberg et al. 2016, Chouldechova 2017) che alcune sono matematicamente incompatibili: non puoi soddisfarle tutte contemporaneamente.

Definizioni principali:

  • Demographic parity: il modello predice "positivo" alla stessa frequenza per tutti i gruppi.
  • Equal opportunity: tra chi ha la classe positiva reale, il modello la indovina alla stessa frequenza per tutti i gruppi.
  • Equalized odds: parità sia di true positive rate sia di false positive rate.
  • Calibration: per ogni livello di confidenza del modello, l'accuratezza è la stessa per tutti i gruppi.
  • Counterfactual fairness: la decisione non cambia se cambi l'attributo sensibile (es. genere) tenendo fisso tutto il resto.

Strumenti pratici:

  • Fairlearn (Microsoft, open source).
  • AI Fairness 360 (IBM, open source).
  • What-If Tool (Google).
  • Aequitas (University of Chicago).

Approccio pratico per chi sviluppa:

  • Identifica gli attributi sensibili rilevanti per il tuo caso (genere, età, etnia, codice postale come proxy).
  • Scegli 2-3 metriche di fairness adatte al contesto e documenta perché hai scelto quelle.
  • Misura prima e dopo del training.
  • Se trovi disparità, applica tecniche di mitigazione: re-sampling, re-weighting, post-processing dei threshold.
  • Documenta tutto in una model card.

Realtà brutale: la fairness perfetta non esiste. Ogni scelta è un compromesso. Almeno fai scelte consapevoli e documentate.