L'AI ethics è la disciplina che studia i problemi etici, sociali e filosofici sollevati dallo sviluppo e dall'uso dell'intelligenza artificiale. Nata negli anni '70 come riflessione filosofica, oggi è anche disciplina applicata con corsi universitari, ruoli aziendali, framework normativi.
Aree principali:
- Fairness e discriminazione: sistemi che svantaggiano gruppi.
- Autonomia umana: chi decide quando l'IA decide?
- Accountability: chi risponde quando l'IA sbaglia?
- Privacy: dati personali nei training set.
- Trasparenza: capire come l'IA prende decisioni.
- Lavoro: automazione e disoccupazione.
- Ambiente: impatto energetico dei modelli giganti.
- Dignità umana: deepfake, manipolazione, sostituzione di rapporti umani.
- Concentrazione di potere: poche aziende controllano tecnologia critica.
- Rischi esistenziali: ipotesi (controverse) di IA fuori controllo.
Documenti di riferimento:
- Asilomar AI Principles (2017): 23 principi firmati da Hinton, Bengio, Musk.
- OECD Principles on AI (2019).
- UNESCO Recommendation on AI Ethics (2021).
- EU Ethics Guidelines for Trustworthy AI (2019).
- Vatican Rome Call for AI Ethics (2020): firmato anche da IBM, Microsoft.
Critiche al campo:
- Ethics washing: aziende che pubblicano principi etici ma poi non li applicano.
- Vaghezza: principi alti livello difficili da operazionalizzare.
- Cattura: l'AI ethics aziendale è spesso pagata da chi ha interesse a non cambiare niente.
- Eurocentrismo: la maggior parte delle riflessioni viene da prospettive occidentali ricche.
Per le aziende: l'AI ethics non è opzionale o solo branding. Con l'AI Act, certe scelte etiche sono diventate obblighi giuridici. E le sanzioni reputazionali per chi sbaglia sono pesanti. Caso ChatGPT-Garante 2023: bloccato per problemi etici e privacy, riaperto solo dopo modifiche sostanziali.