IA che fa screening CV: discriminazione algoritmica e responsabilità HR

Sei HR, recruiter o titolare PMI che riceve 200 CV per ogni posizione. La tentazione di farli leggere a un IA è enorme. Ma se il sistema discrimina, la responsabilità ricade su di te. AI Act la classifica ad alto rischio.

Di Super Squalo·6 min lettura
Nota. Disclaimer rapido: l'IA cambia in fretta, le guide invecchiano in fretta. Faccio il possibile per aggiornarle, ma se leggi a distanza di tempo verifica due volte i dettagli più tecnici. Per dubbi, contattami.

Mercoledì pomeriggio, ufficio HR di una PMI da centocinquanta dipendenti. Hai aperto una posizione da impiegato amministrativo. In tre giorni sono arrivati duecentoventi CV. Tu sei una persona sola, hai anche le buste paga e i colloqui in coda. La tentazione di buttare tutto su un'IA che ti dica "questi sono i dieci migliori" è enorme.

Ti risparmia tre pomeriggi. Solo che, se quel sistema discrimina, la responsabilità è tua. Non del fornitore. Te la ti racconto tutta intera.

Il pasticcio in cui finisci se ti fidi del primo screening IA

Il primo punto è semplice: la legge europea sull'IA mette i sistemi che fanno selezione di personale fra quelli ad alto rischio. Vuol dire obblighi pesanti per chi li usa: trasparenza con chi si candida, registro delle decisioni, sorveglianza umana vera, valutazione di impatto sui diritti delle persone. Non è opzionale, e non sparisce perché il fornitore ha messo la marcatura CE.

Il secondo è il caso vero che ha cambiato tutto. Amazon, anni fa, ha buttato via uno screening IA perché penalizzava i CV con la parola "women's". Sì, davvero. Il sistema aveva imparato che chi era stato assunto in passato erano uomini, e replicava il pregiudizio. Una cosa simile è successa nel 2023 anche su sistemi venduti negli Stati Uniti. Il punto: l'IA impara dai dati storici, e se i dati storici sono storti, l'IA è storta.

Il terzo è il rischio italiano. Il GDPR vieta decisioni interamente automatizzate che producano effetti significativi su una persona. Una mancata convocazione a colloquio è proprio un effetto significativo. Se il candidato si lamenta e dimostra che l'IA ha deciso da sola, prendi una multa fino al 4% del fatturato. Synlab nel 2024 ha pagato 2,5 milioni di sanzione GDPR. Non sono cifre da ridere.

Cosa NON puoi fare

Non puoi caricare i duecentoventi CV su ChatGPT, Gemini o Copilot e chiedere "dammi i migliori dieci". Quei CV contengono dati personali di terzi, finiscono su server americani, non hai base giuridica chiara, e sopra c'è anche il rischio di output discriminatorio.

Non puoi escludere un candidato sulla base del solo punteggio dell'IA, senza che un essere umano abbia letto il CV. Si chiama sorveglianza umana, e non è un concetto astratto: vuol dire che tu apri il CV, lo leggi, decidi.

Non puoi non dire al candidato che stai usando uno strumento IA come supporto. La trasparenza è obbligo di legge.

Non puoi usare un fornitore che non ti dà la documentazione tecnica del sistema. Vuol dire come è stato addestrato, su quali dati, con quali test contro i bias. Senza quella roba, la responsabilità ricade tutta su di te.

Cosa invece si può fare bene

L'IA in HR ha senso, ma in un ruolo preciso: aiuto, non giudice. Il workflow corretto la usa per quattro cose:

Estrazione strutturata dei dati: l'IA legge il CV e ti riempie una griglia (anni di esperienza, lingue, certificazioni, città). Non valuta, ordina solo le informazioni. È utile e non discrimina.

Match oggettivo coi requisiti minimi: laurea richiesta sì/no, anni di esperienza minimi sì/no, lingua richiesta sì/no. Roba binaria, non interpretazione. Filtra i CV che non rispettano i prerequisiti dichiarati.

Riassunto del profilo: ti dà un riassunto di cinque righe che leggi in dieci secondi. Tu decidi se vale il colloquio.

Anti-bias check: usi un sistema che controlla se il punteggio sta penalizzando sistematicamente certi gruppi (donne, fasce d'età, codici postali di certe zone). Se sì, ti fermi e capisci perché.

La decisione finale di chiamare a colloquio resta umana, sempre. Tu apri i CV scremati, li leggi, e firmi tu il "sì" o "no".

I paletti che non si toccano

Sistema IA che gira su server in Europa, possibilmente in casa o presso un fornitore italiano. Niente cloud americano per CV di candidati italiani. Informativa al candidato chiara: "la valutazione del CV è supportata da uno strumento di intelligenza artificiale, la decisione finale è umana". Una riga nell'annuncio, una nel modulo di candidatura. Conservazione dei CV per il tempo strettamente necessario, cancellazione automatica dopo, log di chi ha guardato cosa.

Per le aziende oltre i cinquanta dipendenti c'è anche il tema della contrattazione collettiva. L'introduzione di sistemi IA nella selezione va comunicata, e in alcuni casi negoziata. Ignorarlo è un altro fronte aperto.

Una nota personale

Io monto sistemi IA privati per aziende italiane. Niente cloud americano, server in Europa, output verificabile. Non vendo corsi HR, non vendo abbonamenti, non vendo formule magiche. Se ti trovi sul tavolo duecento CV e non sai come usare l'IA senza prendere una multa, sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) ne discutiamo, e si risponde gratis.

I duecentoventi CV del mercoledì, intanto, lasciali stare. Domani li gestisci nel modo giusto.

Hai un dubbio? Vieni a parlarne.

Gruppo Telegram aperto. Domande, opinioni, casi vissuti. Senza venditori e senza spam. Per consulenza personale o caso aziendale, usa il pulsante consulenza.