Martedì mattina, riunione di compliance. Sei il responsabile dell'azienda che ha appena comprato un sistema IA per filtrare i curriculum. Il consulente esterno ti dice che è "alto rischio". Il fornitore del software ti giura di no. Chi ha ragione? Apri la legge europea sull'intelligenza artificiale e vai a leggere l'elenco dei sistemi alto rischio.
Spoiler: il consulente ha ragione, il fornitore vuole solo venderti il prodotto. Ti racconto le otto categorie senza giri di parole.
Il pasticcio in cui finisci se ti fidi del fornitore
La legge europea sull'intelligenza artificiale (l'AI Act, in italiano la legge UE sull'IA) divide i sistemi in quattro fasce. Vietati, alto rischio, rischio limitato, rischio minimo. L'elenco di quelli alto rischio è chiaro, ma il fornitore ha sempre interesse a dirti che il suo sistema è "solo di supporto".
Sbagli classificazione e ti ritrovi con obblighi non rispettati. Le sanzioni? Fino a 15 milioni di euro o 3% del fatturato globale per le violazioni sui sistemi alto rischio. Fino a 35 milioni o 7% per le pratiche vietate. Non sono cifre da prendere a ridere.
Aggiungi che le autorità italiane (l'agenzia per il digitale e l'agenzia di cybersicurezza) hanno già cominciato l'attività preparatoria.
Le otto categorie di sistemi alto rischio
Ecco l'elenco, in italiano comprensibile.
Uno, identificazione biometrica. Sistemi che riconoscono persone dal volto a distanza, sistemi che le classificano per attributi sensibili, sistemi che riconoscono le emozioni.
Due, infrastrutture critiche. Sistemi che gestiscono il traffico stradale, l'acqua, il gas, l'elettricità, il riscaldamento.
Tre, scuola e formazione. Sistemi per ammissione, valutazione, monitoraggio degli studenti, individuazione delle frodi durante gli esami.
Quattro, lavoro. Sistemi per filtrare curriculum, valutare candidati, decidere promozioni o licenziamenti, monitorare il rendimento dei dipendenti.
Cinque, servizi essenziali. Sistemi per accesso a benefici pubblici, valutazione del merito creditizio per le banche, prezzi delle assicurazioni vita e salute, smistamento delle chiamate di emergenza.
Sei, forze dell'ordine. Sistemi che valutano il rischio di recidiva, l'attendibilità delle prove, profilazione individuale per indagini.
Sette, migrazione e frontiere. Sistemi per esaminare domande di visto e asilo, identificazione in contesti migratori.
Otto, giustizia ed elezioni. Sistemi che assistono i giudici nell'interpretare fatti e norme, sistemi che possono influenzare elezioni o referendum.
Cosa NON puoi fare
Non puoi fidarti del marketing del fornitore quando dice "il nostro sistema non è alto rischio". Lo classifichi tu, dopo lettura attenta della legge.
Non puoi pensare di cavartela perché sei piccolo. Le multe valgono per tutti. E la tua dimensione conta solo per il calcolo della percentuale, non per l'applicazione delle regole.
Non puoi ignorare le novità future. Una piccola modifica al sistema può farlo passare da rischio limitato ad alto rischio dall'oggi al domani.
Non puoi dimenticarti di chi usa il sistema dopo il fornitore. Anche tu che lo metti in produzione hai obblighi tuoi: registro degli usi, sorveglianza umana, segnalazione di incidenti.
Cosa invece si può fare bene
Mappi i tuoi sistemi IA, uno per uno, e per ognuno rispondi a una domanda: rientra in una delle otto categorie? Se sì, parti con la conformità.
Per ogni sistema alto rischio servono dodici cose. Gestione del rischio documentata. Dati di addestramento di qualità, testati per discriminazione. Scheda tecnica completa. Registro automatico degli eventi. Istruzioni d'uso chiare. Intervento umano efficace possibile. Accuratezza e cybersicurezza dichiarate. Sistema di gestione della qualità. Registrazione nel database europeo. Marcatura CE. Valutazione di impatto sui diritti fondamentali per i soggetti pubblici. Segnalazione di incidenti gravi.
Sembra una montagna. Si fa con metodo, in tre o quattro mesi per un sistema medio. Senza dramma.
C'è una via di mezzo. La legge prevede che un sistema dell'elenco non è automaticamente alto rischio. Esce dall'alto rischio se fa solo un compito ristretto. O se migliora un risultato umano. O se segnala pattern senza decidere. O se prepara solo materiale per la decisione finale. Esempio: un sistema che ordina cronologicamente i curriculum è preparatorio, non alto rischio. Un sistema che assegna punteggio e graduatoria invece lo è. La differenza la fa la sostanza.
I paletti che non si toccano
Le scadenze sono chiare. Da agosto 2026 si applicano gli obblighi sui sistemi alto rischio dell'elenco. Da agosto 2027 quelli sui sistemi alto rischio integrati in prodotti regolati (dispositivi medici, automobili).
Apri l'elenco, mappa i tuoi sistemi, classifica con onestà. Se rientri, parti subito. Se non rientri, documenta perché: serve un foglio fatto bene, non una tesi di laurea. E ricontrolla ogni volta che cambi qualcosa nel sistema.
Una nota personale
Io di mestiere monto sistemi IA privati per aziende italiane, e una delle prime cose che facciamo è questa mappa. Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) si chiacchiera ogni giorno di queste classificazioni, e si risponde gratis.
L'elenco delle otto categorie, intanto, riprendilo. Stavolta col tuo sistema in mano, e con la testa di chi non si fa raccontare frottole dal fornitore.