Sei il responsabile sicurezza. Hai la ISO 27001 dal 2019. Tre anni fa l'hai migrata alla versione 2022. Quest'anno hai introdotto un assistente IA per il team di sviluppo e un copilot per il customer care. Tra otto mesi hai l'audit di sorveglianza.
Domanda: i controlli di sicurezza li stai applicando anche all'IA? Se la risposta è "mah, più o meno", l'auditor ti scrive una non conformità maggiore e ti tocca rifare il lavoro in fretta e furia.
Il pasticcio in cui finisci se non aggiorni i controlli
La ISO 27001 versione 2022 ha rivisto l'elenco dei controlli di sicurezza. Sono passati da 114 a 93, raggruppati in quattro temi: organizzativi, persone, fisici, tecnologici. Sono stati introdotti 11 controlli nuovi, e di questi almeno 5 toccano direttamente i sistemi IA — anche se la norma non li nomina esplicitamente.
Il rischio? L'auditor ti chiede "come gestisci i prompt injection sul vostro chatbot interno?" e tu non hai una risposta documentata. Non conformità maggiore. Da chiudere in 90 giorni o perdi il certificato. E con la perdita del certificato perdi anche i clienti che te lo richiedevano in gara. Ho visto aziende perdere contratti da 800 mila euro all'anno per una cosa così.
Cosa NON puoi fare
Non puoi trattare l'IA come "un altro software" nel registro dei sistemi. È un fornitore cloud a tutti gli effetti, con rischi specifici (allucinazioni, prompt injection, fuga di dati nei prompt) che vanno mappati a parte.
Non puoi rispondere allo Statement of Applicability in modo generico. "Implementato" non basta. L'auditor vuole il come, il con quale strumento, ogni quanto lo verifichi.
Non puoi ignorare la cancellazione dei dati. Una volta che hai dato un dato a un modello cloud, è praticamente impossibile cancellarlo dal modello stesso. Soluzione: non darglielo, oppure usare istanze dedicate con conservazione zero scritta nel contratto.
Non puoi lasciare i developer liberi di usare Copilot e Cursor senza una policy. Code review obbligatoria sui suggerimenti dell'IA, controlli automatici su pattern pericolosi (chiavi messe in chiaro, librerie con vulnerabilità note).
Non puoi dimenticarti la mascheratura dei dati in ingresso. Qualunque chatbot interno che riceve email dei clienti, ticket, documenti deve avere un filtro che riconosce e nasconde dati personali prima di passarli al modello.
Cosa invece si può fare bene
Cinque punti operativi. Primo, mantieni un inventario aggiornato dei sistemi IA in uso: quale modello, quale fornitore, quali dati gli passano. Aggiornato vuol dire al mese, non all'anno.
Secondo, fai un risk assessment specifico per l'IA, integrato nel registro rischi generale. Prompt injection, jailbreak, allucinazioni, fuga di dati. Ogni rischio con la sua probabilità e il suo impatto.
Terzo, policy d'uso firmate dai dipendenti. Cosa possono caricare, cosa no, su quali strumenti. Niente ambiguità, niente "la prossima volta vediamo".
Quarto, log e monitoraggio con almeno 12 mesi di storico. Chi ha usato cosa, quando, su quali documenti. Senza log non hai evidenza, e senza evidenza l'audit lo perdi.
Quinto, un incident response plan che includa scenari IA: data leak via prompt, jailbreak in produzione, allucinazione che finisce nelle email ai clienti. Provalo almeno una volta all'anno.
I paletti che non si toccano
I fornitori IA cloud (OpenAI, Anthropic, Google, Microsoft) sono fornitori cloud a tutti gli effetti. Vanno valutati con i criteri standard: dove sta il datacenter, certificazioni, contratto sul trattamento dati, durata della conservazione, diritto di audit. Niente sconti.
Per dati sensibili la regola è: server europeo, modello aperto, conservazione zero. Niente trasferimenti fuori UE senza tutele scritte. Niente "tanto i dati anonimizzati possono uscire": l'anonimizzazione vera è difficile, e gli auditor seri lo sanno.
E sui developer: code review obbligatoria sui suggerimenti dell'IA, ban automatico sui pattern rischiosi, formazione specifica sulla sicurezza dei prompt. Non è un di più, è il minimo.
Esiste anche una norma certificabile più recente, dedicata proprio alla gestione dei sistemi IA. Si integra bene con la ISO 27001 e in gara pubblica fa la differenza. Non è obbligatoria, ma se gestisci IA in modo intensivo vale la pena valutarla.
Una nota personale
L'auditor non è il tuo nemico. È il tuo specchio. Se ti dice che hai un buco, è perché c'è. Tappa subito, e la prossima volta arrivi più tranquillo.
Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) ci sono responsabili sicurezza che si scambiano esempi reali di Statement of Applicability aggiornati per l'IA. Si chiacchiera, si risponde gratis, niente corsi. Riprendi il documento, riapri lo SoA. Otto mesi sono pochi, ma bastano se inizi adesso.