Audit log per accessi ai tool IA: cosa registrare per essere conformi

Il Garante Privacy ti chiede chi ha fatto cosa, quando, su quali dati. ChatGPT Enterprise, Copilot, Claude: cosa loggano davvero? Cosa devi loggare tu? Guida pratica al logging IA conforme.

Di Super Squalo·5 min lettura
Nota. Nota onesta: l'IA è un campo che si muove a velocità di crociera. Aggiorno le guide ma le informazioni qui dentro possono essere parzialmente vecchie tra qualche mese. Se vuoi conferma su un dettaglio, scrivimi.

Lunedì mattina, ufficio del responsabile sicurezza di un'azienda lombarda. Arriva una mail dal Garante: "Chi nella vostra azienda ha caricato dati di clienti su ChatGPT il 14 marzo?". Lui apre i log, e non trova niente. Risposta: "Non lo sappiamo". Sanzione GDPR fino al 4% del fatturato. Esagerato? Forse. Plausibile? Eccome. Il Garante con OpenAI nel 2023 ha già messo paletti chiari sull'accountability dei dati che girano dentro tool IA.

Te la racconto come si tiene un audit log degli accessi ai tool IA, senza farsi venire un mezzo infarto.

Il pasticcio in cui finisci senza log

L'audit log è il diario di bordo: chi ha fatto cosa, quando, su quali dati. Per i sistemi tradizionali (ERP, CRM, posta) c'è da anni. Per i tool IA è ancora terra di nessuno in molte aziende. Risultato: i dipendenti caricano contratti, mail clienti, codici sorgente su ChatGPT, Gemini, Copilot, e nessuno tiene traccia.

Quando arriva una richiesta del Garante, una contestazione, un audit interno, sei nudo. Non sai cosa è uscito, da dove, per mano di chi. OpenAI 15 milioni a dicembre 2024 dal Garante per come gestiva i dati personali. Synlab 2,5 milioni nel 2024. Samsung 2023 ha bloccato i dipendenti dopo che codice confidenziale era finito nei prompt di ChatGPT. Casi reali, sanzioni vere.

Cosa devi registrare almeno

Sette campi base, niente di più, niente di meno. Uno: utente. Identificativo della persona, non l'utenza condivisa del reparto. Due: data e ora dell'interazione, in formato standard. Tre: strumento usato (ChatGPT, Gemini, Copilot, IA interna).

Quattro: tipo di operazione (prompt, upload file, esportazione output). Cinque: identificativo del dato trattato — se è un documento, il riferimento alla pratica o al cliente, mai il contenuto in chiaro nel log. Sei: dimensione e formato (es. "file PDF, 250 KB"). Sette: esito (ok, errore, blocco da policy).

Sette campi, riga per riga. Se domani il Garante chiede chi ha fatto cosa, in tre minuti tiri fuori la lista.

Cosa NON puoi fare

Non puoi registrare il contenuto del prompt in chiaro nel log. Se il prompt era "riassumimi la cartella clinica del signor Rossi", il log diventa lui stesso un dato sanitario. Tieni solo riferimenti.

Non puoi tenere i log dentro lo stesso sistema che monitorizzano. Se il log è sul server IA e quel server salta, perdi anche il log. Server separato, idealmente in casa o in un fornitore europeo.

Non puoi conservare i log per sempre. Il GDPR dice tempo necessario, non oltre. Per audit IA, sei mesi-due anni a seconda del rischio del trattamento. Cancellazione automatica, scritta nella policy.

Non puoi dare accesso ai log a tutti. Solo a chi nel team sicurezza ha un motivo per leggerli, con login personale, mai con utenze condivise.

Cosa invece si può fare bene

Architettura semplice: un sistema centralizzato di logging che riceve eventi da tutti i tool IA usati in azienda. Per i tool a pagamento (ChatGPT Enterprise, Copilot for Business) i log esistono già, ti basta esportarli. Per quelli più semplici, un proxy aziendale che intercetta le chiamate e logga in locale.

Se hai un IA dedicata in casa, il log si fa in modo nativo. Server in Europa, dati cifrati, accesso solo al team sicurezza. Esportazione standard se domani arriva una richiesta del Garante.

Allerte automatiche utili. Il sistema avvisa il responsabile sicurezza se un dipendente carica più di tot file in un'ora. Se prova ad accedere a un tool non autorizzato. Se il prompt contiene parole chiave sensibili: numeri di carta, codici fiscali, nominativi VIP. Prevenire è meglio che spiegare al Garante.

I paletti che non si toccano

Conservazione dei log su server separato dalla produzione, in UE. Cancellazione automatica al termine del periodo dichiarato. Niente log che fanno il giro del mondo nei backup di un cloud americano.

Accesso ristretto, login personali, audit del log stesso (chi ha letto i log e quando). Per evitare di trovare il log alterato il giorno dopo l'ispezione.

Documentazione scritta: policy di logging IA aziendale. Cosa registri, perché, per quanto, chi accede, cosa fai con gli alert. Una pagina A4 ben fatta, non una tesi di laurea.

Formazione del personale: i dipendenti devono sapere che le interazioni con i tool IA sono tracciate. Trasparenza, non controllo segreto. È anche tutela loro: se domani vengono accusati di aver caricato dati confidenziali, il log dimostra che non sono stati loro.

Una nota personale

Io di mestiere monto sistemi IA privati per aziende italiane. Niente corsi, niente formule magiche. Sul gruppo Telegram di Super Squalo (t.me/Squalogruppo) si parla di sicurezza, log, GDPR ogni settimana, e si risponde gratis.

La mail del Garante del lunedì mattina, intanto, è ipotetica. Ma nel 2027 sarà reale per qualcuno. Meglio se non per te.

Hai un dubbio? Vieni a parlarne.

Gruppo Telegram aperto. Domande, opinioni, casi vissuti. Senza venditori e senza spam. Per consulenza personale o caso aziendale, usa il pulsante consulenza.