IA negli studi legali: cosa dice l'Ordine nel 2026

Il regolamento dell'Ordine sull'IA in studio nel 2026 non e' una circolare unica, e' un puzzle. Te lo metto in fila io, articolo per articolo, senza che tu debba leggerti 80 pagine di delibere.

Di Super Squalo·5 min lettura
Nota. Una nota: l'IA è un campo dove tre mesi sono un'era geologica. Tengo aggiornate le guide quando posso, ma alcuni dettagli potrebbero essere già fuori tempo. Se ti serve la versione di oggi, sai dove trovarmi.

Ti arriva la mail della segreteria dell'Ordine: "Si invitano gli iscritti a prendere visione del documento sull'utilizzo dell'intelligenza artificiale". Apri il PDF, sono 47 pagine. Lo chiudi. Ti riprometti di leggerlo "domani". Domani non arriva mai. E intanto continui a usare ChatGPT senza sapere se stai violando qualcosa. Fermati. Te lo riassumo in 6 minuti.

Non esiste UN regolamento, esistono tre fonti

Primo equivoco da spazzare via: nel 2026 non c'e' un "regolamento IA degli avvocati" monolitico. Quello che devi rispettare e' un puzzle di tre pezzi:

  • Codice deontologico forense (CNF), in particolare art. 6 (doveri di probita'), art. 12 (diligenza), art. 28 (segreto professionale), art. 35 (informazioni al cliente).
  • AI Act europeo (Reg. UE 2024/1689), entrato in vigore a tappe dal 2024, pienamente applicabile dal 2 agosto 2026. Classifica i sistemi IA per rischio.
  • Documenti di indirizzo CNF e Ordini territoriali: linee guida non vincolanti ma usate dai consigli disciplinari per valutare la condotta.

I tre paletti che devi conoscere a memoria

1. Responsabilita' personale: l'IA non firma

L'art. 12 del codice deontologico ti impone diligenza professionale. Tradotto: se l'IA ti scrive una citazione di una sentenza che non esiste e tu la depositi, la colpa e' tua. Non vale "me l'ha detto ChatGPT". Devi controllare ogni citazione, ogni norma, ogni numero di sentenza. Sempre.

2. Segreto professionale: art. 28 e art. 622 cp

Il segreto professionale e' inderogabile. Inviare dati riservati del cliente a un servizio cloud che li processa fuori UE puo' configurare violazione sia disciplinare sia penale. ChatGPT consumer, Gemini gratuito, Claude consumer: tutti processano fuori UE per impostazione predefinita. Soluzione: anonimizzazione preventiva o IA self-hosted.

3. Informazione al cliente: art. 35

Il punto su cui c'e' piu' confusione. La domanda corretta non e' "devo dirgli che uso l'IA?" ma "devo dirgli che i suoi dati passano fuori UE?". Se la risposta e' si' (cioe' se usi un servizio cloud non europeo), allora si', devi informarlo per iscritto e farti dare consenso esplicito ex GDPR.

L'AI Act in due righe (le uniche che ti servono)

L'AI Act classifica gli usi in studio legale come "alto rischio" quando l'IA influisce su diritti fondamentali (es. valutazione automatica di pratiche assistenza legale gratuita, profilazione clienti). Per il lavoro quotidiano (riassunti, bozze, ricerca giurisprudenza) sei in fascia rischio limitato: basta trasparenza con cliente e log dell'uso.

La checklist da appendere in studio

  • Anonimizzo i dati prima di usare IA esterne
  • Verifico ogni norma, sentenza e citazione prodotta dall'IA
  • Ho aggiornato l'informativa privacy del cliente menzionando trattamenti automatizzati
  • Tengo un registro (anche un foglio Excel) di quando uso l'IA su quale pratica
  • Non delego all'IA decisioni strategiche, solo bozze e ricerche

Se rispetti queste cinque cose, dormi tranquillo. Il resto sono chiacchiere da convegno. La prossima volta che il presidente del tuo Ordine fa una circolare, leggila in diagonale: il 90% e' gia' quello che ti ho scritto qui.

Hai un dubbio? Vieni a parlarne.

Gruppo Telegram aperto. Domande, opinioni, casi vissuti. Senza venditori e senza spam. Per consulenza personale o caso aziendale, usa il pulsante consulenza.