Ti arriva la mail della segreteria dell'Ordine: "Si invitano gli iscritti a prendere visione del documento sull'utilizzo dell'intelligenza artificiale". Apri il PDF, sono 47 pagine. Lo chiudi. Ti riprometti di leggerlo "domani". Domani non arriva mai. E intanto continui a usare ChatGPT senza sapere se stai violando qualcosa. Fermati. Te lo riassumo in 6 minuti.
Non esiste UN regolamento, esistono tre fonti
Primo equivoco da spazzare via: nel 2026 non c'e' un "regolamento IA degli avvocati" monolitico. Quello che devi rispettare e' un puzzle di tre pezzi:
- Codice deontologico forense (CNF), in particolare art. 6 (doveri di probita'), art. 12 (diligenza), art. 28 (segreto professionale), art. 35 (informazioni al cliente).
- AI Act europeo (Reg. UE 2024/1689), entrato in vigore a tappe dal 2024, pienamente applicabile dal 2 agosto 2026. Classifica i sistemi IA per rischio.
- Documenti di indirizzo CNF e Ordini territoriali: linee guida non vincolanti ma usate dai consigli disciplinari per valutare la condotta.
I tre paletti che devi conoscere a memoria
1. Responsabilita' personale: l'IA non firma
L'art. 12 del codice deontologico ti impone diligenza professionale. Tradotto: se l'IA ti scrive una citazione di una sentenza che non esiste e tu la depositi, la colpa e' tua. Non vale "me l'ha detto ChatGPT". Devi controllare ogni citazione, ogni norma, ogni numero di sentenza. Sempre.
2. Segreto professionale: art. 28 e art. 622 cp
Il segreto professionale e' inderogabile. Inviare dati riservati del cliente a un servizio cloud che li processa fuori UE puo' configurare violazione sia disciplinare sia penale. ChatGPT consumer, Gemini gratuito, Claude consumer: tutti processano fuori UE per impostazione predefinita. Soluzione: anonimizzazione preventiva o IA self-hosted.
3. Informazione al cliente: art. 35
Il punto su cui c'e' piu' confusione. La domanda corretta non e' "devo dirgli che uso l'IA?" ma "devo dirgli che i suoi dati passano fuori UE?". Se la risposta e' si' (cioe' se usi un servizio cloud non europeo), allora si', devi informarlo per iscritto e farti dare consenso esplicito ex GDPR.
L'AI Act in due righe (le uniche che ti servono)
L'AI Act classifica gli usi in studio legale come "alto rischio" quando l'IA influisce su diritti fondamentali (es. valutazione automatica di pratiche assistenza legale gratuita, profilazione clienti). Per il lavoro quotidiano (riassunti, bozze, ricerca giurisprudenza) sei in fascia rischio limitato: basta trasparenza con cliente e log dell'uso.
La checklist da appendere in studio
- Anonimizzo i dati prima di usare IA esterne
- Verifico ogni norma, sentenza e citazione prodotta dall'IA
- Ho aggiornato l'informativa privacy del cliente menzionando trattamenti automatizzati
- Tengo un registro (anche un foglio Excel) di quando uso l'IA su quale pratica
- Non delego all'IA decisioni strategiche, solo bozze e ricerche
Se rispetti queste cinque cose, dormi tranquillo. Il resto sono chiacchiere da convegno. La prossima volta che il presidente del tuo Ordine fa una circolare, leggila in diagonale: il 90% e' gia' quello che ti ho scritto qui.