Hai un caso di responsabilità medica con consenso informato dubbio, vuoi sapere come la Cassazione si sta muovendo negli ultimi due anni. Aprire DeJure, fare query, leggere 50 massime, scartarne 45, salvare le 5 buone: tre ore minimo. Con l'IA usata bene scendi a venti minuti, ma se la usi male depositi un ricorso con sentenze inesistenti e fai una figura terribile.
Il punto è capire dove l'IA aiuta e dove invece fa danni. Spoiler: aiuta tantissimo nell'analisi, è pericolosa nella fonte.
Dove l'IA fa miracoli
- Riassunto massive lunghe: dai in pasto 50 massime di DeJure, fai estrarre le 5 più pertinenti al tuo caso con motivazione.
- Confronto orientamenti: "Confronta queste 10 sentenze e dimmi se c'è contrasto, quale orientamento è prevalente."
- Sintesi sentenze lunghe: una pronuncia delle Sezioni Unite di 80 pagine ridotta a una pagina di ratio decidendi.
- Estrazione principi di diritto: dai i testi integrali, fai estrarre i passaggi argomentativi rilevanti.
Dove l'IA fa danni
Non chiedere mai a ChatGPT o Claude: "Trovami 5 sentenze della Cassazione del 2024 sul consenso informato". Risposta probabile: 5 sentenze inventate, con numeri e date plausibili ma false. Il problema è il fenomeno noto come "allucinazione": il modello genera testo plausibile, non fatti verificati.
L'IA non è una banca dati. Le fonti le tiri tu da DeJure, Italgiure, One Legale, Pluris. Poi le dai in pasto al modello per analisi, sintesi, confronto. Mai il contrario.
Workflow corretto
- Identifica la query giuridica (es: "responsabilità medica + consenso informato + onere della prova").
- Fai la ricerca su banca dati professionale, scarica 20-50 massime/sentenze rilevanti.
- Carica il pacchetto sul modello IA.
- Chiedi sintesi, classificazione per orientamento, estrazione passaggi chiave.
- Scrivi tu il paragrafo del ricorso/memoria, citando solo sentenze che hai verificato.
Tempo: 20-30 minuti contro 3 ore. Errore zero se hai usato fonti vere.
Privacy: la trappola che nessuno racconta
Quando carichi su ChatGPT pubblico una sentenza che riguarda il tuo cliente (anche se "in chiaro" dal sito Cassazione), stai inserendo il contesto della tua strategia: "sto preparando ricorso per Tizio contro Caio, ecco le sentenze rilevanti". Quel contesto finisce sui server OpenAI.
Per un avvocato significa esposizione: art. 622 c.p. sul segreto professionale e art. 28 codice deontologico forense sulla riservatezza non parlano solo di documenti, ma di "informazioni concernenti il cliente". La strategia di ricerca giurisprudenziale è un'informazione concernente il cliente.
Soluzione: ambiente IA su VPS italiano dedicato, dove i tuoi prompt restano interni e non vanno a addestrare il prossimo modello di OpenAI.
Prompt che funzionano
Sintesi pacchetto: "Ho 30 massime allegate sul tema X. Per ognuna: 1 riga di sintesi, classificazione (favorevole/contraria alla mia tesi: [tesi]), grado di pertinenza (alto/medio/basso). Output in tabella."
Confronto orientamenti: "Queste 10 sentenze sono coerenti o c'è contrasto? Se contrasto, descrivi i due orientamenti e indica quale è prevalente per numero di pronunce."
Estrazione argomentazione: "Da questa sentenza estrai: ratio decidendi (5 righe), passaggio argomentativo più forte (citazione diretta), eventuale obiter dictum rilevante."
Errori frequenti
- Chiedere sentenze al modello: inventa.
- Non controllare i numeri/anni delle sentenze sintetizzate dall'IA: a volte li sbaglia.
- Citare in atto una massima IA-generata senza verifica: figura disastrosa.
- Usare ChatGPT pubblico per casi sensibili: dati dei clienti su server americani.
Vuoi velocizzare la ricerca giurisprudenziale senza rischi?
Sono Pasqualino Ferrari, consulente IA a Roma. Configuro per studi legali ambienti IA privati che lavorano su DeJure, Italgiure e altre banche dati senza che i tuoi prompt finiscano su server pubblici. VPS italiano, costi sostenibili.
Per parlarne con un esperto, prenota una consulenza oppure unisciti al gruppo Telegram pubblico.