L'AI Act (Regolamento UE 2024/1689) è il primo regolamento al mondo che disciplina l'uso dell'IA. Entra in vigore in fasi tra 2025 e 2027. Si applica a "deployer" (chi usa l'IA), non solo a chi la sviluppa.
Tu, geometra che usi ChatGPT/Claude per pratiche, sei deployer. Quindi sì, ti riguarda.
Categorie di rischio AI Act
- Rischio inaccettabile: vietate (social scoring, manipolazione subliminale, ecc.). Non ti riguarda.
- Alto rischio: regolato strettamente. Esempi: IA in selezione personale, in valutazioni creditizie, in dispositivi medici, in gestione infrastrutture critiche.
- Rischio limitato: trasparenza obbligatoria (es. far sapere che è IA).
- Rischio minimo: liberamente usabile (assistenti generativi per scrittura).
Dove cade l'attività del geometra
Uso "rischio minimo" tipico:
- Scrivere bozza relazione tecnica con IA.
- Riassumere normativa.
- Preparare email o preventivo.
Uso che si avvicina ad "alto rischio" (con cautela):
- Stime automatiche di valore immobile per banca (decisione su credito) — qui sì, lì può scattare.
- Valutazioni che impattano direttamente diritti del cittadino.
Per la stragrande maggioranza dei tuoi usi, sei in zona "rischio minimo" o "limitato".
Obblighi pratici per il deployer
- Trasparenza: se output IA viene usato come parte di servizio al cliente, è opportuno (non sempre obbligatorio) dichiararlo.
- Supervisione umana: il professionista deve sempre verificare e firmare. Già la fai.
- Documentazione: prassi interne su come usi l'IA, eventuali checklist di verifica.
- Formazione: chi usa l'IA nello studio dovrebbe sapere cosa fa.
AI literacy
L'art. 4 dell'AI Act chiede "alfabetizzazione IA" sufficiente per chi usa l'IA in attività professionali. Significa: sapere come funziona, quali sono i limiti, come gestire output. Articoli come questo sono un pezzo della tua AI literacy.
Combinazione GDPR + AI Act
I due regolamenti dialogano. GDPR copre i dati personali. AI Act copre i sistemi IA. Quando usi IA su dati personali, devi rispettare entrambi.
Cosa fare oggi
- Aggiorna informativa privacy (vedi articolo dedicato).
- Documenta brevemente come usi l'IA: tool, finalità, controlli.
- Forma chi nello studio usa l'IA.
- Tieniti aggiornato sui chiarimenti dell'AGID e del Garante.
Conclusione
AI Act non è apocalisse, è cornice di regole. Per uno studio tecnico che usa l'IA in modo ragionevole, gli obblighi sono gestibili. Lo zelo eccessivo costa, ma il "fare finta di niente" anche.
Gruppo Telegram per discussioni AI Act applicate.