Studio tecnico medio italiano accumula montagne di documenti: pratiche edilizie, perizie, computi, contratti, foto cantieri. La gestione è quasi sempre: cartelle Windows con nomi mnemonici, magari un Excel di indice se sei ordinato. Trovare un documento vecchio = caccia al tesoro.
L'IA con tecnica RAG (Retrieval Augmented Generation) cambia molto.
Cos'è il RAG, in due righe
RAG = sistema che prima cerca documenti rilevanti dal tuo archivio, poi li dà all'IA come contesto per rispondere alla tua domanda. Risultato: l'IA risponde basandosi sui tuoi documenti veri, non su training generale.
Tool pratici
Per uso individuale
- NotebookLM (Google): gratuito, carichi documenti, fai domande. Ottimo per archivi tematici.
- ChatGPT con file: carichi PDF, fai domande sul contenuto.
- Claude Projects: collezione di file persistenti, chat continua.
Per studio strutturato
- AnythingLLM: locale, indica cartelle del tuo PC.
- Open WebUI + Ollama: setup completo locale.
- Microsoft Copilot for Microsoft 365: indica documenti SharePoint/OneDrive.
Caso d'uso reale
Cliente ti chiama: "geometra, quella perizia che hai fatto sulla mia casa al mare nel 2019, te la ricordi? Ho un dubbio sull'edificio confinante". Tu non te la ricordi precisamente. Strategia tradizionale: scavi nella cartella, apri 5 PDF, ricostruisci.
Strategia RAG: chiedi a NotebookLM o sistema simile "perizia 2019 cliente Mario Rossi, dimmi cosa rilevai sull'edificio confinante". Risposta in 10 secondi con riferimenti al documento.
Privacy: tema CRITICO
Stiamo parlando di mettere il TUO archivio (anni di lavoro, dati clienti, perizie) in un sistema. Privacy massima:
- NotebookLM (cloud Google): mai con dati riconducibili a clienti reali in chiaro.
- ChatGPT/Claude consumer: idem.
- Solo soluzioni locali (AnythingLLM + Ollama, oppure Microsoft Copilot Enterprise con DPA serio) garantiscono che i dati restino tuoi.
Per archivi reali con dati clienti, scelta seria è LOCAL.
Setup locale base
- Installa Ollama + un modello (Llama 3.1 8B).
- Installa AnythingLLM (gratis).
- Connetti AnythingLLM a Ollama.
- Crea workspace, indica cartelle dei tuoi documenti.
- Aspetti l'indicizzazione (può prendere ore per archivi grandi).
- Inizi a chattare con i tuoi documenti.
Costi
- Soluzione locale: gratuita (software) + hardware esistente o aggiornato.
- Cloud (NotebookLM): gratis ma cloud Google.
- Microsoft Copilot 365: 25€/utente/mese.
Limiti
- Documenti scansionati senza OCR non sono cercabili. Fai OCR prima (Tesseract, ABBYY).
- Foto pure (cantieri) richiedono modelli multimodali, più complesso.
- Disordine pregresso peggiora la qualità delle risposte: "garbage in, garbage out".
Conclusione
Archivio interrogabile via IA è cambiamento di paradigma per studio tecnico. Setup non banale, ma una volta su rivoluziona la gestione del sapere accumulato. Privacy resta il tema centrale: per archivio reale, va in LOCALE.
Gruppo Telegram per setup pratici.