Ollama in studio: l'IA in locale per chi vuole privacy seria

Ollama ti fa girare modelli IA sul tuo PC. Niente dati su cloud, niente fornitori extra-UE. Vediamo se conviene a uno studio tecnico medio.

Di Super Squalo·2 min lettura

Ollama è uno strumento open source che ti permette di scaricare e far girare modelli IA (Llama, Mistral, Qwen, DeepSeek, Phi, ecc.) direttamente sul tuo PC. Nessun dato esce dallo studio.

Per geometra che gestisce dati sensibili e ha riserva sulla privacy, è opzione seria.

Cosa serve per farlo girare

  • PC decente: 16 GB RAM minimo, 32 GB raccomandato.
  • GPU NVIDIA o Apple Silicon (Mac M1/M2/M3) per modelli medio-grandi.
  • Spazio disco: 4-50 GB per modello, secondo dimensioni.

Senza GPU dedicata vai lento ma vai. Modelli piccoli (Phi-3, Llama 3 8B) girano anche su laptop tipo i7 con 16 GB RAM.

Modelli consigliati per studio tecnico

  • Llama 3.1 / 3.3 8B: equilibrio velocità/qualità, italiano discreto.
  • Mistral Small / Nemo: francesi, italiano buono, contesto ampio.
  • Qwen 2.5 14B: cinesi, eccellenti, multilingua.
  • DeepSeek V2.5: ottimo rapporto qualità/dimensioni.

Per uso multimodale (vedere PDF, immagini): LLaVA, Llama Vision, Qwen-VL.

Cosa fa bene il modello locale

  • Riformulare testi tecnici.
  • Riassunti di documenti caricati.
  • Bozze di email, relazioni, comunicazioni.
  • Domande/risposte su documenti che gli dai.

Cosa fa peggio di ChatGPT/Claude

  • Conoscenza generale di aggiornamenti recenti.
  • Compiti di logica complessa o ragionamento avanzato.
  • Codice e matematica avanzata.

Per scrittura tecnica italiana di routine, modelli da 8-14B sono spesso sufficienti.

Privacy reale

Con Ollama:

  • Dati non escono dal tuo PC.
  • Niente DPA da firmare (sei tu il fornitore).
  • Niente trasferimenti extra-UE.
  • GDPR rispettato di default per la parte IA.

Resta GDPR generale (protezione del PC, backup, ecc.).

Setup pratico

  1. Vai su ollama.com, scarica installer Windows/Mac/Linux.
  2. Apri terminale, scrivi ollama pull llama3.1:8b.
  3. Aspetti che scarichi (5-10 GB).
  4. Scrivi ollama run llama3.1:8b. Sei dentro chat.
  5. Per interfaccia grafica usa Open WebUI, AnythingLLM, LM Studio.

Costi

Software: gratis. Hardware: se il PC c'è già, zero. Se devi prendere PC nuovo: 1.500-3.500€ una tantum. Senza abbonamenti mensili. Ammortizzato in 1-2 anni rispetto a 2 abbonamenti ChatGPT/Claude.

Quando NON conviene

  • Studio uniprofessionale con uso saltuario: ChatGPT Plus 20€/mese fa la stessa cosa con meno fatica.
  • Hardware vecchio: vai lento e ti scoraggi.
  • Volume di lavoro IA basso: complessità non giustificata.

Quando conviene

  • Studio strutturato con dati molto sensibili.
  • Volume IA alto, tutti i giorni, più persone.
  • Lavori per clienti che richiedono riservatezza totale.

Conclusione

Ollama è scelta tecnica per chi vuole controllo totale sui dati. Curva di setup non banale, ma una volta su gira da solo. Privacy massima, costi ricorrenti zero.

Gruppo Telegram per setup pratici.

Hai un dubbio? Vieni a parlarne.

Gruppo Telegram aperto. Domande, opinioni, casi vissuti. Senza venditori e senza spam. Per consulenza personale o caso aziendale, usa il pulsante consulenza.