Il fine-tuning è il processo di prendere un modello pre-addestrato (come Llama o Mistral) e fargli un addestramento aggiuntivo sui tuoi dati specifici. Risultato: un modello che parla "il tuo linguaggio".
Esempi concreti:
- Studio legale: fine-tuning su 10.000 contratti italiani → modello bravo a generare contratti italiani specifici.
- Azienda farmaceutica: fine-tuning su database di studi clinici → modello che capisce il gergo medico.
- Banca: fine-tuning su comunicazioni interne → assistente che usa il vostro linguaggio aziendale.
Differenza con RAG:
- RAG: il modello rimane lo stesso, gli passi documenti caso per caso. Modifichi il contesto.
- Fine-tuning: il modello stesso impara nuovi pattern e rimane modificato per sempre. Modifichi il cervello.
Quando ha senso fare fine-tuning:
- Hai migliaia di esempi del comportamento che vuoi.
- Il dominio è specifico e il modello base non lo conosce bene.
- Vuoi ridurre i token in input (perché lo stile è già "dentro" il modello).
Quando NON ha senso:
- Hai poche centinaia di esempi (meglio prompt engineering o RAG).
- I dati cambiano spesso (fine-tuning è una foto fissa nel tempo, RAG si aggiorna).
- Vuoi solo dare informazioni specifiche al modello (RAG è più semplice).
Il fine-tuning costa, e va fatto bene. Sbagliarlo significa peggiorare il modello, non migliorarlo.