Open Weights

[òpen weits]

Modelli IA i cui pesi sono pubblicati pubblicamente, ma non necessariamente con tutti i dati di addestramento o codice di training. Diverso da 'open source' completo.

Open weights significa che i pesi (i numeri interni) di un modello IA sono pubblicati pubblicamente. Puoi scaricarli, farli girare sui tuoi server, modificarli, fare fine-tuning. Ma non necessariamente hai accesso ai dati con cui sono stati addestrati o al codice esatto del processo di training.

Per molti scopi pratici, "open weights" e "open source" si usano come sinonimi. Per i puristi del software libero, c'è differenza:

  • Open source completo: pesi + dati + codice di training + licenza permissive. Esempi: alcuni modelli di OLMo (AI2), parzialmente Stable Diffusion.
  • Open weights: solo i pesi pubblicati, di solito sotto licenze che permettono uso commerciale. Esempi: Llama (Meta), Mistral, DeepSeek, Qwen.

Perché Meta (Llama) o DeepSeek pubblicano i pesi ma non tutto?

  • Dati di training: spesso contengono materiale con copyright, segreti commerciali, dati strappati dal web in modi legalmente discutibili.
  • Codice di training: è "ricetta segreta" del laboratorio. Costa milioni svilupparlo.
  • Pubblicare i pesi è "abbastanza" per la community: gli sviluppatori possono usarli, modificarli, costruire sopra.

Per chi sviluppa applicazioni IA: in pratica "open weights" è quello che importa. Hai il modello, lo usi come vuoi, sui tuoi server, senza rendere conto a OpenAI/Google.

Licenze comuni:

  • Apache 2.0: liberissima (Mistral 7B, Mixtral).
  • MIT: liberissima.
  • Llama Community License: liberale ma con clausole anticoncorrenziali (no aziende sopra 700M utenti).
  • OpenRAIL: con clausole su uso etico (alcune varianti più o meno restrittive).

Trend 2025-2026: i modelli closed (GPT, Claude, Gemini) sono ancora un passo avanti su qualità di punta. I modelli open weights stanno chiudendo il gap rapidamente. Per molti casi d'uso aziendali, open weights è già la scelta migliore.