Open weights significa che i pesi (i numeri interni) di un modello IA sono pubblicati pubblicamente. Puoi scaricarli, farli girare sui tuoi server, modificarli, fare fine-tuning. Ma non necessariamente hai accesso ai dati con cui sono stati addestrati o al codice esatto del processo di training.
Per molti scopi pratici, "open weights" e "open source" si usano come sinonimi. Per i puristi del software libero, c'è differenza:
- Open source completo: pesi + dati + codice di training + licenza permissive. Esempi: alcuni modelli di OLMo (AI2), parzialmente Stable Diffusion.
- Open weights: solo i pesi pubblicati, di solito sotto licenze che permettono uso commerciale. Esempi: Llama (Meta), Mistral, DeepSeek, Qwen.
Perché Meta (Llama) o DeepSeek pubblicano i pesi ma non tutto?
- Dati di training: spesso contengono materiale con copyright, segreti commerciali, dati strappati dal web in modi legalmente discutibili.
- Codice di training: è "ricetta segreta" del laboratorio. Costa milioni svilupparlo.
- Pubblicare i pesi è "abbastanza" per la community: gli sviluppatori possono usarli, modificarli, costruire sopra.
Per chi sviluppa applicazioni IA: in pratica "open weights" è quello che importa. Hai il modello, lo usi come vuoi, sui tuoi server, senza rendere conto a OpenAI/Google.
Licenze comuni:
- Apache 2.0: liberissima (Mistral 7B, Mixtral).
- MIT: liberissima.
- Llama Community License: liberale ma con clausole anticoncorrenziali (no aziende sopra 700M utenti).
- OpenRAIL: con clausole su uso etico (alcune varianti più o meno restrittive).
Trend 2025-2026: i modelli closed (GPT, Claude, Gemini) sono ancora un passo avanti su qualità di punta. I modelli open weights stanno chiudendo il gap rapidamente. Per molti casi d'uso aziendali, open weights è già la scelta migliore.