Gemma è la famiglia di modelli open weights di Google. Lanciata febbraio 2024 come risposta a Llama e Mistral.
L'idea: Gemini resta proprietario, ma Google rilascia versioni più piccole open per sviluppatori, ricerca, uso locale.
Versioni:
- Gemma 1 (febbraio 2024): 2B e 7B parametri.
- Gemma 2 (giugno 2024): 9B e 27B, prestazioni notevolmente migliori.
- Gemma 3: ulteriore evoluzione, multimodale.
- CodeGemma, PaliGemma, RecurrentGemma: versioni specializzate.
Caratteristiche pratiche:
- Licenza permissiva (uso commerciale ok, con qualche restrizione).
- Disponibile su Hugging Face, Ollama, Google AI Studio.
- Quantizzato in formato GGUF: gira anche su laptop con 16GB RAM.
- Context window decente (8k-128k a seconda della versione).
Pro: ottimo italiano, addestramento attento, qualità sopra la media per la taglia, supporto Google solido.
Contro onesti: come tutti i modelli "small" non regge il confronto con i top proprietari. Per task di ragionamento serio resta limitato. Per task locali, classificazione, RAG aziendale: ottimo.
Per chi: chi vuole eseguire IA in locale, sviluppatori che fanno fine-tuning su dati propri, aziende che non possono mandare dati al cloud.