Gemma

[gè-ma]

Famiglia di modelli open weights di Google, basati sulla stessa tecnologia di Gemini ma più piccoli. Da 2B a 27B parametri, gratuiti, eseguibili in locale.

Gemma è la famiglia di modelli open weights di Google. Lanciata febbraio 2024 come risposta a Llama e Mistral.

L'idea: Gemini resta proprietario, ma Google rilascia versioni più piccole open per sviluppatori, ricerca, uso locale.

Versioni:

  • Gemma 1 (febbraio 2024): 2B e 7B parametri.
  • Gemma 2 (giugno 2024): 9B e 27B, prestazioni notevolmente migliori.
  • Gemma 3: ulteriore evoluzione, multimodale.
  • CodeGemma, PaliGemma, RecurrentGemma: versioni specializzate.

Caratteristiche pratiche:

  • Licenza permissiva (uso commerciale ok, con qualche restrizione).
  • Disponibile su Hugging Face, Ollama, Google AI Studio.
  • Quantizzato in formato GGUF: gira anche su laptop con 16GB RAM.
  • Context window decente (8k-128k a seconda della versione).

Pro: ottimo italiano, addestramento attento, qualità sopra la media per la taglia, supporto Google solido.

Contro onesti: come tutti i modelli "small" non regge il confronto con i top proprietari. Per task di ragionamento serio resta limitato. Per task locali, classificazione, RAG aziendale: ottimo.

Per chi: chi vuole eseguire IA in locale, sviluppatori che fanno fine-tuning su dati propri, aziende che non possono mandare dati al cloud.