Mixtral

[mìx-tral]

Famiglia di modelli mixture-of-experts di Mistral. Il primo open MoE serio (Mixtral 8x7B, dicembre 2023). Veloce in inferenza grazie al MoE.

Mixtral è la famiglia di modelli Mixture-of-Experts di Mistral. Il primo Mixtral 8x7B esce dicembre 2023 e fa rumore: prestazioni simili a GPT-3.5 in formato open weights.

Spiegazione semplice del MoE: il modello ha 8 "esperti" da 7 miliardi di parametri ciascuno (totale 47B effettivi, non 56B perché alcuni layer sono condivisi). Per ogni token attiva solo 2 esperti su 8. Risultato: usa meno calcolo di un modello denso 47B, ma con qualità superiore.

Versioni storiche:

  • Mixtral 8x7B (dicembre 2023): apre la strada del MoE open.
  • Mixtral 8x22B (aprile 2024): versione più grossa, qualità superiore.

Caratteristiche:

  • Licenza Apache 2.0 (vera open, libera per uso commerciale).
  • Context window 32k.
  • Multilingue ottimo (inglese, francese, italiano, spagnolo, tedesco).
  • Gira su una buona GPU (con quantizzazione anche 24GB VRAM).

Pro: licenza pulita senza clausole strane (a differenza di Llama), buon rapporto qualità/risorse, italiano decente.

Contro onesti: nel 2025 Mistral ha spostato il focus sui modelli più nuovi (Mistral Large, Codestral, Pixtral). Mixtral resta scaricabile e usabile, ma non riceve più aggiornamenti grossi. Per uso oggi, considera anche le alternative più recenti.