Llama 4

[làma quattro]

Generazione 2025 dei modelli open di Meta. Architettura mixture-of-experts (MoE), context lunghissimo, multimodale di serie. Il tentativo di Meta di restare leader open.

Llama 4 rilasciato da Meta nel 2025. Cambio di architettura: passa a Mixture-of-Experts (MoE) come Mistral e DeepSeek.

Cosa cambia con MoE: invece di attivare tutti i parametri per ogni token, il modello attiva solo "esperti" specializzati. Risultato: modelli con tanti parametri totali ma costo computazionale per inferenza più basso.

Caratteristiche distintive:

  • Multimodale nativo (testo + immagini in input).
  • Context window lunghissimo (centinaia di migliaia di token, fino al milione).
  • Tre versioni principali: Scout (piccolo), Maverick (medio), Behemoth (top).
  • Licenza open weights con clausole Meta come Llama 3.

Disponibile su WhatsApp, Instagram, Messenger come "Meta AI" con il modello sotto. Anche su Hugging Face per scaricare.

Storia onesta: il lancio nel 2025 ha avuto critiche. Le prime release sono state percepite come deludenti rispetto alle promesse, alcuni benchmark "ottimizzati" hanno generato polemiche nella community open. Meta ha lavorato sulle versioni successive per recuperare credibilità.

Per chi: aziende che vogliono un modello open con context lungo, ricercatori, integrazioni in WhatsApp/Instagram a livello enterprise.

Concorrenti diretti: DeepSeek, Qwen, Mixtral. Nel 2025-2026 il panorama open è molto più competitivo di prima.