GPT sta per Generative Pre-trained Transformer ed è la famiglia di modelli di OpenAI che ha dato il via all'era moderna degli LLM.
Storia rapida:
- GPT-1 (2018): proof of concept.
- GPT-2 (2019): OpenAI lo rilasciò "in parte" per "preoccupazioni di sicurezza", marketing leggendario.
- GPT-3 (2020): 175B parametri, primo a sembrare davvero capace.
- GPT-3.5 (2022): la versione che alimentava ChatGPT al lancio.
- GPT-4 (2023): salto qualitativo enorme, multimodalità.
- GPT-4o (2024): omni-modale (testo, voce, immagini).
- GPT-5 (2025): unifica capacità di ragionamento e generalizzazione.
Disponibili via:
- ChatGPT (interfaccia consumer)
- API OpenAI (per sviluppatori)
- Azure OpenAI Service (per enterprise)
- Vari aggregatori (OpenRouter, ecc.)
Architettura: tutti decoder-only Transformer. Pretrainati su enormi corpus testuali, poi post-trainati con SFT + RLHF.
Caratteristiche di GPT:
- Forte generalità: bravo in molte cose.
- Tool use, function calling, structured output: ben integrati.
- Voice mode molto avanzato.
- Multimodalità nativa (testo, immagini, audio, alcuni con video).
Closed source: i pesi non sono pubblici. Per usarlo passi sempre dai server OpenAI.