Chain-of-Thought (CoT, in italiano "catena di ragionamento") è una tecnica di prompting dove chiedi all'IA di mostrare il suo ragionamento passo passo prima di darti la risposta finale.
Esempio classico. Domanda: "Se Marco ha 3 mele e ne mangia 1, poi compra 5 mele e ne regala 2, quante ne ha alla fine?"
Senza CoT: il modello prova a indovinare al volo, può sbagliare.
Con CoT: "Pensiamo passo passo. Marco ha 3 mele. Ne mangia 1, ne restano 2. Compra 5, ne ha 7. Ne regala 2, ne restano 5. Risposta: 5".
Prompt classico: aggiungere "Pensa passo passo" o "Let's think step by step" alla fine della domanda.
Perché funziona:
- L'LLM, generando passi intermedi, "alloca" più calcolo al problema.
- Errori intermedi sono più facili da correggere che errori in una risposta diretta.
- Il ragionamento esplicito aiuta il modello a non saltare logica.
Evoluzione del concetto:
- Reasoning models: modelli specializzati (DeepSeek-R, OpenAI o1, o3, Claude con extended thinking) che fanno CoT internamente, in modo molto esteso, prima di rispondere. Ottimi su matematica, codice, problemi logici complessi.
- Tree-of-thought: variante dove il modello esplora più rami di ragionamento contemporaneamente.
- Self-consistency: si fanno generare più risposte e si prende quella su cui il modello "vota" più volte.
Per uso quotidiano di ChatGPT/Claude/Gemini: aggiungere "spiegami passo passo" o "ragiona prima di rispondere" alle domande complesse migliora visibilmente la qualità.