Reasoning models

Reasoning model: cosa sono e come usarli

Come far pensare l’IA (senza perderci la testa)

By Max
9 Min Read
Reasoning models: cosa sono e come usarli

#The Sunday Prompt #60 – 9/11/2025


I cosiddetti modelli di ragionamento (Reasoning LLMs) sono sistemi addestrati non solo a generare risposte, ma a costruire catene logiche prima di arrivarci.
OpenAI qualche tempo fa ha pubblicato una guida  sui modelli di ragionamento, dove si spiega che il modello “non indovina più la risposta, la costruisce passo dopo passo”.

Siamo passati dai chatbot “istantanei” ai colleghi digitali riflessivi: l’IA che non risponde subito, ma dice — in sostanza — “un attimo, fammi pensare”.
Un salto evolutivo sottile ma epocale: dal linguaggio al ragionamento simulato.

Per chi lavora con le parole e le decisioni — avvocati, dirigenti, consulenti — questo cambia molte cose: non si tratta più di chiedere, ma di dialogare con un sistema che “pensa” come un analista.


Da LLM a Reasoning LLM

I Large Language Models tradizionali generano frasi prevedendo il prossimo token.
I Reasoning LLM, invece, sono progettati per fare una pausa cognitiva.
In termini pratici, riservano parte del loro “tempo mentale” (il budget di token) per pianificare internamente la risposta.

In un passaggio del blog di PromptHub, si spiega che “i reasoning models affrontano compiti multi-step con un processo interno più profondo: non saltano alla conclusione, ma seguono una sequenza di inferenze logiche”.

È il salto da un assistente che “risponde subito” a un consulente che “ci pensa un attimo”.
Questo viene fatto grazie a una catena di ragionamento interna — il famoso chain-of-thought — che consente al modello di simulare analisi, confronto e deduzione.

Ovviamente non pensano davvero, ma ci ingannano bene.
Come spiega la Reasoning Guide di PromptingGuide.ai, il modello non “capisce” nel senso umano: elabora strutture probabilistiche che riproducono le tappe del pensiero.
È come guardare un’ombra che cammina: non ha vita, ma segue la forma giusta.

L’effetto è potentissimo: modelli capaci di risolvere problemi complessi, argomentare tesi contrarie e spiegare come ci sono arrivati.
Il budget di ragionamento è la nuova unità di misura della pazienza digitale.
Come ricorda OpenAI, non serve dirle sempre “pensaci passo per passo”, ossia la tipica istruzione nel prompt che innesca la CoT: nei LLM reasoning tale modalità è già incorporata nel modello.
Troppo tempo però non aiuta: anche le macchine possono soffrire di overthinking artificiale.

L’obiettivo è farle pensare bene, non pensare tanto.
E questa differenza dipende dal prompt.


La nuova arte del prompting riflessivo

Scrivere un prompt per un modello di ragionamento è come scrivere un brief per un collaboratore iper-logico.
Ogni parola plasma la sua traiettoria mentale.

Non si tratta di ordinare, ma di guidare un ragionamento.
Come scriveva un utente su Reddit /r/PromptEngineering, “il prompting per reasoning LLM è meno simile a dare istruzioni, e più simile a insegnare un metodo di pensiero”.
Il segreto è trattare l’IA come un collega che ragiona per schemi: più chiaro sei, più coerente sarà il suo percorso.

Le cinque sezioni del prompt perfetto

Secondo le best practices di OpenAI e PromptHub, un prompt di qualità ha cinque parti:

  1. Ruolo – “Agisci come un consulente legale esperto in diritto contrattuale.”
  2. Contesto – “Stiamo negoziando un contratto software internazionale.”
  3. Obiettivo – “Valuta i rischi di invalidità della clausola di limitazione di responsabilità.”
  4. Vincoli – “Rispondi entro 300 parole, in tono professionale.”
  5. Processo – “Spiega i passaggi logici che ti portano alla conclusione.” (la CoT)

È una formula tanto semplice quanto potente: trasforma una richiesta vaga in una roadmap cognitiva.

Quando dire “mostra i passaggi logici”

Nei reasoning models non serve abusare dell’istruzione “spiega passo per passo”, ossia della CoT, in quanto questi modelli operano già di default in tale modalità.
OpenAI lo conferma nella sua Reasoning Guide: la frase è utile solo quando vuoi verificare il ragionamento.
Se vuoi un risultato sintetico, meglio evitare.Il prompting riflessivo, dunque, non è prolisso: è intenzionale.
Guida il modello a pensare, non a scrivere romanzi.


Il principio del Reasoning Budget

Ogni prompt occupa uno spazio “mentale” del modello.
Se gli chiedi di riflettere troppo, perderà focus; troppo poco, resterà superficiale.
La regola è: usa il minimo numero di istruzioni per ottenere il massimo grado di riflessione.

“Pensa come un moderatore che guida il dibattito di un panel: una domanda alla volta, ma ben posta.”

Così descrive il prompting efficace un contributo su Analytics Vidhya.

Inoltre, il tono del prompt orienta il tipo di ragionamento.
Un tono sereno e logico produce risposte strutturate; uno emotivo genera caos.
Mai richiedere all’IA “non ti pare assurdo che…?” — in quanto si rischia di ottenere un sermone.
Meglio un’istruzione tipo: “Analizza i pro e i contro di questa posizione”.


Alcune Strategie e trucchi

1) Chain-of-thought: la catena dei pensieri ordinati

È la tecnica base del reasoning prompting: chiedere al modello di esplicitare i passaggi logici.
Nata dagli studi di Google Research, è oggi standard nei reasoning LLM.

Esempio: “Analizza le condizioni di validità di questa clausola in tre passaggi: (1) principio generale, (2) eccezioni, (3) conclusione.”

Risultato: un ragionamento strutturato, non una risposta d’istinto.
Come ricorda PromptingGuide.ai, il segreto è delimitare la profondità: “mostra i tre passaggi principali”, non “mostra tutto”.

Come accennato sopra in alcuni casi utilizzando i reasoning models non è necessario esplicitare questa richiesta, perchè già il modello suddivide in passaggi le attività che dovrà fare per fornire l’output richiesto.

2) Tree-of-thought: quando servono più strade

Alcuni problemi non hanno un’unica soluzione logica.
Il tree-of-thought chiede all’IA di sviluppare ramificazioni di ipotesi, confrontarle e scegliere la migliore.
È ideale per scenari aziendali o legali in cui servono alternative.

“Proponi tre interpretazioni possibili di questa norma e spiega quale produce meno rischi operativi.”

Secondo PromptHub, questo approccio migliora la qualità del ragionamento fino al 20% nei compiti multi-step.

3) Socratic prompting e self-critique

Il prompting socratico, descritto anche in GetZep’s AI Agents blog, consiste nel far dubitare il modello di sé.

“Hai concluso che questa clausola è valida. Ora individua tre motivi per cui potresti sbagliarti.”

È il modo più elegante di ridurre bias e errori logici.
Varianti più evolute, come self-critique prompting, chiedono al modello di rivedere e correggere la propria risposta:

“Scrivi il parere, poi valuta criticamente la coerenza della tua argomentazione.”

Il risultato è sorprendentemente simile a una revisione tra colleghi.


Errori tipici e lezioni di umiltà

  1. Prompt-romanzo – Troppo lungo, il modello divaga.
  2. Ordine contraddittorio – “Sii conciso ma dettagliato.” Impossibile.
  3. Over-explaining – “Mostra tutti i passaggi.” Risultato: 10.000 parole e nessuna sintesi.
  4. Prompt emotivo – L’IA non ha sentimenti; meglio non tentare di scuoterla (altrimenti si arrabbia e ci mette nella lista di coloro da eliminare che passerà alla prima AGI).

Come ricorda ironicamente Simon Willison, “l’arte del prompting è sapere quando smettere di scrivere”.


L’IA come consulente argomentativo

Il prompting riflessivo serve a pensare meglio.
Per un avvocato, può diventare un modo per simulare casi e verificare tesi.
Per un manager, uno strumento di analisi dei rischi e delle decisioni.

“Simula tre opinioni contrastanti su questa decisione e sintetizza la più equilibrata.”

In pochi secondi, otteniamo una mini-riunione virtuale con tre analisti perfettamente sobri.

Come scrive OpenAI, “i migliori prompt non sono scritti da tecnici, ma da pensatori”.
Chi sa far pensare una macchina, oggi, ha già un vantaggio competitivo.

Happy Prompting!

TAGGED:
Share This Article