#56 – 6/7/2025
Bentornati su The Sunday Prompt!
Oggi parliamo di un concetto che sta diventando sempre più cruciale nel mondo dell’Intelligenza Artificiale: il context engineering. Un termine venuto alla ribalta in questi ultimi giorni grazie a un interessante articolo di Philipp Schmid, che lo definisce come l’arte di fornire a un Large Language Model (LLM) tutto il contesto necessario per svolgere un compito in modo plausibile e brillante
- Philschmid, P. (2025). Context Engineering: A New Term in the AI World. Disponibile su: https://www.philschmid.de/context-engineering
Se fino a poco tempo fa sentivamo parlare tantissimo di “prompt engineering”, cioè l’arte di scrivere la domanda perfetta per ottenere la risposta desiderata da un’AI, ora ci stiamo spostando su qualcosa di più grande e complesso.
Dal Prompt Engineering al Context Engineering: Una Rivoluzione Silenziosa
Immagina di voler ottenere una torta perfetta. Il prompt engineering è come dare al fornaio la ricetta giusta, con le istruzioni chiare e precise. Ma il context engineering va ben oltre: significa assicurarsi che il fornaio abbia a disposizione tutti gli ingredienti di qualità, gli strumenti giusti, un forno alla temperatura ideale e magari anche una memoria delle torte che ha già preparato per te in passato.
Mentre il prompt engineering si concentra sulla singola istruzione che dai all’AI, il context engineering è un approccio molto più olistico. Non si tratta solo di quella “stringa di testo” che immetti, ma di un vero e proprio sistema dinamico che gira in sottofondo, preparando il terreno per l’LLM. Il context engineering pone l’accento sulla cura delle informazioni all’interno della “finestra di contesto” degli LLM, a prescindere da dove provengano (https://www.llamaindex.ai/blog/context-engineering-what-it-is-and-techniques-to-consider).
Ma quali sono le caratteristiche del context engineering?
Questo nuovo approccio ha delle caratteristiche ben precise che lo rendono così potente:
- È un sistema, non una stringa: Non è una semplice frase statica (come i prompt), ma il risultato di un processo dinamico che prepara il terreno prima che l’LLM entri in azione. Il contesto viene creato al volo, adattandosi alla richiesta specifica. Se chiedi di fissare un appuntamento, l’AI potrebbe recuperare i tuoi impegni dal calendario o informazioni dalle tue email.
- È questione di informazioni giuste, al momento giusto, con gli strumenti giusti: Il suo lavoro principale è assicurarsi che il modello abbia tutti i dettagli cruciali, fornendo sia la conoscenza che le capacità solo quando servono e sono utili.
- Il formato conta (e parecchio!): Non basta “buttare dentro” i dati. La presentazione delle informazioni è fondamentale. Un riassunto conciso è molto meglio di un ammasso di dati grezzi, e un chiaro schema per l’uso degli strumenti è più efficace di istruzioni vaghe.
- Dinamico e in evoluzione: Il contesto si adatta e cambia man mano che la conversazione o il compito progrediscono. Per le applicazioni interattive, il contesto viene continuamente aggiornato, incorporando nuove informazioni e ricordando dettagli chiave dalle interazioni precedenti, grazie a una memoria a breve e lungo termine.
- Copertura contestuale completa: Significa dare al modello tutte le informazioni di cui potrebbe aver bisogno: istruzioni di sistema, dati rilevanti, risultati di chiamate a strumenti e la cronologia della conversazione. Insomma, l’intero pacchetto di input è il vero “prompt” (https://medium.com/@adnanmasood/context-engineering-elevating-ai-strategy-from-prompt-crafting-to-enterprise-competence-b036d3f7f76f).
- Gestione intelligente della finestra di contesto: Gli LLM hanno una capacità limitata di “memoria” per ogni interazione (la cosiddetta finestra di contesto). Il context engineering usa tecniche come i riassunti, la compressione o la prioritizzazione per far entrare le informazioni più cruciali.
Perché è così importante? L’esempio dell’assistente AI
Perché a volte un assistente AI sembra “magico” e altre volte risponde in modo generico? La differenza sta proprio nel contesto.
Immagina di chiedere a un assistente AI di fissare una riunione. Un assistente “base” vedrebbe solo la tua richiesta e darebbe una risposta standard, magari chiedendoti la data. Un assistente “magico”, invece, grazie al context engineering, prima di risponderti farebbe il “lavoro sporco” in background: controllerebbe la tua disponibilità sul calendario, recupererebbe le email precedenti per capire come ti piace comunicare, e magari userebbe strumenti per inviare inviti in automatico. Il risultato? Una risposta personalizzata ed efficace, come suggerirti un orario alternativo e inviare un invito diretto. La “magia”, come spiega Philipp Schmid, non è un modello più intelligente, ma fornire il contesto giusto per il compito.
Questo è il cuore del problema: gli LLM, per quanto potenti, sono “predittori di testo” che si basano solo sull’input che ricevono. Se il contesto manca, possono “allucinare” (cioè inventare fatti), dare risposte incoerenti o semplicemente non avere le informazioni necessarie. Molti errori degli agenti AI, infatti, non dipendono dal modello in sé, ma da un contesto insufficiente o inaccurato.
In pratica, il context engineering porta la progettazione delle modalità di interazione con gli LLM un passo più avanti, in quanto:
- Evita le allucinazioni: fornendo un contesto ricco e pertinente, l’AI è meno propensa a inventare informazioni.
- Migliora le prestazioni: un buon contesto è la chiave per far sì che gli agenti AI svolgano i loro compiti in modo efficace.
- Aumenta il Ritorno sull’Investimento (ROI): costruire sistemi AI affidabili e performanti, capaci di generare un alto valore, dipende enormemente da un contesto ben curato .
In sintesi, il context engineering sposta l’attenzione dalla semplice formulazione della domanda alla creazione di un ambiente informativo completo e dinamico per l’intelligenza artificiale. È una competenza che diventerà sempre più indispensabile per chi vuole lavorare al meglio con queste tecnologie, soprattutto alla luce di come si stanno evolvendo.
Happy Prompting! 👋🏻