The Sunday Prompt #53 – 25/5/2025
Dopo tutto questo tempo e le tante novità non potevamo che provare a fare un punto sull’evoluzione dell’intelligenza artificiale, dagli LLM agli agenti.

Ciao, ti ricordi di ChatGPT?
Sembra ieri, ma sono passati più di due anni da quel 30 novembre 2022 quando OpenAI rilasciò ChatGPT al pubblico. In soli cinque giorni raggiunse un milione di utenti – un record. Ma non era solo una questione di numeri: stavamo assistendo all’inizio di qualcosa di completamente nuovo.
Prima di ChatGPT, i Large Language Models erano roba da laboratorio, accessibili solo a ricercatori e pochi eletti. Poi arriva questo chatbot con un’interfaccia semplicissima – scrivi, premi invio, e ottieni un testo sensato (il più delle volte)! L’AI ti risponde come se fosse unapersona. All’improvviso, milioni di persone in tutto il mondo potevano toccare con mano cosa significasse davvero l’intelligenza artificiale avanzata.
Da zero a cento: l’esplosione degli strumenti di sviluppo
I pionieri del 2022-2023
Gli sviluppatori, vista la disponibilità degli LLM tramite API, non hanno perso tempo. Già nell’ottobre 2022 – praticamente in contemporanea con ChatGPT – un certo Harrison Chase lancia LangChain come progetto open source. All’inizio era “solo” uno strumento Python per semplificare l’integrazione con i modelli di linguaggio, ma è diventato rapidamente il framework di riferimento.
I numeri parlano chiaro: le stelle su GitHub sono passate da 5.000 nel febbraio 2023 a 18.000 ad aprile, per poi schizzare oltre le 96.000 a dicembre 2024. Non male per un progetto nato come side project!
Nel febbraio 2023 LangChain aggiunge il supporto TypeScript, e ad aprile supporta già tutto l’ecosistema JavaScript: Node.js, browser, Cloudflare Workers, Vercel… insomma, ovunque tu voglia far girare la tua AI.
L’ecosistema esplode
LangChain ha introdotto concetti che oggi diamo per scontati ma che all’epoca erano rivoluzionari:
- Chains: concateni operazioni una dietro l’altra, come i mattoncini LEGO
- Agents: componenti che usano l’LLM per decidere cosa fare (spoiler: diventeranno importantissimi)
- Memory: sistemi per ricordare le conversazioni precedenti
- Tools: modi per collegare l’AI a API esterne, database, e tutto il resto
E poi nel 2023 è stato un fiorire di librerie e framework:
- LlamaIndex per cercare e indicizzare documenti (perché sì, far leggere PDF a un’AI non è banale)
- Semantic Kernel di Microsoft (loro non potevano mancare)
- AutoGPT che ha fatto sognare tutti con il concetto di agenti autonomi
- BabyAGI che esplorava come far gestire task all’AI in modo indipendente
La maturitĂ arriva nel 2024
Il 2024 è stato l’anno della svolta. Secondo il report di LangChain, il numero medio di passaggi per operazione è passato da 2,8 nel 2023 a 7,7 nel 2024. Tradotto: gli sviluppatori stanno costruendo sistemi molto più complessi e sofisticati.
Ma il dato più impressionante? Il 21,9% delle operazioni ora coinvolge chiamate a strumenti esterni, rispetto al misero 0,5% del 2023. In pratica, le AI non stanno più solo chiacchierando – stanno facendo cose nel mondo reale.
Dagli LLM agli Agenti: non piĂą solo chiacchiere
Ma cos’è esattamente un Agente AI?
Ok, facciamo chiarezza. Un LLM è come avere un amico super intelligente che sa rispondere a tutto. Un agente AI invece è come avere un assistente che non solo sa le cose, ma può anche:
- Pianificare come raggiungere un obiettivo complesso
- Usare strumenti (mandare email, cercare su Google, modificare file)
- Ricordarsi cosa avete fatto insieme la settimana scorsa
- Imparare dai propri errori
- Collaborare con altri agenti (sì, come una squadra di AI!)

I nuovi standard: MCP e A2A spiegati semplice
Model Context Protocol (MCP): l’USB dell’AI
Anthropic ha lanciato MCP nel novembre 2024, e la metafora migliore per spiegarlo è questa: è come l’USB per l’AI. Prima dell’USB, ogni dispositivo aveva il suo cavo speciale. Con l’USB, un solo standard per tutto.
MCP risolve quello che gli addetti ai lavori chiamano il “problema M×N”: se hai M diversi modelli AI e N diversi strumenti, senza uno standard dovresti creare M×N integrazioni diverse. Un incubo!
Con MCP invece:
- Architettura standard client-server
- SDK pronti per Python e TypeScript
- GiĂ integrato in Claude Desktop
- Supporto annunciato da OpenAI (marzo 2025) e Google DeepMind
Se volete approfondire, date un’occhiata alla documentazione ufficiale di MCP o alla guida per iniziare con MCP su Claude.
Agent2Agent (A2A): quando le AI si parlano
Google ha risposto con A2A nell’aprile 2025, supportato da oltre 50 giganti tech come Salesforce, SAP e Microsoft. Se MCP è il modo per connettere AI e strumenti, A2A è il modo per far parlare le AI tra loro.
Immaginate questo scenario: un agente AI specializzato nel recruiting trova candidati, un altro agente pianifica i colloqui, un terzo verifica le referenze. Con A2A possono coordinarsi automaticamente attraverso:
- “Agent Cards” (biglietti da visita in JSON)
- Gestione strutturata dei task
- Scambio di messaggi e risultati
- Negoziazione automatica delle modalitĂ di comunicazione
MCP e A2A: meglio insieme
La cosa bella è che non sono in competizione! MCP gestisce la comunicazione agente↔strumenti, A2A quella agente↔agente. Microsoft infatti ha annunciato che supporterà entrambi, dimostrando che possono coesistere perfettamente.
Come spiegato nel blog di Logto: “MCP fornisce integrazione verticale (applicazione-a-modello), mentre A2A fornisce integrazione orizzontale (agente-a-agente)“. Pensatelo come un’officina: MCP sono gli attrezzi che i meccanici usano, A2A è il modo in cui i meccanici si parlano tra loro.
Ma non finisce qui: l’ecosistema dei protocolli
MCP e A2A non sono gli unici giocatori in campo. Esistono diversi altri protocolli emergenti, ognuno con il suo focus specifico:
- ANP (Agent Network Protocol): Promuove reti di agenti aperte e decentralizzate usando DID (IdentitĂ Decentralizzata) e negoziazione sicura
- ACP (Agent Connect Protocol): Sviluppato da Agntcy.org per gestire interazioni di agenti ospitati su server con funzionalità come stati di thread e interruzioni. Punta a essere “l’HTTP della comunicazione tra agenti”
- AITP: Costruito per transazioni economiche sicure tra agenti, particolarmente attraverso confini organizzativi o di fiducia
- Agora: Un protocollo che permette agli agenti basati su LLM di negoziare autonomamente come comunicare
- LMOS (Language Model OS): Fornisce una piattaforma per orchestrare l’interoperabilità cross-framework attraverso diversi sistemi di agenti enterprise
Questi protocolli servono esigenze diverse—dalle reti aperte alla scopribilità web—e le aziende potrebbero adottarne più di uno a seconda della complessità del caso d’uso e dell’architettura del sistema.

Per chi vuole sporcarsi le mani, OpenAI ha pubblicato una guida pratica per costruire agenti davvero ben fatta, mentre Anthropic offre tutorial completi su MCP.
E il diritto in tutto questo?
Chi è responsabile quando un agente sbaglia?
Come sottolineano gli esperti IBM, alla fine “un essere umano sarà ritenuto responsabile per le azioni dell’agente”. Ma questo apre questioni spinose:
- Se un agente prende decisioni autonome, di chi è la colpa?
- Come garantiamo la tracciabilitĂ delle decisioni?
- Serve un framework legale per agenti che operano in piĂą paesi?
ProprietĂ intellettuale: territorio inesplorato
Quando un agente AI genera contenuti o codice:
- Chi detiene i diritti?
- Come proteggiamo il know-how aziendale usato per l’addestramento?
- Cosa succede con brevetti e marchi?
AI Act: agenti e “sistemi”
Anche dal punto di vista dell’AI Act quando un agente diventa un “sistema di intelligenza artificiale”? Sul tema ci sarebbero tantissime riflessioni da fare, anche in riferimento ai famosi “fornitori a valle” che sono previsti nel Regolamento e verso cui i fornitori di modelli hanno una serie di obblighi.
Magari su questo tema faremo un numero apposito successivamente.
Cosa ci aspetta?
Dal rilascio di ChatGPT sono passati solo due anni e mezzo, ma sembra un’eternità . Siamo passati da chatbot che rispondevano a domande a ecosistemi di agenti che collaborano, pianificano e agiscono nel mondo reale.
I protocolli come MCP e A2A stanno diventando le infrastrutture invisibili di questa rivoluzione. Come il TCP/IP ha permesso Internet, questi standard permetteranno un “web agentico” dove AI di diversi fornitori collaboreranno senza problemi.
Forse è arrivato il momento di interrogarsi seriamente su che tipo di rapporto vogliamo con queste tecnologie. Purtroppo come Europa è evidente che non stiamo tenendo il passo, sia dal punto di vista tecnologico sia da quello di business.Â
Forse con la nuova geopolitica che si sta creando il nostro continente potrebbe diventare una meta interessante per ricercatori, sviluppatori e start-up che potrebbero dare nuova linfa al questo settore.
Per approfondire: