Ciao Guido, grazie di aver riformulato la vaga menzione degli agenti.
Peraltro, usare come argomento il codice typescrypt di Claude, diffuso da un agente vibe-coded (come, dichiara Anthropic, è il codice stesso), è veramente... divertente. Dovrebbe far riflettere molti sulla utilità di questi strumenti, giacché quel codice è proprietario, tanto da spingere Anthropic a mandare decine di richieste DMCA a GitHub per censurarne la diffusione. Tentativo di censura ridicolmente fallito. ;-) Ora, se togliessimo il LLM dall'agente, nessuno lo considererebbe più rilevante nel dibattito sulla "intelligenza artificiale". Lo chiamereste semplicemente "script" o, al più, "software". Io continuerei a definirlo "agente cibernetico automatico" e ad analizzarne sensori, attuatori e centro di controllo, ad analizzarne le interazioni con gli altri agenti cibernetici (inclusi quelli autonomi) ed analizzerei l'evoluzione nel tempo dei sistemi cibernetici in cui viene inserito. Ma sappiamo già che il "framework interpretativo" della "intelligenza artificiale" non ha alcuna utilità scientifica, per cui non mi dilungo. Comunque, hai ragione: On Fri, 8 May 2026 09:24:09 +0200 Guido Vetere wrote: > Quello che avviene in quel mezzo milione di righe di codice è che la > richiesta viene analizzata e classificata (intent detection), i tool > opportuni identificati (si tratterà di servizi meteo), le parti > parametriche estratte (Parigi, domani), i tool attivati, i loro > risultati confrontati, la sintesi passata al modello come > ground-truth mediante un prompt che verosimilmente chiederà a Sonnet > di confezionare la risposta all’utente basandosi puntualmente su quei > dati. A quel punto, la stocastica può al più determinare questioni di > rendering linguistico. la totalità del codice di Claude CHE FUNZIONA non ha NULLA a che fare con la cosiddetta "intelligenza artificiale generativa", che si limita a estrarre in output un "rendering linguistico" statisticamente coerente con il contesto. Si tratta, in altri termini, di software comunissimo (direi pure piuttosto mediocre a livello di codice). L'intelligenza che vi è espressa (e che viene riprodotta in fase di esecuzione) è quella dei "poveri" ingegneri Anthropic che l'hanno dovuto estrarre iterativamente dal LLM di Claude, correggendone faticosamente gli errori, invece di scriverlo direttamente. Ma come hai descritto tu, si tratta di un software normalissimo che svolge una serie di operazioni in sequenza invocando altri software (locali e remoti), e connettendone input e output. Le chiamate agli LLM sono, come osservi, architetturalmente irrilevanti. Perché? Perché l'unica cosa che sanno fare, è calcolare quale token risulterà più plausibile al come successivo a fronte di una sequenza di token che rappresentano il prompt e il contesto costruito dall'applicazione. Se concordiamo (FINALMENTE! :-D) che un LLM non è altro che una compressione con perdita dei contenuti usati per programmarlo (e dunque privo di qualsiasi intelligenza), e che ogni altro componente di un agente è software comune, ne consegue che gli agenti non contengono alcuna intelligenza (senza virgolette), ma sono espressione dell'intelligenza di chi li programma. Vengono venduti come "intelligenza artificiale" (con le virgolette) per rallentare l'esplosione della bolla e perché, se ignoriamo tutte le esternalità, possono fornire un'utilità di breve periodo: nel caso dei coding agent, ad esempio, permettono di ottenere estratti di codice esposto dai concorrenti (che in cambio otterranno accesso al nostro). Potresti obiettare che l'intelligenza è una caratteristica emergente dagli agenti nel proprio complesso, sebbene assente in ciascuna singola parte (inclusi gli LLM). La bellezza, in fondo, è negli occhi di chi guarda. Personalmente, avendo esperienza diretta sia della mia intelligenza, sia del funzionamento di un agente sotto debug, escludo qualsiasi somiglianza funzionale o operativa fra le due. Mi risponderai che indipendentemente dalla natura intrinseca e dal funzionamento di questi software, tu osservi un comportamento intelligente, ovvero un comportamento analogo a quello che ti aspetteresti da un essere umano fornito di analogo output. Ma anche una calcolatrice, dalla Pascalina in poi, esibisce un comportamento che, a chi non ne comprende il funzionamento, potrebbe apparire intelligente: in fondo, effettua calcoli che molti esseri umani non sanno nemmeno più fare e li effettua molto più rapidamente di noi. Dunque credo che sia molto urgente diffondere una visione realistica della "intelligenza artificiale". Infatti non esiste alcuna "intelligenza artificiale". Ed è irrealistico, al momento, attribuire intelligenza a software. Esistono agenti cibernetici automatici utili e ne esistono di dannosi. Alcuni agenti cibernetici, di entrambe le categorie, sono basati su approssimatori statistici di output plausibile. Il loro output non va interpretato come una risposta attinente all'input/prompt, ma come l'estrazione iterativa di un token da un archivio compresso con perdita. Possono rimanere utili? Se non si considera il costo (cognitivo, economico, ecologico), alcuni sì. Ad esempio è ormai diffuso il loro uso come generatori di lorem ipsum a tema per prototipi di siti web. L'agente prende in input un tema e va a sostituire un certo tag con l'output del LLM, rispettando le dimensioni previste dal layout, e facendo risparmiare al grafico diversi minuti. Giacomo
