Ciao Guido,

grazie di aver riformulato la vaga menzione degli agenti.

Peraltro, usare come argomento il codice typescrypt di Claude, diffuso
da un agente vibe-coded (come, dichiara Anthropic, è il codice stesso),
è veramente... divertente.

Dovrebbe far riflettere molti sulla utilità di questi strumenti,
giacché quel codice è proprietario, tanto da spingere Anthropic a
mandare decine di richieste DMCA a GitHub per censurarne la diffusione.
Tentativo di censura ridicolmente fallito. ;-)


Ora, se togliessimo il LLM dall'agente, nessuno lo considererebbe più
rilevante nel dibattito sulla "intelligenza artificiale".
Lo chiamereste semplicemente "script" o, al più, "software".

Io continuerei a definirlo "agente cibernetico automatico" e ad
analizzarne sensori, attuatori e centro di controllo, ad analizzarne le
interazioni con gli altri agenti cibernetici (inclusi quelli autonomi)
ed analizzerei l'evoluzione nel tempo dei sistemi cibernetici in cui
viene inserito.

Ma sappiamo già che il "framework interpretativo" della "intelligenza
artificiale" non ha alcuna utilità scientifica, per cui non mi dilungo.



Comunque, hai ragione:

On Fri, 8 May 2026 09:24:09 +0200 Guido Vetere wrote:

> Quello che avviene in quel mezzo milione di righe di codice è che la
> richiesta viene analizzata e classificata (intent detection), i tool
> opportuni identificati (si tratterà di servizi meteo), le parti
> parametriche estratte (Parigi, domani),  i tool attivati, i loro
> risultati confrontati, la sintesi passata al modello come
> ground-truth mediante un prompt che verosimilmente chiederà a Sonnet
> di confezionare la risposta all’utente basandosi puntualmente su quei
> dati. A quel punto, la stocastica può al più determinare questioni di
> rendering linguistico. 

la totalità del codice di Claude CHE FUNZIONA non ha
NULLA a che fare con la cosiddetta "intelligenza artificiale
generativa", che si limita a estrarre in output un "rendering
linguistico" statisticamente coerente con il contesto.

Si tratta, in altri termini, di software comunissimo (direi pure
piuttosto mediocre a livello di codice).

L'intelligenza che vi è espressa (e che viene riprodotta in fase di
esecuzione) è quella dei "poveri" ingegneri Anthropic che l'hanno dovuto
estrarre iterativamente dal LLM di Claude, correggendone faticosamente
gli errori, invece di scriverlo direttamente.

Ma come hai descritto tu, si tratta di un software normalissimo che
svolge una serie di operazioni in sequenza invocando altri software
(locali e remoti), e connettendone input e output.


Le chiamate agli LLM sono, come osservi, architetturalmente irrilevanti.

Perché?

Perché l'unica cosa che sanno fare, è calcolare quale token risulterà
più plausibile al come successivo a fronte di una sequenza di token
che rappresentano il prompt e il contesto costruito dall'applicazione.


Se concordiamo (FINALMENTE! :-D) che un LLM non è altro che una
compressione con perdita dei contenuti usati per programmarlo (e dunque
privo di qualsiasi intelligenza), e che ogni altro componente di un
agente è software comune, ne consegue che gli agenti non contengono
alcuna intelligenza (senza virgolette), ma sono espressione
dell'intelligenza di chi li programma.


Vengono venduti come "intelligenza artificiale" (con le virgolette) per
rallentare l'esplosione della bolla e perché, se ignoriamo tutte le
esternalità, possono fornire un'utilità di breve periodo: nel caso dei
coding agent, ad esempio, permettono di ottenere estratti di codice
esposto dai concorrenti (che in cambio otterranno accesso al nostro).



Potresti obiettare che l'intelligenza è una caratteristica emergente
dagli agenti nel proprio complesso, sebbene assente in ciascuna singola
parte (inclusi gli LLM).

La bellezza, in fondo, è negli occhi di chi guarda.


Personalmente, avendo esperienza diretta sia della mia intelligenza,
sia del funzionamento di un agente sotto debug, escludo qualsiasi
somiglianza funzionale o operativa fra le due.


Mi risponderai che indipendentemente dalla natura intrinseca e dal
funzionamento di questi software, tu osservi un comportamento
intelligente, ovvero un comportamento analogo a quello che ti
aspetteresti da un essere umano fornito di analogo output.

Ma anche una calcolatrice, dalla Pascalina in poi, esibisce un
comportamento che, a chi non ne comprende il funzionamento, potrebbe
apparire intelligente: in fondo, effettua calcoli che molti esseri umani
non sanno nemmeno più fare e li effettua molto più rapidamente di noi.


Dunque credo che sia molto urgente diffondere una visione realistica
della "intelligenza artificiale".

Infatti non esiste alcuna "intelligenza artificiale".
Ed è irrealistico, al momento, attribuire intelligenza a software.


Esistono agenti cibernetici automatici utili e ne esistono di dannosi.
Alcuni agenti cibernetici, di entrambe le categorie, sono basati su
approssimatori statistici di output plausibile. Il loro output non va
interpretato come una risposta attinente all'input/prompt, ma come
l'estrazione iterativa di un token da un archivio compresso con perdita.

Possono rimanere utili?
Se non si considera il costo (cognitivo, economico, ecologico),
alcuni sì.

Ad esempio è ormai diffuso il loro uso come generatori di lorem ipsum a
tema per prototipi di siti web. L'agente prende in input un tema e va a
sostituire un certo tag con l'output del LLM, rispettando le dimensioni
previste dal layout, e facendo risparmiare al grafico diversi minuti.



Giacomo

Reply via email to