Caro Giacomo,
Mi dispiace dover rifiutare le tue proposte di pace, ma no, non credo che un 
LLM si possa definire una 'compressione [di testo] con perdita di contenuti’ 
più di quanto la Gioconda si possa definire come una ’tavola con sopra un po’ 
di vernice’, ma di ciò più non ragioniamo.

Vero è che gli sviluppi recenti (c.d. ’neurosimbolici’) stanno riportando la 
semantica di questi sistemi verso la rappresentazione del segno, rispetto a ciò 
che emerge in modo latente dalla distribuzione dei significanti, sia pure, 
questa, calcolata in modi raffinatissimi (attention).  Questo avviene non solo 
per ragioni pratiche, ma anche perché un segno è criticabile (auditable), una 
distribuzione (specialmente se calcolata in modo raffinatissimo) assai meno.

Quello che sta avvenendo è che la conoscenza fattuale (che un uomo in un tram è 
stato spinto, per riprendere l’esempio di Queneau) viene sempre più spesso 
rappresentata fuori dal livello in cui sono generati i possibili resoconti del 
fatto. La rappresentazione del contenuto proposizionale ci riporta sul terreno 
della logica, con tutti i suoi pregi e i suoi difetti. La speranza è che la 
grande sensibilità linguistica dimostrata dagli LLM aiuti ad attenuare questi 
difetti, mantenendo intatti i pregi.

In ogni modo, andiamo verso una situazione in cui le applicazioni dell’AI 
davvero utili per le organizzazioni pubbliche e private potranno essere fatte 
con modelli di dimensioni contenute, anche ‘open weight’, e la partita si 
giocherà molto sulla qualità dei dati, dei tool, dei prompt, cioè sul livello 
applicativo ‘locale’. Su questo sì, possiamo essere d’accordo.

Corollario: piuttosto che inseguire i giganti monopolisti con improbabili AI 
Farm, l’Europa (in subordine: l’Italia) dovrebbe puntare proprio su modelli che 
riducono la dipendenza esistenziale dai billion parameters statunitensi. 
Piccoli, ben ‘istruiti’, anche ottenuti con procedimenti innovativi come quelli 
che sta sperimentando LeCun. Puntare insomma sul cervello piuttosto che sui 
muscoli.

Buon w.e.

Guido

> Il giorno 8 mag 2026, alle ore 11:04, Giacomo Tesio via nexa 
> <[email protected]> ha scritto:
> 
> Se concordiamo (FINALMENTE! :-D) che un LLM non è altro che una
> compressione con perdita dei contenuti usati per programmarlo (e dunque
> privo di qualsiasi intelligenza), e che ogni altro componente di un
> agente è software comune, ne consegue che gli agenti non contengono
> alcuna intelligenza (senza virgolette), ma sono espressione
> dell'intelligenza di chi li programma.

Reply via email to