Caro Giacomo, Mi dispiace dover rifiutare le tue proposte di pace, ma no, non credo che un LLM si possa definire una 'compressione [di testo] con perdita di contenuti’ più di quanto la Gioconda si possa definire come una ’tavola con sopra un po’ di vernice’, ma di ciò più non ragioniamo.
Vero è che gli sviluppi recenti (c.d. ’neurosimbolici’) stanno riportando la semantica di questi sistemi verso la rappresentazione del segno, rispetto a ciò che emerge in modo latente dalla distribuzione dei significanti, sia pure, questa, calcolata in modi raffinatissimi (attention). Questo avviene non solo per ragioni pratiche, ma anche perché un segno è criticabile (auditable), una distribuzione (specialmente se calcolata in modo raffinatissimo) assai meno. Quello che sta avvenendo è che la conoscenza fattuale (che un uomo in un tram è stato spinto, per riprendere l’esempio di Queneau) viene sempre più spesso rappresentata fuori dal livello in cui sono generati i possibili resoconti del fatto. La rappresentazione del contenuto proposizionale ci riporta sul terreno della logica, con tutti i suoi pregi e i suoi difetti. La speranza è che la grande sensibilità linguistica dimostrata dagli LLM aiuti ad attenuare questi difetti, mantenendo intatti i pregi. In ogni modo, andiamo verso una situazione in cui le applicazioni dell’AI davvero utili per le organizzazioni pubbliche e private potranno essere fatte con modelli di dimensioni contenute, anche ‘open weight’, e la partita si giocherà molto sulla qualità dei dati, dei tool, dei prompt, cioè sul livello applicativo ‘locale’. Su questo sì, possiamo essere d’accordo. Corollario: piuttosto che inseguire i giganti monopolisti con improbabili AI Farm, l’Europa (in subordine: l’Italia) dovrebbe puntare proprio su modelli che riducono la dipendenza esistenziale dai billion parameters statunitensi. Piccoli, ben ‘istruiti’, anche ottenuti con procedimenti innovativi come quelli che sta sperimentando LeCun. Puntare insomma sul cervello piuttosto che sui muscoli. Buon w.e. Guido > Il giorno 8 mag 2026, alle ore 11:04, Giacomo Tesio via nexa > <[email protected]> ha scritto: > > Se concordiamo (FINALMENTE! :-D) che un LLM non è altro che una > compressione con perdita dei contenuti usati per programmarlo (e dunque > privo di qualsiasi intelligenza), e che ogni altro componente di un > agente è software comune, ne consegue che gli agenti non contengono > alcuna intelligenza (senza virgolette), ma sono espressione > dell'intelligenza di chi li programma.
