Guido, io ho scritto:
le piattaforma generative testuali SONO basate sugli LLM, quindi
quello che producono viene dagli LLM.
tu mi replichi
è come se dicessi che le automobili si muovono sulle ruote, dunque
SONO ruote
NO! Se io avessi scritto
le piattaforma generative testuali SONO basate sugli LLM, quindi
sono degli LLM
allora avrei fatto ciò che tu dici.
Ma siccome ho scritto una cosa diversa, il dibattito si chiude qua per me.
Ti confermo che stanotte ho dormito benissimo... :-)
Ciao, Enrico
Il 08/05/2026 09:24, Guido Vetere ha scritto:
Caro Enrico, spero che la tua notte sia trascorsa serena.
Quando dici che "le piattaforma generative testuali SONO basate sugli
LLM” e inviti me a non intorbidire le acque, è come se dicessi che le
automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un
errore mereologico (di composizione, pars pro toto) abbastanza
frequente, che mostra quanto sia fragile anche la nostra vantata
razionalità.
Su quello che avviene dentro i sistemi generativi attuali, benché i
segreti industriali siano gelosamente conservati, si trova molta
letteratura. Basti però ricordare che il recente leak del codice di
Claude ha esposto mezzo milione di righe TypeScript, che trovi
comodamente su GitHub [https://github.com/codeaashu/claude-code]. E
no, non sono i pesi del modello, dunque li puoi ispezionare. Enjoy.
Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà
qualcosa del tipo:
/Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella
giornata: soleggiato, con massima di 24°C e solo un 20% di
probabilità di pioggia. Domenica invece peggiora un po', con
copertura nuvolosa e probabilità di pioggia al 45%./
Secondo te una risposta del genere può essere stata prodotta
prevedendo i token su base statistica? Che statistiche abbiamo sul futuro?
Quello che avviene in quel mezzo milione di righe di codice è che la
richiesta viene analizzata e classificata (intent detection), i tool
opportuni identificati (si tratterà di servizi meteo), le parti
parametriche estratte (Parigi, domani), i tool attivati, i loro
risultati confrontati, la sintesi passata al modello come ground-truth
mediante un prompt che verosimilmente chiederà a Sonnet di
confezionare la risposta all’utente basandosi puntualmente su quei
dati. A quel punto, la stocastica può al più determinare questioni di
rendering linguistico. La partita della verità, che tanto sta a cuore
a chi parla di ‘epistemia’, si gioca nel campo di chi fa i servizi
meteo – gli stessi che tu consulti tranquillamente dopo aver preso il
caffè la mattina.
E con questo ti auguro cordialmente buona giornata.
Guido
Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa
<[email protected]> ha scritto:
Perdonami Guido
osservo preliminarmente che le piattaforma generative testuali SONO
basate sugli LLM, quindi quello che producono viene dagli LLM. Quando
si parla di Intelligenza Artificiale generativa in ambito testuale,
che è quello più rilevante quando si parla di intelligenza e
comprensione, si parla di LLM. Non intorbidiamo le acque.
Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme
generative fanno ben altro che predire stocasticamente il “prossimo
token”».
Giacomo Tesio in un altro messaggio oggi ha chiesto
Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
Ciao Giuseppe,
On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
Ci sono numerosi casi di risultati che non sono ottenibili
“riorganizzando informazioni già presenti nei dati”.
Puoi condividere un paio di esempi riproducibili?
Giusto per non limitarsi ad aneddoti commerciali.
Stiamo ancora aspettando la risposta.
Che gli LLM funzionino esattamente come predittori del prossimo
token, con una serie di ammenicoli di contorno che non cambiano la
loro natura di fondo, è spiegato - tra l'altro - nello studio citato
in questo articolo
https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html
«/In a landmark study, OpenAI researchers reveal that large language
models will always produce plausible but false outputs, even with
perfect data, due to fundamental statistical and computational limits./»
Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
/il dibattito di opinioni è libero, ci mancherebbe altro, ma quando
andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in
un paradigma di conoscenza galileiano, le opinioni dovrebbero essere
sostenute da evidenze sperimentali assai vaste e robuste, che mi pare
non ci siano in questo momento./
Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore
osservazione che chiunque si occupi di dimostrare in modo galileiano
la natura di un qualche fenomeno dovrebbe ben tener presente (la
riformulo con parole mie): siamo sicuri che non esistono altre cause
che spieghino lo stesso risultato?
Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non
siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
Buona notte, Enrico
Il 07/05/2026 22:49, Guido Vetere ha scritto:
Tuttavia, quando vi si fa osservare – dati alla mano – che le
piattaforme generative (da non confondere coi language model) fanno
ben altro che predire stocasticamente il “prossimo token”, non
arrivano repliche.
La “verità” sulla quale chiamate a raccolta l’intera comunità
scientifica è in effetti una opinione, e anche molto discutibile a
quanto pare (ironico, per chi parla di “epistemia”). Se proprio si
vuol fare la conta, non sarebbe più onesto fare un sondaggio o un
questionario, piuttosto che una petizione? Perché invece di un
appello all’autorità accademica (!) su qualcosa di controverso non
si fa una onesta discussione di merito? Questo sarebbe anche un
posto giusto.
La petizione che avete proposto rischia anche di essere regressiva,
specularmente all’intervista di Veltroni. Capire bene come stanno le
cose è fondamentale per indirizzare la ricerca nella direzione del
progresso (vs. del profitto), e se qualcuno che ha fatto l’NLP in
Italia (parlo di Beppe, naturalmente) dice che state sbagliando
qualcosa, forse sarebbe il caso di parlarne con calma.
G.
Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa
<[email protected]> ha scritto:
Dopo di che, il dibattito di opinioni è libero, ci mancherebbe
altro, ma quando andiamo su temi scientifici e tecnologici, e se
vogliamo rimanere in un paradigma di conoscenza galileiano, le
opinioni dovrebbero essere sostenute da evidenze sperimentali assai
vaste e robuste, che mi pare non ci siano in questo momento.
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
<SXK2RJtn2vzsq6qC.png>
======================================================
Prof. Enrico Nardelli
Past President di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: [email protected]
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
======================================================
Prof. Enrico Nardelli
Past President di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: [email protected]
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--