Caro Enrico, spero che la tua notte sia trascorsa serena.

Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e 
inviti me a non intorbidire le acque, è come se dicessi che le automobili si 
muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico (di 
composizione, pars pro toto) abbastanza frequente, che mostra quanto sia 
fragile anche la nostra vantata razionalità.

Su quello che avviene dentro i sistemi generativi attuali, benché i segreti 
industriali siano gelosamente conservati, si trova molta letteratura. Basti 
però ricordare che il recente leak del codice di Claude ha esposto mezzo 
milione di righe TypeScript, che trovi comodamente su GitHub 
[https://github.com/codeaashu/claude-code]. E no, non sono i pesi del modello, 
dunque li puoi ispezionare. Enjoy.

Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.

Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà qualcosa 
del tipo:

Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: 
soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. 
Domenica invece peggiora un po', con copertura nuvolosa e probabilità di 
pioggia al 45%.

Secondo te una risposta del genere può essere stata prodotta prevedendo i token 
su base statistica? Che statistiche abbiamo sul futuro?

Quello che avviene in quel mezzo milione di righe di codice è che la richiesta 
viene analizzata e classificata (intent detection), i tool opportuni 
identificati (si tratterà di servizi meteo), le parti parametriche estratte 
(Parigi, domani),  i tool attivati, i loro risultati confrontati, la sintesi 
passata al modello come ground-truth mediante un prompt che verosimilmente 
chiederà a Sonnet di confezionare la risposta all’utente basandosi puntualmente 
su quei dati. A quel punto, la stocastica può al più determinare questioni di 
rendering linguistico. La partita della verità, che tanto sta a cuore a chi 
parla di ‘epistemia’, si gioca nel campo di chi fa i servizi meteo – gli stessi 
che tu consulti tranquillamente dopo aver preso il caffè la mattina.

E con questo ti auguro cordialmente buona giornata.

Guido



> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa 
> <[email protected]> ha scritto:
> 
> Perdonami Guido
> 
> osservo preliminarmente che le piattaforma generative testuali SONO basate 
> sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di 
> Intelligenza Artificiale generativa in ambito testuale, che è quello più 
> rilevante quando si parla di intelligenza e comprensione, si parla di LLM. 
> Non intorbidiamo le acque.
> 
> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme 
> generative fanno ben altro che predire stocasticamente il “prossimo token”».
> 
> Giacomo Tesio in un altro messaggio oggi ha chiesto 
> 
> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
>> Ciao Giuseppe,
>> 
>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
>> 
>>> Ci sono numerosi casi di risultati che non sono ottenibili
>>> “riorganizzando informazioni già presenti nei dati”. 
>> Puoi condividere un paio di esempi riproducibili?
>> 
>> Giusto per non limitarsi ad aneddoti commerciali.
> Stiamo ancora aspettando la risposta.
> 
> Che gli LLM funzionino esattamente come predittori del prossimo token, con 
> una serie di ammenicoli di contorno che non cambiano la loro natura di fondo, 
> è spiegato - tra l'altro - nello studio citato in questo articolo 
> https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html
> 
> «In a landmark study, OpenAI researchers reveal that large language models 
> will always produce plausible but false outputs, even with perfect data, due 
> to fundamental statistical and computational limits.»
> 
> Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
> 
> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo su 
> temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di 
> conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze 
> sperimentali assai vaste e robuste, che mi pare non ci siano in questo 
> momento.
> 
> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore 
> osservazione che chiunque si occupi di dimostrare in modo galileiano la 
> natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con 
> parole mie): siamo sicuri che non esistono altre cause che spieghino lo 
> stesso risultato? 
> 
> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano 
> fondati su evidenze sperimentali, vaste, robuste e riproducibili.
> 
> Buona notte, Enrico
> 
> 
> Il 07/05/2026 22:49, Guido Vetere ha scritto:
>> Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme 
>> generative (da non confondere coi language model) fanno ben altro che 
>> predire stocasticamente il “prossimo token”, non arrivano repliche.
>> La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è 
>> in effetti una opinione, e anche molto discutibile a quanto pare (ironico, 
>> per chi parla di “epistemia”). Se proprio si vuol fare la conta, non sarebbe 
>> più onesto fare un sondaggio o un questionario, piuttosto che una petizione? 
>> Perché invece di un appello all’autorità accademica (!) su qualcosa di 
>> controverso non si fa una onesta discussione di merito? Questo sarebbe anche 
>> un posto giusto. 
>> La petizione che avete proposto rischia anche di essere regressiva, 
>> specularmente all’intervista di Veltroni. Capire bene come stanno le cose è 
>> fondamentale per indirizzare la ricerca nella direzione del progresso (vs. 
>> del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, 
>> naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di 
>> parlarne con calma.
>> 
>> G.
>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa 
>>> <[email protected] <mailto:[email protected]>> ha scritto:
>>> 
>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma 
>>> quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in 
>>> un paradigma di conoscenza galileiano, le opinioni dovrebbero essere 
>>> sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non 
>>> ci siano in questo momento.
>> 
> --
> -- EN
> 
> https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
> <SXK2RJtn2vzsq6qC.png>        
> ====================================================== 
> Prof. Enrico Nardelli 
> Past President di "Informatics Europe" 
> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI 
> Dipartimento di Matematica - Università di Roma "Tor Vergata" 
> Via della Ricerca Scientifica snc - 00133 Roma 
> home page: https://www.mat.uniroma2.it/~nardelli 
> blog: https://link-and-think.blogspot.it/ 
> tel: +39 06 7259.4204 fax: +39 06 7259.4699 
> mobile: +39 335 590.2331 e-mail: [email protected] 
> <mailto:[email protected]> 
> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont 
> ====================================================== 
> 
> --

Reply via email to