Buondì,
    mi piacerebbe capire se è corretto dire la cosa seguente:

dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che  "il 
token più probabile" (sto semplificando) è quello fornito dall'output 
dell'invocazione di un servizio meteo.

Cioè, sempre semplificando, la piattaforma integra diverse componenti che 
certamente affinano la qualità del risultato e lo fanno assomigliare sempre più 
a quello che in una persona chiamiamo comprensione e ragionamento, ma questa 
integrazione continua ad avere come base di fondo correlazioni probabilistiche.

Grazie,
Silvia


> On 8 May 2026, at 09:24, Guido Vetere via nexa <[email protected]> 
> wrote:
> 
> Caro Enrico, spero che la tua notte sia trascorsa serena.
> 
> Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e 
> inviti me a non intorbidire le acque, è come se dicessi che le automobili si 
> muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico 
> (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia 
> fragile anche la nostra vantata razionalità.
> 
> Su quello che avviene dentro i sistemi generativi attuali, benché i segreti 
> industriali siano gelosamente conservati, si trova molta letteratura. Basti 
> però ricordare che il recente leak del codice di Claude ha esposto mezzo 
> milione di righe TypeScript, che trovi comodamente su GitHub 
> [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del 
> modello, dunque li puoi ispezionare. Enjoy.
> 
> Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
> 
> Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà 
> qualcosa del tipo:
> 
> Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: 
> soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. 
> Domenica invece peggiora un po', con copertura nuvolosa e probabilità di 
> pioggia al 45%.
> 
> Secondo te una risposta del genere può essere stata prodotta prevedendo i 
> token su base statistica? Che statistiche abbiamo sul futuro?
> 
> Quello che avviene in quel mezzo milione di righe di codice è che la 
> richiesta viene analizzata e classificata (intent detection), i tool 
> opportuni identificati (si tratterà di servizi meteo), le parti parametriche 
> estratte (Parigi, domani),  i tool attivati, i loro risultati confrontati, la 
> sintesi passata al modello come ground-truth mediante un prompt che 
> verosimilmente chiederà a Sonnet di confezionare la risposta all’utente 
> basandosi puntualmente su quei dati. A quel punto, la stocastica può al più 
> determinare questioni di rendering linguistico. La partita della verità, che 
> tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i 
> servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il 
> caffè la mattina.
> 
> E con questo ti auguro cordialmente buona giornata.
> 
> Guido
> 
> 
> 
>> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa 
>> <[email protected]> ha scritto:
>> 
>> Perdonami Guido
>> osservo preliminarmente che le piattaforma generative testuali SONO basate 
>> sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di 
>> Intelligenza Artificiale generativa in ambito testuale, che è quello più 
>> rilevante quando si parla di intelligenza e comprensione, si parla di LLM. 
>> Non intorbidiamo le acque.
>> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme 
>> generative fanno ben altro che predire stocasticamente il “prossimo token”».
>> Giacomo Tesio in un altro messaggio oggi ha chiesto 
>> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
>>> Ciao Giuseppe,
>>> 
>>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
>>> 
>>> 
>>>> Ci sono numerosi casi di risultati che non sono ottenibili
>>>> “riorganizzando informazioni già presenti nei dati”. 
>>>> 
>>> Puoi condividere un paio di esempi riproducibili?
>>> 
>>> Giusto per non limitarsi ad aneddoti commerciali.
>>> 
>> Stiamo ancora aspettando la risposta.
>> Che gli LLM funzionino esattamente come predittori del prossimo token, con 
>> una serie di ammenicoli di contorno che non cambiano la loro natura di 
>> fondo, è spiegato - tra l'altro - nello studio citato in questo articolo 
>> https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html
>> «In a landmark study, OpenAI researchers reveal that large language models 
>> will always produce plausible but false outputs, even with perfect data, due 
>> to fundamental statistical and computational limits.»
>> Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
>> 
>> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo 
>> su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di 
>> conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze 
>> sperimentali assai vaste e robuste, che mi pare non ci siano in questo 
>> momento.
>> 
>> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore 
>> osservazione che chiunque si occupi di dimostrare in modo galileiano la 
>> natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con 
>> parole mie): siamo sicuri che non esistono altre cause che spieghino lo 
>> stesso risultato? 
>> 
>> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano 
>> fondati su evidenze sperimentali, vaste, robuste e riproducibili.
>> 
>> Buona notte, Enrico
>> 
>> 
>> Il 07/05/2026 22:49, Guido Vetere ha scritto:
>>> Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme 
>>> generative (da non confondere coi language model) fanno ben altro che 
>>> predire stocasticamente il “prossimo token”, non arrivano repliche.
>>> La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è 
>>> in effetti una opinione, e anche molto discutibile a quanto pare (ironico, 
>>> per chi parla di “epistemia”). Se proprio si vuol fare la conta, non 
>>> sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una 
>>> petizione? Perché invece di un appello all’autorità accademica (!) su 
>>> qualcosa di controverso non si fa una onesta discussione di merito? Questo 
>>> sarebbe anche un posto giusto. 
>>> La petizione che avete proposto rischia anche di essere regressiva, 
>>> specularmente all’intervista di Veltroni. Capire bene come stanno le cose è 
>>> fondamentale per indirizzare la ricerca nella direzione del progresso (vs. 
>>> del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, 
>>> naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di 
>>> parlarne con calma.
>>> 
>>> G.
>>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa 
>>>> <[email protected]> ha scritto:
>>>> 
>>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma 
>>>> quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere 
>>>> in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere 
>>>> sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non 
>>>> ci siano in questo momento.
>>> 
>> -- 
>> -- EN 
>> https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html 
>> <SXK2RJtn2vzsq6qC.png> 
>> ====================================================== 
>> Prof. Enrico Nardelli 
>> Past President di "Informatics Europe" 
>> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI 
>> Dipartimento di Matematica - Università di Roma "Tor Vergata" 
>> Via della Ricerca Scientifica snc - 00133 Roma 
>> home page: https://www.mat.uniroma2.it/~nardelli 
>> blog: https://link-and-think.blogspot.it/ 
>> tel: +39 06 7259.4204 fax: +39 06 7259.4699 
>> mobile: +39 335 590.2331 e-mail: [email protected] 
>> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont 
>> ====================================================== 
>> --
> 

Reply via email to