Buondì,
mi piacerebbe capire se è corretto dire la cosa seguente:
dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che "il
token più probabile" (sto semplificando) è quello fornito dall'output
dell'invocazione di un servizio meteo.
Cioè, sempre semplificando, la piattaforma integra diverse componenti che
certamente affinano la qualità del risultato e lo fanno assomigliare sempre più
a quello che in una persona chiamiamo comprensione e ragionamento, ma questa
integrazione continua ad avere come base di fondo correlazioni probabilistiche.
Grazie,
Silvia
> On 8 May 2026, at 09:24, Guido Vetere via nexa <[email protected]>
> wrote:
>
> Caro Enrico, spero che la tua notte sia trascorsa serena.
>
> Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e
> inviti me a non intorbidire le acque, è come se dicessi che le automobili si
> muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico
> (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia
> fragile anche la nostra vantata razionalità.
>
> Su quello che avviene dentro i sistemi generativi attuali, benché i segreti
> industriali siano gelosamente conservati, si trova molta letteratura. Basti
> però ricordare che il recente leak del codice di Claude ha esposto mezzo
> milione di righe TypeScript, che trovi comodamente su GitHub
> [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del
> modello, dunque li puoi ispezionare. Enjoy.
>
> Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
>
> Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà
> qualcosa del tipo:
>
> Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata:
> soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia.
> Domenica invece peggiora un po', con copertura nuvolosa e probabilità di
> pioggia al 45%.
>
> Secondo te una risposta del genere può essere stata prodotta prevedendo i
> token su base statistica? Che statistiche abbiamo sul futuro?
>
> Quello che avviene in quel mezzo milione di righe di codice è che la
> richiesta viene analizzata e classificata (intent detection), i tool
> opportuni identificati (si tratterà di servizi meteo), le parti parametriche
> estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, la
> sintesi passata al modello come ground-truth mediante un prompt che
> verosimilmente chiederà a Sonnet di confezionare la risposta all’utente
> basandosi puntualmente su quei dati. A quel punto, la stocastica può al più
> determinare questioni di rendering linguistico. La partita della verità, che
> tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i
> servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso il
> caffè la mattina.
>
> E con questo ti auguro cordialmente buona giornata.
>
> Guido
>
>
>
>> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa
>> <[email protected]> ha scritto:
>>
>> Perdonami Guido
>> osservo preliminarmente che le piattaforma generative testuali SONO basate
>> sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di
>> Intelligenza Artificiale generativa in ambito testuale, che è quello più
>> rilevante quando si parla di intelligenza e comprensione, si parla di LLM.
>> Non intorbidiamo le acque.
>> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme
>> generative fanno ben altro che predire stocasticamente il “prossimo token”».
>> Giacomo Tesio in un altro messaggio oggi ha chiesto
>> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
>>> Ciao Giuseppe,
>>>
>>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
>>>
>>>
>>>> Ci sono numerosi casi di risultati che non sono ottenibili
>>>> “riorganizzando informazioni già presenti nei dati”.
>>>>
>>> Puoi condividere un paio di esempi riproducibili?
>>>
>>> Giusto per non limitarsi ad aneddoti commerciali.
>>>
>> Stiamo ancora aspettando la risposta.
>> Che gli LLM funzionino esattamente come predittori del prossimo token, con
>> una serie di ammenicoli di contorno che non cambiano la loro natura di
>> fondo, è spiegato - tra l'altro - nello studio citato in questo articolo
>> https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html
>> «In a landmark study, OpenAI researchers reveal that large language models
>> will always produce plausible but false outputs, even with perfect data, due
>> to fundamental statistical and computational limits.»
>> Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
>>
>> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo
>> su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma di
>> conoscenza galileiano, le opinioni dovrebbero essere sostenute da evidenze
>> sperimentali assai vaste e robuste, che mi pare non ci siano in questo
>> momento.
>>
>> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore
>> osservazione che chiunque si occupi di dimostrare in modo galileiano la
>> natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con
>> parole mie): siamo sicuri che non esistono altre cause che spieghino lo
>> stesso risultato?
>>
>> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano
>> fondati su evidenze sperimentali, vaste, robuste e riproducibili.
>>
>> Buona notte, Enrico
>>
>>
>> Il 07/05/2026 22:49, Guido Vetere ha scritto:
>>> Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme
>>> generative (da non confondere coi language model) fanno ben altro che
>>> predire stocasticamente il “prossimo token”, non arrivano repliche.
>>> La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica è
>>> in effetti una opinione, e anche molto discutibile a quanto pare (ironico,
>>> per chi parla di “epistemia”). Se proprio si vuol fare la conta, non
>>> sarebbe più onesto fare un sondaggio o un questionario, piuttosto che una
>>> petizione? Perché invece di un appello all’autorità accademica (!) su
>>> qualcosa di controverso non si fa una onesta discussione di merito? Questo
>>> sarebbe anche un posto giusto.
>>> La petizione che avete proposto rischia anche di essere regressiva,
>>> specularmente all’intervista di Veltroni. Capire bene come stanno le cose è
>>> fondamentale per indirizzare la ricerca nella direzione del progresso (vs.
>>> del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe,
>>> naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di
>>> parlarne con calma.
>>>
>>> G.
>>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa
>>>> <[email protected]> ha scritto:
>>>>
>>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma
>>>> quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere
>>>> in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere
>>>> sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non
>>>> ci siano in questo momento.
>>>
>> --
>> -- EN
>> https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
>> <SXK2RJtn2vzsq6qC.png>
>> ======================================================
>> Prof. Enrico Nardelli
>> Past President di "Informatics Europe"
>> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
>> Dipartimento di Matematica - Università di Roma "Tor Vergata"
>> Via della Ricerca Scientifica snc - 00133 Roma
>> home page: https://www.mat.uniroma2.it/~nardelli
>> blog: https://link-and-think.blogspot.it/
>> tel: +39 06 7259.4204 fax: +39 06 7259.4699
>> mobile: +39 335 590.2331 e-mail: [email protected]
>> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
>> ======================================================
>> --
>