Buongiorno Silvia,
Sicuramente la classificazione dell’intento è probabilistica (peraltro la fanno 
verosimilmente con modellini molto leggeri, non servono i billion parameters), 
se l’intento è associato (deterministicamente) a uno o più tool, allora i 
parametri di attivazione di quei tool sono estratti dalla domanda (o anche dal 
contesto conversazione, ma semplifichiamo) sempre in modo probabilistico, 
ancora presumibilmente con qualcosa di molto leggero. I dati forniti dai tool 
devono poi essere integrati, e qui intervengono euristiche che vai a sapere, ma 
si tratta di ragionamenti ipotetici, cioè abduttivi, cioè semi-razionali, con 
buona pace di chi si ostina a non capirlo. Confezionata la ‘ground truth’, come 
dicevo, si tratta infine solo di tornire la frase, cioè il modello linguistico 
torna a fare ciò a cui deve il nome: generare linguaggio. Il contenuto 
epistemico sta altrove (database, sensori, whatever), e non è meno razionale di 
quello che consumiamo normalmente nella nostra sfera informativa.

Spero sia utile,
Guido

> Il giorno 8 mag 2026, alle ore 10:14, Silvia Crafa via nexa 
> <[email protected]> ha scritto:
> 
> Buondì,
>    mi piacerebbe capire se è corretto dire la cosa seguente:
> 
> dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che  
> "il token più probabile" (sto semplificando) è quello fornito dall'output 
> dell'invocazione di un servizio meteo.
> 
> Cioè, sempre semplificando, la piattaforma integra diverse componenti che 
> certamente affinano la qualità del risultato e lo fanno assomigliare sempre 
> più a quello che in una persona chiamiamo comprensione e ragionamento, ma 
> questa integrazione continua ad avere come base di fondo correlazioni 
> probabilistiche.
> 
> Grazie,
> Silvia
> 
> 
>> On 8 May 2026, at 09:24, Guido Vetere via nexa <[email protected]> 
>> wrote:
>> 
>> Caro Enrico, spero che la tua notte sia trascorsa serena.
>> 
>> Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e 
>> inviti me a non intorbidire le acque, è come se dicessi che le automobili si 
>> muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico 
>> (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia 
>> fragile anche la nostra vantata razionalità.
>> 
>> Su quello che avviene dentro i sistemi generativi attuali, benché i segreti 
>> industriali siano gelosamente conservati, si trova molta letteratura. Basti 
>> però ricordare che il recente leak del codice di Claude ha esposto mezzo 
>> milione di righe TypeScript, che trovi comodamente su GitHub 
>> [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del 
>> modello, dunque li puoi ispezionare. Enjoy.
>> 
>> Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
>> 
>> Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà 
>> qualcosa del tipo:
>> 
>> Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: 
>> soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. 
>> Domenica invece peggiora un po', con copertura nuvolosa e probabilità di 
>> pioggia al 45%.
>> 
>> Secondo te una risposta del genere può essere stata prodotta prevedendo i 
>> token su base statistica? Che statistiche abbiamo sul futuro?
>> 
>> Quello che avviene in quel mezzo milione di righe di codice è che la 
>> richiesta viene analizzata e classificata (intent detection), i tool 
>> opportuni identificati (si tratterà di servizi meteo), le parti parametriche 
>> estratte (Parigi, domani),  i tool attivati, i loro risultati confrontati, 
>> la sintesi passata al modello come ground-truth mediante un prompt che 
>> verosimilmente chiederà a Sonnet di confezionare la risposta all’utente 
>> basandosi puntualmente su quei dati. A quel punto, la stocastica può al più 
>> determinare questioni di rendering linguistico. La partita della verità, che 
>> tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i 
>> servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso 
>> il caffè la mattina.
>> 
>> E con questo ti auguro cordialmente buona giornata.
>> 
>> Guido
>> 
>> 
>> 
>>> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa 
>>> <[email protected]> ha scritto:
>>> 
>>> Perdonami Guido
>>> osservo preliminarmente che le piattaforma generative testuali SONO basate 
>>> sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di 
>>> Intelligenza Artificiale generativa in ambito testuale, che è quello più 
>>> rilevante quando si parla di intelligenza e comprensione, si parla di LLM. 
>>> Non intorbidiamo le acque.
>>> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme 
>>> generative fanno ben altro che predire stocasticamente il “prossimo token”».
>>> Giacomo Tesio in un altro messaggio oggi ha chiesto 
>>> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
>>>> Ciao Giuseppe,
>>>> 
>>>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
>>>> 
>>>> 
>>>>> Ci sono numerosi casi di risultati che non sono ottenibili
>>>>> “riorganizzando informazioni già presenti nei dati”. 
>>>>> 
>>>> Puoi condividere un paio di esempi riproducibili?
>>>> 
>>>> Giusto per non limitarsi ad aneddoti commerciali.
>>>> 
>>> Stiamo ancora aspettando la risposta.
>>> Che gli LLM funzionino esattamente come predittori del prossimo token, con 
>>> una serie di ammenicoli di contorno che non cambiano la loro natura di 
>>> fondo, è spiegato - tra l'altro - nello studio citato in questo articolo 
>>> https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html
>>> «In a landmark study, OpenAI researchers reveal that large language models 
>>> will always produce plausible but false outputs, even with perfect data, 
>>> due to fundamental statistical and computational limits.»
>>> Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
>>> 
>>> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo 
>>> su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma 
>>> di conoscenza galileiano, le opinioni dovrebbero essere sostenute da 
>>> evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in 
>>> questo momento.
>>> 
>>> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore 
>>> osservazione che chiunque si occupi di dimostrare in modo galileiano la 
>>> natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con 
>>> parole mie): siamo sicuri che non esistono altre cause che spieghino lo 
>>> stesso risultato? 
>>> 
>>> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano 
>>> fondati su evidenze sperimentali, vaste, robuste e riproducibili.
>>> 
>>> Buona notte, Enrico
>>> 
>>> 
>>> Il 07/05/2026 22:49, Guido Vetere ha scritto:
>>>> Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme 
>>>> generative (da non confondere coi language model) fanno ben altro che 
>>>> predire stocasticamente il “prossimo token”, non arrivano repliche.
>>>> La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica 
>>>> è in effetti una opinione, e anche molto discutibile a quanto pare 
>>>> (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, 
>>>> non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che 
>>>> una petizione? Perché invece di un appello all’autorità accademica (!) su 
>>>> qualcosa di controverso non si fa una onesta discussione di merito? Questo 
>>>> sarebbe anche un posto giusto. 
>>>> La petizione che avete proposto rischia anche di essere regressiva, 
>>>> specularmente all’intervista di Veltroni. Capire bene come stanno le cose 
>>>> è fondamentale per indirizzare la ricerca nella direzione del progresso 
>>>> (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di 
>>>> Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il 
>>>> caso di parlarne con calma.
>>>> 
>>>> G.
>>>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa 
>>>>> <[email protected]> ha scritto:
>>>>> 
>>>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma 
>>>>> quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere 
>>>>> in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere 
>>>>> sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non 
>>>>> ci siano in questo momento.
>>>> 
>>> -- 
>>> -- EN 
>>> https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html 
>>> <SXK2RJtn2vzsq6qC.png> 
>>> ====================================================== 
>>> Prof. Enrico Nardelli 
>>> Past President di "Informatics Europe" 
>>> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI 
>>> Dipartimento di Matematica - Università di Roma "Tor Vergata" 
>>> Via della Ricerca Scientifica snc - 00133 Roma 
>>> home page: https://www.mat.uniroma2.it/~nardelli 
>>> blog: https://link-and-think.blogspot.it/ 
>>> tel: +39 06 7259.4204 fax: +39 06 7259.4699 
>>> mobile: +39 335 590.2331 e-mail: [email protected] 
>>> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont 
>>> ====================================================== 
>>> --
>> 
> 

Reply via email to