Buongiorno, grazie per il dibattito molto utile.

On Fri, May 8, 2026 at 10:21 AM Silvia Crafa via nexa <
[email protected]> wrote:

> Buondì,
>     mi piacerebbe capire se è corretto dire la cosa seguente:
>
> dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che
> "il token più probabile" (sto semplificando) è quello fornito dall'output
> dell'invocazione di un servizio meteo.
>


NO. Nei sistemi GenAI gli LLM sono una componente, gli altri componenti
interagiscono in modo simile ad altri software.
Guido Vetere ha sinteticamente descritto i sistemi GenAI prima.


>
> Cioè, sempre semplificando, la piattaforma integra diverse componenti che
> certamente affinano la qualità del risultato e lo fanno assomigliare sempre
> più a quello che in una persona chiamiamo comprensione e ragionamento, ma
> questa integrazione continua ad avere come base di fondo correlazioni
> probabilistiche.
>

NO.
Gli LLM testuali funzionano con la previsione del "token più probabile",
semplificando la faccenda.
I sistemi GenAI hanno diverse componenti a monte e a valle che è difficile
riassumere in poche frasi.

In ogni caso, gli LLM testuali non sono dei "cervelloni", non hanno
volontà, non provano emozioni, non fanno bene i calcoli, ecc
Fanno bene i riassunti, le parafrasi, gli articoli scientifici ( ;-) ), ecc

 Buona giornata,
Andrea


> Grazie,
> Silvia
>
>
> > On 8 May 2026, at 09:24, Guido Vetere via nexa <
> [email protected]> wrote:
> >
> > Caro Enrico, spero che la tua notte sia trascorsa serena.
> >
> > Quando dici che "le piattaforma generative testuali SONO basate sugli
> LLM” e inviti me a non intorbidire le acque, è come se dicessi che le
> automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un
> errore mereologico (di composizione, pars pro toto) abbastanza frequente,
> che mostra quanto sia fragile anche la nostra vantata razionalità.
> >
> > Su quello che avviene dentro i sistemi generativi attuali, benché i
> segreti industriali siano gelosamente conservati, si trova molta
> letteratura. Basti però ricordare che il recente leak del codice di Claude
> ha esposto mezzo milione di righe TypeScript, che trovi comodamente su
> GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi
> del modello, dunque li puoi ispezionare. Enjoy.
> >
> > Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento.
> >
> > Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà
> qualcosa del tipo:
> >
> > Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata:
> soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia.
> Domenica invece peggiora un po', con copertura nuvolosa e probabilità di
> pioggia al 45%.
> >
> > Secondo te una risposta del genere può essere stata prodotta prevedendo
> i token su base statistica? Che statistiche abbiamo sul futuro?
> >
> > Quello che avviene in quel mezzo milione di righe di codice è che la
> richiesta viene analizzata e classificata (intent detection), i tool
> opportuni identificati (si tratterà di servizi meteo), le parti
> parametriche estratte (Parigi, domani),  i tool attivati, i loro risultati
> confrontati, la sintesi passata al modello come ground-truth mediante un
> prompt che verosimilmente chiederà a Sonnet di confezionare la risposta
> all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica
> può al più determinare questioni di rendering linguistico. La partita della
> verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel
> campo di chi fa i servizi meteo – gli stessi che tu consulti
> tranquillamente dopo aver preso il caffè la mattina.
> >
> > E con questo ti auguro cordialmente buona giornata.
> >
> > Guido
> >
> >
> >
> >> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa <
> [email protected]> ha scritto:
> >>
> >> Perdonami Guido
> >> osservo preliminarmente che le piattaforma generative testuali SONO
> basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si
> parla di Intelligenza Artificiale generativa in ambito testuale, che è
> quello più rilevante quando si parla di intelligenza e comprensione, si
> parla di LLM. Non intorbidiamo le acque.
> >> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme
> generative fanno ben altro che predire stocasticamente il “prossimo token”».
> >> Giacomo Tesio in un altro messaggio oggi ha chiesto
> >> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto:
> >>> Ciao Giuseppe,
> >>>
> >>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote:
> >>>
> >>>
> >>>> Ci sono numerosi casi di risultati che non sono ottenibili
> >>>> “riorganizzando informazioni già presenti nei dati”.
> >>>>
> >>> Puoi condividere un paio di esempi riproducibili?
> >>>
> >>> Giusto per non limitarsi ad aneddoti commerciali.
> >>>
> >> Stiamo ancora aspettando la risposta.
> >> Che gli LLM funzionino esattamente come predittori del prossimo token,
> con una serie di ammenicoli di contorno che non cambiano la loro natura di
> fondo, è spiegato - tra l'altro - nello studio citato in questo articolo
> https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html
> >> «In a landmark study, OpenAI researchers reveal that large language
> models will always produce plausible but false outputs, even with perfect
> data, due to fundamental statistical and computational limits.»
> >> Ribadisco quanto ho scritto nella mia prima risposta a Beppe:
> >>
> >> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando
> andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un
> paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute
> da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in
> questo momento.
> >>
> >> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore
> osservazione che chiunque si occupi di dimostrare in modo galileiano la
> natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con
> parole mie): siamo sicuri che non esistono altre cause che spieghino lo
> stesso risultato?
> >>
> >> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non
> siano fondati su evidenze sperimentali, vaste, robuste e riproducibili.
> >>
> >> Buona notte, Enrico
> >>
> >>
> >> Il 07/05/2026 22:49, Guido Vetere ha scritto:
> >>> Tuttavia, quando vi si fa osservare – dati alla mano – che le
> piattaforme generative (da non confondere coi language model) fanno ben
> altro che predire stocasticamente il “prossimo token”, non arrivano
> repliche.
> >>> La “verità” sulla quale chiamate a raccolta l’intera comunità
> scientifica è in effetti una opinione, e anche molto discutibile a quanto
> pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la
> conta, non sarebbe più onesto fare un sondaggio o un questionario,
> piuttosto che una petizione? Perché invece di un appello all’autorità
> accademica (!) su qualcosa di controverso non si fa una onesta discussione
> di merito? Questo sarebbe anche un posto giusto.
> >>> La petizione che avete proposto rischia anche di essere regressiva,
> specularmente all’intervista di Veltroni. Capire bene come stanno le cose è
> fondamentale per indirizzare la ricerca nella direzione del progresso (vs.
> del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe,
> naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di
> parlarne con calma.
> >>>
> >>> G.
> >>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa <
> [email protected]> ha scritto:
> >>>>
> >>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro,
> ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere
> in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere
> sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non
> ci siano in questo momento.
> >>>
> >> --
> >> -- EN
> >>
> https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
> <SXK2RJtn2vzsq6qC.png>
> ======================================================
> >> Prof. Enrico Nardelli
> >> Past President di "Informatics Europe"
> >> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
> >> Dipartimento di Matematica - Università di Roma "Tor Vergata"
> >> Via della Ricerca Scientifica snc - 00133 Roma
> >> home page: https://www.mat.uniroma2.it/~nardelli
> >> blog: https://link-and-think.blogspot.it/
> >> tel: +39 06 7259.4204 fax: +39 06 7259.4699
> >> mobile: +39 335 590.2331 e-mail: [email protected]
> >> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
> >> ======================================================
> >> --
> >
>
>

Reply via email to