Buongiorno, grazie per il dibattito molto utile. On Fri, May 8, 2026 at 10:21 AM Silvia Crafa via nexa < [email protected]> wrote:
> Buondì, > mi piacerebbe capire se è corretto dire la cosa seguente: > > dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che > "il token più probabile" (sto semplificando) è quello fornito dall'output > dell'invocazione di un servizio meteo. > NO. Nei sistemi GenAI gli LLM sono una componente, gli altri componenti interagiscono in modo simile ad altri software. Guido Vetere ha sinteticamente descritto i sistemi GenAI prima. > > Cioè, sempre semplificando, la piattaforma integra diverse componenti che > certamente affinano la qualità del risultato e lo fanno assomigliare sempre > più a quello che in una persona chiamiamo comprensione e ragionamento, ma > questa integrazione continua ad avere come base di fondo correlazioni > probabilistiche. > NO. Gli LLM testuali funzionano con la previsione del "token più probabile", semplificando la faccenda. I sistemi GenAI hanno diverse componenti a monte e a valle che è difficile riassumere in poche frasi. In ogni caso, gli LLM testuali non sono dei "cervelloni", non hanno volontà, non provano emozioni, non fanno bene i calcoli, ecc Fanno bene i riassunti, le parafrasi, gli articoli scientifici ( ;-) ), ecc Buona giornata, Andrea > Grazie, > Silvia > > > > On 8 May 2026, at 09:24, Guido Vetere via nexa < > [email protected]> wrote: > > > > Caro Enrico, spero che la tua notte sia trascorsa serena. > > > > Quando dici che "le piattaforma generative testuali SONO basate sugli > LLM” e inviti me a non intorbidire le acque, è come se dicessi che le > automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un > errore mereologico (di composizione, pars pro toto) abbastanza frequente, > che mostra quanto sia fragile anche la nostra vantata razionalità. > > > > Su quello che avviene dentro i sistemi generativi attuali, benché i > segreti industriali siano gelosamente conservati, si trova molta > letteratura. Basti però ricordare che il recente leak del codice di Claude > ha esposto mezzo milione di righe TypeScript, che trovi comodamente su > GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi > del modello, dunque li puoi ispezionare. Enjoy. > > > > Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento. > > > > Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà > qualcosa del tipo: > > > > Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: > soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. > Domenica invece peggiora un po', con copertura nuvolosa e probabilità di > pioggia al 45%. > > > > Secondo te una risposta del genere può essere stata prodotta prevedendo > i token su base statistica? Che statistiche abbiamo sul futuro? > > > > Quello che avviene in quel mezzo milione di righe di codice è che la > richiesta viene analizzata e classificata (intent detection), i tool > opportuni identificati (si tratterà di servizi meteo), le parti > parametriche estratte (Parigi, domani), i tool attivati, i loro risultati > confrontati, la sintesi passata al modello come ground-truth mediante un > prompt che verosimilmente chiederà a Sonnet di confezionare la risposta > all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica > può al più determinare questioni di rendering linguistico. La partita della > verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel > campo di chi fa i servizi meteo – gli stessi che tu consulti > tranquillamente dopo aver preso il caffè la mattina. > > > > E con questo ti auguro cordialmente buona giornata. > > > > Guido > > > > > > > >> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa < > [email protected]> ha scritto: > >> > >> Perdonami Guido > >> osservo preliminarmente che le piattaforma generative testuali SONO > basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si > parla di Intelligenza Artificiale generativa in ambito testuale, che è > quello più rilevante quando si parla di intelligenza e comprensione, si > parla di LLM. Non intorbidiamo le acque. > >> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme > generative fanno ben altro che predire stocasticamente il “prossimo token”». > >> Giacomo Tesio in un altro messaggio oggi ha chiesto > >> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto: > >>> Ciao Giuseppe, > >>> > >>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote: > >>> > >>> > >>>> Ci sono numerosi casi di risultati che non sono ottenibili > >>>> “riorganizzando informazioni già presenti nei dati”. > >>>> > >>> Puoi condividere un paio di esempi riproducibili? > >>> > >>> Giusto per non limitarsi ad aneddoti commerciali. > >>> > >> Stiamo ancora aspettando la risposta. > >> Che gli LLM funzionino esattamente come predittori del prossimo token, > con una serie di ammenicoli di contorno che non cambiano la loro natura di > fondo, è spiegato - tra l'altro - nello studio citato in questo articolo > https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html > >> «In a landmark study, OpenAI researchers reveal that large language > models will always produce plausible but false outputs, even with perfect > data, due to fundamental statistical and computational limits.» > >> Ribadisco quanto ho scritto nella mia prima risposta a Beppe: > >> > >> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando > andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un > paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute > da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in > questo momento. > >> > >> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore > osservazione che chiunque si occupi di dimostrare in modo galileiano la > natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con > parole mie): siamo sicuri che non esistono altre cause che spieghino lo > stesso risultato? > >> > >> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non > siano fondati su evidenze sperimentali, vaste, robuste e riproducibili. > >> > >> Buona notte, Enrico > >> > >> > >> Il 07/05/2026 22:49, Guido Vetere ha scritto: > >>> Tuttavia, quando vi si fa osservare – dati alla mano – che le > piattaforme generative (da non confondere coi language model) fanno ben > altro che predire stocasticamente il “prossimo token”, non arrivano > repliche. > >>> La “verità” sulla quale chiamate a raccolta l’intera comunità > scientifica è in effetti una opinione, e anche molto discutibile a quanto > pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la > conta, non sarebbe più onesto fare un sondaggio o un questionario, > piuttosto che una petizione? Perché invece di un appello all’autorità > accademica (!) su qualcosa di controverso non si fa una onesta discussione > di merito? Questo sarebbe anche un posto giusto. > >>> La petizione che avete proposto rischia anche di essere regressiva, > specularmente all’intervista di Veltroni. Capire bene come stanno le cose è > fondamentale per indirizzare la ricerca nella direzione del progresso (vs. > del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, > naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di > parlarne con calma. > >>> > >>> G. > >>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa < > [email protected]> ha scritto: > >>>> > >>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, > ma quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere > in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere > sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non > ci siano in questo momento. > >>> > >> -- > >> -- EN > >> > https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html > <SXK2RJtn2vzsq6qC.png> > ====================================================== > >> Prof. Enrico Nardelli > >> Past President di "Informatics Europe" > >> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI > >> Dipartimento di Matematica - Università di Roma "Tor Vergata" > >> Via della Ricerca Scientifica snc - 00133 Roma > >> home page: https://www.mat.uniroma2.it/~nardelli > >> blog: https://link-and-think.blogspot.it/ > >> tel: +39 06 7259.4204 fax: +39 06 7259.4699 > >> mobile: +39 335 590.2331 e-mail: [email protected] > >> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont > >> ====================================================== > >> -- > > > >
