Buongiorno Silvia, Sicuramente la classificazione dell’intento è probabilistica (peraltro la fanno verosimilmente con modellini molto leggeri, non servono i billion parameters), se l’intento è associato (deterministicamente) a uno o più tool, allora i parametri di attivazione di quei tool sono estratti dalla domanda (o anche dal contesto conversazione, ma semplifichiamo) sempre in modo probabilistico, ancora presumibilmente con qualcosa di molto leggero. I dati forniti dai tool devono poi essere integrati, e qui intervengono euristiche che vai a sapere, ma si tratta di ragionamenti ipotetici, cioè abduttivi, cioè semi-razionali, con buona pace di chi si ostina a non capirlo. Confezionata la ‘ground truth’, come dicevo, si tratta infine solo di tornire la frase, cioè il modello linguistico torna a fare ciò a cui deve il nome: generare linguaggio. Il contenuto epistemico sta altrove (database, sensori, whatever), e non è meno razionale di quello che consumiamo normalmente nella nostra sfera informativa.
Spero sia utile, Guido > Il giorno 8 mag 2026, alle ore 10:14, Silvia Crafa via nexa > <[email protected]> ha scritto: > > Buondì, > mi piacerebbe capire se è corretto dire la cosa seguente: > > dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede che > "il token più probabile" (sto semplificando) è quello fornito dall'output > dell'invocazione di un servizio meteo. > > Cioè, sempre semplificando, la piattaforma integra diverse componenti che > certamente affinano la qualità del risultato e lo fanno assomigliare sempre > più a quello che in una persona chiamiamo comprensione e ragionamento, ma > questa integrazione continua ad avere come base di fondo correlazioni > probabilistiche. > > Grazie, > Silvia > > >> On 8 May 2026, at 09:24, Guido Vetere via nexa <[email protected]> >> wrote: >> >> Caro Enrico, spero che la tua notte sia trascorsa serena. >> >> Quando dici che "le piattaforma generative testuali SONO basate sugli LLM” e >> inviti me a non intorbidire le acque, è come se dicessi che le automobili si >> muovono sulle ruote, dunque SONO ruote. Si tratta di un errore mereologico >> (di composizione, pars pro toto) abbastanza frequente, che mostra quanto sia >> fragile anche la nostra vantata razionalità. >> >> Su quello che avviene dentro i sistemi generativi attuali, benché i segreti >> industriali siano gelosamente conservati, si trova molta letteratura. Basti >> però ricordare che il recente leak del codice di Claude ha esposto mezzo >> milione di righe TypeScript, che trovi comodamente su GitHub >> [https://github.com/codeaashu/claude-code]. E no, non sono i pesi del >> modello, dunque li puoi ispezionare. Enjoy. >> >> Ma visto che vogliamo essere galileiani, facciamo un piccolo esperimento. >> >> Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà >> qualcosa del tipo: >> >> Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: >> soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. >> Domenica invece peggiora un po', con copertura nuvolosa e probabilità di >> pioggia al 45%. >> >> Secondo te una risposta del genere può essere stata prodotta prevedendo i >> token su base statistica? Che statistiche abbiamo sul futuro? >> >> Quello che avviene in quel mezzo milione di righe di codice è che la >> richiesta viene analizzata e classificata (intent detection), i tool >> opportuni identificati (si tratterà di servizi meteo), le parti parametriche >> estratte (Parigi, domani), i tool attivati, i loro risultati confrontati, >> la sintesi passata al modello come ground-truth mediante un prompt che >> verosimilmente chiederà a Sonnet di confezionare la risposta all’utente >> basandosi puntualmente su quei dati. A quel punto, la stocastica può al più >> determinare questioni di rendering linguistico. La partita della verità, che >> tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel campo di chi fa i >> servizi meteo – gli stessi che tu consulti tranquillamente dopo aver preso >> il caffè la mattina. >> >> E con questo ti auguro cordialmente buona giornata. >> >> Guido >> >> >> >>> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa >>> <[email protected]> ha scritto: >>> >>> Perdonami Guido >>> osservo preliminarmente che le piattaforma generative testuali SONO basate >>> sugli LLM, quindi quello che producono viene dagli LLM. Quando si parla di >>> Intelligenza Artificiale generativa in ambito testuale, che è quello più >>> rilevante quando si parla di intelligenza e comprensione, si parla di LLM. >>> Non intorbidiamo le acque. >>> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme >>> generative fanno ben altro che predire stocasticamente il “prossimo token”». >>> Giacomo Tesio in un altro messaggio oggi ha chiesto >>> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto: >>>> Ciao Giuseppe, >>>> >>>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote: >>>> >>>> >>>>> Ci sono numerosi casi di risultati che non sono ottenibili >>>>> “riorganizzando informazioni già presenti nei dati”. >>>>> >>>> Puoi condividere un paio di esempi riproducibili? >>>> >>>> Giusto per non limitarsi ad aneddoti commerciali. >>>> >>> Stiamo ancora aspettando la risposta. >>> Che gli LLM funzionino esattamente come predittori del prossimo token, con >>> una serie di ammenicoli di contorno che non cambiano la loro natura di >>> fondo, è spiegato - tra l'altro - nello studio citato in questo articolo >>> https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html >>> «In a landmark study, OpenAI researchers reveal that large language models >>> will always produce plausible but false outputs, even with perfect data, >>> due to fundamental statistical and computational limits.» >>> Ribadisco quanto ho scritto nella mia prima risposta a Beppe: >>> >>> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando andiamo >>> su temi scientifici e tecnologici, e se vogliamo rimanere in un paradigma >>> di conoscenza galileiano, le opinioni dovrebbero essere sostenute da >>> evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in >>> questo momento. >>> >>> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore >>> osservazione che chiunque si occupi di dimostrare in modo galileiano la >>> natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con >>> parole mie): siamo sicuri che non esistono altre cause che spieghino lo >>> stesso risultato? >>> >>> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non siano >>> fondati su evidenze sperimentali, vaste, robuste e riproducibili. >>> >>> Buona notte, Enrico >>> >>> >>> Il 07/05/2026 22:49, Guido Vetere ha scritto: >>>> Tuttavia, quando vi si fa osservare – dati alla mano – che le piattaforme >>>> generative (da non confondere coi language model) fanno ben altro che >>>> predire stocasticamente il “prossimo token”, non arrivano repliche. >>>> La “verità” sulla quale chiamate a raccolta l’intera comunità scientifica >>>> è in effetti una opinione, e anche molto discutibile a quanto pare >>>> (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la conta, >>>> non sarebbe più onesto fare un sondaggio o un questionario, piuttosto che >>>> una petizione? Perché invece di un appello all’autorità accademica (!) su >>>> qualcosa di controverso non si fa una onesta discussione di merito? Questo >>>> sarebbe anche un posto giusto. >>>> La petizione che avete proposto rischia anche di essere regressiva, >>>> specularmente all’intervista di Veltroni. Capire bene come stanno le cose >>>> è fondamentale per indirizzare la ricerca nella direzione del progresso >>>> (vs. del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di >>>> Beppe, naturalmente) dice che state sbagliando qualcosa, forse sarebbe il >>>> caso di parlarne con calma. >>>> >>>> G. >>>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa >>>>> <[email protected]> ha scritto: >>>>> >>>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma >>>>> quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere >>>>> in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere >>>>> sostenute da evidenze sperimentali assai vaste e robuste, che mi pare non >>>>> ci siano in questo momento. >>>> >>> -- >>> -- EN >>> https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html >>> <SXK2RJtn2vzsq6qC.png> >>> ====================================================== >>> Prof. Enrico Nardelli >>> Past President di "Informatics Europe" >>> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI >>> Dipartimento di Matematica - Università di Roma "Tor Vergata" >>> Via della Ricerca Scientifica snc - 00133 Roma >>> home page: https://www.mat.uniroma2.it/~nardelli >>> blog: https://link-and-think.blogspot.it/ >>> tel: +39 06 7259.4204 fax: +39 06 7259.4699 >>> mobile: +39 335 590.2331 e-mail: [email protected] >>> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont >>> ====================================================== >>> -- >> >
