Aggiungo un altro esempio semplice:
le notizie finanziarie scritte ("Nella congiuntura attuale ecc ecc le
azioni xxx ecc") sono in gran parte generate automaticamente a partire da
"tabelle" di dati . I numeri e i dati di partenza ci sono; la notizia non
viene scritta da una persona ma generata automaticamente.
Si tratta di Natural Language Generation, che ha iniziato a funzionare bene
6 anni fa con i GPT (Generative Pre-trained Transformers).Altro esempio in ambito testuale: molte email aziendali vengono generate automaticamente a partire da qualche contenuto. Se passiamo in ambito multimediale o anche solo a grafica + testi: le slides, i report, ecc possono essere generati automaticamente. Anche in questo caso, si può in teoria far "inventare" tutto quanto ai sistemi GenAI oppure partire da dati e contenuti affidabili, e/o integrare a valle con correzioni e altri contenuti. Scusate gli esempi molto semplici. In generale, nei sistemi GenAI ci sono componenti preponderanti di neural networks ma anche componenti software deterministice. AB On Fri, May 8, 2026 at 11:22 AM Guido Vetere via nexa < [email protected]> wrote: > Buongiorno Silvia, > Sicuramente la classificazione dell’intento è probabilistica (peraltro la > fanno verosimilmente con modellini molto leggeri, non servono i billion > parameters), se l’intento è associato (deterministicamente) a uno o più > tool, allora i parametri di attivazione di quei tool sono estratti dalla > domanda (o anche dal contesto conversazione, ma semplifichiamo) sempre in > modo probabilistico, ancora presumibilmente con qualcosa di molto leggero. > I dati forniti dai tool devono poi essere integrati, e qui intervengono > euristiche che vai a sapere, ma si tratta di ragionamenti ipotetici, cioè > abduttivi, cioè semi-razionali, con buona pace di chi si ostina a non > capirlo. Confezionata la ‘ground truth’, come dicevo, si tratta infine solo > di tornire la frase, cioè il modello linguistico torna a fare ciò a cui > deve il nome: generare linguaggio. Il contenuto epistemico sta altrove > (database, sensori, whatever), e non è meno razionale di quello che > consumiamo normalmente nella nostra sfera informativa. > > Spero sia utile, > Guido > > > Il giorno 8 mag 2026, alle ore 10:14, Silvia Crafa via nexa < > [email protected]> ha scritto: > > > > Buondì, > > mi piacerebbe capire se è corretto dire la cosa seguente: > > > > dato il prompt “Che tempo fa domani a Parigi?” la piattaforma prevede > che "il token più probabile" (sto semplificando) è quello fornito > dall'output dell'invocazione di un servizio meteo. > > > > Cioè, sempre semplificando, la piattaforma integra diverse componenti > che certamente affinano la qualità del risultato e lo fanno assomigliare > sempre più a quello che in una persona chiamiamo comprensione e > ragionamento, ma questa integrazione continua ad avere come base di fondo > correlazioni probabilistiche. > > > > Grazie, > > Silvia > > > > > >> On 8 May 2026, at 09:24, Guido Vetere via nexa < > [email protected]> wrote: > >> > >> Caro Enrico, spero che la tua notte sia trascorsa serena. > >> > >> Quando dici che "le piattaforma generative testuali SONO basate sugli > LLM” e inviti me a non intorbidire le acque, è come se dicessi che le > automobili si muovono sulle ruote, dunque SONO ruote. Si tratta di un > errore mereologico (di composizione, pars pro toto) abbastanza frequente, > che mostra quanto sia fragile anche la nostra vantata razionalità. > >> > >> Su quello che avviene dentro i sistemi generativi attuali, benché i > segreti industriali siano gelosamente conservati, si trova molta > letteratura. Basti però ricordare che il recente leak del codice di Claude > ha esposto mezzo milione di righe TypeScript, che trovi comodamente su > GitHub [https://github.com/codeaashu/claude-code]. E no, non sono i pesi > del modello, dunque li puoi ispezionare. Enjoy. > >> > >> Ma visto che vogliamo essere galileiani, facciamo un piccolo > esperimento. > >> > >> Se ora chiedi a Sonnet “Che tempo fa domani a Parigi?”, ti risponderà > qualcosa del tipo: > >> > >> Domani a Parigi (sabato 9 maggio) dovrebbe essere una bella giornata: > soleggiato, con massima di 24°C e solo un 20% di probabilità di pioggia. > Domenica invece peggiora un po', con copertura nuvolosa e probabilità di > pioggia al 45%. > >> > >> Secondo te una risposta del genere può essere stata prodotta prevedendo > i token su base statistica? Che statistiche abbiamo sul futuro? > >> > >> Quello che avviene in quel mezzo milione di righe di codice è che la > richiesta viene analizzata e classificata (intent detection), i tool > opportuni identificati (si tratterà di servizi meteo), le parti > parametriche estratte (Parigi, domani), i tool attivati, i loro risultati > confrontati, la sintesi passata al modello come ground-truth mediante un > prompt che verosimilmente chiederà a Sonnet di confezionare la risposta > all’utente basandosi puntualmente su quei dati. A quel punto, la stocastica > può al più determinare questioni di rendering linguistico. La partita della > verità, che tanto sta a cuore a chi parla di ‘epistemia’, si gioca nel > campo di chi fa i servizi meteo – gli stessi che tu consulti > tranquillamente dopo aver preso il caffè la mattina. > >> > >> E con questo ti auguro cordialmente buona giornata. > >> > >> Guido > >> > >> > >> > >>> Il giorno 7 mag 2026, alle ore 23:51, Enrico Nardelli via nexa < > [email protected]> ha scritto: > >>> > >>> Perdonami Guido > >>> osservo preliminarmente che le piattaforma generative testuali SONO > basate sugli LLM, quindi quello che producono viene dagli LLM. Quando si > parla di Intelligenza Artificiale generativa in ambito testuale, che è > quello più rilevante quando si parla di intelligenza e comprensione, si > parla di LLM. Non intorbidiamo le acque. > >>> Poi, sei tu che hai l'onere di fornire la prova «che le piattaforme > generative fanno ben altro che predire stocasticamente il “prossimo token”». > >>> Giacomo Tesio in un altro messaggio oggi ha chiesto > >>> Il 07/05/2026 18:28, Giacomo Tesio via nexa ha scritto: > >>>> Ciao Giuseppe, > >>>> > >>>> On Thu, 7 May 2026 14:04:24 +0000 Giuseppe Attardi wrote: > >>>> > >>>> > >>>>> Ci sono numerosi casi di risultati che non sono ottenibili > >>>>> “riorganizzando informazioni già presenti nei dati”. > >>>>> > >>>> Puoi condividere un paio di esempi riproducibili? > >>>> > >>>> Giusto per non limitarsi ad aneddoti commerciali. > >>>> > >>> Stiamo ancora aspettando la risposta. > >>> Che gli LLM funzionino esattamente come predittori del prossimo token, > con una serie di ammenicoli di contorno che non cambiano la loro natura di > fondo, è spiegato - tra l'altro - nello studio citato in questo articolo > https://www.computerworld.com/article/4059383/openai-admits-ai-hallucinations-are-mathematically-inevitable-not-just-engineering-flaws.html > >>> «In a landmark study, OpenAI researchers reveal that large language > models will always produce plausible but false outputs, even with perfect > data, due to fundamental statistical and computational limits.» > >>> Ribadisco quanto ho scritto nella mia prima risposta a Beppe: > >>> > >>> il dibattito di opinioni è libero, ci mancherebbe altro, ma quando > andiamo su temi scientifici e tecnologici, e se vogliamo rimanere in un > paradigma di conoscenza galileiano, le opinioni dovrebbero essere sostenute > da evidenze sperimentali assai vaste e robuste, che mi pare non ci siano in > questo momento. > >>> > >>> Stefano Quintarelli, in una mail di poco fa, ha fatto un'ulteriore > osservazione che chiunque si occupi di dimostrare in modo galileiano la > natura di un qualche fenomeno dovrebbe ben tener presente (la riformulo con > parole mie): siamo sicuri che non esistono altre cause che spieghino lo > stesso risultato? > >>> > >>> Quindi, d'ora in avanti, smetterò di replicare ad argomenti che non > siano fondati su evidenze sperimentali, vaste, robuste e riproducibili. > >>> > >>> Buona notte, Enrico > >>> > >>> > >>> Il 07/05/2026 22:49, Guido Vetere ha scritto: > >>>> Tuttavia, quando vi si fa osservare – dati alla mano – che le > piattaforme generative (da non confondere coi language model) fanno ben > altro che predire stocasticamente il “prossimo token”, non arrivano > repliche. > >>>> La “verità” sulla quale chiamate a raccolta l’intera comunità > scientifica è in effetti una opinione, e anche molto discutibile a quanto > pare (ironico, per chi parla di “epistemia”). Se proprio si vuol fare la > conta, non sarebbe più onesto fare un sondaggio o un questionario, > piuttosto che una petizione? Perché invece di un appello all’autorità > accademica (!) su qualcosa di controverso non si fa una onesta discussione > di merito? Questo sarebbe anche un posto giusto. > >>>> La petizione che avete proposto rischia anche di essere regressiva, > specularmente all’intervista di Veltroni. Capire bene come stanno le cose è > fondamentale per indirizzare la ricerca nella direzione del progresso (vs. > del profitto), e se qualcuno che ha fatto l’NLP in Italia (parlo di Beppe, > naturalmente) dice che state sbagliando qualcosa, forse sarebbe il caso di > parlarne con calma. > >>>> > >>>> G. > >>>>> Il giorno 7 mag 2026, alle ore 18:40, Enrico Nardelli via nexa < > [email protected]> ha scritto: > >>>>> > >>>>> Dopo di che, il dibattito di opinioni è libero, ci mancherebbe > altro, ma quando andiamo su temi scientifici e tecnologici, e se vogliamo > rimanere in un paradigma di conoscenza galileiano, le opinioni dovrebbero > essere sostenute da evidenze sperimentali assai vaste e robuste, che mi > pare non ci siano in questo momento. > >>>> > >>> -- > >>> -- EN > >>> > https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html > <SXK2RJtn2vzsq6qC.png> > ====================================================== > >>> Prof. Enrico Nardelli > >>> Past President di "Informatics Europe" > >>> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI > >>> Dipartimento di Matematica - Università di Roma "Tor Vergata" > >>> Via della Ricerca Scientifica snc - 00133 Roma > >>> home page: https://www.mat.uniroma2.it/~nardelli > >>> blog: https://link-and-think.blogspot.it/ > >>> tel: +39 06 7259.4204 fax: +39 06 7259.4699 > >>> mobile: +39 335 590.2331 e-mail: [email protected] > >>> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont > >>> ====================================================== > >>> -- > >> > > > >
