Grazie Stefano per il suggerimento. Come dici anche tu, con gli adulti laureati e i professionisti è più difficile che con gli studenti. Molti adulti danno per scontato che se c'è stata tutta la mole di investimenti che sappiamo e se troviamo IA generativa ovunque, vuol dire che funziona bene per tutto.
Secondo me un Manifesto o qualcosa del genere, come proposto da Maurizio Lana, firmato da ricercatori universitari e altre persone autorevoli, sarebbe molto utile. Un documento semplice e chiaro: l'IA generativa può servire per xxx; non va bene per yyy ; perché zzz . Se la bolla GenAI deve scoppiare, che scoppi il prima possibile. Intanto cerchiamo di limitare i rischi e le perdite di tempo. (io uso i sistemi GenAI, non sono luddista) Andrea On Tue, Nov 18, 2025 at 5:27 PM Stefano Borroni Barale <[email protected]> wrote: > Buonasera Andrea, > nel lontano 1721 Johnathan Swift scriveva: > > "Reasoning will never make a man correct an ill opinion, which by > reasoning he never acquired" > > sfortunatamente il geniale scrittore non ci ha lasciato alcun suggerimento > su come procedere, salvo il fatto che non possiamo sperare di far conto > sulla razionalità. > Forse il giorno che Sam Altman e i suoi epigoni faranno la fine dell'altro > Sam (Bankman-Fried) allora avremo il "fattore emotivo" per affrontare > questo tipo di discussioni. Chissà. > Nel frattempo pare che le evidenze scientifiche su come funzionano i LLM > non sembrano fare alcun effetto. > Io posso solo certificare che i miei allievi, quando sperimentano in > diretta il funzionamento dei LLM (e quanto sia semplice farli allucinare) > hanno solitamente un "momento eureka". > Learning by doing? Certamente una cosa molto più difficile con gli adulti, > ovviamente. > Stefano B. B. > > Inviato con la posta elettronica sicura Proton Mail > <https://proton.me/mail/home>. > > martedì 18 novembre 2025 10:54, Andrea Bolioli <[email protected]> > ha scritto: > > Grazie per la condivisione. > > Mi capita spesso di avere a che fare con persone laureate, professionisti > e altro, che pensano che sia una buona idea far fare calcoli a sistemi LLM > (ad es. i calcoli al posto di usare Excel) e usare LLM per altri task > deterministici, task che richiedono una risposta univoca e possibilmente > vera. > Come fare a contrastare questa tendenza? > La prima volta mi è successo anni fa lavorando in una azienda di > consulenza "di alto livello", cioè con clienti aziendali grossi: il cliente > grosso chiedeva proprio di usare LLM per fare calcoli invece di Excel o > altro foglio di calcolo o sw di base. Se il cliente paga molto per farlo > giocare in questo modo, chi rinuncia e dice di no, e perde il cliente? > Altri generano analisi di mercato e le vendono . > Altri generano software a partire da un volume di specifiche fornito dal > cliente. > L'elenco è lungo e abbastanza inquietante. > Se uno prova a spiegare che non va bene, che gli LLM non sono > deterministici, ecc, gli interlocutori restano stupiti e non ci credono. > Suggerimenti su come gestire queste situazioni sono benvenuti. > > Andrea > > > On Tue, Nov 18, 2025 at 8:33 AM Alfredo Bregni <[email protected]> wrote: > >> Ho trovato su facebook questo "divertente" (per me) post di Walter >> Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/); relata >> refero. >> >> *Quando si scambia un motore linguistico per altro* >> >> Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un >> esempio pratico usando gli LLM per fare analisi dei dati. >> Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto >> al modello di costruire un grafico. Il risultato conteneva anche valori del >> 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via >> della pandemia. Non ha “rispettato i dati”; ha seguito il punto di massima >> densità informativa. >> Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio >> linguistico che è già stratificato intorno alle zone dove il dato è più >> abbondante, più ripetuto, più recente, più statisticamente conveniente. Io >> gli chiedo 2010–2014; lui mi porta comunque a 2020–2021 perché lì il >> terreno è più fertile, più denso, più “sicuro” dal punto di vista della >> plausibilità. >> Se metto accanto a questo esperimento quello che via via raccolgo e >> annoto, la trama è sempre la stessa. C’è chi prova a usare un modello per >> generare codice o markup ripetitivo. All’inizio la procedura sembra >> funzionare, poi, pagina dopo pagina, l’uscita si sfalda, la coerenza si >> perde, le stesse istruzioni producono varianti divergenti, e il costo di >> correzione supera quello di fare il lavoro a mano. >> C’è chi usa il modello su contenuti specialistici (musica, armonia, >> analisi di testi complessi) e ottiene risposte formalmente ben confezionate >> ma concettualmente vuote. Dalle frasi lunghe con lessico corretto, ma >> regole sbagliate in modo grossolano, come se il sistema imitasse il rumore >> di fondo della disciplina senza averne mai incontrato la struttura. >> Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso: >> conversioni numeriche semplici, corrette per le prime richieste, cominciano >> a deragliare non appena si aumenta leggermente la complessità o la quantità >> di esempi. La procedura non si stabilizza, non si “irrobustisce”, si >> ridispone ogni volta come se fosse la prima. Quando si passa al dominio >> fattuale, la cosa diventa più inquietante: cronologie storiche riscritte >> con sicurezza, programmi esistiti dichiarati inesistenti o viceversa, >> riferimenti geografici inventati, dettagli biografici attribuiti a persone >> reali senza alcuna base; solo chi conosce già l’argomento ha gli strumenti >> per riconoscere l’invenzione. Chi non sa, prende atto. E integra. >> Nel dominio medico il pattern è ancora più evidente (alla faccia dei >> racconti metaforici e appezzotati fatti a botte di epistemia). Un referto >> viene interpretato con apparente competenza, alcuni dettagli sono spiegati >> in modo plausibile, poi una sigla viene proiettata in un contesto >> completamente incompatibile (ostetrico in presenza di un apparato genitale >> maschile), e il sistema razionalizza l’errore invece di riconoscerlo. Non >> dice “non lo so”, dice “ho capito, è un refuso”. Nella produzione di testi >> culturali (guida turistica, analisi letteraria, citazione poetica) si vede >> l’altro lato della stessa cosa, ovvero la capacità di generare un testo >> perfettamente leggibile, tonalmente adeguato, ritmato nel modo “giusto”, ma >> privo di informazioni. >> Pagine intere che potresti spostare da un luogo all’altro del mondo senza >> che cambi nulla. >> Infine ci sono i casi di delega integrale con strumenti configurati per >> monitorare notizie, che ripropongono come “nuovi” articoli vecchi di mesi, >> oppure ne saltano di rilevanti senza criterio apparente; manager convinti >> di risparmiare tempo affidando a un modello la ricostruzione di cifre >> complesse, che si ritrovano con numeri sbagliati di ordini di grandezza, ma >> esposti con tale sicurezza lessicale da passare il primo vaglio >> superficiale. >> >> Quello che tiene insieme tutte queste situazioni non è il singolo errore, >> ma la combinazione di tre elementi: la fluidità del linguaggio, la >> pressione verso le aree ad alta densità di dato e l’assenza di una >> rappresentazione del mondo che faccia da vincolo. >> L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di >> conoscenza” per risolvere il problema è la versione aggiornata della >> vecchia fede nella fonte giusta. Come se il difetto fosse “cosa ha letto il >> modello”, e non il modo in cui funziona. Aggiungere più dati, o dati >> migliori, può ridurre alcuni errori di superficie, ma questi sistemi non >> operano su un modello del mondo, non possiedono strutture interne che >> garantiscano coerenza temporale, causale o concettuale. >> Operano su distribuzioni di probabilità condizionate: massimizzano la >> plausibilità linguistica locale, frase per frase, token per token. Quando >> c’è molta informazione su un certo periodo, un certo evento, un certo modo >> di parlare, il gradiente le spinge lì, anche se tu stai chiedendo altro. >> Quando una spiegazione è stilisticamente convincente, la produce, anche in >> assenza di un criterio che la colleghi a qualcosa di vero. >> L’EpistemIA nasce esattamente in questo punto di contatto: dove un >> meccanismo cieco rispetto al mondo incontra un utente che cerca conoscenza, >> non testo. L’utente vede coerenza grammaticale, tono competente, >> riferimenti plausibili, e scambia tutto questo per prova. Ma il modello non >> “sa” se ciò che dice è vero; non ha un luogo interno dove la verità possa >> essere rappresentata o controllata. La verifica, se avviene, è sempre >> esterna: siamo noi. E proprio mentre ci affidiamo al sistema per >> risparmiarci la fatica della verifica, la verifica stessa scompare >> dall’orizzonte cognitivo: non viene più concepita come fase necessaria del >> processo, perché è delegata. >> Infatti il numero di ricercatori indipendenti, dotti-immaginari e tutto >> il cucuzzaro di gente che dice menate cresce ogni giorno di più. >> Per questo i vostri esempi sono così importanti: mostrano che non siamo >> davanti a una collezione di bug da correggere con l’aggiornamento >> successivo, ma a una trasformazione strutturale del rapporto tra linguaggio >> e conoscenza. Non è un problema di “accuratezza percentuale”, è lo >> slittamento da un ecosistema informativo basato sulla ricerca e sul >> confronto di fonti a uno basato sulla simulazione continua di risposte >> plausibili. Se non teniamo fermo questo punto, ci ritroviamo a discutere di >> queste tecnologie come se fossero motori di ricerca più evoluti o >> assistenti infallibili, mentre sono un’altra cosa. >> Sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo >> scritto, non da com'è. >> Continuare a raccogliere casi non serve a fare l’elenco degli errori, ma >> a mappare il perimetro di questa nuova condizione: un ambiente in cui la >> facilità di produzione di testo può dare l’impressione che la conoscenza >> sia a portata di chat, mentre in realtà si è solo spostato, e reso >> invisibile, il lavoro più importante: quello della verifica. >> >> >> >
