Buonasera Andrea,
nel lontano 1721 Johnathan Swift scriveva:

"Reasoning will never make a man correct an ill opinion, which by reasoning he 
never acquired"

sfortunatamente il geniale scrittore non ci ha lasciato alcun suggerimento su 
come procedere, salvo il fatto che non possiamo sperare di far conto sulla 
razionalità.
Forse il giorno che Sam Altman e i suoi epigoni faranno la fine dell'altro Sam 
(Bankman-Fried) allora avremo il "fattore emotivo" per affrontare questo tipo 
di discussioni. Chissà.
Nel frattempo pare che le evidenze scientifiche su come funzionano i LLM non 
sembrano fare alcun effetto.
Io posso solo certificare che i miei allievi, quando sperimentano in diretta il 
funzionamento dei LLM (e quanto sia semplice farli allucinare) hanno 
solitamente un "momento eureka".
Learning by doing? Certamente una cosa molto più difficile con gli adulti, 
ovviamente.
Stefano B. B.

Inviato con la posta elettronica sicura [Proton 
Mail](https://proton.me/mail/home).

martedì 18 novembre 2025 10:54, Andrea Bolioli <[email protected]> ha 
scritto:

> Grazie per la condivisione.
>
> Mi capita spesso di avere a che fare con persone laureate, professionisti e 
> altro, che pensano che sia una buona idea far fare calcoli a sistemi LLM (ad 
> es. i calcoli al posto di usare Excel) e usare LLM per altri task 
> deterministici, task che richiedono una risposta univoca e possibilmente vera.
> Come fare a contrastare questa tendenza?
> La prima volta mi è successo anni fa lavorando in una azienda di consulenza 
> "di alto livello", cioè con clienti aziendali grossi: il cliente grosso 
> chiedeva proprio di usare LLM per fare calcoli invece di Excel o altro foglio 
> di calcolo o sw di base. Se il cliente paga molto per farlo giocare in questo 
> modo, chi rinuncia e dice di no, e perde il cliente?
> Altri generano analisi di mercato e le vendono .
> Altri generano software a partire da un volume di specifiche fornito dal 
> cliente.
> L'elenco è lungo e abbastanza inquietante.
> Se uno prova a spiegare che non va bene, che gli LLM non sono deterministici, 
> ecc, gli interlocutori restano stupiti e non ci credono.
> Suggerimenti su come gestire queste situazioni sono benvenuti.
>
> Andrea
>
> On Tue, Nov 18, 2025 at 8:33 AM Alfredo Bregni <[email protected]> wrote:
>
>> Ho trovato su facebook questo "divertente" (per me) post di Walter 
>> Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/); relata refero.
>>
>> Quando si scambia un motore linguistico per altro
>>
>> Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un esempio 
>> pratico usando gli LLM per fare analisi dei dati.
>> Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto al 
>> modello di costruire un grafico. Il risultato conteneva anche valori del 
>> 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via 
>> della pandemia. Non ha “rispettato i dati”; ha seguito il punto di massima 
>> densità informativa.
>> Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio 
>> linguistico che è già stratificato intorno alle zone dove il dato è più 
>> abbondante, più ripetuto, più recente, più statisticamente conveniente. Io 
>> gli chiedo 2010–2014; lui mi porta comunque a 2020–2021 perché lì il terreno 
>> è più fertile, più denso, più “sicuro” dal punto di vista della plausibilità.
>> Se metto accanto a questo esperimento quello che via via raccolgo e annoto, 
>> la trama è sempre la stessa. C’è chi prova a usare un modello per generare 
>> codice o markup ripetitivo. All’inizio la procedura sembra funzionare, poi, 
>> pagina dopo pagina, l’uscita si sfalda, la coerenza si perde, le stesse 
>> istruzioni producono varianti divergenti, e il costo di correzione supera 
>> quello di fare il lavoro a mano.
>> C’è chi usa il modello su contenuti specialistici (musica, armonia, analisi 
>> di testi complessi) e ottiene risposte formalmente ben confezionate ma 
>> concettualmente vuote. Dalle frasi lunghe con lessico corretto, ma regole 
>> sbagliate in modo grossolano, come se il sistema imitasse il rumore di fondo 
>> della disciplina senza averne mai incontrato la struttura.
>> Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso: 
>> conversioni numeriche semplici, corrette per le prime richieste, cominciano 
>> a deragliare non appena si aumenta leggermente la complessità o la quantità 
>> di esempi. La procedura non si stabilizza, non si “irrobustisce”, si 
>> ridispone ogni volta come se fosse la prima. Quando si passa al dominio 
>> fattuale, la cosa diventa più inquietante: cronologie storiche riscritte con 
>> sicurezza, programmi esistiti dichiarati inesistenti o viceversa, 
>> riferimenti geografici inventati, dettagli biografici attribuiti a persone 
>> reali senza alcuna base; solo chi conosce già l’argomento ha gli strumenti 
>> per riconoscere l’invenzione. Chi non sa, prende atto. E integra.
>> Nel dominio medico il pattern è ancora più evidente (alla faccia dei 
>> racconti metaforici e appezzotati fatti a botte di epistemia). Un referto 
>> viene interpretato con apparente competenza, alcuni dettagli sono spiegati 
>> in modo plausibile, poi una sigla viene proiettata in un contesto 
>> completamente incompatibile (ostetrico in presenza di un apparato genitale 
>> maschile), e il sistema razionalizza l’errore invece di riconoscerlo. Non 
>> dice “non lo so”, dice “ho capito, è un refuso”. Nella produzione di testi 
>> culturali (guida turistica, analisi letteraria, citazione poetica) si vede 
>> l’altro lato della stessa cosa, ovvero la capacità di generare un testo 
>> perfettamente leggibile, tonalmente adeguato, ritmato nel modo “giusto”, ma 
>> privo di informazioni.
>> Pagine intere che potresti spostare da un luogo all’altro del mondo senza 
>> che cambi nulla.
>> Infine ci sono i casi di delega integrale con strumenti configurati per 
>> monitorare notizie, che ripropongono come “nuovi” articoli vecchi di mesi, 
>> oppure ne saltano di rilevanti senza criterio apparente; manager convinti di 
>> risparmiare tempo affidando a un modello la ricostruzione di cifre 
>> complesse, che si ritrovano con numeri sbagliati di ordini di grandezza, ma 
>> esposti con tale sicurezza lessicale da passare il primo vaglio superficiale.
>>
>> Quello che tiene insieme tutte queste situazioni non è il singolo errore, ma 
>> la combinazione di tre elementi: la fluidità del linguaggio, la pressione 
>> verso le aree ad alta densità di dato e l’assenza di una rappresentazione 
>> del mondo che faccia da vincolo.
>> L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di 
>> conoscenza” per risolvere il problema è la versione aggiornata della vecchia 
>> fede nella fonte giusta. Come se il difetto fosse “cosa ha letto il 
>> modello”, e non il modo in cui funziona. Aggiungere più dati, o dati 
>> migliori, può ridurre alcuni errori di superficie, ma questi sistemi non 
>> operano su un modello del mondo, non possiedono strutture interne che 
>> garantiscano coerenza temporale, causale o concettuale.
>> Operano su distribuzioni di probabilità condizionate: massimizzano la 
>> plausibilità linguistica locale, frase per frase, token per token. Quando 
>> c’è molta informazione su un certo periodo, un certo evento, un certo modo 
>> di parlare, il gradiente le spinge lì, anche se tu stai chiedendo altro. 
>> Quando una spiegazione è stilisticamente convincente, la produce, anche in 
>> assenza di un criterio che la colleghi a qualcosa di vero.
>> L’EpistemIA nasce esattamente in questo punto di contatto: dove un 
>> meccanismo cieco rispetto al mondo incontra un utente che cerca conoscenza, 
>> non testo. L’utente vede coerenza grammaticale, tono competente, riferimenti 
>> plausibili, e scambia tutto questo per prova. Ma il modello non “sa” se ciò 
>> che dice è vero; non ha un luogo interno dove la verità possa essere 
>> rappresentata o controllata. La verifica, se avviene, è sempre esterna: 
>> siamo noi. E proprio mentre ci affidiamo al sistema per risparmiarci la 
>> fatica della verifica, la verifica stessa scompare dall’orizzonte cognitivo: 
>> non viene più concepita come fase necessaria del processo, perché è delegata.
>> Infatti il numero di ricercatori indipendenti, dotti-immaginari e tutto il 
>> cucuzzaro di gente che dice menate cresce ogni giorno di più.
>> Per questo i vostri esempi sono così importanti: mostrano che non siamo 
>> davanti a una collezione di bug da correggere con l’aggiornamento 
>> successivo, ma a una trasformazione strutturale del rapporto tra linguaggio 
>> e conoscenza. Non è un problema di “accuratezza percentuale”, è lo 
>> slittamento da un ecosistema informativo basato sulla ricerca e sul 
>> confronto di fonti a uno basato sulla simulazione continua di risposte 
>> plausibili. Se non teniamo fermo questo punto, ci ritroviamo a discutere di 
>> queste tecnologie come se fossero motori di ricerca più evoluti o assistenti 
>> infallibili, mentre sono un’altra cosa.
>> Sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo 
>> scritto, non da com'è.
>> Continuare a raccogliere casi non serve a fare l’elenco degli errori, ma a 
>> mappare il perimetro di questa nuova condizione: un ambiente in cui la 
>> facilità di produzione di testo può dare l’impressione che la conoscenza sia 
>> a portata di chat, mentre in realtà si è solo spostato, e reso invisibile, 
>> il lavoro più importante: quello della verifica.

Reply via email to