Grazie Stefano per il suggerimento.

Come dici anche tu, con gli adulti laureati e i professionisti è più
difficile che con gli studenti. Molti adulti danno per scontato che se c'è
stata tutta la mole di investimenti che sappiamo e se troviamo IA
generativa ovunque, vuol dire che funziona bene per tutto.

Secondo me un Manifesto o qualcosa del genere, come proposto da Maurizio
Lana, firmato da ricercatori universitari e altre persone autorevoli,
sarebbe molto utile.
Un documento semplice e chiaro:
l'IA generativa può servire per xxx;
non va bene per yyy ;
perché zzz .

Se la bolla GenAI deve scoppiare, che scoppi il prima possibile. Intanto
cerchiamo di limitare i rischi e le perdite di tempo.
(io uso i sistemi GenAI, non sono luddista)

Andrea




On Tue, Nov 18, 2025 at 5:27 PM Stefano Borroni Barale <[email protected]>
wrote:

> Buonasera Andrea,
> nel lontano 1721 Johnathan Swift scriveva:
>
> "Reasoning will never make a man correct an ill opinion, which by
> reasoning he never acquired"
>
> sfortunatamente il geniale scrittore non ci ha lasciato alcun suggerimento
> su come procedere, salvo il fatto che non possiamo sperare di far conto
> sulla razionalità.
> Forse il giorno che Sam Altman e i suoi epigoni faranno la fine dell'altro
> Sam (Bankman-Fried) allora avremo il "fattore emotivo" per affrontare
> questo tipo di discussioni. Chissà.
> Nel frattempo pare che le evidenze scientifiche su come funzionano i LLM
> non sembrano fare alcun effetto.
> Io posso solo certificare che i miei allievi, quando sperimentano in
> diretta il funzionamento dei LLM (e quanto sia semplice farli allucinare)
> hanno solitamente un "momento eureka".
> Learning by doing? Certamente una cosa molto più difficile con gli adulti,
> ovviamente.
> Stefano B. B.
>
> Inviato con la posta elettronica sicura Proton Mail
> <https://proton.me/mail/home>.
>
> martedì 18 novembre 2025 10:54, Andrea Bolioli <[email protected]>
> ha scritto:
>
> Grazie per la condivisione.
>
> Mi capita spesso di avere a che fare con persone laureate, professionisti
> e altro, che pensano che sia una buona idea far fare calcoli a sistemi LLM
> (ad es. i calcoli al posto di usare Excel) e usare LLM per altri task
> deterministici, task che richiedono una risposta univoca e possibilmente
> vera.
> Come fare a contrastare questa tendenza?
> La prima volta mi è successo anni fa lavorando in una azienda di
> consulenza "di alto livello", cioè con clienti aziendali grossi: il cliente
> grosso chiedeva proprio di usare LLM per fare calcoli invece di Excel o
> altro foglio di calcolo o sw di base. Se il cliente paga molto per farlo
> giocare in questo modo, chi rinuncia e dice di no, e perde il cliente?
> Altri generano analisi di mercato e le vendono .
> Altri generano software a partire da un volume di specifiche fornito dal
> cliente.
> L'elenco è lungo e abbastanza inquietante.
> Se uno prova a spiegare che non va bene, che gli LLM non sono
> deterministici, ecc, gli interlocutori restano stupiti e non ci credono.
> Suggerimenti su come gestire queste situazioni sono benvenuti.
>
> Andrea
>
>
> On Tue, Nov 18, 2025 at 8:33 AM Alfredo Bregni <[email protected]> wrote:
>
>> Ho trovato su facebook questo "divertente" (per me) post di Walter
>> Quattrociocchi (https://www.facebook.com/share/p/1FuLevWrGQ/); relata
>> refero.
>>
>> *Quando si scambia un motore linguistico per altro*
>>
>> Qualche tempo fa spiegavo agli studenti a cosa si va incontro con un
>> esempio pratico usando gli LLM per fare analisi dei dati.
>> Ho preso una serie di dati epidemiologici dal 2010 al 2014 e ho chiesto
>> al modello di costruire un grafico. Il risultato conteneva anche valori del
>> 2020–2021, cioè il periodo in cui la disponibilità di dati esplode per via
>> della pandemia. Non ha “rispettato i dati”; ha seguito il punto di massima
>> densità informativa.
>> Questi sistemi non “leggono” il tuo dataset, si muovono in uno spazio
>> linguistico che è già stratificato intorno alle zone dove il dato è più
>> abbondante, più ripetuto, più recente, più statisticamente conveniente. Io
>> gli chiedo 2010–2014; lui mi porta comunque a 2020–2021 perché lì il
>> terreno è più fertile, più denso, più “sicuro” dal punto di vista della
>> plausibilità.
>> Se metto accanto a questo esperimento quello che via via raccolgo e
>> annoto, la trama è sempre la stessa. C’è chi prova a usare un modello per
>> generare codice o markup ripetitivo. All’inizio la procedura sembra
>> funzionare, poi, pagina dopo pagina, l’uscita si sfalda, la coerenza si
>> perde, le stesse istruzioni producono varianti divergenti, e il costo di
>> correzione supera quello di fare il lavoro a mano.
>> C’è chi usa il modello su contenuti specialistici (musica, armonia,
>> analisi di testi complessi) e ottiene risposte formalmente ben confezionate
>> ma concettualmente vuote. Dalle frasi lunghe con lessico corretto, ma
>> regole sbagliate in modo grossolano, come se il sistema imitasse il rumore
>> di fondo della disciplina senza averne mai incontrato la struttura.
>> Il meccanismo è sempre lo stesso, in ambito tecnico succede lo stesso:
>> conversioni numeriche semplici, corrette per le prime richieste, cominciano
>> a deragliare non appena si aumenta leggermente la complessità o la quantità
>> di esempi. La procedura non si stabilizza, non si “irrobustisce”, si
>> ridispone ogni volta come se fosse la prima. Quando si passa al dominio
>> fattuale, la cosa diventa più inquietante: cronologie storiche riscritte
>> con sicurezza, programmi esistiti dichiarati inesistenti o viceversa,
>> riferimenti geografici inventati, dettagli biografici attribuiti a persone
>> reali senza alcuna base; solo chi conosce già l’argomento ha gli strumenti
>> per riconoscere l’invenzione. Chi non sa, prende atto. E integra.
>> Nel dominio medico il pattern è ancora più evidente (alla faccia dei
>> racconti metaforici e appezzotati fatti a botte di epistemia). Un referto
>> viene interpretato con apparente competenza, alcuni dettagli sono spiegati
>> in modo plausibile, poi una sigla viene proiettata in un contesto
>> completamente incompatibile (ostetrico in presenza di un apparato genitale
>> maschile), e il sistema razionalizza l’errore invece di riconoscerlo. Non
>> dice “non lo so”, dice “ho capito, è un refuso”. Nella produzione di testi
>> culturali (guida turistica, analisi letteraria, citazione poetica) si vede
>> l’altro lato della stessa cosa, ovvero la capacità di generare un testo
>> perfettamente leggibile, tonalmente adeguato, ritmato nel modo “giusto”, ma
>> privo di informazioni.
>> Pagine intere che potresti spostare da un luogo all’altro del mondo senza
>> che cambi nulla.
>> Infine ci sono i casi di delega integrale con strumenti configurati per
>> monitorare notizie, che ripropongono come “nuovi” articoli vecchi di mesi,
>> oppure ne saltano di rilevanti senza criterio apparente; manager convinti
>> di risparmiare tempo affidando a un modello la ricostruzione di cifre
>> complesse, che si ritrovano con numeri sbagliati di ordini di grandezza, ma
>> esposti con tale sicurezza lessicale da passare il primo vaglio
>> superficiale.
>>
>> Quello che tiene insieme tutte queste situazioni non è il singolo errore,
>> ma la combinazione di tre elementi: la fluidità del linguaggio, la
>> pressione verso le aree ad alta densità di dato e l’assenza di una
>> rappresentazione del mondo che faccia da vincolo.
>> L’idea bislacca, ma molto diffusa, che “basterebbe cambiare la base di
>> conoscenza” per risolvere il problema è la versione aggiornata della
>> vecchia fede nella fonte giusta. Come se il difetto fosse “cosa ha letto il
>> modello”, e non il modo in cui funziona. Aggiungere più dati, o dati
>> migliori, può ridurre alcuni errori di superficie, ma questi sistemi non
>> operano su un modello del mondo, non possiedono strutture interne che
>> garantiscano coerenza temporale, causale o concettuale.
>> Operano su distribuzioni di probabilità condizionate: massimizzano la
>> plausibilità linguistica locale, frase per frase, token per token. Quando
>> c’è molta informazione su un certo periodo, un certo evento, un certo modo
>> di parlare, il gradiente le spinge lì, anche se tu stai chiedendo altro.
>> Quando una spiegazione è stilisticamente convincente, la produce, anche in
>> assenza di un criterio che la colleghi a qualcosa di vero.
>> L’EpistemIA nasce esattamente in questo punto di contatto: dove un
>> meccanismo cieco rispetto al mondo incontra un utente che cerca conoscenza,
>> non testo. L’utente vede coerenza grammaticale, tono competente,
>> riferimenti plausibili, e scambia tutto questo per prova. Ma il modello non
>> “sa” se ciò che dice è vero; non ha un luogo interno dove la verità possa
>> essere rappresentata o controllata. La verifica, se avviene, è sempre
>> esterna: siamo noi. E proprio mentre ci affidiamo al sistema per
>> risparmiarci la fatica della verifica, la verifica stessa scompare
>> dall’orizzonte cognitivo: non viene più concepita come fase necessaria del
>> processo, perché è delegata.
>> Infatti il numero di ricercatori indipendenti, dotti-immaginari e tutto
>> il cucuzzaro di gente che dice menate cresce ogni giorno di più.
>> Per questo i vostri esempi sono così importanti: mostrano che non siamo
>> davanti a una collezione di bug da correggere con l’aggiornamento
>> successivo, ma a una trasformazione strutturale del rapporto tra linguaggio
>> e conoscenza. Non è un problema di “accuratezza percentuale”, è lo
>> slittamento da un ecosistema informativo basato sulla ricerca e sul
>> confronto di fonti a uno basato sulla simulazione continua di risposte
>> plausibili. Se non teniamo fermo questo punto, ci ritroviamo a discutere di
>> queste tecnologie come se fossero motori di ricerca più evoluti o
>> assistenti infallibili, mentre sono un’altra cosa.
>> Sono interfacce che ricostruiscono il mondo a partire da come ne abbiamo
>> scritto, non da com'è.
>> Continuare a raccogliere casi non serve a fare l’elenco degli errori, ma
>> a mappare il perimetro di questa nuova condizione: un ambiente in cui la
>> facilità di produzione di testo può dare l’impressione che la conoscenza
>> sia a portata di chat, mentre in realtà si è solo spostato, e reso
>> invisibile, il lavoro più importante: quello della verifica.
>>
>>
>>
>

Reply via email to