“Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano 
sapere qualcosa, producono l’output statisticamente più coerente con il 
contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di 
verifica.”

Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi 
attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. 
La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel 
modello di base, quanto nell’harness, cioè nella orchestrazione di runtime 
fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi 
generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 
2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che 
spiega anche come mai Claude abbia preso il sopravvento. 
Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei 
“meccanismi autonomi di verifica”, per valutare come e quanto siano fattori 
differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci 
siamo messi a fare esperimenti? Non si può essere “realisti” al punto da 
ignorare che la nostra conoscenza è un fatto sociale che passa per la 
testualità, non bisogna aver letto Gadamer e Ricoeur.

Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia 
promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi 
– si possa fare una discussione seria.

Guido


> Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa 
> <[email protected]> ha scritto:
> 
> Vi segnalo questa lettera aperta: 
> https://www.petizioni.com/visione_realistica_intelligenza_artificiale
> 
> Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa 
> lista.
> 
> JC
> 

Reply via email to