Non ho criticato la petizione perché nega la necessità di un CERN for AI, ma 
perché parte da premesse discutibili e indica una direzione sbagliata.

Forse è sfuggito a molti che ha un’impostazione inaccettabile, perché chiede a 
tutti (la società) di impegnarsi a sostenere e diffondere una certa 
interpretazione della tecnologia, quella espressa nelle premesse:
“Spiegare con precisione che cosa queste tecnologie sono davvero, e che cosa 
non sono”
ossia che ad esempio "Sono molto potenti nel riorganizzare le informazioni già 
presenti nei dati, ma non costruiscono modelli del mondo nel senso in cui lo 
fanno gli esseri umani."
Ci sono numerosi casi di risultati che non sono ottenibili “riorganizzando 
informazioni già presenti nei dati”. E quanto ai “modelli del mondo in senso 
umano” siamo nella metafisica: la fisica e la chimica sono descritte dai testi 
scientifici e le esperienze umane dalla letteratura. L’ampia letteratura di cui 
si alimentano i modelli fornisce una base sufficientemente ricca per consentire 
all'IA per comprendere la struttura del mondo, senza addentrarci nei modelli 
multimodali che incorporano segnali visivi o uditivi. I modelli JEPA di Yann 
LeCun già affrontano la questione direttamente.
Ma non voglio addentrarmi qui nel confronto tecnico su opinioni: conta solo 
segnalare che ci sono opinioni diverse su "che cosa sono davvero questi 
sistemi, e a che punto siamo realmente”.

Siccome la scienza deve essere libera e autonoma, non si può pretendere di 
imporre a tutti la propria visione.
Quelle espresse nelle premesse sono opinioni degli estensori della petizione, 
che hanno il diritto di esprimerle ma non possono pretendere che l’intera 
comunità le sottoscriva o che addirittura si impegni a propagandarle.

Come dicevo, si può essere d’accordo che serva formazione, ma questa non può 
prescindere dallo studio di una disciplina che è in rapida evoluzione.
Quindi è importante impegnarsi nella ricerca anziché nelle critiche a risultati 
di altri, già in parte superati.

— Beppe



On 7 May 2026, at 13:05, Andrea Bolioli <[email protected]> wrote:


Secondo me, se uno firma la lettera aperta alla società, non implica che sia 
contrario a creare un "CERN AI" .
Credo che molti di noi sarebbero contenti se fosse già stato creato un "CERN 
AI" quattro anni fa invece di piccoli e deboli gruppi e progettini.
La lettera non dice che non bisogna fare un "CERN AI", mi pare.
Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà a 
comprendere me stesso ;-)
Credo che un obiettivo della lettera sia evitare che le persone non esperte di 
AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non riesce a 
fare quasi più nulla senza chiedere a GenAI), ecc.

Grazie per la ri-condivisione di CAIRNE .

AB


On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa 
<[email protected]<mailto:[email protected]>> wrote:
Sono alquanto perplesso sull’impostazione di questa petizione.

Se l’obiettivo è

“formare le persone a comprendere queste tecnologie”
"Invitiamo la comunità accademica dell’informatica a contribuire attivamente a 
questa opera di chiarimento e formazione. Spiegare con precisione che cosa 
queste tecnologie sono davvero, e che cosa non sono, è un’opera di 
alfabetizzazione che è parte integrante del nostro lavoro di ricercatori e 
docenti.”

mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli 
accademici di studiare e formare ricercatori e persone.

Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che dovrebbe 
fare la comunità scientifica nazionale (mi immagino a questa sia rivolta la 
petizione) sarebbe di impegnarsi nello sviluppare e padroneggiare le attuali e 
future tecnologie di AI, generativa e non.
La tecnologia del Deep Learning è in una fase evolutiva straordinaria, iniziata 
nel 2006 ed esplosa nel 2022, con "risultati tecnici impressionanti e inattesi” 
di cui la petizione stessa prende atto.
Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti 
investimenti in infrastrutture di calcolo e nella capacità di attrarre talenti 
di poche grandi aziende americane o cinesi: circa il 60% dei brevetti in AI è 
detenuto dalla Cina 
(https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il 40% 
dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford 
(https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il livello 
raggiunto dai sistemi cinesi è ormai alla pari di quelli americani.
Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da 
interessi commerciali, e su questo si dovrebbe investire in Europa.
Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di 
recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la 
costituzione di un CERN for AI, un centro fisico (non le solite network che 
piacciono tanto ai funzionari europei, vedi RAISE https://www.coe-raise.eu/), 
dove concentrare gli investimenti e i ricercatori in AI, dotandoli della 
necessaria libertà di ricerca, per battere anche strade inesplorate.

Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di 
"stimare quale parola è più probabile in una frase”, come riporta Guido Vetere.
Ci sono novità che riguardano gli aspetti di memorizzazione e di ragionamento, 
attraverso modelli ricorsivi che esaminano o controllano i propri processi. Non 
sappiamo dove queste ricerche porteranno, ma bisogna essere coinvolti e 
padroneggiare la tecnologia se la si vuole controllare o orientare.

Nella petizione invece si dà un'interpretazione del funzionamento di certi 
modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione nel 
senso umano del termine”, "non significa che capiscano ciò che stanno dicendo”, 
"non costruiscono modelli del mondo nel senso in cui lo fanno gli esseri 
umani". Non vale la pena controbattere a tali affermazioni per due motivi:
1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi affermare 
che un sistema NON ha qualcosa di indefinibile non ha molto senso
2. È comunque irrilevante porsi la domanda se “comprendono in senso umano”. È 
sicuro che operano in modo diverso dal nostro cervello, ma ciò non è 
necessariamente un difetto: conta se sono in grado di svolgere i compiti che 
gli affidiamo.

Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una campagna 
di critica a tutto spiano, che purtroppo non accetta confronti: o sei d’accordo 
con lui o vieni bollato come “dotto ignorante” in pubblico (come accenna Guido 
Vetere). Eppure le mie posizioni hanno avuto il sostegno anche di Yoshua Bengio.

Si tratta quindi di una battaglia di retroguardia, che incita contro qualcosa 
che è ben diverso da come lo si rappresenta.

Quindi non firmerò questa petizione.

— Beppe

On 7 May 2026, at 09:05, 
[email protected]<mailto:[email protected]> 
wrote:

From: Guido Vetere <[email protected]<mailto:[email protected]>>
Subject: [nexa] Re: Una visione realistica dell’Intelligenza
Artificiale - Lettera aperta alla società
To: Juan Carlos De Martin <[email protected]<mailto:[email protected]>>, 
"J.C. DE MARTIN"
<[email protected]<mailto:[email protected]>>
Cc: Nexa <[email protected]<mailto:[email protected]>>
Message-ID: 
<[email protected]<mailto:[email protected]>>
Content-Type: multipart/alternative;
boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2"

“Quando sembrano ragionare, combinano schemi appresi dai dati. Quando sembrano 
sapere qualcosa, producono l’output statisticamente più coerente con il 
contesto, senza avere accesso diretto al mondo o a meccanismi autonomi di 
verifica.”

Tuttavia bisogna prendere in considerazione il fatto che i sistemi generativi 
attuali non sono più semplici (si fa per dire) “predittori del prossimo token”. 
La differenza tra Claude, ChatGPT, Gemini, etc. ormai non è più tanto nel 
modello di base, quanto nell’harness, cioè nella orchestrazione di runtime 
fatta di cicli interni, uso di tool, valutazione del contesto, etc. I sistemi 
generativi sono diventati ensemble di agenti, come spiegava Anthropic già nel 
2024 (https://www.anthropic.com/engineering/building-effective-agents) – il che 
spiega anche come mai Claude abbia preso il sopravvento.
Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e quei 
“meccanismi autonomi di verifica”, per valutare come e quanto siano fattori 
differenziali. Sappiamo che la terra non è piatta perché l’abbiamo visto? O ci 
siamo messi a fare esperimenti? Non si può essere “realisti” al punto da 
ignorare che la nostra conoscenza è un fatto sociale che passa per la 
testualità, non bisogna aver letto Gadamer e Ricoeur.

Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia 
promosso da Enrico Nardelli, con cui spero che – al contrario di Quattrociocchi 
– si possa fare una discussione seria.

Guido


Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa 
<[email protected]<mailto:[email protected]>> ha scritto:

Vi segnalo questa lettera aperta: 
https://www.petizioni.com/visione_realistica_intelligenza_artificiale

Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta questa 
lista.

JC




Reply via email to