On 7 May 2026, at 18:40, [email protected] wrote:

From: Enrico Nardelli 
<[email protected]<mailto:[email protected]>>
Subject: [nexa] Re: Una visione realistica dell’Intelligenza
Artificiale - Lettera aperta alla società
To: [email protected]<mailto:[email protected]>
Message-ID: 
<[email protected]<mailto:[email protected]>>
Content-Type: multipart/alternative;
boundary="------------70L2TkMM0TcLXaC3I0o2YbZ6"

Scusa Beppe

vuoi forse sostenere che “Spiegare con precisione che cosa queste
tecnologie sono davvero, e che cosa non sono” sia una premessa discutibile?
Quando dici “cosa queste tecnologie siano davvero”, interpreto quel davvero 
come un riferimento alle premesse della petizione, ossia:
Che cos'è un sistema di intelligenza artificiale generativa?
I sistemi di IA generativa “capiscono”?
Dove funzionano e dove no
A che punto siamo davvero: il tema dell’AGI
Il rischio del fraintendimento

In quelle premesse c’è già una precisa visione e interpretazione della 
tecnologia, che si chiede a tutta la comunità di accettare e condividere.


Vuoi forse sostenere che chiedere a tutti di impegnarsi a sostenere le
nostra visione sia inaccettabile? E che è, siamo nel pensiero unico?

Certo che è inaccettabile: chiedere di sostenere la “vostra” visione. La 
ricerca e la formazione non devono essere condizionate dalle opinioni di 
qualcuno.
Proprio l’opposto del pensiero unico.

Noi abbiamo presentato la nostra visione di "cosa queste tecnologie sono
davvero, e che cosa non sono", ma non ti impediamo di essere in
disaccordo, e infatti lo manifesti liberamente.

Dov'è che "*pretendiamo* di imporre a tutti la nostra visione”?
Quando
"Invitiamo la comunità accademica dell’informatica a contribuire attivamente a 
questa opera di chiarimento e formazione."
Dove interpreto ”questa opera di chiarimento” quello che avete sopra delineato.


In che modo noi "*pretendiamo* che l'intera comunità le sottoscriva o
addirittura si impegni a propagandarle”?
È l’obiettivo della petizione.
"Invitiamo altresì studiosi e ricercatori di altri settori a contribuire a 
quest’attività”,
dove "questa attività" la interpreto come diffondere la “vostra” visione.

Dov'è che abbiamo negato che bisogna impegnarsi nella ricerca?
Non l’ho detto, ho detto che la priorità della comunità scientifica italiana ed 
europea sarebbe un impegno straordinario nella ricerca in AI.
Occuparsi di questioni indeterminate come stabilire se gli LLM “capiscano nel 
senso umano” è una distrazione.

Tu non sei d'accordo e non hai firmato, ma diverse decine di colleghi
hanno manifestato il loro accordo con noi.

Che da una descrizione testuale si possa capire la realtà è vero nel
dominio matematico, che è svincolato dalla necessità di un supporto
fisico concreto, ma nel resto della scienza è sempre la realtà che ha
l'ultima parola.
Le formule della fisica descrivono i fenomeni fisici e consentono di spedire 
satelliti in orbita, tenendo conto persino della Meccanica Quantistica, che 
nessuno può dire di capire davvero.
Ciò che importa è che funzioni, non se funziona come si ipotizza funzioni la 
mente umana.
La “realtà” è solo ciò che qualcuno percepisce: la fisica quantistica mette in 
forte dubbio la visione classica di un mondo obiettivo e indipendente 
dall’osservatore.
Oggi i modelli sanno leggere e interpretare immagini e quindi farsi una propria 
idea della realtà.

Una simulazione di un uragano non ti bagna, né quella di un incendio ti
brucia, anche se possono essere entrambe molto utili.
E allora? Nessuno pretende che un modello di AI coincida con i fenomeni che 
tratta.

E se andiamo su domini vicini all'essere umano, beh, potrai leggere
tutti i romanzi del mondo, ma se non hai mai provato amore, odio,
felicità, tristezza... allora non capisci niente del mondo: e infatti i
chatbot di terapia psicologica sono il caso applicativo più delicato e
pericoloso.
E allora? Cosa importa se un programma di AI o un robot è senziente o meno, ha 
coscienza o meno, quando noi stessi non sappiamo bene cosa sia, se non appunto 
sforzandoci di descriverlo in letteratura?
Questo è un tema che lascerei ai filosofi. Come informatici abbiamo cose più 
concrete a cui pensare.

Dopo di che, il dibattito di opinioni è libero, ci mancherebbe altro, ma
quando andiamo su temi scientifici e tecnologici, e se vogliamo rimanere
in un paradigma di conoscenza galileiano, le opinioni dovrebbero essere
sostenute da evidenze sperimentali assai vaste e robuste, che mi pare
non ci siano in questo momento.
Ci sono numerose evidenze sperimentali sulle capacità degli attuali modelli, ad 
esempio nella dimostrazione di problemi matematici irrisolti, nella risoluzione 
di questioni di fisica teorica 
(https://www.youtube.com/watch?v=wrkiMZ3SKH4&t=79s), nella risoluzione di 
problemi informatici, come racconta con shock Donald Knuth 
(https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf).

Con immutata stima, Enrico

Contraccambio,
Beppe

PS. Il Deep Learning ha costituito un cambio di paradigma enorme e la mia 
impressione è che molti non riescano ad accettarlo, così come in passato non si 
voleva accettare Copernico o Darwin. Ma certo non si ferma una rivoluzione 
denigrando ciò che si fa fatica a capire.



Il 07/05/2026 16:04, Giuseppe Attardi via nexa ha scritto:
Non ho criticato la petizione perché nega la necessità di un CERN for
AI, ma perché parte da premesse discutibili e indica una direzione
sbagliata.

Forse è sfuggito a molti che ha un’impostazione inaccettabile, perché
chiede a tutti (la società) di impegnarsi a sostenere e diffondere una
certa interpretazione della tecnologia, quella espressa nelle premesse:
“Spiegare con precisione che cosa queste tecnologie sono davvero, e
che cosa non sono”
ossia che ad esempio "Sono molto potenti nel riorganizzare le
informazioni già presenti nei dati, ma non costruiscono modelli del
mondo nel senso in cui lo fanno gli esseri umani."
Ci sono numerosi casi di risultati che non sono ottenibili
“riorganizzando informazioni già presenti nei dati”. E quanto ai
“modelli del mondo in senso umano” siamo nella metafisica: la fisica e
la chimica sono descritte dai testi scientifici e le esperienze umane
dalla letteratura. L’ampia letteratura di cui si alimentano i modelli
fornisce una base sufficientemente ricca per consentire all'IA per
comprendere la struttura del mondo, senza addentrarci nei modelli
multimodali che incorporano segnali visivi o uditivi. I modelli JEPA
di Yann LeCun già affrontano la questione direttamente.
Ma non voglio addentrarmi qui nel confronto tecnico su opinioni: conta
solo segnalare che ci sono opinioni diverse su "che cosa sono davvero
questi sistemi, e a che punto siamo realmente”.

Siccome la scienza deve essere libera e autonoma, non si può
pretendere di imporre a tutti la propria visione.
Quelle espresse nelle premesse sono opinioni degli estensori della
petizione, che hanno il diritto di esprimerle ma non possono
pretendere che l’intera comunità le sottoscriva o che addirittura si
impegni a propagandarle.

Come dicevo, si può essere d’accordo che serva formazione, ma questa
non può prescindere dallo studio di una disciplina che è in rapida
evoluzione.
Quindi è importante impegnarsi nella ricerca anziché nelle critiche a
risultati di altri, già in parte superati.

— Beppe



On 7 May 2026, at 13:05, Andrea Bolioli 
<[email protected]<mailto:[email protected]>> wrote:


Secondo me, se uno firma la lettera aperta alla società, non implica
che sia contrario a creare un "CERN AI" .
Credo che molti di noi sarebbero contenti se fosse già stato creato
un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e
progettini.
La lettera non dice che non bisogna fare un "CERN AI", mi pare.
Non entro invece nel dibattito sulla comprensione umana, ho già
difficoltà a comprendere me stesso ;-)
Credo che un obiettivo della lettera sia evitare che le persone non
esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano"
(c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc.

Grazie per la ri-condivisione di CAIRNE .

AB


On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa
<[email protected]<mailto:[email protected]>> wrote:

   Sono alquanto perplesso sull’impostazione di questa petizione.

   Se l’obiettivo è

   “formare le persone a comprendere queste tecnologie”
   "Invitiamo la comunità accademica dell’informatica a contribuire
   attivamente a questa opera di chiarimento e formazione. Spiegare
   con precisione che cosa queste tecnologie sono davvero, e che
   cosa non sono, è un’opera di alfabetizzazione che è parte
   integrante del nostro lavoro di ricercatori e docenti.”

   mi pare non solo ovvio ma limitativo. È un dovere degli studiosi
   e degli accademici di studiare e formare ricercatori e persone.

   Ma "formare persone a comprendere” è piuttosto limitativo. Ciò
   che dovrebbe fare la comunità scientifica nazionale (mi immagino
   a questa sia rivolta la petizione) sarebbe di impegnarsi nello
   sviluppare e padroneggiare le attuali e future tecnologie di AI,
   generativa e non.
   La tecnologia del Deep Learning è in una fase evolutiva
   straordinaria, iniziata nel 2006 ed esplosa nel 2022, con
   "risultati tecnici impressionanti e inattesi” di cui la petizione
   stessa prende atto.
   Purtroppo la direzione della ricerca è attualmente dettata dagli
   ingenti investimenti in infrastrutture di calcolo e nella
   capacità di attrarre talenti di poche grandi aziende americane o
   cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina
   (https://www.wipo.int/pressroom/en/articles/2024/article_0009.html),
   il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di
   Stanford
   (https://hai.stanford.edu/ai-index/2026-ai-index-report) indica
   che il livello raggiunto dai sistemi cinesi è ormai alla pari di
   quelli americani.
   Ma ci sono strade di ricerca da esplorare diverse da quelle
   guidate da interessi commerciali, e su questo si dovrebbe
   investire in Europa.
   Da tempo, con l’associazione CAIRNE
   (https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del
   premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di
   un CERN for AI, un centro fisico (non le solite network che
   piacciono tanto ai funzionari europei, vedi RAISE
   https://www.coe-raise.eu/), dove concentrare gli investimenti e i
   ricercatori in AI, dotandoli della necessaria libertà di ricerca,
   per battere anche strade inesplorate.

   Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in
   grado di "stimare quale parola è più probabile in una frase”,
   come riporta Guido Vetere.
   Ci sono novità che riguardano gli aspetti di memorizzazione e di
   ragionamento, attraverso modelli ricorsivi che esaminano o
   controllano i propri processi. Non sappiamo dove queste ricerche
   porteranno, ma bisogna essere coinvolti e padroneggiare la
   tecnologia se la si vuole controllare o orientare.

   Nella petizione invece si dà un'interpretazione del funzionamento
   di certi modelli, cadendo in luoghi comuni, del tipo "non
   equivalgono a comprensione nel senso umano del termine”, "non
   significa che capiscano ciò che stanno dicendo”, "non
   costruiscono modelli del mondo nel senso in cui lo fanno gli
   esseri umani". Non vale la pena controbattere a tali affermazioni
   per due motivi:
   1. Non sappiamo cosa sia la “comprensione nel senso umano”,
   quindi affermare che un sistema NON ha qualcosa di indefinibile
   non ha molto senso
   2. È comunque irrilevante porsi la domanda se “comprendono in
   senso umano”. È sicuro che operano in modo diverso dal nostro
   cervello, ma ciò non è necessariamente un difetto: conta se sono
   in grado di svolgere i compiti che gli affidiamo.

   Su queste posizioni Walter Quattrociocchi sta conducendo da tempo
   una campagna di critica a tutto spiano, che purtroppo non accetta
   confronti: o sei d’accordo con lui o vieni bollato come “dotto
   ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie
   posizioni hanno avuto il sostegno anche di Yoshua Bengio.

   Si tratta quindi di una battaglia di retroguardia, che incita
   contro qualcosa che è ben diverso da come lo si rappresenta.

   Quindi non firmerò questa petizione.

   — Beppe

   On 7 May 2026, at 09:05, 
[email protected]<mailto:[email protected]> 
wrote:

   From: Guido Vetere <[email protected]<mailto:[email protected]>>
   Subject: [nexa] Re: Una visione realistica dell’Intelligenza
   Artificiale - Lettera aperta alla società
   To: Juan Carlos De Martin <[email protected]<mailto:[email protected]>>, 
"J.C. DE MARTIN"
   <[email protected]<mailto:[email protected]>>
   Cc: Nexa <[email protected]<mailto:[email protected]>>
   Message-ID: 
<[email protected]<mailto:[email protected]>>
   Content-Type: multipart/alternative;
   boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2"

   “Quando sembrano ragionare, combinano schemi appresi dai dati.
   Quando sembrano sapere qualcosa, producono l’output
   statisticamente più coerente con il contesto, senza avere
   accesso diretto al mondo o a meccanismi autonomi di verifica.”

   Tuttavia bisogna prendere in considerazione il fatto che i
   sistemi generativi attuali non sono più semplici (si fa per
   dire) “predittori del prossimo token”. La differenza tra Claude,
   ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base,
   quanto nell’harness, cioè nella orchestrazione di runtime fatta
   di cicli interni, uso di tool, valutazione del contesto, etc. I
   sistemi generativi sono diventati ensemble di agenti, come
   spiegava Anthropic già nel 2024
   (https://www.anthropic.com/engineering/building-effective-agents)
   – il che spiega anche come mai Claude abbia preso il sopravvento.
   Se questo è vero, bisogna tornare su quell’”accesso diretto al
   mondo” e quei “meccanismi autonomi di verifica”, per valutare
   come e quanto siano fattori differenziali. Sappiamo che la terra
   non è piatta perché l’abbiamo visto? O ci siamo messi a fare
   esperimenti? Non si può essere “realisti” al punto da ignorare
   che la nostra conoscenza è un fatto sociale che passa per la
   testualità, non bisogna aver letto Gadamer e Ricoeur.

   Detto questo, ma fa piacere che l’appello (che ovviamente non
   firmerò) sia promosso da Enrico Nardelli, con cui spero che – al
   contrario di Quattrociocchi – si possa fare una discussione seria.

   Guido


   Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa
   <[email protected]<mailto:[email protected]>> ha scritto:

   Vi segnalo questa lettera
   aperta:https://www.petizioni.com/visione_realistica_intelligenza_artificiale

   Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi
   frequenta questa lista.

   JC




--

Reply via email to