On 7 May 2026, at 13:05, Andrea Bolioli <[email protected]> wrote:
Secondo me, se uno firma la lettera aperta alla società, non implica
che sia contrario a creare un "CERN AI" .
Credo che molti di noi sarebbero contenti se fosse già stato creato
un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e
progettini.
La lettera non dice che non bisogna fare un "CERN AI", mi pare.
Non entro invece nel dibattito sulla comprensione umana, ho già
difficoltà a comprendere me stesso ;-)
Credo che un obiettivo della lettera sia evitare che le persone non
esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano"
(c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc.
Grazie per la ri-condivisione di CAIRNE .
AB
On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa
<[email protected]> wrote:
Sono alquanto perplesso sull’impostazione di questa petizione.
Se l’obiettivo è
“formare le persone a comprendere queste tecnologie”
"Invitiamo la comunità accademica dell’informatica a contribuire
attivamente a questa opera di chiarimento e formazione. Spiegare
con precisione che cosa queste tecnologie sono davvero, e che
cosa non sono, è un’opera di alfabetizzazione che è parte
integrante del nostro lavoro di ricercatori e docenti.”
mi pare non solo ovvio ma limitativo. È un dovere degli studiosi
e degli accademici di studiare e formare ricercatori e persone.
Ma "formare persone a comprendere” è piuttosto limitativo. Ciò
che dovrebbe fare la comunità scientifica nazionale (mi immagino
a questa sia rivolta la petizione) sarebbe di impegnarsi nello
sviluppare e padroneggiare le attuali e future tecnologie di AI,
generativa e non.
La tecnologia del Deep Learning è in una fase evolutiva
straordinaria, iniziata nel 2006 ed esplosa nel 2022, con
"risultati tecnici impressionanti e inattesi” di cui la petizione
stessa prende atto.
Purtroppo la direzione della ricerca è attualmente dettata dagli
ingenti investimenti in infrastrutture di calcolo e nella
capacità di attrarre talenti di poche grandi aziende americane o
cinesi: circa il 60% dei brevetti in AI è detenuto dalla Cina
(https://www.wipo.int/pressroom/en/articles/2024/article_0009.html),
il 40% dagli USA e 0,% dall’Europa. Il recente AI Index di
Stanford
(https://hai.stanford.edu/ai-index/2026-ai-index-report) indica
che il livello raggiunto dai sistemi cinesi è ormai alla pari di
quelli americani.
Ma ci sono strade di ricerca da esplorare diverse da quelle
guidate da interessi commerciali, e su questo si dovrebbe
investire in Europa.
Da tempo, con l’associazione CAIRNE
(https://cairne.eu/cern-for-ai/) e di recente con l’appoggio del
premio Nobel Giorgio Parisi, stiamo chiedendo la costituzione di
un CERN for AI, un centro fisico (non le solite network che
piacciono tanto ai funzionari europei, vedi RAISE
https://www.coe-raise.eu/), dove concentrare gli investimenti e i
ricercatori in AI, dotandoli della necessaria libertà di ricerca,
per battere anche strade inesplorate.
Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in
grado di "stimare quale parola è più probabile in una frase”,
come riporta Guido Vetere.
Ci sono novità che riguardano gli aspetti di memorizzazione e di
ragionamento, attraverso modelli ricorsivi che esaminano o
controllano i propri processi. Non sappiamo dove queste ricerche
porteranno, ma bisogna essere coinvolti e padroneggiare la
tecnologia se la si vuole controllare o orientare.
Nella petizione invece si dà un'interpretazione del funzionamento
di certi modelli, cadendo in luoghi comuni, del tipo "non
equivalgono a comprensione nel senso umano del termine”, "non
significa che capiscano ciò che stanno dicendo”, "non
costruiscono modelli del mondo nel senso in cui lo fanno gli
esseri umani". Non vale la pena controbattere a tali affermazioni
per due motivi:
1. Non sappiamo cosa sia la “comprensione nel senso umano”,
quindi affermare che un sistema NON ha qualcosa di indefinibile
non ha molto senso
2. È comunque irrilevante porsi la domanda se “comprendono in
senso umano”. È sicuro che operano in modo diverso dal nostro
cervello, ma ciò non è necessariamente un difetto: conta se sono
in grado di svolgere i compiti che gli affidiamo.
Su queste posizioni Walter Quattrociocchi sta conducendo da tempo
una campagna di critica a tutto spiano, che purtroppo non accetta
confronti: o sei d’accordo con lui o vieni bollato come “dotto
ignorante” in pubblico (come accenna Guido Vetere). Eppure le mie
posizioni hanno avuto il sostegno anche di Yoshua Bengio.
Si tratta quindi di una battaglia di retroguardia, che incita
contro qualcosa che è ben diverso da come lo si rappresenta.
Quindi non firmerò questa petizione.
— Beppe
On 7 May 2026, at 09:05, [email protected] wrote:
From: Guido Vetere <[email protected]>
Subject: [nexa] Re: Una visione realistica dell’Intelligenza
Artificiale - Lettera aperta alla società
To: Juan Carlos De Martin <[email protected]>, "J.C. DE MARTIN"
<[email protected]>
Cc: Nexa <[email protected]>
Message-ID: <[email protected]>
Content-Type: multipart/alternative;
boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2"
“Quando sembrano ragionare, combinano schemi appresi dai dati.
Quando sembrano sapere qualcosa, producono l’output
statisticamente più coerente con il contesto, senza avere
accesso diretto al mondo o a meccanismi autonomi di verifica.”
Tuttavia bisogna prendere in considerazione il fatto che i
sistemi generativi attuali non sono più semplici (si fa per
dire) “predittori del prossimo token”. La differenza tra Claude,
ChatGPT, Gemini, etc. ormai non è più tanto nel modello di base,
quanto nell’harness, cioè nella orchestrazione di runtime fatta
di cicli interni, uso di tool, valutazione del contesto, etc. I
sistemi generativi sono diventati ensemble di agenti, come
spiegava Anthropic già nel 2024
(https://www.anthropic.com/engineering/building-effective-agents)
– il che spiega anche come mai Claude abbia preso il sopravvento.
Se questo è vero, bisogna tornare su quell’”accesso diretto al
mondo” e quei “meccanismi autonomi di verifica”, per valutare
come e quanto siano fattori differenziali. Sappiamo che la terra
non è piatta perché l’abbiamo visto? O ci siamo messi a fare
esperimenti? Non si può essere “realisti” al punto da ignorare
che la nostra conoscenza è un fatto sociale che passa per la
testualità, non bisogna aver letto Gadamer e Ricoeur.
Detto questo, ma fa piacere che l’appello (che ovviamente non
firmerò) sia promosso da Enrico Nardelli, con cui spero che – al
contrario di Quattrociocchi – si possa fare una discussione seria.
Guido
Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa
<[email protected]> ha scritto:
Vi segnalo questa lettera
aperta:https://www.petizioni.com/visione_realistica_intelligenza_artificiale
Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi
frequenta questa lista.
JC