Secondo me, se uno firma la lettera aperta alla società, non implica che
sia contrario a creare un "CERN AI" .
Credo che molti di noi sarebbero contenti se fosse già stato creato un
"CERN AI" quattro anni fa invece di piccoli e deboli gruppi e progettini.
La lettera non dice che non bisogna fare un "CERN AI", mi pare.
Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà
a comprendere me stesso ;-)
Credo che un obiettivo della lettera sia evitare che le persone non esperte
di AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non
riesce a fare quasi più nulla senza chiedere a GenAI), ecc.

Grazie per la ri-condivisione di CAIRNE .

AB


On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa <
[email protected]> wrote:

> Sono alquanto perplesso sull’impostazione di questa petizione.
>
> Se l’obiettivo è
>
> “formare le persone a comprendere queste tecnologie”
> "Invitiamo la comunità accademica dell’informatica a contribuire
> attivamente a questa opera di chiarimento e formazione. Spiegare con
> precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è
> un’opera di alfabetizzazione che è parte integrante del nostro lavoro di
> ricercatori e docenti.”
>
> mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli
> accademici di studiare e formare ricercatori e persone.
>
> Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che
> dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia
> rivolta la petizione) sarebbe di impegnarsi nello sviluppare e
> padroneggiare le attuali e future tecnologie di AI, generativa e non.
> La tecnologia del Deep Learning è in una fase evolutiva straordinaria,
> iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici
> impressionanti e inattesi” di cui la petizione stessa prende atto.
> Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti
> investimenti in infrastrutture di calcolo e nella capacità di attrarre
> talenti di poche grandi aziende americane o cinesi: circa il 60% dei
> brevetti in AI è detenuto dalla Cina (
> https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il
> 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford (
> https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il
> livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani.
> Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da
> interessi commerciali, e su questo si dovrebbe investire in Europa.
> Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di
> recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la
> costituzione di un CERN for AI, un centro fisico (non le solite network che
> piacciono tanto ai funzionari europei, vedi RAISE
> https://www.coe-raise.eu/), dove concentrare gli investimenti e i
> ricercatori in AI, dotandoli della necessaria libertà di ricerca, per
> battere anche strade inesplorate.
>
> Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di
> "stimare quale parola è più probabile in una frase”, come riporta Guido
> Vetere.
> Ci sono novità che riguardano gli aspetti di memorizzazione e di
> ragionamento, attraverso modelli ricorsivi che esaminano o controllano i
> propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna
> essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o
> orientare.
>
> Nella petizione invece si dà un'interpretazione del funzionamento di certi
> modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione
> nel senso umano del termine”, "non significa che capiscano ciò che stanno
> dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli
> esseri umani". Non vale la pena controbattere a tali affermazioni per due
> motivi:
> 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi
> affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso
> 2. È comunque irrilevante porsi la domanda se “comprendono in senso
> umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò
> non è necessariamente un difetto: conta se sono in grado di svolgere i
> compiti che gli affidiamo.
>
> Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una
> campagna di critica a tutto spiano, che purtroppo non accetta confronti: o
> sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico
> (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il
> sostegno anche di Yoshua Bengio.
>
> Si tratta quindi di una battaglia di retroguardia, che incita contro
> qualcosa che è ben diverso da come lo si rappresenta.
>
> Quindi non firmerò questa petizione.
>
> — Beppe
>
> On 7 May 2026, at 09:05, [email protected] wrote:
>
> From: Guido Vetere <[email protected]>
> Subject: [nexa] Re: Una visione realistica dell’Intelligenza
> Artificiale - Lettera aperta alla società
> To: Juan Carlos De Martin <[email protected]>, "J.C. DE MARTIN"
> <[email protected]>
> Cc: Nexa <[email protected]>
> Message-ID: <[email protected]>
> Content-Type: multipart/alternative;
> boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2"
>
> “Quando sembrano ragionare, combinano schemi appresi dai dati. Quando
> sembrano sapere qualcosa, producono l’output statisticamente più coerente
> con il contesto, senza avere accesso diretto al mondo o a meccanismi
> autonomi di verifica.”
>
> Tuttavia bisogna prendere in considerazione il fatto che i sistemi
> generativi attuali non sono più semplici (si fa per dire) “predittori del
> prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non
> è più tanto nel modello di base, quanto nell’harness, cioè nella
> orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione
> del contesto, etc. I sistemi generativi sono diventati ensemble di agenti,
> come spiegava Anthropic già nel 2024 (
> https://www.anthropic.com/engineering/building-effective-agents) – il che
> spiega anche come mai Claude abbia preso il sopravvento.
> Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e
> quei “meccanismi autonomi di verifica”, per valutare come e quanto siano
> fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo
> visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al
> punto da ignorare che la nostra conoscenza è un fatto sociale che passa per
> la testualità, non bisogna aver letto Gadamer e Ricoeur.
>
> Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia
> promosso da Enrico Nardelli, con cui spero che – al contrario di
> Quattrociocchi – si possa fare una discussione seria.
>
> Guido
>
>
> Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa <
> [email protected]> ha scritto:
>
> Vi segnalo questa lettera aperta:
> https://www.petizioni.com/visione_realistica_intelligenza_artificiale
>
> Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta
> questa lista.
>
> JC
>
>
>
>

Reply via email to