Secondo me, se uno firma la lettera aperta alla società, non implica che sia contrario a creare un "CERN AI" . Credo che molti di noi sarebbero contenti se fosse già stato creato un "CERN AI" quattro anni fa invece di piccoli e deboli gruppi e progettini. La lettera non dice che non bisogna fare un "CERN AI", mi pare. Non entro invece nel dibattito sulla comprensione umana, ho già difficoltà a comprendere me stesso ;-) Credo che un obiettivo della lettera sia evitare che le persone non esperte di AI si innamorino dei sistemi GenAI o "rimbecilliscano" (c'è chi non riesce a fare quasi più nulla senza chiedere a GenAI), ecc.
Grazie per la ri-condivisione di CAIRNE . AB On Thu, May 7, 2026 at 11:45 AM Giuseppe Attardi via nexa < [email protected]> wrote: > Sono alquanto perplesso sull’impostazione di questa petizione. > > Se l’obiettivo è > > “formare le persone a comprendere queste tecnologie” > "Invitiamo la comunità accademica dell’informatica a contribuire > attivamente a questa opera di chiarimento e formazione. Spiegare con > precisione che cosa queste tecnologie sono davvero, e che cosa non sono, è > un’opera di alfabetizzazione che è parte integrante del nostro lavoro di > ricercatori e docenti.” > > mi pare non solo ovvio ma limitativo. È un dovere degli studiosi e degli > accademici di studiare e formare ricercatori e persone. > > Ma "formare persone a comprendere” è piuttosto limitativo. Ciò che > dovrebbe fare la comunità scientifica nazionale (mi immagino a questa sia > rivolta la petizione) sarebbe di impegnarsi nello sviluppare e > padroneggiare le attuali e future tecnologie di AI, generativa e non. > La tecnologia del Deep Learning è in una fase evolutiva straordinaria, > iniziata nel 2006 ed esplosa nel 2022, con "risultati tecnici > impressionanti e inattesi” di cui la petizione stessa prende atto. > Purtroppo la direzione della ricerca è attualmente dettata dagli ingenti > investimenti in infrastrutture di calcolo e nella capacità di attrarre > talenti di poche grandi aziende americane o cinesi: circa il 60% dei > brevetti in AI è detenuto dalla Cina ( > https://www.wipo.int/pressroom/en/articles/2024/article_0009.html), il > 40% dagli USA e 0,% dall’Europa. Il recente AI Index di Stanford ( > https://hai.stanford.edu/ai-index/2026-ai-index-report) indica che il > livello raggiunto dai sistemi cinesi è ormai alla pari di quelli americani. > Ma ci sono strade di ricerca da esplorare diverse da quelle guidate da > interessi commerciali, e su questo si dovrebbe investire in Europa. > Da tempo, con l’associazione CAIRNE (https://cairne.eu/cern-for-ai/) e di > recente con l’appoggio del premio Nobel Giorgio Parisi, stiamo chiedendo la > costituzione di un CERN for AI, un centro fisico (non le solite network che > piacciono tanto ai funzionari europei, vedi RAISE > https://www.coe-raise.eu/), dove concentrare gli investimenti e i > ricercatori in AI, dotandoli della necessaria libertà di ricerca, per > battere anche strade inesplorate. > > Già adesso la ricerca sugli LLM è avanzata ben oltre modelli in grado di > "stimare quale parola è più probabile in una frase”, come riporta Guido > Vetere. > Ci sono novità che riguardano gli aspetti di memorizzazione e di > ragionamento, attraverso modelli ricorsivi che esaminano o controllano i > propri processi. Non sappiamo dove queste ricerche porteranno, ma bisogna > essere coinvolti e padroneggiare la tecnologia se la si vuole controllare o > orientare. > > Nella petizione invece si dà un'interpretazione del funzionamento di certi > modelli, cadendo in luoghi comuni, del tipo "non equivalgono a comprensione > nel senso umano del termine”, "non significa che capiscano ciò che stanno > dicendo”, "non costruiscono modelli del mondo nel senso in cui lo fanno gli > esseri umani". Non vale la pena controbattere a tali affermazioni per due > motivi: > 1. Non sappiamo cosa sia la “comprensione nel senso umano”, quindi > affermare che un sistema NON ha qualcosa di indefinibile non ha molto senso > 2. È comunque irrilevante porsi la domanda se “comprendono in senso > umano”. È sicuro che operano in modo diverso dal nostro cervello, ma ciò > non è necessariamente un difetto: conta se sono in grado di svolgere i > compiti che gli affidiamo. > > Su queste posizioni Walter Quattrociocchi sta conducendo da tempo una > campagna di critica a tutto spiano, che purtroppo non accetta confronti: o > sei d’accordo con lui o vieni bollato come “dotto ignorante” in pubblico > (come accenna Guido Vetere). Eppure le mie posizioni hanno avuto il > sostegno anche di Yoshua Bengio. > > Si tratta quindi di una battaglia di retroguardia, che incita contro > qualcosa che è ben diverso da come lo si rappresenta. > > Quindi non firmerò questa petizione. > > — Beppe > > On 7 May 2026, at 09:05, [email protected] wrote: > > From: Guido Vetere <[email protected]> > Subject: [nexa] Re: Una visione realistica dell’Intelligenza > Artificiale - Lettera aperta alla società > To: Juan Carlos De Martin <[email protected]>, "J.C. DE MARTIN" > <[email protected]> > Cc: Nexa <[email protected]> > Message-ID: <[email protected]> > Content-Type: multipart/alternative; > boundary="Apple-Mail=_8C50A1EB-3894-460E-B636-1DBBFE8FF2B2" > > “Quando sembrano ragionare, combinano schemi appresi dai dati. Quando > sembrano sapere qualcosa, producono l’output statisticamente più coerente > con il contesto, senza avere accesso diretto al mondo o a meccanismi > autonomi di verifica.” > > Tuttavia bisogna prendere in considerazione il fatto che i sistemi > generativi attuali non sono più semplici (si fa per dire) “predittori del > prossimo token”. La differenza tra Claude, ChatGPT, Gemini, etc. ormai non > è più tanto nel modello di base, quanto nell’harness, cioè nella > orchestrazione di runtime fatta di cicli interni, uso di tool, valutazione > del contesto, etc. I sistemi generativi sono diventati ensemble di agenti, > come spiegava Anthropic già nel 2024 ( > https://www.anthropic.com/engineering/building-effective-agents) – il che > spiega anche come mai Claude abbia preso il sopravvento. > Se questo è vero, bisogna tornare su quell’”accesso diretto al mondo” e > quei “meccanismi autonomi di verifica”, per valutare come e quanto siano > fattori differenziali. Sappiamo che la terra non è piatta perché l’abbiamo > visto? O ci siamo messi a fare esperimenti? Non si può essere “realisti” al > punto da ignorare che la nostra conoscenza è un fatto sociale che passa per > la testualità, non bisogna aver letto Gadamer e Ricoeur. > > Detto questo, ma fa piacere che l’appello (che ovviamente non firmerò) sia > promosso da Enrico Nardelli, con cui spero che – al contrario di > Quattrociocchi – si possa fare una discussione seria. > > Guido > > > Il giorno 7 mag 2026, alle ore 07:52, J.C. DE MARTIN via nexa < > [email protected]> ha scritto: > > Vi segnalo questa lettera aperta: > https://www.petizioni.com/visione_realistica_intelligenza_artificiale > > Uno dei promotori è l'amico Enrico Nardelli, ben noto a chi frequenta > questa lista. > > JC > > > >
