"what current AI (e.g. LLMs) is really doing is *memorizing* millions of
patterns seen in human-generated data, and *reapplying* them on *new*
inputs"...quindi, per tornare al tema del thread, uso trasformativo,
equivalenza con uso/estrazione conoscenza da espressioni proteggibili già
vista in casistica precedente (eg TDM, Google Books, etc).

Giancarlo

On Thu, Sep 12, 2024 at 7:44 AM Enrico Nardelli <[email protected]>
wrote:

> A questo proposito
>
> Il 12/09/2024 03:33, Giacomo Tesio ha scritto:
>
> Commentavi questo articolo: https://arxiv.org/pdf/2301.13867
>
> Leggiamo come è composto il dataset con cui hanno testato le
> "competenze matematiche" dei LLM di OpenAI (pagina 4):
>
> - books that are widely used in universities to teach upper
> undergraduate or first-year graduate courses in a degree in
> mathematics
> - math.stackexchange.com, a collection of books, and the
> MATH dataset
> - the book Problem-Solving Strategies, that is often used
> to prepare for mathematical competitions
> - il dataset di https://arxiv.org/abs/1912.01412 che contiene
> decine di esercizi... e le soluzioni.
>
>
> Leggi con calma e rifletti: non noti niente?
>
>
> Questi ricercatori NON hanno sottoposto a ChatGPT e GPT-4 problemi
> inediti, ma problemi tratti da eserciziari disponibili in rete.
>
>
> Ora, se immagini una qualche "intelligenza artificiale" alle prese con
> tutti questi problemi, è ragionevole trovare i risultati sintetizzati
> nell'abstract che avevo citato "strabilianti" [1].
>
> Ma se hai chiaro il processo di compilazione / compressione dei testi
> sorgente che produce il LLM, trovi quei risultati piuttosto ovvi: il
> LLM ha prodotto in output le soluzioni codificate nelle matrici
> eseguibili.
>
>
> ritengo utile segnalare quanto ha scritto recentemente Francois Chollet in
> una serie di post su X (a partire da qua
> https://x.com/fchollet/status/1800577565717148143)
>
> Here's the thing: what current AI (e.g. LLMs) is really doing is
> memorizing millions of patterns seen in human-generated data, and
> reapplying them on new inputs. That works great when you're dealing with a
> well-known problem – until you introduce any amount of novelty.
>
> But the nature of intelligence is precisely to adapt to things you don't
> expect. To figure out what to do when you don't have a solution already
> memorized.
> If your AI can't adapt to novelty, it will never be able to deal with the
> variability and fluidity of the real world.
>
> And that's why LLMs aren't on the path to AGI. They cannot reason – they
> recite. They by-pass the need for intelligence by leveraging memorization
> instead – on a scale that boggles the mind.
>
>
> Come "palestra" per misurare davvero l'intelligenza Chollet ha proposto lo
> "ARC Prize" http://arcprize.org cioè la risoluzione di problemi che sono
> semplici per gli esseri umani ma sono resistenti alla memorizzazione
> (quindi difficili per le LLM). Con le sue parole (
> https://x.com/fchollet/status/1800577423853195451)
>
> ARC tasks are easy for humans. They aren't complex. They don't require
> specialized knowledge – a child can solve them. But modern AI struggles
> with them.
> Because they have one very important property: they're designed to be
> resistant to memorization.
>
> And ARC is like a flashing red light reminding you that we're missing
> something (intende per l'AGI = Artificial General Intelligence)
>
>
> Spero contribuisca a far capire meglio quanto Giacomo sta argomentando.
>
> Ciao, Enrico
>
> --
>
> -- EN
> https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
> ======================================================
> Prof. Enrico Nardelli
> Past President di "Informatics Europe"
> Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
> Dipartimento di Matematica - Università di Roma "Tor Vergata"
> Via della Ricerca Scientifica snc - 00133 Roma
> home page: https://www.mat.uniroma2.it/~nardelli
> blog: https://link-and-think.blogspot.it/
> tel: +39 06 7259.4204 fax: +39 06 7259.4699
> mobile: +39 335 590.2331 e-mail: [email protected]
> online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
> ======================================================
> --
>

Reply via email to