non mi a pare nessuno discuta cio'.
la "AI noiosa" e' tra noi da anni e lo sara' sempre di piu'
solo che non e' la tecnologia salvifica, taumaturgica, human-like che alcuni 
narrano.
e' uno strumento e va usato e considerato come tale.
come la calcolatrice.
IMHO

come per ogni strumento, la regolazione e', per metterla in termini semplici, 
necessaria.

ciao, s.

On 24/02/24 10:37, Guido Vetere wrote:
Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi di NLP che si sono dimostrati praticamente inattaccabili con tecniche tradizionali, tipo summarization o semantic role labelling. Per questo, sono già largamente impiegati per compiti relativamente 'modesti' di estrazione, elaborazione e ricerca di informazione da documenti, ad esempio archivistici. In questi impieghi, la pappagallagine è un beneficio e le allucinazioni, se ci sono, sono nei documenti sorgente, non nelle piattaforme (pseudo) linguistiche.
Questa roba è qui per restare, facciamocene una ragione.
Ma non esistono solo le Big Tech US in questa storia: escono LLM dalle maledette pareti! Molte di queste pareti sono europee, accademiche o pubblico-private. Insomma i margini di manovra ci sono, ma bisogna capire meglio quali siano le manovre. Non credo che andremo lontano a colpi di regolamenti, certificazioni e relativi enti, simposi e convegni, comitati etici, et ceteris.

G.




On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giac...@tesio.it <mailto:giac...@tesio.it>> wrote:

    Salve Daniela,

    come avrai certamentr notato il postmortem può essere diviso in 3 parti:

    1. L'elenco di fatti non negabili

     > On February 20, 2024, an optimization to the user experience introduced 
a bug [...]
     >
     > LLMs generate responses by randomly sampling words based in part on 
probabilities.
    [...]
     >
     > In this case, the bug was in the step where the model chooses these 
numbers. [...]
     >
     > Upon identifying the cause of this incident, we rolled out a fix and 
confirmed that
     > the incident was resolved.


    2. L'antropomorfizzazione del modello

     > [... a bug] with how the model processes language.
     >
     > [...] Their “language” consists of numbers that map to tokens.
     >
     > [...] Akin to being lost in translation, the model chose slightly wrong 
numbers, which
     > produced word sequences that made no sense.

    Povero! Povero modellino! :-D

    Notare le espressioni "processes language", "language consists", "lost in 
translation"
    e soprattutto "choose".

    E notare come quando gli output non supportano la loro narrazione sulla 
"intelligenza
    artificiale"
    diventano subito "word sequences that made no sense".

    L'output passa da "language" a "word sequences".

    Come se gli output prodotti "randomly sampling words based in part on 
probabilities"
    avessero un avuto senso prima del bug!


    3. La supercazzola magica

     > More technically, inference kernels produced incorrect results when used 
in certain
     > GPU configurations.

    Data la menzione delle probabilità e delle configurazioni delle GPU, 
scommetterei
    un caffé che il bug era riconducibile ad un overflow numerico o qualcosa di 
simile.

    Il software si rivela semplicemente per quello che è, privo di qualsiasi 
intelligenza.


     > Come hanno osservato in molti, la definizione di chatGPT fornita dai 
tecnici di  OpenAI
     > è quella a cui ci si riferisce con "pappagallo stocastico".

    Ed è anche quella considerata blasfema dai "believers" della AI.

    Che però si aggrapperanno a quell'innocente "in part" per continuare a 
credere alle
    favole.


    Piuttosto, su cosa si basa il software ChatGPT oltre alle probabilità?

    Semplicemente, la volontà di OpenAI/Microsoft, impressa nel codice delle 
varie parti
    dell'applicazione, dalla selezione dei contenuti, alle configurazioni, ai 
prefiltri e
    ai post filtri.

    Volontà che ChatGPT riprodurrà pedissequamente su vastissima scala, in 
tutti gli
    output rilevanti.


    Giacomo
    _______________________________________________
    nexa mailing list
    nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>
    https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
    <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>


_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to