non è che non ci vogliono regole, è che regole sbagliate possono favorire i
monopolisti
quanto ai simposi e ai comitati, sono diventati quasi più noiosi dell'AI
:-))
G.

On Sat, 24 Feb 2024 at 10:50, Stefano Quintarelli <stef...@quintarelli.it>
wrote:

> non mi a pare nessuno discuta cio'.
> la "AI noiosa" e' tra noi da anni e lo sara' sempre di piu'
> solo che non e' la tecnologia salvifica, taumaturgica, human-like che
> alcuni narrano.
> e' uno strumento e va usato e considerato come tale.
> come la calcolatrice.
> IMHO
>
> come per ogni strumento, la regolazione e', per metterla in termini
> semplici, necessaria.
>
> ciao, s.
>
> On 24/02/24 10:37, Guido Vetere wrote:
> > Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi di NLP
> che si sono
> > dimostrati praticamente inattaccabili con tecniche tradizionali, tipo
> summarization o
> > semantic role labelling.
> > Per questo, sono già largamente impiegati per compiti relativamente
> 'modesti' di
> > estrazione, elaborazione e ricerca di informazione da documenti, ad
> esempio archivistici.
> > In questi impieghi, la pappagallagine è un beneficio e le allucinazioni,
> se ci sono, sono
> > nei documenti sorgente, non nelle piattaforme (pseudo) linguistiche.
> > Questa roba è qui per restare, facciamocene una ragione.
> > Ma non esistono solo le Big Tech US in questa storia: escono LLM dalle
> maledette pareti!
> > Molte di queste pareti sono europee, accademiche o pubblico-private.
> > Insomma i margini di manovra ci sono, ma bisogna capire meglio quali
> siano le manovre. Non
> > credo che andremo lontano a colpi di regolamenti, certificazioni e
> relativi enti, simposi
> > e convegni, comitati etici, et ceteris.
> >
> > G.
> >
> >
> >
> >
> > On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giac...@tesio.it <mailto:
> giac...@tesio.it>>
> > wrote:
> >
> >     Salve Daniela,
> >
> >     come avrai certamentr notato il postmortem può essere diviso in 3
> parti:
> >
> >     1. L'elenco di fatti non negabili
> >
> >      > On February 20, 2024, an optimization to the user experience
> introduced a bug [...]
> >      >
> >      > LLMs generate responses by randomly sampling words based in part
> on probabilities.
> >     [...]
> >      >
> >      > In this case, the bug was in the step where the model chooses
> these numbers. [...]
> >      >
> >      > Upon identifying the cause of this incident, we rolled out a fix
> and confirmed that
> >      > the incident was resolved.
> >
> >
> >     2. L'antropomorfizzazione del modello
> >
> >      > [... a bug] with how the model processes language.
> >      >
> >      > [...] Their “language” consists of numbers that map to tokens.
> >      >
> >      > [...] Akin to being lost in translation, the model chose slightly
> wrong numbers, which
> >      > produced word sequences that made no sense.
> >
> >     Povero! Povero modellino! :-D
> >
> >     Notare le espressioni "processes language", "language consists",
> "lost in translation"
> >     e soprattutto "choose".
> >
> >     E notare come quando gli output non supportano la loro narrazione
> sulla "intelligenza
> >     artificiale"
> >     diventano subito "word sequences that made no sense".
> >
> >     L'output passa da "language" a "word sequences".
> >
> >     Come se gli output prodotti "randomly sampling words based in part
> on probabilities"
> >     avessero un avuto senso prima del bug!
> >
> >
> >     3. La supercazzola magica
> >
> >      > More technically, inference kernels produced incorrect results
> when used in certain
> >      > GPU configurations.
> >
> >     Data la menzione delle probabilità e delle configurazioni delle GPU,
> scommetterei
> >     un caffé che il bug era riconducibile ad un overflow numerico o
> qualcosa di simile.
> >
> >     Il software si rivela semplicemente per quello che è, privo di
> qualsiasi intelligenza.
> >
> >
> >      > Come hanno osservato in molti, la definizione di chatGPT fornita
> dai tecnici di  OpenAI
> >      > è quella a cui ci si riferisce con "pappagallo stocastico".
> >
> >     Ed è anche quella considerata blasfema dai "believers" della AI.
> >
> >     Che però si aggrapperanno a quell'innocente "in part" per continuare
> a credere alle
> >     favole.
> >
> >
> >     Piuttosto, su cosa si basa il software ChatGPT oltre alle
> probabilità?
> >
> >     Semplicemente, la volontà di OpenAI/Microsoft, impressa nel codice
> delle varie parti
> >     dell'applicazione, dalla selezione dei contenuti, alle
> configurazioni, ai prefiltri e
> >     ai post filtri.
> >
> >     Volontà che ChatGPT riprodurrà pedissequamente su vastissima scala,
> in tutti gli
> >     output rilevanti.
> >
> >
> >     Giacomo
> >     _______________________________________________
> >     nexa mailing list
> >     nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>
> >     https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> >     <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
> >
> >
> > _______________________________________________
> > nexa mailing list
> > nexa@server-nexa.polito.it
> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to