non è che non ci vogliono regole, è che regole sbagliate possono favorire i monopolisti quanto ai simposi e ai comitati, sono diventati quasi più noiosi dell'AI :-)) G.
On Sat, 24 Feb 2024 at 10:50, Stefano Quintarelli <stef...@quintarelli.it> wrote: > non mi a pare nessuno discuta cio'. > la "AI noiosa" e' tra noi da anni e lo sara' sempre di piu' > solo che non e' la tecnologia salvifica, taumaturgica, human-like che > alcuni narrano. > e' uno strumento e va usato e considerato come tale. > come la calcolatrice. > IMHO > > come per ogni strumento, la regolazione e', per metterla in termini > semplici, necessaria. > > ciao, s. > > On 24/02/24 10:37, Guido Vetere wrote: > > Gufare sui LLM è divertentissimo, tuttavia hanno risolto problemi di NLP > che si sono > > dimostrati praticamente inattaccabili con tecniche tradizionali, tipo > summarization o > > semantic role labelling. > > Per questo, sono già largamente impiegati per compiti relativamente > 'modesti' di > > estrazione, elaborazione e ricerca di informazione da documenti, ad > esempio archivistici. > > In questi impieghi, la pappagallagine è un beneficio e le allucinazioni, > se ci sono, sono > > nei documenti sorgente, non nelle piattaforme (pseudo) linguistiche. > > Questa roba è qui per restare, facciamocene una ragione. > > Ma non esistono solo le Big Tech US in questa storia: escono LLM dalle > maledette pareti! > > Molte di queste pareti sono europee, accademiche o pubblico-private. > > Insomma i margini di manovra ci sono, ma bisogna capire meglio quali > siano le manovre. Non > > credo che andremo lontano a colpi di regolamenti, certificazioni e > relativi enti, simposi > > e convegni, comitati etici, et ceteris. > > > > G. > > > > > > > > > > On Fri, 23 Feb 2024 at 18:33, Giacomo Tesio <giac...@tesio.it <mailto: > giac...@tesio.it>> > > wrote: > > > > Salve Daniela, > > > > come avrai certamentr notato il postmortem può essere diviso in 3 > parti: > > > > 1. L'elenco di fatti non negabili > > > > > On February 20, 2024, an optimization to the user experience > introduced a bug [...] > > > > > > LLMs generate responses by randomly sampling words based in part > on probabilities. > > [...] > > > > > > In this case, the bug was in the step where the model chooses > these numbers. [...] > > > > > > Upon identifying the cause of this incident, we rolled out a fix > and confirmed that > > > the incident was resolved. > > > > > > 2. L'antropomorfizzazione del modello > > > > > [... a bug] with how the model processes language. > > > > > > [...] Their “language” consists of numbers that map to tokens. > > > > > > [...] Akin to being lost in translation, the model chose slightly > wrong numbers, which > > > produced word sequences that made no sense. > > > > Povero! Povero modellino! :-D > > > > Notare le espressioni "processes language", "language consists", > "lost in translation" > > e soprattutto "choose". > > > > E notare come quando gli output non supportano la loro narrazione > sulla "intelligenza > > artificiale" > > diventano subito "word sequences that made no sense". > > > > L'output passa da "language" a "word sequences". > > > > Come se gli output prodotti "randomly sampling words based in part > on probabilities" > > avessero un avuto senso prima del bug! > > > > > > 3. La supercazzola magica > > > > > More technically, inference kernels produced incorrect results > when used in certain > > > GPU configurations. > > > > Data la menzione delle probabilità e delle configurazioni delle GPU, > scommetterei > > un caffé che il bug era riconducibile ad un overflow numerico o > qualcosa di simile. > > > > Il software si rivela semplicemente per quello che è, privo di > qualsiasi intelligenza. > > > > > > > Come hanno osservato in molti, la definizione di chatGPT fornita > dai tecnici di OpenAI > > > è quella a cui ci si riferisce con "pappagallo stocastico". > > > > Ed è anche quella considerata blasfema dai "believers" della AI. > > > > Che però si aggrapperanno a quell'innocente "in part" per continuare > a credere alle > > favole. > > > > > > Piuttosto, su cosa si basa il software ChatGPT oltre alle > probabilità? > > > > Semplicemente, la volontà di OpenAI/Microsoft, impressa nel codice > delle varie parti > > dell'applicazione, dalla selezione dei contenuti, alle > configurazioni, ai prefiltri e > > ai post filtri. > > > > Volontà che ChatGPT riprodurrà pedissequamente su vastissima scala, > in tutti gli > > output rilevanti. > > > > > > Giacomo > > _______________________________________________ > > nexa mailing list > > nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it> > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > <https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa> > > > > > > _______________________________________________ > > nexa mailing list > > nexa@server-nexa.polito.it > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa