Grazie della lezione sul peso delle opinioni. 

Magari se riportavi anche il finale del tuo messaggio, si capiva quale era “il 
peso” delle tue:

> Perché in questo caso invece che GPT-4 chiamiamolo HAL9000 e siamo a posto!
> 
> Perdonate la brutalità, è giusto per essere chiari.     Marco


— Beppe

> On 13 Apr 2023, at 16:45, Marco A. Calamari <[email protected]> wrote:
> 
> On gio, 2023-04-13 at 16:26 +0200, Giuseppe Attardi wrote:
>> Se vuoi saperne di più sulle capacità emergenti, ne parla Giorgio Parisi, 
>> citando l’affermazione “More is Different” di Philip Warren Anderson (premio 
>> Nobel nel 1977), oppure, nel caso dei LLM, puoi leggere i lavori di Jason 
>> Wei: Emergent Abilities of Large Language Models 
>> https://openreview.net/pdf?id=yzkSU5zdwD 
>> <https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304131445021060953&URLID=10&ESV=10.0.19.7431&IV=27E13876CC0CC052619F779D2197CDA1&TT=1681397103121&ESN=VNbCEQjZQ1TxJGaaSe%2B%2FXPB3%2BZGP6Ay2gX099JuJifQ%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9vcGVucmV2aWV3Lm5ldC9wZGY_aWQ9eXprU1U1emR3RA&HK=D31EA4E0CC663D06E76AE058B89BB318F29856224ED72C6BCF1AFDAE5721E2A4>
>> 
>> Poi se vuoi fare scadere una conversazione seria, che cita lavori di due 
>> premi nobel, in chiacchiere da bar, fai pure.
> 
> No, conoscendo bene il lavoro di Parisi, volevo solo essere sicuro di aver 
> capito bene il tuo pensiero.
> 
> Non avevo mai preso in considerazione questo aspetto, anche se lo ritengo 
> certamente impossibile.
> 
> Grazie dell'interessante  suggerimento e della conferma.  
> 
> Marco
> 
> P.S.:
> Non era mia intenzione scendere al livello del bar, ma solo capire una frase 
> abbastanza complessa che avevi scritto.
> Se voglio sapere cosa pensa un premio Nobel, mi vado a leggere i testi. 
> Citare i Nobel non conferisce automaticamente peso ad un'opinione.
> 
>> — Beppe
>> 
>>> On 12 Apr 2023, at 17:33, Marco A. Calamari <[email protected]> 
>>> wrote:
>>> 
>>> On mer, 2023-04-12 at 14:15 +0200, Giuseppe Attardi wrote:
>>>> 
>>>>> On 11 Apr 2023, at 20:34, Antonio Casilli 
>>>>> <[email protected] 
>>>>> <mailto:[email protected]>> wrote:
>>>>> 
>>>>>> PS. I LLM sono tutt’altro che Stochastic Parrots: ripetere a pappagallo 
>>>>>> i testi da cui sono stati allenati è proprio ciò che non sanno fare. 
>>>>> 
>>>>> Beppe, "stochastic parrot" non è questo.
>>>>> Timnit Gebru et al. ne parlano nel senso di un dispositivo che 
>>>>> "haphazardly stitch[es] together sequences of linguistic forms (...), 
>>>>> according to probabilistic information about how they combine, but 
>>>>> without any reference to meaning". L'accento è sullo "stochastic". 
>>>> 
>>>> Ma non è questo quello che fanno i LLM della serie GPT: non attaccano 
>>>> affatto insieme “sequenze di forme linguistiche”. Questo riprodurrebbe 
>>>> appunto pezzi di frasi a pappagallo.
>>>> Invece il loro meccanismo di base è quello del calcolo della distribuzione 
>>>> di probabilità della prossima parola a seguire in una sequenza.
>>>> 
>>>> Come spiega Giorgio Parisi nel suo libro In un volo di storni, il 
>>>> funzionamento di un sistema complesso è il risultato dell’applicazione su 
>>>> larga scala di semplici leggi probabilistiche.
>>>> I Large Language Models come GPT-3 fanno appunto questo: sono stati 
>>>> allenati a stimare una distribuzione di probabilità. Da questa capacità 
>>>> usata su larga scala (miliardi di parametri a rappresentare connessioni 
>>>> tra neuroni) emergono, altre capacità, apparentemente scollegate, come 
>>>> quella di rispondere a domande, riassumere testi, tradurre, scrivere 
>>>> codice, generare immagini, compiere semplici ragionamenti, ecc.
>>>> 
>>>> Il risultato più che altro esula dalla nostra capacità di “comprensione" e 
>>>> tendiamo a concludere che non hanno capacità di “comprensione”, anche se 
>>>> sono in grado di superare molti dei test che sono stati sviluppati proprio 
>>>> per valutare la capacità di “comprensione" umana.
>>>> Se dicessero sempre sciocchezze, dovremmo solo farci una risata: in realtà 
>>>> le risposte sono quasi sempre plausibili, e quindi coerenti col “meaning”, 
>>>> anche se a volte inesatte.
>>> 
>>> Scusa Giuseppe, ma hai usato la parola "emergono".
>>> 
>>> Mi sembra di aver capito che intendi dire che GPT è diventato abbastanza 
>>> complesso da manifestare, una proprietà "emergente", non prevista dal suo 
>>> progetto.
>>> Dei comportamenti imprevisti che lo stanno portando ad essere, almeno 
>>> statisticamente, in grado di "capire" la domanda e fornire la "risposta 
>>> corretta", se la conosce?
>>> 
>>> Perché in questo caso invece che GPT-4 chiamiamolo HAL9000 e siamo a posto!
>>> 
>>> Perdonate la brutalità, è giusto per essere chiari.     Marco
>>> 
>>>> — Beppe
>>>> 
>>>> 
>>>>> C'è anche un altro senso sviluppato nell'articolo: gli LLMs sono dei 
>>>>> pappagalli stocastici perché reiterano visioni del mondo egemoniche.
>>>>> 
>>>>> 
>>>>> 
>>>>> 
>>>>> From: Enrico Nardelli <[email protected] 
>>>>> <mailto:[email protected]>> 
>>>>> 
>>>>> 
>>>>> 
>>>>> To: Nexa <[email protected] <mailto:[email protected]>> 
>>>>> Subject: [nexa] Statement from the listed authors of Stochastic 
>>>>> Parrots on the “AI pause” letter 
>>>>> Message-ID: <[email protected] 
>>>>> <mailto:[email protected]>> 
>>>>> Content-Type: text/plain; charset="utf-8"; Format="flowed" 
>>>>> 
>>>>> (mi pare non sia passato in lista) 
>>>>> 
>>>>> 
>>>>> Statement from the listed authors of Stochastic Parrots on the “AI pause” 
>>>>> letter 
>>>>> 
>>>>> Timnit Gebru (DAIR), Emily M. Bender (University of Washington), Angelina 
>>>>> McMillan-Major (University of Washington), Margaret Mitchell (Hugging 
>>>>> Face) 
>>>>> 
>>>>> March 31, 2023 
>>>>> 
>>>>> /Tl;dr: The harms from so-called AI are real and present and follow from 
>>>>> the acts of people and corporations deploying automated systems. 
>>>>> Regulatory efforts should focus on transparency, accountability and 
>>>>> preventing exploitative labor practices./ 
>>>>> 
>>>>> [ 
>>>>> https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304111834240793464&URLID=3&ESV=10.0.19.7431&IV=C0D3F84B83A3ADF9A9711D5730AF0D3E&TT=1681238065612&ESN=rcaYZzF9axLPITL%2FasBT5CtJuv5i%2BRH33XCClymc4K8%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cuZGFpci1pbnN0aXR1dGUub3JnL2Jsb2cvbGV0dGVyLXN0YXRlbWVudC1NYXJjaDIwMjMv&HK=F39EA873D0E9320C2A335DB652D5533905C9FF6449D5C5F45DCCB6CC45AF9875
>>>>>  | 
>>>>> https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202304111834240793464&URLID=2&ESV=10.0.19.7431&IV=64D496B7C182D9192CD349B1A479DB51&TT=1681238065612&ESN=ZX2NE757cciYdfJgiGFrTGd36prtK8BSsXt8mvE8oWI%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cuZGFpci1pbnN0aXR1dGUub3JnL2Jsb2cvbGV0dGVyLXN0YXRlbWVudC1NYXJjaDIwMjMv&HK=27E68C321FF683A3D17BB08C5B7B157186C4F96D526B45A0CEE56FBC4ABAFF10
>>>>>  ] 
>> 
> 

_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to