Grazie Guido, approccio semplice, diretto e molto interessante. 
Stiamo raccogliendo idee e pratiche di insegnamento attraverso l'AI nel nostro 
New Learning Club on Teaching with Artificial Intelligence, se vuoi dare 
un'occhiata.
Saluti a tutti,
Fabio


Il giorno 15/10/24, 12:00 "[email protected] 
<mailto:[email protected]> per conto di 
[email protected] <mailto:[email protected]>" 
<[email protected] <mailto:[email protected]> 
per conto di [email protected] 
<mailto:[email protected]>> ha scritto:


Send nexa mailing list submissions to
[email protected] <mailto:[email protected]>


To subscribe or unsubscribe via the World Wide Web, visit
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa 
<https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>
or, via email, send a message with subject or body 'help' to
[email protected] <mailto:[email protected]>


You can reach the person managing the list at
[email protected] <mailto:[email protected]>


When replying, please edit your Subject line so it is more specific
than "Re: Contents of nexa digest..."




Today's Topics:


1. Re: Large language models reduce public knowledge sharing on
online Q&A platforms (Paolo Caressa)
2. Re: Large language models reduce public knowledge sharing on
online Q&A platforms (Guido Vetere)




----------------------------------------------------------------------


Message: 1
Date: Tue, 15 Oct 2024 10:47:55 +0200
From: "Paolo Caressa" <[email protected] <mailto:[email protected]>>
To: [email protected] <mailto:[email protected]>
Cc: [email protected] <mailto:[email protected]>, 
[email protected] <mailto:[email protected]>
Subject: Re: [nexa] Large language models reduce public knowledge
sharing on online Q&A platforms
Message-ID: <[email protected] 
<mailto:[email protected]>>
Content-Type: text/plain; charset="utf-8"




Buongiorno, mi sembra un ottimo esempio, a riprova che, chi si ritiene "non 
esperto" su una tecnologia, in realtà, se conosce il contesto al quale poterla 
applicare, pensa a nuovi casi d'uso e a come impiegarla per aumentare il valore 
di quel che ha fatto finora ;-)


P
Da "nexa" [email protected] 
<mailto:[email protected]>
A "Guido Vetere" [email protected] <mailto:[email protected]>
Cc [email protected] <mailto:[email protected]>
Data Tue, 15 Oct 2024 07:28:04 +0200
Oggetto Re: [nexa] Large language models reduce public knowledge sharing on 
online Q&A platforms
Volevo condividere con voi, che a differenza mia siete esperti del tema, come 
ho deciso di utilizzare ChatGPT e l'IA per la didattica. Ai miei corsi di 
laurea magistrale, quindi con 30/40 studenti, da sempre riesco a farli lavorare 
per task su un paper scientifico: 1. descrizione, 2. punti di forza, 3. punti 
di debolezza, 4. implicazioni applicative. Con queste indicazioni devono 
preparare un breve doc e un ppt da presentare in aula. Nel farlo, devono 
attingere ai temi del corso e alla letteratura. L'avvento di ChatGPT et similia 
cambia le regole del gioco. Ho quindi deciso di introdurre questi strumenti in 
modo esplicito nel corso: i 4 task di cui sopra vengono chiesti anche a ChatGPT 
e ad altri tools (da me), per ogni paper distribuito ai singoli gruppi di 
lavoro. Il risultato viene poi condiviso in anticipo con gli studenti e 
rappresenta il... 18/30, quindi la baseline. Condivido così in modo esplicito 
una base comune e loro devono dimostrare, come in effetti è, di apportare
un valore aggiunto e specifico rispetto al machine learning.
ciao
fb
Il giorno mar 15 ott 2024 alle ore 07:19 Guido Vetere <[email protected] 
<mailto:[email protected]>> ha scritto:


la spiegazione in questo caso è semplice: i programmatori non cercano più le 
soluzioni ai loro problemi su stackoverflow, perché le ottengono più facilmente 
dai LLM
se ne discute anche su quella piattaforma [link]
chi mette contenuto su stackoverflow, lo fa perché le soluzioni migliori 
vengono votate, e il ranking che uno sviluppatore ottiene su quella piattaforma 
è un'ottima referenza professionale
venendo meno il meccanismo di rewarding, viene meno il motivo di fornire 
contenuti alla piattaforma
per cui sì, gli LLM 'uccidono' alcuni business, ma caso per caso, in relazione 
a specifici business model: la generalizzazione è indebita
non è chiaro se prosciugando la 'sorgente umana' delle soluzioni di 
programmazione, i co-programmatori automatici stanno in realtà segando il ramo 
sul quale sono seduti, o se riusciranno ad auto-alimentarsi, o impareranno in 
qualche misura a ragionare con la testa loro - almeno sugli if-then-else, 
perbacco!
buona giornata,
G.


On Mon, 14 Oct 2024 at 23:57, Giacomo Tesio <[email protected] 
<mailto:[email protected]>> wrote:


Large language models (LLMs) are a potential substitute for
human-generated data and knowledge resources. This substitution,
however, can present a significant problem for the training data needed
to develop future models if it leads to a reduction of human-generated
content. In this work, we document a reduction in activity on Stack
Overflow coinciding with the release of ChatGPT, a popular LLM. To test
whether this reduction in activity is specific to the introduction of
this LLM, we use counterfactuals involving similar human-generated
knowledge resources that should not be affected by the introduction of
ChatGPT to such extent. Within 6 months of ChatGPT’s release, activity
on Stack Overflow decreased by 25% relative to its Russian and Chinese
counterparts, where access to ChatGPT is limited, and to similar forums
for mathematics, where ChatGPT is less capable. We interpret this
estimate as a lower bound of the true impact of ChatGPT on Stack
Overflow. The decline is larger for posts related to the most widely
used programming languages. We find no significant change in post
quality, measured by peer feedback, and observe similar decreases in
content creation by more and less experienced users alike. Thus, LLMs
are not only displacing duplicate, low-quality, or beginner-level
content. Our findings suggest that the rapid adoption of LLMs reduces
the production of public data needed to train them, with significant
consequences.
https://academic.oup.com/pnasnexus/article/3/9/pgae400/7754871 
<https://academic.oup.com/pnasnexus/article/3/9/pgae400/7754871>
Com'era la favoletta che i LLM non competono sul mercato con
i contenuti usati per programmarli statisticamente?
Giacomo


--


Professor of Economic Sociology


CPS Department


University of Torino


https://unito.webex.com/meet/filippo.barbera 
<https://unito.webex.com/meet/filippo.barbera>


NEW!!!!


2023 Le piazza vuote. Riprendiamo gli spazi della politica, Bari, Laterza
-------------- next part --------------
An HTML attachment was scrubbed...
URL: 
<http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/8fbf524c/attachment-0001.htm>
 
<http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/8fbf524c/attachment-0001.htm&gt;>


------------------------------


Message: 2
Date: Tue, 15 Oct 2024 10:54:15 +0200
From: Guido Vetere <[email protected] <mailto:[email protected]>>
To: Giacomo Tesio <[email protected] <mailto:[email protected]>>
Cc: [email protected] <mailto:[email protected]>
Subject: Re: [nexa] Large language models reduce public knowledge
sharing on online Q&A platforms
Message-ID:
<cad3hhb4svcxkkyvyzab7s8kr_oqp4f6b+95-ycjegfdi-ju...@mail.gmail.com 
<mailto:cad3hhb4svcxkkyvyzab7s8kr_oqp4f6b+95-ycjegfdi-ju...@mail.gmail.com>>
Content-Type: text/plain; charset="utf-8"


> Peccato che siano spesso sbagliate...


peccato che Don Knuth abbia superato l'ottantina - che Iddio lo preservi -
e non possiamo mandargli gli snippet :-)


è inutile stare qui a fare aneddotica, sono le masse (di programmatori) che
decideranno per loro.


se non sono cretini (e mediamente non lo sono) giudicheranno pros e cons a
loro discrezione e piacimento, in fondo è gente che lavora


G.




On Tue, 15 Oct 2024 at 09:50, Giacomo Tesio <[email protected] 
<mailto:[email protected]>> wrote:


> Grazie Guido,
>
> On Tue, 15 Oct 2024 07:19:16 +0200 Guido Vetere wrote:
>
> > se ne discute anche su quella piattaforma [link
> > <
> https://meta.stackoverflow.com/questions/422392/chatgpt-seems-to-be-better-than-stack-overflow-both-in-speed-and-accuracy-what
>  
> <https://meta.stackoverflow.com/questions/422392/chatgpt-seems-to-be-better-than-stack-overflow-both-in-speed-and-accuracy-what>
> >
>
> una lettura davvero interessante... e a suo modo divertente.
>
>
> > i programmatori non cercano più le soluzioni ai loro problemi su
> > stackoverflow, perché le ottengono più facilmente dai LLM
>
> Peccato che siano spesso sbagliate...
>
> Spero solo non capiti mai a me o alle persone che amo di doverne
> subire il software. Sono già abbastanza sfigato da incappare
> sistematicamente in corner case bacati quando il codice lo
> scrivono persone intelligenti... ok, a volte c'è un compilatore di
> mezzo, ma per quanto pedante, è improbabile che riesca a beccare
> qualsiasi baco che un LLM (che non comprende né il prompt,
> né l'output) possa introdurre.
>
>
> Giacomo
>
-------------- next part --------------
An HTML attachment was scrubbed...
URL: 
<http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/01cf5f15/attachment-0001.htm>
 
<http://server-nexa.polito.it/pipermail/nexa/attachments/20241015/01cf5f15/attachment-0001.htm&gt;>


------------------------------


Subject: Digest Footer


_______________________________________________
nexa mailing list
[email protected] <mailto:[email protected]>
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa 
<https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa>




------------------------------


End of nexa Digest, Vol 186, Issue 31
*************************************




Reply via email to