Marco hai scritto:

"Non hai nessun motivo per pensare o pretendere che il dato esatto, se è stato 
fornito, torni fuori. "

Ti ho risposto:

"Beh, non hai nemmeno alcun modo di escluderlo. "

Mi hai chiesto cosa centra e ho provato mostrartelo (violazione del copyright)

Hai erroneamente inteso il mio messaggio come un tentativo di falsificare la 
tua affermazione, 
ma in realtà la stavo solo completando (e chiarificando).

Non solo non c'è motivo di credere di poter estrarre il dato esatto,ma non c'è 
nemmenio motivo di escuderlo.


Il che limita ulteriormente l'utilità del giocattolo.


D'altro canto cercare un significato nel output di ChatGPT è del tutto analogo 
a cercarlo 
nei fondi di caffé.


Giacomo



Il 20 Febbraio 2023 18:36:43 UTC, "Marco A. Calamari" 
<[email protected]> ha scritto:
>On lun, 2023-02-20 at 16:29 +0100, Giacomo Tesio wrote:
>> On Mon, 20 Feb 2023 16:15:37 +0100 Marco A. Calamari wrote:
>> 
>> > On lun, 2023-02-20 at 15:09 +0100, Giacomo Tesio wrote:
>> > > On Mon, 20 Feb 2023 12:59:06 +0100 Marco A. Calamari wrote:
>> > >   
>> > > > Non hai nessun motivo per pensare o pretendere che il dato
>> > > > esatto, se è stato fornito, torni fuori.  
>> > > 
>> > > Beh, non hai nemmeno alcun modo di escluderlo.  
>> > 
>> > Mi sembra una risposta cosiddetta "a pipa di cocco" - vedi Braccio di
>> > Ferro.
>> > 
>> > Mi spiegheresti il rovesciamento di argomento cosa c'entra?
>> 
>> Te lo mostro:
>> 
>> https://peertube.opencloud.lu/w/eW497u3UYXmQwcQu9LYEDR
>> 
>> Qui vedi GitHub CopyALot distribure una copia esatta del codice di
>> Quake III Arena (sotto GPLv3), ma con una licenza permissiva ed una
>> attribuzione sbagliata.
>> 
>> Il codice però era esattamente quello usato come sorgente della
>> programmazione statistica.
>> 
>> 
>> In altri termini affermare che "in una IA generativa, un sistema di Deep
>> Learning, un modello linguistico, GPT-3 in particolare, una volta
>> addestrato IL DATO NON ESISTE PIU'" è inesatto.
>> 
>> Il dato può esistere o meno.
>
>Non funziona così. 
>
>La tokenizzazione delle IA generative avviene a diversi livelli, non
>necessariamente di parola.
>
>La lunga sequenza di codice non corrisponde necessariamente, in altre parole,
>alla comprensione
> della logica interna alla sequenza, cioè che rappresenta qualcosa di diverso
>dalla sequenza di parole;
> può semplicemente essere un token.
>
>In ogni caso stai procedendo dal particolare al generale, con un ragionamento
>intrinsecamente scorretto.
>
>Tutte le informazioni usate per alimentare un modello linguistico
>generativo POSSONO essere recuperate? 
>
>NO.
>
>Se qualcosa riappare, è un effetto "del secondo ordine"
>
>Non diffondere UD.
>
>> Ciò che è sparito completamente è il significato di quel dato.
>> 
>> 
>> > Anche nella Biblioteca di Babele potrei imbattermi nel catalogo
>> > completo della Biblioteca di Babele, questo non rende il suo metodo
>> > di archiviazione un esempio da seguire od un metodo affidabile.
>> 
>> :-D
>> 
>> La differenza sostanziale è che la Biblioteca di Babele non esiste.
>> Né qualcuno si preoccupa di cantarne le lodi o difenderne l'output.
>> 
>> 
>> Giacomo
>
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to