ROTFL! :-D

Il 16 Luglio 2023 21:22:09 UTC, Fabio Alemagna <falem...@gmail.com> ha scritto:
>Con rispetto parlando, non ritengo sia utile a nessuno rispondere ad
>argomentazioni che reputo fantagiuridiche e fantainformatiche.

Un fantargomento inconfuntabile!  :-D


Giacomo

PS questa lista è piena di persone straordinariamente competenti sia su un 
piano 
   giuridico che informatico.

   Dunque se puoi dimostrare l'erroneità degli argomenti che ho proposto, credo 
che 
   sarebbe di grande interesse per molti (me incluso).

   Se non puoi, non importa. 
   Ma non offenderti se daremo ai tuoi argomenti lo stesso peso di ogni altro 
fantasma. ;-)




>On Sun, Jul 16, 2023, 21:21 Giacomo Tesio <giac...@tesio.it> wrote:
>
>> Ciao Fabio,
>>
>> Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falem...@gmail.com> ha
>> scritto:
>> >Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio
>> ><giac...@tesio.it> ha scritto:
>> >> > se io mettessi online un generatore di
>> >> > frasi casuali, ma di senso compiuto, che  prendessero spunto
>> >> > dall'input dell'utente, e se l'input dell'utente fosse il nome e
>> >> > cognome di una persona esistente, e se il software generasse,
>> >> > casualmente, frasi potenzialmente diffamatorie per quella persona
>> >> > [...] il responsabile dell'eventuale diffamazione sarei io
>> >>
>> >> Certo!
>> >>
>> >> Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale
>> >> diffamazione sei ovviamente tu!
>> >
>> >Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno,
>> >se quel nome e cognome neanche esistono all'interno del data base che
>> >quel sito utilizza, non posso IO essere responsabile.
>>
>> Non saresti responsabile se il software che hai scritto, a fronte di una
>> richiesta relativa ad una
>> persona non presente sul tuo database rispondesse sempre: "non dispongo di
>> infornazioni sull'argomento richiesto".
>>
>> Se invece fornisce un output che una mente umana interpreta come
>> informazione,
>> alloravdi quell'output DEVI ovviamente rispondere.
>>
>>
>> E la ragione è semplicissima: il tuo software automatizza ciò che faresti
>> tu.
>>
>>
>> Nel caso di un chatbot è evidente: se il sito permettesse di chattare con
>> te e tu
>> diffamassi qualcuno, ne dovresti rispondere.
>>
>> Se bastasse (dichiarare di) aver usato un automatismo per non rispondere
>> di un reato
>> avremmo una abrogazione di fatto del diritto penale.
>>
>>
>>
>> >> Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
>> >
>> >Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM.
>> >Quello è un input fornito dall'utente, che fa partire un'inferenza,
>> >che produce un output che potrà a sua volta contenere contenere
>> >quell'input *fornito dall'utente*.
>>
>> E davvero credi che qualcuni non l'abbia capito?
>>
>> L'utente è responsabile per ciò che scrive (l'input).
>>
>>
>> Ma poiché non scrive il software che elabora tale e non ne pubblica
>> l'output, non può
>> essere considerato in alcun modo responsabile di tale output.
>>
>>
>> Le responsabilità sono chiarissime e ben ripartite.
>>
>>
>> > Ciò avviene sulla base di un
>> >algoritmo che tenta di prevedere quale "token" (tipicamente una
>> >sillaba) è più probabile che segua i token forniti in precedenza
>> >dall'utente e quelli generati dall'algoritmo stesso, sulla base dei
>> >*pattern* che sono stati estratti dai testi su cui la rete neurale è
>> >stata istruita, con un pizzico di randomness aggiunta.
>>
>> Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto
>> confuso.
>>
>> Ad esempio la programmazione statistica non "estrae pattern" ma produce un
>> software che
>> riproduce _possibili_ correlazioni statistiche presenti nell'input, senza
>> comprenderne
>> la rilevanza, il significato o le relazioni.
>>
>> Correlazioni che da un lato possono essere del tutto casuali e dall'altro
>> possono essere imposte
>> dai programmatori selezionando i dati da utilizzare durante la
>> programmazione statistica.
>>
>>
>> >A seconda di quanto corretti e quanti fossero i dati su cui la rete
>> >neurale è stata istruita, il risultato sarà più o meno accurato in
>> >termini di lessico e esattezza.
>> >
>> >L'esattezza non è garantita, è solo più o meno probabile.
>>
>> Not even wrong.
>>
>> L'output non può essere "giusto" o "sbagiato" se non ha un significato.
>>
>> Se ha un significato, tale significato presuppone almeno un agente che
>> voglia comunicarlo
>> esprimendolo attraverso un significante costituito da simboli.
>>
>> In questo caso l'agente in questione è costituito dalle persone che hanno
>> realizzato e mantengono operativo ChatGPT che è una loro espressione,
>> ovvero OpenAI.
>>
>> Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone:
>> senza il loro lavoro,
>> il loro hardware e la corrente che pagano, non scriverebbe alcunché.
>>
>> Il fatto che l'output prodotto sia interpretabile da un essere umano come
>> vero ("esatto") o
>> falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e
>> dunque della sua responsabilità.
>>
>> Se non vuole assumersi la responsabilità del significato attribuibile
>> all'output del proprio
>> software, OpenAI ha una sola cosa da fare: spegnerlo.
>>
>>
>> >In ogni caso, l'output dipende dall'input, e l'input lo ha fornito
>> l'utente.
>>
>> In misura trascurabile.
>>
>> L'output di un software è sempre determinato da 3 fattori:
>>
>> - input
>> - stato iniziale
>> - struttura logica del software
>>
>> Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun
>> componente sull'output, dovremmo misurare i bit di entropia dell'input,
>> quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i
>> diversi token etc... quello che banalizzando hai definito il "database") e
>> i bit di entropia impressi nel software nella sua interezza.
>>
>> Come penso anche tu possa intuire se sai anche solo vagamente di cosa
>> stiamo parlando,
>> il peso percentuale dell'input è dell'ordine di 0,00...01
>>
>>
>> Naturalmente questa attribuzione di responsabilità sarebbe comunque
>> irrazionale ed ingiusta:
>> nessuno costringe OpenAI a includere parti dell'input nell'output, per cui
>> deve rispondere
>> ANCHE di tale inclusione.
>>
>> La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.
>>
>>
>>
>> >Ho già più volte documentato come in molti casi  interpretati come
>> >"diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
>> >la persona
>>
>> Hai scoperto l'acqua calda, Fabio.
>>
>> ChatGPT non sa nulla! ;-)
>>
>>
>> OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il
>> contrario.
>>
>>
>> Giacomo
>>
>>
_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to