On mar, 2023-04-04 at 06:52 +0200, Guido Vetere wrote:
> > Questo e altro sull'articolo di oggi di Walter Vannini apparso su:
> > https://www.agendadigitale.eu/sicurezza/privacy/stop-a-chatgpt-per-fortuna-
> il-garante-e-vivo-e-lotta-insieme-a-noi/
> 
> Grazie per aver segnalato questo intervento di Walter Vannini, che dopo aver
> perorato la causa del Garante sembra suggerire che basterebbe un buon
> disclaimer per mettere a posto le cose, e ne fornisce un esempio:
>  
> chatGPT genera testo che, a livello sintattico, è inerente alla tua richiesta.
> Questo testo può essere o non essere, in modo del tutto casuale,
> corrispondente al senso che tu attribuisci alle parole che hai usato. Allo
> stesso modo, il testo prodotto da chatGPT può corrispondere o non
> corrispondere a fatti o eventi reali, pur essendo sempre grammaticalmente
> impeccabile e formulato in modo da sembrare autorevole. ChatGPT non possiede,
> per scelta dei suo sviluppatori, alcun concetto di “verità” o alcun modello di
> conoscenza ed è quindi strutturalmente incapace di distinguere il vero dal
> falso. Per questo motivo possiamo dire che chatGPT non mente, perché nel suo
> codice verità e falsità sono indistinguibili, ma si limita a dire stronzate,
> nella definizione del professor Frankfurt, cioè a fare affermazioni del tutto
> plausibili senza alcun vincolo di realtà.
> 
> Tutto questo è corretto, tranne il riferimento alle "stronzate" (bullshit) di
> Frankfurt: queste infatti sono affermazioni capziose pronunciate con intento
> manipolatorio, insomma dietro una "stronzata" c'è sempre uno "stronzo", cioè
> un soggetto dotato di intenzionalità, cosa di cui ChatGPT dichiara onestamente
> di essere privo.

Salve a tutti, 

se è gradito (e ne sono lieto) citare qui DataKnightmare, allora, per chi fosse
interessato, anche Cassandra avrebbe da dire la sua ...

https://medium.com/@calamarim/cassandra-crossing-ia-fabbriche-di-informazioni-false-34823e6110cf

> 
> Ma se è vero che basterebbe presentare sotto la giusta luce il comportamento
> del sistema, non sarà che la "stronzata" diventa allora il provvedimento del
> Garante? E' per il fatto che la società OpenAI è ambigua (e sì, forse anche
> "stronza") nel presentare ChatGPT come potenziale "oracolo" (mi riferisco in
> particolare al lancio di GPT-4) che oggi chi si trova in Italia anche di
> passaggio deve pagare una VPN per farsi generare uno snippet html o farsi dare
> una ricetta di cucina?    
> 
> Buona giornata e grazie a tutti per la discussione.
> 
> Guido
> 
>    
> 
> On Tue, 4 Apr 2023 at 00:53, Giacomo Tesio <[email protected]> wrote:
> > Salve Carlo,
> > 
> > ciò che non è legale per un essere umano, non deve esserlo nemmeno per
> > un automatismo creato o amministrato da un essere umano.
> > Pena la fine dello stato di diritto.
> > 
> > 
> > Ma prima di provare a spiegare cosa non regge della tua analisi, vorrei
> > porti una domanda: perché senti questa urgenza di difendere un software?
> > 
> > Davvero, ti prego di rifletterci e rispondere perché sono sinceramente
> > curioso sui tuoi moventi profondi. E' probabile che mi aiutino a
> > comprendere i miei.
> > 
> > 
> > On Mon, 3 Apr 2023 17:56:41 +0200 Carlo Blengino wrote:
> > 
> > > I dati generati da ChatGPT ed in generale dalle attuali forme di AI
> > > Generativa, anche per immagini come Dall-e, anche quando
> > > apparentemente riferibili ad una persona fisica identificata o
> > > identificabile, *non dovrebbero mai esser considerati dati
> > > personali*, e ciò a prescindere dalla loro verità/falsità o dalla
> > > loro più o meno marcata aderenza alla realtà.
> > > 
> > > Sono dati sintetici che non rappresentano altro se non loro stessi.
> > 
> > Per efficienza, proviamo a partire da due semplici definizioni:
> > 
> > - informazione: esperienza soggettiva di pensiero comunicabile
> > - dato: rappresentazione (su un supporto trasferibile) interpretabile
> >   come informazione da una mente umana
> > 
> > L'informazione esiste solo nelle nostre menti e non esce mai dai nostri
> > crani, ma grazie al linguaggio abbiamo inventato un protocollo che ci
> > permette di sincronizzare le nostre menti, ricreando nella mente del
> > destinatario un informazione analoga (ma mai identica) a quella
> > condivisa da un mittente.
> > 
> > Il dato è una rappresentazione, ovvero (per semplificare) un insieme di
> > simboli che imprimiamo o facciamo imprimere su un supporto trasferibile
> > nello spazio o nel tempo, affinché siano interpretati come informazione
> > da una o più altre menti umane, lontane nello spazio o nel tempo.
> > 
> > Questa definizione, prettamente informatica, di "dato" coincide con la
> > definizione che hai condiviso da un punto di vista giuridico:
> > 
> > > Per comprendere l’affermazione, forse azzardata, è bene definire cosa
> > > è un dato per il diritto: il dato è *una rappresentazione di fatti,
> > > informazioni o concetti*. Il dato informatico è sin dalla Convenzione
> > > di Budapest del 2001 definito come una “presentazione di fatti,
> > > informazioni o concetti in forma suscettibile di essere utilizzata in
> > > un sistema computerizzato…”
> > 
> > Presentazione e rappresentazione sono produzioni umane.
> > 
> > La forma suscettibile di essere utilizzata in un sistema computerizzato
> > è ormai del tutto irrilevante: in qualsiasi forma un'informazione
> > (fatti, informazioni o concetti) venga presentata, è possibile
> > costruire un software in grado di utilizzarla.
> > 
> > Omessa questa specificazione ormai irrilevante, le due definizioni
> > coincidono.
> > 
> > 
> > > Le creazioni di questi sistemi, da quel che ho capito, anche quando
> > > appaiono “dati” personali, rappresentano unicamente loro stessi,
> > > ovvero una sequenza di parole o numeri o di pixels, e null’altro.
> > 
> > L'output di un software è sempre un dato.
> > 
> > Anche una sequenza casuale di simboli è un dato (peraltro estremamente
> > prezioso, se realmente casuale).
> > 
> > Non solo perché rappresenta sempre qualcosa di interpretabile, come
> > minimo, come l'applicazione di un certo numero di trasformazioni ad un
> > certo input.
> > 
> > E' un dato perché è interpretabile dall'uomo secondo il significato che
> > chi ha progettato, realizzato e documentato il software che lo ha
> > prodotto, vuole che gli sia attribuito.
> > 
> > 
> > Nel caso di ChatGPT, tale significato è letteralmente il significato
> > che la tua mente vi attribuisce leggendolo.
> > 
> > Quel software è stato realizzato da qualcuno con la precisa intenzione
> > di far produrre un output che la tua mente interpreti come informazione.
> > 
> > Dunque non solo la tua mente interpreta i dati di quell'output come
> > informazione, ma chi ha realizzato e mantiene in esecuzione quel
> > software è il mittente di quel messaggio, dell'informazione veicolata
> > da quell'output.
> > 
> > 
> > Questo rimane vero qualunque disclaimer Open AI possa mettere
> > all'ingresso dell'applicazione.
> > 
> > 
> > Quello che leggi è e rimane un dato prodotto per conto di qualcuno
> > (Open AI, Microsoft etc...) affinché la tua mente lo riesca ad
> > interpretare come informazione.
> > 
> > Il fatto che nessuno, dentro Open AI, abbia materialmente espresso la
> > sequenza di parole che leggi è irrilevante: hanno espresso il software
> > che lo ha prodotto al loro posto e per loro volontà.
> > 
> > 
> > Sono loro gli autori dell'output di GPT4.
> > 
> > 
> > Se io scrivessi un software che, quando eseguito, produce in output una
> > poesia come combinazione di una serie di versi che io ho scritto, tu
> > non avresti problemi (credo) a riconoscere in me sia l'autore del
> > software che l'autore dell'opera prodotta dal software stesso.
> > 
> > E questo rimarrebbe vero se anche la sequenza prodotta non
> > corrispondesse (magari a causa di un bug) a quella che io avevo in
> > mente durante la scrittura del software.
> > 
> > E se le sequenze possibili fossero N, tutte previste dal mio codice,
> > non avresti comunque problema a riconoscere me sia come autore del
> > software sia come autore delle opere da esso prodotte in output.
> > 
> > Il software, di fatto, sarebbe una forma compressa di quelle
> > N opere in output.
> > 
> > 
> > Con ChatGPT è esattamente la stessa cosa.
> > L'unica differenza è che nessuno si vuole assumere la responsabilità di
> > quell'output perché chi l'ha programmato non si è preoccupato delle
> > conseguenze e degli errori.
> > 
> > 
> > Ora, appurato che l'output di ChatGPT è un dato (in quanto
> > rappresentazione INTERPRETABILE come informazione) dobbiamo chiarire se
> > possa essere un dato personale.
> > 
> > In questo caso, come già chiarito da Benedetto Ponti, se il dato fa
> > riferimento (ovvero può essere interpretato da una mente umana come
> > facente riferimento) ad una persona fisica identifica o identificabile,
> > allora è un dato personale.
> > 
> > Che sia vero, falso o NULL (con un valore di verità ignoto al lettore)
> > è irrilevante: quel dato produce nella mente di chi lo legge
> > un'informazione riferita ad una persona.
> > 
> > 
> > Tale persona, va protetta.
> > 
> > Il fatto che ChatGPT non abbia intenzionalità è irrilevante: è uno
> > strumento creato da persone con intenzioni precise, e attua
> > costantemente tali intenzioni.
> > 
> > 
> > Dunque, non dobbiamo proteggere le persone da ChatGPT, ma da chi lo ha
> > creato e lo controlla.
> > 
> > In un mondo in cui un software sufficientemente opaco può violare i
> > diritti delle persone, chi li può produrre e controllare sarebbe 
> > sempre al di sopra della legge.
> > 
> > 
> > Scaricare la responsabilità delle violazioni del diritto d'autore o del
> > diritto alla protezione dei dati personali sugli utilizzatori del
> > software è veramente ridicolo.
> > 
> > Il loro contributo alla produzione dell'output è quasi irrilevante se
> > confrontato con l'enorme lavoro di programmazione statistica e l'enorme
> > quantità di dati e di energia utilizzati per la produzione del software
> > e del suo output. Output che, non dimentichiamolo, riproduce
> > token/lemmi/parole presenti nel proprio enorme "binario matriciale".
> > 
> > 
> > > Trovo invece un po’ folle pensare di attenzionare le risposte
> > > sbagliate, attribuendo a quei non-dati uno status di tutela che, a
> > > mio giudizio, allo stato dell’arte, non dovrebbero avere.
> > 
> > No attenzione: gli output contenenti dati personali (veri o falsi che
> > siano) sono solo uno dei problemi.
> > 
> > C'è l'utilizzo di dati personali durante la programmazione statistica
> > senza un esplicito permesso degli interessati nonché la pretesa
> > impossibilità di esercitare il diritto ad eliminare quei dati dal
> > modello (impossibilità che non esiste: basta rifare la programmazione
> > statistica senza, per quanto costoso possa essere) o l'impossibilità di
> > emendare dati errati.
> > 
> > Un software che non possa strutturalmente rispettare i diritti umani
> > semplicemente non va eseguito.
> > 
> > 
> > > Ultima annotazione: l’uso di dati falsi, inesatti o le lesioni ad
> > > onore e reputazione legati all’uso di informazioni comunque ottenute
> > > da quegli artefatti sono tutte condotte adeguatamente presidiate
> > > dall’ordinamento. Assai più preoccupante e poco presidiata la folle
> > > corsa alle API ed all’utilizzo di quei sistemi per automatizzare
> > > processi diversi come search...vedremo.
> > 
> > 
> > Una volta che l'output è prodotto, l'uso che chi lo riceve ne fa è
> > presidiato, siamo d'accordo. Mal presidiato, ma presidiato.
> > 
> > Ma qui non stiamo parlando di questo: stiamo parlando di ciò che
> > ChatGPT fa per conto di chi lo ha realizzato e lo amministra.
> > 
> > ChatGPT (e GPT4) è un software che qualcuno esegue.
> > 
> > 
> > Se bastasse introdurre un software per non rispondere di un reato,
> > allora non dovremmo rispondere di qualsiasi violazione del diritto
> > d'autore perché la rimozione delle ridicole restrizioni imposte dal DRM
> > viene sempre fatto da un software.
> > 
> > O ancora, la pubblicazione di dati personali sottratti ad un individuo
> > su un sito web non dovrebbe costituire un reato perché il server web
> > che li distribuisce è un software che li produce in output per mio conto
> > esattamente come ChatGPT produce output le sue risposte per conto di
> > Open AI.
> > 
> > 
> > Per questo la tua argomentazione non regge Carlo.
> > 
> > 
> > Ciò che non è legale per un essere umano, non deve esserlo nemmeno per
> > un automatismo creato o amministrato da un essere umano.
> > 
> > Pena la fine dello stato di diritto.
> > 
> > 
> > 
> > Giacomo
> > _______________________________________________
> > nexa mailing list
> > [email protected]
> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> _______________________________________________
> nexa mailing list
> [email protected]
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to