On mar, 2023-04-04 at 06:52 +0200, Guido Vetere wrote: > > Questo e altro sull'articolo di oggi di Walter Vannini apparso su: > > https://www.agendadigitale.eu/sicurezza/privacy/stop-a-chatgpt-per-fortuna- > il-garante-e-vivo-e-lotta-insieme-a-noi/ > > Grazie per aver segnalato questo intervento di Walter Vannini, che dopo aver > perorato la causa del Garante sembra suggerire che basterebbe un buon > disclaimer per mettere a posto le cose, e ne fornisce un esempio: > > chatGPT genera testo che, a livello sintattico, è inerente alla tua richiesta. > Questo testo può essere o non essere, in modo del tutto casuale, > corrispondente al senso che tu attribuisci alle parole che hai usato. Allo > stesso modo, il testo prodotto da chatGPT può corrispondere o non > corrispondere a fatti o eventi reali, pur essendo sempre grammaticalmente > impeccabile e formulato in modo da sembrare autorevole. ChatGPT non possiede, > per scelta dei suo sviluppatori, alcun concetto di “verità” o alcun modello di > conoscenza ed è quindi strutturalmente incapace di distinguere il vero dal > falso. Per questo motivo possiamo dire che chatGPT non mente, perché nel suo > codice verità e falsità sono indistinguibili, ma si limita a dire stronzate, > nella definizione del professor Frankfurt, cioè a fare affermazioni del tutto > plausibili senza alcun vincolo di realtà. > > Tutto questo è corretto, tranne il riferimento alle "stronzate" (bullshit) di > Frankfurt: queste infatti sono affermazioni capziose pronunciate con intento > manipolatorio, insomma dietro una "stronzata" c'è sempre uno "stronzo", cioè > un soggetto dotato di intenzionalità, cosa di cui ChatGPT dichiara onestamente > di essere privo.
Salve a tutti, se è gradito (e ne sono lieto) citare qui DataKnightmare, allora, per chi fosse interessato, anche Cassandra avrebbe da dire la sua ... https://medium.com/@calamarim/cassandra-crossing-ia-fabbriche-di-informazioni-false-34823e6110cf > > Ma se è vero che basterebbe presentare sotto la giusta luce il comportamento > del sistema, non sarà che la "stronzata" diventa allora il provvedimento del > Garante? E' per il fatto che la società OpenAI è ambigua (e sì, forse anche > "stronza") nel presentare ChatGPT come potenziale "oracolo" (mi riferisco in > particolare al lancio di GPT-4) che oggi chi si trova in Italia anche di > passaggio deve pagare una VPN per farsi generare uno snippet html o farsi dare > una ricetta di cucina? > > Buona giornata e grazie a tutti per la discussione. > > Guido > > > > On Tue, 4 Apr 2023 at 00:53, Giacomo Tesio <[email protected]> wrote: > > Salve Carlo, > > > > ciò che non è legale per un essere umano, non deve esserlo nemmeno per > > un automatismo creato o amministrato da un essere umano. > > Pena la fine dello stato di diritto. > > > > > > Ma prima di provare a spiegare cosa non regge della tua analisi, vorrei > > porti una domanda: perché senti questa urgenza di difendere un software? > > > > Davvero, ti prego di rifletterci e rispondere perché sono sinceramente > > curioso sui tuoi moventi profondi. E' probabile che mi aiutino a > > comprendere i miei. > > > > > > On Mon, 3 Apr 2023 17:56:41 +0200 Carlo Blengino wrote: > > > > > I dati generati da ChatGPT ed in generale dalle attuali forme di AI > > > Generativa, anche per immagini come Dall-e, anche quando > > > apparentemente riferibili ad una persona fisica identificata o > > > identificabile, *non dovrebbero mai esser considerati dati > > > personali*, e ciò a prescindere dalla loro verità/falsità o dalla > > > loro più o meno marcata aderenza alla realtà. > > > > > > Sono dati sintetici che non rappresentano altro se non loro stessi. > > > > Per efficienza, proviamo a partire da due semplici definizioni: > > > > - informazione: esperienza soggettiva di pensiero comunicabile > > - dato: rappresentazione (su un supporto trasferibile) interpretabile > > come informazione da una mente umana > > > > L'informazione esiste solo nelle nostre menti e non esce mai dai nostri > > crani, ma grazie al linguaggio abbiamo inventato un protocollo che ci > > permette di sincronizzare le nostre menti, ricreando nella mente del > > destinatario un informazione analoga (ma mai identica) a quella > > condivisa da un mittente. > > > > Il dato è una rappresentazione, ovvero (per semplificare) un insieme di > > simboli che imprimiamo o facciamo imprimere su un supporto trasferibile > > nello spazio o nel tempo, affinché siano interpretati come informazione > > da una o più altre menti umane, lontane nello spazio o nel tempo. > > > > Questa definizione, prettamente informatica, di "dato" coincide con la > > definizione che hai condiviso da un punto di vista giuridico: > > > > > Per comprendere l’affermazione, forse azzardata, è bene definire cosa > > > è un dato per il diritto: il dato è *una rappresentazione di fatti, > > > informazioni o concetti*. Il dato informatico è sin dalla Convenzione > > > di Budapest del 2001 definito come una “presentazione di fatti, > > > informazioni o concetti in forma suscettibile di essere utilizzata in > > > un sistema computerizzato…” > > > > Presentazione e rappresentazione sono produzioni umane. > > > > La forma suscettibile di essere utilizzata in un sistema computerizzato > > è ormai del tutto irrilevante: in qualsiasi forma un'informazione > > (fatti, informazioni o concetti) venga presentata, è possibile > > costruire un software in grado di utilizzarla. > > > > Omessa questa specificazione ormai irrilevante, le due definizioni > > coincidono. > > > > > > > Le creazioni di questi sistemi, da quel che ho capito, anche quando > > > appaiono “dati” personali, rappresentano unicamente loro stessi, > > > ovvero una sequenza di parole o numeri o di pixels, e null’altro. > > > > L'output di un software è sempre un dato. > > > > Anche una sequenza casuale di simboli è un dato (peraltro estremamente > > prezioso, se realmente casuale). > > > > Non solo perché rappresenta sempre qualcosa di interpretabile, come > > minimo, come l'applicazione di un certo numero di trasformazioni ad un > > certo input. > > > > E' un dato perché è interpretabile dall'uomo secondo il significato che > > chi ha progettato, realizzato e documentato il software che lo ha > > prodotto, vuole che gli sia attribuito. > > > > > > Nel caso di ChatGPT, tale significato è letteralmente il significato > > che la tua mente vi attribuisce leggendolo. > > > > Quel software è stato realizzato da qualcuno con la precisa intenzione > > di far produrre un output che la tua mente interpreti come informazione. > > > > Dunque non solo la tua mente interpreta i dati di quell'output come > > informazione, ma chi ha realizzato e mantiene in esecuzione quel > > software è il mittente di quel messaggio, dell'informazione veicolata > > da quell'output. > > > > > > Questo rimane vero qualunque disclaimer Open AI possa mettere > > all'ingresso dell'applicazione. > > > > > > Quello che leggi è e rimane un dato prodotto per conto di qualcuno > > (Open AI, Microsoft etc...) affinché la tua mente lo riesca ad > > interpretare come informazione. > > > > Il fatto che nessuno, dentro Open AI, abbia materialmente espresso la > > sequenza di parole che leggi è irrilevante: hanno espresso il software > > che lo ha prodotto al loro posto e per loro volontà. > > > > > > Sono loro gli autori dell'output di GPT4. > > > > > > Se io scrivessi un software che, quando eseguito, produce in output una > > poesia come combinazione di una serie di versi che io ho scritto, tu > > non avresti problemi (credo) a riconoscere in me sia l'autore del > > software che l'autore dell'opera prodotta dal software stesso. > > > > E questo rimarrebbe vero se anche la sequenza prodotta non > > corrispondesse (magari a causa di un bug) a quella che io avevo in > > mente durante la scrittura del software. > > > > E se le sequenze possibili fossero N, tutte previste dal mio codice, > > non avresti comunque problema a riconoscere me sia come autore del > > software sia come autore delle opere da esso prodotte in output. > > > > Il software, di fatto, sarebbe una forma compressa di quelle > > N opere in output. > > > > > > Con ChatGPT è esattamente la stessa cosa. > > L'unica differenza è che nessuno si vuole assumere la responsabilità di > > quell'output perché chi l'ha programmato non si è preoccupato delle > > conseguenze e degli errori. > > > > > > Ora, appurato che l'output di ChatGPT è un dato (in quanto > > rappresentazione INTERPRETABILE come informazione) dobbiamo chiarire se > > possa essere un dato personale. > > > > In questo caso, come già chiarito da Benedetto Ponti, se il dato fa > > riferimento (ovvero può essere interpretato da una mente umana come > > facente riferimento) ad una persona fisica identifica o identificabile, > > allora è un dato personale. > > > > Che sia vero, falso o NULL (con un valore di verità ignoto al lettore) > > è irrilevante: quel dato produce nella mente di chi lo legge > > un'informazione riferita ad una persona. > > > > > > Tale persona, va protetta. > > > > Il fatto che ChatGPT non abbia intenzionalità è irrilevante: è uno > > strumento creato da persone con intenzioni precise, e attua > > costantemente tali intenzioni. > > > > > > Dunque, non dobbiamo proteggere le persone da ChatGPT, ma da chi lo ha > > creato e lo controlla. > > > > In un mondo in cui un software sufficientemente opaco può violare i > > diritti delle persone, chi li può produrre e controllare sarebbe > > sempre al di sopra della legge. > > > > > > Scaricare la responsabilità delle violazioni del diritto d'autore o del > > diritto alla protezione dei dati personali sugli utilizzatori del > > software è veramente ridicolo. > > > > Il loro contributo alla produzione dell'output è quasi irrilevante se > > confrontato con l'enorme lavoro di programmazione statistica e l'enorme > > quantità di dati e di energia utilizzati per la produzione del software > > e del suo output. Output che, non dimentichiamolo, riproduce > > token/lemmi/parole presenti nel proprio enorme "binario matriciale". > > > > > > > Trovo invece un po’ folle pensare di attenzionare le risposte > > > sbagliate, attribuendo a quei non-dati uno status di tutela che, a > > > mio giudizio, allo stato dell’arte, non dovrebbero avere. > > > > No attenzione: gli output contenenti dati personali (veri o falsi che > > siano) sono solo uno dei problemi. > > > > C'è l'utilizzo di dati personali durante la programmazione statistica > > senza un esplicito permesso degli interessati nonché la pretesa > > impossibilità di esercitare il diritto ad eliminare quei dati dal > > modello (impossibilità che non esiste: basta rifare la programmazione > > statistica senza, per quanto costoso possa essere) o l'impossibilità di > > emendare dati errati. > > > > Un software che non possa strutturalmente rispettare i diritti umani > > semplicemente non va eseguito. > > > > > > > Ultima annotazione: l’uso di dati falsi, inesatti o le lesioni ad > > > onore e reputazione legati all’uso di informazioni comunque ottenute > > > da quegli artefatti sono tutte condotte adeguatamente presidiate > > > dall’ordinamento. Assai più preoccupante e poco presidiata la folle > > > corsa alle API ed all’utilizzo di quei sistemi per automatizzare > > > processi diversi come search...vedremo. > > > > > > Una volta che l'output è prodotto, l'uso che chi lo riceve ne fa è > > presidiato, siamo d'accordo. Mal presidiato, ma presidiato. > > > > Ma qui non stiamo parlando di questo: stiamo parlando di ciò che > > ChatGPT fa per conto di chi lo ha realizzato e lo amministra. > > > > ChatGPT (e GPT4) è un software che qualcuno esegue. > > > > > > Se bastasse introdurre un software per non rispondere di un reato, > > allora non dovremmo rispondere di qualsiasi violazione del diritto > > d'autore perché la rimozione delle ridicole restrizioni imposte dal DRM > > viene sempre fatto da un software. > > > > O ancora, la pubblicazione di dati personali sottratti ad un individuo > > su un sito web non dovrebbe costituire un reato perché il server web > > che li distribuisce è un software che li produce in output per mio conto > > esattamente come ChatGPT produce output le sue risposte per conto di > > Open AI. > > > > > > Per questo la tua argomentazione non regge Carlo. > > > > > > Ciò che non è legale per un essere umano, non deve esserlo nemmeno per > > un automatismo creato o amministrato da un essere umano. > > > > Pena la fine dello stato di diritto. > > > > > > > > Giacomo > > _______________________________________________ > > nexa mailing list > > [email protected] > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > _______________________________________________ > nexa mailing list > [email protected] > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________ nexa mailing list [email protected] https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
