Buongiorno,

vorrei evidenziare che in questo filone del thread ci si sta
concentrando solo sull'output ma i rilievi del Garante riguardano anche
il training... ed è /precisamente/ su quello che nel caso di ChatGPT e
di tutti gli altri LLM il cui training è stato effettuato con dati
personali senza ottemperare al GDPR (tutti?) non esiste altra soluzione
che rifare il training da zero :-D

Mario Sabatino <[email protected]> writes:

> Ma infatti. Il disclaimer in realtà c'è.
> https://openai.com/policies/terms-of-use

Però mettiamoci d'accordo: i generative LLM hanno un utilizzo pratico o
sono solo generatori di /fiction/?

Perché sono convinto che molte delle discussioni in (anzi di) merito
cesserebbero subito dopo l'handshaking su "fiction" ;-)

> Forse non è scritto a caratteri cubitali ma qualcosa c'è eccome.
>
> V. punti 3 e 5. Non so se questa versione delle condizioni di servizio
> siano precedenti o successive all'intervento del Garante.

Pare ci fossero già e in merito a questo Walter Vannini [1] sostiene:

--8<---------------cut here---------------start------------->8---

Ok, facciamoci una bella risata collettiva. Mi state dicendo che io sono
responsabile dei contenuti, e che però voi li usate per migliorare il
servizio?

Se usi i contenuti per migliorare il servizio, sei responsabile di
quello che fai tanto quanto il tuo cliente che li pubblica, e hai gli
stessi doveri di correttezza, limitazione dello scopo, limitazione della
conservazione eccetera.

--8<---------------cut here---------------end--------------->8---

Facile far sparare cose a caso a una macchina attraverso un servizio web
e _genericamente_ mettere le mani avanti dicendo che non si è
responsabili dei contenuti, eh?

Quindi, per capire: i social media sostengono di essere responsabili dei
contenuti e per questo censurano come non ci fosse un domani e invece
OpenAI di non essere responsabile perché i contenuti sono sparati a caso
da un sistema ML... equesto lo scrive in un documento - che non legge
nessuno - mentre è /letteralmente/ contraddetto da ogni singola
dichiarazione dei massimi dirigenti di OpenAI che _spacciano_ il sistema
come il nuovo oracolo che curerà ogni male del mondo, a partire dalle
cure mediche dei poveri?!?

Il solo e **unico** disclaimer accettabile per qualsiasi modello
generativo basato su LLM o /qualsiasi/ altro sistema di machine learning
che /sintetizza/ frasi che /a caso/ possono anche corrispondere al vero
è quello che compare in tutti i film da «Rasputin e l’imperatrice»
(1934) [2] in poi per pararsi le terga:

--8<---------------cut here---------------start------------->8---

All persons and facts are fictious

--8<---------------cut here---------------end--------------->8---

e questo disclaimer dovrebbe essere obbligatorio IN OGNI SINGOLO output
generato da ogni singolo sistema di "generazione lessicale" basato su
ML... così vediamo chi ha voglia di giocare al giornalista, lo psicologo
o all'endocrinologo usando l'output di tali sistemi :-O

Quindi massima libertà di LLM, ma a condizione che chi ci "fa servizi
sopra" scriva a caratteri cubitali quello che sta /spacciando/, OpanAI
compresa

In merito ai dati riferiti alle persone, poi, Vannini sostiene [1]
che uno dei rilievi del Garante è esattamente questo:

 --8<---------------cut here---------------start------------->8---

Punto terzo, il trattamento risulta inesatto

[...] Posto che qualcuno abbia il diritto di usare i nostri dati è
tenuto a farlo in modo corretto. Perché i dati personali sono sempre
della persona, non di chi li usa.

Ricordo anni fa il caso di un famoso avvocato, che chiameremo Cesare
Maria De Semproniis che citò Telecom Italia perché continuava a ricevere
bollette intestate a C. Maria de Semproniis, cosa che considerava lesiva
della sua immagine. E ovviamente vinse.

Allo stesso modo, chi pubblica informazioni scorrette su di noi è tenuto
a correggerle e, se il garante rileva che non si è trattato di un errore
ma che il problema è di incuria, allora paga pure una sanzione.

--8<---------------cut here---------------end--------------->8---

Se Vannini non ha torto (ha torto?) questo significa che «All persons
and facts are fictious» non sarebbe sufficiante nel caso in cui ChatGPT
scrivesse che una persona reale (magari con tanto di data di nascita e
altri riferimenti personali) è stata condannata per pedofilia, perché
sarebbe comunque diffamazione: o basta un disclaimer per levarsi
dall'impaccio?? (pare di no [3])

Per cinema, TV e radio viene applicato un (complesso?) processo di
"negative checking": https://en.wikipedia.org/wiki/Negative_checking

Anche ChatGPT è fiction, sarebbe ora che applicassero anche loro lo
stato dell'arte dei processi creativi :-D

Saluti, 380°

[...]

[1] 
https://www.agendadigitale.eu/sicurezza/privacy/stop-a-chatgpt-per-fortuna-il-garante-e-vivo-e-lotta-insieme-a-noi/

[2] https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer

[3]
https://www.ilpost.it/2016/08/28/film-ogni-riferimento-persone-esistenti-puramente-casuale/
https://en.wikipedia.org/wiki/All_persons_fictitious_disclaimer#Effectiveness

-- 
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about <https://stallmansupport.org>.

Attachment: signature.asc
Description: PGP signature

_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to