Caro Guido, 

credo che questo tuo messaggio sia veramente emblematico.

On Sun, 16 Apr 2023 17:14:15 +0200 Guido Vetere wrote:
> Bisognerebbe smetterla di ragionare su quello che ChatGPT dovrebbe
> essere o ci piacerebbe che fosse (in sostanza: il front-end di una
> base di conoscenza editabile, come d'altronde ce ne sono tanti) e
> ragionare invece su quello che è, su come usarlo e con quali cautele,
> sul non usarlo e perché, o sulla opportunità giuridica di impedire
> del tutto il suo uso. Insomma, nel '900 qualcuno avrebbe potuto
> chiedere, o addirittura esigere, che le autovetture fossero
> alimentate a biada, offuscando però il dibattito sulla necessità di
> installare semafori in città. Questo è il pericolo che vedo nella
> posizione del Garante italiano. E' ovvio che siamo tutti a disagio
> davanti al fatto che la conoscenza globale collassi in un solo
> sistema proprietario, e per di più *intrinsecamente* allucinato.
> Ma questo sistema è lì così com'è, e più che levare contro di esso
> grida manzoniane, dovremo pensare seriamente a come farci i conti.


La "posizione" del Garante italiano è semplice e chiara:
la Legge è uguale per tutti.

Niente di più (purtroppo) e niente di meno.


Se un software viene scritto ed amministrato per interagire con esseri
umani rispondendo a domande e richieste di questi ultimi, chi ha
scritto ed esegue quel software deve rispondere del suo output
esattamente come se lo avesse scritto personalmente.


Tentare di eludere o aggirare questa responsabilità offende
l'intelligenza di chi legge (o ne sfrutta l'ignoranza).


Il funzionamento interno di un LLM, le cautele necessarie nel suo
impiego, l'opportunità di vietarlo del tutto... sono tutte questioni
interessanti, ciascuna delle quali potrebbe meritare un thread a sé.


MA sono tutte questioni SECONDARIE rispetto alla questione fondamentale.

La Legge deve rimanere uguale per tutti.


A nessuno può essere concesso alcun salvacondotto, alcuna immunità,
solo per aver impiegato, nel violarla, un automatismo di qualsivoglia
natura.


Se siamo d'accordo su questo, benissimo!

Allora Open AI deve rispondere di ogni eventuale inesattezza
nell'output di Chat GPT e deve trovare il modo di garantire la
possibilità di rettificare EFFICACEMENTE qualsiasi errore e 
(se basa i trattamenti di dati personali sul legittimo interesse)
deve garantire a ciascuno la possibilità di fare opt-out, rimuovendo
tutti i contenuti che lo riguardano e rieseguendo la programmazione
statistica (il "training", secondo la vulgata antropomorfica).


Se non siamo d'accordo, possiamo discuterne apertamente!

Mi piacerebbe molto sentire una chiara argomentazione a favore
dell'immunità dalla Legge per coloro che la violano tramite automatismi.

Magari mi convinci pure!


In fondo a me basta che valga per tutti.
Hacker inclusi! ;-)


Ciò che però ti chiederei è di evitare argomenti fantoccio.


Discutiamo nel merito.


Giacomo
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to