Caro Fabio,

in Italia abbiamo ancora diverse Leggi che si applicano al CdA di OpenAI
checché dicano i Termini del Servizio.

On Wed, Aug 30, 2023 at 08:48:00AM +0200, Fabio Alemagna wrote:
> Il mer 30 ago 2023, 08:44 Giacomo Tesio <giac...@tesio.it> ha scritto:
> 
> > Chi ha eseguito il software programmato statisticamente (il CdA di
> > OpenAI/Microsoft etc...)
> > è responsabile delle morti causate dall'errata interpretazione di quella
> > sequenza di caratteri
> > come un "testo" portatore di sognificato.
> >
> > Tale responsabilità deriva dalla scelta di realizzare e mantenere in
> > esecuzione
> > un software progettato per ingannare chi lo usa imitando il testo prodotto
> > da un essere umano.
> 
> Puoi cortesemente elencare le leggi a cui fai riferimento, evidentemente
> non Italiane, e possibilmente la giurisprudenza in materia?

Elencarle tutte va oltre il tempo che ti posso dedicare, ma se vuoi le
trovi elencate tutte nel Codice Penale.

Giusto a titolo d'esempio, in Italia chiunque cagiona per colpa la
morte di una persona è punito con la reclusione da sei mesi a cinque
anni (art. 589(1))


In generale, il reato è (e deve restare) ortogonale allo strumento
utilizzato per compierlo.


Prendi l'istigazione al suicidio: se il presidente di OpenAI lo 
commettesse scrivendo su una chat ad un minore di 14 anni, verrebbe
punito come omicida (vedi art. 580(2)).

Se anche la chat fosse controllata da un software che lo stesso Presidente 
ha scritto (o fatto scrivere) nonché deciso di eseguire e connettere 
alla chat con il minore suddetto, dovrebbe risponderne negli stessi termini.


Se così non fosse, sarebbe sufficiente usare un software (programmato
statisticamente o meno) per violare impunemente qualsiasi Legge.

In altri termini, verrebbe meno il principio di uguaglianza di fronte
alla Legge dei cittadini che, sempre in Italia, è ancora un Principio
Fondamentale della nostra Costituzione (vedi articolo 3).

E con esso, verrebbe meno la legittimità dello Stato.


Dunque, ribadisco: se indurre al suicidio tramite l'ingestione di funghi
velenosi una persona costituisce un reato in Italia (credo e spero di
sì) allora, se un chatbot ha prodotto un output interpretabile in tal
modo, chi ha eseguito ed inviato ad un utente ignaro tale output ne deve
rispondere nello stesso modo in cui ne risponderebbe se quel messaggio
l'avesse scritto di proprio pugno.


Nessuno ti obbliga ad eseguire un software.
Nessuno ti obbliga a pubblicare il suo output sul tuo sito in risposta
al "prompt" di sprovveduti allucinati cui hai fatto credere di
conversare con chissà quale "intelligenza aliena".

Se non vuoi rispondere dei danni che può causare, basta spegnerlo.

Se non lo spegni, accetti di rispondere del suo output.


E' veramente semplicissimo! ;-)


A presto!


Giacomo

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to