Era inevitabile la parola, primo artefatto prima tecnologia?
E' evitabile il digitale?
Con l'imbarazzo di trovarmi in una posizione diversa da "tanti" nomi,
nell'argomento trovo poca utilità, è arrivata la parola, il digitale ed
altro, in sostanza "attrezzi" la cui direzione è nostra responsabilità.
L'attrezzo nuovo, il digitale, conquista funzioni umane in numero e qualità
crescenti, potrebbe incidere in profondità nel nostro (modo di) essere,
fondamentalmente erodendo l'autonomia della nostra facoltà critica che è la
caratteristica che distingue l'umano.
Vedendo, temendo questa erosione spero di sbagliare.
Sono ottimi molti suggerimenti che ho letto in listaNexa, praticamente
tutti, ma - convinzione mia - l'unico rimedio radicale è rendere
completamente verificabile e riproducibile l'intero processo di
programmazione.
... se di fatto (parte de) il digitale ha l'efficacia imperativa di una
legge
... quando il digitale non è conoscibile ci troviamo in una situazione di
inconoscibilità della regola.
E' una situazione scomoda, andava evitata, va avversata.
Grazie per quanto mi insegnate.
Duccio (Alessandro Marzocchi)

Il giorno gio 13 apr 2023 alle ore 21:29 <[email protected]>
ha scritto:

> Send nexa mailing list submissions to
>         [email protected]
>
> To subscribe or unsubscribe via the World Wide Web, visit
>         https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> or, via email, send a message with subject or body 'help' to
>         [email protected]
>
> You can reach the person managing the list at
>         [email protected]
>
> When replying, please edit your Subject line so it is more specific
> than "Re: Contents of nexa digest..."
>
>
> Today's Topics:
>
>    1. Re: ChatGPT disabled for users in Italy (alessandro marzocchi)
>    2. Re: ChatGPT disabled for users in Italy (Stefano Quintarelli)
>    3. The principle of technological inevitability [era: ChatGPT
>       disabled for users in Italy] (Daniela Tafani)
>
>
> ----------------------------------------------------------------------
>
> Message: 1
> Date: Thu, 13 Apr 2023 20:02:14 +0200
> From: alessandro marzocchi <[email protected]>
> To: [email protected], [email protected]
> Subject: Re: [nexa] ChatGPT disabled for users in Italy
> Message-ID:
>         <CAG5xczfJnpbhJ=
> [email protected]>
> Content-Type: text/plain; charset="utf-8"
>
> Puoi inviare il link alla proposta di legge cui ti riferisci?
> Cosa intendi, a cosa riferisci "penso che questo sia una sorta di
> inevitabilismo"?
> Grazie e cordialità.
> Duccio (Alessandro Marzocchi)
>
>
> Date: Thu, 13 Apr 2023 17:53:56 +0200
> > From: Stefano Quintarelli <[email protected]>
> > penso che questo sia una sorta di inevitabilismo
> > quando ho fatto la mia PDL su device neutrality (arrivata in italia ad un
> > voto
> > dall'approvazione, come qualcuno di voi ricordera') ho toccato con mano
> la
> > paura che
> > costoro avevano.
> > in una lunga e spiacevole riunione con un capo delle relazioni
> > istituzionali a Bruxelles
> > mi fu prospettato per il post parlamento un futuro radioso per competenze
> > come le mie, in
> > silicon valley.
> > si spesero molto in lobby per fare in modo che l'ultimo voto non
> arrivasse
> > mai.
> > il potere dello stato e' grande e per loro era un forte rischio, tanto da
> > spendersi
> > cospicuamente in lobby.
> > il voto finale al senato non arrivo' mai, termino' la legislatura.
> > pero' le mie previsioni sono finite nel digital markets act.
> > ciao, s.
> >
> > On 13/04/23 17:14, alessandro marzocchi wrote:
> > > A me pare che lo stato di diritto sia in forte crisi avviata prima
> > ancora della
> > > transizione digitale, quest'ultima la accentua e potrebbe dargli il
> > colpo finale.
> > > [Qual'è il potere di un stato (Italia, ma anche Cina, Ue, Usa) di
> fronte
> > alla "fattualità"
> > > dei colossi digitali? Parafrasando Manzoni, parlerei di "grida" che
> > inutilmente cercano di
> > > arginare i fatti]
> > > Con questi timori si deve insistere per rendere completamente
> > verificabile e riproducibile
> > > l'intero processo di programmazione.
> > > Cordialmente
> > > Duccio (Alessandro Marzocchi)
> > >
> > >     Date: Thu, 13 Apr 2023 10:49:17 +0000
> > >     From: Giacomo Tesio <[email protected] <mailto:[email protected]>>
> > >     To: Guido Vetere <[email protected] <mailto:
> > [email protected]>>, 380°
> > >     <[email protected] <mailto:[email protected]>>
> > >     Il 12 Aprile 2023 14:28:03 UTC, Guido Vetere <
> [email protected]
> > >     <mailto:[email protected]>> ha scritto:
> > >      >Giacomo,
> > >      >anche il LM più puri usati per il più innocente task di
> > classificazione
> > >      >potrebbero essere stati addestrati con dati ottenuti senza il
> > consenso
> > >      >esplicito di chi li ha condivisi, dunque in violazione del GDPR.
> > >      >Che vogliamo fare?
> > >
> > >     Nella peggiore delle ipotesi, quello che si fa con l'Eternit, per
> > esempio.
> > >     Possibilmente prima che faccia troppi danni alle persone e alla
> > società.
> > >     Però la questione che poni sul dataset usato per la programmazione
> > statistica ha una
> > >     soluzione
> > >     estremamente semplice.
> > >     Basta imporre che tutti i dataset utilizzati durante la
> > programmazione statistica
> > >     ("training" nella vulgata), inclusi quelli usati per la cross
> > validation e il test,
> > >     nonché tutti gli
> > >     altri dati necessari a riprodurre esattamente il processo ed
> > ottenere esattamente il
> > >     modello
> > >     in produzione (e le sue alternative scartate), siano preservati per
> > tutta la durata
> > >     della sua permanenza in produzione e diciamo 20 anni dopo (in caso
> > di aggiornamento). [1]
> > >     Rendendo verficabilmente e completamente riproducibile il processo
> > di programmazione
> > >     statistica, Open AI (come chiunque altro) potrà facilmente
> > dimostrare di non aver
> > >     utilizzato dati
> > >     ottenuti in violazione di qualsisi Legge.
> > >     Più costoso (ma spesso possibile) sarà dimostrare che la selezione
> > del dataset
> > >     o il processo di programnazione utilizzato non abbia prodotto
> > specifiche discriminazioni.
> > >     Molto più complesso e costoso, dimostrare di non aver voluto
> imporre
> > al modello alcuna
> > >     discriminazione intenzionale.
> > >     Tuttavia parliamo di cose perfettamente fattibili sul piano
> tecnico,
> > ancorché costose.
> > >     Ma si sa: l'innovazione costa.
> > >     E al DARPA hanno un sacco di soldi per finanziarla. ;-)
> > >     L'importante è impedire che qualsiasi tecnologia possa essere usata
> > per violare i
> > >     diritti delle persone
> > >     (a vantaggio di altre persone, per altro)
> > >     Perché se passasse questo principio, dovremmo dire addio allo Stato
> > di Diritto,
> > >     con tutto ciò che questo comporta.
> > >     Inclusa, ad esempio, l'abolizione del diritto alla proprietà
> privata.
> > >     Si può fare eh!
> > >     Ma sei sicuro che sia ciò a cui aspiri?
> > >     Giacomo
> > >     [1]: inclusi ovviamente vettori di inizializzazione, valori
> ottenuti
> > da sorgenti
> > >     randomiche,
> > >     ordine esatto e contenuto dei batch di vettori usati durante il
> > processo di
> > >     programmazione statistica etc... tutto insomma ciò che serve a
> > riottenere esattamente
> > >     quel binario codato come matrice.
> >
> >
> -------------- next part --------------
> An HTML attachment was scrubbed...
> URL: <
> http://server-nexa.polito.it/pipermail/nexa/attachments/20230413/4a60f40d/attachment-0001.htm
> >
>
> ------------------------------
>
> Message: 2
> Date: Thu, 13 Apr 2023 20:07:51 +0200
> From: Stefano Quintarelli <[email protected]>
> To: [email protected]
> Subject: Re: [nexa] ChatGPT disabled for users in Italy
> Message-ID: <[email protected]>
> Content-Type: text/plain; charset=UTF-8; format=flowed
>
>
> https://duckduckgo.com/?q=proposta+di+legge+device+neutrality&t=newext&atb=v294-1&ia=web
> https://www.senato.it/leg/17/BGT/Schede/Ddliter/testi/47153_testi.htm
>
> ‘Technological inevitability is the mantra on which we are trained, but it
> is an
> existential narcotic prescribe to induce resignation: a snuff dream of the
> spirit.’
> - The Age of Surveillance Capitalism, p. 516.
>
> ciao, s.
>
>
> On 13/04/23 20:02, alessandro marzocchi wrote:
> > Puoi inviare il link alla proposta di legge cui ti riferisci?
> > Cosa intendi, a cosa riferisci "penso che questo sia una sorta di
> inevitabilismo"?
> > Grazie e cordialità.
> > Duccio (Alessandro Marzocchi)
> >
> >
> >     Date: Thu, 13 Apr 2023 17:53:56 +0200
> >     From: Stefano Quintarelli <[email protected] <mailto:
> [email protected]>>
> >     penso che questo sia una sorta di inevitabilismo
> >     quando ho fatto la mia PDL su device neutrality (arrivata in italia
> ad un voto
> >     dall'approvazione, come qualcuno di voi ricordera') ho toccato con
> mano la paura che
> >     costoro avevano.
> >     in una lunga e spiacevole riunione con un capo delle relazioni
> istituzionali a Bruxelles
> >     mi fu prospettato per il post parlamento un futuro radioso per
> competenze come le mie, in
> >     silicon valley.
> >     si spesero molto in lobby per fare in modo che l'ultimo voto non
> arrivasse mai.
> >     il potere dello stato e' grande e per loro era un forte rischio,
> tanto da spendersi
> >     cospicuamente in lobby.
> >     il voto finale al senato non arrivo' mai, termino' la legislatura.
> >     pero' le mie previsioni sono finite nel digital markets act.
> >     ciao, s.
> >
> >     On 13/04/23 17:14, alessandro marzocchi wrote:
> >      > A me pare che lo stato di diritto sia in forte crisi avviata
> prima ancora della
> >      > transizione digitale, quest'ultima la accentua e potrebbe dargli
> il colpo finale.
> >      > [Qual'è il potere di un stato (Italia, ma anche Cina, Ue, Usa) di
> fronte alla
> >     "fattualità"
> >      > dei colossi digitali? Parafrasando Manzoni, parlerei di "grida"
> che inutilmente
> >     cercano di
> >      > arginare i fatti]
> >      > Con questi timori si deve insistere per rendere completamente
> verificabile e
> >     riproducibile
> >      > l'intero processo di programmazione.
> >      > Cordialmente
> >      > Duccio (Alessandro Marzocchi)
> >      >
> >      >     Date: Thu, 13 Apr 2023 10:49:17 +0000
> >      >     From: Giacomo Tesio <[email protected] <mailto:
> [email protected]>
> >     <mailto:[email protected] <mailto:[email protected]>>>
> >      >     To: Guido Vetere <[email protected] <mailto:
> [email protected]>
> >     <mailto:[email protected] <mailto:[email protected]>>>,
> 380°
> >      >     <[email protected] <mailto:[email protected]> <mailto:
> [email protected]
> >     <mailto:[email protected]>>>
> >      >     Il 12 Aprile 2023 14:28:03 UTC, Guido Vetere <
> [email protected]
> >     <mailto:[email protected]>
> >      >     <mailto:[email protected] <mailto:[email protected]>>>
> ha scritto:
> >      >      >Giacomo,
> >      >      >anche il LM più puri usati per il più innocente task di
> classificazione
> >      >      >potrebbero essere stati addestrati con dati ottenuti senza
> il consenso
> >      >      >esplicito di chi li ha condivisi, dunque in violazione del
> GDPR.
> >      >      >Che vogliamo fare?
> >      >
> >      >     Nella peggiore delle ipotesi, quello che si fa con l'Eternit,
> per esempio.
> >      >     Possibilmente prima che faccia troppi danni alle persone e
> alla società.
> >      >     Però la questione che poni sul dataset usato per la
> programmazione statistica
> >     ha una
> >      >     soluzione
> >      >     estremamente semplice.
> >      >     Basta imporre che tutti i dataset utilizzati durante la
> programmazione statistica
> >      >     ("training" nella vulgata), inclusi quelli usati per la cross
> validation e il test,
> >      >     nonché tutti gli
> >      >     altri dati necessari a riprodurre esattamente il processo ed
> ottenere
> >     esattamente il
> >      >     modello
> >      >     in produzione (e le sue alternative scartate), siano
> preservati per tutta la durata
> >      >     della sua permanenza in produzione e diciamo 20 anni dopo (in
> caso di
> >     aggiornamento). [1]
> >      >     Rendendo verficabilmente e completamente riproducibile il
> processo di
> >     programmazione
> >      >     statistica, Open AI (come chiunque altro) potrà facilmente
> dimostrare di non aver
> >      >     utilizzato dati
> >      >     ottenuti in violazione di qualsisi Legge.
> >      >     Più costoso (ma spesso possibile) sarà dimostrare che la
> selezione del dataset
> >      >     o il processo di programnazione utilizzato non abbia prodotto
> specifiche
> >     discriminazioni.
> >      >     Molto più complesso e costoso, dimostrare di non aver voluto
> imporre al modello
> >     alcuna
> >      >     discriminazione intenzionale.
> >      >     Tuttavia parliamo di cose perfettamente fattibili sul piano
> tecnico, ancorché
> >     costose.
> >      >     Ma si sa: l'innovazione costa.
> >      >     E al DARPA hanno un sacco di soldi per finanziarla. ;-)
> >      >     L'importante è impedire che qualsiasi tecnologia possa essere
> usata per violare i
> >      >     diritti delle persone
> >      >     (a vantaggio di altre persone, per altro)
> >      >     Perché se passasse questo principio, dovremmo dire addio allo
> Stato di Diritto,
> >      >     con tutto ciò che questo comporta.
> >      >     Inclusa, ad esempio, l'abolizione del diritto alla proprietà
> privata.
> >      >     Si può fare eh!
> >      >     Ma sei sicuro che sia ciò a cui aspiri?
> >      >     Giacomo
> >      >     [1]: inclusi ovviamente vettori di inizializzazione, valori
> ottenuti da sorgenti
> >      >     randomiche,
> >      >     ordine esatto e contenuto dei batch di vettori usati durante
> il processo di
> >      >     programmazione statistica etc... tutto insomma ciò che serve
> a riottenere
> >     esattamente
> >      >     quel binario codato come matrice.
> >
>
>
> ------------------------------
>
> Message: 3
> Date: Thu, 13 Apr 2023 19:29:40 +0000
> From: Daniela Tafani <[email protected]>
> To: alessandro marzocchi <[email protected]>,
>         "[email protected]" <[email protected]>,
>         "[email protected]" <[email protected]>
> Subject: [nexa] The principle of technological inevitability [era:
>         ChatGPT disabled for users in Italy]
> Message-ID: <[email protected]>
> Content-Type: text/plain; charset="windows-1252"
>
> "The myth of technological and political and social inevitability is a
> powerful tranquilizer of the conscience.
>
> Its service is to remove responsibility from the shoulders of everyone who
> truly believes in it. But, in fact, there are actors!"
>
>
> "As we ourselves have also observed, the reification of complex systems
> that have no authors,
> about which we know only that they were somehow given us by science and
> that they speak with its authority,
> permits no questions of truth or justice to be asked.
>
> I cannot tell why the spokesmen I have cited want the developments they
> forecast to become true.
> Some of them have told me that they work on them for the morally bankrupt
> reason that “If we don’t do it, someone else will.”
> They fear that evil people will develop superintelligent machines and use
> them to oppress mankind, and that the only defense against these enemy
> machines will be superintelligent machines controlled by us, that is, by
> well-intentioned people. Others reveal that they have abdicated their
> autonomy by appealing to the “principle” of technological inevitability".
>
>
>
> Joseph Weizenbaum, Computer power and human reason. From judgement to
> calculation, 1976
>
>
> ________________________________
> Da: nexa <[email protected]> per conto di alessandro
> marzocchi <[email protected]>
> Inviato: giovedì 13 aprile 2023 20:02
> A: [email protected]; [email protected]
> Oggetto: Re: [nexa] ChatGPT disabled for users in Italy
>
> Puoi inviare il link alla proposta di legge cui ti riferisci?
> Cosa intendi, a cosa riferisci "penso che questo sia una sorta di
> inevitabilismo"?
> Grazie e cordialità.
> Duccio (Alessandro Marzocchi)
>
>
> Date: Thu, 13 Apr 2023 17:53:56 +0200
> From: Stefano Quintarelli <[email protected]<mailto:
> [email protected]>>
> penso che questo sia una sorta di inevitabilismo
> quando ho fatto la mia PDL su device neutrality (arrivata in italia ad un
> voto
> dall'approvazione, come qualcuno di voi ricordera') ho toccato con mano la
> paura che
> costoro avevano.
> in una lunga e spiacevole riunione con un capo delle relazioni
> istituzionali a Bruxelles
> mi fu prospettato per il post parlamento un futuro radioso per competenze
> come le mie, in
> silicon valley.
> si spesero molto in lobby per fare in modo che l'ultimo voto non arrivasse
> mai.
> il potere dello stato e' grande e per loro era un forte rischio, tanto da
> spendersi
> cospicuamente in lobby.
> il voto finale al senato non arrivo' mai, termino' la legislatura.
> pero' le mie previsioni sono finite nel digital markets act.
> ciao, s.
>
> On 13/04/23 17:14, alessandro marzocchi wrote:
> > A me pare che lo stato di diritto sia in forte crisi avviata prima
> ancora della
> > transizione digitale, quest'ultima la accentua e potrebbe dargli il
> colpo finale.
> > [Qual'è il potere di un stato (Italia, ma anche Cina, Ue, Usa) di fronte
> alla "fattualità"
> > dei colossi digitali? Parafrasando Manzoni, parlerei di "grida" che
> inutilmente cercano di
> > arginare i fatti]
> > Con questi timori si deve insistere per rendere completamente
> verificabile e riproducibile
> > l'intero processo di programmazione.
> > Cordialmente
> > Duccio (Alessandro Marzocchi)
> >
> >     Date: Thu, 13 Apr 2023 10:49:17 +0000
> >     From: Giacomo Tesio <[email protected]<mailto:[email protected]>
> <mailto:[email protected]<mailto:[email protected]>>>
> >     To: Guido Vetere <[email protected]<mailto:
> [email protected]> <mailto:[email protected]<mailto:
> [email protected]>>>, 380°
> >     <[email protected]<mailto:[email protected]> <mailto:
> [email protected]<mailto:[email protected]>>>
> >     Il 12 Aprile 2023 14:28:03 UTC, Guido Vetere <[email protected]
> <mailto:[email protected]>
> >     <mailto:[email protected]<mailto:[email protected]>>> ha
> scritto:
> >      >Giacomo,
> >      >anche il LM più puri usati per il più innocente task di
> classificazione
> >      >potrebbero essere stati addestrati con dati ottenuti senza il
> consenso
> >      >esplicito di chi li ha condivisi, dunque in violazione del GDPR.
> >      >Che vogliamo fare?
> >
> >     Nella peggiore delle ipotesi, quello che si fa con l'Eternit, per
> esempio.
> >     Possibilmente prima che faccia troppi danni alle persone e alla
> società.
> >     Però la questione che poni sul dataset usato per la programmazione
> statistica ha una
> >     soluzione
> >     estremamente semplice.
> >     Basta imporre che tutti i dataset utilizzati durante la
> programmazione statistica
> >     ("training" nella vulgata), inclusi quelli usati per la cross
> validation e il test,
> >     nonché tutti gli
> >     altri dati necessari a riprodurre esattamente il processo ed
> ottenere esattamente il
> >     modello
> >     in produzione (e le sue alternative scartate), siano preservati per
> tutta la durata
> >     della sua permanenza in produzione e diciamo 20 anni dopo (in caso
> di aggiornamento). [1]
> >     Rendendo verficabilmente e completamente riproducibile il processo
> di programmazione
> >     statistica, Open AI (come chiunque altro) potrà facilmente
> dimostrare di non aver
> >     utilizzato dati
> >     ottenuti in violazione di qualsisi Legge.
> >     Più costoso (ma spesso possibile) sarà dimostrare che la selezione
> del dataset
> >     o il processo di programnazione utilizzato non abbia prodotto
> specifiche discriminazioni.
> >     Molto più complesso e costoso, dimostrare di non aver voluto imporre
> al modello alcuna
> >     discriminazione intenzionale.
> >     Tuttavia parliamo di cose perfettamente fattibili sul piano tecnico,
> ancorché costose.
> >     Ma si sa: l'innovazione costa.
> >     E al DARPA hanno un sacco di soldi per finanziarla. ;-)
> >     L'importante è impedire che qualsiasi tecnologia possa essere usata
> per violare i
> >     diritti delle persone
> >     (a vantaggio di altre persone, per altro)
> >     Perché se passasse questo principio, dovremmo dire addio allo Stato
> di Diritto,
> >     con tutto ciò che questo comporta.
> >     Inclusa, ad esempio, l'abolizione del diritto alla proprietà privata.
> >     Si può fare eh!
> >     Ma sei sicuro che sia ciò a cui aspiri?
> >     Giacomo
> >     [1]: inclusi ovviamente vettori di inizializzazione, valori ottenuti
> da sorgenti
> >     randomiche,
> >     ordine esatto e contenuto dei batch di vettori usati durante il
> processo di
> >     programmazione statistica etc... tutto insomma ciò che serve a
> riottenere esattamente
> >     quel binario codato come matrice.
>
> -------------- next part --------------
> An HTML attachment was scrubbed...
> URL: <
> http://server-nexa.polito.it/pipermail/nexa/attachments/20230413/3c30f2e6/attachment.htm
> >
>
> ------------------------------
>
> Subject: Digest Footer
>
> _______________________________________________
> nexa mailing list
> [email protected]
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
>
> ------------------------------
>
> End of nexa Digest, Vol 168, Issue 76
> *************************************
>
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to