https://duckduckgo.com/?q=proposta+di+legge+device+neutrality&t=newext&atb=v294-1&ia=web
https://www.senato.it/leg/17/BGT/Schede/Ddliter/testi/47153_testi.htm
‘Technological inevitability is the mantra on which we are trained, but it is an
existential narcotic prescribe to induce resignation: a snuff dream of the spirit.’
- The Age of Surveillance Capitalism, p. 516.
ciao, s.
On 13/04/23 20:02, alessandro marzocchi wrote:
Puoi inviare il link alla proposta di legge cui ti riferisci?
Cosa intendi, a cosa riferisci "penso che questo sia una sorta di
inevitabilismo"?
Grazie e cordialità.
Duccio (Alessandro Marzocchi)
Date: Thu, 13 Apr 2023 17:53:56 +0200
From: Stefano Quintarelli <[email protected]
<mailto:[email protected]>>
penso che questo sia una sorta di inevitabilismo
quando ho fatto la mia PDL su device neutrality (arrivata in italia ad un
voto
dall'approvazione, come qualcuno di voi ricordera') ho toccato con mano la
paura che
costoro avevano.
in una lunga e spiacevole riunione con un capo delle relazioni
istituzionali a Bruxelles
mi fu prospettato per il post parlamento un futuro radioso per competenze
come le mie, in
silicon valley.
si spesero molto in lobby per fare in modo che l'ultimo voto non arrivasse
mai.
il potere dello stato e' grande e per loro era un forte rischio, tanto da
spendersi
cospicuamente in lobby.
il voto finale al senato non arrivo' mai, termino' la legislatura.
pero' le mie previsioni sono finite nel digital markets act.
ciao, s.
On 13/04/23 17:14, alessandro marzocchi wrote:
> A me pare che lo stato di diritto sia in forte crisi avviata prima
ancora della
> transizione digitale, quest'ultima la accentua e potrebbe dargli il
colpo finale.
> [Qual'è il potere di un stato (Italia, ma anche Cina, Ue, Usa) di fronte
alla
"fattualità"
> dei colossi digitali? Parafrasando Manzoni, parlerei di "grida" che
inutilmente
cercano di
> arginare i fatti]
> Con questi timori si deve insistere per rendere completamente
verificabile e
riproducibile
> l'intero processo di programmazione.
> Cordialmente
> Duccio (Alessandro Marzocchi)
>
> Date: Thu, 13 Apr 2023 10:49:17 +0000
> From: Giacomo Tesio <[email protected] <mailto:[email protected]>
<mailto:[email protected] <mailto:[email protected]>>>
> To: Guido Vetere <[email protected]
<mailto:[email protected]>
<mailto:[email protected] <mailto:[email protected]>>>, 380°
> <[email protected] <mailto:[email protected]>
<mailto:[email protected]
<mailto:[email protected]>>>
> Il 12 Aprile 2023 14:28:03 UTC, Guido Vetere <[email protected]
<mailto:[email protected]>
> <mailto:[email protected] <mailto:[email protected]>>> ha
scritto:
> >Giacomo,
> >anche il LM più puri usati per il più innocente task di
classificazione
> >potrebbero essere stati addestrati con dati ottenuti senza il
consenso
> >esplicito di chi li ha condivisi, dunque in violazione del GDPR.
> >Che vogliamo fare?
>
> Nella peggiore delle ipotesi, quello che si fa con l'Eternit, per
esempio.
> Possibilmente prima che faccia troppi danni alle persone e alla
società.
> Però la questione che poni sul dataset usato per la programmazione
statistica
ha una
> soluzione
> estremamente semplice.
> Basta imporre che tutti i dataset utilizzati durante la
programmazione statistica
> ("training" nella vulgata), inclusi quelli usati per la cross
validation e il test,
> nonché tutti gli
> altri dati necessari a riprodurre esattamente il processo ed ottenere
esattamente il
> modello
> in produzione (e le sue alternative scartate), siano preservati per
tutta la durata
> della sua permanenza in produzione e diciamo 20 anni dopo (in caso di
aggiornamento). [1]
> Rendendo verficabilmente e completamente riproducibile il processo di
programmazione
> statistica, Open AI (come chiunque altro) potrà facilmente
dimostrare di non aver
> utilizzato dati
> ottenuti in violazione di qualsisi Legge.
> Più costoso (ma spesso possibile) sarà dimostrare che la selezione
del dataset
> o il processo di programnazione utilizzato non abbia prodotto
specifiche
discriminazioni.
> Molto più complesso e costoso, dimostrare di non aver voluto imporre
al modello
alcuna
> discriminazione intenzionale.
> Tuttavia parliamo di cose perfettamente fattibili sul piano tecnico,
ancorché
costose.
> Ma si sa: l'innovazione costa.
> E al DARPA hanno un sacco di soldi per finanziarla. ;-)
> L'importante è impedire che qualsiasi tecnologia possa essere usata
per violare i
> diritti delle persone
> (a vantaggio di altre persone, per altro)
> Perché se passasse questo principio, dovremmo dire addio allo Stato
di Diritto,
> con tutto ciò che questo comporta.
> Inclusa, ad esempio, l'abolizione del diritto alla proprietà privata.
> Si può fare eh!
> Ma sei sicuro che sia ciò a cui aspiri?
> Giacomo
> [1]: inclusi ovviamente vettori di inizializzazione, valori ottenuti
da sorgenti
> randomiche,
> ordine esatto e contenuto dei batch di vettori usati durante il
processo di
> programmazione statistica etc... tutto insomma ciò che serve a
riottenere
esattamente
> quel binario codato come matrice.
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa