Buongiorno.

Grazie della segnalazione.

L'articolo di Munn è condivisibile nella pars destruens, che prende atto di una 
critica ormai diffusa all'AI ethics,

a partire, tra gli altri, dagli articoli di Wagner, Ethics As An Escape From 
Regulation. From “Ethics-Washing” To Ethics-Shopping?, e

D. Greene, A.L. Hoffman, L. Stark, Better, Nicer, Clearer, Fairer: A Critical 
Assessment of the Movement for Ethical Artificial Intelligence and Machine 
Learning.


Trovo meno convincente la pars construens, che propone di sostituire il 
concetto di etica con quello di giustizia (così da tener conto dei sistemi 
sociali da cui i sistemi di machine learning traggono i dati di partenza e nei 
quali trovano applicazione) e finisce con la consueta richiesta di trasparenza 
e di ascolto delle minoranze.


Ritengo più appropriate le impostazioni che respingano l'eccezionalismo e 
invochino un'apparizione del convitato di pietra: il diritto.

Se un sistema, in una sua specifica applicazione, produce danni (che siano a 
pochi o a molti, a specifici o a indeterminati gruppi di individui),

ledendo diritti tutelati dalla legge, la legge deve proibirli o, come ha 
proposto Frank Pasquale, dichiararli illegali fino a prova contraria,

attribuendo l'onere di tale prova contraria alle aziende che vogliano produrli 
o commercializzarli.

Questa impostazione è semplice, politicamente, e altamente indesiderata da chi 
sta prosperando col commercio di snake oil.


Oltretutto, se anche i singoli bias fossero tecnicamente emendabili, non si 
otterrebbero certo la giustizia o l'equità,

entro un sistema che sta riducendo le questioni sociali a problemi di 
sorveglianza, controllo e computazione.

Chiarissime, su questo,

J. Powles, H. Nissenbaum, The Seductive Diversion of ‘Solving’ Bias in 
Artificial Intelligence,

https://onezero.medium.com/the-seductive-diversion-of-solving-bias-in-artificial-intelligence-890df5e5ef53


Buona domenica,
Daniela

________________________________
Da: nexa <[email protected]> per conto di maurizio lana 
<[email protected]>
Inviato: sabato 26 novembre 2022 19:22
A: [email protected]
Oggetto: Re: [nexa] ethical AI (era "It’s time to admit, self-driving cars 
aren’t going to happen")

in questi giorni ho ricevuto da una mailing list l'annuncio di questo seminario 
organizzato da «The Digital Humanism Initiative», dal titolo incuriosente di 
per sé e tanto più dopo gli ultimi scambi su questi temi:

Date and time: Tuesday, December 6, 2022 at 2:00 p.m. (14:00) Central European 
Time (UTC+1

Topic: “The Uselessness of AI Ethics”

Speakers: Luke Munn (University of Queensland) and Erich Prem ((Universität 
Wien & eutema, Austria)

To participate via Zoom go to: 
https://tuwien.zoom.us/j/96389928143?pwd=UU5YRkNuRmdoWHV4MFBwMWRCcUErdz09<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=27&ESV=10.0.18.7423&IV=C86561745A75E89DB99D62371090689D&TT=1669486937815&ESN=XZgOjyX2lAMs7jzxsmoeO2wGw87wtYkLoeQlbcDlMsw%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cDovL3h1eHNzLm1qdC5sdS9sbmsvQVV3QUFBT0ctaEFBQUFBZ1FuNEFBRHJ3aWl3QUFBQUFSY0VBQURKekFCRzdDUUJqZ0w3aFdzQUNmWU5IUlNhV2xVZXBHaTJDZWdBUng5TS8xL3FaQm1UQlNPVm9ybmwybGt5UWVfYncvYUhSMGNITTZMeTkwZFhkcFpXNHVlbTl2YlM1MWN5OXFMemsyTXpnNU9USTRNVFF6UDNCM1pEMVZWVFZaVW10T2RWSnRaRzlYU0ZZMFRVWkNkMDFYVWtOalZVVnlaSG93T1E&HK=0DFD8BEF6723C8914166C2D0223200F9E39BF337D48D5D6C5E21BF946C6E5E32>
(Password: 0dzqxqiy)

The talk will be live streamed and recorded on our YouTube channel: 
https://www.youtube.com/digitalhumanism
<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=25&ESV=10.0.18.7423&IV=D4C6752CC147C1432D37644BF941F0A6&TT=1669486937815&ESN=34BchD%2BljStzL25lA7OITk9woopYTFrj7GNrjSmpVT0%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cDovL3h1eHNzLm1qdC5sdS9sbmsvQVV3QUFBT0ctaEFBQUFBZ1FuNEFBRHJ3aWl3QUFBQUFSY0VBQURKekFCRzdDUUJqZ0w3aFdzQUNmWU5IUlNhV2xVZXBHaTJDZWdBUng5TS8yL0lhaWk2RTU3SU9MLUtZUVRUUkptVXcvYUhSMGNITTZMeTkzZDNjdWVXOTFkSFZpWlM1amIyMHZaR2xuYVhSaGJHaDFiV0Z1YVhOdA&HK=6F339AE2C6059542BEAE993B2BBE7B9EED689D076158DF2C8D4877018F6E56D9>Hannes
 Werthner
-----
Sign the Vienna Manifesto: 
https://dighum.ec.tuwien.ac.at<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=23&ESV=10.0.18.7423&IV=847E918AF2844ED68213BF0A8A66FDA2&TT=1669486937815&ESN=M1yQqNU5stgVvnrvofkBOLDuUZqnlTctnlXNLJGndh0%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9kaWdodW0uZWMudHV3aWVuLmFjLmF0&HK=C8CEC14F9FDE8718E4332D1B525E43FD587B36B4DFC6679717FDD52DA9E9894B>
Follow us on @DigHumTUWien
<http://xuxss.mjt.lu/lnk/AUwAAAOG-hAAAAAgQn4AADrwiiwAAAAARcEAADJzABG7CQBjgL7hWsACfYNHRSaWlUepGi2CegARx9M/2/Iaii6E57IOL-KYQTTRJmUw/aHR0cHM6Ly93d3cueW91dHViZS5jb20vZGlnaXRhbGh1bWFuaXNt>

poiché spesso i seminari riguardano temi di ricerca attivi, ho cercato "The 
Uselessness of AI Ethics" in Scholar e ho visto che uno degli studiosi aveva 
pubblicato in agosto un articolo dal medesimo titolo nella rivista "AI and 
ethics", che si è rivelata ricca di articoli in OA su molteplici posizioni 
riguardo alla questione AI and ethics.
Maurizio


Il 20/11/22 18:01, 
[email protected]<mailto:[email protected]> 
ha scritto:

Message: 2
Date: Sun, 20 Nov 2022 17:01:54 +0000
From: Daniela Tafani <[email protected]><mailto:[email protected]>
To: "D. Davide Lamanna" 
<[email protected]><mailto:[email protected]>,
        "[email protected]"<mailto:[email protected]> 
<[email protected]><mailto:[email protected]>
Subject: Re: [nexa]  [DKIM Failed] Re:   ethical AI (era "It’s time
        to admit, self-driving cars aren’t going to happen")
Message-ID: 
<[email protected]><mailto:[email protected]>
Content-Type: text/plain; charset="windows-1252"

Ritengo che sia stato geniale, come strategia di marketing, accompagnare i 
primi disastrosi viaggi delle auto a guida (non) autonoma

con una rivisitazione del dilemma del trolley, quasi che quei veicoli che 
continuano a schiantarsi, ancora oggi (dati dei test)

contro un terzo dei ciclisti e contro tutte le altre auto che siano, pur 
lentamente, in arrivo,
siano in grado di sciogliere dilemmi su questioni di vita e di morte in modo 
più sofisticato di una roulette russa.


Analogamente, ritengo che la tesi che occorra interrogarsi su chi uccidere, in 
caso di incidenti inevitabili,

perché il diritto non conterrebbe le risposte a simili domande, sia uno 
specchietto per le allodole.
Il diritto degli stati con costituzioni che tutelino alcuni diritti 
fondamentali vieta infatti simili domande e questa è già una precisa risposta.


Del resto, se volessi farmi costruire una casa, in un terreno libero tra un 
supermercato e un asilo nido,

e l'ingegnere incaricato mi chiedesse se preferisco che, in caso di crollo, la 
casa frani, uccidendoli, sui bambini del nido

o sui clienti del supermercato, cambierei senz'altro ingegnere.


Ho provato a ricostruire alcuni aspetti morali e giuridici di questa questione 
qualche tempo fa (in un articolo non a accesso libero, di cui allego perciò il 
preprint),
quando ancora non erano emersi dati su vere e proprie truffe, come le auto 
programmate per disattivare l'autopilot

subito prima delle collisioni, così da far ricadere la colpa sul conducente 
umano,

e quando ancora non avevo capito che non vedremo auto a guida autonoma se non 
in strade dedicate, entro contesti che non richiedano il senso comune.


Il fatto che si stia costruendo oggi una strada liscissima, ex novo, per i test 
di tali auto, mi pare promettente:

superati i test, basterà riasfaltare tutte le strade del mondo... 
(https://www.highwaysmagazine.co.uk/<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=15&ESV=10.0.18.7423&IV=A741681D3C76671E207AD2493F5B81A4&TT=1669486937815&ESN=ga%2F%2FdY%2BCHJzIhewP3MtkQA0Ceb0FVzg9ZWUsJ%2BGLmIA%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cuaGlnaHdheXNtYWdhemluZS5jby51ay8&HK=B317883C53313CC9F0D6E119F9AFA00F109A0CBD26A5A715F3EC89BEF457FA01>
 , numero di novembre 2022)


Grazie molte di aver condiviso le riflessioni su questo tema.

Buona serata,

Daniela


________________________________
Da: nexa 
<[email protected]><mailto:[email protected]> 
per conto di D. Davide Lamanna 
<[email protected]><mailto:[email protected]>
Inviato: domenica 20 novembre 2022 16:46
A: [email protected]<mailto:[email protected]>
Oggetto: [DKIM Failed] Re: [nexa] ethical AI (era "It’s time to admit, 
self-driving cars aren’t going to happen")

On 11/18/22 19:12, maurizio lana wrote:


...continuando a pensare su questo tema, al di là dei titoli dei thread,
credo che la questione artefatto - responsabilità - progettisti -
utilizzatori
sia centrale. perciò ripensando a questo passaggio


[L'artefatto non ha etica.
Esprime l'etica di chi l'ha costruito, imprimendola al resto del mondo. Ne 
riproduce la volontà. Ne diffonde i valori.]

L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente 
irrilevante. Se non può alterare concretamente e consapevolmente il
funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può fare e 
pensare solo ciò che il creatore dell'artefatto stesso ha deciso.


trovo problematico affermare che "l'utilizzatore, nella stragrande
maggioranza dei casi, è eticamente irrilevante."
chi utilizza un coltello per uccidere la compagna, o i contractors di
Wagner che usano un martello per uccidere un compagno; non mi paiono
eticamente irrilevanti; e quindi direi al contrario che nella
stragrande maggioranza dei casi l’utilizzatore di un artefatto è
eticamente rilevante.
poi capisco che l'argomentazione sia venuta nella forma inversa
"l'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
irrilevante" perché essa preparava la presentazione del caso "Rafaela
Vasquez, a bordo dell'auto di Uber che uccise Elaine
Herzberg nel 2018, non stava "usando" l'auto: ne veniva usata" in cui
sì certo l'utilizzatore dell'artefatto è utilizzato dall'artefatto. ma
è un caso particolare.
il caso generale rimane che l’utilizzatore di un artefatto è
eticamente rilevante (in caso contrario assolviamo tutti gli assassini
che per uccidere usano artefatti) e come in tutti i casi di
responsabilità etica, la conoscenza e la consapevolezza contano. se
sappiamo che le auto autonome possono uccidere mentre ci trasportano
possiamo pensare che esse ci esautorano dalla responsabilità per i
danni che possono causare mentre ci trasportano; _o possiamo decidere
di non usarle_ fintantoché la situazione non cambi. quindi è chiaro
che oggi abbiamo artefatti (con o senza IA) che complicano la
questione della responsabilità dell'utilizzatore; ma il principio
generale non mi pare che possa cambiare.
Maurozoo



Approfitto del thread refresh per alimentare le riflessioni.

1) Premesso che la riduzione di ogni aspetto della vita a funzione
ottimizzabile è limitante e pericoloso, l'automobile è l'esempio
sbagliato. Per me (ripeto: per me) l'automobile è un mezzo che trasporta
persone da A a B e come tale può essere efficacemente ottimizzato per un
numero di parametri: tempi, consumi, traffico, uccisioni, ferimenti,
danneggiamenti... Di essere ucciso da un'automobile guidata da una IA o
da un persona in carne ed ossa, a me, personalmente, cambia poco. Se
complessivamente, con la guida autonoma, muoiono meno persone ogni anno,
ben venga la mia morte per mano inorganica. Ricordo che l'automobile è
la ottava causa di morte (3700 persone al giorno, 1,35 milioni l'anno) e
la prima per persone tra i 5 e i 29 anni [1].

Se poi qualcun ritiene che l'automobile sia anche un mezzo per fare
passeggiate piacevoli o per gareggiare in velocità, e in quanto tale
vettore di espressione umana, abbiamo due visioni del mondo diverse e
non mi viene altro che consigliare di svolgere tali attività (per me
marginali, ma rispetto chi la pensa diversamente) con guida umana, e,
però, a questo punto, in luoghi adatti ad evitare danni, disagi e morte.


2) Rubo da Harari (che non va né incensato, né vituperato, ma più
semplicemente letto con i filtri di cui ci ritengo più che capaci) un
dilemma etico-automobilistico piuttosto interessante (tratto dal
principio del rasoio di Occam).

Una persona è alla guida su una strada ad alto scorrimento. Un bambino
con un pallone si getta improvvisamente in carreggiata. In una frazione
di secondo, la persona deve scegliere se sterzare per evitarlo e morire
con probabilità pari ad 1 schiacciata da un TIR che arriva in direzione
opposta, oppure proseguire senza sterzare e uccidere il bambino sempre
con probabilità pari ad 1. Non esistono altre possibilità. Come scegliere?

Una persona in carne ed ossa fa la sua scelta, dettata dal suo vissuto,
dalla sua etica, dalla sua personalità... In una parola: dal suo essere
una persona umana, diversa da qualcunque altra persona umana.

Una IA può scegliere in base a come è stata programmata, in base a
calcoli che è in grado di eseguire in quella frazione di secondo, in
base a funzioni di ottimizzazione. Tutte le IA tra loro uguali, lo
faranno allo stesso identico modo. Potrebbero ottimizzare sulla speranza
di vita della vittima (meglio che muoia la persona adulta che è nella
vettura piuttosto che un bambino) oppure rispetto a quanto pagherebbe
l'assicurazione nei due casi. Supponiamo che quando acquistiamo
l'automobile ci sottopongano una situazione di questo tipo in forma di
opzione da selezionare per istruire la IA. Cosa sceglieremmo? E cosa
sceglierebbe il nostro partner che trascorrerà molto tempo con noi in
auto? E come cambierebbe il premio della nostra assicurazione
automobilistica? E quella sanitaria?

I sistemi politico-filosofici informano, in modo diverso ma analogo,
persone umane (collettivamente e debolmente) e macchine (individualmente
e fortemente). Ma le macchine sono in mano di pochi, almeno fino ad ora.
E questi pochi adottano e promuovono sistemi capitalistici. Le persone
umane possono sempre autorganizzarsi e cambiare le cose.

D.

[1] 
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340&URLID=2&ESV=10.0.18.7423&IV=4CF95023FBB6AD7E7CA2B16CA3568423&TT=1668959182567&ESN=Qicqbsk6Qc0ABTaU5F%2BMa9cvbhFfRbAF1Hqsi4jh6kU%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly93d3cuY2RjLmdvdi9pbmp1cnkvZmVhdHVyZXMvZ2xvYmFsLXJvYWQtc2FmZXR5L2luZGV4Lmh0bWw&HK=8C1F8E48D5FEECE693E007D0CEB111FAB1922D9073320CE86AF9B02F5A5FA719

(null)
_______________________________________________
nexa mailing list
[email protected]<mailto:[email protected]>
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211201546210821340&URLID=1&ESV=10.0.18.7423&IV=08DFA41B495F91DCA495DAE7BF8FB496&TT=1668959182566&ESN=miIFZ4yWhIAOy0iyLeKjDgOZ6u1oVff12eEpe24Jlt0%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=466F762B175B3221BD42EBC677C74A2B0B53FE7223CACA5B9D1C6929E6687CEE
-------------- next part --------------
An HTML attachment was scrubbed...
URL: 
<http://server-nexa.polito.it/pipermail/nexa/attachments/20221120/81577266/attachment.htm><https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=5&ESV=10.0.18.7423&IV=1DD9267DF1CBAD5A8A0FCC2C226EC837&TT=1669486937815&ESN=fvMpNMkn050Hs%2F93oMeVHoSyP29ExS4XehgG%2Bq5SFgU%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cDovL3NlcnZlci1uZXhhLnBvbGl0by5pdC9waXBlcm1haWwvbmV4YS9hdHRhY2htZW50cy8yMDIyMTEyMC84MTU3NzI2Ni9hdHRhY2htZW50Lmh0bQ&HK=86608FECA3684993B556F5BFA324B8050649B1AD09A08809DD2809D4B4EB6978>
-------------- next part --------------
A non-text attachment was scrubbed...
Name: Daniela Tafani - Sulla moralità artificiale. Le decisioni delle macchine 
tra etica e diritto - Rivista di filosofia - 2020 (preprint).pdf
Type: application/pdf
Size: 268494 bytes
Desc: Daniela Tafani - Sulla moralità artificiale. Le decisioni delle macchine 
tra etica e diritto - Rivista di filosofia - 2020 (preprint).pdf
URL: 
<http://server-nexa.polito.it/pipermail/nexa/attachments/20221120/81577266/attachment.pdf><https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=4&ESV=10.0.18.7423&IV=CD271EE4FFF3DC3CB308E0D19B132A7E&TT=1669486937815&ESN=6zpCRCWWMHwHQUYl93g61oDslZ5LIHurgFXdU51Ryw0%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cDovL3NlcnZlci1uZXhhLnBvbGl0by5pdC9waXBlcm1haWwvbmV4YS9hdHRhY2htZW50cy8yMDIyMTEyMC84MTU3NzI2Ni9hdHRhY2htZW50LnBkZg&HK=3AE57EF4491518E4A6173E964002F47C2C6517983C9E857C69498E8136A5ADD8>

------------------------------

Subject: Digest Footer

_______________________________________________
nexa mailing list
[email protected]<mailto:[email protected]>
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa<https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202211261822160836389&URLID=2&ESV=10.0.18.7423&IV=E45217445B3E8DBC6C25B3E5F389910F&TT=1669486937815&ESN=J4ggp9I8T8Woxuskw7R6Q0TG%2BDa9uNZDXsJakqqc%2FWc%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=22D539FB11E602D9BC7B06753F03FF1D279EBA28B655541D5B8F2F49F4FF6FAD>


------------------------------

End of nexa Digest, Vol 163, Issue 42
*************************************



________________________________

lo straniero non parla e non capisce la nostra lingua,
che non è più nostra, perché la nostra vera lingua
diventa la traduzione, lo scambio
l. ferrieri, dalla public library all’open library

________________________________
Maurizio Lana
Università del Piemonte Orientale
Dipartimento di Studi Umanistici
Piazza Roma 36 - 13100 Vercelli
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to