Grazie della segnalazione.

Scorrendo l'articolo, mi pare che inquadri nei termini delle discriminazioni 
inique

anche gli usi dei  "predictive machine learning algorithms" in ambiti quali il 
reclutamento o le decisioni giudiziarie.


Per questi ambiti, trovo che parlare di discriminazioni sia un pericoloso 
diversivo:

il machine learning semplicemente non funziona, per questi ambiti,

non più dell'astrologia.

Se uno strumento non funziona, discutere se sia possibile renderlo non 
discriminatorio oscura il punto essenziale.

Le applicazioni che promettono predizioni di esiti sociali sono "snake oil":

https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf


<https://www.cs.princeton.edu/~arvindn/talks/MIT-STS-AI-snakeoil.pdf>

Quanto al richiamo al controllo umano (o alla decisione umana, in ultima 
istanza), è un'ipotesi controfattuale:

come dire a un bambino che può lanciare sassi contro il gatto, purché i sassi 
siano morbidi.
Per restare alle proposte più in voga, il bambino se la caverebbe con una 
certificazione (autoprodotta)
di morbidezza dei sassi.

Su questo tema, ha scritto qualche mese fa Ben Green:

https://www.sciencedirect.com/science/article/pii/S0267364922000292


Buona serata,
Daniela

________________________________
Da: nexa <[email protected]> per conto di Antonio Vetro' 
<[email protected]>
Inviato: venerdì 9 dicembre 2022 16:31
A: mailing list nexa
Oggetto: [nexa] AI’s fairness problem: understanding wrongful discrimination in 
the context of automated decision‑making

Segnalo per gli iscritti in lista che si interessassero della tematica:

Cossette-Lefebvre, H., Maclure, J.
AI’s fairness problem: understanding wrongful discrimination in the context of 
automated decision-making.
AI Ethics (2022).   
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212091531100879847&URLID=2&ESV=10.0.18.7423&IV=8ACA8D8048EE7C09F1B0136172E2A1FD&TT=1670599871241&ESN=ggWKcjsPtmQEomI3NJDHAmvLa9kTVakKpOpZHYrEvCY%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9kb2kub3JnLzEwLjEwMDcvczQzNjgxLTAyMi0wMDIzMy13&HK=08B4E25F7CB529EB279816714F0EA127CD745FC6F718FA59EE38B43FEF9B0766
 (accesso aperto)

Uno dei migliori articoli che ho letto finora sul tema, almeno per quanto 
riguarda la parte analitica e per il c.d. “framing” della questione.
La parte propositiva conclusiva (3 linee guida per l’uso del ML nei processi 
decisionali) è un po’ meno dettagliata, ma l’ho trovata valida e molto 
ragionevole.

Nota di merito per gli autori che hanno scritto con un linguaggio accessibile a 
tutti, e non solo agli addetti ai lavori.

Un caro saluto

A.
_______________________________________________
nexa mailing list
[email protected]
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202212091531100879847&URLID=1&ESV=10.0.18.7423&IV=B5447B7A82DB0EF4F3456F8A36144EC3&TT=1670599871241&ESN=Meamaa6Z4yowei%2Fo3Ufd%2FV2iCqrUVfDBtFNWrKyQIZc%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=126869319D81178A57E6EF02E5C43EC197B2984BF287FE739EE9AF37F3BB0E4D
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to