Forse, piu' che a trattare uomini come oggetti, l'errore e' pensarli come 
sommatoria molto semplificata di una serie di attivita'.

Ecco l'errore con la guida autonoma: pensare che un autista vada da A a B col 
suo camion, e quindi possa essere sostituito. Ma quell'autista fa molto di 
piu': si occupa della sicurezza delle merci, partecipa attivamente al controllo 
qualita' dei pezzi, disbriga una serie di requisiti 
contabili/fiscali/normativi, e posso continuare a lungo con un elenco mirato 
sulla professione "autista". Lascio perdere che la persona non e' solo autista 
ma molto piu', ovviamente.

Quando pensiamo ad una professione come sommatoria di attivita' 
standardizzabili, apriamo la strada al secondo errore, quello di pensare in 
termini sostitutivi invece che complementari.

Saluti

Rob

________________________________
Da: nexa <[email protected]> per conto di Daniela Tafani 
<[email protected]>
Inviato: domenica 30 ottobre 2022 09:36:58
A: Giacomo Tesio; Enrico Nardelli; Nexa
Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars 
aren’t going to happen"


Grazie a voi per tutte queste considerazioni.


Concordo con te, Giacomo.

Credo però che la riduzione degli uomini a cose sia un gesto politico, più che 
un errore teorico.

Fattualmente, è sempre possibile trattare gli uomini come se fossero cose. Ne 
sono la prova i campi di concentramento nazisti.

Non a caso, Simon Baron-Cohen (La scienza del male: l’empatia e le origini 
della crudeltà, Milano, Cortina, 2012, pp. 1-5)

collegava la sua volontà di capire, da scienziato,

«i fattori che inducono le persone a trattare gli altri come oggetti»

a un episodio biografico: il racconto di una reale trasformazione di persone in 
oggetti

(quando aveva sette anni, il padre gli disse che i nazisti avevano trasformato 
gli ebrei in saponette).

E non sono sicura che una lezione teorica sia sufficiente a dissuadere un 
nazista.


Quanto alle auto a guida autonoma, cercavo di mettere in discussione il minor 
numero possibile di concetti impegnativi, come la libertà,

considerato che, al momento, la tecnologia si ferma decisamente molto prima.

Intendevo perciò "senso comune" nel suo significato più ristretto, essendo 
fuori dalla portata delle macchine già quello, oggi.

Tra l'altro, per restare di nuovo a Kant, solo gli esseri umani sono in grado 
di agire non solo secondo leggi,

ma altresì secondo la rappresentazione di leggi, da rispettare o violare.


Concordo anche sull'insensatezza dell'etica dell'IA, ma ritengo,
come ho provato ad argomentare nell'articolo che vi ho sottoposto, che la 
narrazione sull'etica dell'IA

assecondi sì alcune tendenze umane spontanee,

ma sia deliberatamente costruita e diffusa per interesse.


Scusate, ho già scritto troppo e malamente. Spero che avremo modo di parlarne 
di persona.


Un saluto,
Daniela

________________________________
Da: nexa <[email protected]> per conto di Giacomo Tesio 
<[email protected]>
Inviato: domenica 30 ottobre 2022 12:34
A: Enrico Nardelli; Nexa
Oggetto: Re: [nexa] [DKIM Failed] Re: "It’s time to admit self-driving cars 
aren’t going to happen"

Ciao Enrico, Daniela e Nexa.

Grazie per questa splendida conversazione.


On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
> in contesti in qualche modo "chiusi" tali sistemi possono essere superiori 
> agli esseri
> umani, mentre in situazioni "generaliste" le loro prestazioni continuano a
> rimanere indietro.

Vi sono almeno due problemi in questa frase Enrico:

1. la riduzione della persona ad una funzione
2. la riduzione del problema ad una questione di complessita computazionale

Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere
qualificata come "superiore") all'uomo.

Non è solo una questione etica o politica, ma proprio ontologica.


Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri 
interessi
di quel momento.

Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non 
secondo
le regole impostegli da quella stesaa volontà) e continua ad applicare quella 
volontà
al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, 
romperlo o modificarlo).

L'artefice invece ha una libertà che l'artefatto non può avere e che non gli 
può essere
attribuita (così come una responsabilità) senza prima aver dimostrato non solo 
che
è in grado di simulare intelligenza, ma che è dotato di libero arbitrio.

L'artefice può cambiare idea.
L'artefatto non ha idee.


Dunque un artefatto è ontologicamente... una cosa.

"Superiore all'uomo" non sarà mai, neanche in contesti chiusi.

E questo perché l'uomo non esiste per svolgere una funzione.


L'uomo è autonomo, l'artrfatto no.

Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le 
regole
di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile.

Può essere convinto a non esercitare questa autonomia, "perché non è giusto",
"perché il padrone è buono", "perché we shall do no evil", "perché funziona 
così",
per paura etc...

Ma continua ontologicamente ad essere autonomo.


Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe riduzioni
(soprattutto da parte di figure autorevoli come te) alimenta l'alienazione 
cibernetica di molti.


Alienazione che consiste nel processo di riduzione dell'autonomia delle persone 
sia
attraverso la loro automatizione (pensa al burocrate senza compassione) sia
attraverso l'antropomorfizzazione dell'automatismo che viene presentato
come "autonomo" e antropomorfo.


> Il 29/10/2022 08:00, Daniela Tafani ha scritto:
> >
> > Abbiamo il senso comune, che vale molto di più dell'essere precisi.

Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo).

Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con
chi sarà affetto da tali conseguenze.

Quand'anche riuscissimo a superare i limiti computazionali che impediscono la 
previsione
potremmo ottenere un "senso comune" applicato meccanicamente.

Un "senso comune" indipendente dalla comunità.
Un "senso comune" immutabile, che non può evolvere se non nel solco del 
programma
(ovvero degli interessi di chi l'ha creato).

Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo 
la
mente umana può attribuire un significato.


Non è dunque un problema di quantità, di disponibilità di dati o di potenza di 
calcolo.


È una questione di essenza.
Gli automatismi trasformano meccanicamente dati, non informazioni.

Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire.
E non parlo solo dell'input o dell'output: il software stesso è privo di un 
significato
 intrinseco, tant'è che processori diversi reagiscono a segni diversi nello 
stesso
modo e a segni uguali in modo diverso.

E tant'è che possiamo persino progettare macchine per reagire in un determinato
modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato.


Acquisire questa consapevolezza ha profonde implicazioni pratiche.

Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di 
"Explainable AI".

Il software è debuggabile.
Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha 
scritto.

E quando non è perfettamente debuggabile, allora è da buttare, perché troppo 
pericoloso:
la sua esecuzione è letteralmente "irresponsabile".


Giacomo
_______________________________________________
nexa mailing list
[email protected]
https://es.sonicurlprotection-fra.com/click?PV=2&MSGID=202210301134080621907&URLID=1&ESV=10.0.17.7319&IV=5395DDFA13D1581308E39E5C7165C6B3&TT=1667129649616&ESN=FJ3yy4La6od5SXyTpAooxiP9han5pK0J0Kc%2FE7xeMOs%3D&KV=1536961729280&B64_ENCODED_URL=aHR0cHM6Ly9zZXJ2ZXItbmV4YS5wb2xpdG8uaXQvY2dpLWJpbi9tYWlsbWFuL2xpc3RpbmZvL25leGE&HK=52B671C15A298A32A3B4763AF7A55A0C4A37E42AEC06608E37D51FE3A41622CA
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to