Ciao Enrico, Daniela e Nexa.

Grazie per questa splendida conversazione.


On October 29, 2022 4:38:13 PM UTC, Enrico Nardelli wrote:
> in contesti in qualche modo "chiusi" tali sistemi possono essere superiori 
> agli esseri
> umani, mentre in situazioni "generaliste" le loro prestazioni continuano a 
> rimanere indietro.

Vi sono almeno due problemi in questa frase Enrico:

1. la riduzione della persona ad una funzione
2. la riduzione del problema ad una questione di complessita computazionale

Nessuna cosa che l'uomo costruisce può essere paragonata (e dunque essere
qualificata come "superiore") all'uomo.

Non è solo una questione etica o politica, ma proprio ontologica.


Chi costruisce un artefatto, esprime sé stesso, la proprie idee ee i propri 
interessi 
di quel momento.

Ma una volta costruito, l'artefatto ne rimane espressione invariabile (se non 
secondo 
le regole impostegli da quella stesaa volontà) e continua ad applicare quella 
volontà 
al mondo, fino ad ulteriore intervento umano (che si tratti di spegnerlo, 
romperlo o modificarlo).

L'artefice invece ha una libertà che l'artefatto non può avere e che non gli 
può essere
attribuita (così come una responsabilità) senza prima aver dimostrato non solo 
che
è in grado di simulare intelligenza, ma che è dotato di libero arbitrio.

L'artefice può cambiare idea.
L'artefatto non ha idee.


Dunque un artefatto è ontologicamente... una cosa.

"Superiore all'uomo" non sarà mai, neanche in contesti chiusi.

E questo perché l'uomo non esiste per svolgere una funzione.


L'uomo è autonomo, l'artrfatto no.

Questo significa che ha SEMPRE la possibilità di alterare (e scardinare) le 
regole 
di funzionamento del sistema cibernetico in cii opera, rendendolo imprevedibile.

Può essere convinto a non esercitare questa autonomia, "perché non è giusto", 
"perché il padrone è buono", "perché we shall do no evil", "perché funziona 
così", 
per paura etc...

Ma continua ontologicamente ad essere autonomo.


Lo so, sembra una lunga supercazzola per due parole, ma l'uso di certe 
riduzioni 
(soprattutto da parte di figure autorevoli come te) alimenta l'alienazione 
cibernetica di molti.


Alienazione che consiste nel processo di riduzione dell'autonomia delle persone 
sia
attraverso la loro automatizione (pensa al burocrate senza compassione) sia 
attraverso l'antropomorfizzazione dell'automatismo che viene presentato
come "autonomo" e antropomorfo.


> Il 29/10/2022 08:00, Daniela Tafani ha scritto:
> > 
> > Abbiamo il senso comune, che vale molto di più dell'essere precisi.

Soprattutto abbiamo il buon senso (che è cosa sempre meno comune, purtroppo).

Non siamo solo capaci di prevedere conseguenze, ma di empatizzare con 
chi sarà affetto da tali conseguenze.

Quand'anche riuscissimo a superare i limiti computazionali che impediscono la 
previsione
potremmo ottenere un "senso comune" applicato meccanicamente.

Un "senso comune" indipendente dalla comunità.
Un "senso comune" immutabile, che non può evolvere se non nel solco del 
programma
(ovvero degli interessi di chi l'ha creato).

Un "sensi comune" privo di "senso" giacché le macchine elaborano dati cui solo 
la 
mente umana può attribuire un significato.


Non è dunque un problema di quantità, di disponibilità di dati o di potenza di 
calcolo.


È una questione di essenza.
Gli automatismi trasformano meccanicamente dati, non informazioni.

Segni privi di un significato intrinseco, che solo l'uomo vi può attribuire.
E non parlo solo dell'input o dell'output: il software stesso è privo di un 
significato
 intrinseco, tant'è che processori diversi reagiscono a segni diversi nello 
stesso 
modo e a segni uguali in modo diverso.

E tant'è che possiamo persino progettare macchine per reagire in un determinato 
modo a segni (dati) cui non proviamo nemmeno ad attribuire un significato.


Acquisire questa consapevolezza ha profonde implicazioni pratiche.

Per esempio rende evidente l'assurdità di parlare di "etica delle AI" o di 
"Explainable AI".

Il software è debuggabile.
Ciò che puoi spiegare al limite sono le intenzioni e gli errori di chi l'ha 
scritto.

E quando non è perfettamente debuggabile, allora è da buttare, perché troppo 
pericoloso:
la sua esecuzione è letteralmente "irresponsabile".


Giacomo
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to