Salve Maurizio,

hai ragione, mi sono espresso male, dando per scontata una
contestualizzazione ed una equivalenza (in quel contesto) che
non erano sufficientemente chiare nella mia mail. [1]

On Fri, 18 Nov 2022 19:12:25 +0100 maurizio lana wrote:

> > [L'artefatto non ha etica.
> > Esprime l'etica di chi l'ha costruito, imprimendola al resto del
> > mondo. Ne riproduce la volontà. Ne diffonde i valori.]
> >
> > L'utilizzatore, nella stragrande maggioranza dei casi, è eticamente
> > irrilevante. Se non può alterare concretamente e consapevolmente il
> > funzionamento dell'artefatto, non ha libertà nel suo utilizzo. Può
> > fare e pensare solo ciò che il creatore dell'artefatto stesso ha
> > deciso.  
> trovo problematico affermare che "l'utilizzatore, nella stragrande 
> maggioranza dei casi, è eticamente irrilevante."
> chi utilizza un coltello per uccidere la compagna, o i contractors di 
> Wagner che usano un martello per uccidere un compagno; non mi paiono 
> eticamente irrilevanti; e quindi direi al contrario che nella
> stragrande maggioranza dei casi l’utilizzatore di un artefatto è
> eticamente rilevante.

Ho parlato di "artefatto" avendo in mente la società cibernetica.

Gli agenti cibernetici si distinguono in due categorie: quelli autonomi
(ovvero gli esseri umani o le organizzazioni di esseri umani) e quelli
automatici (gli automatismi, creati da alcuni uomini).

Il coltello, un'auto o una vecchia fotocopiatrice, estendono le capacita
fisiche dell'uomo (tagliare, muoversi, copiare): sono certamente
artefatti (ovvero oggetti progettati e costruiti dall'uomo, ma non
sono (di per sé) agenti cibernetici.

La fotocopiatrice è un esempio particolarmente illuminante sulla
differenza fra automatismo novecentesco e agente cibernetico automatico.

La fotocopiatrice non fotocopia tutto ciò che le capita a tiro.
Non fotocopia neanche tutto ciò che le capita a tiro che rispetta un
certo criterio (ad esempio, una certa intestazione o un certo colore)

E' sempre l'uomo a decidere cosa deve fotocopiare.
Magari può lasciarla a fotocopiare centinaia di pagine senza
supervisione, ma la fotocopiatrice non avrà alcuna autonomia.
Non deciderà cosa fotocopiare e cosa no e non potrà fotocopiare
qualcosa che non le sia stato messo nel cassetto di ingresso.

L'auto, il trattore o l'escavatore novecentesco fanno la stessa cosa:
estendono la forza o la velocità dell'uomo, ma è sempre l'uomo
a decidere precisamente ed esaustivamente cosa fanno.

Così come il coltello, notepad, il mail user agent o la mitragliatrice.

Sono artefatti che non sono agenti cibernetici, ed in quanto tali,
l'utente non è affatto moralmente irrilevante e anzi: quando
la persona che usa un artefatto ne ha piena comprensione e pieno
controllo, diventa il maggiore (o l'unico) responsabile delle azioni
che compie attraverso di esso, come se le compisse con le proprie mani.


Tuttavia una prima distinzione esiste fra gli artefatti informatici e
quelli fisici: la straordinaria flessibilità del software stabilisce
diverse asimmetrie fra coloro che usano e corono che creano l'artefatto:

- anzitutto, l'interfaccia utente determina fortemente gli schemi di
  pensiero dell'utilizzatore, favorendo, sfavorendo, impedendo o
  determinando le cose che l'utilizzatore potrà pensare di fare o meno
- poi a livello di comprensione del funzionamento: quella dello
  sviluppatore può essere completa (almeno per software non da buttare)
  quella dell'utente potrebbe non esserlo (e quanto lo sia dipende in
  larga parte dall'interfaccia)

Confronta due casi estremi:

- modificare un testo con un word processor non impone che tu abbia un
  modello mentale dell'esecuzione del software
- modificare lo stesso testo con sed [2], sì.

Non solo: leggere e comprendere completamente sed [3] richiede più o
meno un paio di giorni, leggere e comprendere completamente un word
processor moderno (ammesso che sia legale e non impedito da leggi
oscurantiste) richiede mesi di studio (NB: "completamente" è la parola
chiave qui).

Dunque l'asimmetria di potere (e di responsabilità morale) può essere
esacerbata o minimizzata. Ma solo chi crea può decidere se
esacerbarla (attraverso licenze, brevetti complessità etc...)
o minimizzarla.

Dunque è chi crea l'artefatto a definire con grande precisione gli
spazi di libertà entro cui chi lo usa potrà esprimere la propria
moralità.

Se questi spazi sono ristretti, l'utente diventa solo un ingranaggio
del sistema cibernetico: il software riproduce esclusivamente la
volontà dei suoi creatori e la persona che vi è cognitivamente
imprigionata diventa un mero ingranaggio.


L'agente cibernetico automatico però è un artefatto ancora diverso: non
solo le persone che vi interagiscono non ne comprendono il
funzionamento, ma spesso non sanno nemmeno che esista, che sia in
esecuzione sull'hardware che si portano dietro e non hanno alcuna idea
(o una idea estremamente parziale di ciò che quell'automatismo fa).

L'artefatto non ha alcuna autonomia, ma l'essere umano, evolutosi per
milioni di anni in un contesto in cui ciò che si muoveva da sé di
solito era anche dotato di una minima autonomia (il pesce può scappare,
il cinghiale attaccare e soprattutto l'uomo può ribellarsi
all'ingiustizia) continua a proiettare questa esperienza atavica sugli
automatismi che sembrano agire da sé.
E naturalmente tutta la propaganda sulla AI da decenni serve proprio a
rafforzare questa proiezione.

Tuttavia l'artefatto che è anche agente cibernetico reagisce alle
variazioni ambientali misurate dai suoi sensori in modo automatico:
l'autonomia dell'essere umano che vi è connesso è molto ridotta, come
nel caso del passeggero dell'auto a guida autonoma o della persona
dipendente dalla dopamina prodotta dall'interazione con il social
network.


Nella mia frase ho collassato artefatto con agente cibernetico
automatico. usando il primo come sinonimo del secondo, e compiendo
almeno due errori:

- uno di contestualizzazione (era chiaro solo nella mia testa che tutti
  gli agenti cibernetici automatici sono artefatti e quindi potevo usare
  i due termini come sinonimi)
- l'altro di banalizzazione: se è vero che l'utilizzatore è moralmente
  irrilevante se non comprende pienamente il funzionamento degli
  agenti cibernetici automatici con cui interagisce, è altrettanto vero
  che la sua rilevanza morale varia enormemente anche quando
  interagisce con automatismi che non sono agenti cibernetici (ad
  esempio il CMS, l'editor o il sito web)


> il caso generale rimane che l’utilizzatore di un artefatto è
> eticamente rilevante (in caso contrario assolviamo tutti gli
> assassini che per uccidere usano artefatti) e come in tutti i casi di
> responsabilità etica, la conoscenza e la consapevolezza contano.

Non è più tanto generale purtroppo.

Il numero degli agenti cibernetici che girano sul tuo cellulare sommato
a quello degli agenti cibernetici che vi sono connessi, supera di gran
lunga gli artefatti inerti (non agenti cibernetici) di cui disponi in
casa tua.

Solo che i coltelli li vedi, i software di routing dei pacchetti, i
firewall, i sistemi di profilazione, i sistemi di realtime-bidding
degli ads, o i sistemi di previsione del tuo comportamento, di selezione
dei contenuti etc... non li vedi, non sai che esistano, e quindi non li
conti.


Io purtroppo ne sono drammaticamente consapevole.
Questo senza voler scusare il mio errore di cui sopra, ma per volerlo
spiegare: ho inavvertitamente ignorato la minoranza degli artefatti.
Una minoranza sempre più rara, mano a mano che il software pervade ogni
cosa, dal microonde, al frigorifero, alla stampante, al frullatore
etc...


Dunque sì, per gli artefatti che non sono agenti cibernetici automatici
hai ragione: l'utilizzatore non era moralmente irrilevante.

Bisognerà spiegarlo bene... sui libri di Storia!
(quelli stampati su carta: data volant, scripta manent ;-)


Ma se vogliamo parlare del presente o del futuro, dobbiamo 
scegliere se vogliamo essere ingranaggi o persone.


E se scegliamo di essere persone, dobbiamo costruire e diffondere
esclusivamente tecnologie di cui tutti possano effettivamente
comprendere il funzionamento in modo esaustivo ed in tempi ragionevoli.

A molti non interesserà? Amen!

A qualcuno interesserà ogni tanto. A qualcuno interesserà sempre.
Ma è irrilevante.

La possibilità di comprendere completamente il funzionamento come
prerequisito alla diffusione di un agente cibernetico automatico 
è semplicemente un prerequisito della democrazia.

Non insegnamo a tutti a leggere e scrivere perché tutti diventino
parlamentari. Ma perché se qualcuno non lo potesse diventare, non
vivremmo in una democrazia.

Lo stesso vale deve valere per l'informatica.
Coloro non sanno programmare e debuggare il software che li utilizza
diventeranno presto meno che cittadini di serie B, meno che sudditi,
meno che un "consumatori" o "utenti".

Diventeranno ingranaggi, marionette.

Se non lo sono già, ovviamente.


Giacomo

[1]
https://server-nexa.polito.it/pipermail/nexa/2022-October/024300.html

[2] http://man.9front.org/1/sed

[3]
http://git.9front.org/plan9front/plan9front/27ca3c1b0c109cb15fb3aa2baa152eaf9dc2eba3/sys/src/cmd/sed.c/f.html
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to