Etica è valutazione secondo canoni "umani": il digitale è "umano"?

Duccio (Alessandro Marzocchi)


Il giorno sab 22 giu 2024 alle ore 09:32 <[email protected]>
ha scritto:

> Send nexa mailing list submissions to
>         [email protected]
>
> To subscribe or unsubscribe via the World Wide Web, visit
>         https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
> or, via email, send a message with subject or body 'help' to
>         [email protected]
>
> You can reach the person managing the list at
>         [email protected]
>
> When replying, please edit your Subject line so it is more specific
> than "Re: Contents of nexa digest..."
>
>
> Today's Topics:
>
>    1. Articolo su algoretica (Guido Boella)
>    2. Re: Che dire della “algor-etica”?  Spunti per una critica
>       della prospettiva (was Articolo su algoretica) (380°)
>    3. ...e che dire dell'etica dell'IA? (spunti per una critica
>       della prospettiva) (380°)
>
>
> ----------------------------------------------------------------------
>
> Message: 1
> Date: Fri, 21 Jun 2024 13:00:55 +0200
> From: Guido Boella <[email protected]>
> To: [email protected]
> Subject: [nexa] Articolo su algoretica
> Message-ID:
>         <CAA8c75ViQLT-dpUqiV58HED=a-gS=EX9Un9TjSXHhnBNU=
> [email protected]>
> Content-Type: text/plain; charset="utf-8"
>
> Carissime e carissimi
>
> segnalo un articolo sul tema algoretica scritto da SIpEIA su Magazine
> Intelligenza Artificiale - MagIA
>
> https://magia.news/che-dire-della-algor-etica-spunti-per-una-critica-della-prospettiva/
>
> colgo l'occasione per ricordare che MagIA vuole essere un luogo aperto a
> tutte e tutti per parlare di impatto dell'IA e quindi rinnovo la call to
> action a tutte e tutti gli interessati a contribuire con editoriali se
> interessate/i
>
> saluti
> guido
>
> --
> Dipartimento di Informatica
> Università di Torino
> Cso Svizzera 185
> 10149 Torino
>
> Vice-Rettore Vicario dell'Università di Torino per la promozione dei
> rapporti con le imprese e le associazioni di categoria delle imprese e per
> il coordinamento con le iniziative di innovazione industriale sul
> territorio
>
> Vicepresidente del Competence Center CIM4.0 www.cim40.com
>
> Visitate i siti delle nostre iniziative
>
> www.magia.news
> www.firstlife.org
> www.commonshood.eu
> www.projectco3.eu
> www.sipeia.it
> www.chedih.eu
> www.ai-aware.eu
> nlab4cit.eu
> -------------- next part --------------
> An HTML attachment was scrubbed...
> URL: <
> http://server-nexa.polito.it/pipermail/nexa/attachments/20240621/44f16766/attachment-0001.htm
> >
>
> ------------------------------
>
> Message: 2
> Date: Sat, 22 Jun 2024 08:51:12 +0200
> From: 380° <[email protected]>
> To: [email protected]
> Subject: Re: [nexa] Che dire della “algor-etica”?  Spunti per una
>         critica della prospettiva (was Articolo su algoretica)
> Message-ID: <[email protected]>
> Content-Type: text/plain; charset="utf-8"
>
> Buongiorno,
>
> grazie della segnalazione
>
> Guido Boella via nexa <[email protected]> writes:
>
> > Carissime e carissimi
> >
> > segnalo un articolo sul tema algoretica scritto da SIpEIA su Magazine
> > Intelligenza Artificiale - MagIA
> >
> https://magia.news/che-dire-della-algor-etica-spunti-per-una-critica-della-prospettiva/
>
> a parte qualche stonatura (red herring?) che io ritengo più che
> perdonabile nel contesto, ho molto apprezzato la critica all'algoretica
>
> anche ai fini archivistici, riporto qui un mio personalissimo estratto
> dei punti (IMO) salienti.
>
> il succo del discorso è: (gli algoritmi non /esistono/) Free Software in
> Free Society. :-)
>
> --8<---------------cut here---------------start------------->8---
>
> ══════════════════════════════════════════════════════════════════════════
>
> 1.1 Considerazioni preliminari
> ──────────────────────────────
>
> Negli ultimi decenni si rileva una proliferazione di etiche speciali,
> ossia di declinazioni dell'etica generale applicata a settori
> specifici. L'idea è più che accettabile perché da sempre è noto che
> nelle diverse circostanze si richiedono specificazioni peculiari
> rispetto al canone generale. Tuttavia, al riguardo bisogna mantenere
> cautele, per evitare che le specificazioni travolgano l'impianto di
> fondo che caratterizza ogni etica. Fra le recenti etiche speciali
> troviamo: la bioetica, l'etica degli affari, l'etica bancaria, l'etica
> delle relazioni internazionali, l'etica legale, l'etica militare,
> l'etica delle sperimentazioni e via dicendo. Ultima nata in questa
> prospettiva è l'algoretica che ora sta riscuotendo un certo successo e
> interesse anche perché il termine è stato usato da personalità di
> rilievo.
>
> 1.2 Origine del termine e ambito considerato
> ────────────────────────────────────────────
>
> Il termine “algoretica” è un neologismo che pare sia stato coniato [1]
> nel 2017 dal giurista e filosofo Luigi Lombardi Vallauri, che oltre a
> reclamarne la paternità ha precisato che “Bioetica e roboetica si
> possono allora unificare nel concetto di algoretica: l'algoritmo
> biologico si riflette nell'algoretica umana, animale e ambientale,
> cioè l'etica del vivente, del bios; l'algoritmo non biologico si
> riflette nell'algoretica dei robot e dei sistemi di Intelligenza
> Artificiale; ossia nell'etica concernente gli algoritmi stessi”
> [2].
>
> [...] Paolo Benanti, che sulla scia di Lombardi Vallauri a
> proprio modo ha affermato: “Abbiamo bisogno di un'algor-etica, ovvero
> di un modo che renda computabili le valutazioni di bene e di
> male. Dobbiamo codificare principi e norme etiche in un linguaggio
> comprensibile e utilizzabile dalle macchine. [...] [3]
>
> [...] In questa accezione il termine algoretica si sovrappone al termine
> machine ethics [5] usato in Informatica, vale a dire un'etica che,
> inclusa nel programma dotato di autonomia, ne regoli il comportamento; è
> la disciplina che realizza “controllori etici autonomi”; cioè algoritmi
> all'interno di altri algoritmi che dicono alle macchine autonome come si
> debbono comportare (perché il loro comportamento sia eticamente
> accettabile). [...]
>
> 1.3 Che dire dell'algoretica? È l'algoritmo il livello giusto di analisi?
> ─────────────────────────────────────────────────────────────────────────
>
> [...] Ma che cos'è un algoritmo? È una sequenza di passi eseguibili
> meccanicamente per raggiungere uno scopo. [...] un ‘metodo o
> procedimento matematico per la risoluzione di un problema'. In questa
> prospettiva un algoritmo è implementabile in un infinito numero di
> programmi che, anche in diversi linguaggi di programmazione, riescono a
> raggiungere lo stesso scopo ma in modo diverso [...]
>
> [...] Nonostante vi sia una connessione tra algoritmi e programmi, resta
> il fatto che i programmi sono eseguiti da macchine (hardware o
> virtuali), mentre gli algoritmi no, sono “invisibili strutture”. Questo
> è un punto centrale, perché il voler puntare a regolare l'etica o
> un'etica su un algoritmo, invece che su un programma, è come regolare i
> numeri anziché i prodotti industriali costruiti in base a modelli
> matematici.
>
> Nel momento però in cui si considera l'algor-etica “un modo che renda
> computabili le valutazioni di bene e di male”, e si codificano
> “principi e norme etiche in un linguaggio comprensibile e utilizzabile
> dalle macchine” [9] si sta ammettendo che l'etica possa essere ridotta
> ad un algoritmo, posizione controversa e con importanti
> implicazioni. Un'etica riducibile ad un algoritmo implica che l'etica
> dipende dalla sola razionalità ed è riducibile ad un insieme di
> numeri [...]
>
> L'uso del termine “algoritmo” come oggetto dell'analisi etica è
> complicato anche dal fatto che i sistemi di IA moderni sono basati
> sull'apprendimento automatico e in particolare sul “deep learning”
> neurale e di fatto “creano”, si potrebbe dire, un nuovo algoritmo o
> programma durante la fase di apprendimento, a partire dal programma
> originario di addestramento della rete neurale che ottimizza solamente
> i parametri della rete neurale sulla base dei dati di addestramento.
>
> [...] Diventa quindi difficile, anche se fosse possibile rendere
> “computabili le valutazioni di bene e di male”, “codificare principi e
> norme etiche in un linguaggio comprensibile e utilizzabile” da queste
> macchine, perché non sono programmabili nel senso tradizionale del
> termine.
>
> [...]
>
> 1.4 Cosa implica focalizzarsi sull'algoritmo e perché è sbagliato basare
> l'etica sull'algoritmo
>
> ───────────────────────────────────────────────────────────────────────────────────────────────
>
> [...] l'algoritmo è concetto astratto (una sorta di idea platonica) che
> per diventare concreto e avere un impatto sulla realtà abbisogna di
> materializzarsi in programmi concreti formulati da specifici attori che
> fanno azioni, come i programmatori, le aziende ICT, gli sviluppatori di
> hardware coinvolti in processi che hanno effetti ambientali, le banche o
> i fondi finanziari che forniscono denaro, etc. [...]
>
> L'insistenza che oggi viene posta sull'algoritmo, visto come il Sole
> al centro della scena e che irradia la propria luce su tutto, e la
> contemporanea sottovalutazione degli aspetti pratici implicati dal
> programma sono punti che fanno pensare. Non è che è in atto
> un'operazione retorica tesa a proporre una narrativa pubblica che
> presenta l'IA come qualcosa di astratto, di positivo e di pressoché
> ineluttabile, quasi che le grandi Big Tech siano esenti da ogni
> responsabilità circa gli scenari implementati? [...]
>
> La sinergia tra i vari aspetti sopra ricordati fa pensare che l'enfasi
> assegnata agli algoritmi (invece che ai programmi e alle loro
> applicazioni) sia al fondo dettata da una sorta di “utilità politica”,
> dal momento che la narrativa algoritmo-centrica permette di fissare il
> discorso sul concetto astratto di algoritmo, distogliendo l'attenzione
> dai vari attori concreti i cui interessi devono rimanere in ombra
> (forse perché non si vogliono toccare). Per esempio, un “programma”
> comporta un uso di ingenti risorse (umane, territoriali, finanziarie,
> etc.) che creano dinamiche tali per cui un governo deve mediare fra
> gli interessi delle Big Tech e il bene comune dei cittadini: tema che
> va posto e non può essere demandato (o occultato) dietro il concetto
> di algoritmo.
>
> [...]
>
> Footnotes
> ─────────
>
> [1] “Algoretica. Le due sfide cruciali nell'era tecnologica: bioetica,
> roboetica”, [Atti e memorie]
> (<https://www.torrossa.com/it/resources/an/4480056>) dell'Accademia
> Toscana di Scienze e Lettere «La Colombaria», vol. LXXXII, Firenze
> 2017 dalla conferenza di Luigi Lombardi Vallauri del 18/5/2017,
> nell'ambito del ciclo di incontri Roboetica. Per altri significati del
> termine “algoretica” si può utilmente consultare la [voce
> dell'Accademia della Crusca]
> (<https://accademiadellacrusca.it/it/parole-nuove/algoretica/18479>).
> Oltre
> ad avere la paternità del nuovo termine “algoretica”, Lombardi
> Vallauri più recentemente è intervenuto sul tema (Lombardi Vallauri,
> L. (2022) « [Algoretica e Informatica giuridica]
> (<https://i-lex.unibo.it/article/view/15586>)», i-lex. Bologna, Italy,
> 15(1), pagg. 29–35)
>
> [2] Ibid.
>
> [3] Paolo Benanti, Intelligenza artificiale: è tempo di pensare a
> un'etica degli algoritmi, “7”, “Corriere della Sera”, 25/10/2019.
>
> [4] Paolo Benanti, Oracoli. Tra algoretica e algocrazia, Roma, Luca
> Sossella editore, 2018.
>
> [5] Moor, James H. “The Nature, Importance, and Difficulty of Machine
> Ethics.” IEEE Intelligent Systems, vol. 21, no. 4, 2006, pp. 18-21.
>
> [6] Terrell Ward Bynum. K, Computer ethics: Its birth and its
> future. Ethics and Information Technology 3(2)2001 pp 109–1129
>
> [7] La [Rome Call for IA Ethics] (<https://www.romecall.org/>)
> presuppone la tesi della “brilliance of human race” sul resto del
> creato. Come [SIpEIA] (<http://www.sipeia.it>) abbiamo un approccio
> diverso che non assume in linea di principio la superiorità e
> specificità della specie umana.
>
> [8] Usiamo qui per semplicità il termine “programma” piuttosto che
> “software”, consci che il concetto di “software” include altri aspetti
> come i dati e le librerie su cui si basa il programma e lo rende in
> grado di essere eseguito e commercializzato.
>
> [9] Ibid.
>
> [10] Kazuhiro Takemoto. The moral machine experiment on large language
> models. Royal Society Open Science. 11(2) 2024.
>
> Josh Albrecht, Ellie Kitanidis, Abe Fetterman, Matt Boulos. The state
> of LLM ethical decision-making. Imbue. 14 Febbraio 2023.
>
> Eyal Aharoni, Sharlene Fernandes, Daniel J. Brady, Caelan Alexander,
> Michael Criner, Kara Queen, Javier Rando, Eddy Nahmias e Victor
> Crespo. Attributions toward artificial agents in a modified Moral
> Turing Test. 30 Aprile 2024.
>
> [11] A. Aneesh, Virtual Migration. The Programming of Globalization,
> Duke University Press, 2006.
>
> --8<---------------cut here---------------end--------------->8---
>
> saluti, 380°
>
> --
> 380° (Giovanni Biscuolo public alter ego)
>
> «Noi, incompetenti come siamo,
>  non abbiamo alcun titolo per suggerire alcunché»
>
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts.  Ask me about <https://stallmansupport.org>.
> -------------- next part --------------
> A non-text attachment was scrubbed...
> Name: signature.asc
> Type: application/pgp-signature
> Size: 857 bytes
> Desc: not available
> URL: <
> http://server-nexa.polito.it/pipermail/nexa/attachments/20240622/1f3026e5/attachment-0001.sig
> >
>
> ------------------------------
>
> Message: 3
> Date: Sat, 22 Jun 2024 09:31:51 +0200
> From: 380° <[email protected]>
> To: [email protected]
> Subject: [nexa] ...e che dire dell'etica dell'IA? (spunti per una
>         critica della prospettiva)
> Message-ID: <[email protected]>
> Content-Type: text/plain; charset="utf-8"
>
> Breve premessa,
>
> sono un semplice /tecnico/ e so nulla di filosofia (e di musica), ma per
> quel poco che ho studiato (da autodidatta) così come nella musica esiste
> un prima e un dopo Bach, nella filosofia esiste un prima e un dopo
> Kant... quindi sono "di parte" :-D
>
> 380° <[email protected]> writes:
>
> [...]
>
> >> segnalo un articolo sul tema algoretica scritto da SIpEIA su Magazine
> >> Intelligenza Artificiale - MagIA
> >>
> https://magia.news/che-dire-della-algor-etica-spunti-per-una-critica-della-prospettiva/
> >
> > a parte qualche stonatura (red herring?) che io ritengo più che
> > perdonabile nel contesto, ho molto apprezzato la critica all'algoretica
>
> ma mi lascia estremamente perplesso la «proposta diversa» presentata
> nell'articolo, ovvero l'etica dell'IA
>
> --8<---------------cut here---------------start------------->8---
>
> Un'etica riducibile ad un algoritmo implica che l'etica
> dipende dalla sola razionalità ed è riducibile ad un insieme di
> numeri, posizione non conciliabile con quella di chi vede per l'essere
> umano un ruolo speciale nel creato.
>
> --8<---------------cut here---------------end--------------->8---
>
> dunque sì, sì e poi ancora sì: l'etica (filosofia morale) dipende dalla
> sola razionalità (/roba/ da umani e non da macchine).
>
> quindi il fatto che l'etica non si possa descrivere algoritmicamente
> dipende _non solo_ dal fatto che non è "riducibile a un insieme di
> numeri" ma nemmeno può essere descritta in un linguaggio che esprima
> enunciati validabili attraverso regole di logica formale (si tratta di
> "semplicità insormontabili")... almeno non con _questa_ IA :-D
>
> --8<---------------cut here---------------start------------->8---
>
> 1.5 Perché etica dell'IA
> ────────────────────────
>
> L'algoretica non è sufficiente quando considera l'etica come qualcosa
> che si occupa di un oggetto che sta in un Iperuranio esterno e estraneo
> alle condizioni concrete della vita reale. Sulla scorta di questo tacito
> assunto c'è il rischio che si venga a riproporre una sorta di “etica
> tradizionale” che non tenga conto né delle innovazioni intervenute né
> dei cambiamenti di circostanze storiche che le innovazioni producono. A
> questo proposito è opportuno ricordare che anche l'etica generale ha già
> comportato cambiamenti significativi, sollecitati dalle etiche speciali,
> e quindi è pensabile che qualcosa di simile capiti anche ora con
> “l'etica dei programmi intelligenti”. Per esemplificare: la Rivoluzione
> industriale ha dato inizio alla “più grande trasformazione dell'umanità
> di cui abbiamo documenti scritti” (Hobsbawm), in quanto il controllo del
> mondo inorganico ha consentito nuove forme di relazioni sociali, ponendo
> le basi per la fine dell'aristocrazia e l'avvento della “sovranità
> popolare”. Mentre già nel XVIII secolo crollava l'Assolutismo in ambito
> sociale e politico, e la “etica politica” sollecitava la fine dei
> divieti etici assoluti (che non ammettono eccezioni) in ambito sociale,
> un filosofo come I. Kant ribadiva la tesi tradizionale dicendo che
> l'imperativo etico della moralità generale è quello categorico (cioè
> assoluto). Questa tesi è rimasta per meno di due secoli, quando la
> Rivoluzione biomedica ha consentito il controllo del mondo organico e
> l'idea che tutti i divieti siano prima facie (cioè, valgono a prima
> vista e ammettono eccezioni: non sono assoluti) si è estesa anche alle
> relazioni umane private e intime che riguardano la vita biologica.
>
> Ora la Rivoluzione IA propone un ulteriore passo dal momento che si
> profila la capacità di controllo delle “attività intelligenti”, con la
> capacità di nuove forme di produzione e di memoria. Il cambiamento che
> si profila è di magnitudo superiore ai due menzionati, e la sinergia
> tra i vari settori prospetta un mix che produrrà effetti tanto
> dirompenti da superare l'immaginazione. È per questo che ci vuole
> l'IA-etica, per sottolineare l'esigenza di un'etica nuova che abbia
> definitivamente abbandonato i divieti assoluti e che si apra alla
> costruzione di nuove prospettive. È a questo sguardo sul futuro che
> dobbiamo prestare attenzione.
>
> --8<---------------cut here---------------end--------------->8---
>
> ho lasciato il paragrafo integrale per non tralasciare nulla che
> potrebbe essere importante per una sincera critica alla "etica dell'AI"
>
> la mia domanda è: ma non è che "per caso" in questa proposta di
> /superamento/ della "etica tradizionale" (filosofia morale) c'è una
> sorta di furia /filosofo-clasta/ portata avanti "con l'ascia in mano"?
>
> non è che /per caso/ si sta travisando giusto un filino quello che Kant
> propose nella sua filosofia morale e che passa alla storia con
> l'etichetta di "Imperativo Categorico" [1]?
>
> è davvero necessario contribuire _in questi termini_ alla
> /ridicolizzazione/ delle "etiche tradizionali" (filosofia morale) per
> /fare spazio/ a etiche _specializzande_ più adatte alle "magnifiche
> sorti e progressive" della "Rivoluzione IA" (con la R maiuscola)?
>
> non è che "algoretica" e "etica della Rivoluzuione AI" sono sue facce
> della stessa medaglia (cioè il /materiale/ di cui sono fate a ben
> guardare è lo stesso)?
>
> non so, sono molto perplesso.
>
> saluti, 380°
>
>
> [1] https://plato.stanford.edu/entries/kant-moral/
>
>
>
> P.S.: poi non ho capito come diavolo avrebbe fatto la "Rivoluzione
> biomedica" a /far sloggiare/ la "tesi tradizionale" di Kant in merito
> all'imperativo categorico... se qualcuno me lo sa spiegare meglio lo
> faccia in privato per favore (però quel qualcuno, per favore, deve
> sapere bene cos'è l'imperativo categorico a cui si riferisce Kant, no
> perditempo, grazie).
>
> --
> 380° (Giovanni Biscuolo public alter ego)
>
> «Noi, incompetenti come siamo,
>  non abbiamo alcun titolo per suggerire alcunché»
>
> Disinformation flourishes because many people care deeply about injustice
> but very few check the facts.  Ask me about <https://stallmansupport.org>.
> -------------- next part --------------
> A non-text attachment was scrubbed...
> Name: signature.asc
> Type: application/pgp-signature
> Size: 857 bytes
> Desc: not available
> URL: <
> http://server-nexa.polito.it/pipermail/nexa/attachments/20240622/7a381846/attachment.sig
> >
>
> ------------------------------
>
> Subject: Digest Footer
>
> _______________________________________________
> nexa mailing list
> [email protected]
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
>
> ------------------------------
>
> End of nexa Digest, Vol 182, Issue 40
> *************************************
>

Reply via email to