Con o senza digitale ci sono parole senza definizione precisa, per i nostri
interessi comuni penso a coscienza, intelligenza.
Intelligenza artificiale ci appassiona e sconvolge ma invito a ricordare un
nome di pochi decenni fa: cervello elettronico, alla fine una protesi, più
intrigante e misteriosa di altre perchè interessa l'unico organo che indaga
su sé stesso, parole evocative del neuroscienziato Arnaldo Benini.
Su la rivista il Mulino -
https://www.rivistailmulino.it/a/intelligenza-artificiale-quali-regole? [1,
in calce la trascrizione] - Gabriele Della Morte recensisce Giusella
Finocchiaro e critica  l'IA perchè "" sovverte il classico paradigma di
causalità  "". A me, giurista arrugginnito, viene il dubbio che da sempre
il diritto ha usato il principio di causalità quale attrezzo, ricordo "" da
mihi factum dabo tibi ius "" cioè: dimmi il fatto perché il diritto
concreto deriva dal confronto tra il fatto e con la regola di diritto.
Mi resta anche il dubbio che potremmo essere non tanto diversi dalle
macchine [2], in argomento segnalo Federico Faggin -
https://www.youtube.com/watch?v=GBgtT5lR2kE&list=PL1dG6p9W8A2tGKoEaVU1L1t0ec95X4
Ibe Index=8
<https://www.youtube.com/watch?v=GBgtT5lR2kE&list=PL1dG6p9W8A2tGKoEaVU1L1t0ec95X4Ibe&index=8>
-, nelle esperienze mistiche fatico a seguirlo, ma è invidia benevola e
soprattutto considero intrigante l'impegno di trovare un correlato fisico
della coscienza che Faggin ipotizza tra fisica classica e fisica
quantistica, come campo quantistico che è in uno stato informatico quale
vettore unitario particolare che ha l'esperienza del suo stato: l'avesse
detto in lingua cinese e scritto in alfabeto ebraico avrei capito quel che
ho capito, cioè niente; la mia generazione odiava le scienze, non me ne
vanto, mi dispiace ed ho riportato Faggin nella speranza di avviare un
dibattito che mi aiuti a capire. Quel che ho capito merita già attenzione
perchè, dice Faggin, "" abbiamo una definizione con cui si può lavorare si
può dimostrare se falsificare e provare e quindi non è più un dogma non è
più un discorso campato per aria ma è una vera una vera definizione con cui
uno può lavorare fare esperimenti "".
Trovo poi utili le riflessioni di Faggin su pensiero che origina quale
""immagine preverbale"" poi evolve in ""parola mentale"" prima di
materializzarsi nell'emissione fonetica di ""parola verbale"" di cui parla
nel contesto di una tripartizione di spazi della coscienza,
dell'informazione, della realtà fisica [3].
Recuperando l' antico nome di ""cervello elettronico"" ricorderemmo meglio
che il cervello è un organo il quale, attraverso la funzione mente e con
risultati mai certi, produce intelligenza.
Ma siamo ancora nel dominio dell'astrattezza nel quale la parola cerca un
significato, il percorso è più chiaro se dall'organo cervello si passa ad
altri organi, comincio con gamba: gamba, camminare, correre, saltare non
sono un'unica cosa.
Con l'organo corde vocali cominciano i problemi: corde vocali, emissione
sonora, canto, parola, lingua, significato, realtà ...
Purtroppo non abbiamo di meglio delle parole e tutte queste macchine
potrebbero aiutarci a costruire linguaggi migliori se ... e qui penso a
ipotesi pessimiste avanzate anche da persone più affidabili di me.
Intanto ben venga il giudice Usa che ha ritenuto Google un monopolio, ma la
strada è ancora lunga e piena di ostacoli.
Auguri cordiali.
Duccio (Alessandro Marzocchi)

[1]
Intelligenza artificiale. Quali regole?
Un libro che torna sul perenne timore della creatura – in questo caso l’IA
– che sfugge al suo creatore, ragionando su cosa si intende regolare e come
si intende farlo
di Gabriele Della Morte 13 luglio 2024
Sistemi intelligenti (ancorché artificiali), oracoli, allucinazioni,
incantesimi… nel pamphlet di Giusella Finocchiaro (Intelligenza
artificiale. Quali regole?, Il Mulino, 2024) si avverte da subito il
lettore dell’inganno lessicale che si cela dietro questi lemmi. Ricorrendo
al lessico del mito più che a quello specialistico, le parole adoperate per
riferirsi alle dirompenti (disruptive) innovazioni digitali fortificano il
pregiudizio attraverso il quale approcciamo queste tecnologie.
Invero, i termini evocati nell’ampio contesto dell’intelligenza artificiale
richiamano antiche paure radicate nella tradizione più che nella
innovazione. Si tratta del perenne timore della creatura che sfugge al suo
creatore, una narrazione che ha attraversato secoli e continenti, dal Golem
della cabala ebraica – fortissimo gigante di argilla, incapace di provare
emozioni – sino al Frankestein di Shelley (1818). Ma sono gli anni
Cinquanta del secolo appena trascorso la «stagione d’oro» per questa
narrativa, cui ancora oggi volgere lo sguardo per trarre spunti sul
presente. È il periodo in cui Asimov elabora le tre leggi della robotica,
un’anticipazione del tema del cosiddetto Human in the loop, ovvero
dell’uomo che non perde il controllo sul dispositivo, al centro persino del
primo discorso di un pontefice al G7: «Nessuna macchina dovrebbe mai avere
il potere di decidere se togliere la vita a un essere umano». Vale la pena
rammentarle, dette leggi, ancora così attuali:
«1) Un robot non può recar danno a un essere umano né può permettere che, a
causa del suo mancato intervento, un essere umano riceva danno; 2) Un robot
deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini
non vadano in contrasto alla Prima Legge; 3) Un robot deve proteggere la
propria esistenza, purché la salvaguardia di essa non contrasti con la
Prima o con la Seconda Legge».
Più importante ancora, nel 1950 Turing pubblica Computing Machinery and
Intelligence, un Imitation Game in cui una persona deve intuire, sulla base
delle repliche a domande poste per iscritto, se il proprio interlocutore è
un essere umano oppure un computer. A ben vedere il superamento del
cosiddetto «test di Turing» rappresenta ancora oggi uno degli obiettivi dei
sistemi di linguaggio generativo, come ChatGpt. Se questa tecnologia
produce risultati talvolta del tutto immaginari non è dunque a causa di
allucinazioni, ma perché lo scopo è appunto quello… di apparire credibile,
indistinguibile dall’artefatto umano. Ha fatto scalpore, di recente, il
caso Schwartz: un avvocato divenuto celebre per avere depositato una
memoria redatta da ChatGpt in cui i precedenti, ineccepibilmente richiamati
nell’atto con tutti i criteri formali (data del provvedimento, nome delle
parti, ecc.), erano del tutto inventati.
Ha ragione Finocchiaro a suggerire di sostituire l’espressione
“intelligenza”, con la quale si “antropomorfizza il discorso”, con “machine
learning, cioè un sistema di apprendimento automatico basato sull’utilizzo
dei dati”
Ha dunque ragione Finocchiaro a suggerire di sostituire l’espressione
«intelligenza», con la quale si «antropomorfizza il discorso», con «machine
learning, cioè un sistema di apprendimento automatico basato sull’utilizzo
dei dati». Ma c’è chi, come Bender, si spinge più in là, evocando
addirittura la metafora dei «pappagalli stocastici»: modelli capaci di
generare linguaggio senza comprendere il senso. In fondo, come Floridi
ricordava, citando Dijkstra: «chiedersi se un computer possa pensare è
tanto interessante quanto chiedersi se un sottomarino possa nuotare».
Ciò premesso, appare evidente come tali sistemi manifestano un potenziale
smisurato perché adattabile a ogni possibile scopo. Esprimono così, nelle
luminose parole di Severino riportate da Finocchiaro, il «destino della
tecnica», ovvero quello «di avere come scopi il non privarsi della capacità
di realizzare qualsiasi scopo».
In che misura questo incida sull’esperienza giuridica, fondata su concetti
come soggettività, attribuzione e responsabilità, appare evidente. Agendo
attraverso reti neurali, tali tecnologie sovvertono il classico paradigma
di causalità (if-this-then-that) per il quale è possibile risalire alle
ragioni della scelta e alla conseguente imputazione delle responsabilità. A
fronte di tale trasformazione, il giurista armato dei soli strumenti
tradizionali può trovarsi facilmente disorientato, se non del tutto
smarrito in un (cyber-)spazio di unknown unknowns, in cui non soltanto non
si è a conoscenza, ma non si è nemmeno a conoscenza di cosa non si è a
conoscenza.
Eppure, questo disorientamento non può, e soprattutto non deve tradursi in
un arretramento sul fronte della necessità di regole, ancorché detta
esigenza debba essere bilanciata con la libertà di ricerca e di impresa
(non a caso uno dei pilastri della regolazione dell’Unione europea in tema,
il cosiddetto Gdpr, ha per nome esteso «regolamento relativo alla
protezione delle persone fisiche con riguardo al trattamento dei dati
personali, nonché alla libera circolazione di tali dati»).
Nella condivisibile prospettiva adottata da Finocchiaro, interpretare
correttamente tale richiesta consiste innanzitutto nell’individuare le
domande giuste. Queste devono specificare cosa si intende regolare e come
si intende farlo.
È questa, a parere di chi scrive, la parte più interessante dell’agile
volume, la cui lettura è certamente raccomandata come introduzione al tema
generale. In pochi e brevi capitoli, adottando una prospettiva larga
accompagnata da esempi concreti (chi è il responsabile delle auto a guida
autonoma? A chi attribuire la paternità delle opere d’arte create
dall’intelligenza artificiale?) si delineano gli orizzonti problematici
delle trasformazioni in atto.
Cosa si vuole regolare, innanzitutto? L’intelligenza artificiale… nel suo
complesso, secondo un modello orizzontale, oppure alcune specifiche
applicazioni, secondo «silos» verticali (l’intelligenza artificiale in
campo medico, in campo finanziario ecc.)?
E come si intende regolarla? Attraverso norme, già formate o di nuova
formazione, oppure attraverso princìpi? E posti da quali autorità:
nazionali? internazionali? adottati direttamente dalle imprese?
Adottando una prospettiva larga accompagnata da esempi concreti si
delineano gli orizzonti problematici delle trasformazioni in atto
Chiarire questi aspetti, significa comprendere in quale direzione orientare
gli sforzi per gli anni a venire, e tra le numerose suggestioni che il
breve volume evoca su questo fronte, sia concesso rammentarne due,
riferibili, appunto, all’oggetto e alle modalità.
Cominciando dal cosa, Finocchiaro osserva preliminarmente come l’Artificial
Intelligence Act è volto a regolare orizzontalmente ogni ricorso
all’intelligenza artificiale con riferimento all’Unione europea. Ciò
nonostante, esso «finisce poi col disciplinare specifiche applicazioni». In
altri termini, è l’inclusione della singola attività all’interno di
ciascuna classe di rischio, secondo un approccio top-down, verticale, ad
assumere importanza capitale e sulla quale, in futuro, occorrerà vigilare.
Dette classi sono quattro e prevedono sinteticamente che: (1) se il rischio
è inaccettabile, il ricorso all’intelligenza artificiale è vietato (come
nel caso del cosiddetto social scoring o dell’identificazione biometrica in
tempo reale in luoghi pubblici, incluso il riconoscimento facciale, salvo
eccezioni riferibili per lo più a esigenze di sicurezza); 2) se il rischio
è alto, occorrono stringenti limiti e condizioni (come per la chirurgia
assistita da robot, o come per la valutazione delle priorità in caso di
richiesta di intervento di polizia o di vigili del fuoco; il ricco elenco
di attività è incluso in un allegato modificabile dalla Commissione Ue); 3)
se il rischio è limitato, basta adempiere a obblighi di trasparenza (come
nel caso dei chatbox che non devono «fingersi» umani); e infine 4) se il
rischio è minimo o nullo, non sopravvengono limitazioni (come nel caso dei
filtri antispam).
Ma anche il tema del come regolare offre al lettore interessanti spunti, in
particolare quando l’autrice osserva che per disciplinare l’intelligenza
artificiale in modo generale occorre «passare dalle regole ai princìpi».
Questi ultimi, a differenza delle prime, sono caratterizzati da una
maggiore ampiezza e flessibilità. Ne sono esempi i princìpi di trasparenza,
di non discriminazione, di sorveglianza umana ecc., molti dei quali
adoperati finanche nei codici di condotta adottati dalle imprese. È il
caso, tra i tanti, dell’Oversight Board di Meta, un Comitato di esperti
incaricato di riconsiderare in modo indipendente, sulla base di princìpi
condivisi – e in parte ispirati al diritto internazionale – cosa mostrare e
cosa censurare su Facebook, Instagram e Threads, piattaforme social che
registrano nel complesso più di tre miliardi di utenti (attivi), quasi la
metà della popolazione mondiale.
La sfida, come si comprende, è tra le più impegnative, e richiede una
risposta sovranazionale, dal momento che solo il coordinamento tra Stati, e
tra Stati e organizzazioni internazionali, può offrire risposte
soddisfacenti alla domanda regolatoria.
L’alternativa è restare inerti, magari suggestionati da timori apocalittici
(non a caso nel testo si rammenta Apocalittici e integrati, di Echiana
memoria). Come in The Answer, un fulminante racconto di Brown sempre degli
anni Cinquanta (1954), dove in appena mezza pagina si immagina il momento
in cui, «con gesti lenti e solenni» si provvede alla saldatura degli ultimi
due fili che collegano «i giganteschi calcolatori elettronici di tutti i
pianeti abitati dell’Universo […] un’unica macchina cibernetica
racchiudente tutto il sapere di tutte le galassie». Di fronte all’onore del
primo interrogativo, il protagonista ne sceglie uno che nessuna macchina
cibernetica aveva potuto esaudire sino a quel momento. «“C’è Dio?”.
L’immensa voce rispose senza esitazione, senza il minimo crepitio di
valvole o condensatori. “Sì: adesso, c’è”».
---
[2] del resto la macchina è artefatto, prodotto umano.
[3] approx a partire dal minuto 16

Reply via email to