Stimolato da questa interessantissima recensione (grazie Alessandro!) mi
permetto un piccola citazione auto-referenziale.
In questo post divulgativo apparso a febbraio di quest'anno
https://www.startmag.it/innovazione/intelligenza-artificiale-o-meccanica-questo-e-il-problema/
discutevo proprio l'inappropriatezza del termine "intelligenza
artificiale", soprattutto verso i non addetti ai lavori, e proponevo -
richiamandomi anche io agli albori della disciplina - l'uso del termine
"intelligenza meccanica".
Ciao, Enrico
Il 13/08/2024 12:46, alessandro marzocchi ha scritto:
Con o senza digitale ci sono parole senza definizione precisa, per i
nostri interessi comuni penso a coscienza, intelligenza.
Intelligenza artificiale ci appassiona e sconvolge ma invito a
ricordare un nome di pochi decenni fa: cervello elettronico, alla fine
una protesi, più intrigante e misteriosa di altre perchè interessa
l'unico organo che indaga su sé stesso, parole evocative del
neuroscienziato Arnaldo Benini.
Su la rivista il Mulino -
https://www.rivistailmulino.it/a/intelligenza-artificiale-quali-regole?
[1, in calce la trascrizione] - Gabriele Della Morte recensisce
Giusella Finocchiaro e critica l'IA perchè "" sovverte il classico
paradigma di causalità "". A me, giurista arrugginnito, viene il
dubbio che da sempre il diritto ha usato il principio di causalità
quale attrezzo, ricordo "" da mihi factum dabo tibi ius "" cioè: dimmi
il fatto perché il diritto concreto deriva dal confronto tra il fatto
e con la regola di diritto.
Mi resta anche il dubbio che potremmo essere non tanto diversi dalle
macchine [2], in argomento segnalo Federico Faggin -
https://www.youtube.com/watch?v=GBgtT5lR2kE&list=PL1dG6p9W8A2tGKoEaVU1L1t0ec95X4
Ibe Index=8
<https://www.youtube.com/watch?v=GBgtT5lR2kE&list=PL1dG6p9W8A2tGKoEaVU1L1t0ec95X4Ibe&index=8>
-, nelle esperienze mistiche fatico a seguirlo, ma è invidia benevola
e soprattutto considero intrigante l'impegno di trovare un correlato
fisico della coscienza che Faggin ipotizza tra fisica classica e
fisica quantistica, come campo quantistico che è in uno stato
informatico quale vettore unitario particolare che ha l'esperienza del
suo stato: l'avesse detto in lingua cinese e scritto in alfabeto
ebraico avrei capito quel che ho capito, cioè niente; la mia
generazione odiava le scienze, non me ne vanto, mi dispiace ed ho
riportato Faggin nella speranza di avviare un dibattito che mi aiuti a
capire. Quel che ho capito merita già attenzione perchè, dice Faggin,
"" abbiamo una definizione con cui si può lavorare si può dimostrare
se falsificare e provare e quindi non è più un dogma non è più un
discorso campato per aria ma è una vera una vera definizione con cui
uno può lavorare fare esperimenti "".
Trovo poi utili le riflessioni di Faggin su pensiero che origina quale
""immagine preverbale"" poi evolve in ""parola mentale"" prima di
materializzarsi nell'emissione fonetica di ""parola verbale"" di cui
parla nel contesto di una tripartizione di spazi della coscienza,
dell'informazione, della realtà fisica [3].
Recuperando l' antico nome di ""cervello elettronico"" ricorderemmo
meglio che il cervello è un organo il quale, attraverso la funzione
mente e con risultati mai certi, produce intelligenza.
Ma siamo ancora nel dominio dell'astrattezza nel quale la parola cerca
un significato, il percorso è più chiaro se dall'organo cervello si
passa ad altri organi, comincio con gamba: gamba, camminare, correre,
saltare non sono un'unica cosa.
Con l'organo corde vocali cominciano i problemi: corde vocali,
emissione sonora, canto, parola, lingua, significato, realtà ...
Purtroppo non abbiamo di meglio delle parole e tutte queste macchine
potrebbero aiutarci a costruire linguaggi migliori se ... e qui penso
a ipotesi pessimiste avanzate anche da persone più affidabili di me.
Intanto ben venga il giudice Usa che ha ritenuto Google un monopolio,
ma la strada è ancora lunga e piena di ostacoli.
Auguri cordiali.
Duccio (Alessandro Marzocchi)
[1]
Intelligenza artificiale. Quali regole?
Un libro che torna sul perenne timore della creatura – in questo caso
l’IA – che sfugge al suo creatore, ragionando su cosa si intende
regolare e come si intende farlo
di Gabriele Della Morte 13 luglio 2024
Sistemi intelligenti (ancorché artificiali), oracoli, allucinazioni,
incantesimi… nel pamphlet di Giusella Finocchiaro (Intelligenza
artificiale. Quali regole?, Il Mulino, 2024) si avverte da subito il
lettore dell’inganno lessicale che si cela dietro questi lemmi.
Ricorrendo al lessico del mito più che a quello specialistico, le
parole adoperate per riferirsi alle dirompenti (disruptive)
innovazioni digitali fortificano il pregiudizio attraverso il quale
approcciamo queste tecnologie.
Invero, i termini evocati nell’ampio contesto dell’intelligenza
artificiale richiamano antiche paure radicate nella tradizione più che
nella innovazione. Si tratta del perenne timore della creatura che
sfugge al suo creatore, una narrazione che ha attraversato secoli e
continenti, dal Golem della cabala ebraica – fortissimo gigante di
argilla, incapace di provare emozioni – sino al Frankestein di Shelley
(1818). Ma sono gli anni Cinquanta del secolo appena trascorso la
«stagione d’oro» per questa narrativa, cui ancora oggi volgere lo
sguardo per trarre spunti sul presente. È il periodo in cui Asimov
elabora le tre leggi della robotica, un’anticipazione del tema del
cosiddetto Human in the loop, ovvero dell’uomo che non perde il
controllo sul dispositivo, al centro persino del primo discorso di un
pontefice al G7: «Nessuna macchina dovrebbe mai avere il potere di
decidere se togliere la vita a un essere umano». Vale la pena
rammentarle, dette leggi, ancora così attuali:
«1) Un robot non può recar danno a un essere umano né può permettere
che, a causa del suo mancato intervento, un essere umano riceva danno;
2) Un robot deve obbedire agli ordini impartiti dagli esseri umani,
purché tali ordini non vadano in contrasto alla Prima Legge; 3) Un
robot deve proteggere la propria esistenza, purché la salvaguardia di
essa non contrasti con la Prima o con la Seconda Legge».
Più importante ancora, nel 1950 Turing pubblica Computing Machinery
and Intelligence, un Imitation Game in cui una persona deve intuire,
sulla base delle repliche a domande poste per iscritto, se il proprio
interlocutore è un essere umano oppure un computer. A ben vedere il
superamento del cosiddetto «test di Turing» rappresenta ancora oggi
uno degli obiettivi dei sistemi di linguaggio generativo, come
ChatGpt. Se questa tecnologia produce risultati talvolta del tutto
immaginari non è dunque a causa di allucinazioni, ma perché lo scopo è
appunto quello… di apparire credibile, indistinguibile dall’artefatto
umano. Ha fatto scalpore, di recente, il caso Schwartz: un avvocato
divenuto celebre per avere depositato una memoria redatta da ChatGpt
in cui i precedenti, ineccepibilmente richiamati nell’atto con tutti i
criteri formali (data del provvedimento, nome delle parti, ecc.),
erano del tutto inventati.
Ha ragione Finocchiaro a suggerire di sostituire l’espressione
“intelligenza”, con la quale si “antropomorfizza il discorso”, con
“machine learning, cioè un sistema di apprendimento automatico basato
sull’utilizzo dei dati”
Ha dunque ragione Finocchiaro a suggerire di sostituire l’espressione
«intelligenza», con la quale si «antropomorfizza il discorso», con
«machine learning, cioè un sistema di apprendimento automatico basato
sull’utilizzo dei dati». Ma c’è chi, come Bender, si spinge più in là,
evocando addirittura la metafora dei «pappagalli stocastici»: modelli
capaci di generare linguaggio senza comprendere il senso. In fondo,
come Floridi ricordava, citando Dijkstra: «chiedersi se un computer
possa pensare è tanto interessante quanto chiedersi se un sottomarino
possa nuotare».
Ciò premesso, appare evidente come tali sistemi manifestano un
potenziale smisurato perché adattabile a ogni possibile scopo.
Esprimono così, nelle luminose parole di Severino riportate da
Finocchiaro, il «destino della tecnica», ovvero quello «di avere come
scopi il non privarsi della capacità di realizzare qualsiasi scopo».
In che misura questo incida sull’esperienza giuridica, fondata su
concetti come soggettività, attribuzione e responsabilità, appare
evidente. Agendo attraverso reti neurali, tali tecnologie sovvertono
il classico paradigma di causalità (if-this-then-that) per il quale è
possibile risalire alle ragioni della scelta e alla conseguente
imputazione delle responsabilità. A fronte di tale trasformazione, il
giurista armato dei soli strumenti tradizionali può trovarsi
facilmente disorientato, se non del tutto smarrito in un
(cyber-)spazio di unknown unknowns, in cui non soltanto non si è a
conoscenza, ma non si è nemmeno a conoscenza di cosa non si è a
conoscenza.
Eppure, questo disorientamento non può, e soprattutto non deve
tradursi in un arretramento sul fronte della necessità di regole,
ancorché detta esigenza debba essere bilanciata con la libertà di
ricerca e di impresa (non a caso uno dei pilastri della regolazione
dell’Unione europea in tema, il cosiddetto Gdpr, ha per nome esteso
«regolamento relativo alla protezione delle persone fisiche con
riguardo al trattamento dei dati personali, nonché alla libera
circolazione di tali dati»).
Nella condivisibile prospettiva adottata da Finocchiaro, interpretare
correttamente tale richiesta consiste innanzitutto nell’individuare le
domande giuste. Queste devono specificare cosa si intende regolare e
come si intende farlo.
È questa, a parere di chi scrive, la parte più interessante dell’agile
volume, la cui lettura è certamente raccomandata come introduzione al
tema generale. In pochi e brevi capitoli, adottando una prospettiva
larga accompagnata da esempi concreti (chi è il responsabile delle
auto a guida autonoma? A chi attribuire la paternità delle opere
d’arte create dall’intelligenza artificiale?) si delineano gli
orizzonti problematici delle trasformazioni in atto.
Cosa si vuole regolare, innanzitutto? L’intelligenza artificiale… nel
suo complesso, secondo un modello orizzontale, oppure alcune
specifiche applicazioni, secondo «silos» verticali (l’intelligenza
artificiale in campo medico, in campo finanziario ecc.)?
E come si intende regolarla? Attraverso norme, già formate o di nuova
formazione, oppure attraverso princìpi? E posti da quali autorità:
nazionali? internazionali? adottati direttamente dalle imprese?
Adottando una prospettiva larga accompagnata da esempi concreti si
delineano gli orizzonti problematici delle trasformazioni in atto
Chiarire questi aspetti, significa comprendere in quale direzione
orientare gli sforzi per gli anni a venire, e tra le numerose
suggestioni che il breve volume evoca su questo fronte, sia concesso
rammentarne due, riferibili, appunto, all’oggetto e alle modalità.
Cominciando dal cosa, Finocchiaro osserva preliminarmente come
l’Artificial Intelligence Act è volto a regolare orizzontalmente ogni
ricorso all’intelligenza artificiale con riferimento all’Unione
europea. Ciò nonostante, esso «finisce poi col disciplinare specifiche
applicazioni». In altri termini, è l’inclusione della singola attività
all’interno di ciascuna classe di rischio, secondo un approccio
top-down, verticale, ad assumere importanza capitale e sulla quale, in
futuro, occorrerà vigilare. Dette classi sono quattro e prevedono
sinteticamente che: (1) se il rischio è inaccettabile, il ricorso
all’intelligenza artificiale è vietato (come nel caso del cosiddetto
social scoring o dell’identificazione biometrica in tempo reale in
luoghi pubblici, incluso il riconoscimento facciale, salvo eccezioni
riferibili per lo più a esigenze di sicurezza); 2) se il rischio è
alto, occorrono stringenti limiti e condizioni (come per la chirurgia
assistita da robot, o come per la valutazione delle priorità in caso
di richiesta di intervento di polizia o di vigili del fuoco; il ricco
elenco di attività è incluso in un allegato modificabile dalla
Commissione Ue); 3) se il rischio è limitato, basta adempiere a
obblighi di trasparenza (come nel caso dei chatbox che non devono
«fingersi» umani); e infine 4) se il rischio è minimo o nullo, non
sopravvengono limitazioni (come nel caso dei filtri antispam).
Ma anche il tema del come regolare offre al lettore interessanti
spunti, in particolare quando l’autrice osserva che per disciplinare
l’intelligenza artificiale in modo generale occorre «passare dalle
regole ai princìpi». Questi ultimi, a differenza delle prime, sono
caratterizzati da una maggiore ampiezza e flessibilità. Ne sono esempi
i princìpi di trasparenza, di non discriminazione, di sorveglianza
umana ecc., molti dei quali adoperati finanche nei codici di condotta
adottati dalle imprese. È il caso, tra i tanti, dell’Oversight Board
di Meta, un Comitato di esperti incaricato di riconsiderare in modo
indipendente, sulla base di princìpi condivisi – e in parte ispirati
al diritto internazionale – cosa mostrare e cosa censurare su
Facebook, Instagram e Threads, piattaforme social che registrano nel
complesso più di tre miliardi di utenti (attivi), quasi la metà della
popolazione mondiale.
La sfida, come si comprende, è tra le più impegnative, e richiede una
risposta sovranazionale, dal momento che solo il coordinamento tra
Stati, e tra Stati e organizzazioni internazionali, può offrire
risposte soddisfacenti alla domanda regolatoria.
L’alternativa è restare inerti, magari suggestionati da timori
apocalittici (non a caso nel testo si rammenta Apocalittici e
integrati, di Echiana memoria). Come in The Answer, un fulminante
racconto di Brown sempre degli anni Cinquanta (1954), dove in appena
mezza pagina si immagina il momento in cui, «con gesti lenti e
solenni» si provvede alla saldatura degli ultimi due fili che
collegano «i giganteschi calcolatori elettronici di tutti i pianeti
abitati dell’Universo […] un’unica macchina cibernetica racchiudente
tutto il sapere di tutte le galassie». Di fronte all’onore del primo
interrogativo, il protagonista ne sceglie uno che nessuna macchina
cibernetica aveva potuto esaudire sino a quel momento. «“C’è Dio?”.
L’immensa voce rispose senza esitazione, senza il minimo crepitio di
valvole o condensatori. “Sì: adesso, c’è”».
---
[2] del resto la macchina è artefatto, prodotto umano.
[3] approx a partire dal minuto 16
--
-- EN
https://www.hoepli.it/libro/la-rivoluzione-informatica/9788896069516.html
======================================================
Prof. Enrico Nardelli
Past President di "Informatics Europe"
Direttore del Laboratorio Nazionale "Informatica e Scuola" del CINI
Dipartimento di Matematica - Università di Roma "Tor Vergata"
Via della Ricerca Scientifica snc - 00133 Roma
home page: https://www.mat.uniroma2.it/~nardelli
blog: https://link-and-think.blogspot.it/
tel: +39 06 7259.4204 fax: +39 06 7259.4699
mobile: +39 335 590.2331 e-mail: [email protected]
online meeting: https://blue.meet.garr.it/b/enr-y7f-t0q-ont
======================================================
--