Caro Beppe,
passiamo il paragone anche se mi pare zoppichi un po'. I logaritmi non
sono nemmeno tecnologia, sono matematica, come l'addizione.
E chi pubblica tavole di logaritmi (purché corretti) non esercita alcun
potere a distanza su chi le usa, cosa che accade in tutti gli altri
esempi che fai.
Nessuno dice (credo) che gli LLM siano /di per se/ una violazione di
valori o principi morali, ma forniscono un grande potere.
La loro diffusione e monetizzazione con i chatbot, senza prima aver
fatto alcuna valutazione di impatto, è l'ennesima mossa irresponsabile
ed immorale di un capitalismo industriale senza controllo, che tale
potere usa senza scrupolo.
Come accaduto in passato quando una nuova industria esplode senza una
previa regolazione, ne seguono irreversibili danni ambientali:
appropriazione di risorse comuni, degrado, inquinamento. Il termine
evocativo usato per il territorio investito di questi danni è 'sacrifice
zone'.
Abbiamo visto cosa è successo con i social network e lo smartphone che
hanno predato attenzione, consenso e relazioni. Assistiamo impotenti al
potenziamento dello stesso capitalismo della sorveglianza che ora
dispone della facoltà di produrre industrialmente testi e immagini con
l'appropriazione del patrimonio linguistico comune, riversando masse di
testi nell'ecosistema linguistico.
L'ambiente minacciato non è solo quello energetico, in questi casi la
'sacrifice zone' è l'ambiente sociale e politico, e parlando di LLM,
della lingua e del linguaggio.
Questo pone la questione, certamente morale, a chi sviluppa tali
tecnologie: se lasciare incondizionatamente tali strumenti e il potere
che ne deriva nelle mani di chi ha già dimostrato di volerne abusare.
Oppure porre delle condizioni, come sollecitarne la regolazione prima di
consentirne il rilascio.
Come ho già fatto notare, alcuni ambiti disciplinari si sono posti il
problema dell'uso delle proprie scoperte prima che queste venissero
buttate sul mercato, e ottenuto una regolazione. In altri contesti, è
richiesta una approvazione prima di poter rilasciare prodotti sul
mercato, che sia una caldaia o un farmaco.
Non credo che la ragione per cui ciò non è avvenuto nell'industria ICT
stia in una particolare immoralità degli informatici rispetto a fisici e
biologi.
Congetturo che sia dovuto da una parte nella irresponsabilità storica di
una industria immatura, a cui è garantita l'impunità in virtù di un
immotivato /tech exceptionalism/, e dall'altra nella distanza tra
progettazione e impiego.
Oppenheimer disse, descrivendo cosa lo spinse a creare la bomba A: «when
you see something that is technically sweet, you go ahead and do it and
you argue about what to do about it only after you have had your
technical success».
Ma lui sapeva bene che impiego avrebbe avuto la bomba. Oggi un
informatico spesso non lo sa. Metti che uno sviluppa una tecnica di
/recommendation/ pensando al marketing, poi se la trova utilizzata nella
industrializzazione della kill chain di qualche servizio segreto. [1]
Ammesso che non vi siano algoritmi immorali, dato il contesto non vi
sono nemmeno più applicazioni innocenti.
Sia chiaro che non voglio esprimere un giudizio su nessuno: è un
problema che mi pongo anche io nella mia modestissima attività di ricerca.
Morali o immorali, come ne usciamo?
Un saluto,
A.
[1]
<https://www.qmul.ac.uk/media/news/2024/hss/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net.html>
On 13/01/25 16:22, Giuseppe Attardi wrote:
On 13 Jan 2025, at 12:16,nexa-requ...@server-nexa.polito.it wrote:
Non parliamo però dell'idea astratta di una tecnologia (i "LLM") ma
delle sue applicazioni concrete.
Proprio questo è il punto cruciale. Quando sostengo che bisogna distinguere tra
tecnologia e le sue applicazioni, intendo proprio questo.
Per tecnologia intendo i principi di base, la conoscenza tecnico scientifica
utilizzabile per scopi pratici.
Ogni applicazione concreta ha le sue finalità e di conseguenza è orientata a
scopi e interessi di chi la realizza. Chi le produce deve esserne cosciente e
si assume la responsabilità delle conseguenze. Chi le utilizza accetta e
condivide la responsabilità degli effetti di tale utilizzo. Questa condivisione
di responsabilità è coerente con le affermazioni che strumenti e loro
utilizzatori costituiscono a volte un’accoppiata inseparabile di responsabilità.
Ho fatto come esempio di tecnologia separato dalle applicazioni le tabelle dei
logaritmi, ma anche per le altre applicazioni citate da qualcuno come
controesempi di tecnologie non neutre si può fare la stessa distinzione:
- smartphones: la tecnologia è semplicemente la combinazione di personal
computer con connettività internet (GSM o WiFi). BTW, Tablet e PC usano la
stessa tecnologia, per cui è artificiosa la critica agli uni e non agli altri.
- StarLink, la tecnologia è quella dei satelliti LEO e della connettività
Internet via radio e tramite link dinamici. Anche qui la critica al monopolio
di Musk riguarda questa particolare istanza di servizio.
- whatsapp, la tecnologia è un semplice la combinazione di tre protocolli:
Signal, WebRTC e XMPP.
Tutte queste tecnologie sono disponibili e altre implementazioni sono possibili.
Il fatto che alcune di queste si siano imposte rispetto ad altre è una
questione ben poco tecnologica (come è stato fatto notare non sempre si afferma
la tecnologia migliore), ma principalmente antropologica (winner takes all o
rich gets richer, che dipende dai limiti cognitivi della nostra mente: possiamo
ricordare al più 3-4 cose per settore) che viene sfruttato dai sistemi
economici e finanziari per promuovere un vincente e stroncare i concorrenti.
La tecnologia ha sempre dei limiti ed è perfettamente legittimo metterli in
evidenza.
Per le attuali tecnologia degli LLM ci sono limiti riguardo la stima a priori
dell’accuratezza, la scalabilità dei modelli, la quantità di dati necessaria
all’apprendimento, il catastrophic forgetting, ecc.
Ma direi che nessuno di questi costituisca una violazione di valori morali tale
da metterle al bano o di sottoporle alla generale esecrazione.
Esistono tecnologie che incorporano violazioni di principi morali. Ad esempio
le camere a gas, anche se usate per eseguire pene capitali irrogate da un
tribunale, sono un esempio: molti paesi hanno abolito la pena capitale e questo
rende tali tecnologie contrarie ai principi morali a cui le leggi di quei paesi
fanno riferimento.
Lo stesso vale per le armi nucleari. Legittimo quindi da parte degli scienziati
di rifiutarsi di sviluppare tecnologie destinate a tali usi o di sviluppare
applicazioni che violino principi morali.
—