Caro Beppe,

passiamo il paragone anche se mi pare zoppichi un po'. I logaritmi non sono nemmeno tecnologia, sono matematica, come l'addizione. E chi pubblica tavole di logaritmi (purché corretti) non esercita alcun potere a distanza su chi le usa, cosa che accade in tutti gli altri esempi che fai.

Nessuno dice (credo) che gli LLM siano /di per se/ una violazione di valori o principi morali, ma forniscono un grande potere.

La loro diffusione e monetizzazione con i chatbot, senza prima aver fatto alcuna valutazione di impatto, è l'ennesima mossa irresponsabile ed immorale di un capitalismo industriale senza controllo, che tale potere usa senza scrupolo.

Come accaduto in passato quando una nuova industria esplode senza una previa regolazione, ne seguono irreversibili danni ambientali: appropriazione di risorse comuni, degrado, inquinamento. Il termine evocativo usato per il territorio investito di questi danni è 'sacrifice zone'.

Abbiamo visto cosa è successo con i social network e lo smartphone che hanno predato attenzione, consenso e relazioni. Assistiamo impotenti al potenziamento dello stesso capitalismo della sorveglianza che ora dispone della facoltà di produrre industrialmente testi e immagini con l'appropriazione del patrimonio linguistico comune, riversando masse di testi nell'ecosistema linguistico.

L'ambiente minacciato non è solo quello energetico, in questi casi la 'sacrifice zone' è l'ambiente sociale e politico, e parlando di LLM, della lingua e del linguaggio.

Questo pone la questione, certamente morale, a chi sviluppa tali tecnologie: se lasciare incondizionatamente tali strumenti e il potere che ne deriva nelle mani di chi ha già dimostrato di volerne abusare. Oppure porre delle condizioni, come sollecitarne la regolazione prima di consentirne il rilascio.

Come ho già fatto notare, alcuni ambiti disciplinari si sono posti il problema dell'uso delle proprie scoperte prima che queste venissero buttate sul mercato, e ottenuto una regolazione. In altri contesti, è richiesta una approvazione prima di poter rilasciare prodotti sul mercato, che sia una caldaia o un farmaco.

Non credo che la ragione per cui ciò non è avvenuto nell'industria ICT stia in una particolare immoralità degli informatici rispetto a fisici e biologi.

Congetturo che sia dovuto da una parte nella irresponsabilità storica di una industria immatura, a cui è garantita l'impunità in virtù di un immotivato /tech exceptionalism/, e dall'altra nella distanza tra progettazione e impiego. Oppenheimer disse, descrivendo cosa lo spinse a creare la bomba A: «when you see something that is technically sweet, you go ahead and do it and you argue about what to do about it only after you have had your technical success». Ma lui sapeva bene che impiego avrebbe avuto la bomba. Oggi un informatico spesso non lo sa. Metti che uno sviluppa una tecnica di /recommendation/ pensando al marketing, poi se la trova utilizzata nella industrializzazione della kill chain di qualche servizio segreto. [1]

Ammesso che non vi siano algoritmi immorali, dato il contesto non vi sono nemmeno più applicazioni innocenti. Sia chiaro che non voglio esprimere un giudizio su nessuno: è un problema che mi pongo anche io nella mia modestissima attività di ricerca.

Morali o immorali, come ne usciamo?

Un saluto,

A.


[1] <https://www.qmul.ac.uk/media/news/2024/hss/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net.html>


On 13/01/25 16:22, Giuseppe Attardi wrote:

On 13 Jan 2025, at 12:16,nexa-requ...@server-nexa.polito.it  wrote:

Non parliamo però dell'idea astratta di una tecnologia (i "LLM") ma
delle sue applicazioni concrete.
Proprio questo è il punto cruciale. Quando sostengo che bisogna distinguere tra 
tecnologia e le sue applicazioni, intendo proprio questo.
Per tecnologia intendo i principi di base, la conoscenza tecnico scientifica 
utilizzabile per scopi pratici.

Ogni applicazione concreta ha le sue finalità e di conseguenza è orientata a 
scopi e interessi di chi la realizza. Chi le produce deve esserne cosciente e 
si assume la responsabilità delle conseguenze. Chi le utilizza accetta e 
condivide la responsabilità degli effetti di tale utilizzo. Questa condivisione 
di responsabilità è coerente con le affermazioni che strumenti e loro 
utilizzatori costituiscono a volte un’accoppiata inseparabile di responsabilità.

Ho fatto come esempio di tecnologia separato dalle applicazioni le tabelle dei 
logaritmi, ma anche per le altre applicazioni citate da qualcuno come 
controesempi di tecnologie non neutre si può fare la stessa distinzione:

- smartphones: la tecnologia è semplicemente la combinazione di personal 
computer con connettività internet (GSM o WiFi). BTW, Tablet e PC usano la 
stessa tecnologia, per cui è artificiosa la critica agli uni e non agli altri.
- StarLink, la tecnologia è quella dei satelliti LEO e della connettività 
Internet via radio e tramite link dinamici. Anche qui la critica al monopolio 
di Musk riguarda questa particolare istanza di servizio.
- whatsapp, la tecnologia è un semplice la combinazione di tre protocolli: 
Signal, WebRTC e XMPP.

Tutte queste tecnologie sono disponibili e altre implementazioni sono possibili.
Il fatto che alcune di queste si siano imposte rispetto ad altre è una 
questione ben poco tecnologica (come è stato fatto notare non sempre si afferma 
la tecnologia migliore), ma principalmente antropologica (winner takes all o 
rich gets richer, che dipende dai limiti cognitivi della nostra mente: possiamo 
ricordare al più 3-4 cose per settore) che viene sfruttato dai sistemi 
economici e finanziari per promuovere un vincente e stroncare i concorrenti.

La tecnologia ha sempre dei limiti ed è perfettamente legittimo metterli in 
evidenza.
Per le attuali tecnologia degli LLM ci sono limiti riguardo la stima a priori 
dell’accuratezza, la scalabilità dei modelli, la quantità di dati necessaria 
all’apprendimento, il catastrophic forgetting, ecc.
Ma direi che nessuno di questi costituisca una violazione di valori morali tale 
da metterle al bano o di sottoporle alla generale esecrazione.

Esistono tecnologie che incorporano violazioni di principi morali. Ad esempio 
le camere a gas, anche se usate per eseguire pene capitali irrogate da un 
tribunale, sono un esempio: molti paesi hanno abolito la pena capitale e questo 
rende tali tecnologie contrarie ai principi morali a cui le leggi di quei paesi 
fanno riferimento.

Lo stesso vale per le armi nucleari. Legittimo quindi da parte degli scienziati 
di rifiutarsi di sviluppare tecnologie destinate a tali usi o di sviluppare 
applicazioni che violino principi morali.

—

Reply via email to