Salve Guido,

On Tue, May 23, 2023 at 06:54:31AM +0200, Guido Vetere wrote:
> Non so se ho capito correttamente il senso del tuo intervento, ma vorrei
> rispondere comunque al tuo invito di osservare e commentare.

più che altro, mi chiedo se tu l'abbia letto... ;-)

> Nel tuo ragionamento, che ha il pregio di esemplificare una posizione
> radicale [...]

Immagino che Daniela appaia "radicale" perché tiene i piedi ben 
saldi per terra, senza lanciarsi in fantasiosi voli pindarici sulle
magnifiche sorti e progressive della "intelligenza artificiale".

Come darti torto: è radicale restare saldamente radicato alla realtà.

> mi sembra di scorgere alcuni difetti logici, ideologici e materiali

In tutta onestà, Guido, mi sembrano evidenti diversi errori logici e
informatici nella tua analisi dell'articolo di Daniela.

Errori comprensibilissimi se interpretati come espressione di una
ideologia dai tratti quasi religiosi.


> Prendiamo ad esempio:
> 
> > . Tra i prodotti di [intelligenza artificiale] – costitutivamente
> pericolosi e non funzionanti – ci sono le auto a guida autonoma, i sistemi
> di ottimizzazione predittiva e i generatori di linguaggio naturale.
> 
> Quel 'costitutivamente' è un giudizio categorico che esclude la possibilità
> futura di avere auto a guida autonoma che si comportano meglio di certi
> miei concittadini (romani, ndr)

No, esclude la possibilità di avere auto a guida autonoma che si
comportino meglio dei tuoi concittadini su una strada aperta ai 
tuoi contittadini. Questo perché l'imprevedibilità del comportamento
umano e animale non può essere gestita da una macchina programmata
statisticamente.

Se parlassimo propriamente di programmazione statistica invece che di
"intelligenza artificiale", il fatto che ad input poco frequenti o 
inediti il software prodotto non possa rispondere in modo adeguato
apparirebbe evidente a tutti.

Per QUESTO si continua a blaterare di "intelligenza artificiale":
per approfittare dell'ignoranza informatica diffusa.


Detto questo, su strade ad uso esclusivo dei veicoli a guida autonoma
e con torri di controllo che ne monitorino e coordininino gli
spostamenti, tali sistemi possono funzionare (fintanto che, comunque, 
ci sia qualcuno a bordo in grado di prenderne efficacemente il 
controllo e guidarli in caso di bug o anomalie di sensori/attuatori).

Insomma, più o meno come avviene già nel traffico aereo.


> o che vi sia mai la possibilità di lanciare un'allerta meteo localizzato 
> a breve termine in grado di salvare vite umane (tema di attualità), 

In nessun passaggio dell'articolo di Daniela compare la meteorologia.

Daniela parla in modo inequivocabile di ottimizzazioni predittive del
comportamento umano.

Dunque, se abbiamo letto lo stesso articolo, questo tuo argomento
fantoccio costituisce una fallacia logica piuttosto ingenua.

E non solo perché su Nexa tutti hanno le competenze per riconoscerla!


La meteorologia ha migliaia di anni, migliaia di addetti in tutto il
mondo e notevoli applicazioni commerciali e MILITARI.

Eppure non riesce a prevedere con precisione le precipitazioni entro
due o tre giorni, ECCETTO che in circostanze straordinarie.


E se non riusciamo a prevedere con precisione l'evoluzione di fluidi 
e gas, che non godono di libero arbitrio, figurati prevedere il
comportamento di un essere umano!


Dunque il tuo strawman, paradossalmente, andrebbe aggiunto agli
argomenti di Daniela sulla costituitiva pericolosità di qualsiasi
sistema di ottimizzazione predittiva applicata ad esseri umani


> o ancora di avere sistemi di supporto linguistico che aiutano 
> gli immigrati a comprendere certe gabole della nostra pubblica 
> amministrazione. 

E perché diamine dovremmo affidare persone vulnerabili come i migranti
ad software che costituitivamente possibi dire stronzate?

Chi risponderà degli illeciti eventualmente commessi in buona fede
da tali migranti su suggerimento di tali software?

A chi credi che andrà a suonare il cambanello il Salvini di turno?


> Sul 'non funzionanti' ci sarebbe anche da dire. 

Concordo: un orologio fermo non funziona.
Una bomba a orologeria funziona benissimo: non deve stare sul mercato.

> A quel che si vede nella comunità tecnico-scientifica,  certe cose
> non funzionano, altre hanno difetti, ma altre vanno decisamente bene.
> Considera che se i nostri figli potranno guarire da certe malattie,
> qualcosa dovranno anche alle tecniche che stanno alla base di ciò che tu
> svaluti
> <https://edisciplinas.usp.br/pluginfile.php/7689820/mod_resource/content/1/d41586-022-00997-5.pdf>.

Altro argomento fantoccio, Guido.


L'analisi di Daniela non è "categoricamente negativa", ma oggettiva:
riporta diverse evidenze (e altre se ne potrebbero aggiungere) di
prodotti e servizi che si sono rivelati dannosi, veicolando violazioni
normative e talvolta persino omicidi (si pensi alla povera Elaine
Hertzberg).


Daniela non "svaluta" alcuna tecnica, ma critica alcune PERSONE che
propagandano e vendono alcune applicazioni di determinate tecniche
analizzando alcuni PRODOTTI e SERVIZI.


Se abbiamo letto lo stesso articolo, potrebbe essere utile concentarci
su ciò che Daniela ha scritto, non credi?

Non è mica l'output di ChatGPT, in fondo... ;-)


> Questa tua visione categoricamente negativa sta alla base - mi pare - del
> punto centrale del ragionamento:
> 
> > Se la responsabilità per gli effetti ordinari di tali prodotti ricadesse
> > sui produttori, la loro commercializzazione non sarebbe vantaggiosa.
> 
> In quegli 'effetti ordinari' però c'è una grossa petizione di principio.

Direi piuttosto che c'è una notevole comprensione del loro funzionamento.

Gli effetti ordinari di una bomba atomica sono deleterei.
Gli effetti ordinari di una centrale atomica (ben costruita e manutenuta
in modo anti-economico, anteponendo la sicurezza al profitto) possono
non esserli.

La fisica alla base di entrambi i prodotti è la stessa.


Analogamente, la programmazione statistica potrà facilmente migliorare
le previsioni meteorologiche (le ha migliorate, in effetti), ma non 
potrà mai PREVEDERE il comportamento individuale sul lungo periodo 
(pur potendolo influenzare probabilisticamente).


> Chi ha stabilito che tutte le applicazioni di AI abbiano 'effetti ordinari'
> deleteri? Chi ha stabilito che non si possa in alcun modo ottenere
> un'applicazione ragionevolmente sicura di queste tecniche, così da poter
> distinguere normalmente tra potenzialità e attualità dell'uso?

Nessuno.

E infatti Daniela non lo esclude.

Rileva che, le applicazioni su cui si stanno investendo miliardi OGGI
hanno effetti ordinari costitutivamente deleteri.


Tuttavia, se posso agganciarmi qui per una piccola critica all'articolo
di Daniela, direi piuttosto che quella frase è discutibile per l'uso del
termine "vantaggiosa".

@Daniela: non è affatto detto che la commercializzazione di una
determinata tecnologia persegua un profitto economico. 
In molti casi il vantaggio perseguito è di natura sociale e politica.

Dunque se mi posso permettere una correzione, riformulerei quella frase
come "Se la responsabilità per gli effetti ordinari (aka esternalità)
di tali prodotti ricadesse interamente sui produttori, la loro 
commercializzazione sarebbe antieconomica."



> Questo assimilare la produzione di AI a quella - per dire - dell'iprite o
> dell'antrace mi sembra un po' ingenerosa. Più benevolmente

Perché dovremmo essere benevoli con questa gente?

Io direi piuttosto che dovremmo essere estremamente severi.


> potremmo  convenire che si tratta di prodotti il cui uso va normato, come 
> quello di tutti gli altri. 

Su questo siamo assolutamente d'accordo: dovremmo normarli come normiamo 
le droghe pesanti, come cocaina e allucinogeni, che producono (a livello
individuale) effetti paragonabili a quelli dei prodotti citati (a
livello sociale e collettivo).

> Per usare una facile metafora: per evitare gli incidenti
> stradali non è ragionevole vietare la produzione di automobili, dobbiamo
> però far rispettare i limiti di velocità e perseguire severamente chi li
> eccede.

Splendido esempio.

E dovremmo anche arrestare per omicidio i consigli di amministrazione
delle auto a guida autonoma che causano incidendi mortali.

Quando il consiglio di ammistrazione di Uber verrà arrestato per
l'omicidio di Elain Herzberg, potremo brindare insieme.


> Non è che l'AI vada accolta per la sua eccezionalità, ma proprio per la sua
> ordinarietà. Certe narrazioni manipolatrici e interessate di aziende grandi
> e piccole dobbiamo conoscerle, smontarle e contrastarle sul campo con la
> pratica. Il compito del tecno-intellettuale gramsciano dovrebbe essere
> questo :-)

Non so cosa sia un tecno-intellettuale gramsciano.

Ma dubito che Gramsci apprezzerebbe questa accozzaglia di argomenti
fantoccio in difesa della nuova tecnologia oppressiva dei padroni. ;-)



D'altro canto, Daniela porta una asprissima critica ad un mondo 
intellettuale (o forse tecno-intellettuali) che prende i soldi 
dell'industria per svilupparne e diffonderne la propaganda
attraverso narrazioni che la giustifichino.


Ne è un esempio perfetto l'articolo che hai pubblicato sul Manifesto

> PS colgo l'occasione per segnalarvi un mio articolo che potrebbe
> interessarvi: Serve Wittgenstein per capire ChatGPT
> <https://ilmanifesto.it/serve-wittgenstein-per-capire-chatgpt> (Il
> Manifesto)

Il declino della stampa, la totale scomparsa di qualsiasi senso
critico, mi lascia sempre allibito.


"Al di là della responsabilità legale dell'esercizio di tali sistemi"

Nessuno che abbia riletto il tuo testo prima di pubblicarlo si è
chiesto: "perché 'al di là'? non è una responsabilità fondamentale?"

"chi si impegna quando l'automa parla? La risposta breve è: nessuno."

Nessuno che abbia riletto il tuo testo si è chiesto chi si è impegnato
a programmamarlo quell'automa che parla? Si è programmata da sola?
Si è accesa da sola? Si paga le bollette da sola?


Ma soprattutto, nessuno in una testata storica come il Manifesto è stato
capace di chiedersi "Cui prodest?"




Questa seconda parte dell'articolo di Daniela mi sembra molto
interessante per Nexa: nessun commento sulla cattura culturale in corso?

Daniela ne analizza i diversi strumenti retorici:

- il principio di inevitabilità tecnologica
- il principio di innovazione
- la prospettiva soluzionistica
- l'antropomorfizzazione delle macchine a la deumanizzazione delle
  persone
- i miti dell'eccezionalismo tecnologico e del vuoto giuridico
- gli allarmi su rischi e pericoli tratti dal futuro o dalla
  fantascienza
- i messianesimi eugenetici


si tratta di narrazioni finalizzate alla conquista di una nuova
egemonia culturale, che deve essere sposata acriticamente.


La successiva trattazione dell'aspetto normativo è, secondo me,
ineccepibile:

> L'eventuale impossibilità di risalire alla responsabilità dovrebbe
> perciò essere assimilata giuridicamente, anziché a un rebus
> filosofico, a una forma di negligenza del produttore.

Non sono sicuro che la categoria della negligenza sia appropriata,
onestamente (il dolo è evidente), ma di certo non c'è alcun rebus
filosofico in atto, solo fumo negli occhi (evidentemnte ricco di THC)


Credo che, passato l'effetto del fumo, una lucida lettura
dell'articolo di Daniela potrebbe di grande aiuto ai pochi 
politici che non si vogliano far manipolare dall'industria.


Speriamo abbia ampia diffusione.


Giacomo

_______________________________________________
nexa mailing list
nexa@server-nexa.polito.it
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to