>
> Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi
> dell'intervento". Ingannato sulla natura di quell'output, non prodotto
> da una mente intelligente che abbia compreso l'intervento, ha
> perpetuato l'inganno a sua volta sulla lista.
>

preferisco essere considerato un bieco agente delle multinazionali
piuttosto che un cretino che non ha capito con cosa ha a che fare :-)

cheers,
G.


On Wed, 8 Jan 2025 at 12:26, Giacomo Tesio <[email protected]> wrote:

> Mi spiace Alfredo per averti dato l'impressione di volerla buttare in
> caciara, ti assicuro che credevo le mie parole fossero chiare e persino
> autoevidenti, ovvie... tanto da temere di annoiare la lista.
>
> Riproviamo.
>
>
> A quanto ho capito del tuo ragionamento, tu fai due affermazioni
> distinte, che ritieni entrambe vere:
>
> 1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa.
> 2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa.
>
> Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla
> realtà. Permettimi di (ri)spiegarti il perché.
>
>
> # La tecnologia nel suo complesso non è MAI neutrale
>
> La prima affermazione è facile da falsificare per costruzione: è
> sufficiente elencare le diverse tecnologie progettate esplicitamente
> per nuocere, dalla mina antiuomo alla bomba atomica.
>
>
> Se riduciamo l'affermazione a "esistono anche tecnologie neutrali",
> dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate
> (e tanto più quelle più complesse) sono politicamente orientate.
>
>
> Internet è sin dalla sua ideazione un'arma, progettata per garantire
> l'esecuzione di un controattacco nucleare durante la guerra fredda.
> Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1].
>
>
> Anche un coltello può essere progettato per essere usato esclusivamente
> a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù.
> Può ad esempio essere progettato per spezzarsi se sottoposto ad una
> minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile
> per accoltellare chicchessia pur essendo ottimo per tagliare la carne
> lungo la lama.
>
> Per contro, un coltello militare può essere progettato per lacerare i
> tessuti, producendo codette interne per un più rapido dissanguamento
> del nemico.
>
> Dunque, anche se possiamo usare la nostra fantasia per immaginare un
> coltello veramente neutrale [2], ogni coltello _reale_ facilita o
> impedisce determinati usi, avendo effetti politici concreti.
>
>
> # I LLM NON sono neutrali.
>
> Per tornare alla questione sollevata dalla Professoressa Vallor,
> sebbene esistano molti usi potenzialmente utili per le tecniche di
> programmazione statistica adottate anche per realizzare le "AI
> generative" (di cui gli LLM di cui parliamo sono un esempio),
> queste tecnologie sono intrinsecamente e fondativamente
> politicamente orientate.
>
> Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti
> hanno come obiettivo minimo superare il test di Turing.
>
> Il test di Turing consiste, temo urga ricordarlo anche qui,
> nell'ingannare uno o più esseri umani sulla natura della sorgente
> dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_
> ad un essere umano.
>
> I creatori di un LLM conversazionale vincono questo "imitation game" se
> persone ignare attribuiscono intelligenza al loro software, e questi
> software sono progettati e continuamente ottimizzati esattamente per
> questo obiettivo.
>
>
> Obiettivo che è estremamente specifico: ingannare esseri umani affinché
> confondano la macchina con un altro essere umano.
>
>
> Per questa semplice ragione, le "AI generative" (e gli LLM di cui
> parliamo in particolare) possono essere usate SOLO per ingannare
> esseri umani.
>
> Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate
> a costo di miliardi di dollari ed enormi quantità di energia.
>
>
>
> Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico
> esempio di pessimo uso di un LLM che può apparire ragionevole all'utente
> ignorante ormai succube della propaganda), il "riassuntino" che un LLM
> ha fatto del discorso della Professoressa Vallor. [3]
>
> Omette completamente aspetti fondamentali della metafora che propone su
> cui la Professoressa si era giustamente soffermata a lungo, riducendola
> ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano
> e distorcono i dati umani da cui derivano.
>
> La Professoressa ha detto altro!
>
> Ha usato una metafora abbastanza attinente da un punto di vista tecnico
> per spiegare _come_ e _perché_ i software programmati statisticamente
> elaborano i dati in input e quelli sorgente compressi al proprio
> interno.
>
> E questa è solo una delle omissioni e banalizzazioni che l'output del
> LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle
> "AI generative" dalle tecnologie che potrebbero essere impiegate
> in modo socialmente utile.
>
>
> Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi
> dell'intervento". Ingannato sulla natura di quell'output, non prodotto
> da una mente intelligente che abbia compreso l'intervento, ha
> perpetuato l'inganno a sua volta sulla lista.
>
> Se fossimo su twitter, la chiameresti misinformazione.
> Se Guido fosse russo, la chiameresti disinformazione. :-D
>
> Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad
> ingannare sé stesso sul tempo necessario a partecipare al dibattito in
> cui si inserisce il libro / intervento della Professoressa Vallor [4].
>
> Ma tutti ricondurrebbero la responsabilità a Guido (vittima
> inconsapevole che arriva a difendere i propri carnefici [5]) o, al
> massimo, al software che ha "sfortunatamente" prodotto l'output
> "errato".
> Dovremmo invece ricondurla a coloro che hanno programmato quel software
> per ingannare Guido sulla sua abilità di comprendere un testo e
> produrne una "sintesi".
>
> Sia che ciò avvenga per ragioni economiche o politiche.
> (che poi... anche l'economia è politica...)
>
>
>
> Più in generale, una tecnologia progettata e realizzate per ingannare
> le persone può essere utilizzata _solo_ per ingannare persone.
>
> E' letteralmente un'arma.
>
>
> Il fatto che persone lontanissime dall'idea di rivolgere un'arma
> controllata da terzi contro sé stessi, la puntino quotidianamente
> alla propria testa, dovrebbe rendere evidente la sua potenza e
> pericolosità.
>
>
> Inoltre, paragonare tecnologie semplici come un coltello o un
> martello ad un LLM è sbagliato anche per il semplice fatto che costo e
> complessità realizzativa determinano una barriera all'ingresso tale
> da determinare intrinsecamente un orientamento politico: solo un élite
> molto ricca può permettersi di provare a costruirli, e lo farà solo
> se vi intravede un'utilità per sé nettamente superiore ai rischi.
>
>
>
> Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false.
>
>
> Sono d'accordo che gli intenti "predatori" di molti esseri umani sono
> socialmente dannosi e vadano contenuti.
>
> E sono anche d'accordo che tali intenti siano alla base di molti
> dei problemi di cui discutiamo speso in questa lista.
>
>
> Tanto d'accordo che ho provato a spiegarti COME tali intenti siano
> fondativi e costituenti degli LLM, così come di molte altre armi.
>
>
> La tecnologia, spero di averti mostrato, è _sempre_ una espressione
> umana politicamente orientata, intrinsecamente, ancora prima
> che venga effettivamente utilizzata.
>
>
> Gli LLM conversazionali esistono per ingannare le menti, esattamente
> come le mine antiuomo esistono per uccidere e mutilare i corpi.
>
> Non possono essere usate per niente altro.
>
>
> E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che
> molte persone (anche colte e intelligenti) finiscono per credersi
> e dichiararsi poco diverse da questi software.
>
>
>
> Allo stesso modo possiamo creare software emancipatori e socialmente
> utili. Io ci provo da tempo [6] sebbene sia una lotta impari.
>
>
> Spero vivamente di essere stato finalmente più chiaro (di certo
> Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori
> dubbi, forse potremmo continuare in privato per non tediare la lista.
>
>
> Giacomo
>
> [1]
> https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html
>     i sono stati (e vi sono) diversi tentativi di rimuoverne (o
>     mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli.
>
>     Si potrebbe dire che, di fatto, è come se stessimo conversando
>     amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di
>     non guardarle, di ignorare chi le indica e persino di arrestare chi
>     prova a rimuoverle.
>
> [2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI!
>     Coltelli da cucina automaticamente impegnati a mantenere
>     l'equilibrio fra bene e male! Quanti miliardari in meno! :-D
>     https://assortedmeeples.com/true-neutral-dnd-alignment-guide
>
> [3] Per chi volesse rileggerlo:
>     https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html
>
> [4] come, in fondo, ha delicatamente provato a fargli notare Alberto
>     https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html
>
> [5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto
>      del transcript della Prof. Vallor qualche anno fa ce lo sognavamo,
>      credimi."
>     https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html
>
>     NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di
>     andare a dormire, che nemmeno l'impepata di cozze..." :-D
>
> [6] https://jehanne.h--k.it/
>     https://monitora-pa.it/
>
> https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip
>     https://monitora-pa.it/LICENSE.txt
>

Reply via email to