> > Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi > dell'intervento". Ingannato sulla natura di quell'output, non prodotto > da una mente intelligente che abbia compreso l'intervento, ha > perpetuato l'inganno a sua volta sulla lista. >
preferisco essere considerato un bieco agente delle multinazionali piuttosto che un cretino che non ha capito con cosa ha a che fare :-) cheers, G. On Wed, 8 Jan 2025 at 12:26, Giacomo Tesio <[email protected]> wrote: > Mi spiace Alfredo per averti dato l'impressione di volerla buttare in > caciara, ti assicuro che credevo le mie parole fossero chiare e persino > autoevidenti, ovvie... tanto da temere di annoiare la lista. > > Riproviamo. > > > A quanto ho capito del tuo ragionamento, tu fai due affermazioni > distinte, che ritieni entrambe vere: > > 1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa. > 2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa. > > Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla > realtà. Permettimi di (ri)spiegarti il perché. > > > # La tecnologia nel suo complesso non è MAI neutrale > > La prima affermazione è facile da falsificare per costruzione: è > sufficiente elencare le diverse tecnologie progettate esplicitamente > per nuocere, dalla mina antiuomo alla bomba atomica. > > > Se riduciamo l'affermazione a "esistono anche tecnologie neutrali", > dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate > (e tanto più quelle più complesse) sono politicamente orientate. > > > Internet è sin dalla sua ideazione un'arma, progettata per garantire > l'esecuzione di un controattacco nucleare durante la guerra fredda. > Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1]. > > > Anche un coltello può essere progettato per essere usato esclusivamente > a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù. > Può ad esempio essere progettato per spezzarsi se sottoposto ad una > minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile > per accoltellare chicchessia pur essendo ottimo per tagliare la carne > lungo la lama. > > Per contro, un coltello militare può essere progettato per lacerare i > tessuti, producendo codette interne per un più rapido dissanguamento > del nemico. > > Dunque, anche se possiamo usare la nostra fantasia per immaginare un > coltello veramente neutrale [2], ogni coltello _reale_ facilita o > impedisce determinati usi, avendo effetti politici concreti. > > > # I LLM NON sono neutrali. > > Per tornare alla questione sollevata dalla Professoressa Vallor, > sebbene esistano molti usi potenzialmente utili per le tecniche di > programmazione statistica adottate anche per realizzare le "AI > generative" (di cui gli LLM di cui parliamo sono un esempio), > queste tecnologie sono intrinsecamente e fondativamente > politicamente orientate. > > Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti > hanno come obiettivo minimo superare il test di Turing. > > Il test di Turing consiste, temo urga ricordarlo anche qui, > nell'ingannare uno o più esseri umani sulla natura della sorgente > dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_ > ad un essere umano. > > I creatori di un LLM conversazionale vincono questo "imitation game" se > persone ignare attribuiscono intelligenza al loro software, e questi > software sono progettati e continuamente ottimizzati esattamente per > questo obiettivo. > > > Obiettivo che è estremamente specifico: ingannare esseri umani affinché > confondano la macchina con un altro essere umano. > > > Per questa semplice ragione, le "AI generative" (e gli LLM di cui > parliamo in particolare) possono essere usate SOLO per ingannare > esseri umani. > > Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate > a costo di miliardi di dollari ed enormi quantità di energia. > > > > Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico > esempio di pessimo uso di un LLM che può apparire ragionevole all'utente > ignorante ormai succube della propaganda), il "riassuntino" che un LLM > ha fatto del discorso della Professoressa Vallor. [3] > > Omette completamente aspetti fondamentali della metafora che propone su > cui la Professoressa si era giustamente soffermata a lungo, riducendola > ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano > e distorcono i dati umani da cui derivano. > > La Professoressa ha detto altro! > > Ha usato una metafora abbastanza attinente da un punto di vista tecnico > per spiegare _come_ e _perché_ i software programmati statisticamente > elaborano i dati in input e quelli sorgente compressi al proprio > interno. > > E questa è solo una delle omissioni e banalizzazioni che l'output del > LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle > "AI generative" dalle tecnologie che potrebbero essere impiegate > in modo socialmente utile. > > > Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi > dell'intervento". Ingannato sulla natura di quell'output, non prodotto > da una mente intelligente che abbia compreso l'intervento, ha > perpetuato l'inganno a sua volta sulla lista. > > Se fossimo su twitter, la chiameresti misinformazione. > Se Guido fosse russo, la chiameresti disinformazione. :-D > > Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad > ingannare sé stesso sul tempo necessario a partecipare al dibattito in > cui si inserisce il libro / intervento della Professoressa Vallor [4]. > > Ma tutti ricondurrebbero la responsabilità a Guido (vittima > inconsapevole che arriva a difendere i propri carnefici [5]) o, al > massimo, al software che ha "sfortunatamente" prodotto l'output > "errato". > Dovremmo invece ricondurla a coloro che hanno programmato quel software > per ingannare Guido sulla sua abilità di comprendere un testo e > produrne una "sintesi". > > Sia che ciò avvenga per ragioni economiche o politiche. > (che poi... anche l'economia è politica...) > > > > Più in generale, una tecnologia progettata e realizzate per ingannare > le persone può essere utilizzata _solo_ per ingannare persone. > > E' letteralmente un'arma. > > > Il fatto che persone lontanissime dall'idea di rivolgere un'arma > controllata da terzi contro sé stessi, la puntino quotidianamente > alla propria testa, dovrebbe rendere evidente la sua potenza e > pericolosità. > > > Inoltre, paragonare tecnologie semplici come un coltello o un > martello ad un LLM è sbagliato anche per il semplice fatto che costo e > complessità realizzativa determinano una barriera all'ingresso tale > da determinare intrinsecamente un orientamento politico: solo un élite > molto ricca può permettersi di provare a costruirli, e lo farà solo > se vi intravede un'utilità per sé nettamente superiore ai rischi. > > > > Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false. > > > Sono d'accordo che gli intenti "predatori" di molti esseri umani sono > socialmente dannosi e vadano contenuti. > > E sono anche d'accordo che tali intenti siano alla base di molti > dei problemi di cui discutiamo speso in questa lista. > > > Tanto d'accordo che ho provato a spiegarti COME tali intenti siano > fondativi e costituenti degli LLM, così come di molte altre armi. > > > La tecnologia, spero di averti mostrato, è _sempre_ una espressione > umana politicamente orientata, intrinsecamente, ancora prima > che venga effettivamente utilizzata. > > > Gli LLM conversazionali esistono per ingannare le menti, esattamente > come le mine antiuomo esistono per uccidere e mutilare i corpi. > > Non possono essere usate per niente altro. > > > E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che > molte persone (anche colte e intelligenti) finiscono per credersi > e dichiararsi poco diverse da questi software. > > > > Allo stesso modo possiamo creare software emancipatori e socialmente > utili. Io ci provo da tempo [6] sebbene sia una lotta impari. > > > Spero vivamente di essere stato finalmente più chiaro (di certo > Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori > dubbi, forse potremmo continuare in privato per non tediare la lista. > > > Giacomo > > [1] > https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html > i sono stati (e vi sono) diversi tentativi di rimuoverne (o > mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli. > > Si potrebbe dire che, di fatto, è come se stessimo conversando > amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di > non guardarle, di ignorare chi le indica e persino di arrestare chi > prova a rimuoverle. > > [2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI! > Coltelli da cucina automaticamente impegnati a mantenere > l'equilibrio fra bene e male! Quanti miliardari in meno! :-D > https://assortedmeeples.com/true-neutral-dnd-alignment-guide > > [3] Per chi volesse rileggerlo: > https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html > > [4] come, in fondo, ha delicatamente provato a fargli notare Alberto > https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html > > [5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto > del transcript della Prof. Vallor qualche anno fa ce lo sognavamo, > credimi." > https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html > > NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di > andare a dormire, che nemmeno l'impepata di cozze..." :-D > > [6] https://jehanne.h--k.it/ > https://monitora-pa.it/ > > https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip > https://monitora-pa.it/LICENSE.txt >
