Salve Daniela,

Il 19 Giugno 2024 11:15:55 UTC, Daniela Tafani <[email protected]> ha 
scritto:
> 
> GARY MARCUS: It’s exactly right. These systems have no conception of truth. 
> Sometimes 
> they land on it and sometimes they don’t, but they’re all fundamentally 
> bullshitting in the sense that 
> they’re just saying stuff that other people have said and trying to maximize 
> the probability of that. 
> It’s just auto complete, and auto complete just gives you bullshit.


Sono noioso, ma non posso fare a meno di sottolineare come, anche in critiche 
come
questa, il soggetto delle frasi sposta l'attenzione sullo strumento, sollevando 
chi lo 
amministra da qualsiasi responsabilità.

È ovvio [1] che l'output di questi software programmati statisticamente non 
può avere alcuna relazione con la verità.

È ovvio che nessun software ha conoscenza, né del bene o del male, né del vero 
o del falso.

È ovvio che nessun software può avere intenzionalità propria per cui non può
scegliere di mentire o dire a verità.


Ma non è ChatGPT a distribuire sul web i propri output!


L'intenzionalità c'è ed è di OpenAI, Microsoft etc...
Distribuendo online l'output del software 
che hanno scritto ed amministrano, queste società scelgono di diffondere testi 
che non 
hanno corrispondenza con la realtà.

Dunque, quandanche la tipologia di software di cui parliamo fosse qualificabile 
come 
bullshit generator,  gli output diffusi da OpenAI, Microsoft, Google etc.. sono 
semplicemente
disinformazione.

Il fatto che ogni tanto tali output possano essere interpretati come 
informazioni corispondenti
alla realtà, serve esattamente allo scopo di diffondere disinformazione: come 
sappiamo tutti, per rendere una menzogna più credibile e perniciosa, è utile 
diffomderla
insieme a tante verità note o facilmente verificabili (magari con una ricerca 
online :-D)


Se comprendiamo la natura di questi output e li riconosciamo come espressione 
della volontà
di chi programma statisticamente e amministra[2] il LLM, gli scopi di queste 
aziende diventano ovvi:

- diffondere false credenze relative a questi software [3]
- ottenere fondi sulla base di queste false credenze (dal mercato, dagli stati 
etc)
- ottenere normative favorevoli (come l'AI Act) sulla base di queste false 
credenze

Si tratta di truffatori su scala globale che hanno automatizzato ed affittano 
la produzione 
di "bugie industriali".


Passare da "hallucination" a "bullshit", non riduce molto 
l'antropomorfizzazione dei software
in questione, ma continua a nascondere la natura dell'operato di chi li produce.

Non siamo di fronte a macchine che imparano ("machine learning"), ma a 
multinazionali
potentissime che mentono.


Giacomo

[1] a chiunque comprenda come funzioni la selezoone ("previsione" rotfl!) di un 
token
a partire dal contesto ed il ruolo che vi assume l'input randomico.

[2] ovvero protegge infornaticamente, aggiorna, paga la corrente per 
programmarli ed eseguirli etc

[3] false credenze che poi vengono ripetute "a pappagallo" da persone 
incompetenti 
(in materia) che purtroppo vengono viste come autorevoli (per esserlo, forse, 
in altre discipline).

Qualche giorno fa ho ascoltato allibito un'intervista ad un Professore, 
presentatosi
come fisico del CERN nonché (ex?) docente dell'Università di Torino, 
snocciolare una
serie incredibile di stronzate sulle "intelligenze artificiali" che parevano 
uscite da
un convegno transumanista.
Inferendo da un'esperienza vecchia di 20 o 30 anni delle "reti neurali", finiva 
per prospettare
il sicuro avvento dell'AGI con cui la società si sarebbe dovuta confrontare a 
livello etico, superando l'idea stessa di anima (sic!) e
riconoscendo l'uomo come un automa complesso del tutto equivalente agli altri.

Si tratta di un'intervista per un podcast italiano dedicato alla "cyber 
security" (anche se le
competenze di chi lo conduce vacillano continuamente), dunque non orientato a 
persone
del tutto ignoranti dal punto di vista informatico, ma iper-specializzate, e 
dunque "vulnerabili" 
a questo tipo di disinformazione propagandistica.

Reply via email to