Grazie davvero a Silvia per la segnalazione, veramente un'ora ben spesa.

Concordo con Alberto, "se il libro mantiene le aspettative che il talk
ha generato, sarà un riferimento irrinunciabile". Sono particolarmente
curioso di leggere le proposte di utilizzo programmazione statistica
a fini democratici.

Ho infatti particolarmente apprezzato come ha risposto alla
ricercatrice che le ha chiesto se e come si potrebbero usare
le AI generative per decolonizzare l'insegnamento universitario. [1]

Per non parlare della citazione di Ortega y Gasset, che userò d'ora in
poi quando qualcuno dice che non tutti possono imparare a programmare.



Nel merito, la metafora dello specchio proposta dalla Professoressa
Vallor è molto interessante. I parallelismi che osserva fra dati e luce,
fra "modello" e specchio, nonché fra intelligenza simulata e oggetto
riflesso potrebbero essere effettivamente molto utili per spiegare
questi software a bambini giustamente curiosi ma legittimamente 
privi delle competenze informatiche di base.

Io stesso, definendo informazione, dato e informatica, ricordo che i
computer (non solo le AI) sono meri specchi per le menti umane. [2]


Un problema che però nel talk la Professoressa Vannon non i pone è
"perché così tanti adulti hanno bisogno di metafore per spiegare un
software costruito dall'uomo?". Non è un misterioso fenomeno naturale!

Non se lo pone sebbene riconosca che tutte le metafore sono limitate.


Infatti la metafora dello specchio levigato dai dati per riflettere
l'intelligenza umana che quei dati rappresentano, soffre degli
stessi limiti della metafora della calibrazione (che anche io usavo
anni fa [3] e che ritroviamo in altra forma nell'Assisi AI Act
recentemente passato in lista, "macchine calibrate con (tanti) dati"):
nasconde responsabilità, arbitrio e potere di chi quei software li crea.

La calibrazione di una bilancia lascia pochissima libertà a colui che
la esegue, perché alla fine chiunque potrà verificarne il funzionamento
corretto semplicemente collocandovi sopra pesi noti di riferimento.
Esiste un peso "giusto", insomma.

Uno specchio rifletterà comunque qualcosa che c'è fuori dallo specchio.

Nessuna di queste affermazioni è applicabile ai software programmati
statisticamente.


Parlare invece di programmazione, ancorché statistica, pone sempre in
evidenza il programmatore.

Parlando di "software programmati statisticamente", siamo costretti a
chiederci chi e per che scopi li ha programmati, invece di chiederci
"cosa hanno imparato?": la differenza è sostanziale e ricca di
implicazioni.


Ad esempio: è intelligente chiedere chi ha programmato statisticamente
un LLM per vincere l'imitation game, spendendo miliardi e ingannando
milioni di persone, di riassumere un talk che letteralmente lo associa a
ciarlatani che fanno giochi di specchi?


Perché se non lo è, non è nemmeno intelligente chiederlo al LLM che ne
riproduce pedissequamente la volontà, definendo lo spazio del pensabile
di milioni di sciocchi.



Dunque, credo ancora che "software programmato statisticamente" sia 
una locuzione migliore delle alternative proposte sin qui perché,
contrariamente a "intelligenza artificiale", "macchine cognitive",
"esseri tecnici", o anche "SALAMI", non è una metafora, ma una
descrizione attinente e comprensibile di ciò di cui parliamo.



Giacomo

[1] 
"""
For example, you mentioned the efforts that we might have to decolonise
the curriculum. We might say, Okay, to a large language model. Here's
my syllabus. I would like to  decolonise this syllabus. 

Does this model understand why you want to do that? 
Does it understand why it's important?
 
By the way, if you ask why it's important, it will give you an answer
and it'll sound kind of plausible. 
That doesn't mean it understands the answer, right? 

[...]

I do think actually there's a default argument for saying, what's your
argument for using this tool? Is there a reason  that will justify this
expenditure of energy? Is there a reason that will justify you letting
go off this work and handing it over to a machine? 
"""

Queste ultime domande sono giustamente molto esigenti.

Se chiedessimo a Guido, ad esempio, "perché ti sei sentito autorizzato
a consumare l'energia richiesta da un LLM per produrre una
pseudo-sintesi ridicola che, guarda caso, omette o banalizza tutti i
punti salienti della critica di Vallor, riducendo l'intero talk ad una
fuffa trita e ritrita di "creatività da preservare" e "uso
responsabile" da giornaletto di provincia che riporta le brochure
commerciali di Google & friends?", la sua risposta più probabile 
(alla luce dei dati recenti :-D)

On Thu, 2 Jan 2025 16:40:20 +0100 Guido Vetere wrote:

> l'ora risparmiata non l'ho passata a pettinare le bambole :-)

sarebbe indicativa proprio dell'urgenza di ascoltare il talk, per
imparare a riservarsi tempo (oltre che spazio mentale) per annoiarsi,
per abituarsi alla noia, e perché no, persino a pettinare le bambole.


Scusami Guido, ma davvero, usando un LLM per "riassumere" questo talk,
hai letteralmente confermato TUTTE le affermazioni dell'autrice sui
gravi danni che l'AI generativa causa alla mente umana! :-D

Credo che l'autrice apprezzerebbe l'ironia ricorsiva del breve
siparietto, che non sarà sfuggita anche a tutti coloro che hanno
effettivamente provato ad ascoltare il talk.


[2]
https://encrypted.tesio.it/2019/06/03/what-is-informatics.html#so-what-is-informatics


[3]
https://encrypted.tesio.it/2018/01/19/the-delusions-of-neural-networks.html

Reply via email to