Caro Guido,
mi spiace per te e per chi come te non ha più un'ora da dedicare a un
contributo molto serio come quello della Vallor e deve ricorrere alle
sintesi in bustina liofilizzata.
A pensarci bene: se uno non ha il tempo, perché darsi la pena di far
fare la sintesi e leggerla quando bastava il titolo a riassumere
l'intervento: e chissà perché poi la Vallor si è presa la briga di
parlare per un'ora...
Non solo la sintesi dell'LLM non è corretta e non è utile, ma è anzi
perniciosa: non rappresenta la lezione più di quanto mangiare la foto
sulla confezione non rappresenti mangiare il panettone. Riassumere una
poesia o la Costituzione non è provocatorio: è sbagliato, fuorviante,
riduttivo e peggiorativo.
Meglio sapere di ignorarne completamente il contenuto che mantenere la
pretesa di conoscerlo per averne letto il riassunto.
Spero che chi non ha i 45 minuti di tempo per ascoltare trovi i pochi
minuti necessari per leggere questa parte della trascrizione (~33'),
forse la più 'operativa', visto che non solo non si lamenta della
tecnica, ma chiama ogni umano ad essere /ingegnere del proprio futuro/:
più operativa di così...:
Just as our AI mirrors don't know the space of reasons that we walk
in, they don't know it's time either.
That is they don't have what philosophers like Edmund Husserl called
our temporal horizon. The human experience of an open and
indeterminate world, held open by the flow of conscious time where
something new is always just over the horizon of our present
experience and about to come into view. What comes into view is
often familiar, recognisable. The sun rises every single day, just
as it has in all of human history. Taxes are always due, and my cat
always wants breakfast way too early.
But things and events of startling new shapes do arrive from time to
time on an utterly unpredictable schedule. As the Scottish
philosopher David Hume pointed out centuries ago, the unremovable
wart on human reasoning is that we've got absolutely zero evidence
that the future won't suddenly go all pair-shaped on us at any
given instant. Life is utterly predictable until it isn't. But then
that's a wart I'm eternally grateful for. Our ability to experience
the future as utterly open is what makes us human because the future
being a giant question mark is the heart of our cognitive, moral,
artistic, and political freedom. It's what gives us the existential
task of deciding each and every day and each and every moment, just
how much of our past we want to bring with us into the future, how
much of it we want to leave behind, and what we want to create in
the open space that is new.
The Spanish philosopher José Ortega y Gasset called this the task of
auto-fabrication, literally self making.
He said, to be human is to be called to be an engineer. An engineer
of yourself by choosing from your future's open possibilities, which
of those to make real? But also with others, you're called to be an
engineer of the future that we will share together. We are engineers
of human futures, all of us. We might try as engineers to keep
things looking much the same, but that too is an engineering choice
to carry the past forward. We can always choose otherwise and
sometimes do. We abandon a commitment that we promise to hold for
life, or we make a commitment that we swore we'd never take on. We
can extend our trademark artistic style into endless satisfying
variations or we can drop it on a dime and leave our audiences
utterly baffled.
We can stick with the dire politics we know, or we can say, 'to
hell with this -- we're changing the game.' We can keep burning the
world for the temporary benefit of a handful of billionaires, or we
can say, 'no more.' But here's the thing. AI mirrors can't make
these kinds of radically new choices. They're stuck pointing
backward, reflecting what has been seen in the past. That's why
their reflections keep regenerating the most common social biases
and most widespread errors, a digital humanity's history. That's why
the speeches and essays and songs they generate are so weirdly
generic and somehow familiar, even though we've never seen them before.
Credo che quello della Vallor sia un contributo illuminante e dotato di
grande spessore, ringrazio Silvia per avercelo segnalato.
Se il libro mantiene le aspettative che il talk ha generato, sarà un
riferimento irrinunciabile.
Buon anno,
Alberto
On 02/01/25 12:40, Guido Vetere wrote:
forse suona un po' 'provocative' (e me ne scuso) ma questa è la
sintesi dell'intervento (1 ora - e chi ce l'ha?) fatta da
chi-sapete-voi :-)
/Il talk, centrato sulla metafora dello specchio per descrivere
l'intelligenza artificiale (IA), esplora come queste tecnologie
riflettano, amplifichino e spesso distorcano i dati umani da cui
derivano. L'autore utilizza lo specchio come una metafora più utile
rispetto a quella della mente, sottolineando che le IA, come i modelli
di linguaggio, non pensano, ma riflettono i dati raccolti,
amplificando valori, pregiudizi e pattern già esistenti./
/Viene discusso il ruolo dell'IA nel trasformare aspetti fondamentali
della società, come democrazia, educazione, scienze, media e clima, e
si sottolinea il pericolo che essa rappresenta nel confondere le
persone, facendole credere che ci sia una "mente" dietro le risposte
intelligenti. Tuttavia, l'IA, come uno specchio, riflette solo ciò che
ha appreso dai dati passati, senza la capacità di creare qualcosa di
veramente nuovo./
/Il talk mette in guardia contro l'automazione indiscriminata dei
processi decisionali umani, evidenziando il rischio di perdere la
capacità di pensare in modo critico e creativo, e sottolinea la
necessità di preservare il "tempo mentale" e lo "spazio mentale" per
il pensiero profondo e la narrazione personale. Si invita a utilizzare
l'IA in modo responsabile e con una chiara consapevolezza dei suoi
limiti, ponendo enfasi sul fatto che le decisioni umane e i valori
debbano rimanere al centro del suo utilizzo./
/Infine, l'autore critica l'uso dell'IA come strumento per sostituire
la narrazione umana nei media, nell'educazione e nelle arti, e
richiama l'importanza di mantenere la capacità umana di raccontare
storie, immaginare futuri nuovi e affrontare le sfide collettive con
creatività e autonomia.
/
è corretto? è utile? comunque, buon anno!
G:
PS: da Platone a Heidegger un sacco di gente si è lamentata della
tecnica, ma questo non ha mai cambiato la tecnica. Forse sarebbe più
utile ragionare in modo operativo ...
On Thu, 2 Jan 2025 at 10:42, Silvia Crafa <[email protected]> wrote:
Buondì,
nell'augurare a tutti un buon nuovo anno, segnalo questa
lecture di Shannon Vallor, che affronta il tema dell'AI con un
approccio filosofico che coniuga profondità e concretezza, di cui
c'è sempre molto bisogno.
Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh
In a mirror, dimly. Why AI can't tell our stories and why we must
https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_p9lrnfj5
Silvia C.