Alberto, grazie per le tue compassionevoli parole, ma ti assicuro che l'ora
risparmiata non l'ho passata a pettinare le bambole :-)

Grazie anche per aver riportato un passaggio molto illuminante che
chi-sai-tu aveva tralasciato nella sua stringata sintesi:

> AI mirrors can't make these kinds of radically new choices.

Che però è un po' come dire che chi viaggia in treno non può fermarsi a
guardare il panorama.
[tornando seri]
Strano: i cibernetici della prima ora cercavano proprio nell'aleatorietà
ri-combinatoria dei vecchi generatori markoviani la possibilità di
sovvertire il senso comune.
Ora invece è passato il concetto dei 'pappagalli stocastici' e guardiamo
agli automi come una oppressiva reificazione del già detto.
Come sempre, le cose sono assai complesse e bisogna guardarci dentro caso
per caso.
Ma di fondo: che vuol dire che una AI non è libera di fare scelte
'radicalmente nuove'?
Cosa sarebbe questa 'novità radicale'? Più che Husserl e Ortega y Gasset a
me viene in mente Henri Bergson, con tutto il suo carico di ambiguità.
Ma parliamone.
E mi associo ai ringraziamenti per la condivisione, prima colpevolmente
omessi.

G.


On Thu, 2 Jan 2025 at 15:58, Alberto Cammozzo via nexa <
[email protected]> wrote:

> Caro Guido,
>
> mi spiace per te e per chi come te non ha più un'ora da dedicare a un
> contributo molto serio come quello della Vallor e deve ricorrere alle
> sintesi in bustina liofilizzata.
>
> A pensarci bene: se uno non ha il tempo, perché darsi la pena di far fare
> la sintesi e leggerla quando bastava il titolo a riassumere l'intervento: e
> chissà perché poi la Vallor si è presa la briga di parlare per un'ora...
>
> Non solo la sintesi dell'LLM non è corretta e non è utile, ma è anzi
> perniciosa: non rappresenta la lezione più di quanto mangiare la foto sulla
> confezione non rappresenti mangiare il panettone. Riassumere una poesia o
> la Costituzione non è provocatorio: è sbagliato, fuorviante, riduttivo e
> peggiorativo.
> Meglio sapere di ignorarne completamente il contenuto che mantenere la
> pretesa di conoscerlo per averne letto il riassunto.
>
> Spero che chi non ha i 45 minuti di tempo per ascoltare trovi i pochi
> minuti necessari per leggere questa parte della trascrizione (~33'), forse
> la più 'operativa', visto che non solo non si lamenta della tecnica, ma
> chiama ogni umano ad essere *ingegnere del proprio futuro*: più operativa
> di così...:
>
> Just as our AI mirrors don't know the space of reasons that we walk in,
> they don't know it's time either.
>
> That is they don't have what philosophers like Edmund Husserl called our
> temporal horizon. The human experience of an open and indeterminate world,
> held open by the flow of conscious time where something new is always just
> over the horizon of our present experience and about to come into view.
> What comes into view is often familiar, recognisable. The sun rises every
> single day, just as it has in all of human history. Taxes are always due,
> and my cat always wants breakfast way too early.
>
> But things and events of startling new shapes do arrive from time to time
> on an utterly unpredictable schedule. As the Scottish philosopher David
> Hume pointed out centuries ago, the unremovable wart on human reasoning is
> that we've got absolutely zero evidence that the future won't suddenly go
> all pair-shaped on us at any given instant. Life is utterly predictable
> until it isn't. But then that's a wart I'm eternally grateful for. Our
> ability to experience the future as utterly open is what makes us human
> because the future being a giant question mark is the heart of our
> cognitive, moral, artistic, and political freedom. It's what gives us the
> existential task of deciding each and every day and each and every moment,
> just how much of our past we want to bring with us into the future, how
> much of it we want to leave behind, and what we want to create in the open
> space that is new.
>
> The Spanish philosopher José Ortega y Gasset called this the task of
> auto-fabrication, literally self making.
> He said, to be human is to be called to be an engineer. An engineer of
> yourself by choosing from your future's open possibilities, which of those
> to make real? But also with others, you're called to be an engineer of the
> future that we will share together. We are engineers of human futures, all
> of us. We might try as engineers to keep things looking much the same, but
> that too is an engineering choice to carry the past forward. We can always
> choose otherwise and sometimes do. We abandon a commitment that we promise
> to hold for life, or we make a commitment that we swore we'd never take on.
> We can extend our trademark artistic style into endless satisfying
> variations or we can drop it on a dime and leave our audiences utterly
> baffled.
>
>  We can stick with the dire politics we know, or we can say, 'to hell with
> this -- we're changing the game.' We can keep burning the world for the
> temporary benefit of a handful of billionaires, or we can say, 'no more.'
> But here's the thing. AI mirrors can't make these kinds of radically new
> choices. They're stuck pointing backward, reflecting what has been seen in
> the past. That's why their reflections keep regenerating the most common
> social biases and most widespread errors, a digital humanity's history.
> That's why the speeches and essays and songs they generate are so weirdly
> generic and somehow familiar, even though we've never seen them before.
>
> Credo che quello della Vallor sia un contributo illuminante e dotato di
> grande spessore, ringrazio Silvia per avercelo segnalato.
>
> Se il libro mantiene le aspettative che il talk ha generato, sarà un
> riferimento irrinunciabile.
>
> Buon anno,
>
> Alberto
>
>
> On 02/01/25 12:40, Guido Vetere wrote:
>
> forse suona un po' 'provocative' (e me ne scuso) ma questa è la sintesi
> dell'intervento (1 ora - e chi ce l'ha?) fatta da chi-sapete-voi :-)
>
> *Il talk, centrato sulla metafora dello specchio per descrivere
> l'intelligenza artificiale (IA), esplora come queste tecnologie riflettano,
> amplifichino e spesso distorcano i dati umani da cui derivano. L'autore
> utilizza lo specchio come una metafora più utile rispetto a quella della
> mente, sottolineando che le IA, come i modelli di linguaggio, non pensano,
> ma riflettono i dati raccolti, amplificando valori, pregiudizi e pattern
> già esistenti.*
>
> *Viene discusso il ruolo dell'IA nel trasformare aspetti fondamentali
> della società, come democrazia, educazione, scienze, media e clima, e si
> sottolinea il pericolo che essa rappresenta nel confondere le persone,
> facendole credere che ci sia una "mente" dietro le risposte intelligenti.
> Tuttavia, l'IA, come uno specchio, riflette solo ciò che ha appreso dai
> dati passati, senza la capacità di creare qualcosa di veramente nuovo.*
>
> *Il talk mette in guardia contro l'automazione indiscriminata dei processi
> decisionali umani, evidenziando il rischio di perdere la capacità di
> pensare in modo critico e creativo, e sottolinea la necessità di preservare
> il "tempo mentale" e lo "spazio mentale" per il pensiero profondo e la
> narrazione personale. Si invita a utilizzare l'IA in modo responsabile e
> con una chiara consapevolezza dei suoi limiti, ponendo enfasi sul fatto che
> le decisioni umane e i valori debbano rimanere al centro del suo utilizzo.*
>
>
> *Infine, l'autore critica l'uso dell'IA come strumento per sostituire la
> narrazione umana nei media, nell'educazione e nelle arti, e richiama
> l'importanza di mantenere la capacità umana di raccontare storie,
> immaginare futuri nuovi e affrontare le sfide collettive con creatività e
> autonomia. *
>
> è corretto? è utile? comunque, buon anno!
>
> G:
>
> PS: da Platone a Heidegger un sacco di gente si è lamentata della tecnica,
> ma questo non ha mai cambiato la tecnica. Forse sarebbe più utile ragionare
> in modo operativo ...
>
> On Thu, 2 Jan 2025 at 10:42, Silvia Crafa <[email protected]> wrote:
>
>> Buondì,
>>    nell'augurare a tutti un buon nuovo anno, segnalo questa lecture di
>> Shannon Vallor, che affronta il tema dell'AI con un approccio filosofico
>> che coniuga profondità e concretezza, di cui c'è sempre molto bisogno.
>>
>> Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh
>> In a mirror, dimly. Why AI can't tell our stories and why we must
>>
>> https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_p9lrnfj5
>>
>>
>> Silvia C.
>>
>>
>>

Reply via email to