Alberto, grazie per le tue compassionevoli parole, ma ti assicuro che l'ora risparmiata non l'ho passata a pettinare le bambole :-)
Grazie anche per aver riportato un passaggio molto illuminante che chi-sai-tu aveva tralasciato nella sua stringata sintesi: > AI mirrors can't make these kinds of radically new choices. Che però è un po' come dire che chi viaggia in treno non può fermarsi a guardare il panorama. [tornando seri] Strano: i cibernetici della prima ora cercavano proprio nell'aleatorietà ri-combinatoria dei vecchi generatori markoviani la possibilità di sovvertire il senso comune. Ora invece è passato il concetto dei 'pappagalli stocastici' e guardiamo agli automi come una oppressiva reificazione del già detto. Come sempre, le cose sono assai complesse e bisogna guardarci dentro caso per caso. Ma di fondo: che vuol dire che una AI non è libera di fare scelte 'radicalmente nuove'? Cosa sarebbe questa 'novità radicale'? Più che Husserl e Ortega y Gasset a me viene in mente Henri Bergson, con tutto il suo carico di ambiguità. Ma parliamone. E mi associo ai ringraziamenti per la condivisione, prima colpevolmente omessi. G. On Thu, 2 Jan 2025 at 15:58, Alberto Cammozzo via nexa < [email protected]> wrote: > Caro Guido, > > mi spiace per te e per chi come te non ha più un'ora da dedicare a un > contributo molto serio come quello della Vallor e deve ricorrere alle > sintesi in bustina liofilizzata. > > A pensarci bene: se uno non ha il tempo, perché darsi la pena di far fare > la sintesi e leggerla quando bastava il titolo a riassumere l'intervento: e > chissà perché poi la Vallor si è presa la briga di parlare per un'ora... > > Non solo la sintesi dell'LLM non è corretta e non è utile, ma è anzi > perniciosa: non rappresenta la lezione più di quanto mangiare la foto sulla > confezione non rappresenti mangiare il panettone. Riassumere una poesia o > la Costituzione non è provocatorio: è sbagliato, fuorviante, riduttivo e > peggiorativo. > Meglio sapere di ignorarne completamente il contenuto che mantenere la > pretesa di conoscerlo per averne letto il riassunto. > > Spero che chi non ha i 45 minuti di tempo per ascoltare trovi i pochi > minuti necessari per leggere questa parte della trascrizione (~33'), forse > la più 'operativa', visto che non solo non si lamenta della tecnica, ma > chiama ogni umano ad essere *ingegnere del proprio futuro*: più operativa > di così...: > > Just as our AI mirrors don't know the space of reasons that we walk in, > they don't know it's time either. > > That is they don't have what philosophers like Edmund Husserl called our > temporal horizon. The human experience of an open and indeterminate world, > held open by the flow of conscious time where something new is always just > over the horizon of our present experience and about to come into view. > What comes into view is often familiar, recognisable. The sun rises every > single day, just as it has in all of human history. Taxes are always due, > and my cat always wants breakfast way too early. > > But things and events of startling new shapes do arrive from time to time > on an utterly unpredictable schedule. As the Scottish philosopher David > Hume pointed out centuries ago, the unremovable wart on human reasoning is > that we've got absolutely zero evidence that the future won't suddenly go > all pair-shaped on us at any given instant. Life is utterly predictable > until it isn't. But then that's a wart I'm eternally grateful for. Our > ability to experience the future as utterly open is what makes us human > because the future being a giant question mark is the heart of our > cognitive, moral, artistic, and political freedom. It's what gives us the > existential task of deciding each and every day and each and every moment, > just how much of our past we want to bring with us into the future, how > much of it we want to leave behind, and what we want to create in the open > space that is new. > > The Spanish philosopher José Ortega y Gasset called this the task of > auto-fabrication, literally self making. > He said, to be human is to be called to be an engineer. An engineer of > yourself by choosing from your future's open possibilities, which of those > to make real? But also with others, you're called to be an engineer of the > future that we will share together. We are engineers of human futures, all > of us. We might try as engineers to keep things looking much the same, but > that too is an engineering choice to carry the past forward. We can always > choose otherwise and sometimes do. We abandon a commitment that we promise > to hold for life, or we make a commitment that we swore we'd never take on. > We can extend our trademark artistic style into endless satisfying > variations or we can drop it on a dime and leave our audiences utterly > baffled. > > We can stick with the dire politics we know, or we can say, 'to hell with > this -- we're changing the game.' We can keep burning the world for the > temporary benefit of a handful of billionaires, or we can say, 'no more.' > But here's the thing. AI mirrors can't make these kinds of radically new > choices. They're stuck pointing backward, reflecting what has been seen in > the past. That's why their reflections keep regenerating the most common > social biases and most widespread errors, a digital humanity's history. > That's why the speeches and essays and songs they generate are so weirdly > generic and somehow familiar, even though we've never seen them before. > > Credo che quello della Vallor sia un contributo illuminante e dotato di > grande spessore, ringrazio Silvia per avercelo segnalato. > > Se il libro mantiene le aspettative che il talk ha generato, sarà un > riferimento irrinunciabile. > > Buon anno, > > Alberto > > > On 02/01/25 12:40, Guido Vetere wrote: > > forse suona un po' 'provocative' (e me ne scuso) ma questa è la sintesi > dell'intervento (1 ora - e chi ce l'ha?) fatta da chi-sapete-voi :-) > > *Il talk, centrato sulla metafora dello specchio per descrivere > l'intelligenza artificiale (IA), esplora come queste tecnologie riflettano, > amplifichino e spesso distorcano i dati umani da cui derivano. L'autore > utilizza lo specchio come una metafora più utile rispetto a quella della > mente, sottolineando che le IA, come i modelli di linguaggio, non pensano, > ma riflettono i dati raccolti, amplificando valori, pregiudizi e pattern > già esistenti.* > > *Viene discusso il ruolo dell'IA nel trasformare aspetti fondamentali > della società, come democrazia, educazione, scienze, media e clima, e si > sottolinea il pericolo che essa rappresenta nel confondere le persone, > facendole credere che ci sia una "mente" dietro le risposte intelligenti. > Tuttavia, l'IA, come uno specchio, riflette solo ciò che ha appreso dai > dati passati, senza la capacità di creare qualcosa di veramente nuovo.* > > *Il talk mette in guardia contro l'automazione indiscriminata dei processi > decisionali umani, evidenziando il rischio di perdere la capacità di > pensare in modo critico e creativo, e sottolinea la necessità di preservare > il "tempo mentale" e lo "spazio mentale" per il pensiero profondo e la > narrazione personale. Si invita a utilizzare l'IA in modo responsabile e > con una chiara consapevolezza dei suoi limiti, ponendo enfasi sul fatto che > le decisioni umane e i valori debbano rimanere al centro del suo utilizzo.* > > > *Infine, l'autore critica l'uso dell'IA come strumento per sostituire la > narrazione umana nei media, nell'educazione e nelle arti, e richiama > l'importanza di mantenere la capacità umana di raccontare storie, > immaginare futuri nuovi e affrontare le sfide collettive con creatività e > autonomia. * > > è corretto? è utile? comunque, buon anno! > > G: > > PS: da Platone a Heidegger un sacco di gente si è lamentata della tecnica, > ma questo non ha mai cambiato la tecnica. Forse sarebbe più utile ragionare > in modo operativo ... > > On Thu, 2 Jan 2025 at 10:42, Silvia Crafa <[email protected]> wrote: > >> Buondì, >> nell'augurare a tutti un buon nuovo anno, segnalo questa lecture di >> Shannon Vallor, che affronta il tema dell'AI con un approccio filosofico >> che coniuga profondità e concretezza, di cui c'è sempre molto bisogno. >> >> Shannon Vallor - Inaugural Lecture 23.10.24 - University of Edinburgh >> In a mirror, dimly. Why AI can't tell our stories and why we must >> >> https://media.ed.ac.uk/media/Shannon+Vallor+-+Inaugural+Lecture+23.10.24+/1_p9lrnfj5 >> >> >> Silvia C. >> >> >>
