A mio parere sono “”VERE”” entrambe le opinioni che operano su piani differenti. La parola non esiste in natura, è un flatus vocis umano. Però … gli umani usano le parole per descrivere / indicare / interpretare / raccontare la natura ed i “”fatti”” degli stessi umani. I problemi cominciano quando lenta mente noi umani abbiamo cominciato a SOSTITUIRE LA REALTA' con le nostre parole, dando alle stesse una forza che non hanno, meglio: cominciando a dar loro forza crescente fino ad illuderci / pretendere che abbiano forza autonoma (autòs nomos, che si regola da sè) non dipendente da / non collegata a la natura. Credo Gianluca faccia riferimento alle cosiddette preleggi - disposizioni sulla legge in generale / disposizioni preliminari al codice civile -: all’art 12 danno per acquisito il potere di regolare i fatti umani ed affermano un principio a mio avviso corretto e semplice “” Nell'applicare la legge non si può ad essa attribuire altro senso che quello fatto palese dal significato proprio delle parole secondo la connessione di esse, e dalla intenzione del legislatore. “” Mia opinione: il dibattito sull’IA è su questo punto, in sostanza l'IA non seleziona le parole per il loro senso comune? Cioè la macchina fa quello che l'art 12 preleggi prescrive, meglio: indica come criterio interpretativo? Al centro sta il confronto uomo e macchina, riaprendo domande fondamentali, fra le quali la questione se siamo davvero non ripetibili, questione che un tempo vedeva la sede dell’umanità nel ““cuore”” ed ora la vede in “”mente / intelligenza”” le quali hanno origine da parola, linguaggio e quest’ultimo si basa su significati accettati dalla maggioranza. Ricordo l’opinione contraria di Guido e riconosco che la sua autorevolezza, giustamente riconosciuta, mi scuso se vi faccio perder tempo. Cordialmente. Duccio (Alessandro Marzocchi)
Il giorno mar 7 mag 2024 alle ore 10:48 <[email protected]> ha scritto: Date: Tue, 7 May 2024 10:47:57 +0200 > From: Guido Vetere <[email protected]> > To: Gianluca Fasano <[email protected]> > ottimo articolo, grazie per la condivisione, consiglio a tutte [femminile > sovraesteso] di prendersi una mezz'ora per leggerlo da cima a fondo - vi > vedo che state facendo summarization :-)) > una piccola chiosa profana: > > > le associazioni di parole prodotte [dai language model] > > implicano un significato per i destinatari, un significato fatto palese > dal senso > > comune delle parole, secondo il linguaggio naturale, che va a influire > sulla libertà > > di formazione del pensiero; implicano un significato che va a incidere > sulla libertà > > di raccogliere le informazioni, di informarsi, su quella che viene > indicata come il > > profilo passivo della libertà di informazione > > qui mi sembra che si assuma una posizione 'forte' (realistica) nei > confronti del linguaggio, ma c'è chi ha sostenuto posizioni 'deboli' > (nominalistiche) per le quali, per dirla con Roscellino, le parole sono > solo 'emissioni della voce' (flatus vocis). > > domanda: fino a dove il legislatore può impegnarsi filosoficamente? > e perché, anche abbracciando il realismo, non ci soddisfa il 'disclaimer' > di OpenAI che recita (molto piccolo, ma vabbè): > "ChatGPT può commettere errori. Ti consigliamo di verificare le > informazioni importanti." ? > grazie ancora e buona giornata > G. > > On Mon, 6 May 2024 at 17:18, Gianluca Fasano <[email protected]> > wrote: > > Buon pomeriggio, > > colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio > > articolo pubblicato su Dirittifondamentali.it [1], dal titolo: > > *Le ‘informazioni sintetizzate’ generate dai large language models e le > > esigenze di tutela del diritto all’informazione*: valori costituzionali e > > nuove regole > > Cordiali saluti. > > Gianluca > > [1] > > > http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-generate-dai-large-language-models-e-le-esigenze-di-tutela-del-diritto-allinformazione-valori-costituzionali-e-nuove-regole/ > >
