Condivido l'opinione di Tommaso Frosini, che parla di mutazione
antropologica (cfr nota 39 dell'articolo Gianluca Fasano).
Bella questione, quella della cassetta degli attrezzi di Wittgenstein, una
volta si parlava di linguaggio artificiale per evidenziare la sua non
umanità, siamo al metalinguaggio? Inoltre, osservazione epistemologicamente
meno nobile, gli attrezzi che finora sono stati "bene comune" rischiano di
diventare proprietà privata ed ai noi neppure concedono le istruzioni per
l'uso.
A me ritorna in mente Marx e l'alienazione generata dalla macchina telaio.
Altra è l'ipotesi del digitale armonizzato con l'umano, ma per avviarla è
necessario che l'uomo "capisca" il digitale, a me pare e potrei sbagliare.
Un cervello artificiale rischia di generare una mente artificiale, magari
aiutato dalla persuasività - ammonisce Gianluca - che affascina noi umani,
spesso ed ingenuamente alla ricerca di chi ci diriga.
Cordialmente, Duccio (Alessandro Marzocchi)

Il giorno mar 7 mag 2024 alle ore 18:43 <[email protected]>
ha scritto:

Message: 2
> Date: Tue, 7 May 2024 18:42:59 +0200
> From: Guido Vetere <[email protected]>
> To: alessandro marzocchi <[email protected]>
> Cc: [email protected]
> Subject: Re: [nexa] Articolo sui LLMs - il punto di vista di un
>         giurista
> Message-ID:
>         <CAD3hHB52iop9xiWWOkYCAQ1wWi-NdW=_
> [email protected]>
> Content-Type: text/plain; charset="utf-8"
>
> Wittgenstein ha notoriamente definito linguaggio come una 'cassetta degli
> attrezzi' con cui si possono fare 'giochi' che vanno dalle serissime
> denotazioni alle frivole 'boutade', in contesti diversi e con gli scopi più
> vari.
> mi rendo conto dei motivi per cui la legislazione attuale si attiene a una
> visione 'robusta' dell'esercizio della parola, però oggi abbiamo a che fare
> con 'intelligenze aliene' che parlano basandosi su presupposti del tutto
> inediti. la legge, comprensibilmente, fatica a inquadrarli.
> personalmente, condivido l'idea che l'umano che mette in esercizio un llm
> debba assumersi la responsabilità di quello che dice come se fosse egli
> stesso a parlare
> diversa (e tecnicamente insipiente) è l'idea che il modello linguistico
> debba inerentemente garantire veridicità, correttezza, eccetera. cosa
> possiamo accettare come *prova* di queste inerenti capacità? la
> certificazione del processo di costruzione? suvvia ..
> purtroppo mi sembra di ravvisare un orientamento di questo tipo nell'AI
> Act, ma potrei sbagliare, mi smentisca chi può :-)
> G.
>
>
> On Tue, 7 May 2024 at 14:51, alessandro marzocchi <[email protected]>
> wrote:
>
> > A mio parere sono “”VERE”” entrambe le opinioni che operano su piani
> > differenti.
> > La parola non esiste in natura, è un flatus vocis umano.
> > Però … gli umani usano le parole per descrivere / indicare / interpretare
> > / raccontare la natura ed i “”fatti”” degli stessi umani.  I problemi
> > cominciano quando lenta mente noi umani abbiamo cominciato a SOSTITUIRE
> LA
> > REALTA' con le nostre parole, dando alle stesse una forza che non hanno,
> > meglio: cominciando a dar loro forza crescente fino ad illuderci /
> > pretendere che abbiano forza autonoma (autòs nomos, che si regola da sè)
> > non dipendente da / non collegata a la natura.
> > Credo Gianluca faccia riferimento alle cosiddette preleggi - disposizioni
> > sulla legge in generale / disposizioni preliminari al codice civile -:
> > all’art 12 danno per acquisito il potere di regolare i fatti umani ed
> > affermano un principio a mio avviso corretto e semplice “” Nell'applicare
> > la legge non si può ad essa attribuire altro senso che quello fatto
> palese
> > dal significato proprio delle parole secondo la connessione di esse, e
> > dalla intenzione del legislatore. “”
> > Mia opinione: il dibattito sull’IA è su questo punto, in sostanza l'IA
> non
> > seleziona le parole per il loro senso comune? Cioè la macchina fa quello
> > che l'art 12 preleggi prescrive, meglio: indica come criterio
> > interpretativo?
> > Al centro sta il confronto uomo e macchina, riaprendo domande
> > fondamentali, fra le quali la questione se siamo davvero non ripetibili,
> > questione che un tempo vedeva la sede dell’umanità nel ““cuore”” ed ora
> la
> > vede in “”mente / intelligenza”” le quali hanno origine da parola,
> > linguaggio e quest’ultimo si basa su significati accettati dalla
> > maggioranza. Ricordo l’opinione contraria di Guido e riconosco che la sua
> > autorevolezza, giustamente riconosciuta, mi scuso se vi faccio perder
> tempo.
> > Cordialmente.
> > Duccio (Alessandro Marzocchi)
> >
> > Il giorno mar 7 mag 2024 alle ore 10:48 <
> > [email protected]> ha scritto:
> >
> > Date: Tue, 7 May 2024 10:47:57 +0200
> >> From: Guido Vetere <[email protected]>
> >> To: Gianluca Fasano <[email protected]>
> >> ottimo articolo, grazie per la condivisione, consiglio a tutte
> [femminile
> >> sovraesteso] di prendersi una mezz'ora per leggerlo da cima a fondo - vi
> >> vedo che state facendo summarization :-))
> >> una piccola chiosa profana:
> >>
> >> > le associazioni di parole prodotte [dai language model]
> >> > implicano un significato per i destinatari, un significato fatto
> palese
> >> dal senso
> >> > comune delle parole, secondo il linguaggio naturale, che va a influire
> >> sulla libertà
> >> > di formazione del pensiero; implicano un significato che va a incidere
> >> sulla libertà
> >> > di raccogliere le informazioni, di informarsi, su quella che viene
> >> indicata come il
> >> > profilo passivo della libertà di informazione
> >>
> >> qui mi sembra che si assuma una posizione 'forte' (realistica) nei
> >> confronti del linguaggio, ma c'è chi ha sostenuto posizioni 'deboli'
> >> (nominalistiche) per le quali, per dirla con Roscellino, le parole sono
> >> solo 'emissioni della voce' (flatus vocis).
> >>
> >> domanda: fino a dove il legislatore può impegnarsi filosoficamente?
> >> e perché, anche abbracciando il realismo, non ci soddisfa il
> 'disclaimer'
> >> di OpenAI che recita (molto piccolo, ma vabbè):
> >> "ChatGPT può commettere errori. Ti consigliamo di verificare le
> >> informazioni importanti." ?
> >> grazie ancora e buona giornata
> >> G.
> >>
> >> On Mon, 6 May 2024 at 17:18, Gianluca Fasano <[email protected]>
> >> wrote:
> >> > Buon pomeriggio,
> >> > colgo l'occasione degli ultimi scambi sui LLMs per segnalarvi un mio
> >> > articolo pubblicato su Dirittifondamentali.it [1], dal titolo:
> >> > *Le ‘informazioni sintetizzate’ generate dai large language models e
> le
> >> > esigenze di tutela del diritto all’informazione*: valori
> costituzionali
> >> e
> >> > nuove regole
> >> > Cordiali saluti.
> >> > Gianluca
> >> > [1]
> >> >
> >>
> http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-generate-dai-large-language-models-e-le-esigenze-di-tutela-del-diritto-allinformazione-valori-costituzionali-e-nuove-regole/
> >>
> >>
> -------------- next part --------------
> An HTML attachment was scrubbed...
> URL: <
> http://server-nexa.polito.it/pipermail/nexa/attachments/20240507/362f4c45/attachment.htm
> >
>
> ------------------------------
>
> Subject: Digest Footer
>
> _______________________________________________
> nexa mailing list
> [email protected]
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
>
> ------------------------------
>
> End of nexa Digest, Vol 181, Issue 23
> *************************************
>

Reply via email to