I Language model sono notoriamente dissociati (Mahowald et al, 2023,
Dissociating language and thought in large language models,
https://arxiv.org/abs/2301.06627) e in difficoltà con i conteggi. Fino a
qualche tempo fa sbagliavano perfino a contare le occorrenze di una lettera
in una frase, figuriamoci le parole nelle canzoni di Jovanotti. Questo
accade perché, come ormai sappiamo tutti, la loro capacità di base è quella
di predire il prossimo token, il resto viene dalle successive 'istruzioni'.
Non ho dubbi che sistemi capaci di 'ragionare' (so to say) su ampi contesti
saranno istruiti a fare quello che si faceva cinquant'anni fa con i primi
lemmatizzatori (il lessico di frequenza di De Mauro è fatto con IBM a Pisa
negli anni '70).
Questo significa che un giorno li potremo considerare 'oracoli'? Certo che
no. Tuttavia, per citare un aneddoto personale, senza GPT4 ieri non me la
sarei cavata facilmente con un problema di configurazione del mio laptop.
Né avrei avuto tempo e voglia di andare a compulsare manuali. Che mi
importa se non sa contare le parole di Jovanotti? (lo capisco pure, eh, che
palle!)
Morale: dovremo imparare a usare questi sistemi in modo tattico e con le
dovute cautele. La sfida portata dall'IA generativa è epistemica, più che
etica.

G.





On Fri, 18 Apr 2025 at 23:46, Giacomo Tesio <[email protected]> wrote:

> Caro Marco Anselmo Giovanni (;-D)
>
> Francamente preferirei di gran lunga usare un pace-maker programmato da
> GitHub CopyALot che debuggarne il codice.
>
> Molto meno doloroso. :-p
>
>
> Giacomo
>
>
> Il 18 Aprile 2025 17:00:18 UTC, "Marco A. Calamari" ha scritto:
> >
> > Tu saresti contenta di sapere, dopo avermi dato l'incarico di
> > progettare la tua
> >  nuova casa ed esserci entrata, di sapere che avevo fatto i calcoli
> > del
> >  cemento armato con ChatGPT, e li avevo revisionati con la mia
> > professionalità?
> >
> > Oppure, chessò, se mi fossi messo a fare il programmatore, che era
> >  la mia passione da piccolo, che avevo programmato il software del tuo
> >  pace-maker facendo vibe-coding con Copilot?
> >
> > [...] Qualsiasi professionista che usi un LLM
> >  come oracolo (in questa lista non credo serva spiegare la frase)
> >  appartiene ad una di queste due categorie.
> >
> > 1) non ha la più pallida idea di cosa sia e come funzioni un LLM,
> >  e lo usa per comodità e produttività scaricando i rischi di questa
> >  scelta sul cliente.
> >
> > 2) sa cosa è e come funziona un LLM, ma lo usa lo stesso per comodità
> >  e produttività, scaricando i rischi di questa scelta sul cliente.
> >
> > Io personalmente non vorrei affidarmi a nessuno dei due.
>
>

Reply via email to