Buongiorno Qui potete vedere l'analisi del corpus di Jovanotti fatta con Voyant Tools https://voyant-tools.org/?corpus=a44425f9cfc778bbcc0e948c22139153
Ho caricato il file di Antonio senza togliere i titoli nè altro e quindi i numeri sono leggermente più alti di quelli di Antonio, ma il senso del discorso non cambia. Voyant Tools non usa IA generativa, è un vecchio programma. Anche io non credo che GPT abbia generato i risultati corretti per i Promessi sposi e lo Zibaldone: li vogliamo vedere e vogliamo riprodurre l'analisi 😁 (per i Promessi sposi lo avevo fatto, per li Zibaldone no). A noi piace il metodo scientifico. Se GPT li genera, vuol dire che sono già stati pubblicati. Buon sabato, Andrea Il giorno sab 19 apr 2025 alle 07:10 Guido Vetere <[email protected]> ha scritto: > I Language model sono notoriamente dissociati (Mahowald et al, 2023, > Dissociating language and thought in large language models, > https://arxiv.org/abs/2301.06627) e in difficoltà con i conteggi. Fino a > qualche tempo fa sbagliavano perfino a contare le occorrenze di una lettera > in una frase, figuriamoci le parole nelle canzoni di Jovanotti. Questo > accade perché, come ormai sappiamo tutti, la loro capacità di base è quella > di predire il prossimo token, il resto viene dalle successive 'istruzioni'. > Non ho dubbi che sistemi capaci di 'ragionare' (so to say) su ampi contesti > saranno istruiti a fare quello che si faceva cinquant'anni fa con i primi > lemmatizzatori (il lessico di frequenza di De Mauro è fatto con IBM a Pisa > negli anni '70). > Questo significa che un giorno li potremo considerare 'oracoli'? Certo che > no. Tuttavia, per citare un aneddoto personale, senza GPT4 ieri non me la > sarei cavata facilmente con un problema di configurazione del mio laptop. > Né avrei avuto tempo e voglia di andare a compulsare manuali. Che mi > importa se non sa contare le parole di Jovanotti? (lo capisco pure, eh, che > palle!) > Morale: dovremo imparare a usare questi sistemi in modo tattico e con le > dovute cautele. La sfida portata dall'IA generativa è epistemica, più che > etica. > > G. > > > > > > On Fri, 18 Apr 2025 at 23:46, Giacomo Tesio <[email protected]> wrote: > >> Caro Marco Anselmo Giovanni (;-D) >> >> Francamente preferirei di gran lunga usare un pace-maker programmato da >> GitHub CopyALot che debuggarne il codice. >> >> Molto meno doloroso. :-p >> >> >> Giacomo >> >> >> Il 18 Aprile 2025 17:00:18 UTC, "Marco A. Calamari" ha scritto: >> > >> > Tu saresti contenta di sapere, dopo avermi dato l'incarico di >> > progettare la tua >> > nuova casa ed esserci entrata, di sapere che avevo fatto i calcoli >> > del >> > cemento armato con ChatGPT, e li avevo revisionati con la mia >> > professionalità? >> > >> > Oppure, chessò, se mi fossi messo a fare il programmatore, che era >> > la mia passione da piccolo, che avevo programmato il software del tuo >> > pace-maker facendo vibe-coding con Copilot? >> > >> > [...] Qualsiasi professionista che usi un LLM >> > come oracolo (in questa lista non credo serva spiegare la frase) >> > appartiene ad una di queste due categorie. >> > >> > 1) non ha la più pallida idea di cosa sia e come funzioni un LLM, >> > e lo usa per comodità e produttività scaricando i rischi di questa >> > scelta sul cliente. >> > >> > 2) sa cosa è e come funziona un LLM, ma lo usa lo stesso per comodità >> > e produttività, scaricando i rischi di questa scelta sul cliente. >> > >> > Io personalmente non vorrei affidarmi a nessuno dei due. >> >>
