Buongiorno

Qui potete vedere l'analisi del corpus di Jovanotti fatta con Voyant Tools
https://voyant-tools.org/?corpus=a44425f9cfc778bbcc0e948c22139153

Ho caricato il file di Antonio senza togliere i titoli nè altro e quindi i
numeri sono leggermente più alti di quelli di Antonio, ma il senso del
discorso non cambia.
Voyant Tools non usa IA generativa, è un vecchio programma.

Anche io non credo che GPT abbia generato i risultati corretti per i
Promessi sposi e lo Zibaldone: li vogliamo vedere e vogliamo riprodurre
l'analisi 😁 (per i Promessi sposi lo avevo fatto, per li Zibaldone no).
A noi piace il metodo scientifico.
Se GPT li genera, vuol dire che sono già stati pubblicati.

Buon sabato,
Andrea

Il giorno sab 19 apr 2025 alle 07:10 Guido Vetere <[email protected]>
ha scritto:

> I Language model sono notoriamente dissociati (Mahowald et al, 2023,
> Dissociating language and thought in large language models,
> https://arxiv.org/abs/2301.06627) e in difficoltà con i conteggi. Fino a
> qualche tempo fa sbagliavano perfino a contare le occorrenze di una lettera
> in una frase, figuriamoci le parole nelle canzoni di Jovanotti. Questo
> accade perché, come ormai sappiamo tutti, la loro capacità di base è quella
> di predire il prossimo token, il resto viene dalle successive 'istruzioni'.
> Non ho dubbi che sistemi capaci di 'ragionare' (so to say) su ampi contesti
> saranno istruiti a fare quello che si faceva cinquant'anni fa con i primi
> lemmatizzatori (il lessico di frequenza di De Mauro è fatto con IBM a Pisa
> negli anni '70).
> Questo significa che un giorno li potremo considerare 'oracoli'? Certo che
> no. Tuttavia, per citare un aneddoto personale, senza GPT4 ieri non me la
> sarei cavata facilmente con un problema di configurazione del mio laptop.
> Né avrei avuto tempo e voglia di andare a compulsare manuali. Che mi
> importa se non sa contare le parole di Jovanotti? (lo capisco pure, eh, che
> palle!)
> Morale: dovremo imparare a usare questi sistemi in modo tattico e con le
> dovute cautele. La sfida portata dall'IA generativa è epistemica, più che
> etica.
>
> G.
>
>
>
>
>
> On Fri, 18 Apr 2025 at 23:46, Giacomo Tesio <[email protected]> wrote:
>
>> Caro Marco Anselmo Giovanni (;-D)
>>
>> Francamente preferirei di gran lunga usare un pace-maker programmato da
>> GitHub CopyALot che debuggarne il codice.
>>
>> Molto meno doloroso. :-p
>>
>>
>> Giacomo
>>
>>
>> Il 18 Aprile 2025 17:00:18 UTC, "Marco A. Calamari" ha scritto:
>> >
>> > Tu saresti contenta di sapere, dopo avermi dato l'incarico di
>> > progettare la tua
>> >  nuova casa ed esserci entrata, di sapere che avevo fatto i calcoli
>> > del
>> >  cemento armato con ChatGPT, e li avevo revisionati con la mia
>> > professionalità?
>> >
>> > Oppure, chessò, se mi fossi messo a fare il programmatore, che era
>> >  la mia passione da piccolo, che avevo programmato il software del tuo
>> >  pace-maker facendo vibe-coding con Copilot?
>> >
>> > [...] Qualsiasi professionista che usi un LLM
>> >  come oracolo (in questa lista non credo serva spiegare la frase)
>> >  appartiene ad una di queste due categorie.
>> >
>> > 1) non ha la più pallida idea di cosa sia e come funzioni un LLM,
>> >  e lo usa per comodità e produttività scaricando i rischi di questa
>> >  scelta sul cliente.
>> >
>> > 2) sa cosa è e come funziona un LLM, ma lo usa lo stesso per comodità
>> >  e produttività, scaricando i rischi di questa scelta sul cliente.
>> >
>> > Io personalmente non vorrei affidarmi a nessuno dei due.
>>
>>

Reply via email to