Ma vedi Roberto,

On Thu, 11 Jul 2024 22:50:28 +0000 Roberto Dolci <[email protected]>
wrote:

> Io condivido la sorpresa della prof nell'enorme differenza tra la
> traduzione verso l'inglese (perfetta) e quella verso il Latino,
> valida appunto come bozza.
> [...]
> Ne io ne lei avremmo previsto la totale differenza nella qualita,'
> delle traduzioni a seconda della lingua di partenza

La sorpresa è comprensibile solo se si sta assumendo che una qualche
intelligenza, artificiale ma con memoria e potenza di calcolo
pressocché illimitata, abbia effettuato entrambe le traduzioni.

La tua Prof proietta la propria intelligenza umana sulla macchina e si
sorprende che uno studente che abbia imparato a tradurre brillantemente
dal latino all'inglese, non abbia imparato a tradurre in modo
equivalente dall'inglese al latino.


Nota come non ho virgolettato le parole "intelligenza" e "imparato"
per riprodurre più fedelmente la prospettiva della Prof che, sentendo
"esperti" parlare di "machine learning" e "artificial intelligence",
immagina Chat GPT alla stregua di uno studente che abbia imparato a
tradurre da una lingua ad un'altra.


> La prof correttamente non ha speso tempo nel correggere il Latino
> tradotto malamente dalla macchina, ma ha fatto lavorare I ragazzi
> sulla pulizia del loro inglese, fino a quando ChatGPT ha poi tradotto
> bene.

Interpretazione edificante, ma errata.


Chiunque abbia mai studiato latino, ricorda bene le frasette
didattiche che costituivano la gran parte degli esempi 
da tradurre in latino.

Frasette semplici e lineari focalizzate sull'esemplificazione e
l'apprendimento di specifici costrutti, non sulla espressione di
concetti arbitrariamente complessi.


Al contrario, esistono molteplici traduzioni dal latino all'inglese 
di innumerevoli opere in latino che esprimono concetti complessi.
Ed è ovvio: un sistema programmato statisticamente, riproporrà
traduzioni simili a quelle utilizzate per la sua programmazione.


La Prof non può saperlo, perché non comprende come funziona un LLM e
non saprebbe come realizzarlo, per cui interpreta le frasi inglesi che
"funzionano" come "lineari e pulite" invece che come esempietti
didattici.


Dunque la tua Prof NON ha insegnato ai propri alunni ad esprimersi
meglio in inglese.

Gli ha insegnato ad allineare il proprio inglese agli esempietti
didattici di traduzione dall'inglese al latino presenti nel dataset
sorgente utilizzato per programmare ChatGPT.


Personalmente non credo che ciò sia edificante ed educativo per gli
studenti, ma auspicabilmente a Boston questi ragazzi troveranno ben
altri stimoli.


> Hanno capito il vecchio garbage in, garbage out: se butti un testo
> approssimativo in inglese, la macchina te ne restituisce uno allo
> stesso livello.

No, sono stati addestrati ad assumersi la responsabilità per gli
output erronei di quel software.

O meglio, sono stati addestrati a scaricare la responsabilità degli
output errati sugli utenti, sugli "studenti caproni" per usare le tue
parole.


Se avessero compreso davvero il concetto di GIGO, si chiederebbero
perché la loro Prof gli fa usare un software buggato che può produrre 
spazzatura anche quando gli fornisci input di ottima qualità.

Si chiederebbero perché i creatori di ChatGPT abbiano razzolato tutta
la spazzatura del Web per programmarlo.

E magari si chiederebbero perché la Prof invia ad un simile software le
email dei propri genitori.

> Ne io ne lei avremmo previsto la totale differenza nella qualita,'
> delle traduzioni a seconda della lingua di partenza, ma lei s'e'
> adattata bene

S'è "adattata" a cosa?

A un fenomeno naturale o ad un automatismo controllato da sconosciuti?


Giacomo

Reply via email to