Scusate, [2] era semplicemente un riferimento a questa mail di Giuseppe in risposta ad Antonio e me: <https://server-nexa.polito.it/hyperkitty/list/[email protected]/message/FCCMLFB4FNUH36VNP2T5BFPWKBEKYBQN/>
(meglio leggibile nell'allegato html) Giacomo Il 14 Maggio 2026 13:01:27 UTC, Giacomo Tesio via nexa <[email protected]> ha scritto: > Ciao Giuseppe, > [...] > Per questo nella definizione che hai definito semplicistica [2] avevo > scritto "sono archivi compressi con perdita di sequenze testuali di > cui è possibile decomprimere _approssimazioni_di_alcune_zone_ fornendo > in input una sequenza testuale prossima a quelle presenti nei testi > sorgente". > > > Le zone di attivazione non rappresentano "conoscenza acquisita", o > "rappresentazioni astratte", bensì sequenze di token che si comprimono > meglio insieme rispetto che separatamente. > > In altri termini, non si tratta di "un effetto secondario del processo > di ottimizzazione durante l’apprendimentonto", ma del meccanismo di > funzionamento del processo di compressione con perdita di _sequenze_ > di token in atto. > > > Giacomo > > [1] non credo sia necessario citarlo esplicitamente, ma comunque è qui > https://en.wikipedia.org/wiki/Attention_Is_All_You_Need
