Anzitutto grazie per il chiarimento sulla base giuridica del trattamento, 
tutt'altro che ovvia per chi non si occupa di diritto per professione. 
Ribadisco il mio convincimento che lo scambio fra differenti esperienze e punti 
di vista (che giocoforza non saranno sempre concordi) sia la scommessa vinta 
della lista Nexa.

Mi permetto solo un commento sulla parte finale, che mi pare contenga uno straw 
man piuttosto evidente:

> Ora, possiamo ritenere che addestrare un LLM sia una attività delinquenziale 
> e truffaldina, e dunque contestare la "legittimità" dell'interesse al 
> trattamento in radice. Qualcuno qui potrebbe sposare questa tesi. Legittimo. 
> Auguri. Ma questo non c'entra nulla con la protezione dei dati e men che meno 
> con la privacy. Non è il GDPR il campo di battaglia per una guerra di tal 
> fatta e non è ciò che pensano i regolatori. Soprattutto occorrerebbe a quel 
> punto vietare a monte quell'attività tout court e rinunciare all'AI.

Non è affatto necessario bollare l'ottimizzazione (1) di LLM come attività 
truffaldina per sostenere una delle migliaia di alternative (TATA - There Are 
Thousands of Alternatives), tra cui le seguenti:

- potremmo pensare che ottimizzare LLM sia un'attività a scopo di lucro e che, 
come tutte le attività legittime in una società capitalista in cui il lucro è 
ben accetto, debba essere sottoposta a una remunerazione dei fornitori di 
materia prima. In questo framework pienamente favorevole al libero mercato, se 
Meta vuole i nostri articoli, i nostri pensieri, le nostre parole per il suo 
Llama ci contatti e saremo ben felici di firmare una licenza per il loro 
utilizzo. Si potrebbe anche pensare che l'UE faccia questo meritorio lavoro, 
raccogliendo i dati dei suoi cittadini interessati e vendendoli a Meta. Oppure 
potrebbero farlo associazioni, imprese, etc generando un bel giro di profitti a 
vantaggio della floridità dell'asfittico mercato dell'Ai europeo (pun intended);

- in alternativa potremmo pensare che il lucro sia la causa di molti dei 
problemi che abbiamo in questo momento (tra cui lo strapotere di quattro 
sociopatici libertariani in guerra con il mondo) e che la creazione di LLM di 
quelle dimensioni sia di per sé una pessima idea, motivo per il quale i nostri 
dati non saranno disponibili né ora né mai. Perché questo diritto all'opt-out 
sia effettivamente esercitabile, però, tutta la raccolta dovrebbe essere 
organizzata in base all'opt-IN e non all'opt-out, perché la clausola di 
eccezione di fatto rende il nostro opt-out vano o quasi vano;

- si potrebbe infine pensare che nonostante siano "20anni che alimentiamo le 
banche dati delle BigTech US e che diamo consensi ad minchiam per trattare i 
nostri dati rafforzando potere e monopoli informativi in cambio di servizi 
discutibili" viviamo nel migliore dei mondi possibili e quindi avanti con 
l'ottimizzazione di agenti cibernetici automatici il cui scopo piuttosto 
evidente, qui tra noi credo sia chiaro a tutt*, è l'ulteriore trasferimento di 
potere dal lavoro al capitale, come è sempre stato per ogni tipo di automazione 
dai tempi di Wiener.

Credo che trovare altre ragioni oltre a 1 per essere radicalmente contrari 
senza per questo mettere minimamente in discussione un framework capitalista e 
di libero mercato sia limitato solo dalla fantasia.

Stefano

(1) addestrare è operazione possibile con agenti cibernetici autonomi, non 
automatici come i LLM

Reply via email to