a me sembra un pasticcio, o sbaglio ?
in un gruppo whatsapp di 10 persone, se 9 fanno opt out ed uno no, ad
esempio perche' non usa piu' whatsapp, tutte e 9 si vedono i propri dati
riversati in un LLM, pronti a risaltar fuori al primo jailbraking.
o sbaglio ad interpretare ?
(domanda non retorica)
grazie!, s.
On 18/04/25 08:00, Stefano Borroni Barale wrote:
Questo annuncio si dimentica di notare la cosa più rilevante: come
scrive Meta nella sua informativa se obiettate (cosa che ho fatto
immediatamente) esiste un'eccezione.
Se i nostri dati pubblici sono stati "ripubblicati" (p.es. con la
funzione "condividi" di Facebook) da qualcuno che non ha espresso uguale
obiezione allora il nostro materiale verrà utilizzato COMUNQUE per
l'ottimizzazione del loro modello linguistico.
Se, da un lato, questa è probabilmente l'unica soluzione tecnica
possibile per non finire in un labirinto senza uscita di accordi/
dinieghi, secondo me è rivelatoria delle basi completamente
incompatibili con l'attuale diritto di questa operazione.
/Let it sink. /Come dicono gli anglosassoni.
Da un certo punto di vista mi verrebbe da festeggiare: sono da sempre a
favore del copyleft: il problema è uno solo. Che il copyright viene
abolito per tutti, tranne che per Meta Inc. la quale, una volta creati i
pesi del suo LLM grazie ai NOSTRI dati, lo controlla e può invocare
misure draconiane fino a limite di instaurare uno stato di polizia, per
ottenerne la protezione dal /furto di IP/.
Proprio come ha avuto il coraggio di fare OpenAi quando è comparso su
Internet Deepseek, che avrebbe "copiato la loro proprietà
intellettuale". Era girata la proposta di /punire con/ /il carcere /il
semplice download//di Deepseek (tra l'altro: qualcuno sa che fine ha fatto?)
A questo punto credo che i giuristi in lista abbiano già compreso dove
sto andando a parare: l'UE avrebbe una soluzione molto più onorevole.
Permettere la creazione di LLM facendo un'eccezione al principio di
minimizzazione della raccolta dati del GDPR e al copyright sotto una
semplice condizione: tutto quello che ne esce deve essere Public Domain.
Public Domain i pesi iniziali, Public Domain TUTTI i dati utilizzati per
l'ottimizzazione, Public Domain i pesi a valle dell'ottimizzazione e
licenza libera per il software di creazione della rete neurale.
<TROLL mode ON>
Semplice, lineare e inattaccabile. No? :-)
<TROLL mode OFF>
:-)
Stefano
Inviato con l'email sicura Proton Mail <https://proton.me/mail/home>.
giovedì 17 aprile 2025 10:59, J.C. DE MARTIN
<[email protected]> ha scritto:
*Meta starts AI training with personal data - those who want to object
must act quickly*
https://datenschutz-hamburg.de/news/meta-starts-ai-training-with-
personal-data
15 April 2025
Until now, Meta's AI technology has not been trained with the Facebook
and Instagram data of European users. This is now set to change: From
*the end of May 2025, Meta wants to use the data of all adult European
Facebook and Instagram users for training of its own AI applications*.
The data will then be used to train the company's AI-based services
such as the Meta-AI chatbot on WhatsApp or language models such as Llama.
*Start of training planned for 2024 postponed for the time being*
Meta had already announced last year that it would use all public
posts and photos from its European Facebook and Instagram users for AI
training. *However, Meta then postponed the project *after the Irish
Data Protection Authority (IDPC), which is the lead supervisory
authority for Meta in the EU, approached the company with data
protection issues, particularly regarding the legal basis and
transparency. *The procedure that is now in place makes it easier to
object *to Meta's use of personal data for AI training.
*If users want to object, then now*
Registered users of Facebook and Instagram must now decide whether the
company may train AI models with their personal data (posts, photos,
etc.). This applies not only to the future, but also to all data from
the past.
If you have no concerns about your publicly accessible posts, comments
and photos in your own account being used for AI training, you don't
have to do anything.
Anyone who wants to prevent their own data from being used by Meta for
AI training purposes *must take action now*. All European users of
legal age will be notified accordingly by Meta and informed of their
options. You can object in the respective apps or for Facebook at
https://www.facebook.com/help/contact/712876720715583 <https://
www.facebook.com/help/contact/712876720715583> and for Instagram at
https://help.instagram.com/contact/767264225370182 <https://
help.instagram.com/contact/767264225370182>. For the objection to take
full effect, it must be lodged before the end of May 2025. Although it
is possible to object at any time after this date, it will no longer
be possible to undo that your data has already been used for AI
training. Training data is irrevocably incorporated into AI models and
its influence can no longer be removed from the model according to the
current state of the art.
Thomas Fuchs, Hamburg Commissioner for Data Protection and Freedom of
Information: „I can well understand that users are concerned when all
their images and texts shared on social networks are now incorporated
into AI models. The only way to protect yourself here is to object in
good time. If so, then now.“
--
You can reach me on Signal: @quinta.01 (no Whatsapp, no Telegram)