In un mio recente lavoro ho cercato di argomentare sul perchè sia
auspicabile che i legislatori si soffermassero, anche per ragioni di
certezza del diritto, sui nuovi profili giuridici inerenti
allaresponsabilità derivante dalla creazione di “informazioni
sintetizzate” [1] .
Ritengo che la sfida che ci attende è quella di superare lo scarto
culturale che vede il concetto di autorialità legato alla sola categoria
persona, un individuo che crea o origina qualcosa, come un libro, un
dipinto, una musica, una teoria o qualsiasi altra forma di espressione
artistica o intellettuale.
Non c'è dubbio che abbiamo creato qualcosa di innovativo, abbiamo
disunito la capacità di comprensione dalla capacità ‘tecnologica’ di
produrre idee e opinioni; abbiamo creato autori senza persona, senza
libertà ma che, nei fatti, simulano l’esercizio di quella. Adesso
abbiamo il compito di individuare modelli normativi per gestire le
responsabilità derivanti da questi nuovi modelli di autorialità.
Ne parlo anche in un recente articolo per il magazine Mag-IA [2].
Buona estate.
Gianluca Fasano
[1] dirittifondamentali.it
<http://dirittifondamentali.it/2024/02/06/le-informazioni-sintetizzate-generate-dai-large-language-models-e-le-esigenze-di-tutela-del-diritto-allinformazione-valori-costituzionali-e-nuove-regole/>
[2] Mag-IA
<https://magia.news/large-language-models-le-implicazioni-giuridiche-ed-etiche-delle-informazioni-sintetizzate/>
Il 07/08/2024 10:54, J.C. DE MARTIN ha scritto:
*OII | Large Language Models pose a risk to society and need tighter
regulation, say Oxford researchers*
Written by
Sandra Wachter, Brent Mittelstadt and Chris Russell
/Leading experts in regulation and ethics at the Oxford Internet
Institute, part of the University of Oxford, have identified a new
type of harm created by LLMs which they believe poses long-term risks
to democratic societies and needs to be addressed/
Large Language Models pose a risk to society and need tighter
regulation, say Oxford researchers
Leading experts in regulation and ethics at the Oxford Internet
Institute, part of the University of Oxford, have identified a new
type of harm created by LLMs which they believe poses long-term risks
to democratic societies and needs to be addressed by creating a new
legal duty for LLM providers.
In their new paper ‘Do large language models have a legal duty to tell
the truth?’, published by the Royal Society Open Science, the Oxford
researchers set out how LLMs produce responses that are plausible,
helpful and confident but contain factual inaccuracies, misleading
references and biased information. They term this problematic
phenomenon as ‘careless speech’ which they believe causes long-term
harms to science, education and society.
continua qui:
https://www.oii.ox.ac.uk/news-events/do-large-language-models-have-a-legal-duty-to-tell-the-truth/