Come ha già detto Quintarelli parlando di "scala, velocità e rimedio",
il punto credo sia non la veridicità ma le conseguenze, la scala, gli
scopi della diffusione, e soprattutto l'assunzione di responsabilità di
chi diffonde affermazioni.
Se un influencer con zilioni di follower dice che il suo unicorno ha la
gotta, o che la terra è piatta, nessuno lo porterà in tribunale.
Se lo stesso diffonde notizie false che scatenano un pogrom, sì, e
giustamente, specie se si può dimostrare che lo scopo era proprio quello.
Se la stessa notizia falsa e pericolosa la diffonde uno che ha tre
follower, nessuno dei quali fa nulla, nessuno si prenderà la briga di
perseguirlo.
Se il mega influencer diffonde notizie -anche vere- che hanno
conseguenze per terzi dovrà essere in grado di dimostrarne la
fondatezza, forse anche in tribunale se questi si ritengono lesi o
diffamati; quindi: conseguenze.
Che abbia preso le notizie dal blog di suo cugino, da un motore di
ricerca, da un oroscopo o da un LLM poco conta.
Questo per quanto riguarda le persone: ci sia aspetta che un umano sia
in grado di rispondere delle conseguenze del proprio output, e della
veridicità solo in conseguenza.
I software al contrario vantano uno statuto di sostanziale
irresponsabilità sancito consuetudianariamente dai /terms of use/, per
cui la responsabilità dell'uso del loro output cade su chi li usa e non
su chi produce il software.
Il problema con gli LLM (condiviso con i social) è che sono emanazione
di società che usano software per produrre/diffondere affermazioni: (1)
per lucro, (2) massimizzando la scala di diffusione industrialmente e
(3) minimizzando la propria responsabilità, estendendo a proprio
vantaggio l'irresponsabilità del software.
Come per i social, non è irragionevole che un business che lucra sulla
diffusione di affermazioni si assuma la responsabilità sulle conseguenze
della diffusione delle stesse, considerando la diffusione di notizie
false non tanto per la loro falsità, quanto per la scala e le potenziali
conseguenze della loro diffusione. Ed eventualmente per il sussistere di
scopi criminosi, ai quali incita terzi.
Ma per favore non diciamo che il tal LLM o il tal social (o internet o
il web) dice questo o quello.
Quello che viene detto viene detto o da persone o da imprese, che
antropomorfizzano un software irresponsabile per non assumersi la
responsabilità delle conseguenze del potere che hanno grazie a tal
software. E che vendono.
Buona domenica.
Alberto
On 11/08/24 09:12, Guido Vetere wrote:
altro esperimento mentale, della serie: "se voi foste il giudice"
(valida alternativa alle parole crociate sulla settimana enigmistica)
la signora di Chester, alla sbarra per istigazione all'odio sul web,
dice al giudice che la bufala sul musulmano clandestino gliel'aveva
raccontata suo cugino al telefono.
quesiti: si potrebbe trattare di una attenuante? in tal caso, sarebbe
ancora un'attenuante se la signora fosse stata al corrente che il
cugino è un paranoico? infine: bisognerebbe incriminare anche il cugino?
se io fossi il giudice, direi di no: il crimine non consiste nel dare
credito a una affermazione non verificata (altrimenti staremmo tutti
in galera), e neanche raccontare balle al telefono. il crimine
consiste nel diffondere attraverso mezzi di comunicazione di massa
notizie non verificate che possono fomentare la violenza. la paranoia
conclamata del cugino non rileva. (i legali mi correggano)
fuor di metafora: l'idea che i LLM debbano essere per legge tenuti
alla veridicità è da una parte ingenua (veridicità secondo quale
episteme? ah saperlo!), dall'altra inutile: la decisione cruciale
riguarda come usare l'AI generativa, ed è una decisione tutta umana.
pensare il contrario significa abbracciare una visione pericolosamente
tecno-positivista del problema etico della conoscenza, ben noto fin
dai tempi antichi.
buona domenica!
G.
On Sat, 10 Aug 2024 at 17:59, Giacomo Tesio <[email protected]> wrote:
Salve Guido,
Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere
<[email protected]> ha scritto:
> Ora un esperimento mentale: si scopre che la mentitrice ha
generato il
> falso per mezzo di un LLM.
> Quesito: potrà usare questa circostanza a sua, sia pur parziale,
discolpa?
Dipende.
Era consapevole di come funziona un LLM?
Era consapevole della falsità dell'interpretazione che gli altri
avrebbero attribuito alla
sequenza di caratteri calcolati dal
software?
Se no, non si potrebbe attribuirgli alcuna responsabilità, che
sarebbe SOLO di coloro
che le hanno fornito accesso al LLM in questione.
Se sì, la responsabilità delle conseguenze della diffusione di
tale output ricadrebbe
anche su di lei.
> Se sì, bisognerà dare ragione ai ricercatori di Oxford,
altrimenti avranno
> ricercato invano.
Non sequitur: i ricercatori di Oxford possono aver "ricercato
invano" anche se la
la tua ipotetica signora fosse vittima della malafede di chi
realizza e promuove
come "intelligenze artificiali" questi software programmati
statisticamente.
Non si tratta di istituire "verità" da imporre ai software (o
meglio, tramite i software).
Si tratta semplicemente di individuare i responsabili, senza
permettere
a nessuno di nascondersi dietro un software, che si chiami Twitter
o ChatGPT.
Che si tratti della 56 enne arrestata a Chester, di Musk. di
Altman, di Bankman-Fried...
Giacomo