Salve Guido,

Il 10 Agosto 2024 08:36:32 UTC, Guido Vetere <[email protected]> ha 
scritto:
> Ora un esperimento mentale: si scopre che la mentitrice ha generato il
> falso per mezzo di un LLM.
> Quesito: potrà usare questa circostanza a sua, sia pur parziale, discolpa?

Dipende.

Era consapevole di come funziona un LLM?
Era consapevole della falsità dell'interpretazione che gli altri avrebbero 
attribuito alla 
sequenza di caratteri calcolati dal 
software?

Se no, non si potrebbe attribuirgli alcuna responsabilità, che sarebbe SOLO di 
coloro
che le hanno fornito accesso al LLM in questione.

Se sì, la responsabilità delle conseguenze della diffusione di tale output 
ricadrebbe 
anche su di lei.

> Se sì, bisognerà dare ragione ai ricercatori di Oxford, altrimenti avranno
> ricercato invano.

Non sequitur: i ricercatori di Oxford possono aver "ricercato invano" anche se 
la
la tua ipotetica signora fosse vittima della malafede di chi realizza e promuove
come "intelligenze artificiali" questi software programmati statisticamente.

Non si tratta di istituire "verità" da imporre ai software (o meglio, tramite i 
software).
Si tratta semplicemente di individuare i responsabili, senza permettere 
a nessuno di nascondersi dietro un software, che si chiami Twitter o ChatGPT.

Che si tratti della 56 enne arrestata a Chester, di Musk. di Altman, di 
Bankman-Fried...


Giacomo

Reply via email to