> "" le regole dovrebbero discendere dai principi che si vogliono difendere
> ""


Nei sistemi giuridici come il nostro, alle costituzioni, ai principi, si
devono armonizzare le leggi ordinarie, le regole.
Però nel mondo digitale è insormontabile "" l'ostacolo linguistico "" che
altrove ho chiamato ""rischio digitale"".
*Humanware *è l’obiettivo cui puntare, sistemi sw ma anche hw in funzione
degli utenti finali, in armonia con l'affermazione per la quale “” *sono le
macchine che devono imparare a riconoscerci, non noi a doverci assimilare
alle macchine*. “” (
https://www.corriere.it/tecnologia/24_gennaio_02/l-intelligenza-artificiale-ci-riscattera-dalle-schiavitu-digitali-003b7434-d079-4f0b-ace3-2b35877daxlk.shtml)
criticando la situazione attuale nella quale “”*dobbiamo imparare a fare
funzionare i servizi che ci offrono*, anche se sono fatti male, sono
controintuitivi e scomodi “”.
Lo aveva riconosciuto Quintarelli (https://blog.quintarelli.it/spid/): “” Mia
moglie ha … chiesto di spiegarle come funziona e il perché di certe cose
che le sembravano complicazioni inutili) “”.
Per me, ignorante in molto ed ancor più nel digitale, quasi tutto il
digitale è complicato. Ancora oggi – agosto 2024 – noi ignoranti digitali
sfioriamo il 100% degli umani: perchè accettare la schiavitù digitale e,
molto peggio, abbandonare ad essa i giovani (Attardi, op cit)?
La regola generale dovrebbe essere semplice: ogni strumento informatico,
materiale od immateriale, deve essere interamente leggibile e trasparente
allo scopo di essere comprensibili agli utilizzatori finali.
Per gli analfabeti - tali siamo quasi tutti - c'è solo arbitrio, non c'è
principio non c'è regola.
Cordialmente.
Duccio (Alessandro Marzocchi)


Date: Thu, 15 Aug 2024 09:26:58 +0200
> From: Giuseppe Attardi <[email protected]>
> To: [email protected]
> Subject: Re: [nexa] cervello elettronico, si diceva una volta
> Message-ID: <[email protected]>
> Content-Type: text/plain; charset=utf-8
>
> > On 13 Aug 2024, at 12:46, [email protected] wrote:
> >
> > l’autrice osserva che per disciplinare l’intelligenza
> > artificiale in modo generale occorre «passare dalle regole ai princìpi».
> > Questi ultimi, a differenza delle prime, sono caratterizzati da una
> > maggiore ampiezza e flessibilità. Ne sono esempi i princìpi di
> trasparenza,
> > di non discriminazione, di sorveglianza umana ecc.
>
> Direi proprio l’opposto: le regole dovrebbero discendere dai principi che
> si vogliono difendere.
> Un ribaltamento che si ritrova anche nell’impostazione dell’European AI
> Act, che impone regole sul come sviluppare e certificare applicazioni di AI
> (intesa in senso talmente lato da coprire praticamente qualunque
> applicazione informatica), anziché stabilire quali siano i principi da
> difendere, in particolare i diritti degli utenti.
> La GDPR stabilisce invece quali siano i nostri diritti e lascia aperto il
> compito alle autorità di protezione di come farli valere.
>
>
>

Reply via email to