Caro Guido,

la "coraggiosa assertività" sarebbe arroganza se questo dibattito non fosse già avvenuto diverse volte in almeno 40 anni di ricerca in ambito socio-politico e non solo, nel tentativo di superare le posizioni semplicistiche tra i due estremi che vedono o la tecnologia come mera espressione della società o all'opposto come ciò che la plasma.

Possono esservi divergenze anche sostanziose, ma nessuno più nega che gli artefatti incorporino normatività e al contrario afferma che non possano avere alcun bias, fosse solo culturale (di chi progetta e di coloro per cui sono progettati) o di modello economico e di business nel quale si inseriscono.

Da Langdon Winner in poi si cerca di articolare la politicità dell'artefatto in uno spettro tra un estremo di politicità intrinseca per cui lo strumento richiede un certo tipo di relazioni di potere ed un altro che vede una prevalenza degli attori sociali nel determinare l'uso di una tecnologia. Addirittura per Bruno Latour gli artefatti si affiancano all'essere umano ed alle istituzioni nella co-creazione del contesto sociale.

In ogni caso mi pare sia superata sia la visione di uno strumento tecnologico neutrale, che quella che lo vede sempre espressione di una intenzione politica: il buon ChatGPT dovrebbe prenderne atto invece che oracolare /pro domo sua/.

In questo contesto non vedo nessun elemento di novità negli artefatti con comportamento stocastico che possa rimettere in discussione la loro neutralità.
Forse mi sfugge qualcosa?

Quanto è in discussione non è cosa cambia se una cosa la fa una macchina che copia gli umani o se uno deve farsela da solo, è l'equilibrio tra i vari elementi regolativi in una società: economia, legge, norme sociali, architettura/codice (per citare Lessig), sapendo che lo sviluppo troppo veloce di certe architetture e la lentezza di norme e leggi a stare dietro mette in difficoltà questi equilibri.

Se ho compreso la tua allegoria, non si tratta di decidere come ordinare al ristorante, ma se ci sono ristoranti o si può solo ordinare online, chi può pagare o no, chi sta cucina, se le ricette sono anch'esse con ingredienti randomizzati...

Buona giornata,

Alberto


On 04/04/23 12:16, Guido Vetere wrote:
Cari Giacomo e Alberto,
il vostro punto di vista è molto interessante e vi ringrazio per averlo esposto con tanta coraggiosa assertività. Lo condivido senz'altro per tutto ciò che riguarda la programmazione imperativa e quella basata sulla rappresentazione della conoscenza e il ragionamento automatico. Se però consideriamo gli sviluppi dell'IA degli ultimi anni, e in particolare i LLM, le cose sono a mio avviso più complesse. Non mi inoltro in argomentazioni metafisiche per non tediare chi legge e perché non ho molto tempo. Propongo invece un piccolo sketch, forse ingenuo, che però può far riflettere. Sono al ristorante con un amico, il menù comprende sei piatti. Io li valuto e scelgo quello che preferisco. Il mio amico estrae dalla tasca un dado, lo lancia e sceglie il piatto che corrisponde al numero che esce. Domanda: io e il mio amico siamo nella stessa relazione causale rispetto a ciò che mangerà?
Secondo me no, ma se ne può parlare.
Buona giornata.
G.



On Tue, 4 Apr 2023 at 11:46, Alberto Cammozzo via nexa <[email protected]> wrote:

    Intervengo a conferma di quanto dice Giacomo sulla /presunzione di
    neutralità/ degli artefatti tecnologici.

    Ho chiesto a phind.com <http://phind.com> cosa è successo in
    piazza Tien An Men.

    Mi ha risposto citando i massacri e esponendo i diversi punti di
    vista, incluso quello del governo cinese.

    Allora ho chiesto:

        Is this the same answer you give to users in China?
        Answer:

        As an AI language model, I do not have the ability to
        determine the location of the user or the restrictions on
        information in their country. However, my answer is based on
        factual information and sources that are publicly available.
        The information I provided is objective and does not contain
        any political bias.

    Con buona pace di decenni di dibattiti sulla politicità
    (intrinseca o meno) degli artefatti tecnologici, sulla loro
    agency, sulla normatività del codice...

    La pretesa di neutralità è ingannevole: ogni artefatto, specie
    questi così complessi, incorporano normatività.

    I tecnologi che continuano a credere di costruire artefatti neutri
    e consegnarli nelle mani di persone che ne saranno responsabili
    negano (forse in primo luogo a se stessi) l'evidenza che gli
    artefatti incorporano l'intenzionalità e la normatività di chi li
    inventa e di chi paga chi li inventa.


    Alberto




    On 04/04/23 10:56, Giacomo Tesio wrote:
    Ciao Guido,

    trovo veramente affascinante (quanto inquietante) questo passaggio
    della tua email:

    On Tue, 4 Apr 2023 06:52:24 +0200 Guido Vetere wrote:

    Tutto questo è corretto, tranne il riferimento alle "stronzate"
    (*bullshit*) di Frankfurt: queste infatti sono affermazioni capziose
    pronunciate con intento manipolatorio, insomma dietro una "stronzata"
    c'è sempre uno "stronzo", cioè un soggetto dotato di intenzionalità,
    cosa di cui ChatGPT dichiara onestamente di essere privo.
    Come diversi informatici in lista ti possono confermare, lo "stronzo"
    dietro un software è sempre chi lo programma e ne controlla
    l'esecuzione.

    Un software infatti applica all'ambiente SEMPRE e ANZITUTTO la volontà
    di chi l'ha programmato (e nel caso di un SaaS, eseguito),
    riproducendola ed imponendola a tutti coloro che sono parte, volenti o
    nolenti, della organizzazione cibernetica in cui tale software opera.

    Nel caso di ChatGPT, lo "stronzo" (nel senso di Frankfurt) è Open AI.
    Nel caso di GitHub Copilot, lo "stronzo" è GitHub.
    Entrambi si leggono "Microsoft".

    Nel caso di Google Assistant, lo "stronzo" è Google/Alphabet.
    Nel caso dei risultati di ricerca o delle news "personalizzate" fornite
    dai servizi di Google, lo "stronzo" è Google/Alphabet.

    Nel caso della timeline Instagram o Facebook, lo "stronzo" è Facebook.

    Nel caso della timeline TikTok, lo "stronzo" è TikTok.

    Nel caso dell'amica virtuale "Replika", lo "stronzo" è Luka, Inc.

    Nel caso dell'osservatorio di Monitora PA, lo "stronzo" sono io.
    (e con me i molti che contribuiscono al suo sviluppo...)


    Il punto è: che si tratti di bug (come può essere un falso positivo
    prodotto dall'osservatorio di Monitora PA) o di scelte progettuali
    c'è sempre almeno un essere umano di cui il software riproduce
    pedissequamente la volontà.


    Questa volontà può essere impressa nel software in modo relativamente
    trasparente tramite la programmazione linguistica (ad esempio in Python
    o in C) oppure essere impressa nel software in modo opaco, attraverso
    la selezione dei dati da utilizzare per la programmazione statistica
    e la progettazione della topologia della vector reducing machine che
    verrà programmata statisticamente.


    Ora, tutti gli "stronzi" qui presenti che abbiano mai realizzato un
    software in prima persona, potranno confermarti di esistere.


    Alcuni saranno ben lieti di non dover rispondere delle proprie
    creazioni, mentre altri si sentiranno oltraggiati dall'idea che
    qualcuno possa ignorare la propria esistenza come autori di quelle
    creazioni.


    Ma tutti saranno consapevoli di aver LAVORATO per realizzare la
    sequenza di bit che le macchine elaborano automaticamente per produrre
    gli effetti che loro desiderano.


    Il contributo dell'utente alla produzione dell'output di un software
    è completamente determinato dal programmatore e può variare moltissimo
    a seconda del software.
    Nel caso di ChatGPT, è oggettivamente trascurabile.

    Per questa ragione, la responsabilità dell'output NON PUO' essere
    scaricata sull'utente con un banale disclaimer!



    Quando leggo che "ChatGPT dichiara ONESTAMENTE di essere privo" di
    intenzionalità mi chiedo sinceramente se ci sia una qualche forza
    all'opera dietro questa allucinazione collettiva, dietro questa
    cancellazione delle persone che realizzano la macchina dalla
    tua coscienza, a cui gli sviluppatori siano talmente immuni
    da non percepirla.

    No: chi ha scritto quel disclaimer NON è onesto.
    E non è stato Chat GPT a scrivere quel disclaimer.

    Noti come Open AI sta manipolando la tua percezione della realtà?


    Forse il semplice fatto di essere capaci a programmare
    statisticamente un software (e magari averlo programmato),
    rende naturalmente immuni a questa allucinazione.


    Eppure si deve trattare di un'allucinazione molto forte se, come
    osservo qui, persone intelligenti ed in buona fede continuano a
    sostenerla NONOSTANTE altre persone, autorevoli, intelligenti ed
    altrettanto in buona fede, ma con una maggiore consapevolezza tecnica
    della questione, continuano a ripetere che il software è sempre
    realizzato da esseri umani e ne riproduce valori e interessi.


    Ti prego di riflettere sulla questione: io esisto, Open AI esiste,
    Microsoft esiste, Google esiste etc... cosa ti costringe a cancellare
    la nostra esistenza dalla tua coscienza quando guardi un artefatto che
    realizza pedissequamente la nostra volontà?


    Certo, una volta realizzato, un software diventa un agente cibernetico
    automatico, che "si muove da sé". Ma non è mai autonomo.

    Anche quando varia il proprio stato interno in funzione dell'input,
    tale variazione è sempre meccanicamente determinata dalla sua
    programmazione (per quanto complessa e opaca sia essa sia).

    Anche quando tale stato interno viene utilizzato insieme ad ogni
    nuovo input per calcolare nuovi output e nuove variazioni dello stato
    interno, ogni output e ogni variazione dello stato interno è
    meccanicamente determinato da chi ha programmato il software.


    Dunque l'agente cibernetico automatico non è MAI autonomo.


    On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote:

    La difficoltà qui risiede nel fatto di aver a che fare con oggetti
    privi di intenzionalità che tuttavia producono locuzioni a cui,
    antropologicamente, attribuiamo in effetti intenzionalità. Se gli
    sviluppatori o gli esercenti di questi oggetti dovessero rispondere
    di questa intenzionalità fittizia, farebbero bene a dedicarsi ad
    altro.
    In assenza di tale autonomia, l'assenza di intenzionalità è
    irrilevante: il software riproduce le intenzioni di chi l'ha
    realizzato e ha deciso come deve essere usato.


    On Mon, 3 Apr 2023 20:18:55 +0200 Guido Vetere wrote:

    Ma se passasse questa linea dovremmo spegnere tutti i generatori
    basati (solo) su LLM: anche se addestrati sui dati più puri del
    mondo, la probabilità che generino 'utterances' censurabili non
    sarebbe mai nulla.
    Beh non è detto: è sufficiente che ciascuno usi i LLM che realizza.

    In tal modo, l'intenzionalità (e la responsabilità legale) è tutta
    perfettamente determinata.


    Giacomo
    _______________________________________________
    nexa mailing list
    [email protected]
    https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
    _______________________________________________
    nexa mailing list
    [email protected]
    https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to