Concordo. Bisognerebbe smetterla di ragionare su quello che ChatGPT dovrebbe essere o ci piacerebbe che fosse (in sostanza: il front-end di una base di conoscenza editabile, come d'altronde ce ne sono tanti) e ragionare invece su quello che è, su come usarlo e con quali cautele, sul non usarlo e perché, o sulla opportunità giuridica di impedire del tutto il suo uso. Insomma, nel '900 qualcuno avrebbe potuto chiedere, o addirittura esigere, che le autovetture fossero alimentate a biada, offuscando però il dibattito sulla necessità di installare semafori in città. Questo è il pericolo che vedo nella posizione del Garante italiano. E' ovvio che siamo tutti a disagio davanti al fatto che la conoscenza globale collassi in un solo sistema proprietario, e per di più *intrinsecamente* allucinato. Ma questo sistema è lì così com'è, e più che levare contro di esso grida manzoniane, dovremo pensare seriamente a come farci i conti.
G. On Sun, 16 Apr 2023 at 16:25, Roberto Dolci <[email protected]> wrote: > Non mi permetterei mai di suggerire d’ignorare😊 > > > > Alcuni casi d’uso simpatico: > > > > 1. Aiutare noi, non-medici, a descrivere in modo corretto i nostri > dolori, sintomi e tutto il quadro che aiuta il medico nel processo di > diagnosi, facendo le domande giuste ed usando i termini corretti. Un bel > passo avanti nella telemedicina. > > 2. All’opposto, usato dal medico nella prescrizione delle cure, diete > e specialmente nelle raccomandazioni comportamentali per facilitare il > processo di guarigione. Quello che chiamiamo “patient compliance” e’ per > molte patologie il fattore che piu’ pregiudica tempi e modi di guarigione. > ChatGPT e’ un capo della retorica, e sa scrivere molto meglio della media > dei medici. > > 3. In due settimane in Facebook han costruito 600 milioni di possibili > (si son fermati al modello digitale Deo Gratias) di proteine, che possono > essere usate in un ampio spettro di casi, da nuovi antibiotici, nuovi > carburanti, etc. Pensiamo ad una sola proteina ben conosciuta, la seta, e > tutto quello che puo’ esser fatto (Tufts Silklab Creates Leather-like > Material from Silk Proteins | Tufts Now > > <https://now.tufts.edu/2021/05/05/tufts-silklab-creates-leather-material-silk-proteins> > ) > > > > Questi esempi sono documentati in articoli scientifici disponibili a tutti > a tiro di google. > > > > Se invece vogliamo dar disinformazione e convincere la gente che i maiali > volano, facilissimo farlo, ma sarebbe l’uso sbagliato. > > > > Buona Domenica > > Rob > > > > *From:* Paolo Del Romano <[email protected]> > *Sent:* Sunday, April 16, 2023 9:11 AM > *To:* Roberto Dolci <[email protected]> > *Cc:* Giacomo Tesio <[email protected]>; Nexa <[email protected]> > *Subject:* Re: [nexa] ChatGPT disabled for users in Italy > > > > > > > > Dovremmo pensare a ChatGPT ,e compagni LLM, come strumenti che scrivono > correttamente in 50+ lingue, non come fonti di alcun genere di verita’. > Utilissimi per tanti casi d’uso, ma dannosi se li usiamo per le cose che > non possono fare. > > > > Ecco! Questa è la risposta che mi sento di condividere pienamente. Quindi > molte cose che si sono dette qui le possiamo anche ignorare. > > > > Saluti > > Paolo > > > _______________________________________________ > nexa mailing list > [email protected] > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa >
_______________________________________________ nexa mailing list [email protected] https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
