Grazie per l'attenzione ricevuta. Se fosse l'intelligenza a renderci
irripetibili meditiamo su Giorgio Vallortigara, neuroscienziato il quale
afferma che “” GIÀ ADESSO LE MACCHINE SONO MOLTO PIÙ INTELLIGENTI DI NOI -
ndr: maiuscolo mio - … il fatto che una macchina o un animale sia capace di
sofisticate attività cognitive non è prova di per sé che senta qualche cosa
che prova “”.
https://www.youtube.com/watch?v=fF2RkBSfdvo&t=314s minuto 28:20
Vallortigara articola le sue riflessioni oltre la sintesi di cui sopra, in
breve sposta il confine uomo / automa dall'intelligenza alla coscienza e,
risalendo alle origini della specie, ipotizza quest'ultima come qualità del
corpo che riconosce sè stesso nel movimento.
Intanto è interessante spostare il centro del confronto dalla mente al
corpo, è poi possibile che non sia l'opinione definitiva ma è una conferma
che non siamo irripetibili in tutto, in primo luogo perché l’automa già ci
raggiunge, e non di rado supera, in varie attività che riteniamo
esclusivamente nostre e quello digitale è cammino appena iniziato; inoltre
penso che l’eccesso di fiducia in noi sia pericoloso in sé e per la
sottovalutazione delle qualità altrui.
Cordialmente.
Duccio (Alessandro Marzocchi)

Date: Thu, 15 Feb 2024 10:02:48 +0100
> From: Alberto Cammozzo <[email protected]>
> To: [email protected]
> Subject: Re: [nexa] siamo davvero irripetibili? was: sistemi di IA e
>         scrittura
> Message-ID: <[email protected]>
> Content-Type: text/plain; charset=UTF-8; format=flowed
>
> Esattamente,
>
> da sempre siamo inclini a spiegarci il comportamento umano riducendolo
> nei termini delle nuove "scoperte":  negli ultimi secoli, siamo di volta
> in volta automi meccanici, o ci guidano affinità chimiche, o siamo
> determinati dal DNA, o computer programmati...
>
> Ciò che non cambia è che ogni volta qualcuno cerca di approfittarne per
> controllare i propri simili.
>
> Alberto
>
>
> On 13/02/24 10:07, Giacomo Tesio wrote:
> >> davvero i nostri cervelli funzionano diversamente dall'IA?
> > Sì, Alessandro.
> >
> > A livello di meccanismi funzionamento sono completamente diversi.
> >
> > Come già detto da Stefano, non comprendiamo ancora lontanamente come
> funzioni il
> > cervello ma le informazioni di cui disponiamo evidenziano come non
> siariconducibile
> > ad un calcolatore [1].
> >
> > Le allucinazioni transumaniste servono solo a distrarre dal terribile
> accumulo di potere
> > che la favola dell'intelligenza artificiale sta supportando.
> >
> >
> > Per contro sappiamo tutto dei meccanismi di funzionamento dei software
> programmati
> > statisticamente.
> >
> > Data la totalità dell'input e dello stato in un determinato momento, ne
> potremmo sempre
> > calcolare precisamente l'output.
> >
> > Non lo facciamo perché chi esegue tali software nasconde le informazioni
> necessarie
> > per impressionare chi non comprende tali meccanismi ed alimentare la
> favola di cui sopra.
> >
> >
> > Per contro, la mente di un essere umano è imprevedibile.
> >
> > I sistemi di manipolazione individuale su larga scala messi su dai GAFAM
> funzionano
> > proprio perché rinunciano ad imporre puntualmente un comportamento
> > ad una singola persona e si accontentano di modificare il comportamento
> prevalente
> > di un certo segmento di popolazione.
> >
> > Quando inviano un messaggio che ha una probabilità del 99% di produrre
> > un determinato comportamento in un dato segmento (un gruppo di individui
> vicini
> > rispetto alle dimensioni di volta in volta rilevanti), almeno oltre 9
> persone su 10 eseguiranno
> > l'azione prevista, mentre 1 (forse) riuscirà a resistere (quella volta).
> >
> >
> > Questo è anche ciò che ne rende il potere invisibile in una società
> individualista:
> > quando le loro manipolazioni (ad esempio gli ads o i "suggerimenti di
> lettura") funzionano
> > su di te, tu non te ne accorgi; quando te ne accorgi, non funzionano (a
> meno che
> > tu non sia ormai completamente soggiogato).
> >
> > La loro influenza individuale è probabilistica.
> > E resterà sempre tale proprio perché noi disponiamo di libero arbitrio.
> >
> > Ma se anche la probabilità di successo di igni singola manipolazione
> fosse del 40 o del 30%...
> > se anche fosse solo del 10%,  l'aggregazione di queste manipolazioni
> statistiche,
> > ripetute centinaia di volte al giorno per miliardi di persone,
> fornirebbe un potere
> > soverchiante anche per le persone che vi si sottraggono (sottraendosi
> almeno
> > agli attuatori di questi agenti cibernetici).
> >
> >
> > Attento perché l'apice insuperabile dell'aiienazione cibernetica che
> certi miliardari
> > cercano di imporre consiste proprio nel farti credere di essere solo una
> macchina complessa.
> >
> > È fondamentale per loro: significa giustificare ogni uso dell'uomo da
> parte dell'uomo.
> > Se l'uomo è sostituibile con una macchina, perché non smembrarlo o
> riciclarlo quando
> > non funziona più come serve a chi lo controlla.
> >
> > Per farlo distraggono la tua attenzione dal fatto che queste macchine
> sono letteralmente
> > progettate per ingannare l'uomo che non ne comprende (o ne ignora
> volutamente)
> > il funzionamento.
> >
> > Ma solo ignorando i loro meccanismi di funzionamento, puoi crederle
> simili
> > al tuo cervello.
> >
> >
> >
> > Giacomo
> >
> > [1] https://www.infoq.com/articles/brain-not-computer/
> >
> > Il 9 Febbraio 2024 14:00:07 UTC, alessandro marzocchi <
> [email protected]> ha scritto:
> >> Siamo davvero irripetibili?
> >> Mi appassiona la domanda: davvero i nostri cervelli funzionano
> diversamente
> >> dall'IA?
> >> Cordialmente,
> >> Duccio (Alessandro Marzocchi)
> >>
> >> Il 9 feb 2024 alle ore 12:00 <[email protected]>
> Daniela
> >> Tafani ha scritto:
> >>
> >>> Grazie della segnalazione, Maurizio.
> >>> Sono domande che Joseph Weizenbaum poneva, anche a proposito della
> >>> comprensione del linguaggio naturale,
> >>> in Computer power and human reason:
> >>>
> >>> The second kind of computer application that ought to be avoided, or at
> >>> least not undertaken without very careful forethought,
> >>> is that which can easily be seen to have irreversible and not entirely
> >>> foreseeable side effects. If, in addition, such an application cannot
> >>> be shown to meet a pressing human need that cannot readily be met in
> any
> >>> other way, then it ought not to be pursued. The latter stricture
> >>> follows directly from the argument I have already presented about the
> >>> scarcity of human intelligence.
> >>> The example I wish to cite here is that of the automatic recognition of
> >>> human speech. There are now three or four major
> >>> projects in the United States devoted to enabling computers to
> understand
> >>> human speech, that is, to programming them in such a
> >>> way that verbal speech directed at them can be converted into the same
> >>> internal representations that would result if what had been said
> >>> to them had been typed into their consoles.
> >>> The problem, as can readily be seen, is very much more complicated than
> >>> that of natural-language understanding as such, for
> >>> in order to understand a stream of coherent speech, the language in
> which
> >>> that speech is rendered must be understood in the first place.
> >>> The solution of the "speech-understanding problem" therefore
> presupposes
> >>> the solution of the "natural-language-understanding
> >>> problem." And we have seen that, for the latter, we have only "the
> tiniest
> >>> bit of relevant knowledge." But I am not here concerned with
> >>> the technical feasibility of the task, nor with any estimate of just
> how
> >>> little or greatly optimistic we might be about its completion.
> >>> Why should we want to undertake this task at all? I have asked this
> >>> question of many enthusiasts for the project. The most cheerful
> >>> answer I have been able to get is that it will help physicians record
> >>> their medical notes and then translate these notes into action more
> >>> efficiently. Of course, anything that has any ostensible connection to
> >>> medicine is automatically considered good. But here we have to
> >>> remember that the problem is so enormous that only the largest possible
> >>> computers will ever be able to manage it. In other words,
> >>> even if the desired system were successfully designed, it would
> probably
> >>> require a computer so large and therefore so expensive
> >>> that only the largest and best-endowed hospitals could possibly afford
> >>> it—but in fact the whole system might be so prohibitively
> >>> expensive that even they could not afford it. The question then
> becomes,
> >>> is this really what medicine needs most at this time?
> >>> Would not the talent, not to mention the money and the resources it
> >>> represents, be better spent on projects that attack more urgent and
> >>> more fundamental problems of health care?
> >>> But then, this alleged justification of speech-recognition "research"
> is
> >>> merely a rationalization anyway. (I put the word
> >>> "research" in quotation marks because the work I am here discussing is
> >>> mere tinkering. I have no objection to serious scientists
> >>> studying the psycho-physiology of human speech recognition.) If one
> asks
> >>> such questions of the principal sponsor of this work, the
> >>> Advanced Research Projects Agency (ARPA) of the United States
> Department
> >>> of Defense, as was recently done at an open meeting,
> >>> the answer given is that the Navy hopes to control its ships, and the
> >>> other services their weapons, by voice commands. This project then
> >>> represents, in the eyes of its chief sponsor, a long step toward a
> fully
> >>> automated battlefield. I see no reason to advise my students to lend
> >>> their talents to that aim.
> >>> I have urged my students and colleagues to ask still another question
> >>> about this project: Granted that a speech-recognition
> >>> machine is bound to be enormously expensive, and that only governments
> and
> >>> possibly a very few very large corporations will
> >>> therefore be able to afford it, what will they use it for? What can it
> >>> possibly be used for? There is no question in my mind that there is
> >>> no pressing human problem that will more easily be solved because such
> >>> machines exist. But such listening machines, could they be
> >>> made, will make monitoring of voice communication very much easier
> than it
> >>> now is. Perhaps the only reason that there is very little
> >>> government surveillance of telephone conversations in many countries of
> >>> the world is that such surveillance takes so much
> >>> manpower. Each conversation on a tapped phone must eventually be
> listened
> >>> to by a human agent. But speech-recognizing machines
> >>> could delete all "uninteresting" conversations and present transcripts
> of
> >>> only the remaining ones to their masters. I do not for a moment
> >>> believe that we will achieve this capability within the future so
> clearly
> >>> visible to Newell and Simon. But I do ask, why should a talented
> >>> computer technologist lend his support to such a project? As a citizen
> I
> >>> ask, why should my government spend approximately 2.5
> >>> million dollars a year (as it now does) on this project?
> >>>
> >>> https://archive.org/details/computerpowerhum0000weiz_v0i3/page/270
> >>>
> >>> Un saluto,
> >>> Daniela
> >>> ________________________________________
> >>> Da: nexa <[email protected]> per conto di maurizio
> lana <
> >>> [email protected]>
> >>> Inviato: giovedì 8 febbraio 2024 16:57
> >>> A: NEXA ML
> >>> Oggetto: [nexa] sistemi di IA e scrittura
> >>>
> >>> mi sono imbattuto in questo libro:
> >>> Baron, Naomi S. Who wrote this? how AI and the lure of efficiency
> threaten
> >>> human writing. Stanford, California: Stanford University Press, 2023.
> >>>
> >>> nel capitolo finale l'autrice scrive:
> >>> Imagine a world where AI’s current writing challenges have been solved.
> >>> Where large language models (or their successors) don’t churn out
> ugliness.
> >>> Where using them is energy efficient. Where predictive texting,
> spellcheck,
> >>> and grammar programs are infallible. Where AI can produce lengthy texts
> >>> that are non-repetitive, stylistically interesting, factually
> accurate, and
> >>> always on topic. Oh, and can generate text that’s indistinguishable
> from
> >>> what you might have written. Where would this world leave us humans?
> >>> As we weigh options, keep in mind potential blowback of getting what we
> >>> wish for. Cultural lore—be it of King Midas in Greek mythology, the
> >>> recurrent “three wishes” stories across European tales, or W. W.
> Jacobs’s
> >>> more modern “The Monkey’s Paw”—reminds us that attractive prospects may
> >>> bear unforeseen consequences.
> >>> lo trovo interessante perché molta parte della riflessione critica sui
> >>> sistemi di AI si appunta su singoli aspetti
> mal-funzionanti/dis-funzionanti.
> >>> mentre qui c'è una riflessione critica globale, 'a prescindere', che si
> >>> esprime sui sistemi di IA ma che riguarda ogni ambito: è
> desiderabile/quali
> >>> conseguenze ha, che in ogni campo ogni necessità sia risolta e ogni
> >>> difficoltà operativa sia eliminata ?
> >>> "teletrasporto per tutti a costo zero" e via in cima al monte Bianco
> con
> >>> un tasto (in questo esempio si vede che sono proprio uno al pie' dei
> monti
> >>> - piemontese): che cosa mi significherebbe?
> >>>
> >>> Maurizio
> >>>
> >>>
> >>> ________________________________
> >>>
> >>> quanti nella loro vita
> >>> si fecero custodi delle termopili,
> >>> sono degni di più grande onore
> >>> se prevedono (e molti lo prevedono)
> >>> che all’ultimo comparirà un efialte
> >>> e comunque i persiani passeranno
> >>> kostantinos kavafis, termopili
> >>>
> >>> ________________________________
> >>> Maurizio Lana
> >>> Università del Piemonte Orientale
> >>> Dipartimento di Studi Umanistici
> >>> Piazza Roma 36 - 13100 Vercelli
> >>>
> >>>
> >>>
> >>>
> > _______________________________________________
> > nexa mailing list
> > [email protected]
> > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
>
> ------------------------------
>
> Subject: Digest Footer
>
> _______________________________________________
> nexa mailing list
> [email protected]
> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
>
>
> ------------------------------
>
> End of nexa Digest, Vol 178, Issue 20
> *************************************
>
_______________________________________________
nexa mailing list
[email protected]
https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa

Reply via email to