Grazie per l'attenzione ricevuta. Se fosse l'intelligenza a renderci irripetibili meditiamo su Giorgio Vallortigara, neuroscienziato il quale afferma che “” GIÀ ADESSO LE MACCHINE SONO MOLTO PIÙ INTELLIGENTI DI NOI - ndr: maiuscolo mio - … il fatto che una macchina o un animale sia capace di sofisticate attività cognitive non è prova di per sé che senta qualche cosa che prova “”. https://www.youtube.com/watch?v=fF2RkBSfdvo&t=314s minuto 28:20 Vallortigara articola le sue riflessioni oltre la sintesi di cui sopra, in breve sposta il confine uomo / automa dall'intelligenza alla coscienza e, risalendo alle origini della specie, ipotizza quest'ultima come qualità del corpo che riconosce sè stesso nel movimento. Intanto è interessante spostare il centro del confronto dalla mente al corpo, è poi possibile che non sia l'opinione definitiva ma è una conferma che non siamo irripetibili in tutto, in primo luogo perché l’automa già ci raggiunge, e non di rado supera, in varie attività che riteniamo esclusivamente nostre e quello digitale è cammino appena iniziato; inoltre penso che l’eccesso di fiducia in noi sia pericoloso in sé e per la sottovalutazione delle qualità altrui. Cordialmente. Duccio (Alessandro Marzocchi)
Date: Thu, 15 Feb 2024 10:02:48 +0100 > From: Alberto Cammozzo <[email protected]> > To: [email protected] > Subject: Re: [nexa] siamo davvero irripetibili? was: sistemi di IA e > scrittura > Message-ID: <[email protected]> > Content-Type: text/plain; charset=UTF-8; format=flowed > > Esattamente, > > da sempre siamo inclini a spiegarci il comportamento umano riducendolo > nei termini delle nuove "scoperte": negli ultimi secoli, siamo di volta > in volta automi meccanici, o ci guidano affinità chimiche, o siamo > determinati dal DNA, o computer programmati... > > Ciò che non cambia è che ogni volta qualcuno cerca di approfittarne per > controllare i propri simili. > > Alberto > > > On 13/02/24 10:07, Giacomo Tesio wrote: > >> davvero i nostri cervelli funzionano diversamente dall'IA? > > Sì, Alessandro. > > > > A livello di meccanismi funzionamento sono completamente diversi. > > > > Come già detto da Stefano, non comprendiamo ancora lontanamente come > funzioni il > > cervello ma le informazioni di cui disponiamo evidenziano come non > siariconducibile > > ad un calcolatore [1]. > > > > Le allucinazioni transumaniste servono solo a distrarre dal terribile > accumulo di potere > > che la favola dell'intelligenza artificiale sta supportando. > > > > > > Per contro sappiamo tutto dei meccanismi di funzionamento dei software > programmati > > statisticamente. > > > > Data la totalità dell'input e dello stato in un determinato momento, ne > potremmo sempre > > calcolare precisamente l'output. > > > > Non lo facciamo perché chi esegue tali software nasconde le informazioni > necessarie > > per impressionare chi non comprende tali meccanismi ed alimentare la > favola di cui sopra. > > > > > > Per contro, la mente di un essere umano è imprevedibile. > > > > I sistemi di manipolazione individuale su larga scala messi su dai GAFAM > funzionano > > proprio perché rinunciano ad imporre puntualmente un comportamento > > ad una singola persona e si accontentano di modificare il comportamento > prevalente > > di un certo segmento di popolazione. > > > > Quando inviano un messaggio che ha una probabilità del 99% di produrre > > un determinato comportamento in un dato segmento (un gruppo di individui > vicini > > rispetto alle dimensioni di volta in volta rilevanti), almeno oltre 9 > persone su 10 eseguiranno > > l'azione prevista, mentre 1 (forse) riuscirà a resistere (quella volta). > > > > > > Questo è anche ciò che ne rende il potere invisibile in una società > individualista: > > quando le loro manipolazioni (ad esempio gli ads o i "suggerimenti di > lettura") funzionano > > su di te, tu non te ne accorgi; quando te ne accorgi, non funzionano (a > meno che > > tu non sia ormai completamente soggiogato). > > > > La loro influenza individuale è probabilistica. > > E resterà sempre tale proprio perché noi disponiamo di libero arbitrio. > > > > Ma se anche la probabilità di successo di igni singola manipolazione > fosse del 40 o del 30%... > > se anche fosse solo del 10%, l'aggregazione di queste manipolazioni > statistiche, > > ripetute centinaia di volte al giorno per miliardi di persone, > fornirebbe un potere > > soverchiante anche per le persone che vi si sottraggono (sottraendosi > almeno > > agli attuatori di questi agenti cibernetici). > > > > > > Attento perché l'apice insuperabile dell'aiienazione cibernetica che > certi miliardari > > cercano di imporre consiste proprio nel farti credere di essere solo una > macchina complessa. > > > > È fondamentale per loro: significa giustificare ogni uso dell'uomo da > parte dell'uomo. > > Se l'uomo è sostituibile con una macchina, perché non smembrarlo o > riciclarlo quando > > non funziona più come serve a chi lo controlla. > > > > Per farlo distraggono la tua attenzione dal fatto che queste macchine > sono letteralmente > > progettate per ingannare l'uomo che non ne comprende (o ne ignora > volutamente) > > il funzionamento. > > > > Ma solo ignorando i loro meccanismi di funzionamento, puoi crederle > simili > > al tuo cervello. > > > > > > > > Giacomo > > > > [1] https://www.infoq.com/articles/brain-not-computer/ > > > > Il 9 Febbraio 2024 14:00:07 UTC, alessandro marzocchi < > [email protected]> ha scritto: > >> Siamo davvero irripetibili? > >> Mi appassiona la domanda: davvero i nostri cervelli funzionano > diversamente > >> dall'IA? > >> Cordialmente, > >> Duccio (Alessandro Marzocchi) > >> > >> Il 9 feb 2024 alle ore 12:00 <[email protected]> > Daniela > >> Tafani ha scritto: > >> > >>> Grazie della segnalazione, Maurizio. > >>> Sono domande che Joseph Weizenbaum poneva, anche a proposito della > >>> comprensione del linguaggio naturale, > >>> in Computer power and human reason: > >>> > >>> The second kind of computer application that ought to be avoided, or at > >>> least not undertaken without very careful forethought, > >>> is that which can easily be seen to have irreversible and not entirely > >>> foreseeable side effects. If, in addition, such an application cannot > >>> be shown to meet a pressing human need that cannot readily be met in > any > >>> other way, then it ought not to be pursued. The latter stricture > >>> follows directly from the argument I have already presented about the > >>> scarcity of human intelligence. > >>> The example I wish to cite here is that of the automatic recognition of > >>> human speech. There are now three or four major > >>> projects in the United States devoted to enabling computers to > understand > >>> human speech, that is, to programming them in such a > >>> way that verbal speech directed at them can be converted into the same > >>> internal representations that would result if what had been said > >>> to them had been typed into their consoles. > >>> The problem, as can readily be seen, is very much more complicated than > >>> that of natural-language understanding as such, for > >>> in order to understand a stream of coherent speech, the language in > which > >>> that speech is rendered must be understood in the first place. > >>> The solution of the "speech-understanding problem" therefore > presupposes > >>> the solution of the "natural-language-understanding > >>> problem." And we have seen that, for the latter, we have only "the > tiniest > >>> bit of relevant knowledge." But I am not here concerned with > >>> the technical feasibility of the task, nor with any estimate of just > how > >>> little or greatly optimistic we might be about its completion. > >>> Why should we want to undertake this task at all? I have asked this > >>> question of many enthusiasts for the project. The most cheerful > >>> answer I have been able to get is that it will help physicians record > >>> their medical notes and then translate these notes into action more > >>> efficiently. Of course, anything that has any ostensible connection to > >>> medicine is automatically considered good. But here we have to > >>> remember that the problem is so enormous that only the largest possible > >>> computers will ever be able to manage it. In other words, > >>> even if the desired system were successfully designed, it would > probably > >>> require a computer so large and therefore so expensive > >>> that only the largest and best-endowed hospitals could possibly afford > >>> it—but in fact the whole system might be so prohibitively > >>> expensive that even they could not afford it. The question then > becomes, > >>> is this really what medicine needs most at this time? > >>> Would not the talent, not to mention the money and the resources it > >>> represents, be better spent on projects that attack more urgent and > >>> more fundamental problems of health care? > >>> But then, this alleged justification of speech-recognition "research" > is > >>> merely a rationalization anyway. (I put the word > >>> "research" in quotation marks because the work I am here discussing is > >>> mere tinkering. I have no objection to serious scientists > >>> studying the psycho-physiology of human speech recognition.) If one > asks > >>> such questions of the principal sponsor of this work, the > >>> Advanced Research Projects Agency (ARPA) of the United States > Department > >>> of Defense, as was recently done at an open meeting, > >>> the answer given is that the Navy hopes to control its ships, and the > >>> other services their weapons, by voice commands. This project then > >>> represents, in the eyes of its chief sponsor, a long step toward a > fully > >>> automated battlefield. I see no reason to advise my students to lend > >>> their talents to that aim. > >>> I have urged my students and colleagues to ask still another question > >>> about this project: Granted that a speech-recognition > >>> machine is bound to be enormously expensive, and that only governments > and > >>> possibly a very few very large corporations will > >>> therefore be able to afford it, what will they use it for? What can it > >>> possibly be used for? There is no question in my mind that there is > >>> no pressing human problem that will more easily be solved because such > >>> machines exist. But such listening machines, could they be > >>> made, will make monitoring of voice communication very much easier > than it > >>> now is. Perhaps the only reason that there is very little > >>> government surveillance of telephone conversations in many countries of > >>> the world is that such surveillance takes so much > >>> manpower. Each conversation on a tapped phone must eventually be > listened > >>> to by a human agent. But speech-recognizing machines > >>> could delete all "uninteresting" conversations and present transcripts > of > >>> only the remaining ones to their masters. I do not for a moment > >>> believe that we will achieve this capability within the future so > clearly > >>> visible to Newell and Simon. But I do ask, why should a talented > >>> computer technologist lend his support to such a project? As a citizen > I > >>> ask, why should my government spend approximately 2.5 > >>> million dollars a year (as it now does) on this project? > >>> > >>> https://archive.org/details/computerpowerhum0000weiz_v0i3/page/270 > >>> > >>> Un saluto, > >>> Daniela > >>> ________________________________________ > >>> Da: nexa <[email protected]> per conto di maurizio > lana < > >>> [email protected]> > >>> Inviato: giovedì 8 febbraio 2024 16:57 > >>> A: NEXA ML > >>> Oggetto: [nexa] sistemi di IA e scrittura > >>> > >>> mi sono imbattuto in questo libro: > >>> Baron, Naomi S. Who wrote this? how AI and the lure of efficiency > threaten > >>> human writing. Stanford, California: Stanford University Press, 2023. > >>> > >>> nel capitolo finale l'autrice scrive: > >>> Imagine a world where AI’s current writing challenges have been solved. > >>> Where large language models (or their successors) don’t churn out > ugliness. > >>> Where using them is energy efficient. Where predictive texting, > spellcheck, > >>> and grammar programs are infallible. Where AI can produce lengthy texts > >>> that are non-repetitive, stylistically interesting, factually > accurate, and > >>> always on topic. Oh, and can generate text that’s indistinguishable > from > >>> what you might have written. Where would this world leave us humans? > >>> As we weigh options, keep in mind potential blowback of getting what we > >>> wish for. Cultural lore—be it of King Midas in Greek mythology, the > >>> recurrent “three wishes” stories across European tales, or W. W. > Jacobs’s > >>> more modern “The Monkey’s Paw”—reminds us that attractive prospects may > >>> bear unforeseen consequences. > >>> lo trovo interessante perché molta parte della riflessione critica sui > >>> sistemi di AI si appunta su singoli aspetti > mal-funzionanti/dis-funzionanti. > >>> mentre qui c'è una riflessione critica globale, 'a prescindere', che si > >>> esprime sui sistemi di IA ma che riguarda ogni ambito: è > desiderabile/quali > >>> conseguenze ha, che in ogni campo ogni necessità sia risolta e ogni > >>> difficoltà operativa sia eliminata ? > >>> "teletrasporto per tutti a costo zero" e via in cima al monte Bianco > con > >>> un tasto (in questo esempio si vede che sono proprio uno al pie' dei > monti > >>> - piemontese): che cosa mi significherebbe? > >>> > >>> Maurizio > >>> > >>> > >>> ________________________________ > >>> > >>> quanti nella loro vita > >>> si fecero custodi delle termopili, > >>> sono degni di più grande onore > >>> se prevedono (e molti lo prevedono) > >>> che all’ultimo comparirà un efialte > >>> e comunque i persiani passeranno > >>> kostantinos kavafis, termopili > >>> > >>> ________________________________ > >>> Maurizio Lana > >>> Università del Piemonte Orientale > >>> Dipartimento di Studi Umanistici > >>> Piazza Roma 36 - 13100 Vercelli > >>> > >>> > >>> > >>> > > _______________________________________________ > > nexa mailing list > > [email protected] > > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > ------------------------------ > > Subject: Digest Footer > > _______________________________________________ > nexa mailing list > [email protected] > https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa > > > ------------------------------ > > End of nexa Digest, Vol 178, Issue 20 > ************************************* >
_______________________________________________ nexa mailing list [email protected] https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
