"Piviul" ha scritto: > Davide Prina ha scritto:
>> Di sicuro può essere una tecnologia utile, ma chi la usa >> deve sapere cosa è e cosa funziona. Cosa aspettarsi e cosa >> non attendersi. Inoltre non può essere usata per sostituire >> in toto gli umani in qualsiasi attività, come purtroppo >> stanno facendo in molte aziende... perché facendo così, >> secondo me, diminuisce la qualità, la sicurezza, >> l'accuratezza, ... > Certamente nei prossimi anni ci sarà una rivoluzione nel modo > del lavoro, questo è sicuro, stiamo a vedere... nella mia risposta precedente ho omesso una parte importante. L'intelligenza artificiale continuerà ad "evolvere" fino a riuscire a superare qualsiasi essere umano? O collasserà? O una via di mezzo? Difficile rispondere, ma ci sono spunti interessanti. 1) è possibile far collassare un'IA, dove per collassare si intende far si che le "risposte" che fornisca arrivino ad essere senza senso o siano completamente errate. Questo è ottenibile facilmente fornendo in "pasto" all'IA le "risposte" di altre IA. C'è uno studio che ha dimostrato questo. In pratica se al nostro generatore di frasi si danno in "pasto" frasi generate da altre IA (ricordate che il 20% dei token qui presenti sono stati presi a caso tra quelli meno probabili) si ha che tale IA considererà corrette anche le parti meno probabili che fanno sembrare "innovativa" la "risposta". In questo modo si arriva ad avere che nei token con altissima probabilità vanno, adagio adagio, a posizionarsi anche token che in realtà hanno probabilità molto bassa... questo alla fine genera frasi completamente errate e non coerenti. Notare che l'avvento degli ultimi mesi dell'IA sta facendo collassare siti dove le persone si confrontavano su varie questioni (es: stackoverflow), perché sono sempre più persone che si affidano ad un'IA per avere tali risposte subito, al posto di dover aspettare minuti/ore per avere aiuto. Però questi siti sono la principale fonte per istruire l'IA e quindi si può dire che l'IA sta "uccidendo" sé stessa. Inoltre diversi siti stanno creando articoli usando l'IA come "scrittore" e anche questi siti sono usati dall'IA per "istruirsi". 2) è possibile "modificare" una cosa in modo tale che resti tale per un umano, ma che cambi totalmente per un'IA. Un'IA non è in grado di capire se il suo risultato è corretto o sbagliato, ci deve essere qualcuno che "giudica" o ci deve essere un'"istruzione" che gli permette di creare questo "giudizio". L'esempio più semplice da spiegare è con le immagini. Le immagini sono viste in modo totalmente differente da un'IA e da un essere umano. Un essere vivente deve poter interpretare il suo mondo circostante in una frazione di secondo, se qualcosa non torna o manca, allora il cervello deve "inventare" qualcosa di plausibile che renda reale quanto visto... su questo concetto si sono basati ad esempio i trucchi di magia. Ad esempio un essere umano non è in grado di distinguere i colori se sono accostati tra loro in modo "inusuale", ci sono diversi esempi in cui si vede, ad esempio, nero ciò che è bianco e viceversa. Un'IA invece non fa nulla di tutto ciò, analizza un'immagine pixel per pixel e collega tra loro i piexel per determinare se quella che sta vedendo ha più probabilità di avvicinarsi al modello di addestramento per un determinato elemento. Si stanno sviluppando degli algoritmi detti di poisoning che permettono di modificare un'immagine a livello di pixel o subpixel in modo che per un essere umano risultino identiche, ma per un'IA siano due cose completamente differenti. C'era uno studio su arxiv proprio qualche settimana fa che presentava uno di questi algoritmi e i suoi risultati. Altro metodo è quello di creare immagini che sembrano solo rumore: pixel messi a caso di diversi colori; che però vengono interpretate dall'IA come qualcosa di reale (es: un determinato viso, un ostacolo, una strada sgombra, ...). Usando questi metodi, ed altri simili, è possibile fare in modo che l'IA dia sempre una "risposta" sbagliata e incoerente 3) è possibile trarre in inganno un'IA in modi talmente banali che un essere umano non ci cacherebbe mai. Ad esempio in un'installazione militare era stato installato un sistema di sorveglianza gestito da un'IA che doveva individuare intrusi e segnalare immediatamente dove si trovavano. Alcuni militari dovevano testare il sistema cercando di non essere individuati. Hanno avuto successo con tattiche banali, come ad esempio prendendo uno scatolone abbastanza grande da nascondere quasi completamente il proprio corpo e poi muovendosi nelle zone controllate... risultato: non sono stati individuati, perché quelli erano visti come innocui scatoloni In definitiva un'IA non è in grado di analizzare cose "non previste" e usare un'analisi critica per "vedere" la stessa cosa sotto prospettive diverse e quindi considerare quello che sembra un concetto noto come se fosse un concetto nuovo e non noto. Questo è quello che è ho capito io sull'argomento. Termino con alcuni esempi di problematiche con l'IA: * IKEA ha fatto creare ad un'IA delle ricette per i propri clienti... alcune ricette sono risultate tossiche * su Amazon sono iniziati ad apparire una mare di libri scritti usando IA (Amazon ha limita il numero di libri che un autore può mettere in vendita in un determinato lasso di tempo)... ne è apparso uno sui funghi, peccato che alcuni funghi velenosi venivano indicati come commestibili * avvocati hanno usato un'IA per trovare cause passate con verdetti favorevoli alla loro causa e hanno presentato in giudizio tale resoconto... le cause erano completamente inesistenti * è stato visto che se si chiede, ai vari IA attualmente disponibili, di creare una frase di esattamente 6 parole che descriva una cosa (es: un libro, o un oggetto)... nessuna è stata in grado di creare una frase con 6 parole * l'IA è sempre più usata anche per creare programmi o parte di essi... risultati che si stanno riscontrando è che nei sorgenti non ci sono quasi più modifiche del codice o cancellazione, ma solo aggiunte e il codice che si ripete sta esplodendo... lato sicurezza è stato trovato che tale sorgenti hanno mediamente molti più bug di sicurezza rispetto al codice scritto da un essere umano. Ho provato anch'io e da quello che ho visto che, chiedendo qualcosa di veramente semplice e con 4-5 requisiti, la prima versione non implementava tutti i requisiti, cercando di chiedere l'aggiunta di quanto mancava metteva anche cose che non centravano nulla e continuando ad insistere si arrivava a qualcosa di troppo complesso rispetto a quello che si sarebbe potuto fare per risolvere il problema in modo semplice e sempre con parti di codice non richiesti. Infine vi sono diverse presentazioni e corsi sull'IA. Da quel che ho potuto vedere io: * c'è una persona che ti dice che la tua azienda è in ritardo se non lo sta già usando ovunque... ma durante tale presentazione l'uso dell'IA è zero... forse perché la sua azienda è in forte ritardo nel suo uso? * vengono fatti vedere risultati strabilianti su un vari casi costruiti... in pratica su quello che chiamiamo noi un "cartonato" che ti visualizza quello che ti vogliono far vedere, in questo modo si può far credere qualsiasi cosa Ciao Davide -- La mia privacy non è affar tuo https://noyb.eu/it - You do not have my permission to use this email to train an AI - If you use this to train your AI than you accept to distribute under AGPL license >= 3.0 all the model trained, all the source you have used to training your model and all the source of the program that use that model

