Marco Bertorello ha scritto: > Davide Prina ha scritto: >> Il tutto per avere delle "risposte" con alta probabilità di non essere >> vere e alcune volte sono talmente verosimili che alterano la realtà >> introducendo piccole falsità che poi possono essere prese come assunti >> da tutti o da molti. > Ma il problema è di chi assume siano vere quelle risposte! Cosa > c'entra l'AI? o meglio i LLM? > Il loro compito è mica detenere la verità assoluta, solo generare > testo (o immagini nel caso) basandosi su calcoli probablistici e > random seeds. non sono d'accordo. Ognuno di noi cerca di conoscere cose non conosciute leggendo notizie, libri, ... o simili attività. Attualmente stanno sostituendo attività di persone con l'IA sia per fornire notizie (vedi il sito di notizie di m$ che ha licenziato tutti e lo fa gestire completamente dall'IA) che per generare informazioni (vedi come esempio su amazon il numero di libri pubblicati è esploso, tanto che amazon ha imposto un limite di libri emittibili per autore all'anno). Quindi se una persona normale accede a queste informazioni tende a ritenerle vere, anche perché non conosce la fonte reale, ma pensa che chi le ha fornite abbia fornito qualcosa di corretto. Un esempio che ho letto è proprio relativo ai libri pubblicati su amazon: con l'IA è stato fatto generare un libro sui funghi e messo in vendita sul sito di amazon, senza specificare che il contenuto è stato generato da un'IA e quindi potrebbe non essere attendibile (ma uno perché dovrebbe comprarsi un libro sui funghi se il contenuto potrebbe non essere corretto?). Infatti alcuni funghi indicati come commestibili sono in realtà velenosi.
> A volte sembrano umani? Sì, tant'è che come detto alcune passano il test di > turing. di sicuro Turing era una persona molto esperta nel settore all'epoca, ma, a me sembra, che considerare tale test attualmente come "assoluto" per determinare se una "macchina" ha un comportamento intelligente mi sembra riduttivo. Secondo me, se Turing fosse attualmente vivo apporterebbe modifiche al suo test per adattarlo alla situazione attuale. Inoltre hanno fatto un altro test interessante: hanno fatto interagire diverse persone con diverse IA, senza far sapere alle persone se stavano parlando con un'IA o un umano... il compito degli umani era capire se dall'altra parte c'era un IA o un umano. È risultato che tra i risultati migliori vi sia stata Eliza, identificata come essere umano più delle volte rispetto a molti dei modelli attuali... Quindi un'IA del 1966 risulta mediamente più umana di un'IA "moderna"? >> Meglio non usarla anche per un altro motivo. Mi ricordo di aver letto >> tempo fa che avevano fatto uno studio sui taxisti di New York (se non >> ricordo male) e l'Alzheimer[¼]. Era risultata una correlazione tra tale >> malattia e chi si affidava al 100% al GPS. > il 100% delle persone beve acqua muore, non fatelo!! questo non è dimostrabile. Infatti ci sono persone ancora in vita! Scherzi a parte, trovare una correlazione tra una causa e un effetto è la base di molte scoperte e, in questo caso, anche un metodo per trovare come prevenire un effetto non voluto. > Se AI deve essere, che sia open. su questo punto se ne sta discutendo molto, anche sulle liste Debian, dove sembra non vogliano accettare la definizione "open" ora fornita. > Nascondere la testa nella sabbia non ha mai portato a nulla di buono più che nascondere la testa è cercare di informarsi perlomeno per capire cos'è e che pericoli si corrono ad usarla... in modo da poter decidere se cercare di evitarla il più possibile o meno. Ciao Davide -- La mia privacy non è affar tuo https://noyb.eu/it - You do not have my permission to use this email to train an AI - If you use this to train your AI than you accept to distribute under AGPL license >= 3.0 all the model trained, all the source you have used to training your model and all the source of the program that use that model

