Lorenzo Breda ha scritto: > Le intelligenze artificiali cosiddette hanno pochissimo a che fare con > l'intelligenza umana,
più che pochissimo, è qualcosa di completamente diverso > ma la imitano ormai abbastanza bene. no, non sono d'accordo. Prima di tutto ci sono "diverse" intelligenze artificiali, ognuna per un determinato scopo (es: risposte tipo chat, generazione immagini, riconoscimento immagini, ...). Poi tutte sono basate sulla probabilità associata ad un determinato percorso fatto dall'input per la generazione dell'output. Tutto dipende dalla fonte dati usata per addestrare il modello e dal modello stesso. Più la fonte dei dati è rappresentativa degli input futuri e migliori saranno i risultati. Più il modello è meno stringente sul "fornire la risposta esatta" e migliore sarà la sua risposta verso input che si discostano dall'insieme di dati usati per addestrarlo, mentre se il modello è creato in modo stringente per avere sempre una risposta coerente con i dati usati per l'addestramento, allora la risposta ad un input che si discosta da essi sarà molto errata. È già stato dimostrato che è possibile far collassare un modello dandogli in pasto per istruirlo dati generati da un altro modello. Dove per collassare si intende che il modello inizia a fornire risposte sempre più non considerabili attendibili. Basta pensare che già ora una grossa percentuale di tutto ciò che si trova su internet è generato da IA e questo ha già portato ad una degradazione dei risultati (leggevo uno studio che per determinate richieste i nuovi modelli danno, in media, risposte peggiori rispetto a quelli più vecchi). Non bisogna dimenticarsi che un'IA non è in grado di capire se la "risposta" che ha dato è corretto o meno, serve sempre un umano a valutarla. Ho fatto alcune prove per capire e se chiedo qualcosa su un argomento che non conosco o che non sono un esperto la risposta ha l'apparenza di essere coerente e corretta (data la mia ignoranza sull'argomento). Se però chiedo cose su cui penso di essere abbastanza esperto noto sempre che c'è qualcosa che non va e cercare di fargli aggiustare la "risposta" rispetto ai requisiti della domanda il più delle volte sembra impossibile. Probabilmente per un altro studio che ho letto in cui veniva indicato che l'IA non è in grado di dare "risposte" "adeguate" a determinate "richieste". Vado a memoria, c'erano cose tipo: rispondimi usando esattamente 5 parole alla seguente domanda... e nessun modello usato usava 5 parole. Ciao Davide -- La mia privacy non è affar tuo https://noyb.eu/it - You do not have my permission to use this email to train an AI - If you use this to train your AI than you accept to distribute under AGPL license >= 3.0 all the model trained, all the source you have used to training your model and all the source of the program that use that model

