JAN[¹] è un assistente locale per l'IA. In pratica permette di scaricare in locale tutte le LLM distribuite gratuitamente o liberamente (notare che alcune LLM anche se dichiarate "open" non lo sono effettivamente) ed eseguirle sul proprio PC garantendo privacy e completo controllo.
Essendo curioso l'ho provato, non volendo installare sulla mia macchina l'ho usato come AppImage (in questo caso può essere utile per vedere qualcosa velocemente senza crearsi un chroot con debootstrap o simile) e lo eseguo con il seguente comando: $ firejail --appimage --noprofile ./jan-linux-x86_64-0.5.11.AppImage una volta fatto partire bisogna scaricarsi un modello (vi viene indicato se avete abbastanza RAM, se è troppo lento, ...) e poi si può iniziare ad usare il modello scaricato in locale. La quantità di energia elettrica consumata per l'esecuzione del modello è impressionante (probabilmente con un PC con GPU potenti è inferiore). Questo mi ha fatto capire perché stanno cercando di accaparrarsi energia elettrica per far funzionare i datacenter che gestiscono l'IA (riattivando centrali a carbone o atomiche, costruendo centrali atomiche apposite e gestite dalla società che regola l'IA). Il tutto per avere delle "risposte" con alta probabilità di non essere vere e alcune volte sono talmente verosimili che alterano la realtà introducendo piccole falsità che poi possono essere prese come assunti da tutti o da molti. Due tipi di esempi di quanto detto: 1) Debian ha fatto generare all'IA un sunto delle notizie critiche nel mondo Debian[²]. Interessante leggere la risposta di una persona citata in tali notizie[³] per capire l'alterazione della realtà 2) se una cosa viene diffusa come vera viene preso per assunto da tutti che è vera, anche se non lo è. Esempi sono "gli spinaci contengono più ferro di qualsiasi altra verdura" (falso, è stato un errore di stampa di una virgola a generare tale assunto, ancora ritenuto vero da molti); "la pubblicità subliminale permette di passare messaggi alle persone anche se coscientemente non la vedono" (falso, è stata una bugia che poi nessuno ha verificato, ma che è stata diffusa dai giornali e ritenuta vera da tutti) Secondo me l'IA contribuirà al riscaldamento globale e all'alterazione della realtà. Quindi meglio non usarla. Meglio non usarla anche per un altro motivo. Mi ricordo di aver letto tempo fa che avevano fatto uno studio sui taxisti di New York (se non ricordo male) e l'Alzheimer[¼]. Era risultata una correlazione tra tale malattia e chi si affidava al 100% al GPS. Quindi non usare il proprio cervello alla fine può avere conseguenze negative. Ciao Davide [¹] https://github.com/janhq/jan [²] https://lists.debian.org/debian-project/2024/11/msg00002.html [³] https://lists.debian.org/debian-project/2024/11/msg00004.html [¼] Purtroppo non trovo il link allo studio, però ho trovato questo che probabilmente ha preso in considerazione lo studio che ho indicato: "that reading maps and memorizing routes, rather than relying on GPS, could reduce the risk of developing Alzheimer's" https://www.brainandlife.org/articles/london-cabbies-drive-alzheimers-research -- La mia privacy non è affar tuo https://noyb.eu/it - You do not have my permission to use this email to train an AI - If you use this to train your AI than you accept to distribute under AGPL license >= 3.0 all the model trained, all the source you have used to training your model and all the source of the program that use that model

