Debian runs the world
Salve lista, spero di non essere off-topic. Mi sono imbattuto in un video di qualche giorno fa in cui Greg Kroah-Hartman dice esplicitamente che "take all Android stuff out of it everything else around me error, majority runs Debian and the world Cloud systems run Debian over 70 percent. It's insane what they mean, the world runs in Debian.." Qui il link al video: https://www.youtube.com/watch?v=gdLKCc6ABZk Quanto di veritiero c'è nelle sue parole? Nel "conteggio" (chissa come ha ottenuto questo 70%) saranno incluse anche le Ubuntu? Che ne pensate? Un saluto. Alessandro.
Re: Siamo fottuti (dal 1998) [Era: Re: secure boot e TPM 2.0]
Il 10/05/23 16:07, Filippo Dal Bosco - ha scritto: Il giorno Wed, 10 May 2023 11:28:34 +0200 Leandro Noferini ha scritto: Ora non è per fare polemica ma forse quando circolano previsioni più o meno catastrofiche potrebbe essere buona norma attaccare con un bel chiodo un cartello per ricordarselo :) di fronte a previsioni ( di qualsiasi tipo, esempio quelle del Club Roma) bisognerebbe leggere "Antifragile" di Nassim Nicholas Taleb per capire che sono impossibili. Un sistema ( qualsiasi) deve essere costruito in modo Antifragile ( flessibile), capace di agire in modo meno dannoso possibile di fronte a qualsiasi cambiamento anche il più catastrofico (= cigno Nero) E aggiungo, bellissimo libro. Ne consiglio la lettura.
Re: Annullare iscrizione
Salve, per disiscriverti dalla mailing list vai su: https://lists.debian.org/debian-italian/ inserisci il tuo indirizzo e clicca su "Unsubscribe" Il 19/04/23 17:48, Ro.Ma ha scritto: Nonostante ripetuti solleciti continuo a ricevere le vs. notifiche. Non voglio più riceverle, cortesemente annullate la mia iscrizione. Grazie Inviato da Proton Mail mobile
Re: Problemi di installazione Debian Testing (BookWork)
Il 21/02/23 14:42, Cosmo ha scritto: In data martedì 21 febbraio 2023 14:39:26 CET, Alessandro Baggi ha scritto: Qualcun'altro ha avuto simili problemi? https://www.mail-archive.com/debian-bugs-dist@lists.debian.org/msg1894160.html Grazie per la risorsa.
Problemi di installazione Debian Testing (BookWork)
Un saluto a tutta la lista, ho letto del soft freeze della testing e ho deciso di provarla. L'ho installata da PC dal quale ora sto scrivendo. L'installazione prevede la configurazione in RAID (mdadm) della swap, della root e della partizione EFI. L'installazione viene completata con successo ma al reboot ottengo un bel: /dev/md4 has unsupported feature(s): FEATURE_C12 e2fsck: get a newer version of e2fsck /dev/md4 * Warning: filesystem still has errors * fsck exited with status code 12 The root filesystem on /dev/md4 requires a manual fsck Lanciando un fsck di md4 riporta il messaggio riportato sopra. Allora ho lanciato un rescue dal media di installazione e prima di montare la root ho lanciato un fsck sul device md4 e mi dice che tutto è apposto. Riavvio convinto che l'FS è corretto ma il problema persiste. Allora riavvio dal media di installazione modificando fstab per non fargli fare il check ma riavviando il problema si ripresenta. Ho provato anche ad aggiornare l'initrd ma senza risultati positivi. Ora ho reinstallato la 11. Ho provato a replicare il problema su KVM creando una macchina virtuale con EUFI e i RAID e ottengo sempre lo stesso problema. Il messaggio che mi lascia perplesso è "e2fsck: get a newer version of e2fsck", significa che serve una versione nuova di e2fsck e che quindi quello del media di installazione (che funziona correttamente) è più recente di quello installato? Qualcun'altro ha avuto simili problemi? È ancora troppo presto per installare la 12? Non ho provato a fare l'upgrade da 11 a 12. Un saluto.
Re: Selinux
Il 01/02/23 15:56, Paride Desimone ha scritto: Il 01-02-2023 12:33 Paride Desimone ha scritto: Buongiorno. Sto provando a studiare Selinux, perché mi serve per un esame di certificazione rhcsa ex200. Qualcuno può dipanarmi un dubbio? Se io confino l'utente root, in modo che nemmeno lui abbia poteri illimitati, in modo che un'eventuale escalation, non consenta di prendere il controllo della macchina, come si fa in caso si voglia agire sulla configurazione di selinux e nemmeno lui può farlo? /paride Come non detto. Non ero arrivato alla gestione degli utenti con selinux. /paride Ciao Paride, è possibile confinare l'utente root? Io so che prima viene valutata la DAC. Se la DAC permette all'utente di eseguire una certa operazione SELinux non entra in gioco. Se la DAC non lo consente, Selinux controlla tutte le sue cose (contesti, booleans, [attento alle don't audit rules], ecc) (ed è qui che salva le chiappe) e in base alle policy crea un deny o un allow. Detto questo, essendo root utente con privilegi elevati, è possibile confinarlo? Inoltre non sarebbe il caso di evitare di far entrare root nel confinamento? Cioè ha senso confinare root? Almeno un utente privilegiato deve poter fare qualcosa se le cose non funzionano, anche perche se tu non permetti a root di effettuare qualcosa tipo operazioni di rete, accesso a determinati file ecc, si può sempre impostare selinux in permissive mode, e poi da quello che ho letto (non l'ho provato) sistemi come SELinux e AppArmor possono essere aggirati a livello del kernel, non chiedermi come che non lo so. SELinux non dovrebbe evitare proprio problemi di questo tipo come le escalation? (Lo chiedo perche ho il dubbio) Cmq se puo esserti di aiuto, che nessuno me ne voglia, l'ambiente migliore per studiare SELinux è una RHEL Based tipo AlmaLinux/RockyLinux. Purtroppo su debian ho sempre avuto problemi con SELinux. D'altro canto su debian uso apparmor che nella creazione delle policy è moltooo più semplice e diretto. Se posso darti un consiglio su SELinux, quando passi al processo della creazione delle policy custom, revisiona sempre quello che audit2allow aggiunge al file della policy (prima di compilarla e caricarla) perche potrebbe includere software/contesti/azioni che non vorresti permettere e questo è male perche crei una policy bacata non sapendolo. Altro consiglio è, nel caso in cui non riesci a trovare il deny ad una certa azione e quindi non puoi creare la regola nella policy, ti può tornare utile disabilitare le regole dont'audit che sono regole per cui è indicato di non riportate negli audit perche ce ne sarebbero troppe nel log. A me è capitato con un'applicazione che provava ad accedere a PostgreSQL ma l'applicazione nel contesto non aveva il permesso di lettura e scrittura nel comunicare in rete con postgresql. Ci ho messo qualche giorno per scoprire queste tipi di regole. Un saluto e scusate l'OT.
Re: migliore/peggiore ambiente desktop di sempre
Il 11/07/22 14:55, Giuseppe Naponiello ha scritto: Salve a tutti, mi riallaccio ad uno degli ultimi thread passati in lista in cui un utente dice di "odiare il paradigma di Gnome", poiché uso gnome da circa 10 anni mi farebbe piacere conoscere il vostro parere sugli altri ambienti e magari, alla fine, capire i pro e i contro di ognuno e, chissà, superare la mia pigrizia e testare l'ignoto! Mi sono reso conto di non aver mai provato altro per pigrizia, come scommetto la maggior parte di voi. In verità all'inizio avevo installato kde su consiglio dei miei colleghi ma l'ho trovato troppo "macchinoso" e pieno di abbellimenti fighi ma pesanti in termini di prestazioni, e l'ho subito abbandonato in favore di Gnome, che ho trovato più "leggero" anche graficamente. E' anche vero che molti software che mi farebbero comodo non sono fatti per gnome (i miei colleghi usano ancora kde e devo dire che, a naso, ci sono molti più pacchetti, soprattutto per l'editing audio/video) La mia ditta si occupa di archeologia e informatica (o archeologia informatica!!!) quindi, a parte scrivere tanto codice per applicazioni sia native che web, ci occupiamo di analisi spaziale (tanto GIS) modellazione 3d, e produzione di contenuti multimediali, quindi abbiamo bisogno di un'interfaccia. Facendo calcoli lunghi e pesanti (gis e rendering 3d) abbiamo anche bisogno di alleggerire il più possibile il carico del sistema, motivo per cui io ho scelto Gnome. Qual è la vostra esperienza e quali scelte avete fatto? Buona serata -beppe- Ciao Beppe, ho usato molti DE e WM nel corso degli anni. Ho usato fluxbox, blackbox , KDE3/4/5, GNOME 2/3/3.40, Cinnammon, XFCE, I3wm, CDE, MATE, Budgie e Deepin. Mate per pochissimo tempo e Budgie e Deepin erano relegati solo alla relativa distribuzione e li ho lasciati perdere. Il problema secondo me è che non esiste uno migliore o peggiore, dipende tutto dai gusti, dal tuo "workflow", dalle tue esigenze e ahime da quello che il tuo hardware di permette di usare (anche se devo dire che anche con le GPU integrate di intel si riesce a far girare GNOME e KDE (magari senza effetti). Praticamente è come chiedere quale distribuzione è migliore...non se ne viene mai a capo, quindi ti dico la mia. Allora... fluxbox e blackbox: realmente ridotti all'osso e molto minimali. Li usavo su un portatile con Pentium 4 Prescott con scheda video integrata. Leggerissimi. Ho usato CDE e JDE su Solaris 10 (che brutta esperienza :D). Sono passato per KDE3 ma preferivo ancora la minimalità di fluxbox. Poi è arrivato KDE4 che non mi è piaciuto affatto. Plasma 5 invece è una bella release, altamente personalizzabile ma a volte pieno di bug (a seconda della distro che usavo) ad un certo punto pero mi sono accorto che perdevo molto tempo nel personalizzare il DE con interruzioni a causa di crash di alcune applicazioni. Per di più ho notato che mi distraeva molto. Oggi con le ultime versioni lo si può alleggerire disabilitando gli effetti. Successivamente ho voluto provare GNOME (la versione 2 non mi ha mai attirato molto e l'ho usata solo perche la trovavo installata), non male come esperienza DE. Odio in particolar modo il pulsante delle attività con quel menu di tutte le applicazioni...non lo sopporto quindi lo disabilito subito. Non so se è solo una mia percezione ma quando uso GNOME ho la sensazione che il modo di come un DE debba essere usato sia imposto dagli sviluppatori (forse questo è a conferma della poca possibilità di personalizzazione). L'unico problema è che con gnome per avere qualcosa di utilizzabile sei costretto ad installare qualche estensione (che ogni tanto smettono di funzionare perche aggiornano qualcosa che non la fa più funzionare). Anche qui ogni tanto ho avuto rallentamenti su GNOME tipo applicazioni (di GNOME) che non si aprivano subito con GNOME che pensava a cosa fare (ricordi la clessidra di windows? tipo quello). Ho provato anche GNOME40 ma non mi ha entusiasmato molto. In tutto questo arco di tempo usavo XFCE saltuariamente fino ad un bel giorno in cui ho voluto usarlo definitivamente. Quello che preferisco e uso ad oggi è XFCE + lightdm per diversi motivi: 1. Leggerezza a livello di risorse. 2. Velocità nel fare tutto (mai un rallentamento). 3. STABILITA e SOLIDITA (fino ad ora non mi ha mai dato nessun problema di ogni sorta, mai un crash) 4. Personalizzabile al punto giusto (ne troppo poco come GNOME ma non esagerato come Plasma) Sono mesi ora che utilizzo XFCE4 insieme al plugin docklike (non disponibile su debian) e sto una meraviglia. L'unico pecca per il momento è la mancanza di un applicazione per configurare le stampanti anche se con il vecchio menu di CUPS il problema si risolve. Magari in futuro le mie esigenze cambieranno e userò altro. Un saluto. Alessandro.
Re: [OT] - Volume messaggi su debian-italian
Il 30/05/22 09:21, Luca Costantino ha scritto: Gli utenti sono calati un pochino, ma il traffico in effetti è proprio precipitato! :/ È un vero peccato, questa lista è una preziosissima risorsa con molti utenti competetenti. Agli albori della mia iscrizione era molto stimolante. Il giorno lun 30 mag 2022 alle ore 08:56 Alessandro Baggi mailto:alessandro.ba...@gmail.com>> ha scritto: Rieccomi, ho trovato questo https://lists.debian.org/stats/ <https://lists.debian.org/stats/> e questo https://lists.debian.org/stats/debian-italian.png <https://lists.debian.org/stats/debian-italian.png> Il 30/05/22 08:47, Alessandro Baggi ha scritto: > Ciao Luca, > Debian, come molte altre distribuzioni, e' diventata un po' > piu' facile >> da usare? >> L'utente medio riesce a trovare piu' info su Internet, senza scomodare >> la lista? >> I nuovi utenti non sono a conoscenza della lista? >> > > È possibile ma ho notato nel cerchio delle domande e risposte sono > sempre gli stessi utenti a postare. A me sembra più una perdita di utenti. > > É possibile vedere quanti utenti sono iscritti alla lista debian-italian > e magari qualche statistica della ML? > > > Alessandro.
Re: [OT] - Volume messaggi su debian-italian
Rieccomi, ho trovato questo https://lists.debian.org/stats/ e questo https://lists.debian.org/stats/debian-italian.png Il 30/05/22 08:47, Alessandro Baggi ha scritto: Ciao Luca, > Debian, come molte altre distribuzioni, e' diventata un po' piu' facile da usare? L'utente medio riesce a trovare piu' info su Internet, senza scomodare la lista? I nuovi utenti non sono a conoscenza della lista? È possibile ma ho notato nel cerchio delle domande e risposte sono sempre gli stessi utenti a postare. A me sembra più una perdita di utenti. É possibile vedere quanti utenti sono iscritti alla lista debian-italian e magari qualche statistica della ML? Alessandro.
Re: [OT] - Volume messaggi su debian-italian
Ciao Luca, > Debian, come molte altre distribuzioni, e' diventata un po' piu' facile da usare? L'utente medio riesce a trovare piu' info su Internet, senza scomodare la lista? I nuovi utenti non sono a conoscenza della lista? È possibile ma ho notato nel cerchio delle domande e risposte sono sempre gli stessi utenti a postare. A me sembra più una perdita di utenti. É possibile vedere quanti utenti sono iscritti alla lista debian-italian e magari qualche statistica della ML? Alessandro.
[OT] - Volume messaggi su debian-italian
Un saluto a tutta la lista, scusate per l'OT. Sono iscritto a questa lista dal 2009 e ho notato che il traffico è diminuito molto negli ultimi anni, mentre negli anni precedenti era abbastanza consistente. Nella mailing list debian-user invece il traffico è molto consistente. Quale è secondo voi la motivazione? 1. Gli utenti non usano più debian? 2. Esiste un altro network e la mailing list sta andando in disuso? 3. Gli utenti usano direttamente la lista debian-users? 4. Altro? Un saluto a tutti e grazie in anticipo per tutte le risposte. Alessandro.
Re: installazione debian
Il 15/02/22 14:07, Piviul ha scritto: un aggiornamento... nel BIOS in effetti il boot non era impostato su UEFI Non so cosa intendi, ma io intendevo selezionare il device di boot con l'etichetta UEFI Altra cosa (non so se possa essere il caso e se possa riguardare questa problematica ma non sono ferrato sul SECURE BOOT), nel menu della mia scheda madre nella sezione del Secure Boot, ho selezionato tra gli OS "other os" e non windows. Ricordo tempo fa che non mi funzionava una cippa se non cambiavo questo parametro...ora lo abilito di default ma, ripeto, non so quanto possa essere utile. ora l'ho impostato ma all'avvio continua a non dirmi nulla e continua a fallire ma mi sembra l'errore sia cambiato; ora mi dice "unable to install grub in dummy"... ma ti assicuro che la ESP non è in raid ;)... comunque alla partizione ESP io non fatto altro che dirgli di usarla come EFI System Partition, nulla di più no? Ci dovrebbe pensare l'installer poi a mettere un filesystem fat32 giusto? Esatto, l'installer si occupa di creare l'fs fat32 e di montarla su /boot/efi. ho provato anche ad impostare di non usare la ESP sul secondo disco lasciando soltanto una ESP ma nulla, l'errore è sempre lo stesso... Potresti provare a vedere se quando ti chiede di installare GRUB /boot/efi è montato (dovrebbe esserlo) (NOTA: una volta che ho installato il sistema, faccio un dd da sda1 su sdb1 in modo tale che se il primo disco si frigge, il secondo parte senza problemi. Non so se è il metodo corretto, me lo suggerirono tempo fa e funziona. Magari qualcuno più esperto può aiutarci) ...interessante se ci caverò gli zampetti poi lo terrò a mente... anche se basta una copia del contenuto vero? Attenzione. Come riportato da Diego: Il 14/02/22 19:56, Diego Zuccato ha scritto: > Dovresti ricordarti di farlo ad ogni aggiornamento di grub, o può > capitare che anche senza disco fritto non ti si riavvii con un errore > criptico. Al che, da BIOS devi spostare il boot sull'altro disco e > sperare che parta. Altrimenti boot da live e fix dell'installazione di > grub (o chroot e "grub-install /dev/sdX [...] ok, /sys/firmware/efi exists ma continua a non chiedermi nulla... non so più cosa pensare. Proverò a ranzare via le partizioni e far fare tutto all'installer... come sempre del resto; però non capisco proprio dove possa essere il problema. Se tutto è come dovrebbe essere (ovvero che hai selezionato il device di boot con label che comincia con "UEFI" della chiavetta) è molto strano che non ti chieda di forzare l'installazione EFI. Sembra che non rilevi la presenza della partizione EFI (può risultare che non creandola dall'installer, lo stesso non rilevi la sua presenza?) Se hai tempo da perdere e vuoi vedere che succede fa queste prove con l'installer: 1) installa creando le partizioni dell'installer e nel momento in cui richiede l'installazione di GRUB verifica se la /boot/efi è montata. 2) installa creando le partizioni manualmente con parted, procedi con l'installazione e sempre quando richiede di installare grub verifica se è montata. In questo caso se non è montata allora non è rilevata. Se non è rilevata, prova a montarla sul filesystem / della nuova installazione su /boot/efi (attenzione: non sull'fs del device di boot) e fagli rilanciare grub (dell'installer) e vedi che ti dice. Purtroppo non ho altre macchine UEFI per testare ed aiutarti maggiormente. Spero che qualcuno con più esperienza intervenga nella discussione, perche non so che altro guardare. Grazie un monte È un piacere ;) Piviul
Re: installazione debian
Il 14/02/22 19:56, Diego Zuccato ha scritto: Il 14/02/22 18:31, Alessandro Baggi ha scritto: (NOTA: una volta che ho installato il sistema, faccio un dd da sda1 su sdb1 in modo tale che se il primo disco si frigge, il secondo parte senza problemi. Non so se è il metodo corretto, me lo suggerirono tempo fa e funziona. Magari qualcuno più esperto può aiutarci) Dovresti ricordarti di farlo ad ogni aggiornamento di grub, o può capitare che anche senza disco fritto non ti si riavvii con un errore criptico. Al che, da BIOS devi spostare il boot sull'altro disco e sperare che parta. Altrimenti boot da live e fix dell'installazione di grub (o chroot e "grub-install /dev/sdX"). Si vero!! ... indovina come lo so... :) Me lo hai consigliato tu? :D
Re: installazione debian
Il 14/02/22 17:11, Piviul ha scritto: > ma te le sei preparate tu o te le ha preparate l'installer? Se te le > fossi preparate tu come fai ad utilizzare la partizione EFI come > partizione EFI? Le partizioni le ho create dall'installer con metodo manuale, quindi con tutta la lista dei device fisici e virtuali (se gia presenti) e non con fdisk o parted da console. Non devo specificare che la partizione EFI deve essere montata su /boot/efi, l'installer se ne occupa da solo (non l'ho mai specificato) Nel mio caso specifico, non è un partizionamento troppo complicato anzi fa pena. La partizione EFI l'ho creata su sda, su sdb ho creato solamente una partizione normale della stessa dimensione (NOTA: non ho creato un'altra EFI perchè l'installer potrebbe considerarmi quella come partizione EFI ma non è il risultato desiderato) e poi ho creato le partizioni per i raid1 e assemblati sempre nell'installer e installato debian. (NOTA: una volta che ho installato il sistema, faccio un dd da sda1 su sdb1 in modo tale che se il primo disco si frigge, il secondo parte senza problemi. Non so se è il metodo corretto, me lo suggerirono tempo fa e funziona. Magari qualcuno più esperto può aiutarci) Per prima cosa, il sistema su cui installi supporta EUFI? beh, certo! Il pc è un Dell Poweredge T110 II. Bene no, non me lo chiede, in effetti ora che mi ci fai pensare altre volte me lo ha chiesto... come faccio a sapere se secondo lui sta forzando Sinceramente non so come puoi accertarti se sta procedendo con l'installazione UEFI (magari ci sta qualche modulo o qualcos'altro). Quello che posso dirti è dopo aver inserito il media di installazione (nel mio caso USB) e aver premuto F8 per la selezione del device di boot, nella lista mi appare due volte la chiavetta: una volta con il suo nome e un'altra con la dicitura UEFI prima del nome. Per l'installazione UEFI seleziono la seconda. A volte mi è capitato per errore di selezionare la prima e 1. non mi chiedeva se forzare l'installazione EFI 2. grub si installava ma il sistema non partiva. Cercando in rete, dopo aver avviato il media di installazione, apri un'altra console e verifica se "/sys/firmware/efi exists means system uses UEFI". Ora non so se ho capito bene: ma stai provando a creare la partizione EFI su un device MD? no la partizione EFI (EFI System Partition) è una partizione fat32... solo la partizione di boot la vorrei in RAID, la partizione di root e le altre partizioni in lvm (magari anche in raid). Ok In caso affermativo con Debian non funziona e grub-dummy fallisce (per questo io creo una partizione EFI per ogni disco) [Nota OT: su AlmaLinux e OpenSUSE 15.3 è possibile creare la EFI su un device MD, non ho capito ancora come fanno ma cmq sembra è possibile] Durante l'installazione la partizione EFI non permette di specificare dove montarla come per un normale fs. Ora non so se dico una cavolata, la partizione EFI richiede una partition table GPT? Non è che i dischi essendo gia partizionati hanno una MBR? Per quello che i dischi li preparo prima con fdisk, così sono sicuro siano GPT! Come detto evito di preparare tutto prima di entrare nell'installer. Una volta lo facevo anche io (abiutato da Slackware) ma poi ho iniziato a riscontrare problemi su come l'installer rilevava i dischi (a volte facevo casino io :D). Poi un giorno ho deciso di utilizzare l'installer e funziona alla grande ed è più che adeguato. Ricordo che quando affrontai GPT per la prima volta fdisk supportava solo MBR e iniziai ad usare parted (o gdisk). Grazie mille Piviul
Re: installazione debian
Il 14/02/22 11:29, Piviul ha scritto: Ciao a tutti, ho sempre qualche difficoltà durante l'installazione di debian con sistemi EFI. Se faccio fare il partizionamento al setup va tutto bene, non ho difficoltà ma se voglio farlo io mi blocco nella fase di installazione di grub... Nel caso specifico vorrei fare il setup su 2 dischi che precedentemente ho già partizionato: la prima partizione per EFI System, la seconda per /boot in raid1 e la terza per LVM. Nell'installer non ho difficoltà a creare il raid per la partizione di boot e creare i mie volumi logici per root, swap etc.. quello che non capisco è come fare a dire all'installer che la partizione EFI di uno dei dischi venga montata in /boot/efi e che venga usata come partizione ESP... Mi sfugge qualcosa? Grazie Piviul Ciao Piviul, da qualche giorno ho installato debian 11 sulla mia workstation con installazione su due dischi in raid1 software (mdadm) con il seguente partizionamento: sda1 = partizione EFI sdb1 = partizione EFI sda2 & sdb2 = raid da 4G sda3 & sdb3 = raid fino al 100% Per prima cosa, il sistema su cui installi supporta EUFI? Seconda cosa: durante l'installazione ti chiede di forzare l'installazione EFI? Su macchine eufi me lo chiede sempre. Puo essere che selezioni come boot device la USB "non UEFI" (ovvero quella per BIOS)? A me in passato è capitato per errore e grub non si installava. Ora non so se ho capito bene: ma stai provando a creare la partizione EFI su un device MD? In caso affermativo con Debian non funziona e grub-dummy fallisce (per questo io creo una partizione EFI per ogni disco) [Nota OT: su AlmaLinux e OpenSUSE 15.3 è possibile creare la EFI su un device MD, non ho capito ancora come fanno ma cmq sembra è possibile] Durante l'installazione la partizione EFI non permette di specificare dove montarla come per un normale fs. Ora non so se dico una cavolata, la partizione EFI richiede una partition table GPT? Non è che i dischi essendo gia partizionati hanno una MBR? Un saluto.
Re: Come limitare temporalmente i log nel journal di systemd e avere journalctl più reattivo
On 30/10/21 10:48, Davide Prina wrote: mi sono accorto che non ho tantissimo spazio libero su / e indagando ho scoperto che il journal di systemd stava occupando diversi giga. Ho scoperto che al massimo, come impostazioni di default, dovrebbe occupare 4 GByte. Per vedere quanto spazio sta occupando attualmente: $ journalctl --disk-usage ho visto che i log partivano da diversi mesi fa e avevo già notato che la consultazione del journal era sempre più lenta. Visto che a me non interessa avere un journal che può andare indietro così tanto ho modificato il file /etc/systemd/journald.conf e ho tolto il commento alla variabile MaxRetentionSec impostandola a max 2 mesi: MaxRetentionSec=2month poi ho riavviato il journal per eliminare tutti i log oltre i due mesi: # systemctl restart systemd-journald.service ora se voglio vedere il log attuale $ journalctl -b 0 ho la risposta completa immediatamente :-) e ho liberato un po' di spazio (circa 2 GByte), non molto, ma è già qualcosa. Se qualcuno vuole indagare ulteriormente è possibile leggere il man $ man 5 journald.conf Ciao Davide Ciao Davide, grazie per la condivisione.
Re: Debian 11 e SELinux
Il 11/08/21 14:53, Alessandro Baggi ha scritto: Il 11/08/21 13:48, Alessandro Baggi ha scritto: Un saluto a tutta la lista. Ho installato su una macchina virtuale KVM Debian 11 (non ancora rilasciata) e ho attivato SELinux. Come riportato su https://wiki.debian.org/SELinux/Setup ho rimosso AppArmor e installato selinux-basics selinux-policy-default e auditd, ho lanciato selinux-activate e ho riavviato. Il sistema, giustamente, ha effettuato un relabel di tutto. Successivamente ho modificato la configurazione di SELinux da permissive a enforcing. Il problema è che non mi permette di loggarmi via ssh con utente normale dandomi come errore: /bin/bash: permission denied Ho usato SELinux su distro della famiglia RPM ma non sono esperto in quanto ho solo configurato dei contesti, qualche boolean e confinato qualche user e non riesco a capire come risolvere questo problema. Ho provato ad assegnare ad un utente il ruolo user_u con "usermod -Z user_u username" e riesco ad effettuare il login via ssh ma ho notato che lanciando "su -" non mi permette di leggere/scrivere file che sono soggetti ad altri contesti, come se l'utente root fosse confinato. Questa cosa non accade però se il login viene effettuato da console. Purtroppo la documentazione di Debian non mi è di alcun aiuto. In rete non sono riuscito a trovare granchè ma solo problemi relativi ad anni dimenticati Qualcuno ha qualche suggerimento? Grazie in anticipo. Dopo aver spulciato qualche boolean di SELinux ho abilitato ssh_sysadm_login (impostato a on) e permette agli utenti non confinati di effettuare il login su ssh. Non capisco perche se effettuo il login da utente confinato se lancio id -Z ho: user_u:user_r:user_t:s0 e dopo "su - root" mantiene lo stesso contesto dell'utente semplice e non unconfined. Può essere che la transazione da un contesto user_t non puo essere effettuata verso unconfined? Continuando la ricerca ho capito che: se si necessità di avere solo i servizi pubblicati su internet come confinati non ha senso usare il mapping degli user con gli user SELinux. Inoltre se viene abilitato il boolean ssh_sysadm_login, agli utenti non confinati è permesso il login, mentre ad un utente lo confiniamo con "user_u", è permesso il login ssh ma è confinato quindi nel caso in cui lanciasse un "su -" e ottenesse la root ha comunque il contesto dell'utente confinato e quindi non può fare nulla. Quello che non mi è chiaro è che se un utente lo mappo all'user SELinux staff_u (dalla doc di gentoo: SELinux user with direct system administrative role assigned), permette di fare il login ma non permette di lanciare comandi amministrativi ne da utente normale (credo sia normale) ne da utente root (con su -) perche il contesto rimane lo stesso di staff_u. A questo punto a che serve se non puo lanciare comandi amministrativi tipo apt?
Re: Debian 11 e SELinux
Il 11/08/21 13:48, Alessandro Baggi ha scritto: Un saluto a tutta la lista. Ho installato su una macchina virtuale KVM Debian 11 (non ancora rilasciata) e ho attivato SELinux. Come riportato su https://wiki.debian.org/SELinux/Setup ho rimosso AppArmor e installato selinux-basics selinux-policy-default e auditd, ho lanciato selinux-activate e ho riavviato. Il sistema, giustamente, ha effettuato un relabel di tutto. Successivamente ho modificato la configurazione di SELinux da permissive a enforcing. Il problema è che non mi permette di loggarmi via ssh con utente normale dandomi come errore: /bin/bash: permission denied Ho usato SELinux su distro della famiglia RPM ma non sono esperto in quanto ho solo configurato dei contesti, qualche boolean e confinato qualche user e non riesco a capire come risolvere questo problema. Ho provato ad assegnare ad un utente il ruolo user_u con "usermod -Z user_u username" e riesco ad effettuare il login via ssh ma ho notato che lanciando "su -" non mi permette di leggere/scrivere file che sono soggetti ad altri contesti, come se l'utente root fosse confinato. Questa cosa non accade però se il login viene effettuato da console. Purtroppo la documentazione di Debian non mi è di alcun aiuto. In rete non sono riuscito a trovare granchè ma solo problemi relativi ad anni dimenticati Qualcuno ha qualche suggerimento? Grazie in anticipo. Dopo aver spulciato qualche boolean di SELinux ho abilitato ssh_sysadm_login (impostato a on) e permette agli utenti non confinati di effettuare il login su ssh. Non capisco perche se effettuo il login da utente confinato se lancio id -Z ho: user_u:user_r:user_t:s0 e dopo "su - root" mantiene lo stesso contesto dell'utente semplice e non unconfined. Può essere che la transazione da un contesto user_t non puo essere effettuata verso unconfined?
Debian 11 e SELinux
Un saluto a tutta la lista. Ho installato su una macchina virtuale KVM Debian 11 (non ancora rilasciata) e ho attivato SELinux. Come riportato su https://wiki.debian.org/SELinux/Setup ho rimosso AppArmor e installato selinux-basics selinux-policy-default e auditd, ho lanciato selinux-activate e ho riavviato. Il sistema, giustamente, ha effettuato un relabel di tutto. Successivamente ho modificato la configurazione di SELinux da permissive a enforcing. Il problema è che non mi permette di loggarmi via ssh con utente normale dandomi come errore: /bin/bash: permission denied Ho usato SELinux su distro della famiglia RPM ma non sono esperto in quanto ho solo configurato dei contesti, qualche boolean e confinato qualche user e non riesco a capire come risolvere questo problema. Ho provato ad assegnare ad un utente il ruolo user_u con "usermod -Z user_u username" e riesco ad effettuare il login via ssh ma ho notato che lanciando "su -" non mi permette di leggere/scrivere file che sono soggetti ad altri contesti, come se l'utente root fosse confinato. Questa cosa non accade però se il login viene effettuato da console. Purtroppo la documentazione di Debian non mi è di alcun aiuto. In rete non sono riuscito a trovare granchè ma solo problemi relativi ad anni dimenticati Qualcuno ha qualche suggerimento? Grazie in anticipo.
Re: migrazione dati da mysql a postgress
Il 14/07/21 11:45, marco ha scritto: Buon giorno lista; qualcuno di voi ha mai fatto la migrazione dati da mysql a postgress? Se si come si deve fare? CIao Marco, la domanda non è strettamente relativa a Debian e spero non si generi un flame per questo OT. Comunque, non l'ho mai fatto ma procederei cosi (prendilo come spunto): 1. Creare il db, tabelle, relazioni con tutto quello che serve (tipi campi, chiavi, indici, procedure, ecc) 2. Con uno script in python (va bene anche php o linguaggio che conosci) leggerei il contenuto di tutte le tabelle rispettando l'ordine delle relazioni (magari tabella 1 dipende da tabella 2 quindi devi prima popolare tabella 2) e ripopolare le tabelle sul db postgres. In questo passaggio è importante mantenere la consistenza del db altrimenti potresti avere dei problemi con l'applicazione che deve leggere i dati. Per evitare problemi, se non conosci il db ti consiglio di analizzarlo attentamente. 3. Sicuramente ci sarà un'applicazione che usuifrerà di questi dati, quindi devi cambiare tutte le chiamate per recuperare/inserire le informazioni sul db. In base alla versione che usi, sul sito di PostgreSQL c'è un'esauriente documentazione. Sicuro utenti più esperti ti risponderanno a breve e in maniera più adeguata. Un saluto.
Re: presentazione
Il 17/12/20 10:41, Marco Ciampa ha scritto: Buongiorno lista, sono nuovo nuovo per cui perdonate se faccio errori clamorosi. Sono un traduttore (GIMP, Midnight Commander, KiCad ecc.). Benvenuto e granzie per il grandioso lavoro.
Re: considerazioni sulla virtualizzazione
Il 14/08/20 14:45, Marco Gaiarin ha scritto: NON è un ''filesystem condiviso'', NON è possibile montare lo stesso device iSCSI su due macchine diverse, ma in un cluster PVE ti permette di migrare le macchine da un nodo all'altro senza problemi, perchè il device iSCSI è visto da tutte. Ciao, corretto, non è possibile montare lo stesso iSCSI su più macchine se si usano filesystem canonici (ext4,xfs). È possibile farlo se si usa GFS2 o OCFS come fs. Un saluto.
Re: considerazioni sulla virtualizzazione
Il 08/08/20 15:49, Marco Gaiarin ha scritto: Se la tua idea è esportare due dischi in iSCSI e farci sul 'client iSCSI' il RAID-1, mi sa che stai a fare una ca%%ata...;-) +1
Re: Debian e downgrade di un pacchetto
Il 06/08/20 09:42, Alessandro Baggi ha scritto: Il 06/08/20 07:33, Paolo Redælli ha scritto: Il 05/08/20 21:45, Davide Prina ha scritto: On 04/08/20 11:18, Paolo Redælli wrote: Il 04/08/20 11:05, Alessandro Baggi ha scritto: Volevo sapere se su debian è possibile fare un downgrade di un determinato pacchetto con apt. apt-get --allow-downgrades install nomepacchetto/versione ma questo non dovrebbe funzionare perché i pacchetti di versioni precedenti dovrebbero essere tolti dal repository ufficiali e messi su snapshot.debian.net... a meno che mi sono perso qualcosa accaduto di recente. In effetti è come dici tu, perché la stragrande maggioranza delle persone ha elencato nelle fonti di apt una sola release tra stabile, testing, unstable eccetera Non avevo tenuto presente che non sono tanti a fare come me che ho stable, testing, unstable ed **experimantal** tra le fonti... Vedi https://monodes.com/predaelli/2020/02/23/debian-programmi-da-stable-testing-unstable-ed-anche-experimental-senza-traumi/ Scusate ma non ho capito se --allow-downgrades install nomepacchetto/versione funziona e come faccio a determinare quale versione posso installare. Rieccomi, per vedere quali versioni di un pacchetto sono disponibili, si può usare 'apt policy thunderbird".
Re: Debian e downgrade di un pacchetto
Il 06/08/20 07:33, Paolo Redælli ha scritto: Il 05/08/20 21:45, Davide Prina ha scritto: On 04/08/20 11:18, Paolo Redælli wrote: Il 04/08/20 11:05, Alessandro Baggi ha scritto: Volevo sapere se su debian è possibile fare un downgrade di un determinato pacchetto con apt. apt-get --allow-downgrades install nomepacchetto/versione ma questo non dovrebbe funzionare perché i pacchetti di versioni precedenti dovrebbero essere tolti dal repository ufficiali e messi su snapshot.debian.net... a meno che mi sono perso qualcosa accaduto di recente. In effetti è come dici tu, perché la stragrande maggioranza delle persone ha elencato nelle fonti di apt una sola release tra stabile, testing, unstable eccetera Non avevo tenuto presente che non sono tanti a fare come me che ho stable, testing, unstable ed **experimantal** tra le fonti... Vedi https://monodes.com/predaelli/2020/02/23/debian-programmi-da-stable-testing-unstable-ed-anche-experimental-senza-traumi/ Scusate ma non ho capito se --allow-downgrades install nomepacchetto/versione funziona e come faccio a determinare quale versione posso installare.
Re: Debian e downgrade di un pacchetto
Il 04/08/20 11:18, Paolo Redælli ha scritto: Il 04/08/20 11:05, Alessandro Baggi ha scritto: Salve ragazzi, leggendo le problematiche legate ai fix del BootHole su sistemi della famiglia RHEL, tra le soluzioni viene proposto il downgrade dei pacchetti interessati. Volevo sapere se su debian è possibile fare un downgrade di un determinato pacchetto con apt. Certo che si può. E non solo di un determinato pacchetto, per inciso. Anni fa son passato da experimental a testing (ma ci ha messo tipo 8-10 ore!). apt-get --allow-downgrades install nomepacchetto/versione oppure apt-get --allow-downgrades install nomepacchetto/release Ciao Paolo e grazie per la risposta. è possibile vedere quante e quali versioni sono disponibili per un determinato pacchetto in modo tale da poter fornire la version corretta?
Debian e downgrade di un pacchetto
Salve ragazzi, leggendo le problematiche legate ai fix del BootHole su sistemi della famiglia RHEL, tra le soluzioni viene proposto il downgrade dei pacchetti interessati. Volevo sapere se su debian è possibile fare un downgrade di un determinato pacchetto con apt. Grazie in anticipo. Un saluto.
Re: comparazione fra files
Il 03/08/20 17:43, Piviul ha scritto: Ciao a tutti, dati 2 o più files con migliaia di righe ordinate dovrei riuscire ad estrapolare le righe uguali. Non c'è altro modo dii farlo se non controllando riga per riga se è presente negli altri files? Non esiste un diff al contrario? Grazie Piviul Ciao Piviul, ti do uno spunto. Prova con: sort file1 file2 file3 | uniq -d Questo dovrebbe darti le rige uguali in tutti i file specificati. Un saluto.
Aggiornamento: Debian Buster (10.4) e GIMP
Il 12/06/20 23:18, Davide Prina ha scritto: On 12/06/20 09:01, Alessandro Baggi wrote: non uso Wayland ma Xorg. Wayland is intended as a simpler replacement for X, easier to develop and maintain. GNOME and KDE are expected to be ported to it. È vero che ci sono cose che non funzionano (es: bisogna imposare delle variabili di sistema alla chiamata dell'applicativo) o danno problemi con wayland, ma con il passare del tempo stanno sistemando. Ciao Davide Salve ragazzi, ricordate il problema di GIMP su debian 10.4 dove non funzionava il color picker? Il problema sembra risolversi quando utilizzo come motore di rendering XRender. Con OpelGL 3.1 e 2.0 mi da quel problema. Non ho molta conoscenza sui motori di rendering ma Xrender è valido?
Re: [OT] Backup dati
Il 10/07/20 15:54, Bertorello, Marco ha scritto: Il 09/07/2020 15:58, Alessandro Baggi ha scritto: Un saluto esteso a tutta la lista. Come da oggetto ho necessità di mettere su un server di backup [...] Avete dei consigli al riguardo? Non sto seguendo il thread, scusate, ma questo è stato rilasciato oggi in Beta, magari vi interessa: https://pbs.proxmox.com/wiki/index.php/Main_Page Ciao e grazie per la risposta. Grazie per aver condiviso, è molto interessante. +1
Re: [OT] Backup dati
Il 10/07/20 14:54, Giulio Turetta ha scritto: backuppc E' pacchettizzato per Debian, è solido e versatile. Unica pecca? Non cripta i backup ma se la criptazione della partizione che li contiene può essere sufficiente te lo consiglio. Se invece la criptazione è un must vai un occhio a duplicity Happy hack! G. Ciao Giulio, grazie per la risposta e per il suggerimento. Un saluto, Alessandro.
Re: [OT] Backup dati
Il 10/07/20 12:21, Mauro Morichi ha scritto: Il 10/07/2020 10:27, Alessandro Baggi ha scritto: mile al tuo, con checksum, quota, notifiche e comunicazioni. Come hai implementato il checksum nel tuo script? Io sto provando a trovare una soluzione utilizzando l'md5 di rsync che si può ottenere usando l'opzione --output-format="%C e altri format per altre info". Questo è ottimo perche cmq l'hash lo calcola direttamente rsync e si risparmia un po di tempo, quindi per ogni file scaricato inserisco il rispettivo md5 in un manifest unico per il client contenente tutti i checksum dei file scaricati precedentemente. Il problema è che usando gli hardlink e utilizzando il prune, mi ritrovo a dover aggiornare una lista molto lunga ogni volta che effettuo un prune e questo richiede molto tempo. Al momento mi sono affidato a ZFS ma se non ho capito male il controllo di zfs consiste nel controllare se la copia live è cambiata rispetto a quella della parità senza che il file sia stato modificato nella copia live (anche perche se il file viene modificato nella copia live viene comunque aggiornato anche nel parity) (se sbaglio correggetemi). anche se piu' lentamente utilizzo il tool esterno. Ogni volta genero un file con l'elenco di tutti gli md5 piu' altre info utili come spazio occupato, spazio disponibile, numero di backup presenti un po' di info leggibili, insomma. Anche io ho provato con un tool esterno (sha512/256sum) ma quando sono molti file (tipo il primo backup o un aggiornamento di qualche giga) ci mette un po. Per esempio il primo backup scarica circa 60 file e il processo per calcolare il checksum di ogni file richiede un bel po di tempo mentre invece utilizzando il checksum (md5 al momento) di rsync si perde solo il tempo di sincronizzazione dei file.
Re: [OT] Backup dati
Il 09/07/20 21:48, Mauro ha scritto: Il 09/07/2020 15:58, Alessandro Baggi ha scritto: Un saluto esteso a tutta la lista. ricambio con piacere. Per un ambiente lavorativo stavo pensado a qualcosa di più professionale che supporti la compressione, deduplicazione (non che sia necessaria al momento), cifratura dei backup e controllo di integrità dei backup. Facendo un ricerca in rete ho trovato: 1) rsnapshot: non più mantenuto in quanto lo sviluppatore principale è passato a borgbackup. 2) dirvish: non più mantenuto dal 2014. 3) bacula: letteralmente un mostro (che ho usato in passato) 4) bareos: è il fork di bacula quindi come sopra 5) amanda: non so 6) borgbackup: tool veramente interessante ma supporta solo il push nativamente quindi dovrei usarlo con rsync + borg in locale. Anche in questo caso uno script bash è necessario per mantenere più client. 7) restic: simile a borgbackup e altri. Avete dei consigli al riguardo? Ciao Mauro e grazie per la risposta La mia situazione che e' un mix di robe di lavoro e personali alla fine mi hanno portato a usare due tools (tralascio quelli per gli ambienti misti winz): il primo, uno script che ogni giorno cresce un po' che si basa su rsync, simile al tuo, con checksum, quota, notifiche e comunicazioni. Come hai implementato il checksum nel tuo script? Io sto provando a trovare una soluzione utilizzando l'md5 di rsync che si può ottenere usando l'opzione --output-format="%C e altri format per altre info". Questo è ottimo perche cmq l'hash lo calcola direttamente rsync e si risparmia un po di tempo, quindi per ogni file scaricato inserisco il rispettivo md5 in un manifest unico per il client contenente tutti i checksum dei file scaricati precedentemente. Il problema è che usando gli hardlink e utilizzando il prune, mi ritrovo a dover aggiornare una lista molto lunga ogni volta che effettuo un prune e questo richiede molto tempo. Al momento mi sono affidato a ZFS ma se non ho capito male il controllo di zfs consiste nel controllare se la copia live è cambiata rispetto a quella della parità senza che il file sia stato modificato nella copia live (anche perche se il file viene modificato nella copia live viene comunque aggiornato anche nel parity) (se sbaglio correggetemi). il secondo un bacula che sta diventando in questi giorni un bareos. Quest'ultima soluzioni l'avevo scelta qualche anno fa perche' dovevo lavorare in ambienti misti (linux,bsd e windows) e mi sembrava una valida alternativa da mettere in mano con apposita interfaccia a utenti meno smaliziati a cui, al massimo, dovevo far premere un tasto soltanto. Effettivamente Bareos/Bacula sono di una complessita' che rasenta la follia. Per carita' stabili, ma laddove ho thera e thera di file piccoli (documenti office) andare a cercare qualcosa sta diventando una tortura. Concordo. Bacula è una cosa allucinante, l'ho usato in passato con successo ma è troppo complesso e macchinoso (magari in altre realtà è la salvezza ed è necessario che sia cosi). Prima cosa è un pò confusionario il modo in cui i client vengono configurati, cioè si parte da un file di configurazione che contiene le direttive ma poi una parte delle info viene memorizzata sul database (la parte riguardante ai pool, volumi, job, file e host). Non c'è niente di male in questo ma se provi cambiare le config dei pool, volumi ecc devi cmq aggiornarle sul DB con la bconsole, se elimini un client dalla configurazione poi devi andare ad eliminare il client dal DB, idem se fai modifiche ai pool/volumi, idem se cancelli un volume o un job (esiste un tool per fare questo, o meglio un tool che si occupa di eliminare i record orfani ma non ha mai funzionato per me..sarò io). Poi ci sta il mantenimento del DB che potrebbe diventare gigante e quindi le query per vedere quale file è memorizzato in quale volume richiedo un tempo maggiore e poi ti ritrovi a fare un backup del db (di bacula) molto grande (ci sono diverse direttive per questo ma si può sempre omettere qualcosa o sbagliare il retention period). Oltre a questo non mi piace come gestisce i volumi sui backup con storage su disco e non su TAPE (su TAPE penso che sia formidabile questo approccio) ma su disco è più un problema che una soluzione. Per esempio, mi capitava che un job fallisse per un motivo ma il volume era già stato allocato e marcato come usato. Avendo il maximum volume jobs = 1, Maximum Volumes = N e le retention policy praticamente distruggeva il ciclo di backup del client perche ti trovavi con un volume in meno (praticamente non usato) ma che cmq ti sballava il ciclo. E vai a manina a cambiare il numero di pool per fargli fare il backup e poi eliminare quello vecchio. Forse lo usavo male io, ma per backup su disco non è il massimo. Poi per carità ha delle funzioni spettacolari come il migration su un secondo storage come replica, backup virtuali ecc...forniscono supporto a chi ne ha bisogno ma il gioco non vale la ca
[OT] Backup dati
Un saluto esteso a tutta la lista. Come da oggetto ho necessità di mettere su un server di backup per effettuare il backup di un NAS (debian) con ~1TiB, qualche VPS (potrebbero aumentare di numero) e una workstation. Sono tutti dati, quindi niente immagini di VM o container. Al momento ho in mano uno script (bash) da me scritto anni fa che utilizza rsync per il backup di molteplici host tramite SSH. Utilizza gli hardlink con l'opzione --link-dest e per ogni backup crea uno snapshot a se stante. Inoltre ho la possibilità di poter lanciare degli script di pre/post job (sempre script in bash) sui target remoti per operazioni (ES: lvm snapshot, backup di db, start/stop di servizi...), ha il mailing, ha il pruning dei vecchi job, ha un'impostazione per il QUOTA e il relativo controllo, crea un catalogo dei file con alcune informazioni (su file) per ogni snapshot, permette il restore dei backup sempre con rsync in un determinato path sul target. Niente di complesso ma funziona. A casa lo uso con ZFS dove è abilitata la compressione e dove ogni tanto lancio uno scrub per verificare se ci sono degli errori. La cosa che mi piace è che i file sono memorizzati nella stessa modalità in cui sono scaricati, quindi accessibili con qualsiasi tool disponibile sulla distro a non dipendono da uno specifico software di backup ma solo dal filesystem. Ha alcuni svantaggi come il limite degli hardlink, il gran numero di file salvati singolarmente e non in un archivio per backup il che potrebbe creare problemi con fsck. Oltre a queste non supporta la compressione, la cifratura e il controllo di integrità nativamente ma al momento posso ovviare al problema grazie a ZFS e comunque essendo uno script in bash preferirei gestire queste funzionalità in maniera più appropriata. Per un ambiente lavorativo stavo pensado a qualcosa di più professionale che supporti la compressione, deduplicazione (non che sia necessaria al momento), cifratura dei backup e controllo di integrità dei backup. Facendo un ricerca in rete ho trovato: 1) rsnapshot: non più mantenuto in quanto lo sviluppatore principale è passato a borgbackup. 2) dirvish: non più mantenuto dal 2014. 3) bacula: letteralmente un mostro (che ho usato in passato) 4) bareos: è il fork di bacula quindi come sopra 5) amanda: non so 6) borgbackup: tool veramente interessante ma supporta solo il push nativamente quindi dovrei usarlo con rsync + borg in locale. Anche in questo caso uno script bash è necessario per mantenere più client. 7) restic: simile a borgbackup e altri. Avete dei consigli al riguardo? Scusate la lunghezza e grazie. Alessandro.
[RISOLTO] Re: Ho fatto un casino con i DE (fork(Debian Buster (10.4) e GIMP)
Il 15/06/20 18:56, Alessandro Baggi ha scritto: Il 15/06/20 17:57, Davide Prina ha scritto: On 15/06/20 08:55, Alessandro Baggi wrote: Esiste un modo sicuro per eliminare GNOME ed XFCE senza distruggere l'installazione? guardi cosa ha effettivamente installato e rimuovi qui pacchetti: /var/log/apt/history.log Io ho rimosso gnome su un eeepc dove avevo messo xfce e non ho avuto problemi. Ciao Davide Grazie mille proverò. Un saluto. Ciao Davide, ho effettuato l'eliminazione dei pacchetti riportati nel log di apt. Tutto è andato per il meglio. Grazie ancora. Un saluto.
[RISOLTO] Re: Debian Buster (10.4) e GIMP
Il 12/06/20 23:18, Davide Prina ha scritto: On 12/06/20 09:01, Alessandro Baggi wrote: non uso Wayland ma Xorg. Wayland is intended as a simpler replacement for X, easier to develop and maintain. GNOME and KDE are expected to be ported to it. È vero che ci sono cose che non funzionano (es: bisogna imposare delle variabili di sistema alla chiamata dell'applicativo) o danno problemi con wayland, ma con il passare del tempo stanno sistemando. Ciao Davide Salve Ragazzi, inaspettatamente il problema non si presenta più. Qualche giorno fa ho lanciato un upgrade senza notare cosa venisse aggiornato. Il log di apt riporta questo: Start-Date: 2020-06-12 09:03:30 Commandline: apt-get upgrade Upgrade: linux-image-4.19.0-9-amd64:amd64 (4.19.118-2, 4.19.118-2+deb10u1), linux-libc-dev:amd64 (4.19.118-2, 4.19.118-2+deb10u1), libgnutls-openssl27:amd64 (3.6.7-4+deb10u3, 3.6.7-4+deb10u4), nodejs:amd64 (10.19.0~dfsg1-1, 10.21.0~dfsg-1~deb10u1), linux-compiler-gcc-8-x86:amd64 (4.19.118-2, 4.19.118-2+deb10u1), linux-headers-4.19.0-9-common:amd64 (4.19.118-2, 4.19.118-2+deb10u1), thunderbird-l10n-it:amd64 (1:68.8.0-1~deb10u1, 1:68.9.0-1~deb10u1), linux-headers-4.19.0-9-amd64:amd64 (4.19.118-2, 4.19.118-2+deb10u1), lightning:amd64 (1:68.8.0-1~deb10u1, 1:68.9.0-1~deb10u1), thunderbird:amd64 (1:68.8.0-1~deb10u1, 1:68.9.0-1~deb10u1), nodejs-doc:amd64 (10.19.0~dfsg1-1, 10.21.0~dfsg-1~deb10u1), libgnutls30:amd64 (3.6.7-4+deb10u3, 3.6.7-4+deb10u4), libnode64:amd64 (10.19.0~dfsg1-1, 10.21.0~dfsg-1~deb10u1), ca-certificates:amd64 (20190110, 20200601~deb10u1), linux-kbuild-4.19:amd64 (4.19.118-2, 4.19.118-2+deb10u1), libgnutls-dane0:amd64 (3.6.7-4+deb10u3, 3.6.7-4+deb10u4) End-Date: 2020-06-12 09:03:54 ma non so da cosa possa essere dipeso. Grazie a tutti per il supporto.
Re: Ho fatto un casino con i DE (fork(Debian Buster (10.4) e GIMP)
Il 15/06/20 17:57, Davide Prina ha scritto: On 15/06/20 08:55, Alessandro Baggi wrote: Esiste un modo sicuro per eliminare GNOME ed XFCE senza distruggere l'installazione? guardi cosa ha effettivamente installato e rimuovi qui pacchetti: /var/log/apt/history.log Io ho rimosso gnome su un eeepc dove avevo messo xfce e non ho avuto problemi. Ciao Davide Grazie mille proverò. Un saluto.
Re: leggere dati smart in dischi SAS
Il 15/06/20 08:32, Piviul ha scritto: Il 13/06/20 21:46, Marco Taschin ha scritto: Ciao, prova con questi tools: https://downloads.linux.hpe.com/SDR/project/mcp/ sai che non sono riuscito a trovare un tool in grado di leggere i dati smart dell'hd? E smartctl quindi non è supportato? Piviul Ciao Piviul, Leggi qui: https://www.smartmontools.org/wiki/FAQ#MySCSISASdriveisnotinthesmartctlsmartddataba
Ho fatto un casino con i DE (fork(Debian Buster (10.4) e GIMP)
Buongiorno lista, non so se avete letto la mia problematica con GIMP, ma per verificare se dipendesse dai driver nvidia o dal DE, ho installato (oltre a Plasma) anche GNOME e XFCE. Alla fine il problema si presenta su Plasma ma al momento non so ancora da cosa dipenda. Ora il problema è che mi ritrovo con 3 DE. Da mie vecchie esperienze, la disinstallazione di xfce non dovrebbe creare problemi ma la rimozione completa di GNOME mi ha sempre rovinato l'installazione. Esiste un modo sicuro per eliminare GNOME ed XFCE senza distruggere l'installazione? Un saluto e grazie in anticipo.
Re: zfs pool degraded
Ciao Piviul, sembra il caso di cambiarlo, magari qualcuno con più esperienza potrebbe confermare la diagnosi. Il 12/06/20 14:44, Piviul ha scritto: Ciao Alessandro... Alessandro Baggi ha scritto il 12/06/20 alle 11:09: [...] I valori THRESH dello smart del disco riportano qualcosa di strano? Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove trovare le informazioni da inserire nell'opzione --device di smartctl :( I log di sistema hanno riportato qualcosa al riguardo del disco come errore I/O ecc (anche dmesg al momento dell'errore)? No, non ci ho guardato ma l'ho fatto ora; ecco cosa riportano: Jun 11 08:23:34 pve02 kernel: [63208.585107] sd 2:0:2:0: [sdc] tag#128 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:23:34 pve02 kernel: [63208.585126] sd 2:0:2:0: [sdc] tag#128 Sense Key : Illegal Request [current] Jun 11 08:23:34 pve02 kernel: [63208.585132] sd 2:0:2:0: [sdc] tag#128 Add. Sense: Logical block address out of range Jun 11 08:23:34 pve02 kernel: [63208.585139] sd 2:0:2:0: [sdc] tag#128 CDB: Write(10) 2a 00 b7 e8 13 10 00 05 28 00 Jun 11 08:23:34 pve02 kernel: [63208.585146] blk_update_request: critical target error, dev sdc, sector 3085439760 op 0x1:(WRITE) flags 0x700 phys_seg 12 prio class 0 Jun 11 08:23:34 pve02 kernel: [63208.585252] zio pool=zfspool vdev=/dev/sdc1 error=121 type=2 offset=1579744108544 size=675840 flags=40080c80 Jun 11 08:23:48 pve02 kernel: [63223.328731] sd 2:0:2:0: [sdc] tag#162 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:23:48 pve02 kernel: [63223.328751] sd 2:0:2:0: [sdc] tag#162 Sense Key : Illegal Request [current] Jun 11 08:23:48 pve02 kernel: [63223.328757] sd 2:0:2:0: [sdc] tag#162 Add. Sense: Logical block address out of range Jun 11 08:23:48 pve02 kernel: [63223.328764] sd 2:0:2:0: [sdc] tag#162 CDB: Write(10) 2a 00 c3 39 fa 18 00 02 60 00 Jun 11 08:23:48 pve02 kernel: [63223.328771] blk_update_request: critical target error, dev sdc, sector 3275356696 op 0x1:(WRITE) flags 0x700 phys_seg 6 prio class 0 Jun 11 08:23:48 pve02 kernel: [63223.328878] zio pool=zfspool vdev=/dev/sdc1 error=121 type=2 offset=1676981579776 size=311296 flags=40080c80 Jun 11 08:24:28 pve02 kernel: [63263.323315] sd 2:0:2:0: [sdc] tag#141 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:24:28 pve02 kernel: [63263.323334] sd 2:0:2:0: [sdc] tag#141 Sense Key : Medium Error [current] Jun 11 08:24:28 pve02 kernel: [63263.323340] sd 2:0:2:0: [sdc] tag#141 Add. Sense: Unrecovered read error Jun 11 08:24:28 pve02 kernel: [63263.323347] sd 2:0:2:0: [sdc] tag#141 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 08:24:28 pve02 kernel: [63263.323353] blk_update_request: critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 08:25:37 pve02 kernel: [63331.416500] sd 2:0:2:0: [sdc] tag#143 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:25:37 pve02 kernel: [63331.416507] sd 2:0:2:0: [sdc] tag#143 Sense Key : Medium Error [current] Jun 11 08:25:37 pve02 kernel: [63331.416510] sd 2:0:2:0: [sdc] tag#143 Add. Sense: Unrecovered read error Jun 11 08:25:37 pve02 kernel: [63331.416516] sd 2:0:2:0: [sdc] tag#143 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 08:25:37 pve02 kernel: [63331.416522] blk_update_request: critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.560537] sd 2:0:2:0: [sdc] Unaligned partial completion (resid=4056, sector_sz=512) Jun 11 11:44:58 pve02 kernel: [75292.560549] sd 2:0:2:0: [sdc] tag#769 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560558] sd 2:0:2:0: [sdc] tag#769 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK Jun 11 11:44:58 pve02 kernel: [75292.560562] sd 2:0:2:0: [sdc] tag#769 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560567] blk_update_request: I/O error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.560694] sd 2:0:2:0: [sdc] tag#770 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK Jun 11 11:44:58 pve02 kernel: [75292.560697] sd 2:0:2:0: [sdc] tag#770 CDB: Read(10) 28 00 00 00 08 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560700] blk_update_request: I/O error, dev sdc, sector 2048 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.688448] sd 2:0:2:0: [sdc] tag#799 FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_SENSE Jun 11 11:44:58 pve02 kernel: [75292.688456] sd 2:0:2:0: [sdc] tag#799 Sense Key : Illegal Request [current] Jun 11 11:44:58 pve02 kernel: [75292.688460] sd 2:0:2:0: [sdc] tag#799 Add. Sense: Logical unit not supported Jun 11 11:44:58 pve02 kernel: [75292.688466] sd 2:0:2:0: [sdc] tag#799 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.688471] blk_update_request: I/O
Re: zfs pool degraded
Ciao Piviul, non so se iLO riporta questo tipo di errori. Cercando in rete ho trovato (http://h20628.www2.hp.com/km-ext/kmcsdirect/emr_na-c03580889-1.pdf) che iLO4 riporta tra le tante cose un Disk Failure. I valori THRESH dello smart del disco riportano qualcosa di strano? I log di sistema hanno riportato qualcosa al riguardo del disco come errore I/O ecc (anche dmesg al momento dell'errore)? Se non trovi nessun problema (ed è strano) proverei a riaggiungere il disco al pool di zfs e vedere se riaccade. Se riaccade sta a te valutare in base al ruolo del server e all'importanza dei dati che ha memorizzati se è il caso di acquistare un nuovo disco. Potresti fare un'altra prova ma è rischiosa, non l'ho mai fatto e non so se è possibile. Se dico qualche ca___ta perdonatemi. Se il tuo pool supporta un duplice guasto (raizd2) o se hai dischi spare (anche non collegati) perche non invertire due dischi? Potrebbe essere il bay ad avere il problema (so che è remota come possibilità). Se fallisce sempre lo stesso disco sai che è quel disco altrimenti se fallisce il disco nel bay "incriminato" sai che il problema dipende dal bay. Se hai il raidz2 puoi scollegare due device insieme altrimenti sei obbligato a scollegare il disco corrotto, fare un replace con un disco nuovo e aspettare il resilvering. Se tutto va bene scolleghi un disco del pool e inserisci quello che ti da problemi e aspetti il manifestarsi del problema. Anche in questo caso, dipende dal ruolo di questo specifico server. Può essere spento e avere un downtime per il resilvering? Non smetterò mai di consigliarlo: backup, backup e backup. Nota: mi è capitato in passato, quando ero un novizio ed ero affiancato da "un esperto", che su alcuni server HP in raid5 (hardware non ricordo il controller) ogni tanto un disco veniva marcato come faulted e il tutto si risistemava scollegando il disco e ricollegandolo (a fronte però della ricostruzione). Un saluto. Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di salute del server è ottimo, non vengono rilevati problemi. Se un HD dovesse avere problemi il server proliant non dovrebbe accorgesene? Grazie Piviul Il 11/06/20 13:04, Piviul ha scritto: Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. Ora io essendoci ancora cose non essenziali sul server ho dato un zpool clear sul server ma mi piacerebbe testare l'hd; con uno smartctl -a /dev/sd? mi dice : smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org /dev/sd?: requires option '-d cciss,N' Please specify device type with the -d option. Use smartctl -h to get a usage summary se gli aggiungo un -d scsi mi restituisce: smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org User Capacity: 2,000,398,934,016 bytes [2.00 TB] Logical block size: 512 bytes Rotation Rate: 7202 rpm Form Factor: 3.5 inches Logical Unit id: 0x5000c5004e1c339a Serial number: Z1P3KYTT Device type: disk Local Time is: Thu Jun 11 13:03:46 2020 CEST SMART support is: Available - device has SMART capability. SMART support is: Enabled Temperature Warning: Disabled or Not Supported === START OF READ SMART DATA SECTION === SMART Health Status: OK Current Drive Temperature: 32 C Drive Trip Temperature: 0 C Error Counter logging not supported Device does not support Self Test logging Voi cosa fareste? Piviul
Re: Debian Buster (10.4) e GIMP
Il 11/06/20 21:29, Davide Prina ha scritto: On 11/06/20 10:29, Alessandro Baggi wrote: Ho installato xfce4 e rilanciato la sessione utente con XFCE e GIMP funziona come di dovere. Sembra che il problema derivi da KDE. Come potrei identificare cosa causa la problematica su KDE Plasma? secondo me il problema è in una libreria specifica di KDE $ dpkg -l | grep wayland penso che siano qt quelle che potrebbero darti problemi Io guarderei se per qualcuna di quelle di KDE c'è aperto qualche bug su wayland. Una strada che potrebbe essere più complessa è quella di fare il debug di gimp con gdb e cercare di capire cosa stampa i messaggi di errore https://wiki.debian.org/HowToGetABacktrace Ciao Davide Ciao Davide, non uso Wayland ma Xorg. root 1128 0.1 0.3 193472 50680 tty1 Sl+ 08:51 0:00 /usr/lib/xorg/Xorg vt1 -displayfd 3 -auth /run/user/122/gdm/Xauthority -background none -noreset -keeptty -verbose 3 Proverò con il debug di gimp. Grazie
Re: Debian Buster (10.4) e GIMP
Il 10/06/20 21:49, Davide Prina ha scritto: On 03/06/20 16:28, Alessandro Baggi wrote: ho riscontrato un problema con GIMP su Debian 10 con il color picker del selezionatore di colore di primo piano nel pannello degli strumenti o da Menu->Finestre->Pannelli Agganciabili->Colori. In sostanza qualsiasi colore io selezioni mi da sempre nero su testing funziona correttamente. Di solito problemi di questo tipo sono causati da un supporto per wayland non corretto. infatti qui è segnalato il problema che hai indicato tu (però marcato come risolto): https://bugs.launchpad.net/ubuntu/+source/gimp/+bug/1705188 però penso che dovrebbe essere risolto sulla versione che hai... Qui è riportato l'errore https://www.kubuntuforums.net/showthread.php/76021-Gimp-2-10-8-color-picker-issue e indicato che se lo fai partire da un terminale Gnome funziona, mentre se parte da Konsole non funziona... Ciao Davide Ciao Davide. grazie per la tua risposta. La tue indicazione sull'uso di un altro DE è stata utile. Ho installato xfce4 e rilanciato la sessione utente con XFCE e GIMP funziona come di dovere. Sembra che il problema derivi da KDE. Come potrei identificare cosa causa la problematica su KDE Plasma? Grazie in anticipo.
Re: Debian Buster (10.4) e GIMP
Il 07/06/20 15:03, liste DOT girarsi AT posteo DOT eu ha scritto: Il 05/06/20 09:48, Alessandro Baggi ha scritto: Ciao, io sapevo che KDE, GNOME ecc sono DE mentre Xorg o Wayland sono i server grafici. Comunque i driver sono installati dal repo di debian (non-free). Backports disabilitati. Il fatto è che il problema è riscontrato solo con GIMP mentre con kcolorchooser funziona a dovere. Un saluto. Scusa, hai ragione, faccio spesso confusione, comunque, io sono su una testing/sid, e la mia versione è più recente, ho la 2.10.18-1, però il tuo problema non lo riscontro ho desktop KDE e pure i driver proprietari (presenti nei repository non-free). Quindi probabile sia un bug di gimp. Hai già provato, per esempio a fare un riempimento di un cerchio, per vedere se mantiene l'assenza di colore? Dubito un problema ai driver nvidia, perchè succede solo lì. Guardando il changelog [0], ci sono diversi fix sui colori nelle varie versioni precedenti, forse questo ha influito, però è solo un'idea senza supporto tecnico a disposizione, per mio limite. Poi ho trovato questi [1] [2], vedi se ti son di aiuto, anche se non ne ho idea e le risposte sono simili. [0] https://metadata.ftp-master.debian.org/changelogs//main/g/gimp/gimp_2.10.8-2_changelog [1] https://graphicdesign.stackexchange.com/questions/85548/cant-use-any-colors-other-than-black-in-gimp-image [2] https://graphicdesign.stackexchange.com/questions/100160/gimp-will-only-fill-with-black Ciao, grazie per i suggerimenti. Proverò appena ho un po di tempo. Grazie mille. Se risolvo lo riporto in lista (magari può servire a qualcuno) Un saluto
Re: Debian Buster (10.4) e GIMP
Il 07/06/20 15:39, WinterMute ha scritto: il Fri, 5 Jun 2020 09:48:23 +0200 Alessandro Baggi ha scritto: | [...] buon pomeriggio, provando a cercare con le keyword "gimp color picker not working" escono diversi risultati (per altro ci sono segnalazioni del medesimo comportamento anche su win), non ho modo di approfondire ma ti conviene provare a seguire qualcuna delle segnalazioni presenti per vedere se trovi qualche spunto utile. non ho al momento modo di controllare in prima persona ma parrebbe che ci sia un qualche collegamento tra questo anomalo comportamento e l'utilizzo di wayland. comunque, come dicevo prima, prova ad eseguire una ricerca con quelle keywords magari riesci a trovare il bandolo della matassa (o qualche info utile per risolvere il problema). saluti. *** [-> WinterMute <-] -> https://www.debian.org/ «-branch-» [bullseye/sid] |GNU Project| -> https://www.gnu.org/ |Kernel Archives| -> https://www.kernel.org/ |GPG FingerPrint| -> 38A4 5354 30C5 E86F 9AA8 B234 7227 D71D A547 39E0 *** Ciao,e grazie per la risposta. Ho provato a cercare con le stesse keyword prima di postare ma non vedevo nulla di relativo a debian con la mia versione. Continuerò la mia ricerca. Grazie.
Re: Debian Buster (10.4) e GIMP
Il 04/06/20 19:20, liste DOT girarsi AT posteo DOT eu ha scritto: Il 04/06/20 08:24, Alessandro Baggi ha scritto: Ciao Simone, # apt info gimp Package: gimp Version: 2.10.8-2 Priority: optional Section: graphics Maintainer: Debian GNOME Maintainers Installed-Size: 19,5 MB . ... Server grafico Xorg (con Plasma e Nvidia driver) Alessandro. Io intendevo come server grafco, KDE, GNOME, XLDE, ecc.. Se hai plasma presumo KDE, però per i driver grafici NVidia, è tutto un programma, hai quelli proprietari scaricati dal sito NVidia o quelli dei repository? quelli recenti o i legacy? Hai pure i repository backports attivati immagino visto i driver proprietari. Temo un problema legato ai driver NVidia, però dipende dalla scheda grafica e se i driver sono i suoi; poi bisogna vedere se il problema c'è solo con gimp, in tal caso è possibile un bug di gimp. Ciao, io sapevo che KDE, GNOME ecc sono DE mentre Xorg o Wayland sono i server grafici. Comunque i driver sono installati dal repo di debian (non-free). Backports disabilitati. Il fatto è che il problema è riscontrato solo con GIMP mentre con kcolorchooser funziona a dovere. Un saluto.
Re: Debian Buster (10.4) e GIMP
Il 03/06/20 16:32, liste_girarsi ha scritto: Il 3 Giugno 2020 16:28:39 CEST, Alessandro Baggi ha scritto: Salve ragazzi, ho riscontrato un problema con GIMP su Debian 10 con il color picker del selezionatore di colore di primo piano nel pannello degli strumenti o da Menu->Finestre->Pannelli Agganciabili->Colori. In sostanza qualsiasi colore io selezioni mi da sempre nero (anche la notazione HTML). Ho provato anche su macchine diverse ma il problema persiste. Qualcuno presenta lo stesso problema? Al momento uso kcolorchooser per ovviare al problema. Un saluto. che versione di gimp? che serve grafico hai di sistema? --simone girardelli-- ## Inviato dal mio dispositivo Android con K-9 Mail. Perdonate la brevità. Ciao Simone, # apt info gimp Package: gimp Version: 2.10.8-2 Priority: optional Section: graphics Maintainer: Debian GNOME Maintainers Installed-Size: 19,5 MB . ... Server grafico Xorg (con Plasma e Nvidia driver) Alessandro.
Debian Buster (10.4) e GIMP
Salve ragazzi, ho riscontrato un problema con GIMP su Debian 10 con il color picker del selezionatore di colore di primo piano nel pannello degli strumenti o da Menu->Finestre->Pannelli Agganciabili->Colori. In sostanza qualsiasi colore io selezioni mi da sempre nero (anche la notazione HTML). Ho provato anche su macchine diverse ma il problema persiste. Qualcuno presenta lo stesso problema? Al momento uso kcolorchooser per ovviare al problema. Un saluto.
Re: ZFS e consumo di RAM
Il 28/05/20 15:27, Piviul ha scritto: Piviul ha scritto il 28/05/20 alle 09:21: Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. Forse all'inizio era così... io ricordo invece di aver letto, ma non ricordo dove, che il consumo di RAM (ARC) era proporzionale alla quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio questa proporzionalità. Qualcuno mi sa indirizzare dove potermi documentare? come al solito continuo il mio monologo sperando che a qualcuno sia utile e che a qualcun altro non dia fastidio :) Documentazione[¹] credo[²] attendibile darebbe manforte a chi sostiene che ZFS consumi tutta la RAM meno 1GB; infatti si legge che il valore di default sia impostato al "75% of memory on systems with less than 4 GB of memory physmem minus 1 GB on systems with greater than 4 GB of memory". Però a me non torna: # arc_summary | grep -A9 ^ARC\ size ARC size (current): 94.4 % 59.4 GiB Target size (adaptive): 100.0 % 62.9 GiB Min size (hard limit): 6.2 % 3.9 GiB Max size (high water): 16:1 62.9 GiB Most Frequently Used (MFU) cache size: 0.7 % 386.3 MiB Most Recently Used (MRU) cache size: 99.3 % 56.2 GiB Metadata cache size (hard limit): 75.0 % 47.2 GiB Metadata cache size (current): 6.1 % 2.9 GiB Dnode cache size (hard limit): 10.0 % 4.7 GiB Dnode cache size (current): 0.2 % 10.5 MiB che è circa la metà della ram presente sul sistema: # free -h total used free shared buff/cache available Mem: 125Gi 64Gi 60Gi 104Mi 903Mi 59Gi Swap: 8.0Gi 0B 8.0Gi E a questo punto non mi resta altro che pensare che zfs in solaris si comporta diversamente che su linux... O no? Piviul [¹] https://docs.oracle.com/cd/E26502_01/html/E29022/chapterzfs-3.html [²] credo perché si riferisce a zfs in solaris ma non dovrebbero esserci differenza Ciao Piviul, sono nuovo con ZFS ma da quello che so hai ragione, è tutta la ram - 1GiB. Se necessiti di RAM (magari un VM o altro), puoi tranquillamente impostare zfs_arc_max ad un valore ragionevole. La ARC permette di accedere ai file in maniera più veloce. Ovviamente avere una ARC più grande ti permette di avere più file in cache. Abbassarla non comporta nessun problema per ZFS, ma ho letto consigli di non abbassarla sotto i 4GiB (non ho capito perche ma credo sia un fatto di prestazioni). Per la deduplicazione, anche se non l'ho ancora usata, ho letto che ZFS richiede 1 GiB di RAM per 1 TiB di dati, e questo credo si vada a sommare alla memoria usata dalla ARC, quindi attivare la deduplicazione solo se zdb riporta un rate di deduplicazione ragionevole. Dato il grande utilizzo di RAM da parte di ZFS (ARC e Deduplicazione) l'utilizzo di ram ECC sarebbe indicato, ma al momento lo sto provando su una macchina con RAM non ECC, chissa che succederà in caso di qualche bit corrotto. Hai qualche problema in particolare con l'utilizzo della RAM? PS. Le tue avventure con PROXMOX e ZFS e Debian le trovo stimolanti dal punto di vista tecnico. Un saluto.
Re: postgres upgrade interrotto
consiglio spassionato... quando fai queste cose, soprattutto da remoto... usa screen o tmux (il primo super rodato, il secondo notevole, secondo me). così, a meno che non si spenga proprio la macchina, recuperi sempre la tua sessione di lavoro. +100
Re: [OT] La scorsa notte ho avuto un incubo
Bellissima la GIF. Che dire... Il 11/05/20 20:11, Felipe Salvador ha scritto: https://giphy.com/gifs/hungry-systemd-5xtDarAgrjoOrBxSVYk
Re: Aggiunta HDD in un raid.
Ciao Alessandro... in relatà non ho mai fatto il backup della nas, quindi non ho nulla da verificare come integrità dei precedenti backup. il backup che farò, in prima battuta, è della sola parte utente "/home" e "/root", della parte di sistema, mi interessano solo un paio di configurazioni, che mi copierò esplicitamente (non copio tutta /etc, per intenderci. in ogni caso, ho intenzione di attivare uno snapshot del sistema, prima di procedere al backup, per non trovarmi con file/direcotry bloccate, ma qui, devo chiarirmi un po' le idee prima... Ho sempre fatto un po' di confusione su quello che devo andare a copiare... se lo snapshot o la directory nativa... In quale modo mi suggerisci di verificare poi l'integrità del backup? E' mia intenzione di usare un banale rsync, in quanto i due HDD su cui faccio il backup, non mi coprono l'intera struttura, devo quindi spezzarli sui due dischi separatamente e in tempi diversi (probabilmente addiritura in tempi diversi, visto che per ora ho solo una sola interfaccia usb da collegare). Ciao e buona domenica. Se usi rsync, il primo consiglio che mi sento di darti è quello di generare uno storico dei backup. Se continui ad eseguire il sync/backup solo tra due dir hai solo l'ultima versione e non i pregressi tipo (con hardlink per salvare spazio): (in maniera molto semplificata) mkdir -p /mnt/backup/{archive,dataset} rsync -av --delete src/ /mnt/backup/dataset/ mkdir /mnt/backup/archive/backup-$(date "+%d_%m_%Y") cp -al /mnt/backup/dataset/* /mnt/backup/archive/backup-date per quanto riguarda l'ultimo comando rsync ha un'opzione per usare gli hardlink ma io preferisco dividere il processo di sync dal processo di "snapshot". Per il discorso dell'integrità generalmente un controllo con checksum dovrebbe essere sufficiente. Ricalcolare un checksum di un intero dataset (molto grande) potrebbe essere una lunga operazione. Per fortuna rsync ci viene in aiuto con l'opzione --out-format attraverso la quale possiamo stampare l'output in maniera personalizzata tra cui l'md5sum del file sincronizzato tipo rsync -av --out-format="%n;%C" che fa stampare (se non erro) il nome del file e il relativo md5sum, che potrai salvare nel modo che preferisci (NOTA: l'md5 viene riportato solo per i file quindi nell'output di rsync dovresti eliminare tutto tranne i file. Per semplificare l'operazione potresti inserire nell'out-format anche il %i che simula l'itemize-change e attraverso il quale potresti estrarre il tipo di file.) Una volta salvato il "manifest" con gli md5 potresti eseguire un controllo sui file riportati iterando il tutto. Nota: md5 ahime è quello che rsync al momento supporta, e per un controllo di integrità dei file puo andare bene. So che puo sembrare macchinoso ma è un'idea. Potresti usare anche altri sistemi come borgbackup (che sto testando per un mio uso). È semplice, crei un repo (cifrato se preferisci e remoto se preferisci), lanci borg create . e fa il backup con deduplicazione (molto più efficiente degli hardlink perche è la deduplicazione è sui blocchi). Per il controllo lanci semplicemente un borg check sul repository o sull'archivio e ti riporta lo stato del tutto. Anche qui hai bisogno di creare il tuo script bash per fare il tutto ma è molto piccolo. L'unica cosa che non mi fa impazzire di borg è che non supporta nativamente il pull backup...per il resto è molto efficiente e puoi usare ssh (come con rsync) per repository remoti. Ora la mia paura di borg è che aggiungere deduplicazione, compressione e cifratura (3 livelli) rende il tutto (in particolare i file dove tutto viene salvato) molto complesso e se qualcosa si rompe...sarebbe dura recuperarlo. Non vorrei andare off-topic ma qualcuno con più esperienza con rsync, borg o altri sistemi di backup potrebbe aiutarci in maniera più precisa magari con altre soluzioni migliori. Un saluto.
Re: Futuro di debian
Il 30/04/20 13:37, Federico Di Gregorio ha scritto: On 4/30/20 1:33 PM, marco wrote: Buon giorno: prima atto reso inutilizzabile qemu-utils, poi hanno tolto dai repository kvm e inoltre post installazione non e' piu' possibile utilizzare apt-get in quanto nella directory etc non e' piu' presente (alcuni hanno trovato lo stratagemma di ricrearselo); secondo voi e' l'inizio della morte di questa distro? Posso chiederti gentilmente di cosa ^!?£%$"! stai parlando? Post installazione di cosa? federico Mi accodo...cosa ha che non va debian? Kvm tolto dai repository? (prova con apt-cache -n search qemu-kvm) Parlare di morte di debian mi sembra assurdo (anche per il modo in cui la community e il suo sviluppo è gestito) soprattutto considerato che è la mamma di mille mila distro. Troll?
Re: Aggiunta HDD in un raid.
Il 25/04/20 19:27, Gollum1 ha scritto: Sono riuscito a trovare degli HDD su cui fare il backup, appena ordino il secondo disco da sostituire nel raid, spengo, tiro fuori uno dei dischi, mandando quindi in degraded il raid, e vediamo se lo spare viene usato correttamente, o se perdo tutto... Se dovessi perdere tutto, compro gli altri dischi mancanti e rifaccio tutto il raid e ripristino tutto sulla nuova serie di dischi... (sperando che il backup non sia fallato) Ciao, per quanto riguarda il backup, prima di fare il tutto avvia un'operazione di verifica di integrità dell'ultimo backup/snapshot o ciclo di backup in modo tale da avere almeno la certezza che quello che hai salvato sia integro come nel momento in cui l'hai salvato (ovvio potresti aver salvato dati già corrotti nel target quindi l'integrità verifica solo che il backup sia consistente). Se posso, che soluzione di backup stai utilizzando? Un saluto.
Re: qemu e permessi
Il 08/04/20 18:22, Sabrewolf ha scritto: Ciao, sul mio sistema non ho nè sudo nè tunctl perchè cerco sempre di evitare di installare cose superflue o obsolete. Con systemd-networkd avevo specificato "group=kvm" nella sezione [Tap] del file *.netdev ma a quanto pare non è bastato. Alla fine direi che la soluzione che ho indicato prima è la migliore e cioè: - con systemd-networkd configurare un bridge br0 (10.0.0.1/24) - con nft impostare il mascheramento di 10.0.0.1/24 in postrouting - settare "chmod u+s" su /usr/lib/qemu/qemu-bridge-helper e "allow br0" in /etc/qemu/bridge.conf - avviare qemu usando "-netdev tap,id=net0,br=br0,helper=/usr/lib/qemu/qemu-bridge-helper" - settare 10.0.0.1 come gateway nel sistema guest Rimango col dubbio se il bridge br0 è necessario oppure no. Ciao, se usi il bridge br0 non ha necessità di mascherare nulla. Assegni l'indizzo ip (della tua rete) alla VM con il metodo che preferisci ed è fatta. Ovviamente il bridge deve avere un'interfaccia slave altrimenti è tutto vano. Io utilizzo virt-install per installare le macchine virtuali su kvm+libvirt (ci sarebbe anche virt-manager ma lo uso poco), per la rete basta --network=bridge:br0 (ovvio sempre un bridge valido deve essere configurato) Un saluto.
Re: lvm2 check
Il 23/03/20 17:42, Sabrewolf ha scritto: Ciao, prima di riavviare devi controllare l'UUID della partizione (blkid /dev/sda3) Il valore deve coincidere con quello indicato in pvdisplay (pvdisplay /dev/sda3) Non so se è necessario, magari lvm si basa solo sul nome del dispositivo, chissà...Non so dirti come funziona esattamente lvm al suo interno, ma se l'UUID non coincide io mi preoccuperei parecchio. Per quanto riguarda il kernel che non vede le nuove partizioni puoi provare a usare partprobe o kpartx. Ciao! Il 23/03/20 16:34, Alessandro Baggi ha scritto: Posso concludere che non ho fatto danni e che al riavvio non troverò sorprese legate alla mia distrazione? Occhio al quoting, la richiesta era di Piviul
Re: lvm2 check
Il 23/03/20 15:16, Piviul ha scritto: veramente un sintomo che qualcosa forse non va ce l'ho; se con gdisk su sda creo la partizione n. 4, salvo ed esco poi non trovo il device /dev/sda4... è grave? Piviul Piviul ha scritto il 23/03/20 alle 14:59: Ciao a tutti, oggi per distrazione ho cercato in tutti i modi di eliminare un PV LVM che per fortuna era legato ad una VG in uso. nel dettaglio con gdisk ho eliminato la partizione (/dev/sda3) e ne ho creta un'altra sullo stesso disco poi quando mi sono accorto che la partizione eliminata era utilizzata come PV di un VG che conteneva il LV su cui era installato il sistema operativo oltre (si avete capito bene!!!) non ho fatto altro che eliminare la partizione creata e ricreare la partizione che conteneva il PV con le stesse dimensioni. Ora sembra, per fortuna, che il sistema non se ne sia nemmeno accorto però non ho avuto il coraggio di riavviare il PC per paura che in realtà qualche problema salterà fuori al prossimo riavvio. Ho provato a dare un pvck sul pv sda3 e sembra tutto a posto, vgck sembra anch'esso risponda senza errori, pvs, vgs e lvs sembrano rispondere tutti correttamente... Posso concludere che non ho fatto danni e che al riavvio non troverò sorprese legate alla mia distrazione? Grazie! Piviul Ciao, non sono un esperto di LVM (potrei dire inezie) ma provo ad aiutarti. Forse un riavvio potrebbe esserti fatale. A questo punto potresti: 1) Se hai spazio sufficiente sui rimanenti PV del volume in questione potresti migrare i dati sugli altri pv dello stesso volume (che hanno spazio disponibile) in modo tale che i dati non siano più sul pv di sda3, riaggiungere la partizione come pv e poi distribuire di nuovi i dati. 2) Se non hai spazio puoi aggiungere un disco nuovo, lo aggiungi al volume logico, ridistribuisci i dati (facendo in modo sempre che i dati non risiedano più su sda3), reimposti sda3 e lo riaggiungi al volume, sposti di nuovo i dati e rimuovi il disco aggiunto. 3) Backup! Backup! Backup! (A proposito che sistema di backup usi? :D) Un saluto.
Re: ot system.d al rogo
Il 18/03/20 10:56, Lucio Marinelli ha scritto: Il giorno mer 18 mar 2020 alle ore 10:54 Portobello mailto:c.portobe...@fastwebnet.it>> ha scritto: Cioè mi spiego. Quando non riesco a trovare soluzioni, spengo tutto e vado a fare una passeggiata nel parco. Più è lunga la passeggiata e più aumentano le probabilità di trovare una soluzione. Beato te che hai un parco privato in cui passeggiare... -- Lucio Marinelli +1 Il mio parco è il mio balcone.
Re: ot system.d al rogo
Il 18/03/20 10:33, Paolo Redaelli ha scritto: Il 18/03/20 10:25, Alessandro Baggi ha scritto: Il 17/03/20 18:13, Marco Pirola ha scritto: Per quale motivo se tolgo il package network-manager e imposto in /etc/resolv.conf nameserver 8.8.8.8 non riesco a combina nulla? Tra l'altro ho installato bridge-utils con un interfaces adoc perfettamente funzionante con debian streatch; in debian buster o nelle prossime release stable c'e' ci saranno la possibilita' di scegliere il proprio inizializzatore di sistema? Grazie a tutti e una buona serata Buongiorno Marco, anche io non gradisco molto configurare la rete con NetworkManager anche se devo dire che non è poi cosi difficile da usare. Solo una nota: se per caso hai rimosso network-manager perché non volevi usare una GUI per configurare il tutto puoi sempre usare nmtui che è un'interfaccia "a terminale" (curses), oppure nmcli che è proprio a linea di comando. Se poi vuoi proprio editare dei file di testo guarda dentro ad /etc/NetworkManager Questo non per obbligarti ad usare nm, ma solo per mostrarti che non è poi così brutto come lo dipingono :) +1
Re: ot system.d al rogo
Il 17/03/20 18:13, Marco Pirola ha scritto: Per quale motivo se tolgo il package network-manager e imposto in /etc/resolv.conf nameserver 8.8.8.8 non riesco a combina nulla? Tra l'altro ho installato bridge-utils con un interfaces adoc perfettamente funzionante con debian streatch; in debian buster o nelle prossime release stable c'e' ci saranno la possibilita' di scegliere il proprio inizializzatore di sistema? Grazie a tutti e una buona serata Buongiorno Marco, anche io non gradisco molto configurare la rete con NetworkManager anche se devo dire che non è poi cosi difficile da usare. So che distro come RHEL/CentOS lo hanno adottato di default al posto del vecchio servizio network-scripts. Ed è qui il bello di debian: hai sempre una scelta. Al di fuori di questo, hai disintallato il pacchetto network manager o lo hai solo disabilitato? Se lo hai solo disabilitato /etc/resolv.conf risulta essere un link ad un file di NM generato automaticamente, quindi rimuovi il link e ricrea il file. Se lo hai disinstallato prova a verificare con systemd se c'è un servizio tipo "networking" da abilitare (magari con la rimozione di NM non è stato riabilitato). Un consiglio che posso darti è quello di tirare su la rete un pezzo per volta per vedere dove c'è l'inghippo. Esempio: 1) tira su una scheda di rete configurata normalmente e vedi se riesci a comunicare con altri host in lan 2) verifica se riesci a contattare un host su internet senza risoluzione dns (tipo ping 8.8.8.8) 3) Configura il dns e verifica. 4) Aggiungi il bridge e fai altre verifiche e cosi via. Spero di esserti stato utile, per il momento non mi viene in mente altro. Un saluto, Alessandro.
[OT] Consiglio per backup
Salve ragazzi, devo mettere su un server di backup per un NAS con circa 1,5 TB e diversi server remoti (alcuni VPS e 2 dedicati) non troppi dati. Preferirei che il tutto sia centralizzato. Cosa mi consigliate? Grazie in anticipo.
Debian Buster e nftables
Un saluto a tutta la lista. Come da oggetto, sulla Buster si ha la possibilità di usare iptables ed nftables e, non ricordo dove l'ho letto, viene consigliato vivamente di usare quest'ultimo. Il passaggio delle regole iptables a nftables non è stato molto doloroso grazie ad alcuni tool che permettono di tradurre le regole iptables a nftables (anche se è meglio sempre controllare se sono state tradotte in maniera corretta, nel mio caso nessun problema perche è un set di regole molto semplice). Ho installato il pacchetto nftables per avere all'avvio di sistema il caricamento delle regole. Fin qui tutto bene. Ho provato anche partendo da zero ma il risultato è stato pessimo. Quindi, consapevole del fatto di dover studiare il nuovo sistema, mi sono messo a leggere un pò di documentazione per la creazione delle regole e anche se è molto simile ad iptables (correggetemi se sbaglio) ho notato un gran cambiamento nella sintassi e con tante nuove keyword. Qualcuno gia usa nftables? Quali sono le vostre sensazione su questo nuovo strumento? Grazie in anticipo, un saluto. Alessandro.
Messaggio di errore KVM
Un saluto a tutta la lista, ho una debian9.5 con diverse macchine virtuali su kvm + libvirt. Ho notato che quando avvio una macchina virtuale nel dmesg ottengo errori come questo: [ 6568.396936] kvm [14697]: vcpu0, guest rIP: 0xbac595e2 unhandled rdmsr: 0x64e L'unica cosa che ho trovato è che viene richiamata un'istruzione non supportata dalla cpu.. Le macchine virtuali sono comunque funzionanti. Devo considerare tale errore come grave? Grazie in anticipo.
Re: Sostituire disco LVM con GlusterFS
Il 20/08/2018 13:11, Marco Bertorello ha scritto: Buongiorno a tutti, ho due macchine identiche, rispettivamente con 1 disco SSD per OS e cache di LVM e 2 dischi da 3TB. Ho un solo VG, formato dai 2 dischi da 3TB e da una partizione dell'SSD : └─sda4 8:4 0 45.9G 0 part ├─VG01-LV01_cache_meta 253:0 0 8M 0 lvm ├─VG01-LV01_cache_cdata 253:3 0 40M 0 lvm │ └─VG01-LV01 253:6 0 5.5T 0 lvm /gluster/replicated └─VG01-LV01_cache_cmeta 253:4 0 8M 0 lvm └─VG01-LV01 253:6 0 5.5T 0 lvm /gluster/replicated sdb 8:16 0 2.7T 0 disk └─sdb1 8:17 0 2.7T 0 part └─VG01-LV01_corig 253:5 0 5.5T 0 lvm └─VG01-LV01 253:6 0 5.5T 0 lvm /gluster/replicated sdc 8:32 0 2.7T 0 disk └─sdc1 8:33 0 2.7T 0 part └─VG01-LV01_corig 253:5 0 5.5T 0 lvm └─VG01-LV01 253:6 0 5.5T 0 lvm /gluster/replicated Utilizzo GlusterFS per replicare (replica 3 con arbiter; l'arbiter è un raspberry) il volume tra i due nodi. Su una macchina, un disco (sdc) sta cominciando a dare errori SMARTe vorrei sostituirlo. Qual'è secondo voi la procedura migliore per evitare di perdere dati (va benissimo ricostruire dal nodo sano di gluster)? grazie molte, -- Marco Bertorello System Administrator Buongiorno Marco, premetto che non ho mai avuto una problematica del genere. Da quanto hai scritto non ci sono dischi in raid. Con il raid probabilmente avresti avuto meno problemi. Non avendo mai usato gluster in produzione ma solo in ambiente di test non mi ritengo un esperto. Nella tua configurazione hai un 2 + 1 (arbiter) quindi lo split-brain non avviene ed è un punto a tuo favore. Potresti degradare (scollegare dalla rete credo basti) il nodo (brick) di gluster dove hai il problema, sostituire il disco danneggiato (magari se hai abbastanza spazio sposta i dati sul disco rimanente del volume LVM) e poi ricollegare il brick a gluster in modo tale che il nodo master risincronizzi quello appena collegato. Durante questa operazione gluster dovrebbe comunque funzionare e garantire l'accesso ai dati. Penso che questo servizio sia funzionante in un'azienda per cui non stopperei tutte e due le macchine primo perche con gluster non avrebbe senso, se ha un problema su un host disattivare tutti gli host equivale ad avere solo un host. In secondo luogo lo eviterei per evitare, nel momento in cui riavvii gluster e nel caso in cui il primo brick sia desincronizzato rispetto al secondo, che si generino dei problemi nel mantenere i brick sincronizzati magari prende il brick meno aggiornato come master e rischi di perdere qualcosa. Prima di fare tutto, oltre al solito backup dei dati, magari fa qualche prova su macchine virtuali onde evitare disastri. Magari qualche utente con più esperienza potrà fornirti maggiori indicazioni. Un saluto.
Re: PARATIA LATERALE CASE...INFO
Il 29/07/2018 15:09, developermailist@Vincenzo Gianfelice ha scritto: Il 29 Luglio 2018 15:00:24 CEST, Luca Costantino ha scritto: I distanziali che reggono la schea madre di dovrebbero trovare anche più corti... Sono gia corti abbastanza... infatti gia con l attacco del dissippatore nel retro della mobo tocca sulla parte metallica del case... e ci va giusto giusto. Ci avevo gia pensato a queta cosa Purtroppo di pannelli pronti non credo ci siano. Se conosci qualcuno con una stampante 3D potresti provare a vedere se è fattibile. Oppure puoi modificare il pannello che hai, per esempio lo fai diventare con finestra e il pannello in plexi o altra plastica lo installi rialzato. Devi sempre trovare qualcuno che taglia il metallo. Su che cpu l'hai montato e che tipo di operazioni svolge? È overcloccato? Magari basta anche un dissipatore meno performante e quindi con dimensioni più ridotte. Il Cryorig R1 Ultimate è bello grosso come il Noctua NH-D15. Un saluto.
Re: PARATIA LATERALE CASE...INFO
Il Dom 29 Lug 2018, 13:15 developermailist@Vincenzo Gianfelice < developer.vincenzomail...@gmail.com> ha scritto: > Salve ragazzi...so che non é il posto adatto ma sto da piu di un mese cosi > e non so piu a chi altro chiedere. Nel mio paese e dintorni purtroppo gia > ho visto ma niente... ho chiesto anche ad alcuni su internet dato che > vedevo qualche loro video su youtube che lo avevano gia fatto, ma non ho > ricevuto risposta. Il mio problema é che avendo comprato il dissippatore > della cryorig r1 e montato in un case della cooler master n200, sporge > esattamente di 2-3 millimetri impedendomi appunto di chiudere la paratia > laterale correttamente. E per questo motivo stavo cercando qualcuno che > magari costruisce ( per professione o passione) dei case su misura. Se > qualcuno e disponibile(e dopo manderó le foto e dettagli) che si faccia > avanti. > > Grazie > -- > Inviato dal mio dispositivo con K-9 Mail. Perdonate non la brevità, ma la > prolissitá 樂. > > Se solo potreste vedere il mondo come lo vedo io Ciao Vincenzo, su che cpu l'hai installato? Magari, se sei ancora in tempo puoi recedere dall'acquisto e prenderne uno che entri nell' n200.
Re: Scheduler
Il 23/12/2017 08:40, valerio ha scritto: Il 23/12/2017 08:11, leo ha scritto: [...] impostare per i processi la politica FIFO. ?? ciao, in elettronica si riferisce alla memoria: lifo o fifo. ultimo ad entrare primo ad uscire, o primo ad entrare e primo ad uscire. o hai due porte o hai una porta sola... altro non saprei. valerio Ciao ciao leo In programmazione fanno riferimento a strutture come le code (FIFO) e stack (LIFO).
Re: [OT - FLAME END - riguardo il codice di condotta su questa ML] era [Live chat su cms]
Il 03/12/2016 20:12, Mario ha scritto: Perdonate se mi permetto di inserirmi in questo thread che ho letto con una certa amarezza. Per quello che può valere, concordo con Dario in tutto, nella forma e nella sostanza. Alessandro sembra continuare a non (voler) capire le regole basi di questa ML. Il danno lo fa soprattutto a sé. Ancora non risponde quotando come richiesto e ribatte come se non fosse abbastanza chiaro quanto da lui scritto. E vuole avere l'ultima parola. Scommetto che non resiste a rispondere... una birretta? ;) Spero che il tempo speso da Dario a rispolverare la filosofia e lo scopo di questa ML serva - ormai forse non in questo caso - almeno per i prossimi... Grazie, Dario, per l'impegno e l'onestà. Ovviamente il tutto IMHO. :) buona vita a tutti! Mario Ciao Mario, se permetti, quando vengo preso in causa rispondo, poi vedila come preferisci, ovviamente stai parlando per partito preso e le tue conclusioni non sembrano molto oggettive. Il tuo è solo un commento di repressione e non fai altro che favorire il comportamento che non vorremmo ci sia in lista. Fare una guerra punica per il quoting...può dare fastidio...ma.è una ml e si parla di quoting (qui nessuno ha offeso nessuno). Se non hai altro da pensare che al quoting forse la birretta (qualche litro) servirebbe a te. Ho gia "chiarito" con Dario in privato e non c'è modo che questa discussione vada avanti (salvo che altri vogliano dire la loro). Poi se lo stato della ML è arrivato su un livello persecutorio e oppressivo per cosi poco...(se questo errore è da considerare tanto, non oso immaginare il peggio)... Mi fa pensare al "Pannocchia" e agli amici del 39. Sono in lista dal 2009, non mi sono mai permesso e mai mi verrebbe in mente di fare spam e di creare problemi alla community. Quindi basta dire cagate, lo spam non era voluto. Tendo ad avere l'ultima parola in questo caso, in quanto la problematica è uscita da: 1. una mia richiesta 2. una risposta non apprezzata (non dal punto di vista tecnico) Se permetti (sempre se permetti) cerco solo di chiarire e bloccare questo pippone. Se per te, poi, non va bene
Re: [OT - FLAME END - riguardo il codice di condotta su questa ML] era [Live chat su cms]
Caro Dario, premetto che non ho niente contro di te e non sono qui a criticare le tue capacità tecniche (cosa che nessuno dovrebbe fare per questioni di umiltà e rispetto) pero permettimi di mostrare il mio disappunto. Se inizi a parlare di un utente in terza persona mentre gli rispondi, a paragonare un utente ad uno "scimpanzè", che in qualche modo va a degradare quel relativo utente (forse anche denigrare), è da considerare come un'offesa (ricevere un'offesa non consinste solo ricevere parole come "brutto figlio di". Se detto con parole consone "figlio di madre ignota" credo che abbia lo stesso significato, quindi per offesa ci si riferisce non solo al linguaggio usato ma al significato che vuoi attribuire a quelle parole, a quello che l'altra parte percepisce e sopratutto se è fatto di proposito). In seconda battuta, se rispondi aprendo un flame, non ha più senso rispondere a domande su specifiche e varie perche il flame trascende lo scopo della ML, e quindi non ha più senso, forse non sono io a non capire, il discorso si è spostato su un altro livello e da due mail, sto dimostrando il mio disappunto sul tuo comportamento. Inoltre, non capisco perchè continui a parlare di SPAM come se volessi pubblicizzare un prodotto o chissà quale scopo avessi (lo stai ingigantendo un pò), poi se vuoi rimanere fisso su questa cosa Sembra anche un pò esagerato dire che si reca offesa ai membri di debian-italian per non aver rispettato il regolamento della ML. In realtà con quello che ho scritto (anche se con formula errata) non mi sembra di aver offeso o in qualche modo degradato lo stato degli altri utenti e soprattutto il tuo. Forse è più corretto dire "non sei stato corretto rispetto agli altri utenti nell'osservare le canoniche regole di condotta della ml. Mettiti in linea con gli altri", ma non è quello che è successo. Concordo in pieno per la non tolleranza allo SPAM e sul rispetto delle regole della ML, e su questo sono stato abbastanza chiaro e lo ribadisco: nessuno vuole recare danno alla community, a debian, all'open source, al propositivo Max e a tutto il resto. Il non tollerarlo però non giustifica l'utilizzo di questo genere di "comportamenti". Non mi interessa che in molte altre liste accade di peggio, non dovrebbero proprio accadere questo tipo di discussioni (intendo il tuo tipo di flame). Bastava non essere offensivi e scrivere in altro modo e in un certo qual senso, è stato il tuo flame a "sporcare" la lista, in effetti senza il tuo flame non ci saremmo dilungati in questa "epopea". Inoltre, non è il caso di dire ad un membro della lista "se non ti stanno bene utenti come me, sei libero di rivolgerti altrove", perche si non ho rispettato il regolamento e accetto la critica, ma puo essere anche che il modo di fare che hai assunto in questa discussione (nella parte iniziale) non sia consono ed educato. In fondo, potrebbe essere il modo in cui ti relazioni a essere sbagliato oppure potrebbero essere gli altri utenti che non tollerano facilmente questo tipo di comportamenti. A questo punto, dato che la ml non è moderata, bisogna adattarsi sia da una parte che dall'altra, come io dovrò rispettare le linee guida della ml te dovrai imparare a relazionarti in maniera meno offensiva su questo tipo di eventi, perche altrimenti, e dico forse, dovresti essere te a rivolgerti altrove. Inoltre se ad ogni utente che arriva o che in qualche modo fa qualcosa che non dovrebbe fare, inizio ad attribuirgli appellativi o parole poco educate (non il tuo caso), tutti i buoni propositi delle regole e il resto sono aria fritta. Io apprezzo i tuoi consigli, ma permettimi di dartene uno: invece di violare ulteriormente il regolamento aprendo un flame, cerca di dare il buono esempio su come rispettarlo (ed è ben diverso quello che hai fatto). Comunque, concordo con te nel chiudere questa discussione e spero finisca qui. Ora stiamo veramente sporcando la ml con argomenti poco pertinenti. Per quanto riguarda la problematica riporta all'inizio, mi farò vivo al momento giusto con le modalità corrette. Il 03/12/2016 14:03, Dario ha scritto: Il 03/12/2016 09:31, Alessandro Baggi ha scritto: Spero che questo episodio, possa far anche riflettere (oltre a me per lo spam) anche ad altri per le modalità che alcuni usano sentendosi chissa chi o cosa. Alessandro per quanto mi riguarda la chiudo qui, inutile parlare con un muro di gomma (aggiungilo alle "offese" come le chiami te). Questo thread è "PATTUMIERA-SPAM". Per non so quante volte ti ho invitato a riportare le tue reali esigenze, a cui non hai mai risposto. Ti ho anche chiesto se hai valutato alternative opensource, e non hai risposto. E per l'ennesima, ti invito a leggere [1]. Alessandro> Vi siete scagliati Puoi aspettarti anche di peggio. Il tuo non è "un semplice errore". Prova
[OT] Re: Live chat su cms [Risposta inerente a Live chat + OT riguardo il codice di condotta su questa ML]
Buongiorno Dario, ripeto, avrò espresso male il concetto e ok, avrò fatto "spam" senza volerlo e ok, ma non giustifica la tua "rappresaglia" e la modalità in cui hai affrontato in seguito la discussione, offendendo deliberatamente (non mi sembra coerente offendere deliberatamente e poi chiedere scusa). Nella tua prima risposta, credevo che ne sarebbe uscito qualcosa di produttivo per il mio caso, considerato anche il valore delle risposte che si ottengono su questa ML (un valore aggiunto). Non cercare di gistuficare la tua seconda risposta, che definirei quasi "persecutoria" e offensiva, con un era "doveroso". Era doveroso rispondere (per difendere il software libero e forse anche debian se hai percepito dei pericoli) ma con toni che sempre ho letto su debian-italian e non il tuo (relativo alla tua risposta), semplicemente senza scrivere tutta quel poema, e offendere in primo luogo (senza rispettare le regole della ML) e semplicemente scrivere: "Questa lista è dedicata a debian: 1) Leggi il regolamento; 2) Non parliamo di prodotti proprietari come nel tuo caso. 3) Se vuoi un aiuto, spiegati meglio e dacci più specifiche." Hai preferito lo scontro. Credo anche che il tono di risposta che hai usato sia stato scatenato da "SLACKWARE" e da il nome di un prodotto (SPAM). Ripeto troppo esagerato. Io posso esprimere un parere, anche sbagliato per chi legge, questo non ti da il diritto di scrivere cosi. Se non vieni offeso non offendere, non mi conosci e se non hai elementi chiari non fare azzardi. Dal momento in cui hai iniziato la seconda mail, il topic (gia scarico di contenuti) ha perso del tutto il suo interesse privando tutta la ml del valore aggiunto che una tua risposta senza flame poteva dare. In questo momento, non mi intereressa della live chat, dell'off topic o di qualsiasi altra cosa tecnica. Rimango basito del fatto di queste reazioni su questa ml per aver riportato semplicemente il prodotto che stavo provando e non scelto (non per niente ho scritto "ora è tutto in stallo" e nessuno ha detto che ho escluso quanto riportato da Max) Il 03/12/2016 02:51, Marco Bodrato ha scritto: > Scuse accettate, dando per scontato che implichino il classico "non lo > farò più". Forse mi sembra un pò troppo impositivo. Vi siete scagliati su di me, perche ho fatto spam (figurati che spam), spiattelando la motivazione che la gente spende del tempo sulla ml, ripeto se il topic è offtopic, e ritenete che è tempo perso o di non voler rispondere, non fatelo, cancellatela, lasciatela li morta. Non serve agire come ha fatto Dario. Avete "condannato" un utente per questa CAZZATA, ma non si fa cenno ai flame e alle offese semplicemente per...? Bo, non so per cosa, spero che oltre al mio "NON LO FARO PIÙ", si prenda anche in considerazione le errate modalità che A VOLTE si intraprendono per rispondere in questa lista (perche realmente non ho offeso Dario) e che questo modo di fare non diventi parte dello spirito della ML. Per come la vedo io, tecnicamente o non, quando rispondi in quella maniera, tutto quello che scrivi non ha più valore. Spero che questo episodio, possa far anche riflettere (oltre a me per lo spam) anche ad altri per le modalità che alcuni usano sentendosi chissa chi o cosa. Il 03/12/2016 00:27, Dario ha scritto: Il 02/12/2016 14:31, Alessandro Baggi ha scritto: Io credo che sei andato troppo oltre (sprecando risorse :D) Chiedevo solo un consiglio, come molti altri in ML e a volte anche con link riportati. Concordo pienamente sul fatto dello OT, SPAM (non era mia intenzione) e della regole di condotta in ML e chiedo scusa per il "disagio". Alessandro era facilmente prevedibile il contenuto di una tua replica. "L'andare oltre", usando le tue parole, era doveroso. Chi si identifica come proveniente da ambiente "Slackware" a onor di logica dovrebbe sposare quanto meno il software libero. La tua "era" una semplice richiesta fino a quando non hai replicato insinuando che la "migliore soluzione", quella più "papabile/spendibile" era una a pagamento e proprietaria, etichettando un'alternativa di software libero che ti hanno proposto come improponibile e troppo costosa. Se non te ne sei accorto, indirettamente hai messo sotto esame una soluzione software libero come "improponibile". Ora capisci l'animosità nel risponderti? Spero di si. Non hai dato né le tue reali esigenze, né tempo materiale agli iscritti in lista per proporti alternative opensource, o esprimersi al riguardo. Hai bloccato qualsiasi proseguo affermando che "tutto è fermo" più in là si vedrà, dopo quante ore dal tuo primo messaggio? Vabè lasciamo perdere. Il fatto che hai capito, di per se, mi soddisfa per il tempo che ho speso a farti capire. Rammenta che questa ML ha lettura da persone che lavor
Re: Live chat su cms [Risposta inerente a Live chat + OT riguardo il codice di condotta su questa ML]
Io credo che sei andato troppo oltre (sprecando risorse :D) Chiedevo solo un consiglio, come molti altri in ML e a volte anche con link riportati. Concordo pienamente sul fatto dello OT, SPAM (non era mia intenzione) e della regole di condotta in ML e chiedo scusa per il "disagio". Hai detto che stai perdendo tempo e che non ha utilità. Perche l'hai fatto? Hai perso veramente del tempo e non ha nessuna utilità (oltre alla parte finale). Quindi mi chiedo: perche? Se per spam consideri riportare il nome di un prodotto, che ho riportato per far capire quale è...dai...se scrivi ms fai spam, se scrivi rh fai spam, se scrivi ogni parola di un prodotto fai spam...è esagerato. Considerei più spam se avessi piantato i link dei due prodotti e non solo il nome. Se scrivessi "sto usando un software per una live chat che si appoggia su un servizio esterno, avete esperienze in merito? lo conoscete gia quello che sto provando?" Mi dici che come faccio ad avere un riscontro senza specificare info sul prodotto? Poi vabbe, se hai necessità di sfogarti, fatti una corsa. Vedo che rispondi anche con molto accanimento, offensivo e anche (da un certo punto di vista) sbruffone. Scrivi, scrivi per far vedere cosa? Scrivere una email cosi lunga solo per smerdare qualcuno è tutto tempo sprecato, piuttosto da dei consigli senza fare un processo..credo che hai altro di meglio da fare. > Con questo che voglio dire? Che sono più bravo? Assolutamente no. Io credo che la tua risposta (per intero), risponda in pieno a quello che hai scritto sopra. Può darsi che abbia riportato informazioni parziali sulla mia necessità, ricorda ho chiesto solo un consiglio (può succedere di non riportare tutto). Chi avesse voluto aiutare veramente, lo avrebbe potuto chiedere. Altro fatto importante. Che senso ha fare quello che hai fatto, quando realmente potevi ignorare/cancellare il messaggio e chiedere agli admin, dato che non ho rispettato il regolamento, di cancellarmi direttamente? O meglio perche non hai dato consigli per aiutarmi a gestire questa cosa invece di accanirti per una cappelata? Ps ricordati che è una ML. Ho visto che fai riferimento sempre alla pubblicità. Ho avuto veramente esperienza di manager che per evitare di gestire alcune cose sono andati in outsourcing. Poi ti permetti di commentare discorsi sulla banda, hardware ecc..senza sapere niente della situazione. Se non hai riferimenti per sparlare, chiedili e non inventarli. Parlavo di portare tutto in casa e non solo il servizio di chat live. Io non so cos'altro dirti, hai parlato tanto, hai perso tempo che non volevi perdere (ragionamento a prova di scimpanzè), hai offeso e hai fatto la tua figura. Spero che almeno questo ti abbia dato soddisfazione. Ah, ps il compilare il monitor era una battuta, e non si riferiva a compilare il firmware. Se avessi avuto intenzione di dire una cosa del genere non avrei detto solo monitor. Dato che un monitor (fisico) non può essere compilato (o tu l'hai fatto?), e data l'insensatezza della cosa, credevo che potessi anche intendere (data l'esperienza passata con slackware) che sono abituato a dover fare le cose da me. Ripeto ho chiesto solo consiglio in lista e le esperienze degli altri. Credo che questo polverone alzato da Dario, possa essere messo a tacere (almeno da parte mia) e continuare con l'affrontare il "topic" con scopi costruttivi. Il 02/12/2016 01:23, Dario ha scritto: Il 30/11/2016 11:45, Alessandro Baggi ha scritto: Ciao Dario, la problematica sono i costi. Prima di risponderti con questa corposa email, mi sono posto la domanda: Ma cosa mi importa? E di che utilità potrà essere in lista la mia replica? Risposta: nessuna. E allora che rispondo a fare? Me lo sto ancora chiedendo mentre premo "invia". Ci dimentichiamo spesso, mi includo per non fare parzialità, che il tempo altrui ha valore. Scrivere in una ML comporta non solo dispendio di risorse, sopratutto di tempo altrui. Onde evitare di consumare vista e tempo altrui, invito chi ha interesse strettamente limitato all'oggetto di questo thread, ad accomodarsi direttamente in fondo, nella sezione *LINK*, saltando a pièpari tutto il resto. "Uomo/Donna avvisato/a .." --- INIZIO OT --- La ML Debian dedicata agli utenti italiani ha delle finalità https://www.debian.org/MailingLists/index.it.html: " Si è tutti incoraggiati ad aiutare lo sviluppo di Debian e a diffondere la parola del software libero. " Nella sezione "Codice di condotta" si elencano diverse voci, tra le quali: * Le liste di messaggi esistono per favorire lo sviluppo e l'uso di Debian. L'invio di messaggi fuori tema o non costruttivi, così come qualsiasi altro tipo di abuso non sono i benvenuti. * Non inviare spam; ... * Ci si assicuri di utilizzare la lista corretta. * Non inviare mai i messaggi in HTML; si usi testo semplice piuttosto. * Quando si rispo
Re: Live chat su cms
Il 29/11/2016 16:04, Dario ha scritto: Il 28/11/2016 17:07, Alessandro Baggi ha scritto: Ora zopin offre il servizio in varie modalità...supponendo di scegliere quello a 14 $ al mese (168 annui), perche un utente dovrebbe andare a comprare metallo o affitare risorse su un cloud, prendere un dedicato quando gia solo per ottenere le risorse hardware spendi molto di più? Poi mettici altri costi come il tecnico, la licenza (se presente), se hai hardware tuo devi calcolare i danneggiamenti dei componenti, l'energia consumata, la banda, se vai in housing ti ammazzano, se prendi un dedicato costa sempre di più rispetto al piano scelto... Da un punto di vista economico ho le mani legate Alessandro penso tu abbia già fatto una stima di costi per le "risorse hardware" che ti servirebbero giusto? A quanto ammontano le spese che hai preventivato? E a quanto ammontano le risorse richieste in termini di CPU-HDD-RAM-Banda? Prendendo il tuo esempio, 168 dollari annui, sicuro che non ci sono alternative migliori? Ti pongo queste domande perché molte volte si ha la tendenza a dare per scontato determinati assunti senza nemmeno essersi accertati realmente dei costi. Poi magari hai ragione te, ma avere delle stime può tornare utile magari ad altri che leggeranno in lista, visto che in teoria dovremmo parlare per lo meno di un mondo che ruota intorno a Debian, dove un utente medio di Debian cerca di "fare da se" ed essere più "smart" piuttosto che cercare servizi "già pronti". Il 28/11/2016 15:31, maxlinux duemila ha scritto: cmq vedi tu... ma se vuoi pagare qualcuno, allora ti faccio la stessa offerta e ti monto una live chat allo stesso prezzo :D :D Max si è offerto di fornirti lui la stessa identica soluzione agli stessi costi. Perché pagare azienda estera in dollari, quando puoi pagare in euro stesso servizio, favorendo imprenditore italiano? :-D Ciao Dario, la problematica sono i costi. Se passiamo il servizio in sede...solo per la banda superiamo di molto i 168$ annui. Ovviamente passeremo tutto il parco in casa ma aumentano anche i costi per l'hw (impensabile per lo stato attuale). Se pensiamo a un dedicato, superiamo di molto i 168 annui. Se pensiamo ad un vps decente (da 10 al mese su netsons o 13 su aruba, relativamente 120 o 156 annui) siamo quasi allo stesso prezzo e aumentano i costi di gestione per il personale (tecnico e operatore). Se pensiamo al servizio di zopin, sono 168 annui e l'operatore. Dal punto di vista di un manager (non informatico) è la soluzione più semplice da gestire. Paghi -> usi e non la deve gestire dal punto di vista informatico (cosa che occupa risorse umane, quindi tempo, quindi soldi). Non credo serva un prospetto (quasi si vede ad occhio). Sai quante volte ho proposto in un ambiente molto più grande (con molti fondi a disposizione) da dipendente, soluzioni interne con costi relativamente bassi usando debian con tanto di progetti, stime e costi (solo il costo del dipendente che lavora...in termini di tempo) e mi è stato detto di no perche preferivano gestirlo da fuori per non avere la rogna di doverlo gestire? Mi ci sono battuto ma alla fine puoi dirgli quello che vuoi e non cambia nulla. So che è un discorso del piffero ma purtroppo a volte è cosi. Il discorso è semplice, non comando io. > visto che in teoria > dovremmo parlare per lo meno di un mondo che ruota intorno a Debian, > dove un utente medio di Debian cerca di "fare da se" ed essere più > "smart" piuttosto che cercare servizi "già pronti". Io vengo da ambiente Slackware e se fosse per me compilerei anche il monitor se possibile. Purtroppo non sempre si è liberi di fare quello che si deve (anche se è la cosa giusta). Cmq per il momento è tutto fermo in quanto ci sono altre priorità, poi si vedrà come evolverà la situazione. Alessandro.
Re: Live chat su cms
Il 28/11/2016 15:31, maxlinux duemila ha scritto: il belo di rocket.chat è che puoi farti un server tuo, creare una app android, collegarla al tuo server, e quando un cliente si collega alla live chat, ti arriva un messaggio push al cellulare e tu puoi rispondere da li. Cosí non devi stare per forza davandto al computer e puoi andare a "lavorare" nel bar mentre ti prendi una birra :) Inoltre R.C. lo puoi usare come una chat interna per l'impresa. cmq vedi tu... ma se vuoi pagare qualcuno, allora ti faccio la stessa offerta e ti monto una live chat allo stesso prezzo :D :D ciao MaX On 28/11/2016, Alessandro Baggi <alessandro.ba...@gmail.com> wrote: Grazie Max. A chi può interessare, ho trovato un altro fornitore il cui prodotto si chiama zendesk chat (zopin) che è fatto veramente bene e i costi non sono alti. hehe Max, non me ne volere ma l problema è che ci servirebbe una macchina nuova per questa cosa in quanto il server attuale è intoccabile. Il costo di una qualsiasi altra soluzione (discreta) in casa, costerebbe più del canone annuale per il servizio e se il gioco non vale la candela è difficile far uscire i mezzi per procedere. Non mi va nemmeno di far spendere bei soldi per un qualcosa di cui si dovrà verificare la reale efficacia (parlo dell'e-commerce), quindi per il momento: 1) la live chat è in stallo; 2) se dovesse essere, l'investimento per quel tipo di servizio è ridotto dato il suo costo. In caso di "malasorte" la perdita sarabbe esigua. 3) Se tutto funzionerà come deve, allora potremmo pensare di usare altri tipi di strumenti. Purtroppo con tutti questi servizi (cloud e amici), se non parliamo di cose grosse, la gente passa direttamente per quei servizi senza dover affittare risorse o acquistarle, o acquistare software che garantiscono un qualcosa ecc... Ora zopin offre il servizio in varie modalità...supponendo di scegliere quello a 14 $ al mese (168 annui), perche un utente dovrebbe andare a comprare metallo o affitare risorse su un cloud, prendere un dedicato quando gia solo per ottenere le risorse hardware spendi molto di più? Poi mettici altri costi come il tecnico, la licenza (se presente), se hai hardware tuo devi calcolare i danneggiamenti dei componenti, l'energia consumata, la banda, se vai in housing ti ammazzano, se prendi un dedicato costa sempre di più rispetto al piano scelto... Da un punto di vista economico ho le mani legate
Re: Live chat su cms
Grazie Max. A chi può interessare, ho trovato un altro fornitore il cui prodotto si chiama zendesk chat (zopin) che è fatto veramente bene e i costi non sono alti. Lo sto provando e non è male. Il 28/11/2016 12:43, maxlinux duemila ha scritto: Rocket.chat fa al tuo caso Ciao, MaX El 28 nov. 2016 12:34 p. m., "Alessandro Baggi" <alessandro.ba...@gmail.com <mailto:alessandro.ba...@gmail.com>> escribió: Buongiorno ragazzi, mi servirebbe inserire su un sito di e-commerce una chat live per i clienti. Al momento sto provando il servizio di "provide support". Funziona bene, è personalizzabile. Qualcuno lo conosce e ha avuto esperienze? Un problema che ho riscontrato è che, dato che il portale supporta multilingue, il servizio che sto provando non integra la gestione di multiple lingue, ma permette di tradurre tutte le label nella lingua desiderata. Quindi servirebbe anche la possibilità di gestire le multilingue. Avete altri suggerimenti sia per soluzioni di servizi esterni, sia da integrare direttamente sul server? Grazie in anticipo. Alessandro.
Live chat su cms
Buongiorno ragazzi, mi servirebbe inserire su un sito di e-commerce una chat live per i clienti. Al momento sto provando il servizio di "provide support". Funziona bene, è personalizzabile. Qualcuno lo conosce e ha avuto esperienze? Un problema che ho riscontrato è che, dato che il portale supporta multilingue, il servizio che sto provando non integra la gestione di multiple lingue, ma permette di tradurre tutte le label nella lingua desiderata. Quindi servirebbe anche la possibilità di gestire le multilingue. Avete altri suggerimenti sia per soluzioni di servizi esterni, sia da integrare direttamente sul server? Grazie in anticipo. Alessandro.
Re: SSL e CSR
Il 18/11/2016 17:12, Luca De Andreis ha scritto: Il 18 novembre 2016 17:07:46 CET, Alessandro Baggi <alessandro.ba...@gmail.com> ha scritto: Salve ragazzi, sono in contatto con una società per ottenere dei certificati SSL per apache. Mi è stato richiesto di inviare (testo) oltre alla documentazione richiesta la "chiave CSR( in formato txt)". Ho già creato diverse volte dei certificati self-signed / signed ma durante queste procedure ho sempre visto il formato pem e "in formato txt" mi ha rincoglionito. Ora io non capisco cosa intende con "in formato txt". Quando genero la csr con: openssl req -new -key server.key -out server.csr genera il file server.csr con al suo interno le informazioni hash/pem del csr. Chiedo informazioni riguardo al "formato txt" e mi risponde, che devo "esportare il csr su un file di testo con chiave di nbit". Di solito, durante la creazione di altri certificati per scopi di test, io prendo la csr cosi come generata e genero il certificato usando il certificato della CA e la chiave della CA. Ora, con "in formato txt" intende un semplice file tipo server.csr con dentro la csr in formato pem oppure vuole un file tipo server_csr.txt oppure vuole l'output di " openssl req -text -noout -in server.csr" (ha senso? bha)? Oppure intende un file non compresso? Oppure cosa? Cmq sono andato sul sito della società dove spiegano la loro procedura con la relativa documentazione riguardo la creazione della csr ma...ripeto: non capisco che vuole. Bho, sarò diventato rincoglionito ma non capisco cosa vuole. Non basta inviare direttamente il server.csr? Che ne pensate? Secondo me non devi preoccuparti di nulla. Generi la tua chiave privata a 2048 bit, quindi generi da questa il csr. Semplicemente vorranno dire che è un file di testo (vabbè). Quanto hai scritto è corretto. Ciao Luca Ciao Luca, grazie per la risposta. Ragionamento del venerdi sera: secondo wikipedia un file di testo contiene "testo immediatamente comprensibile a un essere umano"quindi un csr non dovrebbe essere considerato un file di testo perche non si capisce in prima battuta cosa contiene (oltre a lettere e numeri (ps quelle lettere e numeri hanno ,singolarmente e in serie, un significato)). Se per file di testo significa avere file i cui valori sono tradotti a schermo in simboli, numeri e caratteri, dove ognuno dei quali ha un significato, allora sono tutti file di testo. Il 90% dei file li apro con vim, quindi sono tutti file di testo, anzi il file di testo non esiste affatto, è solo un formato per il maledetto notepad. Buon fine settimana a tutti.
SSL e CSR
Salve ragazzi, sono in contatto con una società per ottenere dei certificati SSL per apache. Mi è stato richiesto di inviare (testo) oltre alla documentazione richiesta la "chiave CSR( in formato txt)". Ho già creato diverse volte dei certificati self-signed / signed ma durante queste procedure ho sempre visto il formato pem e "in formato txt" mi ha rincoglionito. Ora io non capisco cosa intende con "in formato txt". Quando genero la csr con: openssl req -new -key server.key -out server.csr genera il file server.csr con al suo interno le informazioni hash/pem del csr. Chiedo informazioni riguardo al "formato txt" e mi risponde, che devo "esportare il csr su un file di testo con chiave di nbit". Di solito, durante la creazione di altri certificati per scopi di test, io prendo la csr cosi come generata e genero il certificato usando il certificato della CA e la chiave della CA. Ora, con "in formato txt" intende un semplice file tipo server.csr con dentro la csr in formato pem oppure vuole un file tipo server_csr.txt oppure vuole l'output di " openssl req -text -noout -in server.csr" (ha senso? bha)? Oppure intende un file non compresso? Oppure cosa? Cmq sono andato sul sito della società dove spiegano la loro procedura con la relativa documentazione riguardo la creazione della csr ma...ripeto: non capisco che vuole. Bho, sarò diventato rincoglionito ma non capisco cosa vuole. Non basta inviare direttamente il server.csr? Che ne pensate?
Re: RAID10 software
Il 16/11/2016 16:27, Luca De Andreis ha scritto: Il 16 novembre 2016 16:14:26 CET, Mario Vittorio Guenziha scritto: Il 16/11/2016 16:06, Piviul ha scritto: stefano gozzi ha scritto il 16/11/2016 alle 15:56: RAID10 con due dischi è tecnicamente impossibile. Con due dischi puoi solo RAID0 (striping, solo uso desktop ovviamente) o RAID1 (mirroring). beh se leggi l'articolo che ho postato consiglia, per questioni di performance, il RAID 10 facendo 2 partizioni ma scusa un po se un disco va a $escort secondo te lo fa per partizioni? No, ma se le due partizioni sono l'equivalente del disco 1 della coppia 1 e 2 e le due partizioni sul secondo disco l'equivalente del disco 2 della coppia 1 e 2, va bene lo stesso. Lo trovo eccessivo, mentalmente frustrante Fai un raid 1! Ciao Luca e se vuoi prestazioni usa ssd sata o m.2.
Re: RAID10 software
Il 16/11/2016 16:09, Mario Vittorio Guenzi ha scritto: Il 16/11/2016 15:51, Piviul ha scritto: Luca De Andreis ha scritto il 16/11/2016 alle 15:27: No, uso RAID10 hardware, ma il succo non cambia. Con 2 dischi fai solo RAID1. Se hai 4,6,8,10,12.. dischi puoi fare RAID10. veramente qui[¹] mi sembra di capire che affermi che conviene sempre RAID10 (con qualch epiccolo accorgimento), anche con 2 dischi... Piviul [¹] https://blog.a2o.si/2014/09/07/linux-software-raid-why-you-should-always-use-raid-10-instead-of-raid-1/ Qualcosa non mi torna o forse non ho capito bene leggendo. raid 10 e' in soldoni un raid 0 di n raid 1 o se preferiamo e' uno stripping di mirroring. quindi se non sbaglio a contare il minimo possibile sara' 4 dischi in 2 volumi raid 1 e quindi un unico volume che comprende i 2 volumi precedenti. Quindi o io non capito un piffero (possibile) o questo signore mi deve spiegare come fa con 2 dischi a fare un raid 10 È un raid software che richiede almeno una partizione per ogni disco che utilizzi. Se crei più partizioni puoi farlo. in poche parole: sda -> sda1 e sda2 sdb -> sdb1 e sdb2 quindi il mirror avviene tra sda1 e sdb1 e tra sda2 e sdb2 e su questi due mirror crea lo stripe. Come dici te, ne servono 4 per garantire una giusta ridondanza e prestazioni ma nel caso citato un raid10 con 2 dischi è possibile l'importante è non avere i device del mirror sullo stesso disco. Il problema è che fare un RAID10 su due dischi per ottenere prestazioni più elevate ormai è quasi inutile (senza considerare la vera utilità del RAID), ci sono unità ssd molto performanti. Un saluto.
Re: RAID in pericolo...
Il 15/11/2016 23:48, Gollum1 ha scritto: Il 15 novembre 2016 23:12, Vincenzo Villaha scritto: Il giorno mar, 15/11/2016 alle 21.33 +0100, Gollum1 ha scritto: Ho un grosso problema, più di due anni fa, avevo realizzato una macchina con un disco di sistema e 4 dischi da 2 TB in raid 5. ho errori sull'intera struttura RAID, più di un disco presentano problemi Mi insospettisce il fatto che più di un disco ha problemi, e (mi sembra di capire) il tutto si è manifestato contemporaneamente. Non potrebbe essere altro ad avere problemi? Nello specifico l'alimentatore. Prima di fare lunghi esperimenti che mettono a rischio i dati e stressano i dischi, proverei a cambiare l'alimentatore, soprattutto se non di tipo server-grade o più vecchio di due anni. [ovviamente la cosa deriva da una mia esperienza recente sul mio serverino casalingo 3 x 1.5TB, debian stable: problemi di I/O + continue segnalazioni smart su tutti i dischi. Cambiare alimentatore e risolvere tutto è stata una sola cosa. Ora i dischi vanno che è una favola, da due mesi...] A questo non avevo pensato. Domani ci provo... grazie per l'informazione, speriamo che sia effettivamente questo... almeno mi salvo i dati.. .:D Tnx Ciao Gollum1, non hai un backup efficaci del dataset? Effettui dei backup? Alessandro,
Re: Problemi pc All in One con Linux
Il 24/10/2016 14:55, gino ha scritto: Ringrazio delle risposte di gerlos, alessandro e altri. Parto da qui perché non riuscivo a rispondere direttamente alle risposte ricevute. Il problema di Woindows 10 è stato risolto. Bisognava scaricare da Asus i driver audio ed installarli. Per linux è un disastro: niente funziona, nessuna distro. Adesso quando metto un DVD nel lettore non parte più niente. In alto a sinistra del monitor, tutto scuro, appare una lineetta che continua a tremolare e basta, tutto qui. Da pennetta inizialmente Ubuntu 16.04 parte bene fino alla scelta di lanciare Live o l’installazione e poi si blocca e appare sul lato sinistro in alto quella famosa lineetta che lampeggia intermettente e devo chiudere il computer. Non so esattamente cosa fare. Qui sotto descrivo le caratteristiche di questo ALL IN ONE, che mi sono state richieste: Asus V230ICGK-BC099X; Processore Intel i5-6400T; RAM 8GB; Hars Disk 1TB SSD; Grafica NVIDIA GeFor ce GT930M con 2 GB dedicati; Wifi 802.11n (a/c); Bluetooth 4.0; Gigabit LAN; DVD-RW; Schermo 23” FullHD 1920x1080; 4xUSB3.0 2xUSB 3.1 CardReader; Mouse e tastiera. Ringrazio della vostra attenzione. Gino. Ciao Gino, so che me ne vorranno, ma hai provato ad avviare la chiavetta con Ubuntu o una live su un altro sistema? Come si comporta?. Se su un altro sistema parte, la chiavetta e la iso vanno bene. Da quello che ho capito hai giocato un po con UEFI. Per prima cosa entra in EUFI e resetta la configurazione. Successivamente, trova la sezione relativa al Secure Boot e attivalo per "Other OS". Salva. Collega la chiavetta e riavvia. Al riavvio rientra di nuovo in EUFI e seleziona tra i dispositivi avviabili la chiavetta in questione ma con la dicitura EUFI. Mi capitò, con la prima macchina uefi e avviando con legacy si bloccava tutto. Oltre a questo, sembra che la macchina funzioni anche perche l'innominabile ci gira. Ora, tutte le distro sotto la 4.8 non supportano a pieno skylake e i relativi chipset, ma questo non significa che non riescano ad avviarsi. Magari avrai problemi sulla gestione energetica o sulla iGPU o il wifi e l'interfaccia di rete, ma la macchina con l'os si deve avviare. Io ho installato su una z170 sia debian (con problemi con intel hd530, ma funziona bene) che una centos (abilitando i915.preliminary_mode=1) e funziona senza problemi. Alessandro.
Re: Problemi vari con All in ONE Asus
Il 24/10/2016 11:42, gino ha scritto: Porgo i miei saluti a tutti. Ho bisogno dei vostri consigli da esperti quali siete. Ho acquisito due giorni fa un pc ALL IN ONE Asus con queste caratteristiche: Processore Intel I5-6400T; Ram 8GB; Har Disk I TB SSD; Grafica NVIDIA GeForce GT930M con 2 GB dedicati; Wifi 802.11n (a/c); Bluetooh 4.0; Gigabit Lan; DVD-RW; Schermo LED 23”; Ecc.ecc.Usb, CardReader, mouse e tastiera; FullHD 1920x1080. Sono sorpreso e deluso per alcune per alcuni problemi . Alcuni li ho risolti. Ma questi non sono riuscito: Audio assente totalmente su windows 10, nessuna distribuzione linux, provate, funzionano! Mi avevano detto che questo computer era compatibile con linux! Tipo Debian 8 parte, mi chiede se voglio la Live oppure l’installazione. Lancio la Live..sembra che si avvia..ma dopo un po’ si blocca e non succede più niente”! Così dicasi con Ubuntu 16.04, Rosa R8, ecc. Forse devo fare qualcosa di opportuno per fare l’installazione di linux? Non so cosa fare. Sono entrato nel Bios e ho disattivato “secure boot” (altrimenti non partiva neanche Windows 10). Cosi ho anche disattivato UEFI. Io non voglio stare con un computer dove linux non funziona!...Altrimenti tornerei a un altro computer tradizionale, sui quali ho sempre installato varie distro linux. Mi sapete dare qualche consiglio in merito? Io non mi sento esperto in materia. Chiedo scusa della lunga esposizione.., ma è dovuta alla grande delusione in atto. Gino. Ciao Gino, servirebbero gli errori di boot che debian riporta durante l'avvio della live. Se hai disabilitato EUFI, devi avviare in modalità legacy per la live, viceversa UEFI se uefi è abilitato. Hai detto che hai provato anche ad avviare Ubuntu ma si blocca. Consideriamo per un momento solo Windows 10 che si avvia. Si avvia ma non funziona l'audio. Ma l'AIO ha delle casse incluse? Se si, funzionano? Hai provato con le cuffie? La scheda audio è abilitata nel "BIOS". Per debian avvia l'installer senza GUI, magari riesci ad avere più info. Ripeto, servono gli errori che ricevi durante l'avvio. Alessandro.
Il disco sta partendo?
Salve ragazzi, vi riporto qualche dato smart: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x000f 100 100 050Pre-fail Always - 0/4754882 5 Retired_Block_Count 0x0033 100 100 003Pre-fail Always - 0 9 Power_On_Hours_and_Msec 0x0032 000 000 000Old_age Always - 17337h+11m+24.440s 12 Power_Cycle_Count 0x0032 099 099 000Old_age Always - 1965 171 Program_Fail_Count 0x0032 000 000 000Old_age Always - 0 172 Erase_Fail_Count0x0032 000 000 000Old_age Always - 0 174 Unexpect_Power_Loss_Ct 0x0030 000 000 000Old_age Offline - 780 177 Wear_Range_Delta0x 000 000 000Old_age Offline - 3 181 Program_Fail_Count 0x0032 000 000 000Old_age Always - 0 182 Erase_Fail_Count0x0032 000 000 000Old_age Always - 0 187 Reported_Uncorrect 0x0032 100 100 000Old_age Always - 0 194 Temperature_Celsius 0x0022 033 042 000Old_age Always - 33 (Min/Max 15/42) 195 ECC_Uncorr_Error_Count 0x001c 120 120 000Old_age Offline - 0/4754882 196 Reallocated_Event_Count 0x0033 100 100 003Pre-fail Always - 0 201 Unc_Soft_Read_Err_Rate 0x001c 120 120 000Old_age Offline - 0/4754882 204 Soft_ECC_Correct_Rate 0x001c 120 120 000Old_age Offline - 0/4754882 230 Life_Curve_Status 0x0013 100 100 000Pre-fail Always - 100 231 SSD_Life_Left 0x0013 100 100 010Pre-fail Always - 0 233 SandForce_Internal 0x 000 000 000Old_age Offline - 6585 234 SandForce_Internal 0x0032 000 000 000Old_age Always - 6885 241 Lifetime_Writes_GiB 0x0032 000 000 000Old_age Always - 6885 242 Lifetime_Reads_GiB 0x0032 000 000 000Old_age Always - 6244 É di un corsair force gt da 120Gb. Che ne pensate?
Re: LVM e guasti
Il 14/10/2016 12:15, Gian Uberto Lauri ha scritto: "AB" == Alessandro Baggi <alessandro.ba...@gmail.com> writes: AB> Mi è gia capitato di dover spostare due dischi in raid con mdadm AB> da una macchina all'altra e all'avvio tutto viene visto. Con LVM è AB> la stessa cosa oppure bisogna eseguire qualche altra operazione? Un disco rimovibile è un problema analogo. vgscan ed una volta che i logical volumes sono noti al sistema puoi montarli. Grazie ragazzi per le info. Appena posso farò qualche prova. Un saluto.
LVM e guasti
Salve ragazzi, sto studiando lvm, ho creato dei volumi su un raid software in mirror. Tutto funziona molto bene e soprattutto LVM è fenomenale. Ora mi sto ponendo un problema. Cosa succede se la macchina si guasta? Lasciando stare i backup, cosa succede se io prendo i due dischi in lvm + raid1 e li collego ad un'altra macchina? Mi è gia capitato di dover spostare due dischi in raid con mdadm da una macchina all'altra e all'avvio tutto viene visto. Con LVM è la stessa cosa oppure bisogna eseguire qualche altra operazione? Grazie in anticipo. Alessandro.
Re: Skylake
Ciao Vincenzo, so di essere OT ma ho installato su una z170-P e un i3-6300 una centos 7 che ha un kernel 3.10 e solamente aggiungendo in grub i915.preliminary_hw_support=1 funziona una meraviglia. Purtroppo non ho provato con debian (appena ho un momento libero posso provare e farti sapere). Come ha detto Lorenzo, prova la testing o unstable, altrimenti prova a verificare se qualche distro "bleeding edge" come arch faccia eccezione. Un saluto. Il 09/09/2016 15:13, Lorenzo "Palinuro" Faletra ha scritto: ciao, hai provato con kernel piu recenti come il 4.7 o il 4.8? gli skylake non sono supportati gran che da linux, ed il supporto sembra essere arrivato solo di recente, tutta la parte della microarchitettura classica è supportata credo già dai 4.4 e precedenti, ma per la parte video so poco e non mi sorprenderebbe scoprire che sia supportata correttamente solo dal 4.7 in poi bisogna anche vedere se la versione di xorg di jessie ci sappia lavorare, infatti se fossi in te farei un primo tentativo con debian testing o distro derivate da testing (kali o parrot) o addirittura vedere come si comporta ubuntu, una volta scoperto chi funziona si può andare a vedere perchè funzioni e cosa ha di diverso rispetto a jessie, ed eventualmente si vede se dai backports di jessie si può adattare qualcosa On 2016-09-09 05:07, Vincenzo Villa wrote: Ciao Ieri mi è arrivato il nuovo portatile (cpu skylake i7-6700HQ con grafica integrata HD 530) e ovviamente ho subito installato Debian. Sono partito da Jessie (che vorrei tenere) e installato alcune cose da backports, in particolare il kernel (4.6) e firmware-misc-nonfree Purtroppo la grafica va solo in emulazione software. Ho provato ad inserire in grub i915.preliminary_hw_support=1 (anche se inutile con il kernel 4.6) e a rimuovere i vari xorg intel. Ho provato anche ad installare l'ultima versione debian di xserver-xorg-video-intel (peraltro sconsigliata) Purtroppo su google si trovano un sacco di informazioni contraddittorie, in particolare sul supporto dei kernel debian di skylak. (Ubuntu 16.04 con kernel 4.4 sembra andare bene out-of-the-box) Esperienze? Grazie
Re: ssd
Il 15/09/2016 16:13, Luca De Andreis ha scritto: Il 15 settembre 2016 16:03:37 CEST, "Nicola Ferrari (#554252)"ha scritto: On 14/09/2016 20:52, Pol Hallen wrote: Qualcuno che mi può consigliare un modello pienamente compatibile? Io uso Samsung 840/850 Pro e non ho rilevato particolari problematiche. Ciao, N Idem, sia 840 evo/pro che 850 evo/pro con firmware aggiornati, nessun problema. Almeno questi su macchine non con il ruolo di server, sui server il discorso cambia e gli Intel di fascia enterprise sono molto quotati. Luca Ciao Pol, se cerchi qualcosa di fascia piu bassa prova con Corsair Force LE da 480G (prezzo circa 130.00 euro). Non sono come i samsung ma credo che non siano pessimi. Io ho due corsair force gt da 120 in raid e senza usare nessuna precauzione, vanno una favola e ce li ho da 3 anni. Un saluto.
Re: NVIDIA Optimus
Il 23/08/2016 21:20, Federico Di Gregorio ha scritto: On 23/08/16 15:57, Alessandro Baggi wrote: Salve ragazzi, ho una debian 8.5 su un portatile Asus con NVIDIA Optimus. Ho configurato il tutto seguendo https://wiki.debian.org/it/Bumblebee#Installation. Premetto che ho usato bumblebee-nvidia. Cmq una volta installato, optirun viene lanciato senza problemi. L'unico problema è sulle prestazioni. Se lancio: vblank_mode=0 glxgears ottengo tipo: 22979 frames in 5.0 seconds = 4595.707 FPS Se lancio: vblank_mode=0 optirun glxgears ottengo: 12046 frames in 5.0 seconds = 2409.192 FPS. Quindi risulta che le prestazioni sono migliori usando la intel integrata nella cpu che la GT540M. Non so dove sbattere la testa. Qualcuno ha esperienza? Ciao, non preoccuparti, è tutto OK e la NVIDIA sta funzionando benissimo. Il fatto è che la tecnologia Optimus ha un overhead nel portare i pixel dal server X "headless" (quello della NVIDIA) a quello collegato al display. glxgears impegna talmente poco la scheda che in questo caso quello che rallenta la grafica è la sincronia tra i due server X ma non appena usi un 3D più pesante questo overhead scompare e la NVIDIA funziona decisamente meglio della Intel. Ciao, federico Grazie mille ragazzi per le delucidazioni. Un saluto.
NVIDIA Optimus
Salve ragazzi, ho una debian 8.5 su un portatile Asus con NVIDIA Optimus. Ho configurato il tutto seguendo https://wiki.debian.org/it/Bumblebee#Installation. Premetto che ho usato bumblebee-nvidia. Cmq una volta installato, optirun viene lanciato senza problemi. L'unico problema è sulle prestazioni. Se lancio: vblank_mode=0 glxgears ottengo tipo: 22979 frames in 5.0 seconds = 4595.707 FPS Se lancio: vblank_mode=0 optirun glxgears ottengo: 12046 frames in 5.0 seconds = 2409.192 FPS. Quindi risulta che le prestazioni sono migliori usando la intel integrata nella cpu che la GT540M. Non so dove sbattere la testa. Qualcuno ha esperienza? Grazie in anticipo. Alessandro.
Re: [OT] C e inotify
Il 22/07/2016 22:07, Mattia ha scritto: Il 22 luglio 2016 17:32, Alessandro Baggi <alessandro.ba...@gmail.com> ha scritto: La modifica del file, modifica attributi e spostamento vengono rilevati mentre la cancellazione (con rm, unlink) non viene rilevato con evento IN_DELETE_SELF ma IN_ATTRIB. [...] Dato che su questo specifico file è aperto un file descriptor, e avendo letto che il delete_self non viene rilevato con un fd aperto sul file, ho provato anche a non aprire il file in lettura (per altre operazioni) senza esito positivo. Non riesco a riprodurre il tuo problema, quello che vedo io è questo: $ touch file $ ./a.out file $ rm file file 0004: IN_ATTRIB file 0400: IN_DELETE_SELF file 8000: IN_IGNORED Cioè, vedo anche io un IN_ATTRIB, ma seguito come mi aspetto da IN_DELETE_SELF e IN_IGNORED. Non è che in uscita dalla read() leggi solo il primo e scarti gli altri? Ho notato anche che la modifica del file con un editor (nel mio caso vi) non riporta un evento modify ma un move e un attrib (forse perche vi crea un file in /tmp e poi lo sposta sul'originale?) Quasi. Al momento di salvare il file, vim lo rinomina in 'nomefile~', crea un nuovo file 'nomefile' e se tutto va a buon fine elimina 'nomefile~'. Per questo motivo, non puoi aspettarti un IN_MODIFY perchè una volta che vim ha fatto rename(), il tuo processo continuerà ad osservare 'nomefile~' che non verrà toccato se non per fare unlink() alla fine. La sequenza che vedo salvando un file con vim è questa: $ ./a.out file file 0800: IN_MOVE_SELF file 0004: IN_ATTRIB file 0400: IN_DELETE_SELF file 8000: IN_IGNORED cioè il risultato di rename() e unlink() Ti allego il file sorgente con cui ho fatto le prove: vedi sulla tua macchina come si comporta. Ciao Mattia Salve ragazzi, scusate il ritardo per la risposta. Ha ragione Mattia, leggo solo il primo evento "buttando" via i successivi. Grazie a tutti per l'aiuto. PS. Sono iscritto a tante ML, ma in nessuna si riceve l'aiuto che si riceve qui. Grandi ragazzi.
[OT] C e inotify
Salve ragazzi, stavo scrivendo un po' di codice per tenere d'occhio un file. Ho pensato di utilizzare inotify per tracciare gli eventi su un singolo file. Il mio obiettivo è tracciare quattro tipi di eventi: modifica attributi, modifica, cancellazione del file e spostamento del file usando rispettivamente i flag IN_ATTRIB, IN_MODIFY, IN_DELETE_SELF e IN_MOVE_SELF. Inoltre il file è aperto in lettura. La modifica del file, modifica attributi e spostamento vengono rilevati mentre la cancellazione (con rm, unlink) non viene rilevato con evento IN_DELETE_SELF ma IN_ATTRIB. Ho notato anche che la modifica del file con un editor (nel mio caso vi) non riporta un evento modify ma un move e un attrib (forse perche vi crea un file in /tmp e poi lo sposta sul'originale?) Ho effettuato alcune prove per verificare questo comportamento. Ho rimosso il flag IN_ATTRIB dai flag e non inotify non riesce nemmeno a rilevare l'evento. Ho provato anche a cambiare il flag da IN_DELETE_SELF in IN_DELETE (per le dir) ma nulla. Dato che su questo specifico file è aperto un file descriptor, e avendo letto che il delete_self non viene rilevato con un fd aperto sul file, ho provato anche a non aprire il file in lettura (per altre operazioni) senza esito positivo. Ho provato anche a cambiare la tipologia di "watch",ovvero monitorare la directory invece del singolo file e cambiando IN_MOVE_SELF e IN_DELETE_SELF con IN_DELETE e IN_MOVE e tutto funziona a dovere. L'unico problema è che il watch su tutta la directory non "traccia" solo il file interessato ma tutti gli altri quindi poi devo andare a controllare in struct event -> name se il file è quello interessato. Dato che potrebbero esserci molti file vorrei evitare che ad ogni evento sulla dir, il programma debba controllare molte volte per quale file è stato ricevuto l'evento. Al momento per la cancellazione del file ho tralasciato la problematica dell'IN_DELETE_SELF, e considero solo il FLAG IN_ATTRIB. Quindi se ricevo l'evento per ATTRIB verifico anche se il file esiste (con access) e cosi via. Ho cercato, girato e sudato ma non ho trovato nulla. Qualcuno sa da cosa può dipendere il problema della cancellazione? Inoltre, vi viene in mente qualche modo esotico di moficare le proprietà (elencate sopra) di un file? Scusate la lunghezza e grazie in anticipo. Alessandro.
Re: SSD "comodo" per debian
Il 17/07/2016 17:28, Leandro Noferini ha scritto: Ciao a tutti, devo cambiare un vecchio disco che sta in un desktop piuttosto nuovo (i5 e 8 giga di ram) rimasto lì dal cambio di scheda madre bruciata e vorrei metterci un disco ssd: le necessità familiari sono normali-basse come capienza e prestazioni. Avete qualche consiglio? A basso costo Corsair LE da 480GB. Se necessiti di qualcosa di più affidabile e prestante devi cambiare modello o marca, ma i prezzi salgono.
Re: Backup Remoto [secondo atto]
Il 04/06/2016 20:32, Gollum1 ha scritto: Il 04 giugno 2016 18:49:08 CEST, Luca De Andreisha scritto: Personalmente amo questa soluzione per i backup (anche remoti a bassa banda): DAR -) DAR backup full, estrazione dei descrittori in un file inventario, lascio il file inventario sul server remoto e lavoro di differenziali. -) Quando i differenziali diventano importanti come dimensione, creo sul server di stoccaggio locale un backup sintentico, collassando il vecchio full, con l'ultimo differenziale, quindi estraggo il catalogo, lo copio sul server remoto, e ricomincio con i differenziali (questa volta facendo riferimento al nuovo full, che di fatto non transita tra il server locale e remoto perchè creato sinteticamente). Ciao Luca Praticamente il full transita sulla rete solo la prima volta, poi si tratta sempre di backup incrementali... buona l'idea... mi ricorda qualcosa :-P Potrei fare la stessa cosa con rsync? Nel senso, mantengo allineate i data set con gli incrementali di rsync e poi creo un archivio del backup. Può funzionare?
Backup Remoto [secondo atto]
Buongiorno ragazzi, rieccoci con i backup :D. Ho un server remoto con una partizione da 200GB (al momento quasi vuota). A questo server è collegato un disco esterno da 1 tb per dei backup effettuati con bacula. Purtroppo questo disco dopo circa 2 mesi si è danneggiato con conseguente perdita dei backup. Il disco è stato ripristinato e le procedure di backup lavorano di nuovo. Dato lo spiacevole inconveniente, mi è stato richiesto un backup locale dei db e dati (su partizione da 200GB). La banda locale è 8/2 mbps. Con pochi dati il problema non si pone, ma quando questa partizione sarà popolata iniziano i dolori. Fare un backup remoto, con strumenti tipo bacula, di 100GB è improponibile data la velocità di connessione...anche perche un full o un differenziale porterebbe via una miriade di tempo e dato che il backup richiede lo spegnimento di alcuni servizi sarebbe un problema. PS. Tempo fa mi era stato consigliato di fare un LVM, bloccare i servizi, fare lo snapshot e procedere con il backup. Purtroppo questo non è possibile per diversi motivi. La prima cosa che mi è venuta in mente è rsync, efficace e leggero. All'inizio avevo pensato di copiare direttamente i pool di backup e il db, poi mi sono messo a ridere. Opterò per: blocco i servizi, backup dei db, backup dei dati e riavvio dei servizi. Avete altre idee? Grazie in anticipo.
[OT] CPU dissipatori
Buongiorno ragazzi, circa 2 anni fa comprai un Corsair h100i per sostituire un vecchio Zalman CNPSX11. Appena montato avevo notato un leggero aumento della temperatura della cpu (in idle). Mi fidai delle recensioni sui fantomatici AIO per il water cooling. Circa due settimane fa, stufo del rumore del kit, ho deciso di acquistare un Noctua NH-D15 e tornare ad aria. CPU i7-2600K Prima di montare il nuovo, ho lanciato prime95 con torture test Small FFTs con la seguente configurazione: CPU i7-2600K Pasta artic silver 5. Corsair h100i (pompa a 2300~ rpm) In idle: 32° In full con prime95, dopo due minuti 62° Monto il nuovo dissipatore e rieseguo il test con la seguente configurazione: CPU i7-2600K Pasta noctua NH-D15 in idle: 27° in full con prime95 per circa 10 min 50°. Oltre alle temperature la rumorosità è molt differente. Dopo qualche tempo (oggi), volevo verificare questa problematica sull'h100i. Monto il tutto su un i3-6300. Prima configurazione: CPU i3-6300 Pasta artic silver 5 Corsair h100i (pompa a 2300~ rpm) in idle: 24° in full con prime95 62/65° Seconda configurazione: CPU i3-6300 Pasta artic silver 5 Zalman CNPS11X in idle: 22° in full con prime95 52° Ora in base a questi risultati, non so cosa pensare sul Corsair. Inoltre ho notato che sulla vecchia mobo, c'era un piccolo alone vicino al socket che mi ha fatto pensare ad una piccola perdita di liquido. Non so se è danneggiato o se le prestazioni siano realmente quelle riportate. Su molti benchmark sembra che l'h1001 e il noctua D15 se la giocano...e lo scarto è di 2 gradi circa, ma qui si parla di +10. Per non parlare dello Zalman cnpsx11 Che ne pensate?
[OT] httpd + tomcat
Salve ragazzi, ho un piccolo problema che non riesco a comprendere. Non mi considero un esperto..perdonatemi se dico ca...te. Ho un server, su cui è stata installata un'applicazione che necessita di tomcat. Inoltre sono stati creati due contesti con questa applicazione, una per test e l'altra per la produzione (futura). apache e tomcat comunicano con mod_proxy (in questo caso ajp). Mi è stato richiesto di configurare i due accessi con due dns separati, ovvero dns1.it/produzione e dns2.it/test. Sul sistema ho trovato un file con dentro due virtual host per le relative suite e le relative direttive ProxyPass ProxyPassReverse fuori dai virtualhost gia configurati. In questa maniera le due suite sono raggiungibili da: dns1.it/produzione dns1.it/test dns2.it/produzione dns2.it/test mentre il risultato desiderato dovrebbe essere dns1.it/produzione dns2.it/test Prima di mettere mani sul server, ho creato una piccola installazione con httpd e tomcat, replicando la stessa configurazione ma utilizzando gli example di tomcat. Inserendo le direttive Proxy* fuori dai virtual host, ho lo stesso comportamento del server di produzione, se invece le inserisco all'interno del relativo virtual host, ottengo il risultato desiderato. Tornando al server, ho questo file di configurazione: ProxyPass /produzione ajp://localhost:8009/produzione ProxyPassReverse /produzione ajp://localhost:8009/produzione ServerAdmin email ServerName dns1.it DocumentRoot /var/www/html DirectoryIndex index.htm index.html Options FollowSymLinks ErrorLog /var/log/httpd/errors.log CustomLog /var/log/httpd/web_access.log combined LogLevel error Alias /produzione "/opt/tomcat/webapps/produzione" ProxyPass /test ajp://localhost:8009/test ProxyPassReverse /test ajp://localhost:8009/test ServerAdmin email ServerName dns2.it DocumentRoot /var/www/html DirectoryIndex index.htm index.html Options FollowSymLinks ErrorLog /var/log/httpd/errors.log CustomLog /var/log/httpd/web_access.log combined LogLevel error Alias /test "/opt/tomcat/webapps/test/" ... Oltre al fatto che le direttive ProxyPassReverse sono sbagliate (https://httpd.apache.org/docs/2.4/mod/mod_proxy_ajp.html), se inserisco le direttive all'interno del relativo virtual host ottengo una separazione con i dns, ma in compenso ottengo un bel "bad request..". Sui log non sono riuscito a trovare nulla di utile (anche con livello debug). Ho provato a modificare le direttive proxypassreverse in: ProxyPassReverse /produzione http://dns1.it/produzione senza avere risultato. Ho provato ad utilizzare il mod_proxy_http invece di ajp, senza risultato. Ne ho provate tante..senza risultato, sempre il "bad request". Non riesco a capire da cosa dipende. Idee? Grazie in anticipo e scusate la lunghezza.
Re: [OT] Quesito su backup
Il 24/03/2016 16:06, Paolo Miotto ha scritto: Il giorno gio, 24/03/2016 alle 13.32 +0100, Alessandro Baggi ha scritto: Vi viene in mente altro? Spostare i filesystem di db e dati app su LVM. Prima del backup, fermi db e servizi, fai un snapshot LVM e fai ripartire i servizi. Poi monti lo snapshot su un altro mountpoint e con calma ne fai il backup. Terminato il backup rimuovi lo snapshot a caldo senza downtime. Grande, non avevo pensato ad LVM. Grazie. Alessandro.
[OT] Quesito su backup
Salve ragazzi, scusate per la lunghezza. Ho per le mani un server dedicato sul quale sono presenti diverse applicazioni. Sempre sul server ho una partizione di circa 200G dove andranno tutti i file delle applicazioni. Il programma utilizzato per i backup è bacula e il backup viene effettuato su un disco usb3 esterno. Come prerequisito del backup, mi è stato richiesto che il db non deve essere inconsistente rispetto ai file, quindi devo spegnere il servizio (tomcat) per evitare caricamenti durante il backup. Al momento non ci sono problemi sulle tempistiche in quanto non ci sono tanti dati da backuppare, quindi il downtime del servizio è molto basso. I miei dubbi cominciano ad affiorare pensando al backup FULL di 150/180 GB di dati. In questo caso in 1 o 2 ore dovrebbe farcela, e anche in questo caso il downtime non crea problemi al cliente. Al momento essendo pochi dati su un massimo di 200GB ho pianificato: 1 full al mese, 1 differenziale ogni fine settimana (4 diff) e per i giorni da lunedi al sabato incrementali. In futuro però, se il progetto cresce, potrebbe essere necessario cambiare macchina e aumentare la dimensione della partizione che devo backuppare. Supponiamo che la partizione sia da 1TB e che debba backuppare circa 750 GB e che il backup venga effettuato, non sul disco esterno, ma su un altro server nella stessa rete. In questo caso i tempi per un backup full (prendiamo in considerazione solo il full perche è il più oneroso) aumentano e aumentano anche il downtime del servizio. E qui sorge il problema. Come affrontarlo? La prima cosa che mi viene in mente è quella di allungare gli archi temporali dei backup 1 full ogni 6 mesi (anche 12) 1 diff ogni mese e tutti incrementali. In questa maniera avrei solo un downtime lungo anche se le dimensioni dei differenziali potrebbero aumentare di parecchio e anche questa soluzione potrebbe portare a disservizi lunghi. Un'altra soluzione che mi viene in mente è l'High Availability. Non sono esperto su HA, ho configurato qualcosina ma niente di complesso, quindi perdonatemi se dico idiozie. Due macchine in master/slave, stessi servizi, filesystem gfs replicati con glusterfs e montanti su tutte e due le macchine, db in replica tra loro. Quando devo fare il backup "freezo" la macchina master, lo slave prende il controllo (spero con tutti i dati sincronizzati tra db e fs) e il servizio prosegue sullo slave. Effettuo il backup dei dati dal server freezato, finito il backup, riattivo il server che diventa il nuovo slave, i db e gli fs si risincronizzano. Pero anche qui mi sorgono dei dubbi: che succede con la risincronizzazione tra i due fs dopo questa operazione? Con drbd, ricordo che se le macchine erano tutte e due master e tutti e due i drbd0 erano montati avevo problemi con la sincronizzazione (se non sbaglio split-brain). Come garantire che tutto (dati e db) siano sincronizzati tra le due macchine al momento del backup? Come risincronizzare i db? So che il caso al momento non è reale, ma se tra qualche tempo dovrò affrontare una configurazione HA, vorrei studiarlo più a fondo. Vi viene in mente altro? Grazie in anticipo e scusate la lunghezza.
Re: route
Il 03/03/2016 21:36, Pol Hallen ha scritto: 'sera a tutti :) il server ha 8 interfacce di rete e diverse macchine virtuali. Su una VM (eth6 - rete 192.168.50.0) c'è una vpn (client) connessa alla tap0 del server (10.10.20.0/24). Sempre su questa VM la sua interfaccia di rete (192.168.1.0/24) ha come gw 192.168.1.1 e da li internet. come instrado i client connessi alla vpn su quella rete? grazie per l'aiuto! Pol Ciao Pol, non ho capito bene. Te vuoi che i client connessi alla vpn vedano la 192.168.1.0/24? Non avendo capito bene ti espongo un problema di diverso tempo fa. Avevo un utente che doveva connettersi dall'esterno. I servizi si trovavano su diverse macchine virtuali, virtualizzate su un singolo server. Creai un'altra vm per la vpn e installai OpenVPN con TUN (routed vpn anche se il server non era un nodo/router della rete). Una volta che il client remoto si connetteva, riceveva le rotte per la rete interna. Il client riusciva a mandare i pacchetti ma non riusciva a riceverli perche le altre vm non sapevano a chi rimandare i pacchetti, in quanto il pacchetto arrivava con ip della vpn (in questo caso il client 10.10.20.5) e non locale (192.168.1.x) . Ho inserito una regola di nat sul server vpn, dove le comunicazione generate dal client (supponiamo 10.10.20.5) per la rete 192.168.1.0/24 dovevano essere translate con l'indirizzo del server(su rete 192.168.1.x) . Fatto questo il nat permetteva alle macchine di rimandare il pacchetto al server vpn (su rete locale) che a sua volta ritraslava i pacchetti e li routava direttamente al client. I server (VM) erano debian mentre la vpn era su OpenBSD con qualche regola di pf per il nat e filtraggio. Ovviamente non routavo tutta la rete ma solo alcune delle VM e solo i servizi a cui doveva avere accesso. Inoltre la connessione era 1:N e non N:N, quindi il problema del conflitto degli indirizzamenti tra reti non si era presentato. Spero di esserti stato utile. Alessandro.
Re: [OT] informazioni porta SFP
Il 26/02/2016 15:16, Piviul ha scritto: Ciao a tutti, secondo voi posso collegare 2 switch TL-SG2424P[¹] tramite una delle porte SFP presenti in entrambi gli switch con un cavo in rame di classe 6? Scusate la niubbità ma non ho ancora capito se le porte SFP possono essere utilizzate per collegare switch fra loro con cavi di rame classe 6... Grazie mille Piviul [¹] http://www.tp-link.com/il/products/details/cat-40_TL-SG2424P.html Ciao Piviul, anche io sono un pò niubbo e mi è capitato di averci a che fare, anche se è passato un po di tempo. Dove stavo io li usavamo per collegare le fibre degli switch di piano con il ced (su switch fibra). Secondo me puoi collegarli tra loro perche cmq sono porte combo che possono essere usate per fibra o altro con moduli appositi. per rj45: http://ecx.images-amazon.com/images/I/81BIB6WbUDL._SY355_.jpg per fibra: https://www.perlesystems.it/productimages/sfp-transceiver-lg.jpg A questo punto se non hai una necessità specifica perche non usare una porta normale? Saluti, Alessandro.