Re: zfs
Il 10/05/24 14:24, Paride Desimone ha scritto: Il 26-04-2024 11:09 Paride Desimone ha scritto: La butto li, fare un destroy del pool e recuperarlo? https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html zpool import -D no pools available to import Risolto. Era un problema di sequenza errata di montaggio dei dischi. erano cambiati gli uuid dei dischi. Una volta ricreati tutti gli uuid e rimontati nella giusta sequenza, tutto è tornato "magicamente" a posto /paride Ottimo, grazie per il feedback. Potresti riportare la procedura di risoluzione in modo che altri utenti possano usufruirne? Grazie.
Re: zfs
Il 26-04-2024 11:09 Paride Desimone ha scritto: La butto li, fare un destroy del pool e recuperarlo? https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html zpool import -D no pools available to import Risolto. Era un problema di sequenza errata di montaggio dei dischi. erano cambiati gli uuid dei dischi. Una volta ricreati tutti gli uuid e rimontati nella giusta sequenza, tutto è tornato "magicamente" a posto /paride -- https://keyserver.gnupg.org/pks/lookup?op=get&search=0xf14cd648d16d33c82a7d2ac778c59a24690431d3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
Re: zfs
Il 24-04-2024 16:53 Alessandro Baggi ha scritto: sti dischi per poter accedere i dati? La butto li, fare un destroy del pool e recuperarlo? https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html zpool import -D no pools available to import Dopo il destroy uhm... /paride -- https://keyserver.gnupg.org/pks/lookup?op=get&search=0xf14cd648d16d33c82a7d2ac778c59a24690431d3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
Re: zfs
Il 24/04/24 16:29, Paride Desimone ha scritto: Buongiorno. Ciao, non so se hai già risolto ma premetto che non sono ferrato su ZFS (lo uso da poco) ne tantomeno su VSphere/ESXi e company (non li uso da un bel po) quindi se dico qualche capp---ata, perdonatemi e correggetemi. Ho una vm con due dischi che erano parte di un pool zfs. Ora dopo che la macchina ha avuto varie problematiche (a seguito aggiornamento vmware non partiva più), ho la necessità di rimontare questi due dischi sulla stessa vm, che inutile dirlo non riesco a montare. Prima di tutto, scusa se te lo chiedo: ma hai/avete fatto qualche test prima di aggiornare tutto? Dalla mia esperienza con ESXi ad ogni aggiornamento era una menata, non oso immaginare migrare tra major release. Spero tu abbia un backup dei dati sul pool. dando: zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT ncdata - - - - - FAULTED - ho la situazione precedente. provo allora a fare uno "zpool status -x" ed ottengo pool: ncdata state: UNAVAIL status: One or more devices could not be opened. There are insufficient replicas for the pool to continue functioning. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-3C scrub: none requested Aborted (core dumped) Da quello che mi sembra di capire non vede i device. Infatti lui ti consiglia di metterli online con: "action: Attach the missing device and online it using 'zpool online'." Se non dovesse funzionare...da quello che ho capito sono dischi virtuali giusto? Questi dischi sono accessibili al sistema nel senso che il sistema li vede? Puoi maneggiarli? Le partition table di dei dischi per zfs è rimasta uguale? Può essere che durante l'aggiornamento c'è stata anche una modifica al formato delle immagini dei dischi e le stesse sono state modificate (aggiornate al nuovo formato) e zfs non riconosce più i suoi devices? > Se gli do zpool import ncdata > ottengo > cannot import 'ncdata': a pool with that name is already created/imported, > and no additional pools with that name were found > Potresti provare ad esportare il pool e poi re-importarlo ma non so che succede se è in uno stato UNAVAIL Prova ad importare specificando almeno un device (non sono responsabile di quello che succederà), tipo: # zpool import -d /dev/sdb1 ncdata se gli do zpool add ncdata /dev/sdb1 /dev/sdc1 ottengo cannot open 'ncdata': pool is unavailable Ora, non sono proprio ferrato in zfs. Qualcuno saprebbe darmi una mano a capire come montare questi dischi per poter accedere i dati? La butto li, fare un destroy del pool e recuperarlo? https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html Magari fa qualche prova su un'altra VM con immagini di piccole dimensione e con qualche dato dentro e vedi se un export, un destroy non ti distrugge i dati e ti permette veramente di recuperare il pool. Al momento non mi viene altro in mente se non ricrea il pool e fai il restore del backup. Qualche nota su ZFS: 1. per esperienza personale devi sempre usare i nomi persistenti dei dischi con ZFS (tipo /dev/disk/by-id/.). Qualche tempo fa ho usato i nomi canonici e la scheda madre li invertiva ad ogni reboot cosi ZED mi rompeva ad ogni avvio dicendo che c'èrano problemi e mi lanciava un resilvering. 2. Mi hanno sempre sconsigliato di utilizzare ZFS su dischi virtuali in quanto ZFS deve accedere direttamente ai device. Inoltre se le immagini virtuali sono COW mettere un filesystem COW su immagini COW rallenta le performance, ma di usare i device fisici, montarli e dire all'hypervisor di usare quel mountpoint come risorsa. Se proprio non ne puoi fare a meno e sei costretto ad usare come dischi delle immagini che siano almeno in formato RAW. Non ho esperienza di questo ma sembra sensato. Fammi sapere come va, che sono interessato. Un saluto.
zfs
Buongiorno. Ho una vm con due dischi che erano parte di un pool zfs. Ora dopo che la macchina ha avuto varie problematiche (a seguito aggiornamento vmware non partiva più), ho la necessità di rimontare questi due dischi sulla stessa vm, che inutile dirlo non riesco a montare. dando: zpool list NAME SIZE ALLOC FREECAP DEDUP HEALTH ALTROOT ncdata - - - - - FAULTED - ho la situazione precedente. provo allora a fare uno "zpool status -x" ed ottengo pool: ncdata state: UNAVAIL status: One or more devices could not be opened. There are insufficient replicas for the pool to continue functioning. action: Attach the missing device and online it using 'zpool online'. see: http://www.sun.com/msg/ZFS-8000-3C scrub: none requested Aborted (core dumped) Se gli do zpool import ncdata ottengo cannot import 'ncdata': a pool with that name is already created/imported, and no additional pools with that name were found se gli do zpool add ncdata /dev/sdb1 /dev/sdc1 ottengo cannot open 'ncdata': pool is unavailable Ora, non sono proprio ferrato in zfs. Qualcuno saprebbe darmi una mano a capire come montare questi dischi per poter accedere i dati? -- https://keyserver.gnupg.org/pks/lookup?op=get&search=0xf14cd648d16d33c82a7d2ac778c59a24690431d3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
Re: Debian 12.5 e ZFS [BUG]
Il 14/04/24 10:23, Davide Prina ha scritto: Alessandro Baggi ha scritto: In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1. Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug Non riesco a trovare nulla che indichi che in stable il problema sia stato risolto se usi Firefox installa webext-debianbuttons... è un'estensione utilissima * ti copi il nome del pacchetto zfs-dkms * apri debian buttons e fai click su package tracker questo ti apre la pagina del riepilogo del pacchetto sorgente usato per generare quel pacchetto * qui fai clic su "security tracker" e ti apre: https://security-tracker.debian.org/tracker/source-package/zfs-linux questo per vedere se il bug di sicurezza è stato risolto e dove se il bug non è di sicurezza, allora devi guardare tra i bug normali e anche per questo c'è il link sulla stessa pagina. https://bugs.debian.org/cgi-bin/pkgreport.cgi?repeatmerged=yes&src=zfs-linux Notare che in questo caso essendo coinvolto anche coreutils dovresti vedere anche questo pacchetto. In alternativa puoi eseguire: $ apt changelog zfs-dkms e vedere se è citato nei changelog Se il bug è questo: https://github.com/openzfs/zfs/issues/15526 allora è indicato che The bug was fixed in #15571 and was backported to 2.2.2 and 2.1.14. Altrimenti con quanto indicato sopra dovresti riuscire a trovare qualche riferimento e capire se è risolto sulla tua installazione. Ciao Davide Ciao Davide, e grazie mille per i link, mi si è aperto un mondo La prossima volta userò il bugtracker di debian prima di cercare altrove. Nel primo link che hai postato, non so perche io cercavo zfs-dkms invece di zfs-linux, è riportato il bug e in debian bookworm non è fixato (è marcata come vulnerable). Inoltre ho letto in fondo alla pagine questa riga: "[bookworm] - zfs-linux (contrib not supported)" (no-dsa dovrebbe significare che non è urgente nel senso che non è un bug critico per la sicurezza [no-dsa è stato cambiato in e dal 03/2024)] ma leggendo qui: https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=1056752 il manutentore riporta che: "The fix will land in bookworm-backports and bullseye-backports-sloppy shortly after 2.1.14-1 migrates to testing, which will take about 2 days hopefully. Fixes to 2.0.3-9+deb11u1 (bullseye) and 2.1.11-1 (bookworm) are planned but will likely take more time. Such an issue is marked low-priority because the bug itself isn't urgent from a security update point of view, which means an attacker can only cause damage in rare cases. It's still recommended to update or at least apply mitigations to the problem (by setting zfs_dmu_offset_next_sync to 0 on bookworm) to avoid potential data loss." quindi impostando zfs_dmu_offset_next_sync a 0 non dovrebbe esserci il problema e nessuna perdita di dati? e anche il comando apt changelog fenomenale, non lo conoscevo, per non parlare dell'estensione per FF. Grazie ancora! Un saluto, Alessandro.
Re: Debian 12.5 e ZFS [BUG]
Alessandro Baggi ha scritto: > In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1. > > Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug > Non riesco a trovare nulla che indichi che in stable il problema sia > stato risolto se usi Firefox installa webext-debianbuttons... è un'estensione utilissima * ti copi il nome del pacchetto zfs-dkms * apri debian buttons e fai click su package tracker questo ti apre la pagina del riepilogo del pacchetto sorgente usato per generare quel pacchetto * qui fai clic su "security tracker" e ti apre: https://security-tracker.debian.org/tracker/source-package/zfs-linux questo per vedere se il bug di sicurezza è stato risolto e dove se il bug non è di sicurezza, allora devi guardare tra i bug normali e anche per questo c'è il link sulla stessa pagina. https://bugs.debian.org/cgi-bin/pkgreport.cgi?repeatmerged=yes&src=zfs-linux Notare che in questo caso essendo coinvolto anche coreutils dovresti vedere anche questo pacchetto. In alternativa puoi eseguire: $ apt changelog zfs-dkms e vedere se è citato nei changelog Se il bug è questo: https://github.com/openzfs/zfs/issues/15526 allora è indicato che The bug was fixed in #15571 and was backported to 2.2.2 and 2.1.14. Altrimenti con quanto indicato sopra dovresti riuscire a trovare qualche riferimento e capire se è risolto sulla tua installazione. Ciao Davide -- La mia privacy non è affar tuo https://noyb.eu/it - You do not have my permission to use this email to train an AI - If you use this to train your AI than you accept to distribute under AGPL license >= 3.0 all the model trained, all the source you have used to training your model and all the source of the program that use that model
Re: Debian 12.5 e ZFS [BUG]
Il 12/04/24 14:56, Piviul ha scritto: On 4/10/24 20:09, Alessandro Baggi wrote: Salve ragazzi, ho un dubbio che non riesco a districare. In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1. Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug che era presente da molti anni ma che sui sistemi con coreutils 9 in certe condizioni corrompeva i dati. Non riesco a trovare nulla che indichi che in stable il problema sia stato risolto tipo un nuovo aggiornamento, delle istruzioni per mitigare il problema, molte volte (anche il progetto openzfs) dice di usare backports ma i backports non fanno parte del progetto LTS, cosi il supporto è minore in termini di tempo. non uso zfs ma mi accodo alla domanda ed aggiungo non esiste un changelog per ogni aggiornamento di un pacchetto? ...può anche darsi che su bookwork tutti usino i pacchetti zfs su backports ma parrebbe strano che nessuno si lamenti di data corruption in debian bookworm. Comunque a questo punto la curiosità è tanta... Piviul Ciao Piviul, ho fatto un pò di ricerche. Sembrerebbe che la versione su Debian 12 non sia interessata da quel bug specifico. Invece è presente un bug di corruzione nel caso si utilizzi la cifratura di ZFS e si esegua un send (se non ho capito male) ma non uso la cifratura di ZFS. Non capisco pero perche non viene riportato niente per il pacchetto di stable. Non ho letto di nessuno che abbia problemi o si lamenti del bug su Debian Stable quindi o nessuno usa ZFS, o non è presente o tutti usano zfs dai backports oppure tutti se ne fregano. Ho comunque fatto dei test e ho lanciato uno script che riproduce l'errore (ovvero i file copiati dovrebbero essere pieni di 0..). Il test l'ho fatto girare per qualche ora e in nessuna iterazione del test mi ha dato errore. Questo non significa che il bug non sia presente ma dopo diverse ore di scritture se non è uscito qualcosa. Inoltre ho letto che c'è una mitigazione che consiste nell'aggiungere un parametro di boot per zfs: zfs.zfs_dmu_offset_next_sync=0 che ho comunque attivato prima di avviare lo script riproduttore. Inoltre ho letto che il bug affligge solo chi ha il block cloning attivo, e nel caso di Debian 12 non sembra esserci. In un post su Reddit viene riportato: "If it says disabled, you are not hit by this bug: zpool get all|grep block_cloning" So che non è una fonte autorevole ma i test sembrano confermarlo. Un saluto. Alessandro.
Re: Debian 12.5 e ZFS [BUG]
On 4/10/24 20:09, Alessandro Baggi wrote: Salve ragazzi, ho un dubbio che non riesco a districare. In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1. Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug che era presente da molti anni ma che sui sistemi con coreutils 9 in certe condizioni corrompeva i dati. Non riesco a trovare nulla che indichi che in stable il problema sia stato risolto tipo un nuovo aggiornamento, delle istruzioni per mitigare il problema, molte volte (anche il progetto openzfs) dice di usare backports ma i backports non fanno parte del progetto LTS, cosi il supporto è minore in termini di tempo. non uso zfs ma mi accodo alla domanda ed aggiungo non esiste un changelog per ogni aggiornamento di un pacchetto? ...può anche darsi che su bookwork tutti usino i pacchetti zfs su backports ma parrebbe strano che nessuno si lamenti di data corruption in debian bookworm. Comunque a questo punto la curiosità è tanta... Piviul
Debian 12.5 e ZFS [BUG]
Salve ragazzi, ho un dubbio che non riesco a districare. In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1. Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug che era presente da molti anni ma che sui sistemi con coreutils 9 in certe condizioni corrompeva i dati. Non riesco a trovare nulla che indichi che in stable il problema sia stato risolto tipo un nuovo aggiornamento, delle istruzioni per mitigare il problema, molte volte (anche il progetto openzfs) dice di usare backports ma i backports non fanno parte del progetto LTS, cosi il supporto è minore in termini di tempo. Ho provato a inviare un'email al manutentore del pacchetto ma non ho ricevuto risposta. Qualcuno sa con certezza se il BUG in stable è stato fixato o no? Sono costretto ad usare zfs-dkms da bookworm-backports? Un saluto e una buona serata. Alessandro.
Re: ZFS e checksum error...
>> come posso dirgli: butta pure via i file corrotti e fregatene? > Mi rispondo da solo: > zpool clear -F rpool-backup Col piffero, questo azzera gli errori ma non li corregge... basta uno scrub e tornano fuori... -- I matti tutta la vita dentro la notte chiusi a chiave (F. De Gregori)
Re: ZFS e checksum error...
> come posso dirgli: butta pure via i file corrotti e fregatene? Mi rispondo da solo: zpool clear -F rpool-backup -- Voi non ci crederete la mia ragazza sogna (R. Vecchioni)
ZFS e checksum error...
ZFS mi stupisce sempre... ad ogni modo, è colpa mia. Sono andato a ravanare in un server di backup per togliere un controller, ho sicuramente fatto casino con i cavi e ho allentato un connettore di alimentazione. Morale della favola, qualche giorno dopo tutti i dischi di un pool hanno iniziato a dare errori (fisici e logici). Ho spento il server, sistemato il cablaggio, fatto ripartire e ovviamente è partito il 'resilver' del pool, che ha già terminato due dischi e sta lavorando sugli altri due: zpool status -v rpool-backup pool: rpool-backup state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scan: resilver in progress since Mon Mar 18 14:01:02 2024 458G scanned at 294M/s, 84.4G issued at 54.1M/s, 13.5T total 20.4G resilvered, 0.61% done, 3 days 00:15:17 to go config: NAME STATE READ WRITE CKSUM rpool-backup DEGRADED 0 0 0 raidz1-0 DEGRADED 0 0 0 ata-ST8000VN004-3CP101_WWZ1MBA8 DEGRADED 0 0 1.71K too many errors (resilvering) ata-ST8000VN004-3CP101_WWZ1Q7F1 DEGRADED 0 0 1.49K too many errors ata-ST8000VN004-3CP101_WRQ0WQ44 DEGRADED 0 0 1.54K too many errors ata-ST8000VN004-3CP101_WWZ1RFL5 ONLINE 0 0 3.06K (resilvering) cache scsi-33001438037cd8921 ONLINE 0 0 0 la prima domanda è: TRE GIORNI?!?! la seconda domanda è: mi elenca una serie di file (una ventina) con errori permanenti e non risolvibili dal checksumming; ma come dicevo questo è un server di backup, non mi interessa: errors: Permanent errors have been detected in the following files: rpool-backup:<0x63f216> rpool-backup:<0x63f218> rpool-backup:<0x108d421> rpool-backup:<0x63ee2b> [...] /rpool-backup/vz/dump/vzdump-qemu-156-2024_03_16-23_53_30.vma.zst /rpool-backup/vz/dump/vzdump-lxc-125-2024_03_16-23_57_05.tar.zst ho provato ad eliminare qualche file, ma la riga è rimasta in quel modo: rpool-backup:<0x63f216> come posso dirgli: butta pure via i file corrotti e fregatene? Sto cercando dappertutto come fare, ma a parte fare un ripristino dei file, una ricosruzione del pool... non trovo info per una cosa che (io) reputo così semplice... Grazie. -- Chi ha tagliato i ponti con la fantasia non si accorgera` di niente (E. Bennato)
Re: Debian 12.4 e ZFS
> Il giorno 12 gen 2024, alle ore 11:18, Alessandro Baggi > ha scritto: > > e infine perché rispetto a zfs con btrfs >> mi sembra più facile "rimescolare le carte" a posteriori (sostituire dischi, >> passare da una configurazione all'altra, etc... ma probabilmente sono io che >> non ho capito zfs). > > In realtà, si, btrfs sembra più flessibile (da quello che ho letto). Con ZFS > non puoi fare alcune cose (non ricordo bene quale operazione) ma devi per > forza ricreare il pool. > > Domanda: Usare btrfs su SSD comporta qualche problema? > In realtà, per varie ragioni, tra cui il fatto che è un fs copy on write, btrfs si comporta meglio con ssd che con hdd ;-) Tra l'altro anche la perdita di prestazioni di btrfs con il suo raid1 nativo non è poi così marcata rispetto a ext4 su raid1 via dmadm. Tempo fa avevo fatto dei test con fio su una coppia di ssd nvme di fascia media confrontando queste due configurazioni: il throughput in lettura di btrfs + raid1 era tra 80% e 50% rispetto a ext4 + raid1 (dipende dal tipo carico), mentre le velocità di scrittura erano tutto sommato paragonabili (80% - 90%). saluti, gerlos PS scusa il doppio invio.
Re: Debian 12.4 e ZFS
Il 12/01/24 11:18, Alessandro Baggi ha scritto: > Domanda: Usare btrfs su SSD comporta qualche problema? No che io sappia. Si comporta bene con gli SSD. Puoi usare le opzioni di mount "lazytime", "ssd", "discard"... ad esempio. Qui https://btrfs.readthedocs.io/en/latest/Administration.html#mount-options A presto, -- *Gianluca Francesco Signorotto* website: https://eritrium.org OpenPGP_signature.asc Description: OpenPGP digital signature
Re: Debian 12.4 e ZFS
Ciao Gerlos e grazie per la risposta. Mah, io per non saper né leggere né scrivere userei ZFS per i volumi che contengono i dati, e metterei il sistema operativo su un file system supportato nativamente dal kernel, come i ben noti ext4 e xfs. In questo modo nella remota ipotesi in cui qualcosa vada storto con dkms puoi comunque avviare il sistema, risolvere la questione e montare il volume o i volumi dei dati in un secondo momento (con l'opzione "nofail" in /etc/fstab il sistema prosegue il boot anche se non può montare un certo volume). La mia intenzione era lasciare solo i dati su ZFS e il sistema su ext4. A ogni modo anche io userei btrfs, soprattutto per un server di backup casalingo, dove il fatto che è più lento di zfs non conta più di tanto (immagino che il collo di bottiglia sia la rete, non lo storage). Il server non è un server casalingo ma un piccolo server di backup. Ho usato poco BTRFS ma pensandoci comunque il raid1 non ha problemi (tipo write hole), ha la compressione, l'integritità e la deduplicazione ed è supportato nativamente dal kernel di Debian. Devo studiare un po btrfs perche ho solo letto qualcosa online ma non ho fatto nulla di concreto. Intanto perché mi fanno antipatia i problemi di licenza di zfs, ;-) poi per evitare problemi con dkms, Stesso sentimento. e infine perché rispetto a zfs con btrfs mi sembra più facile "rimescolare le carte" a posteriori (sostituire dischi, passare da una configurazione all'altra, etc... ma probabilmente sono io che non ho capito zfs). In realtà, si, btrfs sembra più flessibile (da quello che ho letto). Con ZFS non puoi fare alcune cose (non ricordo bene quale operazione) ma devi per forza ricreare il pool. Domanda: Usare btrfs su SSD comporta qualche problema? Saluti, Alessandro.
Re: Debian 12.4 e ZFS
Il 12/01/24 10:46, gianluca.signoro...@eritrium.org ha scritto: Il 12/01/24 09:29, Alessandro Baggi ha scritto: Io sapevo che era necessario 1GB di RAM per ogni TB in caso di deduplicazione. per quanto ne so, al contrario, assieme alla deduplicazione, molte altre caratteristiche di ZFS richiedono RAM. https://web.archive.org/web/20140818042550/http://hardforum.com/showpost.php?s=8d31305e57c1dd2853eb817124ff18d9&p=1036865233&postcount=3 Grazie per la risorsa. Quindi da un certo punto di vista mi sconsigli di utilizzare ZFS su una distro che utilizza dkms per zfs a livello di stabilità? Non a livello di stabilità ma, come scrivevo, semplicemente perché non mi piace avere di mezzo DKMS per avere ZFS su Debian, ma ciò e personale. Se a te va bene nullaosta. Anche a me non piace avere di mezzo DKMS anzi è proprio questo che mi ha reso indeciso.
Re: Debian 12.4 e ZFS
Il 12/01/24 09:29, Alessandro Baggi ha scritto: Ora, Proxmox usa un kernel modificato ma proveniente da Ubuntu (per ragioni di licenza è dovuta la scelta) e lì non c'è quindi bisogno di DKMS. Su una Debian a seconda dei casi preferisco, invece, affidarmi a BTRFS. A presto, Quindi da un certo punto di vista mi sconsigli di utilizzare ZFS su una distro che utilizza dkms per zfs a livello di stabilità? Mah, io per non saper né leggere né scrivere userei ZFS per i volumi che contengono i dati, e metterei il sistema operativo su un file system supportato nativamente dal kernel, come i ben noti ext4 e xfs. In questo modo nella remota ipotesi in cui qualcosa vada storto con dkms puoi comunque avviare il sistema, risolvere la questione e montare il volume o i volumi dei dati in un secondo momento (con l'opzione "nofail" in /etc/fstab il sistema prosegue il boot anche se non può montare un certo volume). A ogni modo anche io userei btrfs, soprattutto per un server di backup casalingo, dove il fatto che è più lento di zfs non conta più di tanto (immagino che il collo di bottiglia sia la rete, non lo storage). Intanto perché mi fanno antipatia i problemi di licenza di zfs, ;-) poi per evitare problemi con dkms, e infine perché rispetto a zfs con btrfs mi sembra più facile "rimescolare le carte" a posteriori (sostituire dischi, passare da una configurazione all'altra, etc... ma probabilmente sono io che non ho capito zfs). saluti, gerlos
Re: Debian 12.4 e ZFS
Il 12/01/24 09:29, Alessandro Baggi ha scritto: > Io sapevo che era necessario 1GB di RAM per ogni TB in caso > di deduplicazione. per quanto ne so, al contrario, assieme alla deduplicazione, molte altre caratteristiche di ZFS richiedono RAM. https://web.archive.org/web/20140818042550/http://hardforum.com/showpost.php?s=8d31305e57c1dd2853eb817124ff18d9&p=1036865233&postcount=3 > Quindi da un certo punto di vista mi > sconsigli di utilizzare ZFS su una distro che utilizza dkms > per zfs a livello di stabilità? Non a livello di stabilità ma, come scrivevo, semplicemente perché non mi piace avere di mezzo DKMS per avere ZFS su Debian, ma ciò e personale. Se a te va bene nullaosta. A presto, -- *Gianluca Francesco Signorotto* website: https://eritrium.org OpenPGP_signature.asc Description: OpenPGP digital signature
Re: Debian 12.4 e ZFS
Ciao Gianluca e grazie per la riposta. Ciao, con i suoi oltre 20 anni di sviluppo DKMS immagino, da quel punto di vista, sia ben maturo ed affidabile e non faccia scherzi di quel tipo... tutto può essere eh. È da tenere presente che ZFS richiede molta RAM per funzionare a dovere; se intendi adottarlo, assicurati di averne abbastanza disponibile. Utilizzo Proxmox ed avendo letto la loro documentazione, consigliano 4 GB RAM di base più 1GB di RAM per ciascun TB di spazio disco. Io sapevo che era necessario 1GB di RAM per ogni TB in caso di deduplicazione. Ora, Proxmox usa un kernel modificato ma proveniente da Ubuntu (per ragioni di licenza è dovuta la scelta) e lì non c'è quindi bisogno di DKMS. Su una Debian a seconda dei casi preferisco, invece, affidarmi a BTRFS. A presto, Quindi da un certo punto di vista mi sconsigli di utilizzare ZFS su una distro che utilizza dkms per zfs a livello di stabilità? Un saluto.
Re: Debian 12.4 e ZFS
Il 11/01/2024 17:49, Alessandro Baggi ha scritto: > Ho un piccolo server di backup sui cui è presente un RAID1 > mdadmL'unica cosa che mi rende insicuro della scelta è che > ZFS è compilato con DKMS e ad ogni aggiornamento del kernel > viene ricompilato e qui sta il problema. Vi è mai capitato > che DKMS fallisse una ricompilazione di ZFS? In caso di > errori di compilazione cosa fare (oltre ad usare il kernel > precedente dove ZFS funzionava correttamente)? > > Al momento uso DKMS per i driver NVIDIA (dal sito NVIDIA) e > non ho mai avuto problemi da due anni a questa parte, ma mai > dire mai. Ciao, con i suoi oltre 20 anni di sviluppo DKMS immagino, da quel punto di vista, sia ben maturo ed affidabile e non faccia scherzi di quel tipo... tutto può essere eh. È da tenere presente che ZFS richiede molta RAM per funzionare a dovere; se intendi adottarlo, assicurati di averne abbastanza disponibile. Utilizzo Proxmox ed avendo letto la loro documentazione, consigliano 4 GB RAM di base più 1GB di RAM per ciascun TB di spazio disco. Ora, Proxmox usa un kernel modificato ma proveniente da Ubuntu (per ragioni di licenza è dovuta la scelta) e lì non c'è quindi bisogno di DKMS. Su una Debian a seconda dei casi preferisco, invece, affidarmi a BTRFS. A presto, -- Gianluca Francesco Signorotto website: https://eritrium.org OpenPGP_signature.asc Description: OpenPGP digital signature
Debian 12.4 e ZFS
Un saluto a tutti i partecipanti. Spero di non essere OT. Ho un piccolo server di backup sui cui è presente un RAID1 mdadm e xfs come storage. Volevo aggiungere un controllo di integrità per i dati e ho trovato tre soluzioni: 1. dm-integrity + mdadm 2. ZFS 3. Btrfs Dopo qualche test casalingo, qualche ricerca e qualche lettura tipo [1](anche se è del 2020) alla fine ho optato per ZFS. Ho provato dm-integrity e mdadm ma su dischi da 3TB ci mette un po perche quando formatta per dm-integrity deve fare il wipe di ogni device quindi due device da 3TB, poi deve creare il raid quindi bisogna aspettare il sync dei 3TB. Inoltre per verificare errori di integrità devo lanciare un check sul raid mdadm e ci mette un po, per non parlare in caso di guasto in cui devo ricreare il device dm-integrity e rifare il sync. Non immagino il tempo necessario con dischi più capienti. Con ZFS invece il resilvering è più veloce e inoltre offre altre funzionalità che non si hanno con dm-integrity + mdadm + xfs. Debian supporta ZFS dai repo stable contrib e backports contrib. Ho letto in rete che era presente un bug problematico che riportava ad una corruzione dei dati (deve verificarsi un determinata condizione) e per Debian si consiglia di utilizzare la versione di ZFS presente sui backports perche aveva la versione fixata. Qualcuno lo usa al momento (non per uso casalingo) e ha qualche suggerimento prima di convertire lo storage? Ho gia effettuato il backup del backup. L'unica cosa che mi rende insicuro della scelta è che ZFS è compilato con DKMS e ad ogni aggiornamento del kernel viene ricompilato e qui sta il problema. Vi è mai capitato che DKMS fallisse una ricompilazione di ZFS? In caso di errori di compilazione cosa fare (oltre ad usare il kernel precedente dove ZFS funzionava correttamente)? Al momento uso DKMS per i driver NVIDIA (dal sito NVIDIA) e non ho mai avuto problemi da due anni a questa parte, ma mai dire mai. Che esperienza avete con questo FS? Avete avuto brutte sorprese? Grazie a tutti in anticipo. Saluti. [1] - https://www.unixsheikh.com/articles/battle-testing-zfs-btrfs-and-mdadm-dm.html
Re: ot: certificazione zfs oracle
Il 22-10-2022 18:49 Paride Desimone ha scritto: Buonasera tutti. Qualcuno ha manualistica atta all'aquisizione della certificazione zfs oracle ? Nessuno? /paride -- http://keys.gnupg.net/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
ot: certificazione zfs oracle
Buonasera tutti. Qualcuno ha manualistica atta all'aquisizione della certificazione zfs oracle ? /paride -- http://keys.gnupg.net/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
Re: zfs pool degraded
Bertorello, Marco ha scritto il 30/06/20 alle 09:52: mi sono trovato nella stessa situazione, anche io ho dato un zpool clear, intanto se il problema è serio, si sarebbe ripresentato. E infatti, così è stato. Solo che appunto smartctl non indica problemi sul disco incriminato. io veramente l'ho riaggiunto e il problema non si è più ripresentato. Per ora ho preso un altro hd in modo che se ricapita lo sostituisco (non l'ho messo in spare però...). Sul disco incriminato comunque i dati smart dicono che ci sono stati poco più di un centinaio di errori e una decina di settori riallocati: nel mio caso mi sembra non ci siano dubbio: il disco sta per morire. È strano che i dati smart del disco non rilevino anomalie. Se ha ragione smart penserei al cavo sata o al connettore sulla mobo... perché non provare a scambiare il cavo e/o connettore sulla mobo con quelli di un altro hd? Piviul
Re: zfs pool degraded
Il 11/06/2020 13:04, Piviul ha scritto: > Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. > Ora io essendoci ancora cose non essenziali sul server ho dato un > zpool clear sul server ma mi piacerebbe testare l'hd Ciao Paolo, mi sono trovato nella stessa situazione, anche io ho dato un zpool clear, intanto se il problema è serio, si sarebbe ripresentato. E infatti, così è stato. Solo che appunto smartctl non indica problemi sul disco incriminato. Alla fine ha sostituito il disco o fatto qualcos'altro a livello di Filesystem per sistemare la cosa? Io per il momento ho lanciato uno scrub ma ci metterà una vita (il pool è da 6 TB) e il pool continua ad andarmi in degraded. -- Marco Bertorello https://www.marcobertorello.it signature.asc Description: OpenPGP digital signature
Re: zfs
il Fri, 26 Jun 2020 15:26:57 +0200 WinterMute ha scritto: | [...] p.s.: ammetto che ZFS ha molte peculiarità interessanti e delle caratteristiche piuttosto innovative. anche se l'argomento viene trattato in modo "superficiale" ho trovato, veicolato tramite le pagine di lffl.org, una guida in due parti [1] - [2] che introduce (per l'appunto) ai concetti del file system in questione. ho pensato che la segnalazione di cui sopra potesse essere interessante per chi (come l'autore del thread) sta valutando la possibilità di utilizzare ZFS. [1] https://www.lffl.org/2020/05/capire-amministrare-zfs.html [2] https://www.lffl.org/2020/05/introduzione-zfs-parte-2.html saluti. *** ║ »» WinterMute «« ║ -> https://www.debian.org/ «branch» bullseye/testing ║ GNU Project ║ -> https://www.gnu.org/ ║ Kernel Archives ║ -> https://www.kernel.org/ ║ GPG FingerPrint ║ -> 38A4 5354 30C5 E86F 9AA8 B234 7227 D71D A547 39E0 *** pgpxsHg6KnlsX.pgp Description: Firma digitale OpenPGP
Re: zfs
il Fri, 26 Jun 2020 11:53:17 +0200 Filippo Dal Bosco - ha scritto: | [...] | | immagino che per un normale pc casalingo sia opportuno continuare ad | usare ext4, anche perché se poi si vuole modificare le partizioni | gparted (bullseye) non prevede zfs buon pomeriggio, personalmente ritengo che al netto di particolari necessità EXT4 sia un file system che copre ottimamente tutti gli scenari possibili per un utente che fa un uso "comune" della propria macchina. certo c'è sempre, e non c'è niente di male in ciò, la volontà di fare ricerca e approfondire le proprie conoscenze, anche nell'ambito appena descritto. con le dovute accortezze si potrebbe quindi fare dei test con ZFS. tengo a precisare che quanto detto riflette esclusivamente le mie personali considerazioni in merito alla questione. saluti (e buon fine settimana a tutti). *** ║ »» WinterMute «« ║ -> https://www.debian.org/ «branch» bullseye/testing ║ GNU Project ║ -> https://www.gnu.org/ ║ Kernel Archives ║ -> https://www.kernel.org/ ║ GPG FingerPrint ║ -> 38A4 5354 30C5 E86F 9AA8 B234 7227 D71D A547 39E0 *** pgpSeqNNCVChA.pgp Description: Firma digitale OpenPGP
zfs
Noto che qualcuno usa zfs. Non sapevo fosse disponibile in debian. immagino che per un normale pc casalingo sia opportuno continuare ad usare ext4, anche perché se poi si vuole modificare le partizioni gparted (bullseye) non prevede zfs -- Filippo
Re: zfs pool degraded
Ciao Piviul, sembra il caso di cambiarlo, magari qualcuno con più esperienza potrebbe confermare la diagnosi. Il 12/06/20 14:44, Piviul ha scritto: Ciao Alessandro... Alessandro Baggi ha scritto il 12/06/20 alle 11:09: [...] I valori THRESH dello smart del disco riportano qualcosa di strano? Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove trovare le informazioni da inserire nell'opzione --device di smartctl :( I log di sistema hanno riportato qualcosa al riguardo del disco come errore I/O ecc (anche dmesg al momento dell'errore)? No, non ci ho guardato ma l'ho fatto ora; ecco cosa riportano: Jun 11 08:23:34 pve02 kernel: [63208.585107] sd 2:0:2:0: [sdc] tag#128 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:23:34 pve02 kernel: [63208.585126] sd 2:0:2:0: [sdc] tag#128 Sense Key : Illegal Request [current] Jun 11 08:23:34 pve02 kernel: [63208.585132] sd 2:0:2:0: [sdc] tag#128 Add. Sense: Logical block address out of range Jun 11 08:23:34 pve02 kernel: [63208.585139] sd 2:0:2:0: [sdc] tag#128 CDB: Write(10) 2a 00 b7 e8 13 10 00 05 28 00 Jun 11 08:23:34 pve02 kernel: [63208.585146] blk_update_request: critical target error, dev sdc, sector 3085439760 op 0x1:(WRITE) flags 0x700 phys_seg 12 prio class 0 Jun 11 08:23:34 pve02 kernel: [63208.585252] zio pool=zfspool vdev=/dev/sdc1 error=121 type=2 offset=1579744108544 size=675840 flags=40080c80 Jun 11 08:23:48 pve02 kernel: [63223.328731] sd 2:0:2:0: [sdc] tag#162 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:23:48 pve02 kernel: [63223.328751] sd 2:0:2:0: [sdc] tag#162 Sense Key : Illegal Request [current] Jun 11 08:23:48 pve02 kernel: [63223.328757] sd 2:0:2:0: [sdc] tag#162 Add. Sense: Logical block address out of range Jun 11 08:23:48 pve02 kernel: [63223.328764] sd 2:0:2:0: [sdc] tag#162 CDB: Write(10) 2a 00 c3 39 fa 18 00 02 60 00 Jun 11 08:23:48 pve02 kernel: [63223.328771] blk_update_request: critical target error, dev sdc, sector 3275356696 op 0x1:(WRITE) flags 0x700 phys_seg 6 prio class 0 Jun 11 08:23:48 pve02 kernel: [63223.328878] zio pool=zfspool vdev=/dev/sdc1 error=121 type=2 offset=1676981579776 size=311296 flags=40080c80 Jun 11 08:24:28 pve02 kernel: [63263.323315] sd 2:0:2:0: [sdc] tag#141 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:24:28 pve02 kernel: [63263.323334] sd 2:0:2:0: [sdc] tag#141 Sense Key : Medium Error [current] Jun 11 08:24:28 pve02 kernel: [63263.323340] sd 2:0:2:0: [sdc] tag#141 Add. Sense: Unrecovered read error Jun 11 08:24:28 pve02 kernel: [63263.323347] sd 2:0:2:0: [sdc] tag#141 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 08:24:28 pve02 kernel: [63263.323353] blk_update_request: critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 08:25:37 pve02 kernel: [63331.416500] sd 2:0:2:0: [sdc] tag#143 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:25:37 pve02 kernel: [63331.416507] sd 2:0:2:0: [sdc] tag#143 Sense Key : Medium Error [current] Jun 11 08:25:37 pve02 kernel: [63331.416510] sd 2:0:2:0: [sdc] tag#143 Add. Sense: Unrecovered read error Jun 11 08:25:37 pve02 kernel: [63331.416516] sd 2:0:2:0: [sdc] tag#143 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 08:25:37 pve02 kernel: [63331.416522] blk_update_request: critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.560537] sd 2:0:2:0: [sdc] Unaligned partial completion (resid=4056, sector_sz=512) Jun 11 11:44:58 pve02 kernel: [75292.560549] sd 2:0:2:0: [sdc] tag#769 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560558] sd 2:0:2:0: [sdc] tag#769 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK Jun 11 11:44:58 pve02 kernel: [75292.560562] sd 2:0:2:0: [sdc] tag#769 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560567] blk_update_request: I/O error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.560694] sd 2:0:2:0: [sdc] tag#770 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK Jun 11 11:44:58 pve02 kernel: [75292.560697] sd 2:0:2:0: [sdc] tag#770 CDB: Read(10) 28 00 00 00 08 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560700] blk_update_request: I/O error, dev sdc, sector 2048 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.688448] sd 2:0:2:0: [sdc] tag#799 FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_SENSE Jun 11 11:44:58 pve02 kernel: [75292.688456] sd 2:0:2:0: [sdc] tag#799 Sense Key : Illegal Request [current] Jun 11 11:44:58 pve02 kernel: [75292.688460] sd 2:0:2:0: [sdc] tag#799 Add. Sense: Logical unit not supported Jun 11 11:44:58 pve02 kernel: [75292.688466] sd 2:0:2:0: [sdc] tag#799 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.688471] blk_update_request: I/O error
Re: zfs pool degraded
Ciao Alessandro... Alessandro Baggi ha scritto il 12/06/20 alle 11:09: [...] I valori THRESH dello smart del disco riportano qualcosa di strano? Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove trovare le informazioni da inserire nell'opzione --device di smartctl :( I log di sistema hanno riportato qualcosa al riguardo del disco come errore I/O ecc (anche dmesg al momento dell'errore)? No, non ci ho guardato ma l'ho fatto ora; ecco cosa riportano: Jun 11 08:23:34 pve02 kernel: [63208.585107] sd 2:0:2:0: [sdc] tag#128 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:23:34 pve02 kernel: [63208.585126] sd 2:0:2:0: [sdc] tag#128 Sense Key : Illegal Request [current] Jun 11 08:23:34 pve02 kernel: [63208.585132] sd 2:0:2:0: [sdc] tag#128 Add. Sense: Logical block address out of range Jun 11 08:23:34 pve02 kernel: [63208.585139] sd 2:0:2:0: [sdc] tag#128 CDB: Write(10) 2a 00 b7 e8 13 10 00 05 28 00 Jun 11 08:23:34 pve02 kernel: [63208.585146] blk_update_request: critical target error, dev sdc, sector 3085439760 op 0x1:(WRITE) flags 0x700 phys_seg 12 prio class 0 Jun 11 08:23:34 pve02 kernel: [63208.585252] zio pool=zfspool vdev=/dev/sdc1 error=121 type=2 offset=1579744108544 size=675840 flags=40080c80 Jun 11 08:23:48 pve02 kernel: [63223.328731] sd 2:0:2:0: [sdc] tag#162 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:23:48 pve02 kernel: [63223.328751] sd 2:0:2:0: [sdc] tag#162 Sense Key : Illegal Request [current] Jun 11 08:23:48 pve02 kernel: [63223.328757] sd 2:0:2:0: [sdc] tag#162 Add. Sense: Logical block address out of range Jun 11 08:23:48 pve02 kernel: [63223.328764] sd 2:0:2:0: [sdc] tag#162 CDB: Write(10) 2a 00 c3 39 fa 18 00 02 60 00 Jun 11 08:23:48 pve02 kernel: [63223.328771] blk_update_request: critical target error, dev sdc, sector 3275356696 op 0x1:(WRITE) flags 0x700 phys_seg 6 prio class 0 Jun 11 08:23:48 pve02 kernel: [63223.328878] zio pool=zfspool vdev=/dev/sdc1 error=121 type=2 offset=1676981579776 size=311296 flags=40080c80 Jun 11 08:24:28 pve02 kernel: [63263.323315] sd 2:0:2:0: [sdc] tag#141 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:24:28 pve02 kernel: [63263.323334] sd 2:0:2:0: [sdc] tag#141 Sense Key : Medium Error [current] Jun 11 08:24:28 pve02 kernel: [63263.323340] sd 2:0:2:0: [sdc] tag#141 Add. Sense: Unrecovered read error Jun 11 08:24:28 pve02 kernel: [63263.323347] sd 2:0:2:0: [sdc] tag#141 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 08:24:28 pve02 kernel: [63263.323353] blk_update_request: critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 08:25:37 pve02 kernel: [63331.416500] sd 2:0:2:0: [sdc] tag#143 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE Jun 11 08:25:37 pve02 kernel: [63331.416507] sd 2:0:2:0: [sdc] tag#143 Sense Key : Medium Error [current] Jun 11 08:25:37 pve02 kernel: [63331.416510] sd 2:0:2:0: [sdc] tag#143 Add. Sense: Unrecovered read error Jun 11 08:25:37 pve02 kernel: [63331.416516] sd 2:0:2:0: [sdc] tag#143 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 08:25:37 pve02 kernel: [63331.416522] blk_update_request: critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.560537] sd 2:0:2:0: [sdc] Unaligned partial completion (resid=4056, sector_sz=512) Jun 11 11:44:58 pve02 kernel: [75292.560549] sd 2:0:2:0: [sdc] tag#769 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560558] sd 2:0:2:0: [sdc] tag#769 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK Jun 11 11:44:58 pve02 kernel: [75292.560562] sd 2:0:2:0: [sdc] tag#769 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560567] blk_update_request: I/O error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.560694] sd 2:0:2:0: [sdc] tag#770 FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK Jun 11 11:44:58 pve02 kernel: [75292.560697] sd 2:0:2:0: [sdc] tag#770 CDB: Read(10) 28 00 00 00 08 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.560700] blk_update_request: I/O error, dev sdc, sector 2048 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.688448] sd 2:0:2:0: [sdc] tag#799 FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_SENSE Jun 11 11:44:58 pve02 kernel: [75292.688456] sd 2:0:2:0: [sdc] tag#799 Sense Key : Illegal Request [current] Jun 11 11:44:58 pve02 kernel: [75292.688460] sd 2:0:2:0: [sdc] tag#799 Add. Sense: Logical unit not supported Jun 11 11:44:58 pve02 kernel: [75292.688466] sd 2:0:2:0: [sdc] tag#799 CDB: Read(10) 28 00 00 00 00 00 00 01 00 00 Jun 11 11:44:58 pve02 kernel: [75292.688471] blk_update_request: I/O error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0 Jun 11 11:44:58 pve02 kernel: [75292.690077] sd 2:0:2:0: [sdc] tag#800 FAILED Result: hostby
Re: zfs pool degraded
Ciao Piviul, non so se iLO riporta questo tipo di errori. Cercando in rete ho trovato (http://h20628.www2.hp.com/km-ext/kmcsdirect/emr_na-c03580889-1.pdf) che iLO4 riporta tra le tante cose un Disk Failure. I valori THRESH dello smart del disco riportano qualcosa di strano? I log di sistema hanno riportato qualcosa al riguardo del disco come errore I/O ecc (anche dmesg al momento dell'errore)? Se non trovi nessun problema (ed è strano) proverei a riaggiungere il disco al pool di zfs e vedere se riaccade. Se riaccade sta a te valutare in base al ruolo del server e all'importanza dei dati che ha memorizzati se è il caso di acquistare un nuovo disco. Potresti fare un'altra prova ma è rischiosa, non l'ho mai fatto e non so se è possibile. Se dico qualche ca___ta perdonatemi. Se il tuo pool supporta un duplice guasto (raizd2) o se hai dischi spare (anche non collegati) perche non invertire due dischi? Potrebbe essere il bay ad avere il problema (so che è remota come possibilità). Se fallisce sempre lo stesso disco sai che è quel disco altrimenti se fallisce il disco nel bay "incriminato" sai che il problema dipende dal bay. Se hai il raidz2 puoi scollegare due device insieme altrimenti sei obbligato a scollegare il disco corrotto, fare un replace con un disco nuovo e aspettare il resilvering. Se tutto va bene scolleghi un disco del pool e inserisci quello che ti da problemi e aspetti il manifestarsi del problema. Anche in questo caso, dipende dal ruolo di questo specifico server. Può essere spento e avere un downtime per il resilvering? Non smetterò mai di consigliarlo: backup, backup e backup. Nota: mi è capitato in passato, quando ero un novizio ed ero affiancato da "un esperto", che su alcuni server HP in raid5 (hardware non ricordo il controller) ogni tanto un disco veniva marcato come faulted e il tutto si risistemava scollegando il disco e ricollegandolo (a fronte però della ricostruzione). Un saluto. Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di salute del server è ottimo, non vengono rilevati problemi. Se un HD dovesse avere problemi il server proliant non dovrebbe accorgesene? Grazie Piviul Il 11/06/20 13:04, Piviul ha scritto: Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. Ora io essendoci ancora cose non essenziali sul server ho dato un zpool clear sul server ma mi piacerebbe testare l'hd; con uno smartctl -a /dev/sd? mi dice : smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org /dev/sd?: requires option '-d cciss,N' Please specify device type with the -d option. Use smartctl -h to get a usage summary se gli aggiungo un -d scsi mi restituisce: smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org User Capacity: 2,000,398,934,016 bytes [2.00 TB] Logical block size: 512 bytes Rotation Rate: 7202 rpm Form Factor: 3.5 inches Logical Unit id: 0x5000c5004e1c339a Serial number: Z1P3KYTT Device type: disk Local Time is: Thu Jun 11 13:03:46 2020 CEST SMART support is: Available - device has SMART capability. SMART support is: Enabled Temperature Warning: Disabled or Not Supported === START OF READ SMART DATA SECTION === SMART Health Status: OK Current Drive Temperature: 32 C Drive Trip Temperature: 0 C Error Counter logging not supported Device does not support Self Test logging Voi cosa fareste? Piviul
Re: zfs pool degraded
Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di salute del server è ottimo, non vengono rilevati problemi. Se un HD dovesse avere problemi il server proliant non dovrebbe accorgesene? Grazie Piviul Il 11/06/20 13:04, Piviul ha scritto: Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. Ora io essendoci ancora cose non essenziali sul server ho dato un zpool clear sul server ma mi piacerebbe testare l'hd; con uno smartctl -a /dev/sd? mi dice : smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org /dev/sd?: requires option '-d cciss,N' Please specify device type with the -d option. Use smartctl -h to get a usage summary se gli aggiungo un -d scsi mi restituisce: smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org User Capacity: 2,000,398,934,016 bytes [2.00 TB] Logical block size: 512 bytes Rotation Rate: 7202 rpm Form Factor: 3.5 inches Logical Unit id: 0x5000c5004e1c339a Serial number: Z1P3KYTT Device type: disk Local Time is: Thu Jun 11 13:03:46 2020 CEST SMART support is: Available - device has SMART capability. SMART support is: Enabled Temperature Warning: Disabled or Not Supported === START OF READ SMART DATA SECTION === SMART Health Status: OK Current Drive Temperature: 32 C Drive Trip Temperature: 0 C Error Counter logging not supported Device does not support Self Test logging Voi cosa fareste? Piviul
zfs pool degraded
Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. Ora io essendoci ancora cose non essenziali sul server ho dato un zpool clear sul server ma mi piacerebbe testare l'hd; con uno smartctl -a /dev/sd? mi dice : smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org /dev/sd?: requires option '-d cciss,N' Please specify device type with the -d option. Use smartctl -h to get a usage summary se gli aggiungo un -d scsi mi restituisce: smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org User Capacity:2,000,398,934,016 bytes [2.00 TB] Logical block size: 512 bytes Rotation Rate:7202 rpm Form Factor: 3.5 inches Logical Unit id: 0x5000c5004e1c339a Serial number:Z1P3KYTT Device type: disk Local Time is:Thu Jun 11 13:03:46 2020 CEST SMART support is: Available - device has SMART capability. SMART support is: Enabled Temperature Warning: Disabled or Not Supported === START OF READ SMART DATA SECTION === SMART Health Status: OK Current Drive Temperature: 32 C Drive Trip Temperature:0 C Error Counter logging not supported Device does not support Self Test logging Voi cosa fareste? Piviul
Re: ZFS e consumo di RAM
Il 28/05/20 15:27, Piviul ha scritto: Piviul ha scritto il 28/05/20 alle 09:21: Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. Forse all'inizio era così... io ricordo invece di aver letto, ma non ricordo dove, che il consumo di RAM (ARC) era proporzionale alla quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio questa proporzionalità. Qualcuno mi sa indirizzare dove potermi documentare? come al solito continuo il mio monologo sperando che a qualcuno sia utile e che a qualcun altro non dia fastidio :) Documentazione[¹] credo[²] attendibile darebbe manforte a chi sostiene che ZFS consumi tutta la RAM meno 1GB; infatti si legge che il valore di default sia impostato al "75% of memory on systems with less than 4 GB of memory physmem minus 1 GB on systems with greater than 4 GB of memory". Però a me non torna: # arc_summary | grep -A9 ^ARC\ size ARC size (current): 94.4 % 59.4 GiB Target size (adaptive): 100.0 % 62.9 GiB Min size (hard limit): 6.2 % 3.9 GiB Max size (high water): 16:1 62.9 GiB Most Frequently Used (MFU) cache size: 0.7 % 386.3 MiB Most Recently Used (MRU) cache size: 99.3 % 56.2 GiB Metadata cache size (hard limit): 75.0 % 47.2 GiB Metadata cache size (current): 6.1 % 2.9 GiB Dnode cache size (hard limit): 10.0 % 4.7 GiB Dnode cache size (current): 0.2 % 10.5 MiB che è circa la metà della ram presente sul sistema: # free -h total used free shared buff/cache available Mem: 125Gi 64Gi 60Gi 104Mi 903Mi 59Gi Swap: 8.0Gi 0B 8.0Gi E a questo punto non mi resta altro che pensare che zfs in solaris si comporta diversamente che su linux... O no? Piviul [¹] https://docs.oracle.com/cd/E26502_01/html/E29022/chapterzfs-3.html [²] credo perché si riferisce a zfs in solaris ma non dovrebbero esserci differenza Ciao Piviul, sono nuovo con ZFS ma da quello che so hai ragione, è tutta la ram - 1GiB. Se necessiti di RAM (magari un VM o altro), puoi tranquillamente impostare zfs_arc_max ad un valore ragionevole. La ARC permette di accedere ai file in maniera più veloce. Ovviamente avere una ARC più grande ti permette di avere più file in cache. Abbassarla non comporta nessun problema per ZFS, ma ho letto consigli di non abbassarla sotto i 4GiB (non ho capito perche ma credo sia un fatto di prestazioni). Per la deduplicazione, anche se non l'ho ancora usata, ho letto che ZFS richiede 1 GiB di RAM per 1 TiB di dati, e questo credo si vada a sommare alla memoria usata dalla ARC, quindi attivare la deduplicazione solo se zdb riporta un rate di deduplicazione ragionevole. Dato il grande utilizzo di RAM da parte di ZFS (ARC e Deduplicazione) l'utilizzo di ram ECC sarebbe indicato, ma al momento lo sto provando su una macchina con RAM non ECC, chissa che succederà in caso di qualche bit corrotto. Hai qualche problema in particolare con l'utilizzo della RAM? PS. Le tue avventure con PROXMOX e ZFS e Debian le trovo stimolanti dal punto di vista tecnico. Un saluto.
Re: ZFS e consumo di RAM
Piviul ha scritto il 28/05/20 alle 09:21: Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. Forse all'inizio era così... io ricordo invece di aver letto, ma non ricordo dove, che il consumo di RAM (ARC) era proporzionale alla quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio questa proporzionalità. Qualcuno mi sa indirizzare dove potermi documentare? come al solito continuo il mio monologo sperando che a qualcuno sia utile e che a qualcun altro non dia fastidio :) Documentazione[¹] credo[²] attendibile darebbe manforte a chi sostiene che ZFS consumi tutta la RAM meno 1GB; infatti si legge che il valore di default sia impostato al "75% of memory on systems with less than 4 GB of memory physmem minus 1 GB on systems with greater than 4 GB of memory". Però a me non torna: # arc_summary | grep -A9 ^ARC\ size ARC size (current):94.4 % 59.4 GiB Target size (adaptive): 100.0 % 62.9 GiB Min size (hard limit): 6.2 %3.9 GiB Max size (high water): 16:1 62.9 GiB Most Frequently Used (MFU) cache size: 0.7 % 386.3 MiB Most Recently Used (MRU) cache size: 99.3 % 56.2 GiB Metadata cache size (hard limit): 75.0 % 47.2 GiB Metadata cache size (current): 6.1 %2.9 GiB Dnode cache size (hard limit): 10.0 %4.7 GiB Dnode cache size (current): 0.2 % 10.5 MiB che è circa la metà della ram presente sul sistema: # free -h totalusedfree shared buff/cache available Mem: 125Gi64Gi60Gi 104Mi 903Mi59Gi Swap: 8.0Gi 0B 8.0Gi E a questo punto non mi resta altro che pensare che zfs in solaris si comporta diversamente che su linux... O no? Piviul [¹] https://docs.oracle.com/cd/E26502_01/html/E29022/chapterzfs-3.html [²] credo perché si riferisce a zfs in solaris ma non dovrebbero esserci differenza
ZFS e consumo di RAM
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. Forse all'inizio era così... io ricordo invece di aver letto, ma non ricordo dove, che il consumo di RAM (ARC) era proporzionale alla quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio questa proporzionalità. Qualcuno mi sa indirizzare dove potermi documentare? Grazie Piviul
Re: grow proxmox ZFS volume
Paolo Redælli ha scritto il 22/05/20 alle 09:20: Il 22/05/20 08:58, Piviul ha scritto: Ti rispondo in privato perché devo prossimamente installare io proxmox su un server "di risulta"[...] scusa Paolo rispondo nuovamente in lista perché magari può essere utile a qualcuno e soprattutto perché la mia conoscenza di proxmox è ancora incerta e avere dei supervisori ti garantisce qualcosa in più sulla mia risposta... .... meglio zfs allora? zfs meglio di cosa? Di lvm-thin secondo me si. Di ceph non so, non l'ho provato. Mi sono spaventato quando nei prerequisisti parla di schede 10Gb... Sperando che Oracle non incominci a fare strane rivendicazioni a me sembra che ZFS funzioni molto bene. Nel frattempo magari switch e schede 10GBaseT si abbassano di prezzo... E dov'è l'opzione per allargare i dischi? Premesso che è proprio dove uno si dovrebbe aspettare che sia, selezioni il cluster -> il server PVE -> la macchina virtuale -> l'Hardware e quando clicchi su Hard Disk il pulsante in alto Resize Disk si abilita. Piviul
Re: grow proxmox ZFS volume
Piviul ha scritto il 22/05/20 alle 08:50: Ciao a tutti, non ho trovato come in proxmox si possa aumentare la dimensione di un volume ZFS. Sono io che sono fuso? scusate, mi rispondo da solo: si. Piviul
grow proxmox ZFS volume
Ciao a tutti, non ho trovato come in proxmox si possa aumentare la dimensione di un volume ZFS. Sono io che sono fuso? Piviul
Re: ZFS e spazio occupato
Il 29/08/19 14:59, Bertorello, Marco ha scritto: Il 27/08/2019 11:18, Bertorello, Marco ha scritto: Il 27/08/2019 10:46, dea ha scritto: Ciao ! Anche io uso pesantemente ZFS ormai da tempo in Debian. Un file system COW (anche se ZFS non è solo un file system), per sua natura presenta una scarsa visibilità nello spazio libero (e su come agire per liberare spazio, specie se lavori con una miriade di snapshot). Altro fattore è che ZFS lavora bene con una buona dose di spazio libero, le prestazioni crollano se lo porti vicino alla saturazione. Non è che hai usato degli snapshot e che quindi hai "bloccato" dello spazio allocato ? assolutamente si! la VPS è dedicata per l'offline backup delle mie macchine virtuali. ho circa 45 (3 snapshot per 15 VM) snapshot. Il punto è proprio capire lo spazio realmente occupato per ragionare sulla possibilità di aumentare il numero di snapshot per VM Perdonami, ma quindi? Con gli snapshot non si può sapere quanto spazio si utilizza veramente? Se, come dici tu, ZFS lavora bene con abbastanza spazio libero, a maggior ragione ho bisogno di capire quanto ne ho a disposizione Si che si può capire, ma è più complesso e meno immediato. Si, ZFS lavora male (cala di prestazioni) con datastore al limite della capacità. Ti mando un link che fa un po di chiarezza: https://oshogbo.vexillium.org/blog/65/
Re: ZFS e spazio occupato
Il 27/08/2019 11:18, Bertorello, Marco ha scritto: > Il 27/08/2019 10:46, dea ha scritto: >> Ciao ! >> >> Anche io uso pesantemente ZFS ormai da tempo in Debian. >> >> Un file system COW (anche se ZFS non è solo un file system), per sua >> natura presenta una scarsa visibilità nello spazio libero (e su come >> agire per liberare spazio, specie se lavori con una miriade di snapshot). >> >> Altro fattore è che ZFS lavora bene con una buona dose di spazio >> libero, le prestazioni crollano se lo porti vicino alla saturazione. >> >> Non è che hai usato degli snapshot e che quindi hai "bloccato" dello >> spazio allocato ? > assolutamente si! > > la VPS è dedicata per l'offline backup delle mie macchine virtuali. > > ho circa 45 (3 snapshot per 15 VM) snapshot. > > Il punto è proprio capire lo spazio realmente occupato per ragionare > sulla possibilità di aumentare il numero di snapshot per VM Perdonami, ma quindi? Con gli snapshot non si può sapere quanto spazio si utilizza veramente? Se, come dici tu, ZFS lavora bene con abbastanza spazio libero, a maggior ragione ho bisogno di capire quanto ne ho a disposizione -- Marco Bertorello https://www.marcobertorello.it signature.asc Description: OpenPGP digital signature
Re: ZFS e spazio occupato
Il 27/08/2019 10:46, dea ha scritto: > > Ciao ! > > Anche io uso pesantemente ZFS ormai da tempo in Debian. > > Un file system COW (anche se ZFS non è solo un file system), per sua > natura presenta una scarsa visibilità nello spazio libero (e su come > agire per liberare spazio, specie se lavori con una miriade di snapshot). > > Altro fattore è che ZFS lavora bene con una buona dose di spazio > libero, le prestazioni crollano se lo porti vicino alla saturazione. > > Non è che hai usato degli snapshot e che quindi hai "bloccato" dello > spazio allocato ? assolutamente si! la VPS è dedicata per l'offline backup delle mie macchine virtuali. ho circa 45 (3 snapshot per 15 VM) snapshot. Il punto è proprio capire lo spazio realmente occupato per ragionare sulla possibilità di aumentare il numero di snapshot per VM -- Marco Bertorello https://www.marcobertorello.it signature.asc Description: OpenPGP digital signature
Re: ZFS e spazio occupato
Ciao ! Anche io uso pesantemente ZFS ormai da tempo in Debian. Un file system COW (anche se ZFS non è solo un file system), per sua natura presenta una scarsa visibilità nello spazio libero (e su come agire per liberare spazio, specie se lavori con una miriade di snapshot). Altro fattore è che ZFS lavora bene con una buona dose di spazio libero, le prestazioni crollano se lo porti vicino alla saturazione. Non è che hai usato degli snapshot e che quindi hai "bloccato" dello spazio allocato ? Luca
Re: ZFS e spazio occupato
Il 27/08/2019 09:34, Bertorello, Marco ha scritto: > Buongiorno lista, > > ho un dubbio relativo a ZFS. > > # zdb -DD zp1 > > DDT-sha256-zap-duplicate: 144703 entries, size 349 on disk, 200 in core > DDT-sha256-zap-unique: 1176516 entries, size 306 on disk, 159 in core > > DDT histogram (aggregated over all DDTs): > > bucket allocated referenced > __ __ __ > refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE > -- -- - - - -- - - - > 11.12M 38.1G 23.0G 23.0G1.12M 38.1G 23.0G 23.0G > 287.8K 1.96G 1.05G 1.05G 197K 4.21G 2.26G 2.26G > 439.7K 1.41G729M729M 199K 7.04G 3.53G 3.53G > 813.2K261M132M132M 131K 2.29G 1.17G 1.17G > 16 493 3.05M 1.14M 1.14M10.4K 65.5M 24.5M 24.5M > 32 107800K271K271K4.38K 33.6M 11.8M 11.8M > 64 51374K112K112K4.62K 36.5M 11.3M 11.3M >1289163K 5.50K 5.50K1.48K 24.2M916K916K >2569 42K 4.50K 4.50K3.13K 16.0M 1.57M 1.57M >5122 1K 1K 1K1.11K566K566K566K > 1K1 8K512B512B1.28K 10.3M656K656K >16K1 8K512B512B20.3K163M 10.2M 10.2M > Total1.26M 41.7G 24.9G 24.9G1.68M 51.9G 30.0G 30.0G > ^^ > dedup = 1.21, compress = 1.73, copies = 1.00, dedup * compress / copies = 2.09 > > # zpool list > > NAME SIZE ALLOC FREE EXPANDSZ FRAGCAP DEDUP HEALTH ALTROOT > zp1 99.5G 31.7G 67.8G -39%31% 1.20x ONLINE - > ^ > > # df -h > > Filesystem Size Used Avail Use% Mounted on > udev3.4G 0 3.4G 0% /dev > tmpfs 697M 916K 696M 1% /run > /dev/mapper/localhost--vg-root 112G 104G 6.5G 95% / > tmpfs 3.5G 0 3.5G 0% /dev/shm > tmpfs 5.0M 0 5.0M 0% /run/lock > tmpfs 3.5G 0 3.5G 0% /sys/fs/cgroup > /dev/sda1 236M 46M 178M 21% /boot > zp1 65G 0 65G 0% /zp1 > zp1/backup 65G 0 65G 0% /zp1/backup > zp1/backup/subvol-109-disk-0 67G 2.3G 65G 4% > /zp1/backup/subvol-109-disk-0 > tmpfs 697M 0 697M 0% /run/user/0 > zp1/backup/subvol-110-disk-0 75G 11G 65G 14% > /zp1/backup/subvol-110-disk-0 > zp1/backup/subvol-111-disk-0 66G 1.4G 65G 3% > /zp1/backup/subvol-111-disk-0 > zp1/backup/subvol-105-disk-0 67G 1.9G 65G 3% > /zp1/backup/subvol-105-disk-0 > zp1/backup/subvol-106-disk-0 68G 2.7G 65G 4% > /zp1/backup/subvol-106-disk-0 > zp1/backup/subvol-100-disk-0 66G 551M 65G 1% > /zp1/backup/subvol-100-disk-0 > zp1/backup/subvol-114-disk-0 66G 794M 65G 2% > /zp1/backup/subvol-114-disk-0 > zp1/backup/subvol-103-disk-0 66G 1.4G 65G 2% > /zp1/backup/subvol-103-disk-0 > zp1/backup/subvol-101-disk-0 66G 943M 65G 2% > /zp1/backup/subvol-101-disk-0 > zp1/backup/subvol-107-disk-0 66G 1.2G 65G 2% > /zp1/backup/subvol-107-disk-0 > zp1/backup/subvol-112-disk-0 66G 643M 65G 1% > /zp1/backup/subvol-112-disk-0 > zp1/backup/subvol-113-disk-0 71G 6.3G 65G 9% > /zp1/backup/subvol-113-disk-0 > zp1/backup/subvol-104-disk-0 66G 1.3G 65G 2% > /zp1/backup/subvol-104-disk-0 > > Il dubbio è: quanto spazio sto effettivamente utilizzando? > > 41.7 GB dovrebbe essere lo spazio effettivamente utilizzato al netto della > deduplica, a fronte di 51.9 GB di dati. > > Ma allora perchè zpool list mi dice di averne allocati solo 31.7 GB? > > Inoltre, perchè df non mi fa vedere lo spazio occupato da zp1 e/o zp1/backup, > ma solo dai sottovolumi montati? > Per esempio, ci sono almeno altri 2 sottovolumi, non montati, con i relativi > snapshots, che occupano spazio. > > zp1 è un file da 100 GB (purtroppo essendo una vps non potevo fare > diversamente). > Sono attive sia deduplica che compressione. > > Grazie mille per le delucidazioni Ho dimenticato zfs list: # zfs list NAME USED AVAIL REFER MOUNTPOINT zp1 36.8G 64.6G24K /zp1 zp1/backup36.2G 64.6G32K /zp1/backup zp1/backup/subvol-100-disk-0 553
ZFS e spazio occupato
Buongiorno lista, ho un dubbio relativo a ZFS. # zdb -DD zp1 DDT-sha256-zap-duplicate: 144703 entries, size 349 on disk, 200 in core DDT-sha256-zap-unique: 1176516 entries, size 306 on disk, 159 in core DDT histogram (aggregated over all DDTs): bucket allocated referenced __ __ __ refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE -- -- - - - -- - - - 11.12M 38.1G 23.0G 23.0G1.12M 38.1G 23.0G 23.0G 287.8K 1.96G 1.05G 1.05G 197K 4.21G 2.26G 2.26G 439.7K 1.41G729M729M 199K 7.04G 3.53G 3.53G 813.2K261M132M132M 131K 2.29G 1.17G 1.17G 16 493 3.05M 1.14M 1.14M10.4K 65.5M 24.5M 24.5M 32 107800K271K271K4.38K 33.6M 11.8M 11.8M 64 51374K112K112K4.62K 36.5M 11.3M 11.3M 1289163K 5.50K 5.50K1.48K 24.2M916K916K 2569 42K 4.50K 4.50K3.13K 16.0M 1.57M 1.57M 5122 1K 1K 1K1.11K566K566K566K 1K1 8K512B512B1.28K 10.3M656K656K 16K1 8K512B512B20.3K163M 10.2M 10.2M Total1.26M 41.7G 24.9G 24.9G1.68M 51.9G 30.0G 30.0G ^^ dedup = 1.21, compress = 1.73, copies = 1.00, dedup * compress / copies = 2.09 # zpool list NAME SIZE ALLOC FREE EXPANDSZ FRAGCAP DEDUP HEALTH ALTROOT zp1 99.5G 31.7G 67.8G -39%31% 1.20x ONLINE - ^ # df -h Filesystem Size Used Avail Use% Mounted on udev3.4G 0 3.4G 0% /dev tmpfs 697M 916K 696M 1% /run /dev/mapper/localhost--vg-root 112G 104G 6.5G 95% / tmpfs 3.5G 0 3.5G 0% /dev/shm tmpfs 5.0M 0 5.0M 0% /run/lock tmpfs 3.5G 0 3.5G 0% /sys/fs/cgroup /dev/sda1 236M 46M 178M 21% /boot zp1 65G 0 65G 0% /zp1 zp1/backup 65G 0 65G 0% /zp1/backup zp1/backup/subvol-109-disk-0 67G 2.3G 65G 4% /zp1/backup/subvol-109-disk-0 tmpfs 697M 0 697M 0% /run/user/0 zp1/backup/subvol-110-disk-0 75G 11G 65G 14% /zp1/backup/subvol-110-disk-0 zp1/backup/subvol-111-disk-0 66G 1.4G 65G 3% /zp1/backup/subvol-111-disk-0 zp1/backup/subvol-105-disk-0 67G 1.9G 65G 3% /zp1/backup/subvol-105-disk-0 zp1/backup/subvol-106-disk-0 68G 2.7G 65G 4% /zp1/backup/subvol-106-disk-0 zp1/backup/subvol-100-disk-0 66G 551M 65G 1% /zp1/backup/subvol-100-disk-0 zp1/backup/subvol-114-disk-0 66G 794M 65G 2% /zp1/backup/subvol-114-disk-0 zp1/backup/subvol-103-disk-0 66G 1.4G 65G 2% /zp1/backup/subvol-103-disk-0 zp1/backup/subvol-101-disk-0 66G 943M 65G 2% /zp1/backup/subvol-101-disk-0 zp1/backup/subvol-107-disk-0 66G 1.2G 65G 2% /zp1/backup/subvol-107-disk-0 zp1/backup/subvol-112-disk-0 66G 643M 65G 1% /zp1/backup/subvol-112-disk-0 zp1/backup/subvol-113-disk-0 71G 6.3G 65G 9% /zp1/backup/subvol-113-disk-0 zp1/backup/subvol-104-disk-0 66G 1.3G 65G 2% /zp1/backup/subvol-104-disk-0 Il dubbio è: quanto spazio sto effettivamente utilizzando? 41.7 GB dovrebbe essere lo spazio effettivamente utilizzato al netto della deduplica, a fronte di 51.9 GB di dati. Ma allora perchè zpool list mi dice di averne allocati solo 31.7 GB? Inoltre, perchè df non mi fa vedere lo spazio occupato da zp1 e/o zp1/backup, ma solo dai sottovolumi montati? Per esempio, ci sono almeno altri 2 sottovolumi, non montati, con i relativi snapshots, che occupano spazio. zp1 è un file da 100 GB (purtroppo essendo una vps non potevo fare diversamente). Sono attive sia deduplica che compressione. Grazie mille per le delucidazioni -- Marco Bertorello https://www.marcobertorello.it signature.asc Description: OpenPGP digital signature
Re: zfs o zfsonlinu su debian buster
Il 2019-06-23 20:32 Giuseppe Sacco ha scritto: Forse, se usi un initramfs, potresti provare a mettere il comando all'interno di uno dei suoi hook, prima che monti il file system di root. Più che altro bisogna capire perché nell'initram non lo ha messo automaticamente visto che mi ha creato anche il pacchetto di installazione. Ti ringrazio per il suggerimento. Provo a farlo manualmente e vediamo cosa succede. Paride http://keys.gnupg.net/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
Re: zfs o zfsonlinu su debian buster
Ciao Paride, Il giorno mer, 19/06/2019 alle 00.11 +0200, Paride Desimone ha scritto: > Il 2019-06-16 23:58 Paride Desimone ha scritto: > > pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa > > come > > poter fare in modo che il pool sia visibile direttamente all'avvio > > della macchina, perché a quel punto sposterei tutto il sistema > > tranne > > il boot, sul pool. Forse, se usi un initramfs, potresti provare a mettere il comando all'interno di uno dei suoi hook, prima che monti il file system di root. Ciao, Giuseppe
Re: zfs o zfsonlinu su debian buster
Il 2019-06-16 23:58 Paride Desimone ha scritto: pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa come poter fare in modo che il pool sia visibile direttamente all'avvio della macchina, perché a quel punto sposterei tutto il sistema tranne il boot, sul pool. Paride Domanda da 100 milioni di dollari eh? :-D -- http://keys.gnupg.net/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
zfs o zfsonlinu su debian buster
Buonasera. Ho provato ad installare su Buster, zfs direttamente dai repository, ma purtroppo non va a buon fine perché non si avvia. C'è già un bug aperto, e spero che pr il rilascio sia tutto a posto. Ho voluto provare a compilare direttamente dai sorgenti zfsonlinux prelevato da github, e mi funziona tutto tranne il fatto che al successivo riavvio della macchina debbo necessariamente reimportare il pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa come poter fare in modo che il pool sia visibile direttamente all'avvio della macchina, perché a quel punto sposterei tutto il sistema tranne il boot, sul pool. Paride -- http://keys.gnupg.net/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755)
Re: Verso ZFS / BTRFS
Il 06/07/2013 11:34, Paride Desimone ha scritto: > Dovrebbe essere sufficiente dato che da quel che ho letto sulla ml di > zfsonlinux.org, 8 gb sono condizione sufficiente a farlo. Ad ogni modo ti > conviene molto probabilmente chiedere maggiori delucidazioni proprio a quella > ml, dato che hanno anche rilasciato la versione stabile, e che ci sono i > repository anche per debian. Avevo visto anche qualche cosa a riguardo di > debian, gsoc e zfsonlinux[1]. > > Paride Grazie Paride, ho deciso che lo proverò e vedrò un po' come gira così mi faccio un idea. Ciaoo -- Davide -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d80d76.3030...@gmail.com
Re: Verso ZFS / BTRFS
Il 28/06/2013 19:22 Davide G. ha scritto: E' una macchinetta domestica che deve fare da fileserver "familiare" con quindi poche utenze, accesso saltuario e poche esigenze di prestazioni. La cpu è piccolina (1.6 Ghz 2 core fisici) ma ha 8 GB di ram che dato che non so cosa farmene uso in buona parte come tmps per share veloci e temporanee dato che in buona parte erano inutilizzati (o per operazioni lunghe su file come compressioni che faccio partire via ssh, mi porto via il portatile e quando torno le trovo finite). Parliamo di una macchina che fa solo fileserver e che nelle stesse condizioni su Ext4 aveva sempre un uso di risorse vicino allo 0%, che sarebbero quindi completamente a disposizione per ZFS. Dovrebbe essere sufficiente dato che da quel che ho letto sulla ml di zfsonlinux.org, 8 gb sono condizione sufficiente a farlo. Ad ogni modo ti conviene molto probabilmente chiedere maggiori delucidazioni proprio a quella ml, dato che hanno anche rilasciato la versione stabile, e che ci sono i repository anche per debian. Avevo visto anche qualche cosa a riguardo di debian, gsoc e zfsonlinux[1]. Paride [1]http://lists.alioth.debian.org/pipermail/soc-coordination/2013-March/001395.html -- http://keyserver.linux.it/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755) -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/765b7e80bc6144121281c995fc600...@autistici.org
Re: Verso ZFS / BTRFS
.. non lo so.. ma ZFS non mi ha convinto. Anche se ZFS unisce più funzionalità tipiche di layer diversi in uno solo, continuerei a consigliare LVM2 + EXT4 + quello che ti serve (come le ACL estese, ecc). Personalmente uso (ancora per poco) un file server con un vecchio Xeon e 10 Gbyte da RAM su un controller RAID Hardware (HP 400i) e quella macchina è piegata in due da ZFS, avrà tanti punti a favore, ma penso che per sfruttarli a dovere o hai una dotazione adeguata oppure ... IMHO CIAO Luca -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130628192626.m67...@corep.it
Re: Verso ZFS / BTRFS
Il 28/06/2013 20:21, Pol Hallen ha scritto: > per questo non hai bisogno di un fs "avanzato": oltre ai classici > chmod/chown puoi usare le acl (e chattr) Vero, infatti questo lo facevo anche prima. >> - La directory principale era una share samba non "browseable" a cui solo un >> utente aveva accesso. > > valid users = user1,user2,ecc > browseable = no Come facevo prima quindi, ok. Pensavo servisse un metodo più pulito. >> - Per "nascondere" le cartelle non riguardanti gli altri 2 utenti anziché >> condividere le cartelle stesse, ne avevo creata una contenente al suo >> interno i >> solo link simbolici alle cartelle a cui gli altri 2 utenti potevano accedere. > > [...] > > (io) per non complicarmi la vita quando ci sono decine e decini di > utenti divisi per gruppi, ecc. > > ho le mie dir non-broseable, tipo: > > /samba/admin > > e per gli user: > > /samba/office/user1 > /samba/office/user2 > [...] > /samba/administration/user3 > /samba/administration/user4 > > e lavoro di chown Eh no, nel mio caso se facessi così dovrei duplicare gli stessi dati su tutti gli utenti. Certo la deduplicazione dei dati di ZFS snellirebbe il tutto ma avrei il problema che cancellare una cosa vorrebbe dire cancellarla da tutte le dir degli utenti. Nel mio caso preferivo un albero unico, e ogni utente accedeva ai "rami" che gli interessavano. >> Se usassi ZFS (o btrfs), quale sarebbe il modo corretto di "pensare" quanto >> scritto sopra? > > purtroppo non conosco questa funzionalità di zfs :-( ma qualcuno avrà > sicuramente una risposta :-) In realtà non credo esista una funzionalità del genere. Semplicemente condividevo dei link simbolici in modo che ognuno vedesse solo ciò che decidevo io. Speravo in una soluzione più pulita. >> Quello che mi chiedevo è: quando ho provato a creare un pool io lo vedevo non >> solo attivo, ma montato. Inoltre andando con "zfs get all" a chiedere i >> parametri, mi dava la conferma che il pool aveva già al suo interno un >> filesystem "radice" (dentro al quale posso ovviamente creare anche volumi >> ecc...). Perché creare un solo altro FS al suo interno? se non ho bisogno di >> crearne altri, perché non usare quello già presente? > > non ricordo la configurazione su freebsd però mi diventava utile > utilizzare più fs per gli snapshot online (quindi trasparenti al sistema) Vero, non ci ho pensato. Grazie ! >> Quello che cerco principalmente da questo passaggio è il checksum, gli >> snapshot, la possibilità di spostare l'archivio in blocco a un altro sistema >> (o >> backupparlo) con tutte le sue proprietà e mi sembra molto buono da un punto >> di >> vista di affidabilità il fatto che in caso di mirror o raidz il FS >> "collabora" >> col pool per la gestione degli errori (ad esempio checksum + mirror >> gestiscono >> il caso di corruzione "silenziosa" dei dati senza il rischio si sincronizzare >> il disco sbagliato). > > solo una domanda: che hardware usi? zfs (almeno su freebsd) per girare > in modo "normale" ha bisogno di almeno 8Gb di ram (meglio ECC). E' una macchinetta domestica che deve fare da fileserver "familiare" con quindi poche utenze, accesso saltuario e poche esigenze di prestazioni. La cpu è piccolina (1.6 Ghz 2 core fisici) ma ha 8 GB di ram che dato che non so cosa farmene uso in buona parte come tmps per share veloci e temporanee dato che in buona parte erano inutilizzati (o per operazioni lunghe su file come compressioni che faccio partire via ssh, mi porto via il portatile e quando torno le trovo finite). Parliamo di una macchina che fa solo fileserver e che nelle stesse condizioni su Ext4 aveva sempre un uso di risorse vicino allo 0%, che sarebbero quindi completamente a disposizione per ZFS. A Luca invece: > Ciao ! > > Uso da diverso tempo ZFS in BSD e lo trovo terribilmente pesante, affamato di > memoria e lento. > Probabilmente se usi una super macchina è anche un bel file system, anche se > non è un file system ZFS, ma molto di più. > > Mha, non lo so.. ha pregi e difetti, dipende per cosa lo usi e soprattutto su > cosa lo usi. Vedi quanto scritto sopra. Samba mi usa un solo core al 100% durante i trasferimenti lasciandomi l'altro libero e viaggio a 40 MB/s, che per l'uso casalingo sono più che sufficienti. Se l'altro core a ZFS basta per lavorare a 40MB/s allora sono tranquillo (anche un po' meno andrebbe bene). Non ne ho bisogno, però se i difetti non mi sono di impiccio potrebbe farmi comodo e già che ci sono mi faccio un po' di esperienza in quest'ambito. Su btrfs invece? nessuna opinione? Ciao Davide -- Davide -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51cde27c.5000...@gmail.com
Re: Verso ZFS / BTRFS
Ciao, ti rispondo in parte e ti premetto che uso zfs su freebsd (su linux non ho ancora avuto necessità). > - Directory principale condivisa a cui un solo utente ha pieno accesso > - Diverse cartelle di cui solo alcune visibili e accessibili (e eventualmente > scrivibili) da altri 2 utenti. > - In alcuni (pochi) casi la regola scritta appena sopra deve valere anche per > le sottocartelle. per questo non hai bisogno di un fs "avanzato": oltre ai classici chmod/chown puoi usare le acl (e chattr) > - La directory principale era una share samba non "browseable" a cui solo un > utente aveva accesso. valid users = user1,user2,ecc browseable = no > - Per "nascondere" le cartelle non riguardanti gli altri 2 utenti anziché > condividere le cartelle stesse, ne avevo creata una contenente al suo interno > i > solo link simbolici alle cartelle a cui gli altri 2 utenti potevano accedere. [...] (io) per non complicarmi la vita quando ci sono decine e decini di utenti divisi per gruppi, ecc. ho le mie dir non-broseable, tipo: /samba/admin e per gli user: /samba/office/user1 /samba/office/user2 [...] /samba/administration/user3 /samba/administration/user4 e lavoro di chown > Se usassi ZFS (o btrfs), quale sarebbe il modo corretto di "pensare" quanto > scritto sopra? purtroppo non conosco questa funzionalità di zfs :-( ma qualcuno avrà sicuramente una risposta :-) posso dirti che da vista in poi (e usando lvm) puoi rendere disponibile le shadow copy ma è una funzionalità di lvm. > Quello che mi chiedevo è: quando ho provato a creare un pool io lo vedevo non > solo attivo, ma montato. Inoltre andando con "zfs get all" a chiedere i > parametri, mi dava la conferma che il pool aveva già al suo interno un > filesystem "radice" (dentro al quale posso ovviamente creare anche volumi > ecc...). Perché creare un solo altro FS al suo interno? se non ho bisogno di > crearne altri, perché non usare quello già presente? non ricordo la configurazione su freebsd però mi diventava utile utilizzare più fs per gli snapshot online (quindi trasparenti al sistema) > Quello che cerco principalmente da questo passaggio è il checksum, gli > snapshot, la possibilità di spostare l'archivio in blocco a un altro sistema > (o > backupparlo) con tutte le sue proprietà e mi sembra molto buono da un punto di > vista di affidabilità il fatto che in caso di mirror o raidz il FS "collabora" > col pool per la gestione degli errori (ad esempio checksum + mirror gestiscono > il caso di corruzione "silenziosa" dei dati senza il rischio si sincronizzare > il disco sbagliato). solo una domanda: che hardware usi? zfs (almeno su freebsd) per girare in modo "normale" ha bisogno di almeno 8Gb di ram (meglio ECC). Pol -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51cdd42a.9050...@fuckaround.org
Re: Verso ZFS / BTRFS
Ciao ! Uso da diverso tempo ZFS in BSD e lo trovo terribilmente pesante, affamato di memoria e lento. Probabilmente se usi una super macchina è anche un bel file system, anche se non è un file system ZFS, ma molto di più. Mha, non lo so.. ha pregi e difetti, dipende per cosa lo usi e soprattutto su cosa lo usi. CIAO Luca -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130628180957.m19...@corep.it
Verso ZFS / BTRFS
Un ciao a tutta la lista. Stavo valutando la migrazione verso un FS più "avanzato" come quelli descritti sopra. Valutavo principalmente ZFS usando il modulo del kernel zfsonlinux ma anche btrfs sembra abbia le funzionalità che cerco. Ho notato che anche da un punto di vista di mentalità sono molto diversi dai FS più semplici con cui sono abituato a lavorare. Ho anche visto che zfs include una specie di "condivisione samba" che potrebbe essere molto comoda. A parte ogni consiglio/considerazione riguardo ai 2 FS citati, vorrei sapere quale sarebbe "concettualmente" il modo migliore per fare ciò che facevo prima su ext4 mantenendo samba come protocollo di condivisione: - Directory principale condivisa a cui un solo utente ha pieno accesso - Diverse cartelle di cui solo alcune visibili e accessibili (e eventualmente scrivibili) da altri 2 utenti. - In alcuni (pochi) casi la regola scritta appena sopra deve valere anche per le sottocartelle. Prima per gestire quanto sopra avevo fatto così (so che non è pulitissimo ma andava): - La directory principale era una share samba non "browseable" a cui solo un utente aveva accesso. - Le cartelle (e loro sottocartelle) avevano i permessi settati secondo quanto necessario. - Per "nascondere" le cartelle non riguardanti gli altri 2 utenti anziché condividere le cartelle stesse, ne avevo creata una contenente al suo interno i solo link simbolici alle cartelle a cui gli altri 2 utenti potevano accedere. Cioè io ho: / /A (da non condividere) /B (da condividere) /C/1(da non condividere) /C/2(da condividere) e una cartella D così strutturata /D/B(link a B) /D/C/2 (link a /C/2) In questo modo gli altri utenti vedevano la share D, e io invece accedevo alla radice "non visibile". Se usassi ZFS (o btrfs), quale sarebbe il modo corretto di "pensare" quanto scritto sopra? Aggiungo inoltre riguardo a ZFS: Su internet leggo che molti dopo aver creato il pool, creano un FS al suo interno. Il fatto che si posso creare filesystem uno contenuto all'altro con proprietà e quote diverse l'ho capito. Quello che mi chiedevo è: quando ho provato a creare un pool io lo vedevo non solo attivo, ma montato. Inoltre andando con "zfs get all" a chiedere i parametri, mi dava la conferma che il pool aveva già al suo interno un filesystem "radice" (dentro al quale posso ovviamente creare anche volumi ecc...). Perché creare un solo altro FS al suo interno? se non ho bisogno di crearne altri, perché non usare quello già presente? Quello che cerco principalmente da questo passaggio è il checksum, gli snapshot, la possibilità di spostare l'archivio in blocco a un altro sistema (o backupparlo) con tutte le sue proprietà e mi sembra molto buono da un punto di vista di affidabilità il fatto che in caso di mirror o raidz il FS "collabora" col pool per la gestione degli errori (ad esempio checksum + mirror gestiscono il caso di corruzione "silenziosa" dei dati senza il rischio si sincronizzare il disco sbagliato). Se ho detto castronerie correggetemi perché quello di questi FS per me è un mondo tutto nuovo e non ho ancora capito come funziona l'approccio mentale. Ciao e grazie a tutti Davide -- Davide -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51cdce28.5080...@gmail.com
zfs su linux
Ciao a tutti, qualcuno ha del materiale che spieghi in maniera molto veloce come usare zfs su linux? Ho scaricato e compilato i pacchetti da zfsonlinux.org, ma non ho idea proprio di come funzioni. Paride -- http://keyserver.linux.it/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi e' pronto a rinunciare alle proprie liberta' fondamentali per comprarsi briciole di temporanea sicurezza non merita ne' la liberta' ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, Assemblea della Pennsylvania, 11 novembre 1755) -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/ce7fa3c4e041c0e0d20981b8ba189...@autistici.org
Re: kFreeBSD zfs e nfs
La sto giusto provando in queste ore, l'unica pecca che per il momento ho trovato e' quella che segnalai gia' qualche tempo fa, ovvero su di un file system ZFS non si riesce a fare un: *zfs set sharenfs=on poolname/file_system* in quando viene riportato il messaggio di errore: *warning: mountd isn't supported in Debian GNU/kFreeBSD yet* Uso questa feature da diversi anni su Solaris, ma su kFreeBSD non riesco in alcun modo a farla funzionare... A mio avviso questo "problemino" limita molto la possibilita' d'utilizzo in ambito "server" (almeno per quanto mi riguarda). Ciao Roberto Il 12/12/2010 14:32, roberto luksenburg ha scritto: zfs set sharenfs=on di abilitare l'opzione di sharing, ma kFreeBSD mi risponde warning: mountd isn't supported in Debian GNU/kFreeBSD yet -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4d503243.3090...@gmail.com
Re: kFreeBSD zfs e nfs
ti ringrazio per la "dritta", ma purtroppo non funziona, IMHO il problema e' che manca proprio "mountd", infatti nei .deb non trovo nfs-common; deve per caso essere ancora rilasciato il package per squeeze ? TIA Roberto On 13/12/2010 17:41, emmanuel segura wrote: prova questa guida http://unix.openmilano.com/?p=46 Il 12 dicembre 2010 14:32, roberto luksenburg ha scritto: A seguito delle nuove politiche di Oracle, sto tentando di continuare ad utilizzare ZFS su dei sistemi in produzione ed e' da qualche tempo che sto cercando qualcosa di alternativo a OpenSolaris / Solaris; nelle varie ricerche mi sono imbattuto in kFreeBSD, che secondo me "promette" molto bene. E' da un paio di settimane che lo sto provando e direi che non mi ha dato nessun problema, l'unico neo e' che non riesco ad esportare un file system ZFS in NFS; mi spiego meglio, dopo aver creato il file system, cerco tramite il comando: zfs set sharenfs=on di abilitare l'opzione di sharing, ma kFreeBSD mi risponde warning: mountd isn't supported in Debian GNU/kFreeBSD yet purtroppo questa mi sembra una grande limitazione e fiducioso ho cercato su internet, ma non sono riuscito a trovare nulla di significativo. Qualcuno di voi ha provato una simile configurazione ? TIA Roberto -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4d04cee6.1010...@gmail.com -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4d0680ae.7070...@gmail.com
Re: kFreeBSD zfs e nfs
prova questa guida http://unix.openmilano.com/?p=46 Il 12 dicembre 2010 14:32, roberto luksenburg ha scritto: > A seguito delle nuove politiche di Oracle, sto tentando di continuare ad > utilizzare ZFS su dei sistemi in produzione ed e' da qualche tempo che > sto cercando qualcosa di alternativo a OpenSolaris / Solaris; nelle > varie ricerche mi sono imbattuto in kFreeBSD, che secondo me "promette" > molto bene. > > E' da un paio di settimane che lo sto provando e direi che non mi ha > dato nessun problema, l'unico neo e' che non riesco ad esportare un file > system ZFS in NFS; mi spiego meglio, dopo aver creato il file system, > cerco tramite il comando: > > zfs set sharenfs=on > > di abilitare l'opzione di sharing, ma kFreeBSD mi risponde > > warning: mountd isn't supported in Debian GNU/kFreeBSD yet > > purtroppo questa mi sembra una grande limitazione e fiducioso ho cercato > su internet, ma non sono riuscito a trovare nulla di significativo. > > > Qualcuno di voi ha provato una simile configurazione ? > TIA Roberto > > > > -- > Per REVOCARE l'iscrizione alla lista, inviare un email a > debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per > problemi inviare un email in INGLESE a listmas...@lists.debian.org > > To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org > with a subject of "unsubscribe". Trouble? Contact > listmas...@lists.debian.org > Archive: http://lists.debian.org/4d04cee6.1010...@gmail.com > > -- esta es mi vida e me la vivo hasta que dios quiera -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/aanlktinat+ncpqzhsea0812axdt0t3hudrw=w5r-f...@mail.gmail.com
kFreeBSD zfs e nfs
A seguito delle nuove politiche di Oracle, sto tentando di continuare ad utilizzare ZFS su dei sistemi in produzione ed e' da qualche tempo che sto cercando qualcosa di alternativo a OpenSolaris / Solaris; nelle varie ricerche mi sono imbattuto in kFreeBSD, che secondo me "promette" molto bene. E' da un paio di settimane che lo sto provando e direi che non mi ha dato nessun problema, l'unico neo e' che non riesco ad esportare un file system ZFS in NFS; mi spiego meglio, dopo aver creato il file system, cerco tramite il comando: zfs set sharenfs=on di abilitare l'opzione di sharing, ma kFreeBSD mi risponde warning: mountd isn't supported in Debian GNU/kFreeBSD yet purtroppo questa mi sembra una grande limitazione e fiducioso ho cercato su internet, ma non sono riuscito a trovare nulla di significativo. Qualcuno di voi ha provato una simile configurazione ? TIA Roberto -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4d04cee6.1010...@gmail.com
zfs e sid
Ciao a tutti, leggo[1] che squeeze ci sara' l’inclusione di ZFS che sarà supportato in Debian Squeeze usando l’installer ufficiale. Ci sono notizie a riguardo di sid? Paride [1]https://gnupress.wordpress.com/2010/11/29/debian-squeeze-sara-la-prima-con-zfs/ -- http://keyserver.linux.it/pks/lookup?op=get&search=0xCC6CA35C690431D3 Chi è pronto a rinunciare alle proprie libertà fondamentali per comprarsi briciole di temporanea sicurezza non merita né la libertà né la sicurezza.” (Benjamin Franklin, 11 novembre 1755) -- Per REVOCARE l'iscrizione alla lista, inviare un email a debian-italian-requ...@lists.debian.org con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a listmas...@lists.debian.org To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/1291323683.17877.2.ca...@rivendel.homelinux.com