Re: zfs

2024-05-10 Per discussione Alessandro Baggi




Il 10/05/24 14:24, Paride Desimone ha scritto:

Il 26-04-2024 11:09 Paride Desimone ha scritto:


La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html


zpool import -D
no pools available to import



Risolto. Era un problema di sequenza errata di montaggio dei dischi. 
erano cambiati gli uuid dei dischi. Una volta ricreati tutti gli uuid e 
rimontati nella giusta sequenza, tutto è tornato "magicamente" a posto


/paride


Ottimo, grazie per il feedback.

Potresti riportare la procedura di risoluzione in modo che altri utenti 
possano usufruirne?


Grazie.



Re: zfs

2024-05-10 Per discussione Paride Desimone

Il 26-04-2024 11:09 Paride Desimone ha scritto:


La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html


zpool import -D
no pools available to import



Risolto. Era un problema di sequenza errata di montaggio dei dischi. 
erano cambiati gli uuid dei dischi. Una volta ricreati tutti gli uuid e 
rimontati nella giusta sequenza, tutto è tornato "magicamente" a posto


/paride
--
https://keyserver.gnupg.org/pks/lookup?op=get=0xf14cd648d16d33c82a7d2ac778c59a24690431d3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




Re: zfs

2024-04-26 Per discussione Paride Desimone

Il 24-04-2024 16:53 Alessandro Baggi ha scritto:

sti dischi per poter accedere i dati?


La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html


zpool import -D
no pools available to import

Dopo il destroy

uhm...

/paride

--
https://keyserver.gnupg.org/pks/lookup?op=get=0xf14cd648d16d33c82a7d2ac778c59a24690431d3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




Re: zfs

2024-04-24 Per discussione Alessandro Baggi




Il 24/04/24 16:29, Paride Desimone ha scritto:

Buongiorno.


Ciao, non so se hai già risolto ma premetto che non sono ferrato su ZFS 
(lo uso da poco) ne tantomeno su VSphere/ESXi e company (non li uso da 
un bel po) quindi se dico qualche capp---ata, perdonatemi e correggetemi.



Ho una vm con due dischi che erano parte di un pool zfs.
Ora dopo che la macchina ha avuto varie problematiche (a seguito 
aggiornamento vmware non partiva più),  ho la necessità di rimontare 
questi due dischi sulla stessa vm, che inutile dirlo non riesco a montare.


Prima di tutto, scusa se te lo chiedo: ma hai/avete fatto qualche test 
prima di aggiornare tutto? Dalla mia esperienza con ESXi ad ogni 
aggiornamento era una menata, non oso immaginare migrare tra major release.


Spero tu abbia un backup dei dati sul pool.




dando: zpool list
NAME SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
ncdata  -  -  -  -  -  FAULTED  -

ho la situazione precedente.
provo allora a fare uno "zpool status -x" ed ottengo

   pool: ncdata
  state: UNAVAIL
status: One or more devices could not be opened.  There are insufficient
 replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
    see: http://www.sun.com/msg/ZFS-8000-3C
  scrub: none requested
Aborted (core dumped)




Da quello che mi sembra di capire non vede i device. Infatti lui ti 
consiglia di metterli online con:


"action: Attach the missing device and online it using 'zpool online'."


Se non dovesse funzionare...da quello che ho capito sono dischi virtuali 
giusto? Questi dischi sono accessibili al sistema nel senso che il 
sistema li vede? Puoi maneggiarli? Le partition table di dei dischi per 
zfs è rimasta uguale?


Può essere che durante l'aggiornamento c'è stata anche una modifica al 
formato delle immagini dei dischi e le stesse sono state modificate 
(aggiornate al nuovo formato) e zfs non riconosce più i suoi devices?


> Se gli do zpool import ncdata
> ottengo
> cannot import 'ncdata': a pool with that name is already 
created/imported,

> and no additional pools with that name were found
>

Potresti provare ad esportare il pool e poi re-importarlo ma non so che 
succede se è in uno stato UNAVAIL


Prova ad importare specificando almeno un device (non sono responsabile 
di quello che succederà), tipo:


# zpool import -d /dev/sdb1 ncdata



se gli do zpool add ncdata /dev/sdb1 /dev/sdc1
ottengo
cannot open 'ncdata': pool is unavailable

Ora, non sono proprio ferrato in zfs. Qualcuno saprebbe darmi una mano a 
capire come montare questi dischi per poter accedere i dati?


La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html

Magari fa qualche prova su un'altra VM con immagini di piccole 
dimensione e con qualche dato dentro e vedi se un export, un destroy non 
ti distrugge i dati e ti permette veramente di recuperare il pool.


Al momento non mi viene altro in mente se non ricrea il pool e fai il 
restore del backup.


Qualche nota su ZFS:

1. per esperienza personale devi sempre usare i nomi persistenti dei 
dischi con ZFS (tipo /dev/disk/by-id/.). Qualche tempo fa ho usato i 
nomi canonici e la scheda madre li invertiva ad ogni reboot cosi ZED mi 
rompeva ad ogni avvio dicendo che c'èrano problemi e mi lanciava un 
resilvering.


2. Mi hanno sempre sconsigliato di utilizzare ZFS su dischi virtuali in 
quanto ZFS deve accedere direttamente ai device. Inoltre se le immagini 
virtuali sono COW mettere un filesystem COW su immagini COW rallenta le 
performance, ma di usare i device fisici, montarli e dire all'hypervisor 
di usare quel mountpoint come risorsa. Se proprio non ne puoi fare a 
meno e sei costretto ad usare come dischi delle immagini che siano 
almeno in formato RAW. Non ho esperienza di questo ma sembra sensato.


Fammi sapere come va, che sono interessato.

Un saluto.



zfs

2024-04-24 Per discussione Paride Desimone

Buongiorno.
Ho una vm con due dischi che erano parte di un pool zfs.
Ora dopo che la macchina ha avuto varie problematiche (a seguito 
aggiornamento vmware non partiva più),  ho la necessità di rimontare 
questi due dischi sulla stessa vm, che inutile dirlo non riesco a 
montare.


dando: zpool list
NAME SIZE  ALLOC   FREECAP  DEDUP  HEALTH  ALTROOT
ncdata  -  -  -  -  -  FAULTED  -

ho la situazione precedente.
provo allora a fare uno "zpool status -x" ed ottengo

  pool: ncdata
 state: UNAVAIL
status: One or more devices could not be opened.  There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
   see: http://www.sun.com/msg/ZFS-8000-3C
 scrub: none requested
Aborted (core dumped)

Se gli do zpool import ncdata
ottengo
cannot import 'ncdata': a pool with that name is already 
created/imported,

and no additional pools with that name were found

se gli do zpool add ncdata /dev/sdb1 /dev/sdc1
ottengo
cannot open 'ncdata': pool is unavailable

Ora, non sono proprio ferrato in zfs. Qualcuno saprebbe darmi una mano a 
capire come montare questi dischi per poter accedere i dati?

--
https://keyserver.gnupg.org/pks/lookup?op=get=0xf14cd648d16d33c82a7d2ac778c59a24690431d3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




Re: Debian 12.5 e ZFS [BUG]

2024-04-14 Per discussione Alessandro Baggi




Il 14/04/24 10:23, Davide Prina ha scritto:

Alessandro Baggi ha scritto:


In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.

Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug



Non riesco a trovare nulla che indichi che in stable il problema sia
stato risolto


se usi Firefox installa webext-debianbuttons... è un'estensione
utilissima

* ti copi il nome del pacchetto zfs-dkms
* apri debian buttons e fai click su package tracker
   questo ti apre la pagina del riepilogo del pacchetto sorgente
   usato per generare quel pacchetto
* qui fai clic su "security tracker" e ti apre:
https://security-tracker.debian.org/tracker/source-package/zfs-linux

questo per vedere se il bug di sicurezza è stato risolto e dove

se il bug non è di sicurezza, allora devi guardare tra i bug normali
e anche per questo c'è il link sulla stessa pagina.
https://bugs.debian.org/cgi-bin/pkgreport.cgi?repeatmerged=yes=zfs-linux

Notare che in questo caso essendo coinvolto anche coreutils dovresti
vedere anche questo pacchetto.

In alternativa puoi eseguire:
$ apt changelog zfs-dkms

e vedere se è citato nei changelog

Se il bug è questo:
https://github.com/openzfs/zfs/issues/15526

allora è indicato che
The bug was fixed in #15571 and
was backported to 2.2.2 and 2.1.14.

Altrimenti con quanto indicato sopra dovresti riuscire a trovare
qualche riferimento e capire se è risolto sulla tua installazione.

Ciao
Davide



Ciao Davide,
e grazie mille per i link, mi si è aperto un mondo La prossima volta 
userò il bugtracker di debian prima di cercare altrove.


Nel primo link che hai postato, non so perche io cercavo zfs-dkms invece 
di zfs-linux, è riportato il bug e in debian bookworm non è fixato (è 
marcata come vulnerable).


Inoltre ho letto in fondo alla pagine questa riga:

"[bookworm] - zfs-linux  (contrib not supported)"

(no-dsa dovrebbe significare che non è urgente nel senso che non è un 
bug critico per la sicurezza [no-dsa è stato cambiato in  e 
 dal 03/2024)]


ma leggendo qui:

https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=1056752

il manutentore riporta che:

"The fix will land in bookworm-backports and bullseye-backports-sloppy
shortly after 2.1.14-1 migrates to testing, which will take about 2
days hopefully. Fixes to 2.0.3-9+deb11u1 (bullseye) and 2.1.11-1
(bookworm) are planned but will likely take more time.

Such an issue is marked low-priority because the bug itself isn't
urgent from a security update point of view, which means an attacker
can only cause damage in rare cases. It's still recommended to update
or at least apply mitigations to the problem (by setting
zfs_dmu_offset_next_sync to 0 on bookworm) to avoid potential data
loss."

quindi impostando zfs_dmu_offset_next_sync a 0 non dovrebbe esserci il 
problema e nessuna perdita di dati?


e anche il comando apt changelog  fenomenale, non lo 
conoscevo, per non parlare dell'estensione per FF.


Grazie ancora!

Un saluto,

Alessandro.



Re: Debian 12.5 e ZFS [BUG]

2024-04-14 Per discussione Davide Prina
Alessandro Baggi ha scritto:

> In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.
> 
> Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug

> Non riesco a trovare nulla che indichi che in stable il problema sia 
> stato risolto

se usi Firefox installa webext-debianbuttons... è un'estensione
utilissima

* ti copi il nome del pacchetto zfs-dkms
* apri debian buttons e fai click su package tracker
  questo ti apre la pagina del riepilogo del pacchetto sorgente
  usato per generare quel pacchetto
* qui fai clic su "security tracker" e ti apre:
https://security-tracker.debian.org/tracker/source-package/zfs-linux

questo per vedere se il bug di sicurezza è stato risolto e dove

se il bug non è di sicurezza, allora devi guardare tra i bug normali
e anche per questo c'è il link sulla stessa pagina.
https://bugs.debian.org/cgi-bin/pkgreport.cgi?repeatmerged=yes=zfs-linux

Notare che in questo caso essendo coinvolto anche coreutils dovresti
vedere anche questo pacchetto.

In alternativa puoi eseguire:
$ apt changelog zfs-dkms

e vedere se è citato nei changelog

Se il bug è questo:
https://github.com/openzfs/zfs/issues/15526

allora è indicato che
The bug was fixed in #15571 and
was backported to 2.2.2 and 2.1.14.

Altrimenti con quanto indicato sopra dovresti riuscire a trovare
qualche riferimento e capire se è risolto sulla tua installazione.

Ciao
Davide

--
La mia privacy non è affar tuo
https://noyb.eu/it
- You do not have my permission to use this email to train an AI -
If you use this to train your AI than you accept to distribute under AGPL
license >= 3.0 all the model trained, all the source you have used to
training your model and all the source of the program that use that model



Re: Debian 12.5 e ZFS [BUG]

2024-04-12 Per discussione Alessandro Baggi




Il 12/04/24 14:56, Piviul ha scritto:

On 4/10/24 20:09, Alessandro Baggi wrote:

Salve ragazzi,
ho un dubbio che non riesco a districare.

In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.

Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug 
che era presente da molti anni ma che sui sistemi con coreutils 9 in 
certe condizioni corrompeva i dati.


Non riesco a trovare nulla che indichi che in stable il problema sia 
stato risolto tipo un nuovo aggiornamento, delle istruzioni per 
mitigare il problema, molte volte (anche il progetto openzfs) dice di 
usare backports ma i backports non fanno parte del progetto LTS, cosi 
il supporto è minore in termini di tempo.


non uso zfs ma mi accodo alla domanda ed aggiungo non esiste un 
changelog per ogni aggiornamento di un pacchetto? ...può anche darsi che 
su bookwork tutti usino i pacchetti zfs su backports ma parrebbe strano 
che nessuno si lamenti di data corruption in debian bookworm. Comunque a 
questo punto la curiosità è tanta...


Piviul




Ciao Piviul,
ho fatto un pò di ricerche. Sembrerebbe che la versione su Debian 12 non 
sia interessata da quel bug specifico. Invece è presente un bug di 
corruzione nel caso si utilizzi la cifratura di ZFS e si esegua un send 
(se non ho capito male) ma non uso la cifratura di ZFS. Non capisco pero 
perche non viene riportato niente per il pacchetto di stable.


Non ho letto di nessuno che abbia problemi o si lamenti del bug su 
Debian Stable quindi o nessuno usa ZFS, o non è presente o tutti usano 
zfs dai backports oppure tutti se ne fregano.


Ho comunque fatto dei test e ho lanciato uno script che riproduce 
l'errore (ovvero i file copiati dovrebbero essere pieni di 0..). Il 
test l'ho fatto girare per qualche ora e in nessuna iterazione del test 
mi ha dato errore. Questo non significa che il bug non sia presente ma 
dopo diverse ore di scritture se non è uscito qualcosa.


Inoltre ho letto che c'è una mitigazione che consiste nell'aggiungere un 
parametro di boot per zfs:


zfs.zfs_dmu_offset_next_sync=0

che ho comunque attivato prima di avviare lo script riproduttore.

Inoltre ho letto che il bug affligge solo chi ha il block cloning 
attivo, e nel caso di Debian 12 non sembra esserci.


In un post su Reddit viene riportato:

"If it says disabled, you are not hit by this bug: zpool get all|grep 
block_cloning"


So che non è una fonte autorevole ma i test sembrano confermarlo.

Un saluto.
Alessandro.




Re: Debian 12.5 e ZFS [BUG]

2024-04-12 Per discussione Piviul

On 4/10/24 20:09, Alessandro Baggi wrote:

Salve ragazzi,
ho un dubbio che non riesco a districare.

In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.

Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug 
che era presente da molti anni ma che sui sistemi con coreutils 9 in 
certe condizioni corrompeva i dati.


Non riesco a trovare nulla che indichi che in stable il problema sia 
stato risolto tipo un nuovo aggiornamento, delle istruzioni per 
mitigare il problema, molte volte (anche il progetto openzfs) dice di 
usare backports ma i backports non fanno parte del progetto LTS, cosi 
il supporto è minore in termini di tempo.


non uso zfs ma mi accodo alla domanda ed aggiungo non esiste un 
changelog per ogni aggiornamento di un pacchetto? ...può anche darsi che 
su bookwork tutti usino i pacchetti zfs su backports ma parrebbe strano 
che nessuno si lamenti di data corruption in debian bookworm. Comunque a 
questo punto la curiosità è tanta...


Piviul




Debian 12.5 e ZFS [BUG]

2024-04-10 Per discussione Alessandro Baggi

Salve ragazzi,
ho un dubbio che non riesco a districare.

In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.

Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug che 
era presente da molti anni ma che sui sistemi con coreutils 9 in certe 
condizioni corrompeva i dati.


Non riesco a trovare nulla che indichi che in stable il problema sia 
stato risolto tipo un nuovo aggiornamento, delle istruzioni per mitigare 
il problema, molte volte (anche il progetto openzfs) dice di usare 
backports ma i backports non fanno parte del progetto LTS, cosi il 
supporto è minore in termini di tempo.


Ho provato a inviare un'email al manutentore del pacchetto ma non ho 
ricevuto risposta.


Qualcuno sa con certezza se il BUG in stable è stato fixato o no? Sono 
costretto ad usare zfs-dkms da bookworm-backports?


Un saluto e una buona serata.

Alessandro.



Re: ZFS e checksum error...

2024-03-19 Per discussione Marco Gaiarin


>> come posso dirgli: butta pure via i file corrotti e fregatene?
> Mi rispondo da solo:
> zpool clear -F rpool-backup

Col piffero, questo azzera gli errori ma non li corregge... basta uno scrub
e tornano fuori...

-- 
  I matti tutta la vita dentro la notte
  chiusi a chiave   (F. De Gregori)




Re: ZFS e checksum error...

2024-03-19 Per discussione Marco Gaiarin


> come posso dirgli: butta pure via i file corrotti e fregatene?

Mi rispondo da solo:

zpool clear -F rpool-backup

-- 
  Voi non ci crederete
  la mia ragazza sogna  (R. Vecchioni)




ZFS e checksum error...

2024-03-18 Per discussione Marco Gaiarin


ZFS mi stupisce sempre... ad ogni modo, è colpa mia. Sono andato a ravanare
in un server di backup per togliere un controller, ho sicuramente fatto
casino con i cavi e ho allentato un connettore di alimentazione.


Morale della favola, qualche giorno dopo tutti i dischi di un pool hanno
iniziato a dare errori (fisici e logici).


Ho spento il server, sistemato il cablaggio, fatto ripartire e ovviamente è
partito il 'resilver' del pool, che ha già terminato due dischi e sta
lavorando sugli altri due:

 zpool status -v rpool-backup

   pool: rpool-backup
  state: DEGRADED
 status: One or more devices is currently being resilvered.  The pool will
 continue to function, possibly in a degraded state.
 action: Wait for the resilver to complete.
   scan: resilver in progress since Mon Mar 18 14:01:02 2024
 458G scanned at 294M/s, 84.4G issued at 54.1M/s, 13.5T total
 20.4G resilvered, 0.61% done, 3 days 00:15:17 to go
 config:

NAME STATE READ WRITE CKSUM
rpool-backup DEGRADED 0 0 0
  raidz1-0   DEGRADED 0 0 0
ata-ST8000VN004-3CP101_WWZ1MBA8  DEGRADED 0 0 1.71K  too 
many errors  (resilvering)
ata-ST8000VN004-3CP101_WWZ1Q7F1  DEGRADED 0 0 1.49K  too 
many errors
ata-ST8000VN004-3CP101_WRQ0WQ44  DEGRADED 0 0 1.54K  too 
many errors
ata-ST8000VN004-3CP101_WWZ1RFL5  ONLINE   0 0 3.06K  
(resilvering)
cache
  scsi-33001438037cd8921 ONLINE   0 0 0

la prima domanda è: TRE GIORNI?!?!


la seconda domanda è: mi elenca una serie di file (una ventina) con errori
permanenti e non risolvibili dal checksumming; ma come dicevo questo è un
server di backup, non mi interessa:

 errors: Permanent errors have been detected in the following files:

rpool-backup:<0x63f216>
rpool-backup:<0x63f218>
rpool-backup:<0x108d421>
rpool-backup:<0x63ee2b>
[...]
/rpool-backup/vz/dump/vzdump-qemu-156-2024_03_16-23_53_30.vma.zst
/rpool-backup/vz/dump/vzdump-lxc-125-2024_03_16-23_57_05.tar.zst


ho provato ad eliminare qualche file, ma la riga è rimasta in quel modo:

rpool-backup:<0x63f216>

come posso dirgli: butta pure via i file corrotti e fregatene?


Sto cercando dappertutto come fare, ma a parte fare un ripristino dei file,
una ricosruzione del pool... non trovo info per una cosa che (io) reputo
così semplice...


Grazie.

-- 
  Chi ha tagliato i ponti con la fantasia
  non si accorgera` di niente   (E. Bennato)




Re: Debian 12.4 e ZFS

2024-01-17 Per discussione gerlos



> Il giorno 12 gen 2024, alle ore 11:18, Alessandro Baggi 
>  ha scritto:
> 
> e infine perché rispetto a zfs con btrfs
>> mi sembra più facile "rimescolare le carte" a posteriori (sostituire dischi, 
>> passare da una configurazione all'altra, etc... ma probabilmente sono io che 
>> non ho capito zfs).
> 
> In realtà, si, btrfs sembra più flessibile (da quello che ho letto). Con ZFS 
> non puoi fare alcune cose (non ricordo bene quale operazione) ma devi per 
> forza ricreare il pool.
> 
> Domanda: Usare btrfs su SSD comporta qualche problema?
> 

In realtà, per varie ragioni, tra cui il fatto che è un fs copy on write, btrfs 
si comporta meglio con ssd che con hdd ;-) 

Tra l'altro anche la perdita di prestazioni di btrfs con il suo raid1 nativo 
non è poi così marcata rispetto a ext4 su raid1 via dmadm. 
Tempo fa avevo fatto dei test con fio su una coppia di ssd nvme di fascia media 
confrontando queste due configurazioni: il throughput in lettura di btrfs + 
raid1 era tra 80% e 50% rispetto a ext4 + raid1 (dipende dal tipo carico), 
mentre le velocità di scrittura erano tutto sommato paragonabili (80% - 90%). 

saluti,
gerlos

PS scusa il doppio invio.


Re: Debian 12.4 e ZFS

2024-01-12 Per discussione gianluca . signorotto


Il 12/01/24 11:18, Alessandro Baggi ha scritto:
> Domanda: Usare btrfs su SSD comporta qualche problema?

No che io sappia. Si comporta bene con gli SSD. Puoi usare
le opzioni di mount "lazytime", "ssd", "discard"... ad esempio.

Qui
https://btrfs.readthedocs.io/en/latest/Administration.html#mount-options

A presto,

-- 
*Gianluca Francesco Signorotto*
website: https://eritrium.org


OpenPGP_signature.asc
Description: OpenPGP digital signature


Re: Debian 12.4 e ZFS

2024-01-12 Per discussione Alessandro Baggi

Ciao Gerlos e grazie per la risposta.

Mah, io per non saper né leggere né scrivere userei ZFS per i volumi che 
contengono i dati, e metterei il sistema operativo su un file system 
supportato nativamente dal kernel, come i ben noti ext4 e xfs.


In questo modo nella remota ipotesi in cui qualcosa vada storto con dkms 
puoi comunque avviare il sistema, risolvere la questione e montare il 
volume o i volumi dei dati in un secondo momento (con l'opzione "nofail" 
in /etc/fstab il sistema prosegue il boot anche se non può montare un 
certo volume).


La mia intenzione era lasciare solo i dati su ZFS e il sistema su ext4.



A ogni modo anche io userei btrfs, soprattutto per un server di backup 
casalingo, dove il fatto che è più lento di zfs non conta più di tanto 
(immagino che il collo di bottiglia sia la rete, non lo storage). 


Il server non è un server casalingo ma un piccolo server di backup.

Ho usato poco BTRFS ma pensandoci comunque il raid1 non ha problemi 
(tipo write hole), ha la compressione, l'integritità e la deduplicazione 
ed è supportato nativamente dal kernel di Debian. Devo studiare un po 
btrfs perche ho solo letto qualcosa online ma non ho fatto nulla di 
concreto.


Intanto perché mi fanno antipatia i problemi di licenza di zfs, ;-) poi 
per evitare problemi con dkms,


Stesso sentimento.

 e infine perché rispetto a zfs con btrfs
mi sembra più facile "rimescolare le carte" a posteriori (sostituire 
dischi, passare da una configurazione all'altra, etc... ma probabilmente 
sono io che non ho capito zfs).


In realtà, si, btrfs sembra più flessibile (da quello che ho letto). Con 
ZFS non puoi fare alcune cose (non ricordo bene quale operazione) ma 
devi per forza ricreare il pool.


Domanda: Usare btrfs su SSD comporta qualche problema?

Saluti,
Alessandro.



Re: Debian 12.4 e ZFS

2024-01-12 Per discussione Alessandro Baggi




Il 12/01/24 10:46, gianluca.signoro...@eritrium.org ha scritto:



Il 12/01/24 09:29, Alessandro Baggi ha scritto:

Io sapevo che era necessario 1GB di RAM per ogni TB in caso
di deduplicazione.


per quanto ne so, al contrario, assieme alla deduplicazione,
molte altre caratteristiche di ZFS richiedono RAM.

https://web.archive.org/web/20140818042550/http://hardforum.com/showpost.php?s=8d31305e57c1dd2853eb817124ff18d9=1036865233=3



Grazie per la risorsa.


Quindi da un certo punto di vista mi
sconsigli di utilizzare ZFS su una distro che utilizza dkms
per zfs a livello di stabilità?


Non a livello di stabilità ma, come scrivevo, semplicemente
perché non mi piace avere di mezzo DKMS per avere ZFS su
Debian, ma ciò e personale. Se a te va bene nullaosta.



Anche a me non piace avere di mezzo DKMS anzi è proprio questo che mi ha 
reso indeciso.




Re: Debian 12.4 e ZFS

2024-01-12 Per discussione gerlos

Il 12/01/24 09:29, Alessandro Baggi ha scritto:


Ora, Proxmox usa un kernel modificato ma proveniente da
Ubuntu (per ragioni di licenza è dovuta la scelta) e lì non
c'è quindi bisogno di DKMS. Su una Debian a seconda dei casi
preferisco, invece, affidarmi a BTRFS.

A presto,



Quindi da un certo punto di vista mi sconsigli di utilizzare ZFS su 
una distro che utilizza dkms per zfs a livello di stabilità?



Mah, io per non saper né leggere né scrivere userei ZFS per i volumi che 
contengono i dati, e metterei il sistema operativo su un file system 
supportato nativamente dal kernel, come i ben noti ext4 e xfs.


In questo modo nella remota ipotesi in cui qualcosa vada storto con dkms 
puoi comunque avviare il sistema, risolvere la questione e montare il 
volume o i volumi dei dati in un secondo momento (con l'opzione "nofail" 
in /etc/fstab il sistema prosegue il boot anche se non può montare un 
certo volume).


A ogni modo anche io userei btrfs, soprattutto per un server di backup 
casalingo, dove il fatto che è più lento di zfs non conta più di tanto 
(immagino che il collo di bottiglia sia la rete, non lo storage). 
Intanto perché mi fanno antipatia i problemi di licenza di zfs, ;-) poi 
per evitare problemi con dkms, e infine perché rispetto a zfs con btrfs 
mi sembra più facile "rimescolare le carte" a posteriori (sostituire 
dischi, passare da una configurazione all'altra, etc... ma probabilmente 
sono io che non ho capito zfs).


saluti,
gerlos



Re: Debian 12.4 e ZFS

2024-01-12 Per discussione gianluca . signorotto


Il 12/01/24 09:29, Alessandro Baggi ha scritto:
> Io sapevo che era necessario 1GB di RAM per ogni TB in caso
> di deduplicazione.

per quanto ne so, al contrario, assieme alla deduplicazione,
molte altre caratteristiche di ZFS richiedono RAM.

https://web.archive.org/web/20140818042550/http://hardforum.com/showpost.php?s=8d31305e57c1dd2853eb817124ff18d9=1036865233=3

> Quindi da un certo punto di vista mi
> sconsigli di utilizzare ZFS su una distro che utilizza dkms
> per zfs a livello di stabilità?

Non a livello di stabilità ma, come scrivevo, semplicemente
perché non mi piace avere di mezzo DKMS per avere ZFS su
Debian, ma ciò e personale. Se a te va bene nullaosta.

A presto,

-- 
*Gianluca Francesco Signorotto*
website: https://eritrium.org


OpenPGP_signature.asc
Description: OpenPGP digital signature


Re: Debian 12.4 e ZFS

2024-01-12 Per discussione Alessandro Baggi

Ciao Gianluca e grazie per la riposta.



Ciao, con i suoi oltre 20 anni di sviluppo DKMS immagino, da
quel punto di vista, sia ben maturo ed affidabile e non
faccia scherzi di quel tipo... tutto può essere eh.

È da tenere presente che ZFS richiede molta RAM per
funzionare a dovere; se intendi adottarlo, assicurati di
averne abbastanza disponibile.

Utilizzo Proxmox ed avendo letto la loro documentazione,
consigliano 4 GB RAM di base più 1GB di RAM per ciascun TB
di spazio disco.


Io sapevo che era necessario 1GB di RAM per ogni TB in caso di 
deduplicazione.




Ora, Proxmox usa un kernel modificato ma proveniente da
Ubuntu (per ragioni di licenza è dovuta la scelta) e lì non
c'è quindi bisogno di DKMS. Su una Debian a seconda dei casi
preferisco, invece, affidarmi a BTRFS.

A presto,



Quindi da un certo punto di vista mi sconsigli di utilizzare ZFS su una 
distro che utilizza dkms per zfs a livello di stabilità?


Un saluto.



Re: Debian 12.4 e ZFS

2024-01-11 Per discussione Gianluca Francesco Signorotto
Il 11/01/2024 17:49, Alessandro Baggi ha scritto:
> Ho un piccolo server di backup sui cui è presente un RAID1
> mdadmL'unica cosa che mi rende insicuro della scelta è che
> ZFS è compilato con DKMS e ad ogni aggiornamento del kernel
> viene ricompilato e qui sta il problema. Vi è mai capitato
> che DKMS fallisse una ricompilazione di ZFS? In caso di
> errori di compilazione cosa fare (oltre ad usare il kernel
> precedente dove ZFS funzionava correttamente)?
> 
> Al momento uso DKMS per i driver NVIDIA (dal sito NVIDIA) e
> non ho mai avuto problemi da due anni a questa parte, ma mai
> dire mai.

Ciao, con i suoi oltre 20 anni di sviluppo DKMS immagino, da
quel punto di vista, sia ben maturo ed affidabile e non
faccia scherzi di quel tipo... tutto può essere eh.

È da tenere presente che ZFS richiede molta RAM per
funzionare a dovere; se intendi adottarlo, assicurati di
averne abbastanza disponibile.

Utilizzo Proxmox ed avendo letto la loro documentazione,
consigliano 4 GB RAM di base più 1GB di RAM per ciascun TB
di spazio disco.

Ora, Proxmox usa un kernel modificato ma proveniente da
Ubuntu (per ragioni di licenza è dovuta la scelta) e lì non
c'è quindi bisogno di DKMS. Su una Debian a seconda dei casi
preferisco, invece, affidarmi a BTRFS.

A presto,

-- 
Gianluca Francesco Signorotto
website: https://eritrium.org


OpenPGP_signature.asc
Description: OpenPGP digital signature


Debian 12.4 e ZFS

2024-01-11 Per discussione Alessandro Baggi

Un saluto a tutti i partecipanti.

Spero di non essere OT.

Ho un piccolo server di backup sui cui è presente un RAID1 mdadm e xfs 
come storage. Volevo aggiungere un controllo di integrità per i dati e 
ho trovato tre soluzioni:


1. dm-integrity + mdadm
2. ZFS
3. Btrfs

Dopo qualche test casalingo, qualche ricerca e qualche lettura tipo 
[1](anche se è del 2020) alla fine ho optato per ZFS. Ho provato 
dm-integrity e mdadm ma su dischi da 3TB ci mette un po perche quando 
formatta per dm-integrity deve fare il wipe di ogni device quindi due 
device da 3TB, poi deve creare il raid quindi bisogna aspettare il sync 
dei 3TB. Inoltre per verificare errori di integrità devo lanciare un 
check sul raid mdadm e ci mette un po, per non parlare in caso di guasto 
in cui devo ricreare il device dm-integrity e rifare il sync. Non 
immagino il tempo necessario con dischi più capienti. Con ZFS invece il 
resilvering è più veloce e inoltre offre altre funzionalità che non si 
hanno con dm-integrity + mdadm + xfs.


Debian supporta ZFS dai repo stable contrib e backports contrib. Ho 
letto in rete che era presente un bug problematico che riportava ad una 
corruzione dei dati (deve verificarsi un determinata condizione) e per 
Debian si consiglia di utilizzare la versione di ZFS presente sui 
backports perche aveva la versione fixata.


Qualcuno lo usa al momento (non per uso casalingo) e ha qualche 
suggerimento prima di convertire lo storage? Ho gia effettuato il backup 
del backup.


L'unica cosa che mi rende insicuro della scelta è che ZFS è compilato 
con DKMS e ad ogni aggiornamento del kernel viene ricompilato e qui sta 
il problema. Vi è mai capitato che DKMS fallisse una ricompilazione di 
ZFS? In caso di errori di compilazione cosa fare (oltre ad usare il 
kernel precedente dove ZFS funzionava correttamente)?


Al momento uso DKMS per i driver NVIDIA (dal sito NVIDIA) e non ho mai 
avuto problemi da due anni a questa parte, ma mai dire mai.


Che esperienza avete con questo FS? Avete avuto brutte sorprese?

Grazie a tutti in anticipo.

Saluti.

[1] - 
https://www.unixsheikh.com/articles/battle-testing-zfs-btrfs-and-mdadm-dm.html




Re: ot: certificazione zfs oracle

2022-10-24 Per discussione Paride Desimone

Il 22-10-2022 18:49 Paride Desimone ha scritto:

Buonasera tutti.
Qualcuno ha manualistica atta all'aquisizione della certificazione zfs 
oracle ?


Nessuno?

/paride
--
http://keys.gnupg.net/pks/lookup?op=get=0xCC6CA35C690431D3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




ot: certificazione zfs oracle

2022-10-22 Per discussione Paride Desimone

Buonasera tutti.
Qualcuno ha manualistica atta all'aquisizione della certificazione zfs 
oracle ?


/paride
--
http://keys.gnupg.net/pks/lookup?op=get=0xCC6CA35C690431D3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




Re: zfs pool degraded

2020-06-30 Per discussione Piviul

Bertorello, Marco ha scritto il 30/06/20 alle 09:52:

mi sono trovato nella stessa situazione, anche io ho dato un zpool
clear, intanto se il problema è serio, si sarebbe ripresentato.

E infatti, così è stato. Solo che appunto smartctl non indica problemi
sul disco incriminato.
io veramente l'ho riaggiunto e il problema non si è più ripresentato. 
Per ora ho preso un altro hd in modo che se ricapita lo sostituisco (non 
l'ho messo in spare però...). Sul disco incriminato comunque i dati 
smart dicono che ci sono stati poco più di un centinaio di errori e una 
decina di settori riallocati: nel mio caso mi sembra non ci siano 
dubbio: il disco sta per morire.


È strano che i dati smart del disco non rilevino anomalie. Se ha ragione 
smart penserei al cavo sata o al connettore sulla mobo... perché non 
provare a scambiare il cavo e/o connettore sulla mobo con quelli di un 
altro hd?


Piviul



Re: zfs pool degraded

2020-06-30 Per discussione Bertorello, Marco

Il 11/06/2020 13:04, Piviul ha scritto:
> Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid.
> Ora io essendoci ancora cose non essenziali sul server ho dato un
> zpool clear sul server ma mi piacerebbe testare l'hd

Ciao Paolo,

mi sono trovato nella stessa situazione, anche io ho dato un zpool
clear, intanto se il problema è serio, si sarebbe ripresentato.

E infatti, così è stato. Solo che appunto smartctl non indica problemi
sul disco incriminato.

Alla fine ha sostituito il disco o fatto qualcos'altro a livello di
Filesystem per sistemare la cosa?

Io per il momento ho lanciato uno scrub ma ci metterà una vita (il pool
è da 6 TB) e il pool continua ad andarmi in degraded.


-- 
Marco Bertorello
https://www.marcobertorello.it




signature.asc
Description: OpenPGP digital signature


Re: zfs

2020-06-26 Per discussione WinterMute
il Fri, 26 Jun 2020 15:26:57 +0200
WinterMute  ha scritto:

| [...]

p.s.: ammetto che ZFS ha molte peculiarità interessanti e delle caratteristiche
piuttosto innovative.
anche se l'argomento viene trattato in modo "superficiale" ho trovato, veicolato
tramite le pagine di lffl.org, una guida in due parti [1] - [2] che introduce 
(per
l'appunto) ai concetti del file system in questione.

ho pensato che la segnalazione di cui sopra potesse essere interessante per chi
(come l'autore del thread) sta valutando la possibilità di utilizzare ZFS.

[1] https://www.lffl.org/2020/05/capire-amministrare-zfs.html
[2] https://www.lffl.org/2020/05/introduzione-zfs-parte-2.html

saluti.

***
║ »» WinterMute «« ║ -> https://www.debian.org/  «branch» bullseye/testing
║ GNU  Project ║ -> https://www.gnu.org/   
║ Kernel  Archives ║ -> https://www.kernel.org/
║ GPG  FingerPrint ║ -> 38A4 5354 30C5 E86F 9AA8  B234 7227 D71D A547 39E0
***


pgpxsHg6KnlsX.pgp
Description: Firma digitale OpenPGP


Re: zfs

2020-06-26 Per discussione WinterMute
il Fri, 26 Jun 2020 11:53:17 +0200
Filippo Dal Bosco -  ha scritto:

| [...]
|
| immagino che per un normale pc casalingo sia opportuno continuare ad
| usare ext4, anche perché se poi si vuole modificare le partizioni
| gparted (bullseye) non prevede  zfs

buon pomeriggio,

personalmente ritengo che al netto di particolari necessità EXT4 sia un file 
system
che copre ottimamente tutti gli scenari possibili per un utente che fa un uso
"comune" della propria macchina.

certo c'è sempre, e non c'è niente di male in ciò, la volontà di fare ricerca e
approfondire le proprie conoscenze, anche nell'ambito appena descritto.
con le dovute accortezze si potrebbe quindi fare dei test con ZFS.

tengo a precisare che quanto detto riflette esclusivamente le mie personali
considerazioni in merito alla questione.

saluti (e buon fine settimana a tutti).

***
║ »» WinterMute «« ║ -> https://www.debian.org/  «branch» bullseye/testing
║ GNU  Project ║ -> https://www.gnu.org/   
║ Kernel  Archives ║ -> https://www.kernel.org/
║ GPG  FingerPrint ║ -> 38A4 5354 30C5 E86F 9AA8  B234 7227 D71D A547 39E0
***


pgpSeqNNCVChA.pgp
Description: Firma digitale OpenPGP


zfs

2020-06-26 Per discussione Filippo Dal Bosco -
Noto che qualcuno usa zfs. Non sapevo fosse disponibile in debian.


immagino che per un normale pc casalingo sia opportuno continuare ad
usare ext4, anche perché se poi si vuole modificare le partizioni
gparted (bullseye) non prevede  zfs



-- 
Filippo



Re: zfs pool degraded

2020-06-12 Per discussione Alessandro Baggi

Ciao Piviul,
sembra il caso di cambiarlo, magari qualcuno con più esperienza potrebbe 
confermare la diagnosi.



Il 12/06/20 14:44, Piviul ha scritto:

Ciao Alessandro...

Alessandro Baggi ha scritto il 12/06/20 alle 11:09:

[...]
I valori THRESH dello smart del disco riportano qualcosa di strano?
Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove 
trovare le informazioni da inserire nell'opzione --device di smartctl :(


I log di sistema hanno riportato qualcosa al riguardo del disco come 
errore I/O ecc (anche dmesg al momento dell'errore)?

No, non ci ho guardato ma l'ho fatto ora; ecco cosa riportano:
Jun 11 08:23:34 pve02 kernel: [63208.585107] sd 2:0:2:0: [sdc] tag#128 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:23:34 pve02 kernel: [63208.585126] sd 2:0:2:0: [sdc] tag#128 
Sense Key : Illegal Request [current] Jun 11 08:23:34 pve02 kernel: 
[63208.585132] sd 2:0:2:0: [sdc] tag#128 Add. Sense: Logical block 
address out of range
Jun 11 08:23:34 pve02 kernel: [63208.585139] sd 2:0:2:0: [sdc] tag#128 
CDB: Write(10) 2a 00 b7 e8 13 10 00 05 28 00
Jun 11 08:23:34 pve02 kernel: [63208.585146] blk_update_request: 
critical target error, dev sdc, sector 3085439760 op 0x1:(WRITE) flags 
0x700 phys_seg 12 prio class 0
Jun 11 08:23:34 pve02 kernel: [63208.585252] zio pool=zfspool 
vdev=/dev/sdc1 error=121 type=2 offset=1579744108544 size=675840 
flags=40080c80
Jun 11 08:23:48 pve02 kernel: [63223.328731] sd 2:0:2:0: [sdc] tag#162 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:23:48 pve02 kernel: [63223.328751] sd 2:0:2:0: [sdc] tag#162 
Sense Key : Illegal Request [current] Jun 11 08:23:48 pve02 kernel: 
[63223.328757] sd 2:0:2:0: [sdc] tag#162 Add. Sense: Logical block 
address out of range
Jun 11 08:23:48 pve02 kernel: [63223.328764] sd 2:0:2:0: [sdc] tag#162 
CDB: Write(10) 2a 00 c3 39 fa 18 00 02 60 00
Jun 11 08:23:48 pve02 kernel: [63223.328771] blk_update_request: 
critical target error, dev sdc, sector 3275356696 op 0x1:(WRITE) flags 
0x700 phys_seg 6 prio class 0
Jun 11 08:23:48 pve02 kernel: [63223.328878] zio pool=zfspool 
vdev=/dev/sdc1 error=121 type=2 offset=1676981579776 size=311296 
flags=40080c80
Jun 11 08:24:28 pve02 kernel: [63263.323315] sd 2:0:2:0: [sdc] tag#141 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:24:28 pve02 kernel: [63263.323334] sd 2:0:2:0: [sdc] tag#141 
Sense Key : Medium Error [current] Jun 11 08:24:28 pve02 kernel: 
[63263.323340] sd 2:0:2:0: [sdc] tag#141 Add. Sense: Unrecovered read 
error
Jun 11 08:24:28 pve02 kernel: [63263.323347] sd 2:0:2:0: [sdc] tag#141 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 08:24:28 pve02 kernel: [63263.323353] blk_update_request: 
critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 
phys_seg 32 prio class 0
Jun 11 08:25:37 pve02 kernel: [63331.416500] sd 2:0:2:0: [sdc] tag#143 
FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:25:37 pve02 kernel: [63331.416507] sd 2:0:2:0: [sdc] tag#143 
Sense Key : Medium Error [current] Jun 11 08:25:37 pve02 kernel: 
[63331.416510] sd 2:0:2:0: [sdc] tag#143 Add. Sense: Unrecovered read 
error
Jun 11 08:25:37 pve02 kernel: [63331.416516] sd 2:0:2:0: [sdc] tag#143 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 08:25:37 pve02 kernel: [63331.416522] blk_update_request: 
critical medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 
phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.560537] sd 2:0:2:0: [sdc] 
Unaligned partial completion (resid=4056, sector_sz=512)
Jun 11 11:44:58 pve02 kernel: [75292.560549] sd 2:0:2:0: [sdc] tag#769 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560558] sd 2:0:2:0: [sdc] tag#769 
FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK
Jun 11 11:44:58 pve02 kernel: [75292.560562] sd 2:0:2:0: [sdc] tag#769 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560567] blk_update_request: I/O 
error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.560694] sd 2:0:2:0: [sdc] tag#770 
FAILED Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK
Jun 11 11:44:58 pve02 kernel: [75292.560697] sd 2:0:2:0: [sdc] tag#770 
CDB: Read(10) 28 00 00 00 08 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560700] blk_update_request: I/O 
error, dev sdc, sector 2048 op 0x0:(READ) flags 0x0 phys_seg 32 prio 
class 0
Jun 11 11:44:58 pve02 kernel: [75292.688448] sd 2:0:2:0: [sdc] tag#799 
FAILED Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_SENSE
Jun 11 11:44:58 pve02 kernel: [75292.688456] sd 2:0:2:0: [sdc] tag#799 
Sense Key : Illegal Request [current] Jun 11 11:44:58 pve02 kernel: 
[75292.688460] sd 2:0:2:0: [sdc] tag#799 Add. Sense: Logical unit not 
supported
Jun 11 11:44:58 pve02 kernel: [75292.688466] sd 2:0:2:0: [sdc] tag#799 
CDB: Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.688471] blk_update_request: I/O 

Re: zfs pool degraded

2020-06-12 Per discussione Piviul

Ciao Alessandro...

Alessandro Baggi ha scritto il 12/06/20 alle 11:09:

[...]
I valori THRESH dello smart del disco riportano qualcosa di strano?
Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove 
trovare le informazioni da inserire nell'opzione --device di smartctl :(


I log di sistema hanno riportato qualcosa al riguardo del disco come 
errore I/O ecc (anche dmesg al momento dell'errore)?

No, non ci ho guardato ma l'ho fatto ora; ecco cosa riportano:

Jun 11 08:23:34 pve02 kernel: [63208.585107] sd 2:0:2:0: [sdc] tag#128 FAILED 
Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:23:34 pve02 kernel: [63208.585126] sd 2:0:2:0: [sdc] tag#128 Sense Key : Illegal Request [current] 
Jun 11 08:23:34 pve02 kernel: [63208.585132] sd 2:0:2:0: [sdc] tag#128 Add. Sense: Logical block address out of range

Jun 11 08:23:34 pve02 kernel: [63208.585139] sd 2:0:2:0: [sdc] tag#128 CDB: 
Write(10) 2a 00 b7 e8 13 10 00 05 28 00
Jun 11 08:23:34 pve02 kernel: [63208.585146] blk_update_request: critical 
target error, dev sdc, sector 3085439760 op 0x1:(WRITE) flags 0x700 phys_seg 12 
prio class 0
Jun 11 08:23:34 pve02 kernel: [63208.585252] zio pool=zfspool vdev=/dev/sdc1 
error=121 type=2 offset=1579744108544 size=675840 flags=40080c80
Jun 11 08:23:48 pve02 kernel: [63223.328731] sd 2:0:2:0: [sdc] tag#162 FAILED 
Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:23:48 pve02 kernel: [63223.328751] sd 2:0:2:0: [sdc] tag#162 Sense Key : Illegal Request [current] 
Jun 11 08:23:48 pve02 kernel: [63223.328757] sd 2:0:2:0: [sdc] tag#162 Add. Sense: Logical block address out of range

Jun 11 08:23:48 pve02 kernel: [63223.328764] sd 2:0:2:0: [sdc] tag#162 CDB: 
Write(10) 2a 00 c3 39 fa 18 00 02 60 00
Jun 11 08:23:48 pve02 kernel: [63223.328771] blk_update_request: critical 
target error, dev sdc, sector 3275356696 op 0x1:(WRITE) flags 0x700 phys_seg 6 
prio class 0
Jun 11 08:23:48 pve02 kernel: [63223.328878] zio pool=zfspool vdev=/dev/sdc1 
error=121 type=2 offset=1676981579776 size=311296 flags=40080c80
Jun 11 08:24:28 pve02 kernel: [63263.323315] sd 2:0:2:0: [sdc] tag#141 FAILED 
Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:24:28 pve02 kernel: [63263.323334] sd 2:0:2:0: [sdc] tag#141 Sense Key : Medium Error [current] 
Jun 11 08:24:28 pve02 kernel: [63263.323340] sd 2:0:2:0: [sdc] tag#141 Add. Sense: Unrecovered read error

Jun 11 08:24:28 pve02 kernel: [63263.323347] sd 2:0:2:0: [sdc] tag#141 CDB: 
Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 08:24:28 pve02 kernel: [63263.323353] blk_update_request: critical 
medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0
Jun 11 08:25:37 pve02 kernel: [63331.416500] sd 2:0:2:0: [sdc] tag#143 FAILED 
Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Jun 11 08:25:37 pve02 kernel: [63331.416507] sd 2:0:2:0: [sdc] tag#143 Sense Key : Medium Error [current] 
Jun 11 08:25:37 pve02 kernel: [63331.416510] sd 2:0:2:0: [sdc] tag#143 Add. Sense: Unrecovered read error

Jun 11 08:25:37 pve02 kernel: [63331.416516] sd 2:0:2:0: [sdc] tag#143 CDB: 
Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 08:25:37 pve02 kernel: [63331.416522] blk_update_request: critical 
medium error, dev sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.560537] sd 2:0:2:0: [sdc] Unaligned 
partial completion (resid=4056, sector_sz=512)
Jun 11 11:44:58 pve02 kernel: [75292.560549] sd 2:0:2:0: [sdc] tag#769 CDB: 
Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560558] sd 2:0:2:0: [sdc] tag#769 FAILED 
Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK
Jun 11 11:44:58 pve02 kernel: [75292.560562] sd 2:0:2:0: [sdc] tag#769 CDB: 
Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560567] blk_update_request: I/O error, dev 
sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.560694] sd 2:0:2:0: [sdc] tag#770 FAILED 
Result: hostbyte=DID_ABORT driverbyte=DRIVER_OK
Jun 11 11:44:58 pve02 kernel: [75292.560697] sd 2:0:2:0: [sdc] tag#770 CDB: 
Read(10) 28 00 00 00 08 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.560700] blk_update_request: I/O error, dev 
sdc, sector 2048 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.688448] sd 2:0:2:0: [sdc] tag#799 FAILED 
Result: hostbyte=DID_NO_CONNECT driverbyte=DRIVER_SENSE
Jun 11 11:44:58 pve02 kernel: [75292.688456] sd 2:0:2:0: [sdc] tag#799 Sense Key : Illegal Request [current] 
Jun 11 11:44:58 pve02 kernel: [75292.688460] sd 2:0:2:0: [sdc] tag#799 Add. Sense: Logical unit not supported

Jun 11 11:44:58 pve02 kernel: [75292.688466] sd 2:0:2:0: [sdc] tag#799 CDB: 
Read(10) 28 00 00 00 00 00 00 01 00 00
Jun 11 11:44:58 pve02 kernel: [75292.688471] blk_update_request: I/O error, dev 
sdc, sector 0 op 0x0:(READ) flags 0x0 phys_seg 32 prio class 0
Jun 11 11:44:58 pve02 kernel: [75292.690077] sd 2:0:2:0: [sdc] tag#800 FAILED 
Result: 

Re: zfs pool degraded

2020-06-12 Per discussione Alessandro Baggi

Ciao Piviul,
non so se iLO riporta questo tipo di errori. Cercando in rete ho trovato 
(http://h20628.www2.hp.com/km-ext/kmcsdirect/emr_na-c03580889-1.pdf) che 
iLO4 riporta tra le tante cose un Disk Failure.


I valori THRESH dello smart del disco riportano qualcosa di strano?

I log di sistema hanno riportato qualcosa al riguardo del disco come 
errore I/O ecc (anche dmesg al momento dell'errore)?


Se non trovi nessun problema (ed è strano) proverei a riaggiungere il 
disco al pool di zfs e vedere se riaccade. Se riaccade sta a te valutare 
in base al ruolo del server e all'importanza dei dati che ha memorizzati 
se è il caso di acquistare un nuovo disco.


Potresti fare un'altra prova ma è rischiosa, non l'ho mai fatto e non so 
se è possibile. Se dico qualche ca___ta perdonatemi. Se il tuo pool 
supporta un duplice guasto (raizd2) o se hai dischi spare (anche non 
collegati) perche non invertire due dischi? Potrebbe essere il bay ad 
avere il problema (so che è remota come possibilità). Se fallisce sempre 
lo stesso disco sai che è quel disco altrimenti se fallisce il disco nel 
bay "incriminato" sai che il problema dipende dal bay.
Se hai il raidz2 puoi scollegare due device insieme altrimenti sei 
obbligato a scollegare il disco corrotto, fare un replace con un disco 
nuovo e aspettare il resilvering. Se tutto va bene scolleghi un disco 
del pool e inserisci quello che ti da problemi e aspetti il manifestarsi 
del problema.
Anche in questo caso, dipende dal ruolo di questo specifico server. Può 
essere spento e avere un downtime per il resilvering?


Non smetterò mai di consigliarlo: backup, backup e backup.

Nota: mi è capitato in passato, quando ero un novizio ed ero affiancato 
da "un esperto", che su alcuni server HP in raid5 (hardware non ricordo 
il controller) ogni tanto un disco veniva marcato come faulted e il 
tutto si risistemava scollegando il disco e ricollegandolo (a fronte 
però della ricostruzione).


Un saluto.

Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di 
salute del server è ottimo, non vengono rilevati problemi. Se un HD 
dovesse avere problemi il server proliant non dovrebbe accorgesene?


Grazie

Piviul

Il 11/06/20 13:04, Piviul ha scritto:
Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. 
Ora io essendoci ancora cose non essenziali sul server ho dato un 
zpool clear sul server ma mi piacerebbe testare l'hd; con uno smartctl 
-a /dev/sd? mi dice :

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
www.smartmontools.org


/dev/sd?: requires option '-d cciss,N'
Please specify device type with the -d option.

Use smartctl -h to get a usage summary


se gli aggiungo un -d scsi mi restituisce:

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
www.smartmontools.org


User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Logical block size:   512 bytes
Rotation Rate:    7202 rpm
Form Factor:  3.5 inches
Logical Unit id:  0x5000c5004e1c339a
Serial number:    Z1P3KYTT
Device type:  disk
Local Time is:    Thu Jun 11 13:03:46 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Temperature Warning:  Disabled or Not Supported

=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
Current Drive Temperature: 32 C
Drive Trip Temperature:    0 C

Error Counter logging not supported

Device does not support Self Test logging

Voi cosa fareste?

Piviul







Re: zfs pool degraded

2020-06-11 Per discussione Piviul
Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di 
salute del server è ottimo, non vengono rilevati problemi. Se un HD 
dovesse avere problemi il server proliant non dovrebbe accorgesene?


Grazie

Piviul

Il 11/06/20 13:04, Piviul ha scritto:
Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. 
Ora io essendoci ancora cose non essenziali sul server ho dato un 
zpool clear sul server ma mi piacerebbe testare l'hd; con uno smartctl 
-a /dev/sd? mi dice :

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
www.smartmontools.org


/dev/sd?: requires option '-d cciss,N'
Please specify device type with the -d option.

Use smartctl -h to get a usage summary


se gli aggiungo un -d scsi mi restituisce:

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
www.smartmontools.org


User Capacity:    2,000,398,934,016 bytes [2.00 TB]
Logical block size:   512 bytes
Rotation Rate:    7202 rpm
Form Factor:  3.5 inches
Logical Unit id:  0x5000c5004e1c339a
Serial number:    Z1P3KYTT
Device type:  disk
Local Time is:    Thu Jun 11 13:03:46 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Temperature Warning:  Disabled or Not Supported

=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
Current Drive Temperature: 32 C
Drive Trip Temperature:    0 C

Error Counter logging not supported

Device does not support Self Test logging

Voi cosa fareste?

Piviul





zfs pool degraded

2020-06-11 Per discussione Piviul
Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid. 
Ora io essendoci ancora cose non essenziali sul server ho dato un zpool 
clear sul server ma mi piacerebbe testare l'hd; con uno smartctl -a 
/dev/sd? mi dice :

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

/dev/sd?: requires option '-d cciss,N'
Please specify device type with the -d option.

Use smartctl -h to get a usage summary


se gli aggiungo un -d scsi mi restituisce:

smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org

User Capacity:2,000,398,934,016 bytes [2.00 TB]
Logical block size:   512 bytes
Rotation Rate:7202 rpm
Form Factor:  3.5 inches
Logical Unit id:  0x5000c5004e1c339a
Serial number:Z1P3KYTT
Device type:  disk
Local Time is:Thu Jun 11 13:03:46 2020 CEST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Temperature Warning:  Disabled or Not Supported

=== START OF READ SMART DATA SECTION ===
SMART Health Status: OK
Current Drive Temperature: 32 C
Drive Trip Temperature:0 C

Error Counter logging not supported

Device does not support Self Test logging

Voi cosa fareste?

Piviul



Re: ZFS e consumo di RAM

2020-05-31 Per discussione Alessandro Baggi



Il 28/05/20 15:27, Piviul ha scritto:

Piviul ha scritto il 28/05/20 alle 09:21:
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. 
Forse all'inizio era così... io ricordo invece di aver letto, ma non 
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla 
quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio 
questa proporzionalità. Qualcuno mi sa indirizzare dove potermi 
documentare?
come al solito continuo il mio monologo sperando che a qualcuno sia 
utile e che a qualcun altro non dia fastidio :)


Documentazione[¹] credo[²] attendibile darebbe manforte a chi sostiene 
che ZFS consumi tutta la RAM meno 1GB; infatti si legge che il valore di 
default sia impostato al "75% of memory on systems with less than 4 GB 
of memory physmem minus 1 GB on systems with greater than 4 GB of 
memory". Però a me non torna:

# arc_summary | grep -A9 ^ARC\ size
ARC size (current):    94.4 %   59.4 GiB
    Target size (adaptive):   100.0 %   62.9 GiB
    Min size (hard limit):  6.2 %    3.9 GiB
    Max size (high water):   16:1   62.9 GiB
    Most Frequently Used (MFU) cache size:  0.7 %  386.3 MiB
    Most Recently Used (MRU) cache size:   99.3 %   56.2 GiB
    Metadata cache size (hard limit):  75.0 %   47.2 GiB
    Metadata cache size (current):  6.1 %    2.9 GiB
    Dnode cache size (hard limit): 10.0 %    4.7 GiB
    Dnode cache size (current): 0.2 %   10.5 MiB


che è circa la metà della ram presente sul sistema:

# free -h
  total    used    free  shared  buff/cache   
available
Mem:  125Gi    64Gi    60Gi   104Mi   
903Mi    59Gi

Swap: 8.0Gi  0B   8.0Gi


E a questo punto non mi resta altro che pensare che zfs in solaris si 
comporta diversamente che su linux...


O no?

Piviul

[¹] https://docs.oracle.com/cd/E26502_01/html/E29022/chapterzfs-3.html
[²] credo perché si riferisce a zfs in solaris ma non dovrebbero esserci 
differenza




Ciao Piviul,
sono nuovo con ZFS ma da quello che so hai ragione, è tutta la ram - 
1GiB. Se necessiti di RAM (magari un VM o altro), puoi tranquillamente 
impostare zfs_arc_max ad un valore ragionevole. La ARC permette di 
accedere ai file in maniera più veloce. Ovviamente avere una ARC più 
grande ti permette di avere più file in cache. Abbassarla non comporta 
nessun problema per ZFS, ma ho letto consigli di non abbassarla sotto i 
4GiB (non ho capito perche ma credo sia un fatto di prestazioni).


Per la deduplicazione, anche se non l'ho ancora usata, ho letto che ZFS 
richiede 1 GiB di RAM per 1 TiB di dati, e questo credo si vada a 
sommare alla memoria usata dalla ARC, quindi attivare la deduplicazione 
solo se zdb riporta un rate di deduplicazione ragionevole.


Dato il grande utilizzo di RAM da parte di ZFS (ARC e Deduplicazione) 
l'utilizzo di ram ECC sarebbe indicato, ma al momento lo sto provando su 
una macchina con RAM non ECC, chissa che succederà in caso di qualche 
bit corrotto.


Hai qualche problema in particolare con l'utilizzo della RAM?

PS. Le tue avventure con PROXMOX e ZFS e Debian le trovo stimolanti dal 
punto di vista tecnico.


Un saluto.



Re: ZFS e consumo di RAM

2020-05-28 Per discussione Piviul

Piviul ha scritto il 28/05/20 alle 09:21:
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. 
Forse all'inizio era così... io ricordo invece di aver letto, ma non 
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla 
quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio 
questa proporzionalità. Qualcuno mi sa indirizzare dove potermi 
documentare?
come al solito continuo il mio monologo sperando che a qualcuno sia 
utile e che a qualcun altro non dia fastidio :)


Documentazione[¹] credo[²] attendibile darebbe manforte a chi sostiene 
che ZFS consumi tutta la RAM meno 1GB; infatti si legge che il valore di 
default sia impostato al "75% of memory on systems with less than 4 GB 
of memory physmem minus 1 GB on systems with greater than 4 GB of 
memory". Però a me non torna:

# arc_summary | grep -A9 ^ARC\ size
ARC size (current):94.4 %   59.4 GiB
Target size (adaptive):   100.0 %   62.9 GiB
Min size (hard limit):  6.2 %3.9 GiB
Max size (high water):   16:1   62.9 GiB
Most Frequently Used (MFU) cache size:  0.7 %  386.3 MiB
Most Recently Used (MRU) cache size:   99.3 %   56.2 GiB
Metadata cache size (hard limit):  75.0 %   47.2 GiB
Metadata cache size (current):  6.1 %2.9 GiB
Dnode cache size (hard limit): 10.0 %4.7 GiB
Dnode cache size (current): 0.2 %   10.5 MiB


che è circa la metà della ram presente sul sistema:

# free -h
  totalusedfree  shared  buff/cache   available
Mem:  125Gi64Gi60Gi   104Mi   903Mi59Gi
Swap: 8.0Gi  0B   8.0Gi


E a questo punto non mi resta altro che pensare che zfs in solaris si 
comporta diversamente che su linux...


O no?

Piviul

[¹] https://docs.oracle.com/cd/E26502_01/html/E29022/chapterzfs-3.html
[²] credo perché si riferisce a zfs in solaris ma non dovrebbero esserci 
differenza




ZFS e consumo di RAM

2020-05-28 Per discussione Piviul
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB. 
Forse all'inizio era così... io ricordo invece di aver letto, ma non 
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla 
quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio 
questa proporzionalità. Qualcuno mi sa indirizzare dove potermi documentare?


Grazie

Piviul



Re: grow proxmox ZFS volume

2020-05-22 Per discussione Piviul

Paolo Redælli ha scritto il 22/05/20 alle 09:20:

Il 22/05/20 08:58, Piviul ha scritto:
Ti rispondo in privato perché devo prossimamente installare io proxmox 
su un server "di risulta"[...]
scusa Paolo rispondo nuovamente in lista perché magari può essere utile 
a qualcuno e soprattutto perché la mia conoscenza di proxmox è ancora 
incerta e avere dei supervisori ti garantisce qualcosa in più sulla mia 
risposta...




.... meglio zfs allora?
zfs meglio di cosa? Di lvm-thin secondo me si. Di ceph non so, non l'ho 
provato. Mi sono spaventato quando nei prerequisisti parla di schede 10Gb...


Sperando che Oracle non incominci a fare strane rivendicazioni a me 
sembra che ZFS funzioni molto bene. Nel frattempo magari switch e schede 
10GBaseT si abbassano di prezzo...



E dov'è l'opzione per allargare i dischi?
Premesso che è proprio dove uno si dovrebbe aspettare che sia, selezioni 
il cluster -> il server PVE -> la macchina virtuale -> l'Hardware e 
quando clicchi su Hard Disk il pulsante in alto Resize Disk si abilita.


Piviul



Re: grow proxmox ZFS volume

2020-05-22 Per discussione Piviul

Piviul ha scritto il 22/05/20 alle 08:50:

Ciao a tutti,
non ho trovato come in proxmox si possa aumentare la dimensione di un 
volume ZFS. Sono io che sono fuso?

scusate, mi rispondo da solo: si.

Piviul



grow proxmox ZFS volume

2020-05-22 Per discussione Piviul

Ciao a tutti,
non ho trovato come in proxmox si possa aumentare la dimensione di un 
volume ZFS. Sono io che sono fuso?


Piviul



Re: ZFS e spazio occupato

2019-08-29 Per discussione dea



Il 29/08/19 14:59, Bertorello, Marco ha scritto:

Il 27/08/2019 11:18, Bertorello, Marco ha scritto:

Il 27/08/2019 10:46, dea ha scritto:

Ciao !

Anche io uso pesantemente ZFS ormai da tempo in Debian.

Un file system COW (anche se ZFS non è solo un file system), per sua
natura presenta una scarsa visibilità nello spazio libero (e su come
agire per liberare spazio, specie se lavori con una miriade di snapshot).

Altro fattore è che ZFS lavora bene con una buona dose di spazio
libero, le prestazioni crollano se lo porti vicino alla saturazione.

Non è che hai usato degli snapshot e che quindi hai "bloccato" dello
spazio allocato ?

assolutamente si!

la VPS è dedicata per l'offline backup delle mie macchine virtuali.

ho circa 45 (3 snapshot per 15 VM) snapshot.

Il punto è proprio capire lo spazio realmente occupato per ragionare
sulla possibilità di aumentare il numero di snapshot per VM

Perdonami, ma quindi?  Con gli snapshot non si può sapere quanto spazio
si utilizza veramente?

Se, come dici tu, ZFS lavora bene con abbastanza spazio libero, a
maggior ragione ho bisogno di capire quanto ne ho a disposizione



Si che si può capire, ma è più complesso e meno immediato.

Si, ZFS lavora male (cala di prestazioni) con datastore al limite della 
capacità.


Ti mando un link che fa un po di chiarezza:

https://oshogbo.vexillium.org/blog/65/




Re: ZFS e spazio occupato

2019-08-29 Per discussione Bertorello, Marco
Il 27/08/2019 11:18, Bertorello, Marco ha scritto:
> Il 27/08/2019 10:46, dea ha scritto:
>> Ciao !
>>
>> Anche io uso pesantemente ZFS ormai da tempo in Debian.
>>
>> Un file system COW (anche se ZFS non è solo un file system), per sua
>> natura presenta una scarsa visibilità nello spazio libero (e su come
>> agire per liberare spazio, specie se lavori con una miriade di snapshot).
>>
>> Altro fattore è che ZFS lavora bene con una buona dose di spazio
>> libero, le prestazioni crollano se lo porti vicino alla saturazione.
>>
>> Non è che hai usato degli snapshot e che quindi hai "bloccato" dello
>> spazio allocato ?
> assolutamente si!
>
> la VPS è dedicata per l'offline backup delle mie macchine virtuali.
>
> ho circa 45 (3 snapshot per 15 VM) snapshot.
>
> Il punto è proprio capire lo spazio realmente occupato per ragionare
> sulla possibilità di aumentare il numero di snapshot per VM

Perdonami, ma quindi?  Con gli snapshot non si può sapere quanto spazio
si utilizza veramente?

Se, come dici tu, ZFS lavora bene con abbastanza spazio libero, a
maggior ragione ho bisogno di capire quanto ne ho a disposizione

-- 
Marco Bertorello
https://www.marcobertorello.it




signature.asc
Description: OpenPGP digital signature


Re: ZFS e spazio occupato

2019-08-27 Per discussione Bertorello, Marco
Il 27/08/2019 10:46, dea ha scritto:
>
> Ciao !
>
> Anche io uso pesantemente ZFS ormai da tempo in Debian.
>
> Un file system COW (anche se ZFS non è solo un file system), per sua
> natura presenta una scarsa visibilità nello spazio libero (e su come
> agire per liberare spazio, specie se lavori con una miriade di snapshot).
>
> Altro fattore è che ZFS lavora bene con una buona dose di spazio
> libero, le prestazioni crollano se lo porti vicino alla saturazione.
>
> Non è che hai usato degli snapshot e che quindi hai "bloccato" dello
> spazio allocato ?

assolutamente si!

la VPS è dedicata per l'offline backup delle mie macchine virtuali.

ho circa 45 (3 snapshot per 15 VM) snapshot.

Il punto è proprio capire lo spazio realmente occupato per ragionare
sulla possibilità di aumentare il numero di snapshot per VM

-- 
Marco Bertorello
https://www.marcobertorello.it




signature.asc
Description: OpenPGP digital signature


Re: ZFS e spazio occupato

2019-08-27 Per discussione dea



Ciao !

Anche io uso pesantemente ZFS ormai da tempo in Debian.

Un file system COW (anche se ZFS non è solo un file system), per sua 
natura presenta una scarsa visibilità nello spazio libero (e su come 
agire per liberare spazio, specie se lavori con una miriade di snapshot).


Altro fattore è che ZFS lavora bene con una buona dose di spazio libero, 
le prestazioni crollano se lo porti vicino alla saturazione.


Non è che hai usato degli snapshot e che quindi hai "bloccato" dello 
spazio allocato ?



Luca



Re: ZFS e spazio occupato

2019-08-27 Per discussione Marco Bertorello
Il 27/08/2019 09:34, Bertorello, Marco ha scritto:
> Buongiorno lista,
>
> ho un dubbio relativo a ZFS.
>
> # zdb -DD zp1
>
> DDT-sha256-zap-duplicate: 144703 entries, size 349 on disk, 200 in core
> DDT-sha256-zap-unique: 1176516 entries, size 306 on disk, 159 in core
>
> DDT histogram (aggregated over all DDTs):
>
> bucket  allocated   referenced  
> __   __   __
> refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
> --   --   -   -   -   --   -   -   -
>  11.12M   38.1G   23.0G   23.0G1.12M   38.1G   23.0G   23.0G
>  287.8K   1.96G   1.05G   1.05G 197K   4.21G   2.26G   2.26G
>  439.7K   1.41G729M729M 199K   7.04G   3.53G   3.53G
>  813.2K261M132M132M 131K   2.29G   1.17G   1.17G
> 16  493   3.05M   1.14M   1.14M10.4K   65.5M   24.5M   24.5M
> 32  107800K271K271K4.38K   33.6M   11.8M   11.8M
> 64   51374K112K112K4.62K   36.5M   11.3M   11.3M
>1289163K   5.50K   5.50K1.48K   24.2M916K916K
>2569 42K   4.50K   4.50K3.13K   16.0M   1.57M   1.57M
>5122  1K  1K  1K1.11K566K566K566K
> 1K1  8K512B512B1.28K   10.3M656K656K
>16K1  8K512B512B20.3K163M   10.2M   10.2M
>  Total1.26M   41.7G   24.9G   24.9G1.68M   51.9G   30.0G   30.0G
>   ^^
> dedup = 1.21, compress = 1.73, copies = 1.00, dedup * compress / copies = 2.09
>
> # zpool list
>
> NAME   SIZE  ALLOC   FREE  EXPANDSZ   FRAGCAP  DEDUP  HEALTH  ALTROOT
> zp1   99.5G  31.7G  67.8G -39%31%  1.20x  ONLINE  -
>  ^
>
> # df -h
>
> Filesystem  Size  Used Avail Use% Mounted on
> udev3.4G 0  3.4G   0% /dev
> tmpfs   697M  916K  696M   1% /run
> /dev/mapper/localhost--vg-root  112G  104G  6.5G  95% /
> tmpfs   3.5G 0  3.5G   0% /dev/shm
> tmpfs   5.0M 0  5.0M   0% /run/lock
> tmpfs   3.5G 0  3.5G   0% /sys/fs/cgroup
> /dev/sda1   236M   46M  178M  21% /boot
> zp1  65G 0   65G   0% /zp1
> zp1/backup   65G 0   65G   0% /zp1/backup
> zp1/backup/subvol-109-disk-0 67G  2.3G   65G   4% 
> /zp1/backup/subvol-109-disk-0
> tmpfs   697M 0  697M   0% /run/user/0
> zp1/backup/subvol-110-disk-0 75G   11G   65G  14% 
> /zp1/backup/subvol-110-disk-0
> zp1/backup/subvol-111-disk-0 66G  1.4G   65G   3% 
> /zp1/backup/subvol-111-disk-0
> zp1/backup/subvol-105-disk-0 67G  1.9G   65G   3% 
> /zp1/backup/subvol-105-disk-0
> zp1/backup/subvol-106-disk-0 68G  2.7G   65G   4% 
> /zp1/backup/subvol-106-disk-0
> zp1/backup/subvol-100-disk-0 66G  551M   65G   1% 
> /zp1/backup/subvol-100-disk-0
> zp1/backup/subvol-114-disk-0 66G  794M   65G   2% 
> /zp1/backup/subvol-114-disk-0
> zp1/backup/subvol-103-disk-0 66G  1.4G   65G   2% 
> /zp1/backup/subvol-103-disk-0
> zp1/backup/subvol-101-disk-0 66G  943M   65G   2% 
> /zp1/backup/subvol-101-disk-0
> zp1/backup/subvol-107-disk-0 66G  1.2G   65G   2% 
> /zp1/backup/subvol-107-disk-0
> zp1/backup/subvol-112-disk-0 66G  643M   65G   1% 
> /zp1/backup/subvol-112-disk-0
> zp1/backup/subvol-113-disk-0 71G  6.3G   65G   9% 
> /zp1/backup/subvol-113-disk-0
> zp1/backup/subvol-104-disk-0 66G  1.3G   65G   2% 
> /zp1/backup/subvol-104-disk-0
>
> Il dubbio è: quanto spazio sto effettivamente utilizzando?
>
> 41.7 GB dovrebbe essere lo spazio effettivamente utilizzato al netto della 
> deduplica, a fronte di 51.9 GB di dati.
>
> Ma allora perchè zpool list mi dice di averne allocati solo 31.7 GB?
>
> Inoltre, perchè df non mi fa vedere lo spazio occupato da zp1 e/o zp1/backup, 
> ma solo dai sottovolumi montati?
> Per esempio, ci sono almeno altri 2 sottovolumi, non montati, con i relativi 
> snapshots, che occupano spazio.
>
> zp1 è un file da 100 GB (purtroppo essendo una vps non potevo fare 
> diversamente). 
> Sono attive sia deduplica che compressione.
>
> Grazie mille per le delucidazioni

Ho dimenticato zfs list:

# zfs list

NAME   USED  AVAIL  REFER  MOUNTPOINT
zp1   36.8G  64.6G24K  /zp1
zp1/backup36.2G  64.6G32K  /zp1/backup
zp1/backup/subvol-100-disk-0   553

ZFS e spazio occupato

2019-08-27 Per discussione Bertorello, Marco
Buongiorno lista,

ho un dubbio relativo a ZFS.

# zdb -DD zp1

DDT-sha256-zap-duplicate: 144703 entries, size 349 on disk, 200 in core
DDT-sha256-zap-unique: 1176516 entries, size 306 on disk, 159 in core

DDT histogram (aggregated over all DDTs):

bucket  allocated   referenced  
__   __   __
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
--   --   -   -   -   --   -   -   -
 11.12M   38.1G   23.0G   23.0G1.12M   38.1G   23.0G   23.0G
 287.8K   1.96G   1.05G   1.05G 197K   4.21G   2.26G   2.26G
 439.7K   1.41G729M729M 199K   7.04G   3.53G   3.53G
 813.2K261M132M132M 131K   2.29G   1.17G   1.17G
16  493   3.05M   1.14M   1.14M10.4K   65.5M   24.5M   24.5M
32  107800K271K271K4.38K   33.6M   11.8M   11.8M
64   51374K112K112K4.62K   36.5M   11.3M   11.3M
   1289163K   5.50K   5.50K1.48K   24.2M916K916K
   2569 42K   4.50K   4.50K3.13K   16.0M   1.57M   1.57M
   5122  1K  1K  1K1.11K566K566K566K
1K1  8K512B512B1.28K   10.3M656K656K
   16K1  8K512B512B20.3K163M   10.2M   10.2M
 Total1.26M   41.7G   24.9G   24.9G1.68M   51.9G   30.0G   30.0G
  ^^
dedup = 1.21, compress = 1.73, copies = 1.00, dedup * compress / copies = 2.09

# zpool list

NAME   SIZE  ALLOC   FREE  EXPANDSZ   FRAGCAP  DEDUP  HEALTH  ALTROOT
zp1   99.5G  31.7G  67.8G -39%31%  1.20x  ONLINE  -
 ^

# df -h

Filesystem  Size  Used Avail Use% Mounted on
udev3.4G 0  3.4G   0% /dev
tmpfs   697M  916K  696M   1% /run
/dev/mapper/localhost--vg-root  112G  104G  6.5G  95% /
tmpfs   3.5G 0  3.5G   0% /dev/shm
tmpfs   5.0M 0  5.0M   0% /run/lock
tmpfs   3.5G 0  3.5G   0% /sys/fs/cgroup
/dev/sda1   236M   46M  178M  21% /boot
zp1  65G 0   65G   0% /zp1
zp1/backup   65G 0   65G   0% /zp1/backup
zp1/backup/subvol-109-disk-0 67G  2.3G   65G   4% 
/zp1/backup/subvol-109-disk-0
tmpfs   697M 0  697M   0% /run/user/0
zp1/backup/subvol-110-disk-0 75G   11G   65G  14% 
/zp1/backup/subvol-110-disk-0
zp1/backup/subvol-111-disk-0 66G  1.4G   65G   3% 
/zp1/backup/subvol-111-disk-0
zp1/backup/subvol-105-disk-0 67G  1.9G   65G   3% 
/zp1/backup/subvol-105-disk-0
zp1/backup/subvol-106-disk-0 68G  2.7G   65G   4% 
/zp1/backup/subvol-106-disk-0
zp1/backup/subvol-100-disk-0 66G  551M   65G   1% 
/zp1/backup/subvol-100-disk-0
zp1/backup/subvol-114-disk-0 66G  794M   65G   2% 
/zp1/backup/subvol-114-disk-0
zp1/backup/subvol-103-disk-0 66G  1.4G   65G   2% 
/zp1/backup/subvol-103-disk-0
zp1/backup/subvol-101-disk-0 66G  943M   65G   2% 
/zp1/backup/subvol-101-disk-0
zp1/backup/subvol-107-disk-0 66G  1.2G   65G   2% 
/zp1/backup/subvol-107-disk-0
zp1/backup/subvol-112-disk-0 66G  643M   65G   1% 
/zp1/backup/subvol-112-disk-0
zp1/backup/subvol-113-disk-0 71G  6.3G   65G   9% 
/zp1/backup/subvol-113-disk-0
zp1/backup/subvol-104-disk-0 66G  1.3G   65G   2% 
/zp1/backup/subvol-104-disk-0

Il dubbio è: quanto spazio sto effettivamente utilizzando?

41.7 GB dovrebbe essere lo spazio effettivamente utilizzato al netto della 
deduplica, a fronte di 51.9 GB di dati.

Ma allora perchè zpool list mi dice di averne allocati solo 31.7 GB?

Inoltre, perchè df non mi fa vedere lo spazio occupato da zp1 e/o zp1/backup, 
ma solo dai sottovolumi montati?
Per esempio, ci sono almeno altri 2 sottovolumi, non montati, con i relativi 
snapshots, che occupano spazio.

zp1 è un file da 100 GB (purtroppo essendo una vps non potevo fare 
diversamente). 
Sono attive sia deduplica che compressione.

Grazie mille per le delucidazioni

-- 
Marco Bertorello
https://www.marcobertorello.it




signature.asc
Description: OpenPGP digital signature


Re: zfs o zfsonlinu su debian buster

2019-06-27 Per discussione Paride Desimone

Il 2019-06-23 20:32 Giuseppe Sacco ha scritto:


Forse, se usi un initramfs, potresti provare a mettere il comando
all'interno di uno dei suoi hook, prima che monti il file system di
root.


Più che altro bisogna capire perché nell'initram non lo ha messo 
automaticamente visto che mi ha creato anche il pacchetto di 
installazione.
Ti ringrazio per il suggerimento. Provo a farlo manualmente e vediamo 
cosa succede.


Paride
http://keys.gnupg.net/pks/lookup?op=get=0xCC6CA35C690431D3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




Re: zfs o zfsonlinu su debian buster

2019-06-23 Per discussione Giuseppe Sacco
Ciao Paride,

Il giorno mer, 19/06/2019 alle 00.11 +0200, Paride Desimone ha scritto:
> Il 2019-06-16 23:58 Paride Desimone ha scritto:
> > pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa
> > come
> > poter fare in modo che il pool sia visibile direttamente all'avvio
> > della macchina, perché a quel punto sposterei tutto il sistema
> > tranne
> > il boot, sul pool.

Forse, se usi un initramfs, potresti provare a mettere il comando
all'interno di uno dei suoi hook, prima che monti il file system di
root.

Ciao,
Giuseppe



Re: zfs o zfsonlinu su debian buster

2019-06-18 Per discussione Paride Desimone

Il 2019-06-16 23:58 Paride Desimone ha scritto:

pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa come
poter fare in modo che il pool sia visibile direttamente all'avvio
della macchina, perché a quel punto sposterei tutto il sistema tranne
il boot, sul pool.

Paride


Domanda da 100 milioni di dollari eh? :-D

--
http://keys.gnupg.net/pks/lookup?op=get=0xCC6CA35C690431D3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




zfs o zfsonlinu su debian buster

2019-06-16 Per discussione Paride Desimone

Buonasera.
Ho provato ad installare su Buster, zfs direttamente dai repository, ma 
purtroppo non va a buon fine perché non si avvia. C'è già un bug aperto, 
e spero che pr il rilascio sia tutto a posto.
Ho voluto provare a compilare direttamente dai sorgenti zfsonlinux 
prelevato da github, e mi funziona tutto tranne il fatto che al 
successivo riavvio della macchina debbo necessariamente reimportare il 
pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa come 
poter fare in modo che il pool sia visibile direttamente all'avvio della 
macchina, perché a quel punto sposterei tutto il sistema tranne il boot, 
sul pool.


Paride
--
http://keys.gnupg.net/pks/lookup?op=get=0xCC6CA35C690431D3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)




[BTS#846928] po-debconf://zfs-linux/it.po

2016-12-04 Per discussione Beatrice Torracca
Ciao,

altra inviata; grazie a Daniele e Dario per la revisione.

beatrice



Re: [RFR] po-debconf://{colplot, horizon, zfs-linux, fheroes2-pkg}/it.po

2016-10-10 Per discussione Beatrice Torracca
On lunedì 10 ottobre 2016, at 19:17 +0200, Dario wrote:
> Il 10/10/2016 14:13, Daniele Forsi ha scritto:
> > 2016-10-01 14:44 GMT+02:00 Beatrice Torracca:
> > > msgid ""
> > > "Please remember to run \"sudo dpkg-reconfigure ${PKGI}\" to build and "
> > > "install guest package(s) for the first time."
> > > msgstr ""
> > > "Ricordarsi di eseguire «sudo dpkg-reconfigure ${PKGI}» per compilare e "
> > > "installare pacchetti ospiti per la prima volta."
> > 
> > dubbio su "pacchetti ospiti" in questa e nelle successive però non so
> > cosa suggerire perché questi sono pacchetti che non sono in Debian per
> > motivi di licenza e che devono essere scaricati sul momento, nel
> > contesto della virtualizzazione abbiamo usato ospite/ospitato, ma qui
> > non
> 
> Potrebbe essere fuorviante tradurli come "pacchetti esterni" ?
> o "pacchetti non ufficiali" ?
> 

dopo il commento di Daniele anche io pensavo a qualcosa come esterni. Forse uso 
"pacchetti ospiti esterni".

grazie!

beatrice



Re: [RFR] po-debconf://{colplot,horizon,zfs-linux,fheroes2-pkg}/it.po

2016-10-10 Per discussione Dario

Il 10/10/2016 14:13, Daniele Forsi ha scritto:

2016-10-01 14:44 GMT+02:00 Beatrice Torracca:


# Italian translation of fheroes2-pkg debconf messages.



msgid ""
"Please remember to run \"sudo dpkg-reconfigure ${PKGI}\" to build and "
"install guest package(s) for the first time."
msgstr ""
"Ricordarsi di eseguire «sudo dpkg-reconfigure ${PKGI}» per compilare e "
"installare pacchetti ospiti per la prima volta."


dubbio su "pacchetti ospiti" in questa e nelle successive però non so
cosa suggerire perché questi sono pacchetti che non sono in Debian per
motivi di licenza e che devono essere scaricati sul momento, nel
contesto della virtualizzazione abbiamo usato ospite/ospitato, ma qui
non


Potrebbe essere fuorviante tradurli come "pacchetti esterni" ?
o "pacchetti non ufficiali" ?






Re: [RFR] po-debconf://{colplot,horizon,zfs-linux,fheroes2-pkg}/it.po

2016-10-10 Per discussione Daniele Forsi
2016-10-01 14:44 GMT+02:00 Beatrice Torracca:

> # Italian translation of fheroes2-pkg debconf messages.

> msgid ""
> "Please remember to run \"sudo dpkg-reconfigure ${PKGI}\" to build and "
> "install guest package(s) for the first time."
> msgstr ""
> "Ricordarsi di eseguire «sudo dpkg-reconfigure ${PKGI}» per compilare e "
> "installare pacchetti ospiti per la prima volta."

dubbio su "pacchetti ospiti" in questa e nelle successive però non so
cosa suggerire perché questi sono pacchetti che non sono in Debian per
motivi di licenza e che devono essere scaricati sul momento, nel
contesto della virtualizzazione abbiamo usato ospite/ospitato, ma qui
non

ok per gli altri del 30 settembre e del 1° ottobre

-- 
Daniele Forsi



[RFR] po-debconf://{colplot,horizon,zfs-linux,fheroes2-pkg}/it.po

2016-10-01 Per discussione Beatrice Torracca
Mi ero dimentica che almeno per le traduzioni si poteva mandare un
messaggio unico con più file, scusate.

grazie,

beatrice

# Italian debconf translation of colplot.
# Copyright (C) 2016, colplot package copyright holder
# This file is distributed under the same license as the colplot package.
# Alessandro De Zorzi <l...@nonlontano.it>, 2009.
# Beatrice Torracca <beatri...@libero.it>, 2012, 2016.
msgid ""
msgstr ""
"Project-Id-Version: colplot 0.8.7e\n"
"Report-Msgid-Bugs-To: colp...@packages.debian.org\n"
"POT-Creation-Date: 2016-02-11 11:28-0700\n"
"PO-Revision-Date: 2016-08-01 15:35+0200\n"
"Last-Translator: Beatrice Torracca <beatri...@libero.it>\n"
"Language-Team: Italian <debian-l10n-italian@lists.debian.org>\n"
"Language: it\n"
"MIME-Version: 1.0\n"
"Content-Type: text/plain; charset=UTF-8\n"
"Content-Transfer-Encoding: 8bit\n"
"Plural-Forms: nplurals=2; plural=(n != 1);\n"
"X-Generator: Virtaal 0.7.1\n"

#. Type: select
#. Choices
#: ../colplot.templates:2001
#| msgid "Apache2"
msgid "apache2"
msgstr "apache2"

#. Type: select
#. Choices
#: ../colplot.templates:2001
#| msgid "Lighttpd"
msgid "lighttpd"
msgstr "lighttpd"

#. Type: select
#. Choices
#: ../colplot.templates:2001
msgid "None"
msgstr "Nessuno"

#. Type: select
#. Description
#: ../colplot.templates:2002
msgid "Web server:"
msgstr "Server web:"

#. Type: select
#. Description
#: ../colplot.templates:2002
#| msgid ""
#| "Please select the web server for which colplot should be automatically "
#| "configured."
msgid ""
"Please select the web server for which Colplot should be automatically "
"configured."
msgstr ""
"Selezionare il server web per il quale configurare automaticamente Colplot."

#. Type: select
#. Description
#: ../colplot.templates:2002
msgid "Select \"None\" if you would like to configure the web server manually."
msgstr "Selezionare \"Nessuno\" per configurare il server web manualmente."


===

# Italian translation of horizon's debconf messages.
# Copyright (C) 2016, horizon package copyright holder
# This file is distributed under the same license as the horizon package.
# Beatrice Torracca <beatri...@libero.it>, 2013, 2016.
msgid ""
msgstr ""
"Project-Id-Version: horizon\n"
"Report-Msgid-Bugs-To: hori...@packages.debian.org\n"
"POT-Creation-Date: 2015-09-22 13:31+\n"
"PO-Revision-Date: 2016-08-01 17:05+0200\n"
"Last-Translator: Beatrice Torracca <beatri...@libero.it>\n"
"Language-Team: Italian <debian-l10n-italian@lists.debian.org>\n"
"Language: it\n"
"MIME-Version: 1.0\n"
"Content-Type: text/plain; charset=UTF-8\n"
"Content-Transfer-Encoding: 8bit\n"
"Plural-Forms: nplurals=2; plural=(n != 1);\n"
"X-Generator: Virtaal 0.7.1\n"

#. Type: boolean
#. Description
#: ../openstack-dashboard-apache.templates:2001
msgid "Activate Dashboard and disable default VirtualHost?"
msgstr "Attivare Dashboard e disabilitare il VirtualHost predefinito?"

#. Type: boolean
#. Description
#: ../openstack-dashboard-apache.templates:2001
msgid ""
"The Apache package sets up a default web site and a default page, configured "
"in /etc/apache2/sites-available/default."
msgstr ""
"Il pacchetto Apache imposta un sito web e una pagina predefiniti, "
"configurati in /etc/apache2/sites-available/default."

#. Type: boolean
#. Description
#: ../openstack-dashboard-apache.templates:2001
msgid ""
"If this option is not selected, Horizon will be installed using /horizon "
"instead of the webroot."
msgstr ""
"Se questa opzione non viene selezionata Horizon verrà installato usando /"
"horizon invece di webroot."

#. Type: boolean
#. Description
#: ../openstack-dashboard-apache.templates:2001
msgid ""
"Choose this option to replace that default with the OpenStack Dashboard "
"configuration."
msgstr ""
"Scegliere questa opzione per sostituire il valore predefinito con la "
"configurazione di Dashboard di OpenStack."

#. Type: boolean
#. Description
#: ../openstack-dashboard-apache.templates:3001
msgid "Should the Dashboard use HTTPS?"
msgstr "Dashboard deve usare HTTPS?"

#. Type: boolean
#. Description
#: ../openstack-dashboard-apache.templates:3001
msgid ""
"Select this option if you would like Ho

[BTS#718042] po-debconf://zfs-linux/it.po

2013-07-28 Per discussione Beatrice Torracca
Ciao

questo inviato stamattina (in ritardo :( )

Grazie a Francesco per la revisione.

beatrice


signature.asc
Description: Digital signature


Re: Verso ZFS / BTRFS

2013-07-06 Per discussione Paride Desimone

Il 28/06/2013 19:22 Davide G. ha scritto:

E' una macchinetta domestica che deve fare da fileserver familiare 
con quindi

poche utenze, accesso saltuario e poche esigenze di prestazioni.
La cpu è piccolina (1.6 Ghz 2 core fisici) ma ha 8 GB di ram che dato 
che non
so cosa farmene uso in buona parte come tmps per share veloci e 
temporanee dato
che in buona parte erano inutilizzati (o per operazioni lunghe su file 
come
compressioni che faccio partire via ssh, mi porto via il portatile e 
quando

torno le trovo finite).

Parliamo di una macchina che fa solo fileserver e che nelle stesse 
condizioni
su Ext4 aveva sempre un uso di risorse vicino allo 0%, che sarebbero 
quindi

completamente a disposizione per ZFS.


Dovrebbe essere sufficiente dato che da quel che ho letto sulla ml di 
zfsonlinux.org, 8 gb sono condizione sufficiente a farlo. Ad ogni modo 
ti conviene molto probabilmente chiedere maggiori delucidazioni proprio 
a quella ml, dato che hanno anche rilasciato la versione stabile, e che 
ci sono i repository anche per debian. Avevo visto anche qualche cosa a 
riguardo di debian, gsoc e zfsonlinux[1].


Paride

[1]http://lists.alioth.debian.org/pipermail/soc-coordination/2013-March/001395.html
--
http://keyserver.linux.it/pks/lookup?op=getsearch=0xCC6CA35C690431D3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)



--
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per

problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/765b7e80bc6144121281c995fc600...@autistici.org



Re: Verso ZFS / BTRFS

2013-07-06 Per discussione Davide G.
Il 06/07/2013 11:34, Paride Desimone ha scritto:
 Dovrebbe essere sufficiente dato che da quel che ho letto sulla ml di
 zfsonlinux.org, 8 gb sono condizione sufficiente a farlo. Ad ogni modo ti
 conviene molto probabilmente chiedere maggiori delucidazioni proprio a quella
 ml, dato che hanno anche rilasciato la versione stabile, e che ci sono i
 repository anche per debian. Avevo visto anche qualche cosa a riguardo di
 debian, gsoc e zfsonlinux[1].
 
 Paride

Grazie Paride, ho deciso che lo proverò e vedrò un po' come gira così mi faccio
un idea.

Ciaoo

-- 
Davide


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d80d76.3030...@gmail.com



[RFR] po-debconf://zfs-linux/it.po

2013-07-05 Per discussione Beatrice Torracca
Ciao a tutti,

questo scade il 19 luglio. 

Grazie in anticipo a chi riesce a guardarlo nonostante il caldo inizi a
farsi veramente sentire :)

beatrice.

# Italian translation of zfs-linux debconf messages
# Copyright (C) 2013, zfs-linux package copyright holder
# This file is distributed under the same license as the zfs-linux package.
# Beatrice Torracca beatri...@libero.it, 2013.
msgid 
msgstr 
Project-Id-Version: zfs-linux\n
Report-Msgid-Bugs-To: zfs-li...@packages.debian.org\n
POT-Creation-Date: 2013-07-04 22:09+0800\n
PO-Revision-Date: 2013-07-05 18:38+0200\n
Last-Translator: Beatrice Torracca beatri...@libero.it\n
Language-Team: Italian debian-l10n-italian@lists.debian.org\n
Language: it\n
MIME-Version: 1.0\n
Content-Type: text/plain; charset=UTF-8\n
Content-Transfer-Encoding: 8bit\n
Plural-Forms: nplurals=2; plural=(n != 1);\n
X-Generator: Virtaal 0.7.1\n

#. Type: boolean
#. Description
#: ../zfs-dkms.templates:1001
msgid Abort building ZFS on a 32-bit kernel?
msgstr Annullare la compilazione di ZFS su un kernel a 32 bit?

#. Type: boolean
#. Description
#: ../zfs-dkms.templates:1001
msgid You are attempting to build ZFS against a 32-bit running kernel.
msgstr Si sta cercando di compilare ZFS con in esecuzione un kernel a 32 bit.

#. Type: boolean
#. Description
#. Type: boolean
#. Description
#: ../zfs-dkms.templates:1001 ../zfs-dkms.templates:2001
msgid 
Although possible, building in a 32-bit environment is unsupported and 
likely to cause instability leading to possible data corruption. You are 
strongly advised to use a 64-bit kernel; if you do decide to proceed with 
using ZFS on this kernel then keep in mind that it is at your own risk.
msgstr 
Sebbene ciò sia possibile, la compilazione in un ambiente a 32 bit non è 
supportata e probabilmente causerà problemi di instabilità che possono 
portare alla corruzione di dati. È caldamente raccomandato l'uso di un 
kernel a 64 bit; se si decide di procedere comunque ad usare ZFS con questo 
kernel lo si fa a proprio rischio e pericolo.

#. Type: boolean
#. Description
#: ../zfs-dkms.templates:2001
msgid Abort building ZFS on an unknown kernel?
msgstr Annullare la compilazione di ZFS su un kernel sconosciuto?

#. Type: boolean
#. Description
#: ../zfs-dkms.templates:2001
msgid 
You are attempting to build ZFS against a running kernel that could not be 
identified as 32-bit or 64-bit. If you are not completely sure that the 
running kernel is a 64-bit one, you should probably stop the build.
msgstr 
Si sta cercando di compilare ZFS con in esecuzione un kernel che non è stato 
possibile identificare come a 32 bit o 64 bit. Se non si è del tutto sicuri 
che il kernel in esecuzione sia a 64 bit, è probabilmente meglio 
interrompere la compilazione.


signature.asc
Description: Digital signature


Re: [RFR] po-debconf://zfs-linux/it.po

2013-07-05 Per discussione FA - ML
On Fri, Jul 05, 2013 at 06:47:57PM +0200, Beatrice Torracca wrote:
 Ciao a tutti,
 
 questo scade il 19 luglio. 
 
 Grazie in anticipo a chi riesce a guardarlo nonostante il caldo inizi a
 farsi veramente sentire :)
 
 beatrice.
 

Mi sembra tutto a posto. Incollo delle possibili modifiche minori:

- Sebbene ciò sia possibile, la compilazione in un ambiente a 32 bit non è 
+ Sebbene sia possibile, la compilazione in un ambiente a 32 bit è senza 

- supportata e probabilmente causerà problemi di instabilità che possono 
+ sostegno e probabilmente causerà problemi di instabilità che possono 

- kernel a 64 bit; se si decide di procedere comunque ad usare ZFS con questo 
+ kernel a 64 bit; se si decide comunque di usare ZFS con questo 

- che il kernel in esecuzione sia a 64 bit, è probabilmente meglio 
- che il kernel in esecuzione sia a 64 bit, probabilmente è meglio 


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-l10n-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-l10n-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130705185943.GA5993@efikamx



Verso ZFS / BTRFS

2013-06-28 Per discussione Davide G.
Un ciao a tutta la lista.

Stavo valutando la migrazione verso un FS più avanzato come quelli descritti
sopra.
Valutavo principalmente ZFS usando il modulo del kernel zfsonlinux ma anche
btrfs sembra abbia le funzionalità che cerco.

Ho notato che anche da un punto di vista di mentalità sono molto diversi dai FS
più semplici con cui sono abituato a lavorare.

Ho anche visto che zfs include una specie di condivisione samba che potrebbe
essere molto comoda.

A parte ogni consiglio/considerazione riguardo ai 2 FS citati, vorrei sapere
quale sarebbe concettualmente il modo migliore per fare ciò che facevo prima
su ext4 mantenendo samba come protocollo di condivisione:

- Directory principale condivisa a cui un solo utente ha pieno accesso
- Diverse cartelle di cui solo alcune visibili e accessibili (e eventualmente
scrivibili) da altri 2 utenti.
- In alcuni (pochi) casi la regola scritta appena sopra deve valere anche per
le sottocartelle.

Prima per gestire quanto sopra avevo fatto così (so che non è pulitissimo ma
andava):

- La directory principale era una share samba non browseable a cui solo un
utente aveva accesso.
- Le cartelle (e loro sottocartelle) avevano i permessi settati secondo quanto
necessario.
- Per nascondere le cartelle non riguardanti gli altri 2 utenti anziché
condividere le cartelle stesse, ne avevo creata una contenente al suo interno i
solo link simbolici alle cartelle a cui gli altri 2 utenti potevano accedere.

Cioè io ho:
/
/A  (da non condividere)
/B  (da condividere)
/C/1(da non condividere)
/C/2(da condividere)

e una cartella D così strutturata
/D/B(link a B)
/D/C/2  (link a /C/2)

In questo modo gli altri utenti vedevano la share D, e io invece accedevo alla
radice non visibile.


Se usassi ZFS (o btrfs), quale sarebbe il modo corretto di pensare quanto
scritto sopra?

Aggiungo inoltre riguardo a ZFS:
Su internet leggo che molti dopo aver creato il pool, creano un FS al suo
interno. Il fatto che si posso creare filesystem uno contenuto all'altro con
proprietà e quote diverse l'ho capito.
Quello che mi chiedevo è: quando ho provato a creare un pool io lo vedevo non
solo attivo, ma montato. Inoltre andando con zfs get all a chiedere i
parametri, mi dava la conferma che il pool aveva già al suo interno un
filesystem radice (dentro al quale posso ovviamente creare anche volumi
ecc...). Perché creare un solo altro FS al suo interno? se non ho bisogno di
crearne altri, perché non usare quello già presente?

Quello che cerco principalmente da questo passaggio è il checksum, gli
snapshot, la possibilità di spostare l'archivio in blocco a un altro sistema (o
backupparlo) con tutte le sue proprietà e mi sembra molto buono da un punto di
vista di affidabilità il fatto che in caso di mirror o raidz il FS collabora
col pool per la gestione degli errori (ad esempio checksum + mirror gestiscono
il caso di corruzione silenziosa dei dati senza il rischio si sincronizzare
il disco sbagliato).

Se ho detto castronerie correggetemi perché quello di questi FS per me è un
mondo tutto nuovo e non ho ancora capito come funziona l'approccio mentale.

Ciao e grazie a tutti
Davide

-- 
Davide


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51cdce28.5080...@gmail.com



Re: Verso ZFS / BTRFS

2013-06-28 Per discussione dea

Ciao !

Uso da diverso tempo ZFS in BSD e lo trovo terribilmente pesante, affamato di
memoria e lento.
Probabilmente se usi una super macchina è anche un bel file system, anche se
non è un file system ZFS, ma molto di più.

Mha, non lo so.. ha pregi e difetti, dipende per cosa lo usi e soprattutto su
cosa lo usi.

CIAO

Luca


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130628180957.m19...@corep.it



Re: Verso ZFS / BTRFS

2013-06-28 Per discussione Pol Hallen
Ciao, ti rispondo in parte e ti premetto che uso zfs su freebsd (su
linux non ho ancora avuto necessità).

 - Directory principale condivisa a cui un solo utente ha pieno accesso
 - Diverse cartelle di cui solo alcune visibili e accessibili (e eventualmente
 scrivibili) da altri 2 utenti.
 - In alcuni (pochi) casi la regola scritta appena sopra deve valere anche per
 le sottocartelle.

per questo non hai bisogno di un fs avanzato: oltre ai classici
chmod/chown puoi usare le acl (e chattr)

 - La directory principale era una share samba non browseable a cui solo un
 utente aveva accesso.

valid users = user1,user2,ecc
browseable = no

 - Per nascondere le cartelle non riguardanti gli altri 2 utenti anziché
 condividere le cartelle stesse, ne avevo creata una contenente al suo interno 
 i
 solo link simbolici alle cartelle a cui gli altri 2 utenti potevano accedere.

[...]

(io) per non complicarmi la vita quando ci sono decine e decini di
utenti divisi per gruppi, ecc.

ho le mie dir non-broseable, tipo:

/samba/admin

e per gli user:

/samba/office/user1
/samba/office/user2
[...]
/samba/administration/user3
/samba/administration/user4

e lavoro di chown

 Se usassi ZFS (o btrfs), quale sarebbe il modo corretto di pensare quanto
 scritto sopra?

purtroppo non conosco questa funzionalità di zfs :-( ma qualcuno avrà
sicuramente una risposta :-)

posso dirti che da vista in poi (e usando lvm) puoi rendere disponibile
le shadow copy ma è una funzionalità di lvm.

 Quello che mi chiedevo è: quando ho provato a creare un pool io lo vedevo non
 solo attivo, ma montato. Inoltre andando con zfs get all a chiedere i
 parametri, mi dava la conferma che il pool aveva già al suo interno un
 filesystem radice (dentro al quale posso ovviamente creare anche volumi
 ecc...). Perché creare un solo altro FS al suo interno? se non ho bisogno di
 crearne altri, perché non usare quello già presente?

non ricordo la configurazione su freebsd però mi diventava utile
utilizzare più fs per gli snapshot online (quindi trasparenti al sistema)

 Quello che cerco principalmente da questo passaggio è il checksum, gli
 snapshot, la possibilità di spostare l'archivio in blocco a un altro sistema 
 (o
 backupparlo) con tutte le sue proprietà e mi sembra molto buono da un punto di
 vista di affidabilità il fatto che in caso di mirror o raidz il FS collabora
 col pool per la gestione degli errori (ad esempio checksum + mirror gestiscono
 il caso di corruzione silenziosa dei dati senza il rischio si sincronizzare
 il disco sbagliato).

solo una domanda: che hardware usi? zfs (almeno su freebsd) per girare
in modo normale ha bisogno di almeno 8Gb di ram (meglio ECC).

Pol


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51cdd42a.9050...@fuckaround.org



Re: Verso ZFS / BTRFS

2013-06-28 Per discussione Davide G.
Il 28/06/2013 20:21, Pol Hallen ha scritto:
 per questo non hai bisogno di un fs avanzato: oltre ai classici
 chmod/chown puoi usare le acl (e chattr)

Vero, infatti questo lo facevo anche prima.

 - La directory principale era una share samba non browseable a cui solo un
 utente aveva accesso.
 
 valid users = user1,user2,ecc
 browseable = no

Come facevo prima quindi, ok. Pensavo servisse un metodo più pulito.

 - Per nascondere le cartelle non riguardanti gli altri 2 utenti anziché
 condividere le cartelle stesse, ne avevo creata una contenente al suo 
 interno i
 solo link simbolici alle cartelle a cui gli altri 2 utenti potevano accedere.
 
 [...]
 
 (io) per non complicarmi la vita quando ci sono decine e decini di
 utenti divisi per gruppi, ecc.
 
 ho le mie dir non-broseable, tipo:
 
 /samba/admin
 
 e per gli user:
 
 /samba/office/user1
 /samba/office/user2
 [...]
 /samba/administration/user3
 /samba/administration/user4
 
 e lavoro di chown

Eh no, nel mio caso se facessi così dovrei duplicare gli stessi dati su tutti
gli utenti. Certo la deduplicazione dei dati di ZFS snellirebbe il tutto ma
avrei il problema che cancellare una cosa vorrebbe dire cancellarla da tutte le
dir degli utenti.

Nel mio caso preferivo un albero unico, e ogni utente accedeva ai rami che
gli interessavano.

 Se usassi ZFS (o btrfs), quale sarebbe il modo corretto di pensare quanto
 scritto sopra?
 
 purtroppo non conosco questa funzionalità di zfs :-( ma qualcuno avrà
 sicuramente una risposta :-)

In realtà non credo esista una funzionalità del genere. Semplicemente
condividevo dei link simbolici in modo che ognuno vedesse solo ciò che decidevo
io. Speravo in una soluzione più pulita.

 Quello che mi chiedevo è: quando ho provato a creare un pool io lo vedevo non
 solo attivo, ma montato. Inoltre andando con zfs get all a chiedere i
 parametri, mi dava la conferma che il pool aveva già al suo interno un
 filesystem radice (dentro al quale posso ovviamente creare anche volumi
 ecc...). Perché creare un solo altro FS al suo interno? se non ho bisogno di
 crearne altri, perché non usare quello già presente?
 
 non ricordo la configurazione su freebsd però mi diventava utile
 utilizzare più fs per gli snapshot online (quindi trasparenti al sistema)

Vero, non ci ho pensato. Grazie !

 Quello che cerco principalmente da questo passaggio è il checksum, gli
 snapshot, la possibilità di spostare l'archivio in blocco a un altro sistema 
 (o
 backupparlo) con tutte le sue proprietà e mi sembra molto buono da un punto 
 di
 vista di affidabilità il fatto che in caso di mirror o raidz il FS 
 collabora
 col pool per la gestione degli errori (ad esempio checksum + mirror 
 gestiscono
 il caso di corruzione silenziosa dei dati senza il rischio si sincronizzare
 il disco sbagliato).
 
 solo una domanda: che hardware usi? zfs (almeno su freebsd) per girare
 in modo normale ha bisogno di almeno 8Gb di ram (meglio ECC).

E' una macchinetta domestica che deve fare da fileserver familiare con quindi
poche utenze, accesso saltuario e poche esigenze di prestazioni.
La cpu è piccolina (1.6 Ghz 2 core fisici) ma ha 8 GB di ram che dato che non
so cosa farmene uso in buona parte come tmps per share veloci e temporanee dato
che in buona parte erano inutilizzati (o per operazioni lunghe su file come
compressioni che faccio partire via ssh, mi porto via il portatile e quando
torno le trovo finite).

Parliamo di una macchina che fa solo fileserver e che nelle stesse condizioni
su Ext4 aveva sempre un uso di risorse vicino allo 0%, che sarebbero quindi
completamente a disposizione per ZFS.

A Luca invece:

 Ciao !
 
 Uso da diverso tempo ZFS in BSD e lo trovo terribilmente pesante, affamato di
 memoria e lento.
 Probabilmente se usi una super macchina è anche un bel file system, anche se
 non è un file system ZFS, ma molto di più.
 
 Mha, non lo so.. ha pregi e difetti, dipende per cosa lo usi e soprattutto su
 cosa lo usi.

Vedi quanto scritto sopra.
Samba mi usa un solo core al 100% durante i trasferimenti lasciandomi l'altro
libero e viaggio a 40 MB/s, che per l'uso casalingo sono più che sufficienti.
Se l'altro core a ZFS basta per lavorare a 40MB/s  allora sono tranquillo
(anche un po' meno andrebbe bene).


Non ne ho bisogno, però se i difetti non mi sono di impiccio potrebbe farmi
comodo e già che ci sono mi faccio un po' di esperienza in quest'ambito.

Su btrfs invece? nessuna opinione?

Ciao
Davide

-- 
Davide


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51cde27c.5000...@gmail.com



Re: Verso ZFS / BTRFS

2013-06-28 Per discussione dea

.. non lo so.. ma ZFS non mi ha convinto.
Anche se ZFS unisce più funzionalità tipiche di layer diversi in uno solo,
continuerei a consigliare LVM2 + EXT4 + quello che ti serve (come le ACL
estese, ecc).

Personalmente uso (ancora per poco) un file server con un vecchio Xeon e 10
Gbyte da RAM su un controller RAID Hardware (HP 400i) e quella macchina è
piegata in due da ZFS, avrà tanti punti a favore, ma penso che per sfruttarli
a dovere o hai una dotazione adeguata oppure ...

IMHO

CIAO

Luca


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130628192626.m67...@corep.it



zfs su linux

2012-01-20 Per discussione Paride Desimone

Ciao a tutti,
qualcuno ha del materiale che spieghi in maniera molto veloce come 
usare zfs su linux? Ho scaricato e compilato i pacchetti da 
zfsonlinux.org, ma non ho idea proprio di come funzioni.


Paride
--
http://keyserver.linux.it/pks/lookup?op=getsearch=0xCC6CA35C690431D3

Chi e' pronto a rinunciare alle proprie liberta' fondamentali per 
comprarsi briciole di temporanea sicurezza non merita ne' la liberta' 
ne' la sicurezza.(Benjamin Franklin - dalla Risposta al Governatore, 
Assemblea della Pennsylvania, 11 novembre 1755)



--
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per

problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/ce7fa3c4e041c0e0d20981b8ba189...@autistici.org



Re: kFreeBSD zfs e nfs

2011-02-07 Per discussione roberto luksenburg

La sto giusto provando in queste ore, l'unica pecca che per il momento
ho trovato e' quella che segnalai gia' qualche tempo fa, ovvero su di un
file system ZFS non si riesce a fare un:

*zfs set sharenfs=on poolname/file_system*

in quando viene riportato il messaggio di errore:

*warning: mountd isn't supported in Debian GNU/kFreeBSD yet*


Uso questa feature da diversi anni su Solaris, ma su kFreeBSD non riesco
in alcun modo a farla funzionare...

A mio avviso questo problemino limita molto la possibilita' d'utilizzo
in ambito server (almeno per quanto mi riguarda).


Ciao Roberto


Il 12/12/2010 14:32, roberto luksenburg ha scritto:

zfs set sharenfs=on

di abilitare l'opzione di sharing, ma kFreeBSD mi risponde

warning: mountd isn't supported in Debian GNU/kFreeBSD yet



--
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per

problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4d503243.3090...@gmail.com



Re: kFreeBSD zfs e nfs

2010-12-13 Per discussione emmanuel segura
prova questa guida

http://unix.openmilano.com/?p=46

Il 12 dicembre 2010 14:32, roberto luksenburg r.luksenb...@gmail.com
ha scritto:
 A seguito delle nuove politiche di Oracle, sto tentando di continuare ad
 utilizzare ZFS su dei sistemi in produzione ed e' da qualche tempo che
 sto cercando qualcosa di alternativo a OpenSolaris / Solaris; nelle
 varie ricerche mi sono imbattuto in kFreeBSD, che secondo me promette
 molto bene.

 E' da un paio di settimane che lo sto provando e direi che non mi ha
 dato nessun problema, l'unico neo e' che non riesco ad esportare un file
 system ZFS in NFS; mi spiego meglio, dopo aver creato il file system,
 cerco tramite il comando:

 zfs set sharenfs=on

 di abilitare l'opzione di sharing, ma kFreeBSD mi risponde

 warning: mountd isn't supported in Debian GNU/kFreeBSD yet

 purtroppo questa mi sembra una grande limitazione e fiducioso ho cercato
 su internet, ma non sono riuscito a trovare nulla di significativo.


 Qualcuno di voi ha provato una simile configurazione ?
 TIA Roberto



 --
 Per REVOCARE l'iscrizione alla lista, inviare un email a
 debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
 problemi inviare un email in INGLESE a listmas...@lists.debian.org

 To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
 with a subject of unsubscribe. Trouble? Contact
 listmas...@lists.debian.org
 Archive: http://lists.debian.org/4d04cee6.1010...@gmail.com





-- 
esta es mi vida e me la vivo hasta que dios quiera


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: 
http://lists.debian.org/aanlktinat+ncpqzhsea0812axdt0t3hudrw=w5r-f...@mail.gmail.com



Re: kFreeBSD zfs e nfs

2010-12-13 Per discussione roberto luksenburg

ti ringrazio per la dritta, ma purtroppo non funziona, IMHO il
problema e' che manca proprio mountd, infatti nei .deb non trovo
nfs-common; deve per caso essere ancora rilasciato il package per squeeze ?


TIA Roberto

On 13/12/2010 17:41, emmanuel segura wrote:

prova questa guida

http://unix.openmilano.com/?p=46

Il 12 dicembre 2010 14:32, roberto luksenburgr.luksenb...@gmail.com
ha scritto:

A seguito delle nuove politiche di Oracle, sto tentando di
continuare ad utilizzare ZFS su dei sistemi in produzione ed e' da
qualche tempo che sto cercando qualcosa di alternativo a
OpenSolaris / Solaris; nelle varie ricerche mi sono imbattuto in
kFreeBSD, che secondo me promette molto bene.

E' da un paio di settimane che lo sto provando e direi che non mi
ha dato nessun problema, l'unico neo e' che non riesco ad
esportare un file system ZFS in NFS; mi spiego meglio, dopo aver
creato il file system, cerco tramite il comando:

zfs set sharenfs=on

di abilitare l'opzione di sharing, ma kFreeBSD mi risponde

warning: mountd isn't supported in Debian GNU/kFreeBSD yet

purtroppo questa mi sembra una grande limitazione e fiducioso ho
cercato su internet, ma non sono riuscito a trovare nulla di
significativo.


Qualcuno di voi ha provato una simile configurazione ? TIA Roberto



-- Per REVOCARE l'iscrizione alla lista, inviare un email a
debian-italian-requ...@lists.debian.org con oggetto unsubscribe.
Per problemi inviare un email in INGLESE a
listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact
listmas...@lists.debian.org Archive:
http://lists.debian.org/4d04cee6.1010...@gmail.com









--
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per

problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4d0680ae.7070...@gmail.com



kFreeBSD zfs e nfs

2010-12-12 Per discussione roberto luksenburg

A seguito delle nuove politiche di Oracle, sto tentando di continuare ad
utilizzare ZFS su dei sistemi in produzione ed e' da qualche tempo che
sto cercando qualcosa di alternativo a OpenSolaris / Solaris; nelle
varie ricerche mi sono imbattuto in kFreeBSD, che secondo me promette
molto bene.

E' da un paio di settimane che lo sto provando e direi che non mi ha
dato nessun problema, l'unico neo e' che non riesco ad esportare un file
system ZFS in NFS; mi spiego meglio, dopo aver creato il file system,
cerco tramite il comando:

zfs set sharenfs=on

di abilitare l'opzione di sharing, ma kFreeBSD mi risponde

warning: mountd isn't supported in Debian GNU/kFreeBSD yet

purtroppo questa mi sembra una grande limitazione e fiducioso ho cercato
su internet, ma non sono riuscito a trovare nulla di significativo.


Qualcuno di voi ha provato una simile configurazione ?
TIA Roberto



--
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per

problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4d04cee6.1010...@gmail.com



zfs e sid

2010-12-02 Per discussione Paride Desimone
Ciao a tutti,
leggo[1] che squeeze ci sara' l’inclusione di ZFS che sarà supportato in
Debian Squeeze usando l’installer ufficiale. 
Ci sono notizie a riguardo di sid?

Paride
[1]https://gnupress.wordpress.com/2010/11/29/debian-squeeze-sara-la-prima-con-zfs/
-- 
http://keyserver.linux.it/pks/lookup?op=getsearch=0xCC6CA35C690431D3
Chi è pronto a rinunciare alle proprie libertà fondamentali per
comprarsi briciole di temporanea sicurezza non merita né la libertà né
la sicurezza.”

(Benjamin Franklin, 11 novembre 1755)


-- 
Per REVOCARE l'iscrizione alla lista, inviare un email a 
debian-italian-requ...@lists.debian.org con oggetto unsubscribe. Per
problemi inviare un email in INGLESE a listmas...@lists.debian.org

To UNSUBSCRIBE, email to debian-italian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/1291323683.17877.2.ca...@rivendel.homelinux.com