Il 10/05/24 14:24, Paride Desimone ha scritto:
Il 26-04-2024 11:09 Paride Desimone ha scritto:
La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html
zpool import -D
no pools available to import
Risolto. Era un problema
Il 26-04-2024 11:09 Paride Desimone ha scritto:
La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html
zpool import -D
no pools available to import
Risolto. Era un problema di sequenza errata di montaggio dei dischi.
erano
Il 24-04-2024 16:53 Alessandro Baggi ha scritto:
sti dischi per poter accedere i dati?
La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html
zpool import -D
no pools available to import
Dopo il destroy
uhm...
/paride
--
Il 24/04/24 16:29, Paride Desimone ha scritto:
Buongiorno.
Ciao, non so se hai già risolto ma premetto che non sono ferrato su ZFS
(lo uso da poco) ne tantomeno su VSphere/ESXi e company (non li uso da
un bel po) quindi se dico qualche capp---ata, perdonatemi e correggetemi.
Ho una vm
Buongiorno.
Ho una vm con due dischi che erano parte di un pool zfs.
Ora dopo che la macchina ha avuto varie problematiche (a seguito
aggiornamento vmware non partiva più), ho la necessità di rimontare
questi due dischi sulla stessa vm, che inutile dirlo non riesco a
montare.
dando: zpool
Il 14/04/24 10:23, Davide Prina ha scritto:
Alessandro Baggi ha scritto:
In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.
Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug
Non riesco a trovare nulla che indichi che in stable il problema sia
stato
Alessandro Baggi ha scritto:
> In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.
>
> Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug
> Non riesco a trovare nulla che indichi che in stable il problema sia
> stato risolto
se usi Firefox
Il 12/04/24 14:56, Piviul ha scritto:
On 4/10/24 20:09, Alessandro Baggi wrote:
Salve ragazzi,
ho un dubbio che non riesco a districare.
In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.
Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug
che era presente da
On 4/10/24 20:09, Alessandro Baggi wrote:
Salve ragazzi,
ho un dubbio che non riesco a districare.
In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.
Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug
che era presente da molti anni ma che sui sistemi con
Salve ragazzi,
ho un dubbio che non riesco a districare.
In Debian Bookworm (12.5) è presente zfs-dkms versione 2.1.11-1.
Tempo fa, come molti ricorderanno (nel 2023) è stato trovato un bug che
era presente da molti anni ma che sui sistemi con coreutils 9 in certe
condizioni corrompeva i dati
>> come posso dirgli: butta pure via i file corrotti e fregatene?
> Mi rispondo da solo:
> zpool clear -F rpool-backup
Col piffero, questo azzera gli errori ma non li corregge... basta uno scrub
e tornano fuori...
--
I matti tutta la vita dentro la notte
chiusi a chiave
> come posso dirgli: butta pure via i file corrotti e fregatene?
Mi rispondo da solo:
zpool clear -F rpool-backup
--
Voi non ci crederete
la mia ragazza sogna (R. Vecchioni)
ZFS mi stupisce sempre... ad ogni modo, è colpa mia. Sono andato a ravanare
in un server di backup per togliere un controller, ho sicuramente fatto
casino con i cavi e ho allentato un connettore di alimentazione.
Morale della favola, qualche giorno dopo tutti i dischi di un pool hanno
iniziato
> Il giorno 12 gen 2024, alle ore 11:18, Alessandro Baggi
> ha scritto:
>
> e infine perché rispetto a zfs con btrfs
>> mi sembra più facile "rimescolare le carte" a posteriori (sostituire dischi,
>> passare da una configurazione all'altra, etc... ma pr
Il 12/01/24 11:18, Alessandro Baggi ha scritto:
> Domanda: Usare btrfs su SSD comporta qualche problema?
No che io sappia. Si comporta bene con gli SSD. Puoi usare
le opzioni di mount "lazytime", "ssd", "discard"... ad esempio.
Qui
Ciao Gerlos e grazie per la risposta.
Mah, io per non saper né leggere né scrivere userei ZFS per i volumi che
contengono i dati, e metterei il sistema operativo su un file system
supportato nativamente dal kernel, come i ben noti ext4 e xfs.
In questo modo nella remota ipotesi in cui
Il 12/01/24 10:46, gianluca.signoro...@eritrium.org ha scritto:
Il 12/01/24 09:29, Alessandro Baggi ha scritto:
Io sapevo che era necessario 1GB di RAM per ogni TB in caso
di deduplicazione.
per quanto ne so, al contrario, assieme alla deduplicazione,
molte altre caratteristiche di ZFS
certo punto di vista mi sconsigli di utilizzare ZFS su
una distro che utilizza dkms per zfs a livello di stabilità?
Mah, io per non saper né leggere né scrivere userei ZFS per i volumi che
contengono i dati, e metterei il sistema operativo su un file system
supportato nativamente dal kernel, come
Il 12/01/24 09:29, Alessandro Baggi ha scritto:
> Io sapevo che era necessario 1GB di RAM per ogni TB in caso
> di deduplicazione.
per quanto ne so, al contrario, assieme alla deduplicazione,
molte altre caratteristiche di ZFS richiedono RAM.
https://web.archive.org/web/2014081804255
Ciao Gianluca e grazie per la riposta.
Ciao, con i suoi oltre 20 anni di sviluppo DKMS immagino, da
quel punto di vista, sia ben maturo ed affidabile e non
faccia scherzi di quel tipo... tutto può essere eh.
È da tenere presente che ZFS richiede molta RAM per
funzionare a dovere; se intendi
Il 11/01/2024 17:49, Alessandro Baggi ha scritto:
> Ho un piccolo server di backup sui cui è presente un RAID1
> mdadmL'unica cosa che mi rende insicuro della scelta è che
> ZFS è compilato con DKMS e ad ogni aggiornamento del kernel
> viene ricompilato e qui sta il problema. Vi è
Un saluto a tutti i partecipanti.
Spero di non essere OT.
Ho un piccolo server di backup sui cui è presente un RAID1 mdadm e xfs
come storage. Volevo aggiungere un controllo di integrità per i dati e
ho trovato tre soluzioni:
1. dm-integrity + mdadm
2. ZFS
3. Btrfs
Dopo qualche test
Il 22-10-2022 18:49 Paride Desimone ha scritto:
Buonasera tutti.
Qualcuno ha manualistica atta all'aquisizione della certificazione zfs
oracle ?
Nessuno?
/paride
--
http://keys.gnupg.net/pks/lookup?op=get=0xCC6CA35C690431D3
Chi e' pronto a rinunciare alle proprie liberta' fondamentali per
Buonasera tutti.
Qualcuno ha manualistica atta all'aquisizione della certificazione zfs
oracle ?
/paride
--
http://keys.gnupg.net/pks/lookup?op=get=0xCC6CA35C690431D3
Chi e' pronto a rinunciare alle proprie liberta' fondamentali per
comprarsi briciole di temporanea sicurezza non merita ne
Bertorello, Marco ha scritto il 30/06/20 alle 09:52:
mi sono trovato nella stessa situazione, anche io ho dato un zpool
clear, intanto se il problema è serio, si sarebbe ripresentato.
E infatti, così è stato. Solo che appunto smartctl non indica problemi
sul disco incriminato.
io veramente l'ho
Il 11/06/2020 13:04, Piviul ha scritto:
> Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid.
> Ora io essendoci ancora cose non essenziali sul server ho dato un
> zpool clear sul server ma mi piacerebbe testare l'hd
Ciao Paolo,
mi sono trovato nella stessa situazio
il Fri, 26 Jun 2020 15:26:57 +0200
WinterMute ha scritto:
| [...]
p.s.: ammetto che ZFS ha molte peculiarità interessanti e delle caratteristiche
piuttosto innovative.
anche se l'argomento viene trattato in modo "superficiale" ho trovato, veicolato
tramite le pagine di lffl.org,
il Fri, 26 Jun 2020 11:53:17 +0200
Filippo Dal Bosco - ha scritto:
| [...]
|
| immagino che per un normale pc casalingo sia opportuno continuare ad
| usare ext4, anche perché se poi si vuole modificare le partizioni
| gparted (bullseye) non prevede zfs
buon pomeriggio,
personalmente ritengo
Noto che qualcuno usa zfs. Non sapevo fosse disponibile in debian.
immagino che per un normale pc casalingo sia opportuno continuare ad
usare ext4, anche perché se poi si vuole modificare le partizioni
gparted (bullseye) non prevede zfs
--
Filippo
Ciao Piviul,
sembra il caso di cambiarlo, magari qualcuno con più esperienza potrebbe
confermare la diagnosi.
Il 12/06/20 14:44, Piviul ha scritto:
Ciao Alessandro...
Alessandro Baggi ha scritto il 12/06/20 alle 11:09:
[...]
I valori THRESH dello smart del disco riportano qualcosa di
Ciao Alessandro...
Alessandro Baggi ha scritto il 12/06/20 alle 11:09:
[...]
I valori THRESH dello smart del disco riportano qualcosa di strano?
Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove
trovare le informazioni da inserire nell'opzione --device di smartctl :(
I log
hanno riportato qualcosa al riguardo del disco come
errore I/O ecc (anche dmesg al momento dell'errore)?
Se non trovi nessun problema (ed è strano) proverei a riaggiungere il
disco al pool di zfs e vedere se riaccade. Se riaccade sta a te valutare
in base al ruolo del server e all'importanza
Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di
salute del server è ottimo, non vengono rilevati problemi. Se un HD
dovesse avere problemi il server proliant non dovrebbe accorgesene?
Grazie
Piviul
Il 11/06/20 13:04, Piviul ha scritto:
Ciao a tutti, zfs si è arrabbiato e
Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid.
Ora io essendoci ancora cose non essenziali sul server ho dato un zpool
clear sul server ma mi piacerebbe testare l'hd; con uno smartctl -a
/dev/sd? mi dice :
smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.41-1-pve] (local
Il 28/05/20 15:27, Piviul ha scritto:
Piviul ha scritto il 28/05/20 alle 09:21:
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB.
Forse all'inizio era così... io ricordo invece di aver letto, ma non
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla
Piviul ha scritto il 28/05/20 alle 09:21:
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB.
Forse all'inizio era così... io ricordo invece di aver letto, ma non
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla
quantità di dati presenti nel pool zfs ma non
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB.
Forse all'inizio era così... io ricordo invece di aver letto, ma non
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla
quantità di dati presenti nel pool zfs ma non ricordo nel dettaglio
questa
tto perché la mia conoscenza di proxmox è ancora
incerta e avere dei supervisori ti garantisce qualcosa in più sulla mia
risposta...
.... meglio zfs allora?
zfs meglio di cosa? Di lvm-thin secondo me si. Di ceph non so, non l'ho
provato. Mi sono spaventato quando nei prerequisisti parla di s
Piviul ha scritto il 22/05/20 alle 08:50:
Ciao a tutti,
non ho trovato come in proxmox si possa aumentare la dimensione di un
volume ZFS. Sono io che sono fuso?
scusate, mi rispondo da solo: si.
Piviul
Ciao a tutti,
non ho trovato come in proxmox si possa aumentare la dimensione di un
volume ZFS. Sono io che sono fuso?
Piviul
Il 29/08/19 14:59, Bertorello, Marco ha scritto:
Il 27/08/2019 11:18, Bertorello, Marco ha scritto:
Il 27/08/2019 10:46, dea ha scritto:
Ciao !
Anche io uso pesantemente ZFS ormai da tempo in Debian.
Un file system COW (anche se ZFS non è solo un file system), per sua
natura presenta una
Il 27/08/2019 11:18, Bertorello, Marco ha scritto:
> Il 27/08/2019 10:46, dea ha scritto:
>> Ciao !
>>
>> Anche io uso pesantemente ZFS ormai da tempo in Debian.
>>
>> Un file system COW (anche se ZFS non è solo un file system), per sua
>> natura presenta un
Il 27/08/2019 10:46, dea ha scritto:
>
> Ciao !
>
> Anche io uso pesantemente ZFS ormai da tempo in Debian.
>
> Un file system COW (anche se ZFS non è solo un file system), per sua
> natura presenta una scarsa visibilità nello spazio libero (e su come
> agire per liberare
Ciao !
Anche io uso pesantemente ZFS ormai da tempo in Debian.
Un file system COW (anche se ZFS non è solo un file system), per sua
natura presenta una scarsa visibilità nello spazio libero (e su come
agire per liberare spazio, specie se lavori con una miriade di snapshot).
Altro fattore
Il 27/08/2019 09:34, Bertorello, Marco ha scritto:
> Buongiorno lista,
>
> ho un dubbio relativo a ZFS.
>
> # zdb -DD zp1
>
> DDT-sha256-zap-duplicate: 144703 entries, size 349 on disk, 200 in core
> DDT-sha256-zap-unique: 1176516 entries, size 306 on disk, 159 i
Buongiorno lista,
ho un dubbio relativo a ZFS.
# zdb -DD zp1
DDT-sha256-zap-duplicate: 144703 entries, size 349 on disk, 200 in core
DDT-sha256-zap-unique: 1176516 entries, size 306 on disk, 159 in core
DDT histogram (aggregated over all DDTs):
bucket allocated
Il 2019-06-23 20:32 Giuseppe Sacco ha scritto:
Forse, se usi un initramfs, potresti provare a mettere il comando
all'interno di uno dei suoi hook, prima che monti il file system di
root.
Più che altro bisogna capire perché nell'initram non lo ha messo
automaticamente visto che mi ha creato
Ciao Paride,
Il giorno mer, 19/06/2019 alle 00.11 +0200, Paride Desimone ha scritto:
> Il 2019-06-16 23:58 Paride Desimone ha scritto:
> > pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa
> > come
> > poter fare in modo che il pool sia visibile direttamente all'avvio
> > della
Il 2019-06-16 23:58 Paride Desimone ha scritto:
pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa come
poter fare in modo che il pool sia visibile direttamente all'avvio
della macchina, perché a quel punto sposterei tutto il sistema tranne
il boot, sul pool.
Paride
Domanda da
Buonasera.
Ho provato ad installare su Buster, zfs direttamente dai repository, ma
purtroppo non va a buon fine perché non si avvia. C'è già un bug aperto,
e spero che pr il rilascio sia tutto a posto.
Ho voluto provare a compilare direttamente dai sorgenti zfsonlinux
prelevato da github, e mi
Ciao,
altra inviata; grazie a Daniele e Dario per la revisione.
beatrice
On lunedì 10 ottobre 2016, at 19:17 +0200, Dario wrote:
> Il 10/10/2016 14:13, Daniele Forsi ha scritto:
> > 2016-10-01 14:44 GMT+02:00 Beatrice Torracca:
> > > msgid ""
> > > "Please remember to run \"sudo dpkg-reconfigure ${PKGI}\" to build and "
> > > "install guest package(s) for the first
Il 10/10/2016 14:13, Daniele Forsi ha scritto:
2016-10-01 14:44 GMT+02:00 Beatrice Torracca:
# Italian translation of fheroes2-pkg debconf messages.
msgid ""
"Please remember to run \"sudo dpkg-reconfigure ${PKGI}\" to build and "
"install guest package(s) for the first time."
msgstr ""
2016-10-01 14:44 GMT+02:00 Beatrice Torracca:
> # Italian translation of fheroes2-pkg debconf messages.
> msgid ""
> "Please remember to run \"sudo dpkg-reconfigure ${PKGI}\" to build and "
> "install guest package(s) for the first time."
> msgstr ""
> "Ricordarsi di eseguire «sudo
h the OpenStack Dashboard "
"configuration."
msgstr ""
"Scegliere questa opzione per sostituire il valore predefinito con la "
"configurazione di Dashboard di OpenStack."
#. Type: boolean
#. Description
#: ../openstack-dashboard-apache.templates:3001
msgid "Should the Dashboard use HTTPS?
Ciao
questo inviato stamattina (in ritardo :( )
Grazie a Francesco per la revisione.
beatrice
signature.asc
Description: Digital signature
condizioni
su Ext4 aveva sempre un uso di risorse vicino allo 0%, che sarebbero
quindi
completamente a disposizione per ZFS.
Dovrebbe essere sufficiente dato che da quel che ho letto sulla ml di
zfsonlinux.org, 8 gb sono condizione sufficiente a farlo. Ad ogni modo
ti conviene molto
Il 06/07/2013 11:34, Paride Desimone ha scritto:
Dovrebbe essere sufficiente dato che da quel che ho letto sulla ml di
zfsonlinux.org, 8 gb sono condizione sufficiente a farlo. Ad ogni modo ti
conviene molto probabilmente chiedere maggiori delucidazioni proprio a quella
ml, dato che hanno
Ciao a tutti,
questo scade il 19 luglio.
Grazie in anticipo a chi riesce a guardarlo nonostante il caldo inizi a
farsi veramente sentire :)
beatrice.
# Italian translation of zfs-linux debconf messages
# Copyright (C) 2013, zfs-linux package copyright holder
# This file is distributed under
- kernel a 64 bit; se si decide di procedere comunque ad usare ZFS con questo
+ kernel a 64 bit; se si decide comunque di usare ZFS con questo
- che il kernel in esecuzione sia a 64 bit, è probabilmente meglio
- che il kernel in esecuzione sia a 64 bit, probabilmente è meglio
--
Per REVOCARE
Un ciao a tutta la lista.
Stavo valutando la migrazione verso un FS più avanzato come quelli descritti
sopra.
Valutavo principalmente ZFS usando il modulo del kernel zfsonlinux ma anche
btrfs sembra abbia le funzionalità che cerco.
Ho notato che anche da un punto di vista di mentalità sono molto
Ciao !
Uso da diverso tempo ZFS in BSD e lo trovo terribilmente pesante, affamato di
memoria e lento.
Probabilmente se usi una super macchina è anche un bel file system, anche se
non è un file system ZFS, ma molto di più.
Mha, non lo so.. ha pregi e difetti, dipende per cosa lo usi e
Ciao, ti rispondo in parte e ti premetto che uso zfs su freebsd (su
linux non ho ancora avuto necessità).
- Directory principale condivisa a cui un solo utente ha pieno accesso
- Diverse cartelle di cui solo alcune visibili e accessibili (e eventualmente
scrivibili) da altri 2 utenti
/administration/user3
/samba/administration/user4
e lavoro di chown
Eh no, nel mio caso se facessi così dovrei duplicare gli stessi dati su tutti
gli utenti. Certo la deduplicazione dei dati di ZFS snellirebbe il tutto ma
avrei il problema che cancellare una cosa vorrebbe dire cancellarla da tutte
.. non lo so.. ma ZFS non mi ha convinto.
Anche se ZFS unisce più funzionalità tipiche di layer diversi in uno solo,
continuerei a consigliare LVM2 + EXT4 + quello che ti serve (come le ACL
estese, ecc).
Personalmente uso (ancora per poco) un file server con un vecchio Xeon e 10
Gbyte da RAM su
Ciao a tutti,
qualcuno ha del materiale che spieghi in maniera molto veloce come
usare zfs su linux? Ho scaricato e compilato i pacchetti da
zfsonlinux.org, ma non ho idea proprio di come funzioni.
Paride
--
http://keyserver.linux.it/pks/lookup?op=getsearch=0xCC6CA35C690431D3
Chi e' pronto
La sto giusto provando in queste ore, l'unica pecca che per il momento
ho trovato e' quella che segnalai gia' qualche tempo fa, ovvero su di un
file system ZFS non si riesce a fare un:
*zfs set sharenfs=on poolname/file_system*
in quando viene riportato il messaggio di errore:
*warning: mountd
prova questa guida
http://unix.openmilano.com/?p=46
Il 12 dicembre 2010 14:32, roberto luksenburg r.luksenb...@gmail.com
ha scritto:
A seguito delle nuove politiche di Oracle, sto tentando di continuare ad
utilizzare ZFS su dei sistemi in produzione ed e' da qualche tempo che
sto cercando
://unix.openmilano.com/?p=46
Il 12 dicembre 2010 14:32, roberto luksenburgr.luksenb...@gmail.com
ha scritto:
A seguito delle nuove politiche di Oracle, sto tentando di
continuare ad utilizzare ZFS su dei sistemi in produzione ed e' da
qualche tempo che sto cercando qualcosa di alternativo a
OpenSolaris
A seguito delle nuove politiche di Oracle, sto tentando di continuare ad
utilizzare ZFS su dei sistemi in produzione ed e' da qualche tempo che
sto cercando qualcosa di alternativo a OpenSolaris / Solaris; nelle
varie ricerche mi sono imbattuto in kFreeBSD, che secondo me promette
molto bene.
E
Ciao a tutti,
leggo[1] che squeeze ci sara' l’inclusione di ZFS che sarà supportato in
Debian Squeeze usando l’installer ufficiale.
Ci sono notizie a riguardo di sid?
Paride
[1]https://gnupress.wordpress.com/2010/11/29/debian-squeeze-sara-la-prima-con-zfs/
--
http://keyserver.linux.it/pks
71 matches
Mail list logo