Il 10/05/24 14:24, Paride Desimone ha scritto:
Il 26-04-2024 11:09 Paride Desimone ha scritto:
La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html
zpool import -D
no pools available to import
Risolto. Era un problema
Il 26-04-2024 11:09 Paride Desimone ha scritto:
La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html
zpool import -D
no pools available to import
Risolto. Era un problema di sequenza errata di montaggio dei dischi.
erano
Il 24-04-2024 16:53 Alessandro Baggi ha scritto:
sti dischi per poter accedere i dati?
La butto li, fare un destroy del pool e recuperarlo?
https://docs.oracle.com/cd/E19253-01/819-5461/6n7ht6r0o/index.html
zpool import -D
no pools available to import
Dopo il destroy
uhm...
/paride
--
Il 24/04/24 16:29, Paride Desimone ha scritto:
Buongiorno.
Ciao, non so se hai già risolto ma premetto che non sono ferrato su ZFS
(lo uso da poco) ne tantomeno su VSphere/ESXi e company (non li uso da
un bel po) quindi se dico qualche capp---ata, perdonatemi e correggetemi.
Ho una vm
>> come posso dirgli: butta pure via i file corrotti e fregatene?
> Mi rispondo da solo:
> zpool clear -F rpool-backup
Col piffero, questo azzera gli errori ma non li corregge... basta uno scrub
e tornano fuori...
--
I matti tutta la vita dentro la notte
chiusi a chiave
> come posso dirgli: butta pure via i file corrotti e fregatene?
Mi rispondo da solo:
zpool clear -F rpool-backup
--
Voi non ci crederete
la mia ragazza sogna (R. Vecchioni)
Bertorello, Marco ha scritto il 30/06/20 alle 09:52:
mi sono trovato nella stessa situazione, anche io ho dato un zpool
clear, intanto se il problema è serio, si sarebbe ripresentato.
E infatti, così è stato. Solo che appunto smartctl non indica problemi
sul disco incriminato.
io veramente l'ho
Il 11/06/2020 13:04, Piviul ha scritto:
> Ciao a tutti, zfs si è arrabbiato e mi ha fatto uscire un HD dal raid.
> Ora io essendoci ancora cose non essenziali sul server ho dato un
> zpool clear sul server ma mi piacerebbe testare l'hd
Ciao Paolo,
mi sono trovato nella stessa situazione, anche
il Fri, 26 Jun 2020 15:26:57 +0200
WinterMute ha scritto:
| [...]
p.s.: ammetto che ZFS ha molte peculiarità interessanti e delle caratteristiche
piuttosto innovative.
anche se l'argomento viene trattato in modo "superficiale" ho trovato, veicolato
tramite le pagine di lffl.org, una guida in
il Fri, 26 Jun 2020 11:53:17 +0200
Filippo Dal Bosco - ha scritto:
| [...]
|
| immagino che per un normale pc casalingo sia opportuno continuare ad
| usare ext4, anche perché se poi si vuole modificare le partizioni
| gparted (bullseye) non prevede zfs
buon pomeriggio,
personalmente ritengo
Ciao Piviul,
sembra il caso di cambiarlo, magari qualcuno con più esperienza potrebbe
confermare la diagnosi.
Il 12/06/20 14:44, Piviul ha scritto:
Ciao Alessandro...
Alessandro Baggi ha scritto il 12/06/20 alle 11:09:
[...]
I valori THRESH dello smart del disco riportano qualcosa di
Ciao Alessandro...
Alessandro Baggi ha scritto il 12/06/20 alle 11:09:
[...]
I valori THRESH dello smart del disco riportano qualcosa di strano?
Non riesco a leggerli né da iLO4 né da smartctl, non so infatti dove
trovare le informazioni da inserire nell'opzione --device di smartctl :(
I log
Ciao Piviul,
non so se iLO riporta questo tipo di errori. Cercando in rete ho trovato
(http://h20628.www2.hp.com/km-ext/kmcsdirect/emr_na-c03580889-1.pdf) che
iLO4 riporta tra le tante cose un Disk Failure.
I valori THRESH dello smart del disco riportano qualcosa di strano?
I log di sistema
Aggiungo che il server è un proliant hp e iLO4 dice che lo stato di
salute del server è ottimo, non vengono rilevati problemi. Se un HD
dovesse avere problemi il server proliant non dovrebbe accorgesene?
Grazie
Piviul
Il 11/06/20 13:04, Piviul ha scritto:
Ciao a tutti, zfs si è arrabbiato e
Il 28/05/20 15:27, Piviul ha scritto:
Piviul ha scritto il 28/05/20 alle 09:21:
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB.
Forse all'inizio era così... io ricordo invece di aver letto, ma non
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla
Piviul ha scritto il 28/05/20 alle 09:21:
Ciao a tutti, in rete molti dicono che ZFS consuma tutta la RAM - 1GB.
Forse all'inizio era così... io ricordo invece di aver letto, ma non
ricordo dove, che il consumo di RAM (ARC) era proporzionale alla
quantità di dati presenti nel pool zfs ma non
Il 29/08/19 14:59, Bertorello, Marco ha scritto:
Il 27/08/2019 11:18, Bertorello, Marco ha scritto:
Il 27/08/2019 10:46, dea ha scritto:
Ciao !
Anche io uso pesantemente ZFS ormai da tempo in Debian.
Un file system COW (anche se ZFS non è solo un file system), per sua
natura presenta una
Il 27/08/2019 11:18, Bertorello, Marco ha scritto:
> Il 27/08/2019 10:46, dea ha scritto:
>> Ciao !
>>
>> Anche io uso pesantemente ZFS ormai da tempo in Debian.
>>
>> Un file system COW (anche se ZFS non è solo un file system), per sua
>> natura presenta una scarsa visibilità nello spazio libero
Il 27/08/2019 10:46, dea ha scritto:
>
> Ciao !
>
> Anche io uso pesantemente ZFS ormai da tempo in Debian.
>
> Un file system COW (anche se ZFS non è solo un file system), per sua
> natura presenta una scarsa visibilità nello spazio libero (e su come
> agire per liberare spazio, specie se lavori
Ciao !
Anche io uso pesantemente ZFS ormai da tempo in Debian.
Un file system COW (anche se ZFS non è solo un file system), per sua
natura presenta una scarsa visibilità nello spazio libero (e su come
agire per liberare spazio, specie se lavori con una miriade di snapshot).
Altro fattore
Il 27/08/2019 09:34, Bertorello, Marco ha scritto:
> Buongiorno lista,
>
> ho un dubbio relativo a ZFS.
>
> # zdb -DD zp1
>
> DDT-sha256-zap-duplicate: 144703 entries, size 349 on disk, 200 in core
> DDT-sha256-zap-unique: 1176516 entries, size 306 on disk, 159 in core
>
> DDT histogram
Il 2019-06-23 20:32 Giuseppe Sacco ha scritto:
Forse, se usi un initramfs, potresti provare a mettere il comando
all'interno di uno dei suoi hook, prima che monti il file system di
root.
Più che altro bisogna capire perché nell'initram non lo ha messo
automaticamente visto che mi ha creato
Ciao Paride,
Il giorno mer, 19/06/2019 alle 00.11 +0200, Paride Desimone ha scritto:
> Il 2019-06-16 23:58 Paride Desimone ha scritto:
> > pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa
> > come
> > poter fare in modo che il pool sia visibile direttamente all'avvio
> > della
Il 2019-06-16 23:58 Paride Desimone ha scritto:
pool per poterlo vedere (sudo zpool import poolz2). Qualcuno sa come
poter fare in modo che il pool sia visibile direttamente all'avvio
della macchina, perché a quel punto sposterei tutto il sistema tranne
il boot, sul pool.
Paride
Domanda da
24 matches
Mail list logo