On Thu, Nov 23, 2023 at 04:16:49PM +0100, listemessa...@coplast.eu wrote:
> Buongiorno a tutti,
> riapro e chiudo questo tema perchè non ho più dato feedback. Ci ho messo
> davvero tanto a risolvere, dopo i vostri consigli mi era stato chiesto di
> dare feedback in merito alle prove da effettuare,
Buongiorno a tutti,
riapro e chiudo questo tema perchè non ho più dato feedback. Ci ho messo
davvero tanto a risolvere, dopo i vostri consigli mi era stato chiesto
di dare feedback in merito alle prove da effettuare, eccomi per questo.
Alcune macchine virtuali, in particolare una macchina con
Il 26-02-2023 21:56 listemessa...@coplast.eu ha scritto:
Il 2023-02-24 09:33, fran...@modula.net ha scritto:
Forse mi è passato, ma non ho capito che controller hai sul server.
Luciano
In realtà questo non è un vero server, a livello hardware è una
workstation da progettazione 3D della
Err, ovviamente TBW va convertito in settori.
Il 27/02/2023 09:26, Diego Zuccato ha scritto:
Difficile tradurlo in anni di vita... Ma se guardi i contatori dei
dischi attuali puoi farti un'idea del carico a cui sono sottoposti:
guardi il totale di settori scritti e dividi per il tempo di
Difficile tradurlo in anni di vita... Ma se guardi i contatori dei
dischi attuali puoi farti un'idea del carico a cui sono sottoposti:
guardi il totale di settori scritti e dividi per il tempo di attività.
Poi dividi il dato TBW per il numero che hai ottenuto e ottieni un tempo
che puoi
Il 2023-02-23 22:04, Leonardo Boselli ha scritto:
On Thu, 23 Feb 2023, listemessa...@coplast.eu wrote:
Ecco questo è un problema, nel senso che acquistare per avere vita a
termine non mi ispira molto.
peché tu sei eterno ? guarda che sostituire un disco in un raid è meno
critico e
Il 2023-02-24 06:52, Piviul ha scritto:
Il 23/02/23 21:56, listemessa...@coplast.eu ha scritto:
[...]
studia pure, fai le tue prove ma che io sappia no. Ricordo che ci sono
delle limitazioni alla dimensione del volume di cache e che se il
volume lento da cachare è un volume di root c'è da
Il 2023-02-24 09:33, fran...@modula.net ha scritto:
Forse mi è passato, ma non ho capito che controller hai sul server.
Luciano
In realtà questo non è un vero server, a livello hardware è una
workstation da progettazione 3D della Dell "riciclata" a server, con 5
dischi collegati via
Il 23/02/23 21:56, listemessa...@coplast.eu ha scritto:
Il fatto è che non è chiaro quale sia il problema, se è l'accesso
lento o cos'altro.
Però prima di acquistare 4 dischi potrei acquistarne solo 1 e provare.
Ma devo tenere in considerazione il fatto che parliamo di un server di
produzione,
On Thu, 23 Feb 2023, listemessa...@coplast.eu wrote:
Ecco questo è un problema, nel senso che acquistare per avere vita a termine
non mi ispira molto.
peché tu sei eterno ? guarda che sostituire un disco in un raid è meno
critico e costoso che sostituire un sistemista.
--
Leonardo Boselli
Ecco questo è un problema, nel senso che acquistare per avere vita a
termine non mi ispira molto.
Il 2023-02-23 14:11, Diego Zuccato ha scritto:
Attenzione. Al momento mi pare che da 8T ci sia solo il Samsung 870
QVO, che è un QLC. Dal sito
Il fatto è che non è chiaro quale sia il problema, se è l'accesso lento
o cos'altro.
Però prima di acquistare 4 dischi potrei acquistarne solo 1 e provare.
Ma devo tenere in considerazione il fatto che parliamo di un server di
produzione, che non deve fermarsi mai, e se non ho capito male la
Attenzione. Al momento mi pare che da 8T ci sia solo il Samsung 870 QVO,
che è un QLC. Dal sito
https://www.samsung.com/it/memory-storage/sata-ssd/ssd-870-qvo-sata-3-2-5-8tb-mz-77q8t0bw/
: "fino a un massimo di 2.880 TBW".
Quindi dipende da quanto ci (ri)scrivi.
Diego
Il 23/02/2023 13:16,
Infatti anche io avevo suggerito questo come primo passo...
On Thu, Feb 23, 2023 at 01:46:46PM +0100, Piviul wrote:
> Se il problema è l'accesso al disco lento per me fai prima a mettere una
> cache SSD ai volumi LVM; ...io avrei portato anche il raid su LV ma questo è
> un altro discorso ;)
>
>
Se il problema è l'accesso al disco lento per me fai prima a mettere una
cache SSD ai volumi LVM; ...io avrei portato anche il raid su LV ma
questo è un altro discorso ;)
Piviul
Il 23/02/23 13:16, listemessa...@coplast.eu ha scritto:
Grazie per i consigli, opterei per passare a tutto SSD,
Grazie per i consigli, opterei per passare a tutto SSD, sarebbe anche
trasparente, senza fermi, un disco alla volta.
Devo valutare i costi, 4 dischi SSD da 8 Tb cadauno costano parecchio.
Consigli su cosa acquistare?
Grazie
Il 2023-02-22 18:45, Marco Ciampa ha scritto:
On Wed, Feb 22, 2023
On Wed, Feb 22, 2023 at 01:29:07PM +0100, listemessa...@coplast.eu wrote:
> Restando valido tutto quanto discusso nello scambio di mail precedente, ma
> non è che il problema sia ad un altro livello? Che sia l'approccio
> sbagliato? Forse sto chiedendo troppo a questo server?
> Questa macchina
Dopo che mi è morto un Raid5 di 3 dischi con dei WD green dopo 2 anni e
pochi giorni, non ne ho mai più presi.
Devo verificare i RED che ho messo in CEPH, che effettivamente mi paiono
un tantino lenti... Meno male che ho già avviato l'acquisto degli SSD
per sostituirli.
Grazie per il link.
On Wed, Feb 22, 2023 at 01:13:33PM +0100, listemessa...@coplast.eu wrote:
> Sono 4 dischi Western Digital da 8 Tb cadauno della serie WD Red Plus
> (NASware 3.0)
> Non è robaccia..., non sono SSD ma non sono neanche male. Costicchiano...
POSSONO essere robaccia anche se costano, controlla il tipo
On Wed, Feb 22, 2023 at 12:21:16PM +0100, Paolo Redaelli wrote:
>
>
> Il 22 febbraio 2023 11:44:22 CET, Paride Desimone ha
> scritto:
> >Il 22 febbraio 2023 10:21:41 UTC, Marco Ciampa ha
> >scritto:
> >>On Wed, Feb 22, 2023 at 10:04:49AM +, Paride Desimone wrote:
> >>> Il 22-02-2023
In data mercoledì 22 febbraio 2023 13:15:06 CET, listemessa...@coplast.eu ha
scritto:
> Come posso verificare? Tester?
Se il tuo hardware supporta l'IPMI puoi usare ipmitool.
--
Cosmo
Restando valido tutto quanto discusso nello scambio di mail precedente,
ma non è che il problema sia ad un altro livello? Che sia l'approccio
sbagliato? Forse sto chiedendo troppo a questo server?
Questa macchina esporta via Tgt dei volumi gestiti da LVM che a suo
volta si appoggia ad un raid5
Sinceramente non saprei.
Come posso verificare? Tester?
Il 2023-02-22 09:48, Cosmo ha scritto:
In data mercoledì 22 febbraio 2023 09:41:06 CET, listemessa...@coplast.eu ha
scritto:
No sono tutti e 4 i dischi del raid5 che a random segnalano quel problema.
L'alimentatore come sta?
Sono 4 dischi Western Digital da 8 Tb cadauno della serie WD Red Plus
(NASware 3.0)
Non è robaccia..., non sono SSD ma non sono neanche male. Costicchiano...
Il 2023-02-22 09:43, Diego Zuccato ha scritto:
Che tipo di dischi sono? Non saranno dei "green", vero?
Diego
Il 22/02/2023 09:41,
Il 22 febbraio 2023 11:44:22 CET, Paride Desimone ha
scritto:
>Il 22 febbraio 2023 10:21:41 UTC, Marco Ciampa ha scritto:
>>On Wed, Feb 22, 2023 at 10:04:49AM +, Paride Desimone wrote:
>>> Il 22-02-2023 08:43 Diego Zuccato ha scritto:
>>> > Che tipo di dischi sono? Non saranno dei
Il 22 febbraio 2023 10:21:41 UTC, Marco Ciampa ha scritto:
>On Wed, Feb 22, 2023 at 10:04:49AM +, Paride Desimone wrote:
>> Il 22-02-2023 08:43 Diego Zuccato ha scritto:
>> > Che tipo di dischi sono? Non saranno dei "green", vero?
>> >
>> > Diego
>> >
>>
>> Ignorando realmente la cosa, che
On Wed, Feb 22, 2023 at 10:04:49AM +, Paride Desimone wrote:
> Il 22-02-2023 08:43 Diego Zuccato ha scritto:
> > Che tipo di dischi sono? Non saranno dei "green", vero?
> >
> > Diego
> >
>
> Ignorando realmente la cosa, che cosa comporterebbe il fatto di essere green
> o meno?
>
> /paride
Il 22-02-2023 08:43 Diego Zuccato ha scritto:
Che tipo di dischi sono? Non saranno dei "green", vero?
Diego
Ignorando realmente la cosa, che cosa comporterebbe il fatto di essere
green o meno?
/paride
--
In data mercoledì 22 febbraio 2023 09:41:06 CET, listemessa...@coplast.eu ha
scritto:
> No sono tutti e 4 i dischi del raid5 che a random segnalano quel problema.
L'alimentatore come sta?
--
Cosmo
Che tipo di dischi sono? Non saranno dei "green", vero?
Diego
Il 22/02/2023 09:41, listemessa...@coplast.eu ha scritto:
No sono tutti e 4 i dischi del raid5 che a random segnalano quel problema.
2 dischi li ho già sostituiti perchè stando allo SMART contenevano errori
Il 2023-02-22 09:27,
Confermo quei circa 110 corrispondono a 55°C, che comunque sono tanti.
Il 2023-02-22 09:20, Cosmo ha scritto:
In data mercoledì 22 febbraio 2023 08:56:07 CET, Diego Zuccato ha scritto:
Nei miei segue abbastanza la temperatura ambiente, con ovviamente
qualche grado extra.
Quelli sono i
No sono tutti e 4 i dischi del raid5 che a random segnalano quel problema.
2 dischi li ho già sostituiti perchè stando allo SMART contenevano errori
Il 2023-02-22 09:27, Marco Ciampa ha scritto:
On Tue, Feb 21, 2023 at 09:57:26PM +0100, listemessa...@coplast.eu wrote:
[...]
Strano il reset,
In data mercoledì 22 febbraio 2023 08:56:07 CET, Diego Zuccato ha scritto:
> Nei miei segue abbastanza la temperatura ambiente, con ovviamente
> qualche grado extra.
Quelli sono i valori grezzi, il valore degli attributi è un'altra cosa
feb 22 08:32:54 debian smartd[786]: Device: /dev/sdb [SAT],
Nei miei segue abbastanza la temperatura ambiente, con ovviamente
qualche grado extra.
Tipo:
# smartctl -A /dev/sda
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.10.0-13-amd64] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF READ SMART DATA
In data mercoledì 22 febbraio 2023 06:26:59 CET, Diego Zuccato ha scritto:
> Temperature intorno ai 100 gradi mi paiono decisamente eccessive, se non
> è un errore di SMART.
Quello è semplicemente il valore dell'attributo SMART non l'indicazione della
temperatura espressa in gradi celsius
--
Err... Butto lì: dischi che si stanno cuocendo?
Temperature intorno ai 100 gradi mi paiono decisamente eccessive, se non
è un errore di SMART.
Diego
Il 21/02/2023 21:57, listemessa...@coplast.eu ha scritto:
Buonasera a tutti,
chiedo aiuto per interpretare quanto segue.
Feb 20 23:19:44
Buonasera a tutti,
chiedo aiuto per interpretare quanto segue.
Feb 20 23:19:44 emiliano kernel: [4782542.532294] sd 2:0:1:0: attempting
task abort! scmd(ce39ece2)
Feb 20 23:19:44 emiliano kernel: [4782542.532300] sd 2:0:1:0: [sdc]
tag#2246 CDB: Synchronize Cache(10) 35 00 00 00 00 00
37 matches
Mail list logo