>>Qui se termine par ... 

>>We can confirm the testcase and the problem. 
>>Therefore we developed a solution. 
>>With this patch we solved the problem without impact of performance. 
>>Feel free to participate on the solution without data corruption. 

le patch en question est pour drbd, pas pour mdadm.



>>> c'est pour cela que proxmox n'autorise que le raid soft via zfs pour 
>>> l'instant. 

>>C'est du FUD ça... vu le nombre de potes qui utilisent proxmox en raid 
>>soft + lvm + ext4fs... :) 

pardon, je ne voulais pas dire "n'autorise pas", mais ne supporte pas, ne 
garantit pas
d'enventuels problèmes. (en gros, pas dispo dans l'installeur, mais rien 
n'empeche d'installer une debian en raid soft et d'installer proxmox au dessus).



suffit de voir le nombre de bugreport avec les snapshots de disques qcow2 sur 
nfs et raid soft 
par exemple. (ca snasphot, et au moment de rollback, c'est corrompu).
avec lvm, y'a moins de problème effectivement.



Au final, Je voulais juste dire que mdadm c'est pas 100% safe. (et la loi de 
murphy me fera tomber dans les 0.01% de bug possible).
Ce qui m'ennuie le plus, c'est que ca ne se bouge pas trop coté dev pour les 
fixer.





----- Mail original -----
De: "stef" <s...@genesix.org>
À: "aderumier" <aderum...@odiso.com>, "Olivier Lange" <olang...@gmail.com>
Cc: "Duchet Rémy" <r...@duchet.eu>, "Richard Klein" <varicap....@gmail.com>, 
"Ludovic Scotti" <tonton...@gmail.com>, "frnog" <frnog@frnog.org>
Envoyé: Dimanche 16 Juin 2019 11:14:21
Objet: Re: [FRnOG] [TECH] Serveur avec disques NVMe

> je ne sais pas pour vmware, mais pour proxmox par example, il ne recommande 
> pas le raid soft 
> pour une simple raison, il peux y avoir des corruption des données dans les 
> vms qui utilisent O_DIRECT. 

???? 

> https://bugzilla.kernel.org/show_bug.cgi?id=99171 

Qui se termine par ... 

We can confirm the testcase and the problem. 
Therefore we developed a solution. 
With this patch we solved the problem without impact of performance. 
Feel free to participate on the solution without data corruption. 

> c'est pour cela que proxmox n'autorise que le raid soft via zfs pour 
> l'instant. 

C'est du FUD ça... vu le nombre de potes qui utilisent proxmox en raid 
soft + lvm + ext4fs... :) 

Ici, c'est Xen/Debian + raid soft + lvm + ext4fs + vms Debian (entre 2 
-pour un atom- et 15 -xeon 8c-) les gros sont en debian 8, parfois avec 
un kernel 4.x, les petits sous debian 9, avec de bons uptimes et aucun fail. 

Le raid soft nux, utilisé depuis presque 15 ans, c'est rock-solid. 

De mémoire, j'ai eu une fois une merdouille : un raid1 2 disques, le 
client avait fait jouer du marteau piqueur dans le cagibi pour passer 
une gaine de 63. Bien sûr en plein hiver, cagibi désormais à 5° et le 
serveur désormais plein de poussière au cul de la gaine avec le vent 
glacé = les deux disques en rideau avec les partoches dézinguées "en 
quinconce" (aucune partoche identique fliguée des deux cotés)... 

Je me dis pas grave, on va restaurer en deux fois mais sur une partoche, 
la resynchro ne finissais jamais, à cause de "secteurs défectueux" que 
mdadm s'obstinais à vouloir restaurer. J'applique tout le délire (faut 
calculer !) pour invalider les secteurs défectueux vis à vis de Linux, 
mais sans succès... laissé tombé et tout refais à zéro. 

Sinon, une règle sage : pour tout ce qui est critique (médical, etc...) 
: raid1 3 disques :) 

-- 
Stéphane Rivière 
Ile d'Oléron - France 


---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/

Répondre à