Ici je commence à jouer avec iSCSI sur IB (RDMA) avec multipath sur
2 réseaux (switchs) différents. Le choix de IB c'est simplement le prix,
pour 3000 € j'ai eu 2 switchs 24p 8Gbps, 12 HBA et les câbles qui vont
bien.
Le SAN est un Sun Storage cluster qui gère le thin provisioning,
les snapshots et la déduplication.
On va faire tourner plusieurs centaine de K€ de CA par an sur le SAN
donc une solution bricolée maison n'était pas envisageable. La seule
autre solution qui me plaisait était de l'Equallogic en 10G mais à 60K€
la tête de 3 To utiles ce n'était pas possible.
Je vais déjà tester les perfs de KVM par rapport à Xen (PV) sur du
matériel
dernier cri (Xeon 5600) et ferai un retour sur la liste. J"ai aussi
prévu de
documenter la partie iSCSI sur IB avec le stockage Sun.
Fred.
Je ne saurais que trop te conseiller de tester en fiber direct, parce
que toutes mes expériences avec le iscsi se sont soldés par des échecs.
Pas que cela ne marchait pas, mais c'était souvent lent, instable,
surtout sur les clients, et au final source de trop d'emmerdements.
Au prix actuel des cartes Fiber et d'un Fabric je me demande vraiment si
cela vaut le coup de s'embêter avec iscsi.
Sinon quitte à ne pas faire du bricoler maison, il peut être intéressant
d'évaluer vmware.
C'est peut être pas libre et payant, mais l'intégration est vraiment
bonne, et les performances pas si en retrait par rapport à KVM ou Xen.
Enfin cela dépend surtout de ce que l'on veut faire tourner comme guest.
Pour du linux c'est sur que Xen ou KVM explose tout. (en PV).
Reste un conseil d'ordre général sur la virtualisation. La
virtualisation c'est bien, mais pas pour tout, et il faut bien réfléchir
a ce que l'on veut faire tourner dessus. (exemple débile : pas de bases
de données :)
--
Raphael
_______________________________________________
FRsaG mailing list
[email protected]
http://www.frsag.org/mailman/listinfo/frsag