J’y ai pensé déjà mais c’est trop open pour le coup même si ça fonctionne
super bien je te l’accorde.

En revanche tu peux peut être m’éclairer sur un autre projet que je suis en
train de monter.

Je vais recevoir sous 2 jours 2 serveurs M610 avec 2 baies MD3000 et 4 Baies
MD1000 avec 90 disques de 1To pour refaire ma solution de backup.

L’idée était de mettre  2 distrib Open filer en Cluster (mais je ne sais pas
si c possible) Déjà testé ou pas de ton coté ?

Autre Hic c’est que OpenFiler ne prend pas en charge plus de 60 To ( Est-ce
par volume ou par Système).

Aussi  est-il possible de mettre une librairie de bande au cul de mon
Openfiler.

J’ai pas eu encore le temps de creusé beaucoup plus.

Sinon pour ma solution Vmware Dell va me prête une baie Equalogic pour faire
des tests.

C peut être plus cher que de l’open mais en revanche c’est supporter par
VmWare.

Cela à l’air sexy sur le papier, me reste à tester et bench.

 

 

 

De : [email protected] [mailto:[email protected]] De la part de
hugues Max
Envoyé : lundi 2 mai 2011 10:40
À : French SysAdmin Group
Objet : Re: [FRsAG] Question sur solution de stockage pour fermes VmWare

 

Bonjour
Pour ceux que cela intéresse

Voila ce que j'ai testé en solution opensource pour faire des cibles ISCSI
avec VMWARE

http://www.openfiler.com/
cela fonctionne bien, VMWARE ESXi 4 reconnait bien la cible iscsi sans
aucune configuration

j'ai testé aussi en NFS cela fonctionne aussi

j'ai  aussi testé  http://iscsitarget.sourceforge.net/

c'est plus compliqué a mettre en place mais on a la main sur tous les
paramètres et on peut faire des scripts pour automatiser 
le clonage et la création des cibles (target )

un petit exemple avec LVM 

add_iscsi.sh

#!/bin/bash
# Script pour ajouter un volume iscsi dynamiquement sans relancer le daemon
# by Hugues from www.dediware.fr
#
#lvcreate -L 10G -n lv_user002  VolGroup00
LAST_TID=`grep tid: /proc/net/iet/volume | cut -d':' -f2 | awk {' print $1
'} | sort -g | tail -n1`
NEW_TID=$(( $LAST_TID + 1 ))
LVM_STORAGE_SERVER_VOLUME_GROUP="VolGroup00"
LVM_IMAGE_NAME="lv_user001"
IMAGE_LUN=1
IMAGE_PASS="mot_de_passe"
IETDCONF=/etc/ietd.conf

echo dynamically add new target $LVM_IMAGE_NAME on
$LVM_STORAGE_SERVER_VOLUME_GROUP
echo /usr/sbin/ietadm --op new --tid=$NEW_TID --params Name=$LVM_IMAGE_NAME
echo ""
############################################################################
###

/usr/sbin/ietadm --op new --tid=$NEW_TID --params Name=$LVM_IMAGE_NAME

echo /usr/sbin/ietadm --op new --tid=$NEW_TID --lun=$IMAGE_LUN --params
Path=/dev/mapper/$LVM_STORAGE_SERVER_VOLUME_GROUP-$LVM_IMAGE_NAME
############################################################################
##
/usr/sbin/ietadm --op new --tid=$NEW_TID --lun=$IMAGE_LUN --params
Path=/dev/mapper/$LVM_STORAGE_SERVER_VOLUME_GROUP-$LVM_IMAGE_NAME

echo  mettre un login/pwd ISCSI
echo  Login: $LVM_IMAGE_NAME
echo  Password: $IMAGE_PASS
echo ""
##########################################
/usr/sbin/ietadm --op new --tid=$NEW_TID --user --params
IncomingUser=$LVM_IMAGE_NAME,Password=$IMAGE_PASS


echo Ajout des infos dans le fichier $IETDCONF
###########################################
echo ""
echo "Target $LVM_IMAGE_NAME"
echo "  IncomingUser $LVM_IMAGE_NAME $IMAGE_PASS"
echo "  Lun $IMAGE_LUN
Path=/dev/mapper/$LVM_STORAGE_SERVER_VOLUME_GROUP-$LVM_IMAGE_NAME,Type=filei
o"

echo "Target $LVM_IMAGE_NAME" >> $IETDCONF
echo "       IncomingUser $LVM_IMAGE_NAME $IMAGE_PASS" >> $IETDCONF
echo "       Lun $IMAGE_LUN
Path=/dev/mapper/$LVM_STORAGE_SERVER_VOLUME_GROUP-$LVM_IMAGE_NAME,Type=filei
o" >> $IETDCONF

cat /proc/net/iet/volume



les performances sont assez faibles mais j'ai jamais vu du iscsi fonctionner
super rapidement
quand une file système fait du 60 à 70Mb/sec,  en iscsi je suis a 8 à 10
Mb/sec

mon principale problème est l'isolation des machines en terme d'utilisation
des ressources en I/O ( entrée / sortie ) - le problème de la volumétrie
étant réglé par lvm
pour le moment je n'ai pas de solution simple a ce type de problème

bye
HB







Le 29/04/2011 22:10, Sylvain Rutten a écrit : 

Bonsoir.

Je suis à la recherche d’un solution de stockage simple et si possible
évolutive pour héberger mes fermes de serveurs VmWare.

J’ai une centaine de systèmes virtuels à héberger par DC. J’ai 2 DC donc 200
OS virtuel.

 

A l’heure actuel j’ai 2 Netapp 2050 de 15 To avec des disques 450 en 15 K.
Mais les perfs ne me conviennent pas que ce soit du FC, ISCSI ou du NFS,
donc ils ne me servent à rien ou presque.

Je viens de prospecter auprès d’Isilon mais les négociations sont
compliqués, les tarifs et les taux de remises pas très clair. Je suis parti
sur une config du genre 2 x 4 IQ5400S avec des axes de 15k pour une
volumétrie de 14 To util par cluster.

Du coup je me pose des questions sur les baies EqualLogic mais là j’ai
encore un peu peur du prix, acquisition des licences, maintenance et en plus
je ne suis pas fan du ISCSI.

 

Du coup  je partirais bien sûr du serveur standard genre dell R610 avec
contrôleur H800 / PowerVault MD1200 / HD en 15k / 8 x Gb intel en Lacp et
une distrib open source. 

Les avantages que je vois c’est le prix et le cout de maintenance. 

Le désagrément c’est que j’ai plusieurs DataStore. 1 par target NFS dans mon
cas avec des volumes de 5 To. Mais là c’est un faux problème au final.

Je reste convaincu que j’aurais plus de perfs avec des serveurs en NFS et du
DAS au cul qu’une solution SAN/NAS ou autre.

J’aimerais avoir des retours d’expérience, des avis et vos sentiments sur
Blackbox versus OpenSource pour mes Datastore VmWare.

 

Merci

 

Sylvain.

 

 
 
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à