Bonjour,

----- Mail original -----
> De: "RegisM" <regis.fr...@tornad.net>
> À: "Olivier DELHOMME" <olivier.delho...@mines-paristech.fr>
> Cc: "Pierre DOLIDON" <sn...@sn4ky.net>, "French SysAdmin Group" 
> <frsag@frsag.org>
> Envoyé: Vendredi 12 Décembre 2014 15:58:04
> Objet: Re: [FRsAG] Vos retours sur le stockage distribué / Glusterfs ?
> 
> Quelqu'un a testé ca  ?
> 
> http://www.xtreemfs.org/
> 
> Je suis tombé dessus lorsque j'ai refait un tour du web la dernière fois
> sur "distribued file system", et j'avoue que c'est pariel, si je m'en tiens
> au site internet et la présentation, je me dis que mes soucis de stockage
> sont enfin terminés (belle utopie :) )..

Je n'ai pas testé. Dans le principe, il y a toujours une différenciation
metadata et données ce qui peut potentiellement être un goulot d'étranglement.


> Sinon, j'ai aussi la partie stockage d'openstack à tester (mais j'ai peur
> d'avance..) .  OVH n'a plus de soucis avec hubic depuis qu'ils ont basculé
> là-dessus d'après les bruits de couloir :)

Openstack se couple apparemment très bien avec Ceph... (mais c'est pas
pour du système de fichier "classique" /home de 200 To !)

> je dérive un peu par rapport à ton besoin initial mais bon, une fois qu'on
> a un bon système clusterisé qui encaisse des To sur des To sans crainte...
> tu mets un point d'entrée NFS quelque part et t'es tranquille...

Je me pose la question de xtreemfs over rbd (Ceph)... 

@+,

Olivier.

> 
> 
> 
> Le 12 décembre 2014 15:49, Olivier DELHOMME <
> olivier.delho...@mines-paristech.fr> a écrit :
> >
> > Bonjour,
> >
> > ----- Mail original -----
> > > De: "Pierre DOLIDON" <sn...@sn4ky.net>
> > > À: frsag@frsag.org
> > > Envoyé: Vendredi 12 Décembre 2014 14:30:01
> > > Objet: Re: [FRsAG] Vos retours sur le stockage distribué / Glusterfs ?
> > >
> > > Bonjour.
> > >
> > > J'ai effectivement pu constater des bugs sur glusterfs, particulièrement
> > sur
> > > des environnements web répliqués. Les serveurs partaient en sucette
> > > fréquemment.
> > > Cette histoire de NFS qui est assez pénible aussi.
> > >
> > > Actuellement je bench une solution articulée autour de DRDB en
> > > primary/primary avec un filesystem OCFS2 par dessus (monté sur les 2
> > > serveurs bien sur).
> >
> > J'ai du DRDB actif/actif avec GFS2 dessus. L'arrêt d'une machine,
> > voulu ou non implique invariablement un split brain qu'il faut
> > résoudre manuellement !
> >
> > J'ai par ailleurs une architecture avec GlusterFS en Distributed
> > Replicated Volume. Je dois dire que ce n'est pas beaucoup mieux
> > et que lorsque ça marche on n'y touche plus !
> >
> > Je louche très fortement sur Ceph qui est en comparaison beaucoup
> > plus stable (le début du développement de Ceph date de 2004).
> > Je n'ai pas du tout testé CephFS dont la brique FS n'est pas
> > supportée au delà d'un seul noeud (pour le moment).
> >
> > Notez que lors de mes essais (avec du vieux matériel datant de
> > 2005) Ceph a été performant avec des tailles de bloc importantes
> > de l'ordre de 4Mo et 30x moins bon avec des tailles de bloc de 4ko.
> >
> >
> > A bientôt,
> >
> > Olivier DELHOMME.
> >
> >
> > _______________________________________________
> > Liste de diffusion du FRsAG
> > http://www.frsag.org/
> >
> 
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à