RE: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet BRUYELLES ALEXANDRE
Salut,

Ceph (rbd), c'est super robuste.

J'ai beau defoncer mes cluster de manière créatives, je n'ai jamais
réussi à perdre le moindre byte;

De : frnog-requ...@frnog.org  de la part de Michel Py 

Envoyé : jeudi 25 juillet 2019 17:32:08
À : 'Phil Regnauld'; frnog-tech
Objet : RE: [FRnOG] [TECH] Questions sur Proxmox/Ceph

> Phil Regnauld a écrit :
> Si c'est pour faire du vmware, regarder du côté de 
> http://www.petasan.org/,qui est
> une distro de CEPH orientée iSCSI et plus simple à déployer qu'un CEPH 
> traditionnel.

Justement j'avais demandé un retour d'expérience il y a quelque temps, des 
preneurs ?

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet Thomas Samson
On Thu, Jul 25, 2019 at 3:26 PM David Ponzone 
wrote:

>
> > Le 25 juil. 2019 à 12:15, BASSAGET Cédric 
> a écrit :
> >
> > Intéressé par le retour sur ce crash aussi.
> > On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de
> 7To
> > par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
> > proxmox.
> > Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
> > de node a la bourrin ( via drac => hors tension ).
> >
> > Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable.
> >
> > Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV <
> > quentin.leco...@shpv.fr> a écrit :
> >
>
>
> J’ai eu pas mal de retours assez encourageants, d’autres moins :)
>
> Je me rends par contre compte que j’ai oublié de demander si certains
> avaient osé l’archi avec Proxmox et Ceph sur les mêmes frontaux (plus de
> backend donc).
> Idée de fou ? Pire ?
>
> Merci
>
>
>
>
J'ai plusieurs clusters avec ceph + proxmox sur les memes nodes.

Au dela d'une certaine taille il est peut etre plus interessant d'avoir du
stockage dédié
et cette taille de cluster peut etre problématique coté proxmox, donc un
gros ceph et
plein de clusters proxmox.

Mais pour un cluster d'une dizaine de nodes ou moins c'est très raisonnable.

-- 
Thomas SAMSON

---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet Michel Py
> Phil Regnauld a écrit :
> Si c'est pour faire du vmware, regarder du côté de 
> http://www.petasan.org/,qui est
> une distro de CEPH orientée iSCSI et plus simple à déployer qu'un CEPH 
> traditionnel.

Justement j'avais demandé un retour d'expérience il y a quelque temps, des 
preneurs ?

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet Alexandre Bruyelles
Ce n'est pas une idée de fou, c'est une idée de pauvre (dans le sens :
très petite infrastructure)

Si tu as même une volumétrie moyenne (suffisament de storage device pour
nécessiter plusieurs VM), et plus de 2 hyperviseurs, tu as tout intérêt
à avoir du matériel dédié


On 7/25/19 3:24 PM, David Ponzone wrote:
> Je me rends par contre compte que j’ai oublié de demander si certains avaient 
> osé l’archi avec Proxmox et Ceph sur les mêmes frontaux (plus de backend 
> donc).
> Idée de fou ? Pire ?
> 
> Merci
> 
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
> 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet Richard DEMONGEOT

Bonjour,

$client-1 on avait plusieurs cluster proxmox hyperconvergés (ceph + kvm 
sur les mêmes hôtes).

4x1G pour les VM, 2x10G pour le CEPH. Max : 16 SSD par nodes.

$client a deux cluster proxmox hyperconvergés. (en plus, sur du 1G, mais 
peu de VM).


Dans les deux cas ça fait le job.

chez $job, je vais mettre plusieurs cluster proxmox hyperconvergés. Mais 
comme toujours, répartir les VM sur plusieurs cluster. Tu plante un 
cluster, tu perds pas tout.


Cordialement,

Le 2019-07-25 15:24, David Ponzone a écrit :
Le 25 juil. 2019 à 12:15, BASSAGET Cédric 
 a écrit :


Intéressé par le retour sur ce crash aussi.
On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 
7To
par serveur + 1 SSD pour les journaux) et réseau 10G, pour des 
clusters

proxmox.
Jusque là jamais eu de problème, même sur les updates de ceph, des 
arrêts

de node a la bourrin ( via drac => hors tension ).

Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable.

Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV <
quentin.leco...@shpv.fr> a écrit :




J’ai eu pas mal de retours assez encourageants, d’autres moins :)

Je me rends par contre compte que j’ai oublié de demander si certains
avaient osé l’archi avec Proxmox et Ceph sur les mêmes frontaux (plus
de backend donc).
Idée de fou ? Pire ?

Merci


---
Liste de diffusion du FRnOG
http://www.frnog.org/



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet David Ponzone


> Le 25 juil. 2019 à 12:15, BASSAGET Cédric  a 
> écrit :
> 
> Intéressé par le retour sur ce crash aussi.
> On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
> par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
> proxmox.
> Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
> de node a la bourrin ( via drac => hors tension ).
> 
> Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable.
> 
> Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV <
> quentin.leco...@shpv.fr> a écrit :
> 


J’ai eu pas mal de retours assez encourageants, d’autres moins :)

Je me rends par contre compte que j’ai oublié de demander si certains avaient 
osé l’archi avec Proxmox et Ceph sur les mêmes frontaux (plus de backend donc).
Idée de fou ? Pire ?

Merci


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet Guillaume PUTIER
Hello,

Ça remonte à quelques années, nous n'étions pas encore en indépendant et 
travaillions avec OVH.
Tout fonctionnait bien, en effet, jusqu'au jour à la connectivité réseau liée à 
CEPH à lâchée sur l'ensemble des nodes ( une quizaine ) pendant près de 10 
heures.
Toutes les machines ont vu leur RAM monter en flèche sur ce laps de temps 
jusqu'à complète saturation, impossible d'intervenir dessus, la galère complète.
Quand le réseau à re-up, la synchro est partie en cacahuète et impossible 
d'avoir 100% d'intégrité.

Une fois encore, c'était il y a quelques années, CEPH n'était peut-être pas 
aussi robuste que maintenant ( c'est pourquoi j'ai de nouveau envie de jouer 
avec )

Bref, toute une expérience ... __

Au plaisir !

PS: Merci pour la config, je l'ai bien reçu __

--
 


Guillaume PUTIER

18 allée du Poète 01480 Savigneux
tel : +33 4 48 140 411 
guillaume.put...@shpv.fr
 
 

Le 25/07/2019 12:17, « BASSAGET Cédric »  a écrit :

Intéressé par le retour sur ce crash aussi.
On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
proxmox.
Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
de node a la bourrin ( via drac => hors tension ).

Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable.

Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV <
quentin.leco...@shpv.fr> a écrit :

> Je laisse Guillaume te répondre, il sera plus à même de te donner des
> détails, il était en première ligne.
>
> Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de
> To en prod. ;)
>
> > Le 24 juil. 2019 à 22:14, Kevin Decherf  a écrit :
> >
> > Hello,
> >
> >> On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
> >> Salut !
> >>
> >> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
> >>
> >> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster
> proxmox, avec pertes des données, c'est déjà arrivé. #vécu
> >
> > Je suis curieux, tu peux en dire plus ?
> >
> > --
> > Kevin Decherf - @Kdecherf
> > GPG 0x108ABD75A81E6E2F
> > https://kdecherf.com
> >
> >
> > ---
> > Liste de diffusion du FRnOG
> > http://www.frnog.org/
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/




---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-25 Par sujet BASSAGET Cédric
Intéressé par le retour sur ce crash aussi.
On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
proxmox.
Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
de node a la bourrin ( via drac => hors tension ).

Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable.

Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV <
quentin.leco...@shpv.fr> a écrit :

> Je laisse Guillaume te répondre, il sera plus à même de te donner des
> détails, il était en première ligne.
>
> Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de
> To en prod. ;)
>
> > Le 24 juil. 2019 à 22:14, Kevin Decherf  a écrit :
> >
> > Hello,
> >
> >> On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
> >> Salut !
> >>
> >> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
> >>
> >> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster
> proxmox, avec pertes des données, c'est déjà arrivé. #vécu
> >
> > Je suis curieux, tu peux en dire plus ?
> >
> > --
> > Kevin Decherf - @Kdecherf
> > GPG 0x108ABD75A81E6E2F
> > https://kdecherf.com
> >
> >
> > ---
> > Liste de diffusion du FRnOG
> > http://www.frnog.org/
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet Phil Regnauld
Michel Py (michel) writes:
> > Quentin Leconte a écrit :
> > Je laisse Guillaume te répondre, il sera plus à même de te donner des 
> > détails, il était en première ligne.
> > Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To 
> > en prod. ;)
> 
> Je lirai avec intérêt la suite. J'étais justement en train de regarder vers 
> Ceph, pas pour ProxMox mais possiblement pour VMware et stockage de fichiers 
> générique, j'avais l'impression que c'était super-robuste, ce qui n'a pas 
> l'air d'être le cas.

Si c'est pour faire du vmware, regarder du côté de 
http://www.petasan.org/,
qui est une distro de CEPH orientée iSCSI et plus simple à déployer 
qu'un
CEPH traditionnel.

(VMware sait faire iSCSI et NFS entre autres, mais ne cause pas RBD).


---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet Michel Py
> Quentin Leconte a écrit :
> Je laisse Guillaume te répondre, il sera plus à même de te donner des 
> détails, il était en première ligne.
> Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To 
> en prod. ;)

Je lirai avec intérêt la suite. J'étais justement en train de regarder vers 
Ceph, pas pour ProxMox mais possiblement pour VMware et stockage de fichiers 
générique, j'avais l'impression que c'était super-robuste, ce qui n'a pas l'air 
d'être le cas.

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet Quentin Leconte, SHPV
Je laisse Guillaume te répondre, il sera plus à même de te donner des détails, 
il était en première ligne.

Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To en 
prod. ;)

> Le 24 juil. 2019 à 22:14, Kevin Decherf  a écrit :
> 
> Hello,
> 
>> On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
>> Salut !
>> 
>> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
>> 
>> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox, 
>> avec pertes des données, c'est déjà arrivé. #vécu
> 
> Je suis curieux, tu peux en dire plus ?
> 
> -- 
> Kevin Decherf - @Kdecherf
> GPG 0x108ABD75A81E6E2F
> https://kdecherf.com
> 
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet Kevin Decherf
Hello,

On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
> Salut !
> 
> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
> 
> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox, 
> avec pertes des données, c'est déjà arrivé. #vécu

Je suis curieux, tu peux en dire plus ?

-- 
Kevin Decherf - @Kdecherf
GPG 0x108ABD75A81E6E2F
https://kdecherf.com


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet Olivier Lange
Au prix du SSD, je te conseille du full SSD. Je viens de monter un cluster
de 5 machine (AMD epyc 16/32, 128go RAM extensible a 512) avec 4ssd 2to et
un nvme pour le système/log, par machine. Le tout en sfp+ 10g dédié pour la
synchro et le wan.

Ça dépote !

Olivier

Le mer. 24 juil. 2019 à 19:13, Guillaume PUTIER 
a écrit :

> Hello,
>
> Je te conseil d'ajouter des nodes, mais avec un certain nombre de disque,
> si tu peux avoir un cluster homogène c'est encore mieux.
> Genre si tu peux coupler le SSD avec le HD c'est mieux. SSD pour les logs,
> car ça gratte à mort, et HD pour de la donnée brute.
> L'idéal c'est de faire du 2x240G SSD + "X"x4To 7200Tr ( Les chassis 12x3,5
> sont super bien pour ça )
> Plus tu auras de disques par node, ainsi que de nodes, plus tu auras de
> perf. Oubli pas la RAM, de mémoire, 1Go par To de stockage brut /Node
> Le 10G c'est juste le minimum, sur une interface dédiée. En 1G ça sera
> médiocre. Si tu peux avoir du 2x10G en bonding, c'est pas dégueu
>
> Après tu peux aussi jouer avec du très gros, genre 2x2Tb SSD et 6x14To, tu
> fais du hot/cold depuis tes SSD, ça te permet d'avoir les données les plus
> souvent utilisées en cache sur le SSD.
>
> Comme le dit Quentin, backup comme si t'a vie en dépendait.
>
> Sur ce, bon courage l'ami !
> --
>
>
>
> Guillaume PUTIER
>
> 18 allée du Poète 01480 Savigneux
> tel : +33 4 48 140 411
> guillaume.put...@shpv.fr
>
>
>
> Le 24/07/2019 19:00, « Quentin Leconte »  de quentin.leco...@shpv.fr> a écrit :
>
> Salut !
>
> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
>
> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster
> proxmox, avec pertes des données, c'est déjà arrivé. #vécu
>
> Bon courage !
>
> Le 24/07/2019 18:49, « David Ponzone »  nom de david.ponz...@gmail.com> a écrit :
>
> Et côté équilibre en HD entre les nodes, on fait ce qu’on veut ?
> Exemple: j’ai 3 nodes avec chacun 2x2TB dédiés à Ceph.
> J’ai plus assez de place:
> -je rajoute forcément un node
> -j’ajoute pas de node mais je rajoute un HD dans chaque node
> -j’ajoute pas de node mais je rajoute un HD seulement dans un node
> et les autres plus tard
>
> En gros, on fait ce qu’on veut et c’est transparent ou y a quand
> même des contraintes à respecter ?
>
> Merci
>
>
> > Le 24 juil. 2019 à 18:38, kevin.labe...@1001pneus.fr a écrit :
> >
> > Oui et c'est même conseiller. Dans les deux cas :)
> >
> >
> >
> > Kevin LABECOT
> > Responsable Infrastructure
> > Service Informatique
> >
> >
> > Le 24 juil. 2019 à 18:29 +0200, David Ponzone <
> david.ponz...@gmail.com>, a écrit :
> >> Utilisateurs/Maitres de Ceph,
> >>
> >> 2 petites questions avant que je commence à jouer:
> >> -dans un cluster Proxmox/Ceph, on peut avoir un port réseau
> pour l’accès à Internet, et un second port pour uniquement les échanges de
> Ceph, ou c’est tout sur le même ?
> >> -si on peut séparer, je suppose qu’il est quasi-impératif
> d’être en 10G sur la partie Storage ?
> >>
> >> Merci
> >>
> >> David
> >>
> >>
> >> ---
> >> Liste de diffusion du FRnOG
> >> http://www.frnog.org/
> >>
>
> David Ponzone  Direction Technique
> email: david.ponz...@ipeva.fr 
> tel:  01 74 03 18 97
> gsm:   06 66 98 76 34
>
> Service Client IPeva
> tel:  0811 46 26 26
> www.ipeva.fr http://www.ipeva.fr/>  -
> www.ipeva-studio.com http://www.ipeva-studio.com/>
>
> Ce message et toutes les pièces jointes sont confidentiels et
> établis à l'intention exclusive de ses destinataires. Toute utilisation ou
> diffusion non autorisée est interdite. Tout message électronique est
> susceptible d'altération. IPeva décline toute responsabilité au titre de ce
> message s'il a été altéré, déformé ou falsifié. Si vous n'êtes pas
> destinataire de ce message, merci de le détruire immédiatement et d'avertir
> l'expéditeur.
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>
>
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>
>
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet Guillaume PUTIER
Hello,

Je te conseil d'ajouter des nodes, mais avec un certain nombre de disque, si tu 
peux avoir un cluster homogène c'est encore mieux.
Genre si tu peux coupler le SSD avec le HD c'est mieux. SSD pour les logs, car 
ça gratte à mort, et HD pour de la donnée brute.
L'idéal c'est de faire du 2x240G SSD + "X"x4To 7200Tr ( Les chassis 12x3,5 sont 
super bien pour ça )
Plus tu auras de disques par node, ainsi que de nodes, plus tu auras de perf. 
Oubli pas la RAM, de mémoire, 1Go par To de stockage brut /Node
Le 10G c'est juste le minimum, sur une interface dédiée. En 1G ça sera 
médiocre. Si tu peux avoir du 2x10G en bonding, c'est pas dégueu

Après tu peux aussi jouer avec du très gros, genre 2x2Tb SSD et 6x14To, tu fais 
du hot/cold depuis tes SSD, ça te permet d'avoir les données les plus souvent 
utilisées en cache sur le SSD.

Comme le dit Quentin, backup comme si t'a vie en dépendait.

Sur ce, bon courage l'ami !
--
 


Guillaume PUTIER

18 allée du Poète 01480 Savigneux
tel : +33 4 48 140 411 
guillaume.put...@shpv.fr
 
 

Le 24/07/2019 19:00, « Quentin Leconte »  a écrit :

Salut !

Petit conseil, si tu commences à faire du CEPH, backup bien souvent.

Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster 
proxmox, avec pertes des données, c'est déjà arrivé. #vécu

Bon courage !

Le 24/07/2019 18:49, « David Ponzone »  a écrit :

Et côté équilibre en HD entre les nodes, on fait ce qu’on veut ?
Exemple: j’ai 3 nodes avec chacun 2x2TB dédiés à Ceph.
J’ai plus assez de place:
-je rajoute forcément un node
-j’ajoute pas de node mais je rajoute un HD dans chaque node
-j’ajoute pas de node mais je rajoute un HD seulement dans un node et 
les autres plus tard

En gros, on fait ce qu’on veut et c’est transparent ou y a quand même 
des contraintes à respecter ?

Merci


> Le 24 juil. 2019 à 18:38, kevin.labe...@1001pneus.fr a écrit :
> 
> Oui et c'est même conseiller. Dans les deux cas :)
> 
> 
> 
> Kevin LABECOT
> Responsable Infrastructure
> Service Informatique
> 
> 
> Le 24 juil. 2019 à 18:29 +0200, David Ponzone 
, a écrit :
>> Utilisateurs/Maitres de Ceph,
>> 
>> 2 petites questions avant que je commence à jouer:
>> -dans un cluster Proxmox/Ceph, on peut avoir un port réseau pour 
l’accès à Internet, et un second port pour uniquement les échanges de Ceph, ou 
c’est tout sur le même ?
>> -si on peut séparer, je suppose qu’il est quasi-impératif d’être en 
10G sur la partie Storage ?
>> 
>> Merci
>> 
>> David
>> 
>> 
>> ---
>> Liste de diffusion du FRnOG
>> http://www.frnog.org/
>> 

David Ponzone  Direction Technique
email: david.ponz...@ipeva.fr 
tel:  01 74 03 18 97
gsm:   06 66 98 76 34

Service Client IPeva
tel:  0811 46 26 26
www.ipeva.fr http://www.ipeva.fr/>  -   www.ipeva-studio.com 
http://www.ipeva-studio.com/>

Ce message et toutes les pièces jointes sont confidentiels et établis à 
l'intention exclusive de ses destinataires. Toute utilisation ou diffusion non 
autorisée est interdite. Tout message électronique est susceptible 
d'altération. IPeva décline toute responsabilité au titre de ce message s'il a 
été altéré, déformé ou falsifié. Si vous n'êtes pas destinataire de ce message, 
merci de le détruire immédiatement et d'avertir l'expéditeur.


---
Liste de diffusion du FRnOG
http://www.frnog.org/




---
Liste de diffusion du FRnOG
http://www.frnog.org/




---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet Quentin Leconte
Salut !

Petit conseil, si tu commences à faire du CEPH, backup bien souvent.

Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox, 
avec pertes des données, c'est déjà arrivé. #vécu

Bon courage !

Le 24/07/2019 18:49, « David Ponzone »  a écrit :

Et côté équilibre en HD entre les nodes, on fait ce qu’on veut ?
Exemple: j’ai 3 nodes avec chacun 2x2TB dédiés à Ceph.
J’ai plus assez de place:
-je rajoute forcément un node
-j’ajoute pas de node mais je rajoute un HD dans chaque node
-j’ajoute pas de node mais je rajoute un HD seulement dans un node et les 
autres plus tard

En gros, on fait ce qu’on veut et c’est transparent ou y a quand même des 
contraintes à respecter ?

Merci


> Le 24 juil. 2019 à 18:38, kevin.labe...@1001pneus.fr a écrit :
> 
> Oui et c'est même conseiller. Dans les deux cas :)
> 
> 
> 
> Kevin LABECOT
> Responsable Infrastructure
> Service Informatique
> 
> 
> Le 24 juil. 2019 à 18:29 +0200, David Ponzone , 
a écrit :
>> Utilisateurs/Maitres de Ceph,
>> 
>> 2 petites questions avant que je commence à jouer:
>> -dans un cluster Proxmox/Ceph, on peut avoir un port réseau pour l’accès 
à Internet, et un second port pour uniquement les échanges de Ceph, ou c’est 
tout sur le même ?
>> -si on peut séparer, je suppose qu’il est quasi-impératif d’être en 10G 
sur la partie Storage ?
>> 
>> Merci
>> 
>> David
>> 
>> 
>> ---
>> Liste de diffusion du FRnOG
>> http://www.frnog.org/
>> 

David Ponzone  Direction Technique
email: david.ponz...@ipeva.fr 
tel:  01 74 03 18 97
gsm:   06 66 98 76 34

Service Client IPeva
tel:  0811 46 26 26
www.ipeva.fr http://www.ipeva.fr/>  -   www.ipeva-studio.com 
http://www.ipeva-studio.com/>

Ce message et toutes les pièces jointes sont confidentiels et établis à 
l'intention exclusive de ses destinataires. Toute utilisation ou diffusion non 
autorisée est interdite. Tout message électronique est susceptible 
d'altération. IPeva décline toute responsabilité au titre de ce message s'il a 
été altéré, déformé ou falsifié. Si vous n'êtes pas destinataire de ce message, 
merci de le détruire immédiatement et d'avertir l'expéditeur.


---
Liste de diffusion du FRnOG
http://www.frnog.org/




---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet David Ponzone
Et côté équilibre en HD entre les nodes, on fait ce qu’on veut ?
Exemple: j’ai 3 nodes avec chacun 2x2TB dédiés à Ceph.
J’ai plus assez de place:
-je rajoute forcément un node
-j’ajoute pas de node mais je rajoute un HD dans chaque node
-j’ajoute pas de node mais je rajoute un HD seulement dans un node et les 
autres plus tard

En gros, on fait ce qu’on veut et c’est transparent ou y a quand même des 
contraintes à respecter ?

Merci


> Le 24 juil. 2019 à 18:38, kevin.labe...@1001pneus.fr a écrit :
> 
> Oui et c'est même conseiller. Dans les deux cas :)
> 
> 
> 
> Kevin LABECOT
> Responsable Infrastructure
> Service Informatique
> 
> 
> Le 24 juil. 2019 à 18:29 +0200, David Ponzone , a 
> écrit :
>> Utilisateurs/Maitres de Ceph,
>> 
>> 2 petites questions avant que je commence à jouer:
>> -dans un cluster Proxmox/Ceph, on peut avoir un port réseau pour l’accès à 
>> Internet, et un second port pour uniquement les échanges de Ceph, ou c’est 
>> tout sur le même ?
>> -si on peut séparer, je suppose qu’il est quasi-impératif d’être en 10G sur 
>> la partie Storage ?
>> 
>> Merci
>> 
>> David
>> 
>> 
>> ---
>> Liste de diffusion du FRnOG
>> http://www.frnog.org/
>> 

David Ponzone  Direction Technique
email: david.ponz...@ipeva.fr 
tel:  01 74 03 18 97
gsm:   06 66 98 76 34

Service Client IPeva
tel:  0811 46 26 26
www.ipeva.fr http://www.ipeva.fr/>  -   www.ipeva-studio.com 
http://www.ipeva-studio.com/>

Ce message et toutes les pièces jointes sont confidentiels et établis à 
l'intention exclusive de ses destinataires. Toute utilisation ou diffusion non 
autorisée est interdite. Tout message électronique est susceptible 
d'altération. IPeva décline toute responsabilité au titre de ce message s'il a 
été altéré, déformé ou falsifié. Si vous n'êtes pas destinataire de ce message, 
merci de le détruire immédiatement et d'avertir l'expéditeur.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [TECH] Questions sur Proxmox/Ceph

2019-07-24 Par sujet kevin . labecot
Oui et c'est même conseiller. Dans les deux cas :)


Kevin LABECOT
Responsable Infrastructure
Service Informatique


Le 24 juil. 2019 à 18:29 +0200, David Ponzone , a 
écrit :
> Utilisateurs/Maitres de Ceph,
>
> 2 petites questions avant que je commence à jouer:
> -dans un cluster Proxmox/Ceph, on peut avoir un port réseau pour l’accès à 
> Internet, et un second port pour uniquement les échanges de Ceph, ou c’est 
> tout sur le même ?
> -si on peut séparer, je suppose qu’il est quasi-impératif d’être en 10G sur 
> la partie Storage ?
>
> Merci
>
> David
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/