Re: [FRnOG] [MISC] Solution de virtualisation

2019-06-14 Par sujet professor geek
Nous utilisons oVirt (et RHEV) pour notre environnement de lab. Comme
Pascal disait, ca fait ce qu’on a besoin a minima avec une api en plus.
Bien pratique pour poper de la VM depuis foreman (ou terraform).
Attention tout de meme en mode hyperconvergé avec GlusterFS, nous avons eu
des surprises lors d’une récente mise à jour. le rollback de version a été
un peu penible (wipe/re-create/restore).

Pr

On 13 June 2019 at 21:33:20, VALOIS, Pascal (pascal.val...@free.fr) wrote:

Le 24/05/2019 à 13:55, Romain Degez a écrit :
> Bonjour Lucas, Intéressant ce rétropédalage / sortie du cloud. C'est
> une tendance qu'on constate un peu aussi du coup suis intéressé du
> feedback si tu peux en dire un peu plus! Je dirais qu'oVirt est encore
> plus light que Proxmox en terme de feature mais je l'ai moins utilisé
> donc je ne me prononce pas trop..
pour avoir utilisé oVirt pendant 8 mois dans un datacenter, je dirais
que tout ce qu'on attends au minima est la :

* gestion des vm
* migration a chaud
* snapshots
* disques iscsi
* vlanisation des vm

Le datacenter ou je travaillais, l'utilisait pour beaucoup de serveurs
linux allant de lamp, a openvpn, bdd, et autres, et aussi quelques vm
windows.

> Tu n'as pas mentionné OpenNebula et CloudStack qui sont aussi des
> alternatives que je placerai un peu entre Proxmox et OpenStack en
> terme de features/complexité.
Tiens, ca fait encore des choses a voir ca :)
> Pour OpenStack... c'est clairement la solution la plus riche (pas pour
> rien qu'OVH se base dessus pour son offre public-cloud) mais aussi de
> loin la plus complexe à intégrer et opérer donc il faut que
> l'envergure du besoin/projet en vaille la peine.
je dirais pour openstack, que déjà rien que l'avoir installé c'est pas
mal :)
Pascal.

---
Liste de diffusion du FRnOG
http://www.frnog.org/

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-06-13 Par sujet VALOIS, Pascal

Le 24/05/2019 à 13:55, Romain Degez a écrit :
Bonjour Lucas, Intéressant ce rétropédalage / sortie du cloud. C'est 
une tendance qu'on constate un peu aussi du coup suis intéressé du 
feedback si tu peux en dire un peu plus! Je dirais qu'oVirt est encore 
plus light que Proxmox en terme de feature mais je l'ai moins utilisé 
donc je ne me prononce pas trop..
pour avoir utilisé oVirt pendant 8 mois dans un datacenter, je dirais 
que tout ce qu'on attends au minima est la :


 * gestion des vm
 * migration a chaud
 * snapshots
 * disques iscsi
 * vlanisation des vm

Le datacenter ou je travaillais, l'utilisait pour beaucoup de serveurs 
linux allant de lamp, a openvpn, bdd, et autres, et aussi quelques vm 
windows.


Tu n'as pas mentionné OpenNebula et CloudStack qui sont aussi des 
alternatives que je placerai un peu entre Proxmox et OpenStack en 
terme de features/complexité.

Tiens, ca fait encore des choses a voir ca :)
Pour OpenStack... c'est clairement la solution la plus riche (pas pour 
rien qu'OVH se base dessus pour son offre public-cloud) mais aussi de 
loin la plus complexe à intégrer et opérer donc il faut que 
l'envergure du besoin/projet en vaille la peine.
je dirais pour openstack, que déjà rien que l'avoir installé c'est pas 
mal :)

Pascal.

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-06-03 Par sujet Arnaud BRAND

Il y a des standards.
Et puis il y a des constructeurs qui font du protectionnisme et bloquent 
les matériels standard de leurs concurrents.
Les raisons évoquées sont variées : pas sûr qu'ils soient assez 
standard, pas assez bien pour discuter avec nos équipements, standard 
mais pas compatibles, on l'a pas validé, etc


Tu peux choisir d'utiliser les matériels de ces constructeurs 
protectionnistes.

Ou d'acheter d'autres matériels.

La tout de suite, je te conseille des cartes Mellanox ConnectX-4 LX, 
pour faire du 1/10/25G sur port SFP28 (rétro compatible SFP et SFP+, 
donc).

http://www.mellanox.com/page/products_dyn?product_family=219=connectx_4_lx_en_card

Si tu ne veux pas de 25G/SFP28, tu pourras économiser 10€ avec un modèle 
qui ne fait que SFP/SFP+.

https://store.mellanox.com/categories/adapters/ethernet-adapter-cards/connectx-4-lx-en.html

A+

Le 2019-06-03 13:05, Olivier Lange a écrit :

Ok. Donc à priori si je prends des dac, j'aurais pas de soucis.

Merci du retour. Ce serait bien d'avoir du standard sur ce matériel...

Olivier

Le lun. 3 juin 2019 à 13:01, Michel 'ic' Luczak  a
écrit :


io,

> On 3 Jun 2019, at 09:42, Olivier Lange  wrote:
>
> Hello,
>
> Je me permets de revenir sur cette histoire de DAC et de jarretière
> optique. J'avoue, première fois que je monte une infra en optique. L'idée
> est de pouvoir monter sur du 10G entre les serveurs et nos Mikrotik. Du
> coup, qu'y a-t-il comme DAC ou SFP+ optique qui soit conseillé et adapté
à
> la fois sur du Mikrotik (CCR 1036) et mes CM type Supermicro avec une
carte
> type Supermicro AOC-STG-i4S Network Card, 4 x 10Gbit/sec SFP+, Intel X710
> chip ?

Une carte Intel va se désactiver avec des SFP+ qui ne sont pas codées
Intel mais je n’ai pas rencontré de soucis avec les câbles DAC 
(Arista,

Cisco et noname).

Il est possible de passer outre en bricolant le driver mais autant 
coder

les optiques en Intel si c’est pour faire de l’optique.

++ ic




---
Liste de diffusion du FRnOG
http://www.frnog.org/



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-06-03 Par sujet Olivier Lange
Ok. Donc à priori si je prends des dac, j'aurais pas de soucis.

Merci du retour. Ce serait bien d'avoir du standard sur ce matériel...

Olivier

Le lun. 3 juin 2019 à 13:01, Michel 'ic' Luczak  a
écrit :

> io,
>
> > On 3 Jun 2019, at 09:42, Olivier Lange  wrote:
> >
> > Hello,
> >
> > Je me permets de revenir sur cette histoire de DAC et de jarretière
> > optique. J'avoue, première fois que je monte une infra en optique. L'idée
> > est de pouvoir monter sur du 10G entre les serveurs et nos Mikrotik. Du
> > coup, qu'y a-t-il comme DAC ou SFP+ optique qui soit conseillé et adapté
> à
> > la fois sur du Mikrotik (CCR 1036) et mes CM type Supermicro avec une
> carte
> > type Supermicro AOC-STG-i4S Network Card, 4 x 10Gbit/sec SFP+, Intel X710
> > chip ?
>
> Une carte Intel va se désactiver avec des SFP+ qui ne sont pas codées
> Intel mais je n’ai pas rencontré de soucis avec les câbles DAC (Arista,
> Cisco et noname).
>
> Il est possible de passer outre en bricolant le driver mais autant coder
> les optiques en Intel si c’est pour faire de l’optique.
>
> ++ ic
>
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-06-03 Par sujet Michel 'ic' Luczak
io,

> On 3 Jun 2019, at 09:42, Olivier Lange  wrote:
> 
> Hello,
> 
> Je me permets de revenir sur cette histoire de DAC et de jarretière
> optique. J'avoue, première fois que je monte une infra en optique. L'idée
> est de pouvoir monter sur du 10G entre les serveurs et nos Mikrotik. Du
> coup, qu'y a-t-il comme DAC ou SFP+ optique qui soit conseillé et adapté à
> la fois sur du Mikrotik (CCR 1036) et mes CM type Supermicro avec une carte
> type Supermicro AOC-STG-i4S Network Card, 4 x 10Gbit/sec SFP+, Intel X710
> chip ?

Une carte Intel va se désactiver avec des SFP+ qui ne sont pas codées Intel 
mais je n’ai pas rencontré de soucis avec les câbles DAC (Arista, Cisco et 
noname).

Il est possible de passer outre en bricolant le driver mais autant coder les 
optiques en Intel si c’est pour faire de l’optique.

++ ic


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-06-03 Par sujet Olivier Lange
Hello,

Je me permets de revenir sur cette histoire de DAC et de jarretière
optique. J'avoue, première fois que je monte une infra en optique. L'idée
est de pouvoir monter sur du 10G entre les serveurs et nos Mikrotik. Du
coup, qu'y a-t-il comme DAC ou SFP+ optique qui soit conseillé et adapté à
la fois sur du Mikrotik (CCR 1036) et mes CM type Supermicro avec une carte
type Supermicro AOC-STG-i4S Network Card, 4 x 10Gbit/sec SFP+, Intel X710
chip ?

Si je regarde coté Mikrotik (mais peut être que je peux prendre une autre
marque? C'est juste que je me dis qu'avoir du full Mikrotik sur cette
partie la m'évite d'avoir des surprises, et qu'il y a plus de chance que
mon SFP+ Mikrotik soit compatible sur mon SuperMicro que l'inverse...):
- DAC S+DA0003 (https://mikrotik.com/product/SplusDA0003)
- SFP+ 10G: S+85DLC03D (https://mikrotik.com/product/Splus85DLC03D)

Si ce DAC est OK, je me prends pas la tête, ca évitera de nombreux soucis,
surtout que les équipements seront dans la même baie, l'un a coté de
l'autre...

Merci.
Olivier

Le lun. 27 mai 2019 à 19:03, Laurent-Charles Fabre  a
écrit :

> La vitesse c’est tout pareil.
>
> C’est la latence qui est meilleure en optique qu’en cuivre.
> Ou si tu préfère le laser module plus proprement qu’un RLC
>
> Bref, en débit pur c’est idem.
> Sur une charge avec plein de burst de petit paquets bien mélangés par
> plusieurs hyperviseurs c’est sensible.
>
> En backup type dédup compréssé, on constate 60% à 80% de read (ce n’est
> pas une erreur) bien random et des écritures pulsées très brève.
> Fini le temps du VTL...
>
> Laurent-Charles Fabre
>
>
>
> > Le 27 mai 2019 à 18:52, Michel Py 
> a écrit :
> >
> >> Laurent-Charles Fabre a écrit :
> >> il faut bannir les cartes 10G Broadcom très présentes sur ces serveurs
> par défaut.
> >> Remplacez les par des Intel
> >
> > +1
> >
> >> Si en plus vous vous en tenez à du SFP+ optique Vs DAC sur les liens
> SAN,
> >> vous gagnerez sensiblement sur les opérations genre backup nocturne
> dédupliqués.
> >
> > Je ne vois pas la différence en vitesse entre DAC et SFP+ ?
> >
> > Michel.
> >
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Nicolas Girardi
J’avais retenu ;)

Nicolas Girardi.

> Le 29 mai 2019 à 17:28, Joel DEREFINKO  a écrit :
> 
> Si moi j'en ai parlé en début de thread, mais je crois que je suis passé 
> inaperçu (ou que ca ne corresponde pas aux attentes de l'OP)
> J'ai p'tet pas assez insisté sur le côté gratos :D
> 
> Joël 
> -Message d'origine-
> De : frnog-requ...@frnog.org  De la part de Ludovic 
> RAMOSFILIPE
> Envoyé : mercredi 29 mai 2019 09:52
> À : Laurent Fabre 
> Cc : "Florent H. CARRÉ (COLUNDRUM)" ; Alexandre DERUMIER 
> ; Michel Py ; 
> frnog-misc ; kevin.labe...@1001pneus.fr
> Objet : Re: [FRnOG] [MISC] Solution de virtualisation
> 
> Bonjour,
> 
> Personne ne parle de NUTANIX et de leur hyperviseur AHV ?
> 
> interface html5 + api
> Solution hyperconverger Sur switch full 10G
> 
> Avec toute les options de vmware
> 
> Tourne avec des ssd pour la donner chaude et des hdd pour donner froide
> avec compression de la donner pour économiser le stockage.
> 
> Impossible de perdre une donné, suffit de les contacter et de leur dire que
> vs avez une solutions  d’un concurrent et ils seront très agressif sur le
> prix.
> 
> De très grosses sociétés utilisent leurs solutions de virtualisation.
> 
>> Le mer. 29 mai 2019 à 08:34, Laurent Fabre  a écrit :
>> 
>> Je confirme
>> Et quand tu as le support et que les gars identifient un bug, ils te le
>> realease asap en patch sur le pro
>> Pour le community c’est intégré lors d’une release.
>> 
>> Envoyé depuis mon mobile
>> Laurent-Charles FABRE
>> +33 6 6201 5196
>> 
>>> Le 29 mai 2019 à 08:17, kevin.labe...@1001pneus.fr a écrit :
>>> 
>>> Les upgrade proxmox ont tjrs étaient gratuites. Il y a juste un repo
>> Entreprise pour ceux qui ont le support et un repo community pour les
>> autres.
>>> 
>>> Je crois juste que le repo Entreprise reçoit les patch plus tôt.
>>> 
>>> 
>>> Kevin LABECOT
>>> Responsable Infrastructure
>>> Service Informatique
>>> 
>>> 1001pneus
>>> 4/6 cours de l'intendance
>>> 33000 Bordeaux
>>> 
>>> Envoyé depuis mon mobile  Tel: 05 35 54 31 10
>>> Mob: 06.08.46.96.50
>>> Fax: 01.83.64.28.70
>>> E-mail: kevin.labe...@1001pneus.fr
>>> <1028AD08B57C499487BCC6ED384864B5.png>
>>> 
>>> 
>>>> Le 29 mai 2019 à 08:01 +0200, Michel Py <
>> mic...@arneill-py.sacramento.ca.us>, a écrit :
>>>>> Laurent-Charles FABRE a écrit :
>>>>> Maintenant, j’avoue que sur les bons principes « Chat échaudé craint
>> l’eau froide » et
>>>>> « if it ain’t broken don’t (fuckin) fix it » on n’a plus jamais mis de
>> DAC sur les lan SAN !
>>>> 
>>>> Merci pour ce sourire. On a tous plusieurs trucs ou on s'est fait chier
>> pendant des jours qu'on ne recommencera plus jamais !
>>>> 
>>>> Michel.
>>>> 
>>>> 
>>>> ---
>>>> Liste de diffusion du FRnOG
>>>> http://www.frnog.org/
>>>> 
>> 
>> ---
>> Liste de diffusion du FRnOG
>> http://www.frnog.org/
>> 
> -- 
> 
> 
> 
> 
> 
> 
> 
> Ludovic Ramos | Responsable VOIP
> 
> | *SCT TELECOM *| La plaine saint denis
> | phone: 0 <892020220>892020220
> | email: l.ra...@sct-telecom.fr
> | site:  www.sct-telecom.fr
> | skype: ludovic.ramos95
> | address:  17-19 avenue de la metallurgie
> <https://fr-fr.facebook.com/scttelecom/> <https://twitter.com/SCT_Telecom_>
> <https://www.youtube.com/channel/UCq3sTrWumacQq1Dh20Ix80Q>
> <https://mysignature.io/preview/www.sct-telecom.fr>
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Stéphane Rivière

Je suis en 2.15 sur 3 des 4 clusters, et en 2.16-rc2 depuis 1 an sur
le dernier site.


Merci Phil !

--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Joel DEREFINKO
Si moi j'en ai parlé en début de thread, mais je crois que je suis passé 
inaperçu (ou que ca ne corresponde pas aux attentes de l'OP)
J'ai p'tet pas assez insisté sur le côté gratos :D

Joël 
-Message d'origine-
De : frnog-requ...@frnog.org  De la part de Ludovic 
RAMOSFILIPE
Envoyé : mercredi 29 mai 2019 09:52
À : Laurent Fabre 
Cc : "Florent H. CARRÉ (COLUNDRUM)" ; Alexandre DERUMIER 
; Michel Py ; 
frnog-misc ; kevin.labe...@1001pneus.fr
Objet : Re: [FRnOG] [MISC] Solution de virtualisation

Bonjour,

Personne ne parle de NUTANIX et de leur hyperviseur AHV ?

interface html5 + api
Solution hyperconverger Sur switch full 10G

Avec toute les options de vmware

Tourne avec des ssd pour la donner chaude et des hdd pour donner froide
avec compression de la donner pour économiser le stockage.

Impossible de perdre une donné, suffit de les contacter et de leur dire que
vs avez une solutions  d’un concurrent et ils seront très agressif sur le
prix.

De très grosses sociétés utilisent leurs solutions de virtualisation.

Le mer. 29 mai 2019 à 08:34, Laurent Fabre  a écrit :

> Je confirme
> Et quand tu as le support et que les gars identifient un bug, ils te le
> realease asap en patch sur le pro
> Pour le community c’est intégré lors d’une release.
>
> Envoyé depuis mon mobile
> Laurent-Charles FABRE
> +33 6 6201 5196
>
> > Le 29 mai 2019 à 08:17, kevin.labe...@1001pneus.fr a écrit :
> >
> > Les upgrade proxmox ont tjrs étaient gratuites. Il y a juste un repo
> Entreprise pour ceux qui ont le support et un repo community pour les
> autres.
> >
> > Je crois juste que le repo Entreprise reçoit les patch plus tôt.
> >
> >
> > Kevin LABECOT
> > Responsable Infrastructure
> > Service Informatique
> >
> > 1001pneus
> > 4/6 cours de l'intendance
> > 33000 Bordeaux
> >
> > Envoyé depuis mon mobile  Tel: 05 35 54 31 10
> > Mob: 06.08.46.96.50
> > Fax: 01.83.64.28.70
> > E-mail: kevin.labe...@1001pneus.fr
> > <1028AD08B57C499487BCC6ED384864B5.png>
> >
> >
> >> Le 29 mai 2019 à 08:01 +0200, Michel Py <
> mic...@arneill-py.sacramento.ca.us>, a écrit :
> >>> Laurent-Charles FABRE a écrit :
> >>> Maintenant, j’avoue que sur les bons principes « Chat échaudé craint
> l’eau froide » et
> >>> « if it ain’t broken don’t (fuckin) fix it » on n’a plus jamais mis de
> DAC sur les lan SAN !
> >>
> >> Merci pour ce sourire. On a tous plusieurs trucs ou on s'est fait chier
> pendant des jours qu'on ne recommencera plus jamais !
> >>
> >> Michel.
> >>
> >>
> >> ---
> >> Liste de diffusion du FRnOG
> >> http://www.frnog.org/
> >>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>
-- 







Ludovic Ramos | Responsable VOIP

| *SCT TELECOM *| La plaine saint denis
| phone: 0 <892020220>892020220
| email: l.ra...@sct-telecom.fr
| site:  www.sct-telecom.fr
| skype: ludovic.ramos95
| address:  17-19 avenue de la metallurgie
<https://fr-fr.facebook.com/scttelecom/> <https://twitter.com/SCT_Telecom_>
<https://www.youtube.com/channel/UCq3sTrWumacQq1Dh20Ix80Q>
<https://mysignature.io/preview/www.sct-telecom.fr>

---
Liste de diffusion du FRnOG
http://www.frnog.org/

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Phil Regnauld
Stéphane Rivière (stef) writes:
> 
> stretch-backports (admin): cluster virtualization manager
> 2.16.0-1~bpo9+1: all
> 
> Cette 2.16.0 'beta' est ok pour la prod ou tu tournes dans une autre version
> qui a ta préférence - genre la 2.15 stable ?

Je suis en 2.15 sur 3 des 4 clusters, et en 2.16-rc2 depuis 1 an sur
le dernier site.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Stéphane Rivière

20 minutes pour deployer un cluster environ, après installation de l'OS.


Parfait.


C'est apt-get, un truc à modifier dans /etc/modrobe.d/drbd, et


S'il n'y a qu'un truc à modifier...


ensuite gnt-cluster init...

Bon, faut aussi prévoir la config réseau etc.


Qui est hors du scope de ganeti/xen...


Inconvénient: pas d'IU graphique - c'est du pur ligne de commande.


Ou avantage : moins d'applics, de services, de charge et de surface 
d'attaque...


De toute façon tous les clickodromes finissent tous par avoir une CLI :>

Je savais pas pour Proxmox, j'utilise de plus en plus wp-cli pour 
Wordpress (leur nombre augmente et l'automation est l'échappatoire :).



La 2.16.1 est sortie en avril, mais Debian était en freeze alors
pas de paquet tout de suite.


Je vois ça :

stretch-backports (admin): cluster virtualization manager
2.16.0-1~bpo9+1: all

Cette 2.16.0 'beta' est ok pour la prod ou tu tournes dans une autre 
version qui a ta préférence - genre la 2.15 stable ?


On peut aussi compiler... Nos Nginx de prod sont compilés avec nos 
modules... C'est intéressant si une fonctionnalité est nécessaire (et à 
la portée de n'importe quel sysadmin si la compil se passe bien)...



Mais c'est imbattable pour faire de la redondance avec seulement 2
machines et un petit budget.


La doc a l'air cossue.

Et le reboot bien installé: https://github.com/ganeti/ganeti/commits/master

M'en vais tester pour notre infra v3 courant de l'année...

--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Ludovic RAMOSFILIPE
Bonjour,

Personne ne parle de NUTANIX et de leur hyperviseur AHV ?

interface html5 + api
Solution hyperconverger Sur switch full 10G

Avec toute les options de vmware

Tourne avec des ssd pour la donner chaude et des hdd pour donner froide
avec compression de la donner pour économiser le stockage.

Impossible de perdre une donné, suffit de les contacter et de leur dire que
vs avez une solutions  d’un concurrent et ils seront très agressif sur le
prix.

De très grosses sociétés utilisent leurs solutions de virtualisation.

Le mer. 29 mai 2019 à 08:34, Laurent Fabre  a écrit :

> Je confirme
> Et quand tu as le support et que les gars identifient un bug, ils te le
> realease asap en patch sur le pro
> Pour le community c’est intégré lors d’une release.
>
> Envoyé depuis mon mobile
> Laurent-Charles FABRE
> +33 6 6201 5196
>
> > Le 29 mai 2019 à 08:17, kevin.labe...@1001pneus.fr a écrit :
> >
> > Les upgrade proxmox ont tjrs étaient gratuites. Il y a juste un repo
> Entreprise pour ceux qui ont le support et un repo community pour les
> autres.
> >
> > Je crois juste que le repo Entreprise reçoit les patch plus tôt.
> >
> >
> > Kevin LABECOT
> > Responsable Infrastructure
> > Service Informatique
> >
> > 1001pneus
> > 4/6 cours de l'intendance
> > 33000 Bordeaux
> >
> > Envoyé depuis mon mobile  Tel: 05 35 54 31 10
> > Mob: 06.08.46.96.50
> > Fax: 01.83.64.28.70
> > E-mail: kevin.labe...@1001pneus.fr
> > <1028AD08B57C499487BCC6ED384864B5.png>
> >
> >
> >> Le 29 mai 2019 à 08:01 +0200, Michel Py <
> mic...@arneill-py.sacramento.ca.us>, a écrit :
> >>> Laurent-Charles FABRE a écrit :
> >>> Maintenant, j’avoue que sur les bons principes « Chat échaudé craint
> l’eau froide » et
> >>> « if it ain’t broken don’t (fuckin) fix it » on n’a plus jamais mis de
> DAC sur les lan SAN !
> >>
> >> Merci pour ce sourire. On a tous plusieurs trucs ou on s'est fait chier
> pendant des jours qu'on ne recommencera plus jamais !
> >>
> >> Michel.
> >>
> >>
> >> ---
> >> Liste de diffusion du FRnOG
> >> http://www.frnog.org/
> >>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>
-- 







Ludovic Ramos | Responsable VOIP

| *SCT TELECOM *| La plaine saint denis
| phone: 0 <892020220>892020220
| email: l.ra...@sct-telecom.fr
| site:  www.sct-telecom.fr
| skype: ludovic.ramos95
| address:  17-19 avenue de la metallurgie
 



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Laurent Fabre
Je confirme 
Et quand tu as le support et que les gars identifient un bug, ils te le 
realease asap en patch sur le pro
Pour le community c’est intégré lors d’une release. 

Envoyé depuis mon mobile
Laurent-Charles FABRE
+33 6 6201 5196

> Le 29 mai 2019 à 08:17, kevin.labe...@1001pneus.fr a écrit :
> 
> Les upgrade proxmox ont tjrs étaient gratuites. Il y a juste un repo 
> Entreprise pour ceux qui ont le support et un repo community pour les autres.
> 
> Je crois juste que le repo Entreprise reçoit les patch plus tôt.
> 
> 
> Kevin LABECOT
> Responsable Infrastructure
> Service Informatique
> 
> 1001pneus
> 4/6 cours de l'intendance
> 33000 Bordeaux
> 
> Envoyé depuis mon mobile  Tel: 05 35 54 31 10
> Mob: 06.08.46.96.50
> Fax: 01.83.64.28.70
> E-mail: kevin.labe...@1001pneus.fr
> <1028AD08B57C499487BCC6ED384864B5.png>
> 
> 
>> Le 29 mai 2019 à 08:01 +0200, Michel Py 
>> , a écrit :
>>> Laurent-Charles FABRE a écrit :
>>> Maintenant, j’avoue que sur les bons principes « Chat échaudé craint l’eau 
>>> froide » et
>>> « if it ain’t broken don’t (fuckin) fix it » on n’a plus jamais mis de DAC 
>>> sur les lan SAN !
>> 
>> Merci pour ce sourire. On a tous plusieurs trucs ou on s'est fait chier 
>> pendant des jours qu'on ne recommencera plus jamais !
>> 
>> Michel.
>> 
>> 
>> ---
>> Liste de diffusion du FRnOG
>> http://www.frnog.org/
>> 

---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet kevin . labecot
Les upgrade proxmox ont tjrs étaient gratuites. Il y a juste un repo Entreprise 
pour ceux qui ont le support et un repo community pour les autres.

Je crois juste que le repo Entreprise reçoit les patch plus tôt.


Kevin LABECOT
Responsable Infrastructure
Service Informatique

1001pneus
4/6 cours de l'intendance
33000 Bordeaux

Envoyé depuis mon mobile Tel: 05 35 54 31 10
Mob: 06.08.46.96.50
Fax: 01.83.64.28.70
E-mail: kevin.labe...@1001pneus.fr


Le 29 mai 2019 à 08:01 +0200, Michel Py , a 
écrit :
> > Laurent-Charles FABRE a écrit :
> > Maintenant, j’avoue que sur les bons principes « Chat échaudé craint l’eau 
> > froide » et
> > « if it ain’t broken don’t (fuckin) fix it » on n’a plus jamais mis de DAC 
> > sur les lan SAN !
>
> Merci pour ce sourire. On a tous plusieurs trucs ou on s'est fait chier 
> pendant des jours qu'on ne recommencera plus jamais !
>
> Michel.
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-29 Par sujet Michel Py
> Laurent-Charles FABRE a écrit :
> Maintenant, j’avoue que sur les bons principes « Chat échaudé craint l’eau 
> froide » et 
> « if it ain’t broken don’t (fuckin) fix it » on n’a plus jamais mis de DAC 
> sur les lan SAN !

Merci pour ce sourire. On a tous plusieurs trucs ou on s'est fait chier pendant 
des jours qu'on ne recommencera plus jamais !

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Phil Regnauld
Jonathan Leroy (jonathan) writes:
> Le mar. 28 mai 2019 à 10:10, Laurent Coustet  a écrit :
> > Regarde aussi ganeti, il y a des choses intéressantes.
> 
> Merci.
> J'ai regardé rapidement, mais :
>  - On est loiiin d'une install avec un coup d'apt comme avec Proxmox.
> Sur le principe ça ne me dérange pas trop, mais ça veut dire passer un
> certains temps sur l'install.

20 minutes pour deployer un cluster environ, après installation de l'OS.

C'est apt-get, un truc à modifier dans /etc/modrobe.d/drbd, et
ensuite gnt-cluster init...

Bon, faut aussi prévoir la config réseau etc.

Inconvénient: pas d'IU graphique - c'est du pur ligne de commande.

>  - La dernière version stable date de 2015 ? Les autres releases que
> je vois sont labellisées RC ou Beta.

Les packages sont à la traine suite à la transition Google -> public.

La 2.16.1 est sortie en avril, mais Debian était en freeze alors
pas de paquet tout de suite.

C'est sûr, c'est pas pour tout le monde, et si je devais commencer à
0 aujourd'hui, je prendrais probablement oVirt (voire proxmox, mais
j'avait été découragé par les upgrade qui semblaient nécessiter un
abonnement).

Mais c'est imbattable pour faire de la redondance avec seulement 2
machines et un petit budget.




---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Jonathan Leroy
Le mar. 28 mai 2019 à 10:10, Laurent Coustet  a écrit :
> Regarde aussi ganeti, il y a des choses intéressantes.

Merci.
J'ai regardé rapidement, mais :
 - On est loiiin d'une install avec un coup d'apt comme avec Proxmox.
Sur le principe ça ne me dérange pas trop, mais ça veut dire passer un
certains temps sur l'install.
 - La dernière version stable date de 2015 ? Les autres releases que
je vois sont labellisées RC ou Beta.

-- 
Jonathan Leroy.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Stéphane Rivière

Pour compléter...

https://blog.ouvrard.it/2015/09/12/cluster-ganeti-xen-saltstack

Vu qu'en plus, on aime bien saltstack...

--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Stéphane Rivière

Merci pour tout, Phil, je sauvegarde tes réponses !
J'avais déjà noté de regarder Ganeti, tout ce que tu m'en dis donne envie.


Ça semble surcompliqué :)


Ca l'était absolument.

Pour un résultat (surtout à l'époque) :

- Magique : tu tortures un des serveurs - virer une barette ram ou 
débrancher un disque, les VM continuent sans broncher (genre 30 ms de 
freeze dans un gros download sous une VM windows)


- Lent : la réplication synchrone a un coût pharaonique sur des petites 
configs)


- Immmortel : le concept est amusant et spectaculaire.

C'était pour le mémoire d'un stagiaire "high level" :)

--
Stéphane Rivière
Ile d'Oléron - France


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Phil Regnauld
Stéphane Rivière (stef) writes:
> Merci de tes réponses Phil.
> 
> Quelques questions subsidiaires, puisque tu m'y autorises...
> 
> > - DRBD (la force de ganeti)
> 
> Combien de serveurs pour un cluster DRDB avec Ganeti ? J'en étais resté à
> deux max avec DRDB (hors Ganeti), avec pb de sync si bascule mal gérée en
> pseudo HA classique avec pacemaker, heartbeat (*).

Bin j'ai environ 9 serveurs dans le plus gros cluster, et ils font
tous du DRBD.

Le basculement est manuel, on a regardé avec harep mais on préfère
gérer ça manuellement. 

> Cette limite de deux serveurs avec DRDB n'existe plus ?

Ah je viens de comprendre la question. DRBD fonctionne (par défaut) en
paire, oui, mais ça veut juste dire que les VMs on un noeud primaire et
un noeud secondaire. On peut tojours déplacer le secondaire vers une 
autre secondaire en tache de fond, basculer primaire/secondaire
(migration KVM), et ainsi de suite.

> Ces problèmes de synchro n'existent plus avec Ganeti ?

On n'a pas eu de problème de synchro de ce type. 

Si il est question de faire des scénario plus évolués, du style
DRBD vers un stack de deux autre machines (1 -> 2) cf.

https://www.suse.com/documentation/sle-ha-12/book_sleha/data/sec_ha_drbd_resource-stacking.html,
alors non, on ne fait pas, c'est hors scope de ce que Ganeti propose,
et c'est de toute façon suffisant.

> > - un cluster CEPH sur un des sites.
> 
> En deux mots pros/cons DRDB/CEPH ? J'avais retenu CEPH ok pour n serveurs
> (pas limité à 2) et pas de pb de synchro... Autre chose ?

DRBD: pro: performance, c'est du storage local, ça va vite, surtout si 
on
change le prootocole de synchro en B (semi-synchrone). Inconvénient: on
ne peut jamais avoir plus de stockage pour 1 seule VM, que ce que la
machine a en stockage interne/directement attaché.

CEPH: pro: dimensionnement absurdement aisé, fiabilité. Incovénient: 
investissement initial (on peut démarrer plus petit bien sûr), latence
de plusieurs ms même avec du SSD, courbe d'apprentissage initiale,
consommation électrique non négligeable quand on grossit le cluster.

> Ubuntu pour des versions plus à jour je suppose ?

C'est quasi pareil maintenant, mais on fait tourner la plupart de
nos VM sous 16.04/18.04 avec LXC/LXD, donc on trouvait ça bête
de continuer avec Debian sur le métal.

> Ubuntu préférable avec Ganeti ?

C'est pareil je dirais.

On a même un cluster avec un mélange de debian et ubuntu. Pas
conseillé :)

> https://wiki.xenproject.org/wiki/Remus : Passionnant, grosses compils, temps
> passé de fou, quand ça marche c'est magique et... lent... (réplication
> permanente des 2 serveurs à travers deux ETH 1 Gbps bindées cul à cul).
> 
> Les deux servs étaient de toutes petites configs de test avec 3 ETH chaque.
> La lenteur était "garantie" par le backplane PCI pourri des petites CM et le
> faible lien direct de 2 Gbps entre les serveurs...

Ça semble surcompliqué :)


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Stéphane Rivière

Merci de tes réponses Phil.

Quelques questions subsidiaires, puisque tu m'y autorises...


- DRBD (la force de ganeti)


Combien de serveurs pour un cluster DRDB avec Ganeti ? J'en étais resté 
à deux max avec DRDB (hors Ganeti), avec pb de sync si bascule mal gérée 
en pseudo HA classique avec pacemaker, heartbeat (*).



Cette limite de deux serveurs avec DRDB n'existe plus ?



Ces problèmes de synchro n'existent plus avec Ganeti ?





- un cluster CEPH sur un des sites.


En deux mots pros/cons DRDB/CEPH ? J'avais retenu CEPH ok pour n 
serveurs (pas limité à 2) et pas de pb de synchro... Autre chose ?





Nous on a du Debian et du Ubuntu en prod (de + en + d'Ubuntu).


Ubuntu pour des versions plus à jour je suppose ?


Ubuntu préférable avec Ganeti ?



Noter qu'après la transtion post-Google, ça a stagné pendant 18 mois, 
mais
là ça reprend sérieux.


Cool !


Le truc qui nous manque:


J'ai pas ces besoins pour l'instant donc ça irait bien...






(*) Juste pour dire : On avait fait un POC de vraie HA en 2010 (de 
mémoire) avec xen, drdb et remus 
http://www.cs.ubc.ca/~andy/papers/remus-nsdi-final.pdf et 
https://wiki.xenproject.org/wiki/Remus : Passionnant, grosses compils, 
temps passé de fou, quand ça marche c'est magique et... lent... 
(réplication permanente des 2 serveurs à travers deux ETH 1 Gbps bindées 
cul à cul).


Les deux servs étaient de toutes petites configs de test avec 3 ETH 
chaque. La lenteur était "garantie" par le backplane PCI pourri des 
petites CM et le faible lien direct de 2 Gbps entre les serveurs...



--
Stéphane Rivière
Ile d'Oléron - France


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Phil Regnauld
Stéphane Rivière (stef) writes:
> 
> Ton expérience m'intéresse beaucoup car Ganeti et Xen font bon ménage...
> 
> Tes clusters sont fondés sur quoi ?

KVM :) Pour le matos c'est un mélange. En stockage on fait:

- de plus en plus de SSD
- plain sur LVM local
- DRBD (la force de ganeti)
- des serveurs NFS (FreeBSD)
- un cluster CEPH sur un des sites.


> Je savais même pas que Ganeti tourniquait avec CEPH...

C'est supporté deuis pas mal de temps, apparemment.

> Ici c'est Debian/Xen/RAIDsoft/LVM ou Debian/Xen/DRDB+LVM pour l'instant

Nous on a du Debian et du Ubuntu en prod (de + en + d'Ubuntu).

Je donne volontier plus de détails si il y a des questions sur des
points particuliers.

Noter qu'après la transtion post-Google, ça a stagné pendant 18 mois, 
mais
là ça reprend sérieux.

Le truc qui nous manque:

1. multi-tenant avec possibilité de redémarrer les VMs pour les clients
(Faisable avec l'API mais bon faut tout faire ou utiliser un 
truc
semi abandonné comme ganetimgr/ganeti-manager -- ou Synnefo)

2. stockage hybride sur les VM (genre, disque 1 OS sur SSD en local,
disque 2 sur CEPH)


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet jehan procaccia INT

Le 28/05/2019 à 11:05, Alexandre DERUMIER a écrit :

oui, passage à LXC depuis la version4.
il y a pas mal d'embrouille avec le passage de openvz/virtuozzo 7. (avec 
virtuozzo pour la partie commercial, et openvz la partie opensource)
je n'ai plus l'historique en tête, mais je sais qu'il y avait également la 
problématique
qu'openvz était un gros patch kernel out of tree, qui ne fonctionnait que sur 
les kernel redhat 2.6.32.


Maintenant avec openvz7 on est en 3.10.x ... le projet est bien suivit 
et patch regulierement son noyau (14 mai dernier avec les dernieres 
failles annoncées) . Cela reste effectivement "out of tree", mais il y a 
de moins en moins de patchs a integrer maitenant et evidement 
openvz/virtuozzo le fait pour vous .  Les developpeurs contribuent aussi 
largement au kernel linux : 
https://fr.slideshare.net/openvz/whats-missing-from-upstream-kernel-containers-kir-kolyshkin


bref le projet est bien actif et operationel . j'ai eu dernierement une 
discussion sur la mailing list openvz au sujet de la comparaison avec 
LXC et proxmox, je reste surpris sur la valeur ajouté des container 
openvz vs LXC :


https://lists.openvz.org/pipermail/users/2019-April/007590.html

je suis effectivement tres satisfait des containers openvz 7, mais ne 
connaisant pas LXC je ne peux juger .


je pense qu'il existe une certaine communauté en FR , les stats ovz7 
nous mettent en 2eme position derniere les US:


http://stats7-web.openvz.org/index.php?view=location

certes il n'y a pas grand monde, car les stats d'usage ovz6 sont encore 
ailleurs


https://stats.openvz.org/

il me semble qu'il y a une migration de ovz6 vers ovz7 depuis 1 ou 2 
ans, mais que l'instauration d'une distribution dediée (virtuozzo 7 
basée sur centos 7) à probablemnt refroidit les sysadmin pro .deb .



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Stéphane Rivière

Bonjour Phil,


+1, j'utilise en prod depuis 7 ans (4+ clusters, une 30aine de serveurs,
quelques centaines de VM).

Ça marche avec du LVM, DRBD+LVM (HA), du NFS, du iSCSI, du CEPH, ...


Ton expérience m'intéresse beaucoup car Ganeti et Xen font bon ménage...

Tes clusters sont fondés sur quoi ?

Je savais même pas que Ganeti tourniquait avec CEPH...

Ici c'est Debian/Xen/RAIDsoft/LVM ou Debian/Xen/DRDB+LVM pour l'instant

Stef

--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Phil Regnauld
Laurent Coustet (ed) writes:
> 
> Regarde aussi ganeti, il y a des choses intéressantes.

+1, j'utilise en prod depuis 7 ans (4+ clusters, une 30aine de serveurs,
quelques centaines de VM).

Ça marche avec du LVM, DRBD+LVM (HA), du NFS, du iSCSI, du CEPH, ...



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Laurent-Charles FABRE
Oui c’est ça. 
C’est ce que j’ai sauvagement résumé par « ça a convergé »
Et aussi le fait que les VE est leur adhérence au noyau de la machine hôte 
devenue VM sans grand effort de comprehension à faire pour utiliser ai gagné la 
faveur du plus grand nombre 

IMHO :-)

Laurent-Charles FABRE
06 6201 5196


> Le 28 mai 2019 à 09:34, Olivier Lange  a écrit :
> 
> 
> 
>> Le mar. 28 mai 2019 à 09:29, Laurent Fabre  a écrit :
>> Bonjour,
>> 
>> OpenVZ = Proxmox VE
> 
> 
> C'était le cas avant. Depuis la v5 (voir la v4 je n'ai plus l'historique en 
> tête) on est passé a lxc pour les CT non?
> 
> Olivier

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Laurent-Charles FABRE
Bonjour Alexandre,

Sur une baie, je ne pense pas qu’on ne dépende que des timing « hdd »
Cache, proc, charge complexe car plein de VM hétérogène.
Apparition du multithreaded côté baie.
Le côté contre intuitif d’une charge read-intensive sur les backup ou l’algo de 
dedup conduit au final a peu écrire aide beaucoup à ce que le cache ai un super 
hit rate

En tout cas ça a permis de ne plus avoir de backup pas fini à 6h du mat. 

Maintenant, j’avoue que sur les bons principes « Chat échaudé craint l’eau 
froide » et « if it ain’t broken don’t (fuckin) fix it » on n’a plus jamais mis 
de DAC sur les lan SAN !

Laurent-Charles FABRE



> Le 28 mai 2019 à 09:16, Alexandre DERUMIER  a écrit :
> 
> on utilise des dac passif 3m (switchs mellanox 40G),
> 
> voici le resultat d'un ping -f
> 
> 
> 74763 packets transmitted, 74763 received, 0% packet loss, time 1846ms
> rtt min/avg/max/mdev = 0.011/0.014/0.431/0.008 ms, ipg/ewma 0.024/0.013 ms
> 
> 
> coté stockage, je pense que les nvme sont autour de 0.02ms. 
> Pas certain que ca change grand chose entre du cuivre et de la fibre.
> 
> 
> 
> 
> 
> 
> - Mail original -
> De: "Laurent-Charles Fabre" 
> À: "Michel Py" 
> Cc: "Florent H. CARRÉ (COLUNDRUM)" , "frnog-misc" 
> 
> Envoyé: Lundi 27 Mai 2019 22:46:47
> Objet: Re: [FRnOG] [MISC] Solution de virtualisation
> 
> Re, 
> 
> La distance ça me gêne pas pour les DAC 
> On a du 5M en passif et 15M actif sans pb depuis des années. 
> DAC actif Brocade et Fiber24 
> Pas testé avec FS, vu le prix on ne fait que du SFP+ 
> 
> Pour les SFP vs DAC je ne suis pas physicien mais je constate, on gagne au 
> global sur une grosse charge intensive type backup. 
> Constaté suite à remplacement de DAC actif sur baie VNX2 et blade Dell par 
> SFP+ pour une histoire réglementaire. 
> Le support EMC ne s’est pas privé de surenchérir: on vous l’avais dis ... 
> Mon intuition est que ce n’est pas lié à la vitesse de propagation dans le 
> média mais plutôt au temps de réponse et de monté des composants émetteur et 
> récepteur. 
> Sûrement plus significatif vu la faible longueur d’un DAC ou des jarretières 
> FO en DC. 
> Le temps de serialisation a 10G ça ne doit pas couter bien cher non plus ? 
> Je ne pense pas non plus que ce soit un pb de parasitage, toujours va la 
> faible longueur mais peut être vu la densité de câbles. 
> 
> Après, au prix des SFP+ de nos jour, il y a deux effets de bord qui me vont 
> bien : 
> - pas de souci de codage du DAC au deux bout avec certain constructeur 
> tatillon 
> - bien plus facile de ranger les fibres que les twinax 
> 
> Dans le même ordre d’idée (le prix !) 
> J’ai pas le temps et la ressource pour valider le comportement du 10G sur 
> Cat6a. 
> Si l’un de vous a des retours, c’est un sujet qui m’intéresse. 
> 
> Tant que j’y pense, paramétrage des baies en MTU 1500 plutôt que jumbo. 
> Ceci suite à un débug sur VMWare avec store NFS V4. 
> On n’a pas touché au réseaux qui est resté en Jumbo. 
> Expliquez le comme vous voulez, ça marche bien mieux. 
> En iSCSI on n’a pas vu de différence. 
> 
> Laurent-Charles FABRE 
> 
> 
> Le 27 mai 2019 à 19:10, Michel Py  a 
> écrit : 
> 
>>> Laurent-Charles Fabre a écrit : 
>>> La vitesse c’est tout pareil. 
>>> C’est la latence qui est meilleure en optique qu’en cuivre. 
>>> Ou si tu préfère le laser module plus proprement qu’un RLC 
>> 
>> Tu as des liens ? la propagation dans le cuivre c'est plus rapide que dans 
>> la fibre, un DAC c'est plus simple qu'un SFP, moins d'électronique, pas de 
>> sérialisation supplémentaire, comment çà pourrait être plus rapide ? 
>> 
>> Le seul problème du DAC c'est la distance, moi je ne fais que du 2m, 3m 
>> j'essaierais mais pas plus. 
>> 
>> Michel. 
>> 
> 
> 
> --- 
> Liste de diffusion du FRnOG 
> http://www.frnog.org/ 
> 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Laurent Coustet
On 24/05/2019 20:45, Jonathan Leroy wrote:
> Je hijack scandaleusement ce thread pour une question un peu similaire
> : j'ai une veille infra Xen que je dois remplacer pour plusieurs
> raisons.
> J'aimerai partir sur du KVM. Comme je ne veux pas me prendre trop la
> tête à gérer la HA notamment, je pensais partir vers une solution
> tout-en-un.
> 
> J'ai regardé rapidement ce qu'il se fait ici et là, et je suis pas mal
> tenté par Proxmox VE et OpenNebula mais n'ai pas encore eu le temps de
> tester plus en détail.
> Je suis preneur de vos avis (positifs ou négatifs) sur ces solutions. :)

Regarde aussi ganeti, il y a des choses intéressantes.

-- 
Laurent


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Olivier Lange
Le mar. 28 mai 2019 à 09:29, Laurent Fabre  a écrit :

> Bonjour,
>
> OpenVZ = Proxmox VE
>

C'était le cas avant. Depuis la v5 (voir la v4 je n'ai plus l'historique en
tête) on est passé a lxc pour les CT non?

Olivier

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Laurent Fabre
Bonjour,

OpenVZ = Proxmox VE

Ok c’est un raccourci mais ça résume bien. 
Ditmar Maurer, fondateur de Proxmox, était un des premiers promoteurs et 
contributeur sur OpenVz. 
PromoxVE était au début un Gui OVZ pour faire du Virtuozzo like. 
KVM est venu se rajouter en cour de route. 

Pour nous ce qui faisait la force de Virtuozzo c’était la paravirtualisation VS 
émulation hardware à la VMWare. 
Les deux solutions ont convergé avec Virtuozzo Serveur. 

La où un VMWare VDI arrive à mutualiser un seul noyau de VM par modèle  , 
Virtuozzo n’utilise qu’un seul noyau , point !

Du coup : densité de fou genre 100 Virtual Environment (VE) lamp sur une bête 
machine 8Go d’il y a 10 ans. 
Ok c’était un test sans charge réelle mais tout était up and running. 
Les meilleurs ? Instantiation et prompt shell sur les 100 VE en 2mn chrono. 
C’est une super solution pour les labs et les environnements HOMOGÈNES 
Pour les VE cousue main pour plein de client c’est un autre sujet. 

Envoyé depuis mon mobile
Laurent-Charles FABRE
+33 6 6201 5196

> Le 27 mai 2019 à 23:51, jehan procaccia INT  a 
> écrit :
> 
> ce long thread fait la part belle aux traditionnels  proxmox, xen, openstack 
> ...
> en terme de diversité, je ne vois personne parler de openVZ 7 / virtuozzo
> c'est tres interessent en terme de container legers (vrais containers ~= VM , 
> pas des microcontainers applicatifs type docker ...) tout en gardant une 
> bonne isolation et des parametrages de ressources fins (memoire, cpu, disk, 
> quota, netfilter etc ... )
> par ailleurs pour de la virtu plus lourde et traditionnelle il y a KVM .
> serai-je le seul a utiliser openvz7  !?
> 
> jehan .
> 
> Le 27/05/2019 à 17:36, Michel Py a écrit :
>>> Emmanuel Jacquet a écrit :
>>> Est ce que qqun possède ou a testé une solution à base d'Hyper-V ?
>> Un peu, mais la license est trop chère pour faire plus que du bricolage.
>> 
>> Michel.
>> 
> 
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Alexandre DERUMIER
on utilise des dac passif 3m (switchs mellanox 40G),

voici le resultat d'un ping -f


74763 packets transmitted, 74763 received, 0% packet loss, time 1846ms
rtt min/avg/max/mdev = 0.011/0.014/0.431/0.008 ms, ipg/ewma 0.024/0.013 ms


coté stockage, je pense que les nvme sont autour de 0.02ms. 
Pas certain que ca change grand chose entre du cuivre et de la fibre.
 





- Mail original -
De: "Laurent-Charles Fabre" 
À: "Michel Py" 
Cc: "Florent H. CARRÉ (COLUNDRUM)" , "frnog-misc" 

Envoyé: Lundi 27 Mai 2019 22:46:47
Objet: Re: [FRnOG] [MISC] Solution de virtualisation

Re, 

La distance ça me gêne pas pour les DAC 
On a du 5M en passif et 15M actif sans pb depuis des années. 
DAC actif Brocade et Fiber24 
Pas testé avec FS, vu le prix on ne fait que du SFP+ 

Pour les SFP vs DAC je ne suis pas physicien mais je constate, on gagne au 
global sur une grosse charge intensive type backup. 
Constaté suite à remplacement de DAC actif sur baie VNX2 et blade Dell par SFP+ 
pour une histoire réglementaire. 
Le support EMC ne s’est pas privé de surenchérir: on vous l’avais dis ... 
Mon intuition est que ce n’est pas lié à la vitesse de propagation dans le 
média mais plutôt au temps de réponse et de monté des composants émetteur et 
récepteur. 
Sûrement plus significatif vu la faible longueur d’un DAC ou des jarretières FO 
en DC. 
Le temps de serialisation a 10G ça ne doit pas couter bien cher non plus ? 
Je ne pense pas non plus que ce soit un pb de parasitage, toujours va la faible 
longueur mais peut être vu la densité de câbles. 

Après, au prix des SFP+ de nos jour, il y a deux effets de bord qui me vont 
bien : 
- pas de souci de codage du DAC au deux bout avec certain constructeur tatillon 
- bien plus facile de ranger les fibres que les twinax 

Dans le même ordre d’idée (le prix !) 
J’ai pas le temps et la ressource pour valider le comportement du 10G sur 
Cat6a. 
Si l’un de vous a des retours, c’est un sujet qui m’intéresse. 

Tant que j’y pense, paramétrage des baies en MTU 1500 plutôt que jumbo. 
Ceci suite à un débug sur VMWare avec store NFS V4. 
On n’a pas touché au réseaux qui est resté en Jumbo. 
Expliquez le comme vous voulez, ça marche bien mieux. 
En iSCSI on n’a pas vu de différence. 

Laurent-Charles FABRE 


Le 27 mai 2019 à 19:10, Michel Py  a écrit 
: 

>> Laurent-Charles Fabre a écrit : 
>> La vitesse c’est tout pareil. 
>> C’est la latence qui est meilleure en optique qu’en cuivre. 
>> Ou si tu préfère le laser module plus proprement qu’un RLC 
> 
> Tu as des liens ? la propagation dans le cuivre c'est plus rapide que dans la 
> fibre, un DAC c'est plus simple qu'un SFP, moins d'électronique, pas de 
> sérialisation supplémentaire, comment çà pourrait être plus rapide ? 
> 
> Le seul problème du DAC c'est la distance, moi je ne fais que du 2m, 3m 
> j'essaierais mais pas plus. 
> 
> Michel. 
> 


--- 
Liste de diffusion du FRnOG 
http://www.frnog.org/ 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Alexandre DERUMIER
> erasure coding ca marche bien pour les objets, mais pour les vms ce 
> n'est pas recommandé niveau perf. 
> il y a moyen de faire du tiering avec un pool repliqué au dessus du 
> pool erasure coding, 
> mais le tiering fonctionne pas bien avec les vms. 

>>Intéressant, cela se matérialisait comment ? 

il suffit de créer 2 pools, 1 pool en erasure coding, 1 pool en replicat
et ensuite dire que le pool replicat est le cache du pool erasure coding 

http://docs.ceph.com/docs/master/rados/operations/erasure-code/

"
ERASURE CODED POOL AND CACHE TIERING
Erasure coded pools require more resources than replicated pools and lack some 
functionalities such as omap. To overcome these limitations, one can set up a 
cache tier before the erasure coded pool.

For instance, if the pool hot-storage is made of fast storage:

$ ceph osd tier add ecpool hot-storage
$ ceph osd tier cache-mode hot-storage writeback
$ ceph osd tier set-overlay ecpool hot-storage
will place the hot-storage pool as tier of ecpool in writeback mode so that 
every write and read to the ecpool are actually using the hot-storage and 
benefit from its flexibility and speed.

More information can be found in the cache tiering documentation.
"

Le problème pour les vms, si ne dit pas de betise, c'est que ce sont des objets 
de 4M ou 10M qui sont monté dans le pool.
(meme si la vm fait des accès sur des blocs de 4k)



- Mail original -
De: "Kevin Decherf" 
À: "aderumier" 
Cc: "frnog" 
Envoyé: Lundi 27 Mai 2019 10:58:22
Objet: Re: [FRnOG] [MISC] Solution de virtualisation

On Mon, May 27, 2019, at 10:23, Alexandre DERUMIER wrote: 
> >>C'est effectivement la recommandation pour un replicated_pool. 
> >>Tu peux également créer un pool à code à effacement pour faire un 
> >>équivalent 
> >>RAID 5/6 mais les implications ne sont pas tout à fait les mêmes. 
> 
> erasure coding ca marche bien pour les objets, mais pour les vms ce 
> n'est pas recommandé niveau perf. 
> il y a moyen de faire du tiering avec un pool repliqué au dessus du 
> pool erasure coding, 
> mais le tiering fonctionne pas bien avec les vms. 

Intéressant, cela se matérialisait comment ? 

-- 
Kevin Decherf - @Kdecherf 
GPG 0x108ABD75A81E6E2F 
https://kdecherf.com 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-28 Par sujet Alexandre DERUMIER
>>Je profite du débat pour poser 2 3 questions sur proxmox ^^ 

>>Je travail a la mise en place d’un lab virtuel sous proxmox, j’ai les 
>>principes de bases de gestion des utilisateur mais un problème reste 
>>cependant. Comment donner le droit a des utilisateur de >>créer des vms et 
>>choisir leur switch ? Je peux seulement donnée le droit ou non de 
>>add/remove/modify des vms? 

>>Comment empêcher un utilisateur qui doit pouvoir créer des vms et les 
>>attribuer a un switch sans qu’il puisse ce placer sur mon vmbr0 par exemple ? 

Malheuresement, actuellement, il n'y a pas de gestion de permissions sur les 
switchs/vlans.

Je suis justement entrain de travailler dessus (où on pourra définir les 
switchs au niveau "datacenter", et plus en local sur chaque noeud, l'equivalent 
de DRS sous vmware).
A partir de là, on pourra donner des permissions d'utilisation de tel ou tel 
switch, et des droits d'admin pour créer des switchs également, dans un plage 
vlan/vxlan allouée par exemple.
(Il y aura également la gestion des vxlan, et vxlan avec bgp-evpn + frr)

J'essaye de terminer le code pour la version 6 de proxmox. (qui devrait arriver 
juste après la release de debian buster)


- Mail original -
De: "roca emile" 
À: "Laurent-Charles Fabre" 
Cc: "David Touitou" , "Richard DEMONGEOT" 
, "Olivier Lange" , "aderumier" 
, "Lucas Viallon" , "frnog-misc" 

Envoyé: Lundi 27 Mai 2019 10:53:03
Objet: Re: [FRnOG] [MISC] Solution de virtualisation

Bonjour, 

Je profite du débat pour poser 2 3 questions sur proxmox ^^ 

Je travail a la mise en place d’un lab virtuel sous proxmox, j’ai les principes 
de bases de gestion des utilisateur mais un problème reste cependant. Comment 
donner le droit a des utilisateur de créer des vms et choisir leur switch ? Je 
peux seulement donnée le droit ou non de add/remove/modify des vms? 

Comment empêcher un utilisateur qui doit pouvoir créer des vms et les attribuer 
a un switch sans qu’il puisse ce placer sur mon vmbr0 par exemple ? 

Merci d’avance ^^ 

Cordialement, 

Roca Emile 

> Le 27 mai 2019 à 10:33, Laurent-Charles Fabre  a écrit : 
> 
> Bonjour, 
> 
> je laisse les Proxmox addict commenter cette partie. 
> Mais 3 c’est le mini pour la sécurité. 
> J’ajouterai juste que vu le prix et le professionnalisme du support, donner 
> quelques €uro à Proxmox pour le support me parait une bonne idée. 
> Ces gens sont capable de SSH nocturne sur votre infra pour vous dépatouiller 
> d’un incident. 
> C’est appréciable. 
> 
> Sur ce qui est des SSD en Raid, je me permets une remarque. 
> Ne pas considérer le SSD comme du rotatif. 
> Il faut prendre en compte le « vieillissement » du SSD à l’usage qui est 
> différent de celui d’un rotatif. 
> 
> Je peuts échanger dans les détail en MP mais les cookbook c’est : 
> - éviter les contrôleurs RAID hardware (qui sont prévus pour du rotatif) 
> - le Raid 5, c’est pas pour les SSD, vive le 0, 1, 10. (google write 
> amplification) 
> - utiliser un HBA et laisser l’OS/FS/Soft dédié gérer les SSD en sachant que 
> c’est du SSD 
> - avoir le bon noyau avec les bonnes options (trim) 
> - utiliser des SSD typé pour l’usage envisagé (Cache, Write Intensive, Read 
> Intensive) 
> - fuyez les nouveaux SSD QLC 
> - Quand je dis SSD, ça peut se décliner en nvme mais là, sujet sur le nombre 
> de « disques » possible dans la boite 
> - nous c’était SSD Intel SLC puis Samsung MLC, quasi aucune panne mais 
> remplacé tout les 3 ans 
> ->mais vu le prix, une OceanStore 2600 avec du SSD à bord rentre en 
> comparaison tarifaire 
> -> le truc d’une baie pro sous support, c’est que la fiabilité du SSD en s’en 
> fou, l’usure est comprise dans le prix du support 
> 
> ET ne négligez votre politique de sauvegarde qui va devoir gérer toutes ces 
> Téra sur ces centaines de VM en 6H chrono. 
> 
> Un bon NAS maison en ZFS avec beaucoup de RAM et ZIL sur nvme + rotatif 7,4K 
> nombreux (12+) fait le taf pour pas cher 
> 
> My 2 cents d’hébergeur 
> 
> Joyeux POC :-) 
> 
> Laurent-Charles Fabre 
> 
> 
> 
>> Le 27 mai 2019 à 09:43, David Touitou  a écrit : 
>> 
>> 'jour, 
>> 
>>> Ca dépends du nombre de copies que tu souhaites. Par défaut, et 
>>> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à 
>>> un instant T. 
>>> Du coup, 4*4/3 ~= 5To utile. 
>> 
>> Me semble aussi que la recommandation Proxmox c'est 5 serveurs pour un 
>> cluster. 
>> 
>> Concernant Ceph et les calculs de volumétrie, il a un truc ici : 
>> http://florian.ca/ceph-calculator/ 
>> 
>> David 
>> 
>> 
>> --- 
>> Liste de diffusion du FRnOG 
>> http://www.frnog.org/ 
> 
> 
> --- 
> Liste de diffusion du FRnOG 
> http://www.frnog.org/ 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet jehan procaccia INT
ce long thread fait la part belle aux traditionnels  proxmox, xen, 
openstack ...

en terme de diversité, je ne vois personne parler de openVZ 7 / virtuozzo
c'est tres interessent en terme de container legers (vrais containers ~= 
VM , pas des microcontainers applicatifs type docker ...) tout en 
gardant une bonne isolation et des parametrages de ressources fins 
(memoire, cpu, disk, quota, netfilter etc ... )

par ailleurs pour de la virtu plus lourde et traditionnelle il y a KVM .
serai-je le seul a utiliser openvz7  !?

jehan .

Le 27/05/2019 à 17:36, Michel Py a écrit :

Emmanuel Jacquet a écrit :
Est ce que qqun possède ou a testé une solution à base d'Hyper-V ?

Un peu, mais la license est trop chère pour faire plus que du bricolage.

Michel.




---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Laurent-Charles FABRE
Re,

La distance ça me gêne pas pour les DAC
On a du 5M en passif et 15M actif sans pb depuis des années. 
DAC actif Brocade et Fiber24
Pas testé avec FS, vu le prix on ne fait que du SFP+

Pour les SFP vs DAC je ne suis pas physicien mais je constate, on gagne au 
global sur une grosse charge intensive type backup. 
Constaté suite à remplacement de DAC actif sur baie VNX2 et blade Dell par SFP+ 
pour une histoire réglementaire.
Le support EMC ne s’est pas privé de surenchérir: on vous l’avais dis ...
Mon intuition est que ce n’est pas lié à la vitesse de propagation dans le 
média mais plutôt au temps de réponse et de monté des composants émetteur et 
récepteur.
Sûrement plus significatif vu la faible longueur d’un DAC ou des jarretières FO 
en DC.
Le temps de serialisation a 10G ça ne doit pas couter bien cher non plus ?
Je ne pense pas non plus que ce soit un pb de parasitage, toujours va la faible 
longueur mais peut être vu la densité de câbles. 

Après, au prix des SFP+ de nos jour, il y a deux effets de bord qui me vont 
bien :
- pas de souci de codage du DAC au deux bout avec certain constructeur tatillon
- bien plus facile de ranger les fibres que les twinax

Dans le même ordre d’idée (le prix !)
J’ai pas le temps et la ressource pour valider le comportement du 10G sur Cat6a.
Si l’un de vous a des retours, c’est un sujet qui m’intéresse. 

Tant que j’y pense, paramétrage des baies en MTU 1500 plutôt que jumbo.
Ceci suite à un débug sur VMWare avec store NFS V4.
On n’a pas touché au réseaux qui est resté en Jumbo.
Expliquez le comme vous voulez, ça marche bien mieux.
En iSCSI on n’a pas vu de différence. 

Laurent-Charles FABRE


Le 27 mai 2019 à 19:10, Michel Py  a écrit :

>> Laurent-Charles Fabre a écrit :
>> La vitesse c’est tout pareil.
>> C’est la latence qui est meilleure en optique qu’en cuivre.
>> Ou si tu préfère le laser module plus proprement qu’un RLC
> 
> Tu as des liens ? la propagation dans le cuivre c'est plus rapide que dans la 
> fibre, un DAC c'est plus simple qu'un SFP, moins d'électronique, pas de 
> sérialisation supplémentaire, comment çà pourrait être plus rapide ?
> 
> Le seul problème du DAC c'est la distance, moi je ne fais que du 2m, 3m 
> j'essaierais mais pas plus.
> 
> Michel.
> 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Raphael Mazelier

On 27/05/2019 19:10, Michel Py wrote:

Laurent-Charles Fabre a écrit :
La vitesse c’est tout pareil.
C’est la latence qui est meilleure en optique qu’en cuivre.
Ou si tu préfère le laser module plus proprement qu’un RLC


Tu as des liens ? la propagation dans le cuivre c'est plus rapide que dans la 
fibre, un DAC c'est plus simple qu'un SFP, moins d'électronique, pas de 
sérialisation supplémentaire, comment çà pourrait être plus rapide ?



Je suis étonné moi aussi.

Un DAC passif çà n'a quasi pas d’électronique, et il nous reste le temps 
de propagation du signal électrique dans le cuivre (~20km/s).


Quand on passe par un couple de SFP plus fibre on a beaucoup plus 
d’électronique, de la modulation/démodulation et la vitesse de 
propagation de la lumière dans la fibre (un poil plus rapide mais pas 
énorme).


Je m'attendrais à ce que la différence soit quasi négligeable.  On a une 
étude ? des liens ?




--
Raphael Mazelier


---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Michel Py
> Laurent-Charles Fabre a écrit :
> La vitesse c’est tout pareil.
> C’est la latence qui est meilleure en optique qu’en cuivre.
> Ou si tu préfère le laser module plus proprement qu’un RLC

Tu as des liens ? la propagation dans le cuivre c'est plus rapide que dans la 
fibre, un DAC c'est plus simple qu'un SFP, moins d'électronique, pas de 
sérialisation supplémentaire, comment çà pourrait être plus rapide ?

Le seul problème du DAC c'est la distance, moi je ne fais que du 2m, 3m 
j'essaierais mais pas plus.

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Michel Py
> Christophe BARRY a écrit :
> Il m'a toujours été dit qu'utiliser un dac à la place d'une paire de SFP+
> et d'une jarretière diminuait la latence du lien (d’un pouillème, certe)

En théorie oui, mais rien qui fasse une différence à moins d'être dans la 
finance ou une nanoseconde peut couter la transaction.
On met du DAC parce que c'est moins cher et moins fragile, et que çà tombe 
jamais en panne (en tout cas pas le passif).

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Laurent-Charles Fabre
La vitesse c’est tout pareil.

C’est la latence qui est meilleure en optique qu’en cuivre.
Ou si tu préfère le laser module plus proprement qu’un RLC

Bref, en débit pur c’est idem.
Sur une charge avec plein de burst de petit paquets bien mélangés par plusieurs 
hyperviseurs c’est sensible.

En backup type dédup compréssé, on constate 60% à 80% de read (ce n’est pas une 
erreur) bien random et des écritures pulsées très brève.
Fini le temps du VTL... 

Laurent-Charles Fabre



> Le 27 mai 2019 à 18:52, Michel Py  a 
> écrit :
> 
>> Laurent-Charles Fabre a écrit :
>> il faut bannir les cartes 10G Broadcom très présentes sur ces serveurs par 
>> défaut.
>> Remplacez les par des Intel
> 
> +1
> 
>> Si en plus vous vous en tenez à du SFP+ optique Vs DAC sur les liens SAN,
>> vous gagnerez sensiblement sur les opérations genre backup nocturne 
>> dédupliqués.
> 
> Je ne vois pas la différence en vitesse entre DAC et SFP+ ?
> 
> Michel.
> 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Christophe BARRY
Je suis preneur de retour d'expérience.
Il m'a toujours été dit qu'utiliser un dac à la place d'une paire de SFP+ et 
d'une jarretière diminuait la latence du lien (d’un pouillème, certe)

CB

Le 27/05/2019 18:55, « frnog-requ...@frnog.org au nom de Michel Py » 
 a écrit :

> Laurent-Charles Fabre a écrit :
> il faut bannir les cartes 10G Broadcom très présentes sur ces serveurs 
par défaut.
> Remplacez les par des Intel

+1

> Si en plus vous vous en tenez à du SFP+ optique Vs DAC sur les liens SAN,
> vous gagnerez sensiblement sur les opérations genre backup nocturne 
dédupliqués.

Je ne vois pas la différence en vitesse entre DAC et SFP+ ?

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/



---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Michel Py
> Laurent-Charles Fabre a écrit :
> il faut bannir les cartes 10G Broadcom très présentes sur ces serveurs par 
> défaut.
> Remplacez les par des Intel

+1

> Si en plus vous vous en tenez à du SFP+ optique Vs DAC sur les liens SAN,
> vous gagnerez sensiblement sur les opérations genre backup nocturne 
> dédupliqués.

Je ne vois pas la différence en vitesse entre DAC et SFP+ ?

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Stéphane Rivière

Bonjour Florent,


Là, je regarde pour migrer le stockage sur Ceph : 
https://xcp-ng.org/forum/topic/4/ceph-on-xcp-ng
C'est la seule chose qui me poussera à migrer les XCP-NG vers Debian avec Xen.


+1


Je vais un peu plus regarder Xen sur Debian voir comment je pourrais y migrer 
dessus en venant de XCP-NG dans le cas où le support de Ceph n'est pas 
satisfaisant sur XCP-NG.


Je serais bien intéressé d'avoir un retour... C'est un peu le format 
qu'on souhaite développer avec la prochaine Debian 10 pour la v3 de 
notre infra...



Question pour ceux sous Xen avec Debian : avez-vous un dépôt spécial pour 
compenser la vieille version de Xen ?


Non...


Parce qu'il y a un sacré gap entre Stable en 4.8 et Testing en 4.11


Oui... Avant on compilait le noyau, maintenant c'est le kernel standard.

L'essentiel de notre infra est en Debian oldstable de plus. Ca bouge 
pas, c'est ultra fiable. Par contre, c'est un peu relique par rapport 
aux nouvelles possibilités très intéressantes des dernières versions.


On reste Debian (un seul OS à gérer).

J'avais tenté XenServer pour voir mais je suis nul en Centos et je ne 
suis même pas arrivé à monter un RAID1+LVM sur un XenServer... Et puis 
je suis très Debian dans l'âme... Depuis les premières versions...


Stéphane

--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Olivier Lange
Donc pas de soucis a prévoir en 10G via du sfp+ en optique ? C'est ce que
j'avais prévu pour la partie réplication.


Le lun. 27 mai 2019 à 17:41, Laurent-Charles Fabre  a
écrit :

> Re,
>
> j’ai vu passer les mots Dell et Lenteur iSCSI dans le thread.
>
> Alors que ce soit pour Xen ou Proxmox il faut bannir les cartes 10G
> Broadcom très présentes sur ces serveurs par défaut.
> Remplacez les par des Intel et vos souci de lenteur, perte de packet, FS
> en RO et autre gag du genre disparaitront par magie.
>
> Si en plus vous vous en tenez à du SFP+ optique Vs DAC sur les liens SAN,
> vous gagnerez sensiblement sur les opérations genre backup nocturne
> dédupliqués.
> C’est le gain de latence, plutôt invisible pour une VM Web, qui joue à
> plein sur ce type de charge très demandeuses
>
> Laurent-Charles Fabre
>
>
>
> > Le 27 mai 2019 à 17:10, Florent H. CARRÉ (COLUNDRUM) <
> colund...@gmail.com> a écrit :
> >
> > Bonjour la liste,
> >
> > Désolé pour le retard mais je vais compléter ma présente réponse.
> >
> > Effectivement XCP-NG peut avoir Xen Orchestra qui n'est pas installé par
> défaut et tant mieux.
> >
> > C'est une base solide : CentOS + OpenVSwitch
> >
> > La personne qui était sur XenServer ne sera pas trop dépaysée de la cli.
> >
> > Les 2 points noirs que j'ai pour le moment :
> > - impossible d'utiliser l'app lourde car nécessite Windows … j'ai mis un
> Xen Orchestra version open source pour quand je ne peux pas faire de ssh
> > - pas de mosh dans les dépôts de XCP-NG donc obligé d'installer celui de
> CentOS.
> >
> > Les problèmes que j'avais eu avec Proxmox à l'époque (2012-2013)
> concernaient l'iscsi, les performances des vm et en prime la GUI.
> >
> > J'ai migré sur XCP-NG parce que la migration venant de XenServer était
> facile et rapide.
> >
> > Là, je regarde pour migrer le stockage sur Ceph :
> https://xcp-ng.org/forum/topic/4/ceph-on-xcp-ng
> > C'est la seule chose qui me poussera à migrer les XCP-NG vers Debian
> avec Xen.
> >
> > Je regrette le manque de la version server de QubesOS qui aurait pu
> faire un excellent Xen server.
> >
> > Je suis quasiment à 60% CentOS et 40% Debian.
> >
> > Actuellement, sur le perso, je suis en XCP-NG 8 beta.
> >
> > L'autre importance d'avoir une CentOS à l'heure actuelle est la rapidité
> des patchs concernant les vulnérabilités Intel (et ce n'est pas terminé),
> Debian avait été lente où Vmware, Xen, CentOS avaient patchés.
> >
> > Je vais un peu plus regarder Xen sur Debian voir comment je pourrais y
> migrer dessus en venant de XCP-NG dans le cas où le support de Ceph n'est
> pas satisfaisant sur XCP-NG.
> > (recréer tout le network, migrer les disques des vm …)
> >
> > Question pour ceux sous Xen avec Debian : avez-vous un dépôt spécial
> pour compenser la vieille version de Xen ?
> > Parce qu'il y a un sacré gap entre Stable en 4.8 et Testing en 4.11
> >
> > Excellente journée
> > Florent
> > ---
> > Liste de diffusion du FRnOG
> > http://www.frnog.org/
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Laurent-Charles Fabre
Re,

j’ai vu passer les mots Dell et Lenteur iSCSI dans le thread.

Alors que ce soit pour Xen ou Proxmox il faut bannir les cartes 10G Broadcom 
très présentes sur ces serveurs par défaut.
Remplacez les par des Intel et vos souci de lenteur, perte de packet, FS en RO 
et autre gag du genre disparaitront par magie.

Si en plus vous vous en tenez à du SFP+ optique Vs DAC sur les liens SAN, vous 
gagnerez sensiblement sur les opérations genre backup nocturne dédupliqués.
C’est le gain de latence, plutôt invisible pour une VM Web, qui joue à plein 
sur ce type de charge très demandeuses

Laurent-Charles Fabre



> Le 27 mai 2019 à 17:10, Florent H. CARRÉ (COLUNDRUM)  a 
> écrit :
> 
> Bonjour la liste,
> 
> Désolé pour le retard mais je vais compléter ma présente réponse.
> 
> Effectivement XCP-NG peut avoir Xen Orchestra qui n'est pas installé par 
> défaut et tant mieux.
> 
> C'est une base solide : CentOS + OpenVSwitch
> 
> La personne qui était sur XenServer ne sera pas trop dépaysée de la cli.
> 
> Les 2 points noirs que j'ai pour le moment :
> - impossible d'utiliser l'app lourde car nécessite Windows … j'ai mis un Xen 
> Orchestra version open source pour quand je ne peux pas faire de ssh
> - pas de mosh dans les dépôts de XCP-NG donc obligé d'installer celui de 
> CentOS.
> 
> Les problèmes que j'avais eu avec Proxmox à l'époque (2012-2013) concernaient 
> l'iscsi, les performances des vm et en prime la GUI.
> 
> J'ai migré sur XCP-NG parce que la migration venant de XenServer était facile 
> et rapide.
> 
> Là, je regarde pour migrer le stockage sur Ceph : 
> https://xcp-ng.org/forum/topic/4/ceph-on-xcp-ng
> C'est la seule chose qui me poussera à migrer les XCP-NG vers Debian avec Xen.
> 
> Je regrette le manque de la version server de QubesOS qui aurait pu faire un 
> excellent Xen server.
> 
> Je suis quasiment à 60% CentOS et 40% Debian.
> 
> Actuellement, sur le perso, je suis en XCP-NG 8 beta.
> 
> L'autre importance d'avoir une CentOS à l'heure actuelle est la rapidité des 
> patchs concernant les vulnérabilités Intel (et ce n'est pas terminé), Debian 
> avait été lente où Vmware, Xen, CentOS avaient patchés.
> 
> Je vais un peu plus regarder Xen sur Debian voir comment je pourrais y migrer 
> dessus en venant de XCP-NG dans le cas où le support de Ceph n'est pas 
> satisfaisant sur XCP-NG.
> (recréer tout le network, migrer les disques des vm …)
> 
> Question pour ceux sous Xen avec Debian : avez-vous un dépôt spécial pour 
> compenser la vieille version de Xen ?
> Parce qu'il y a un sacré gap entre Stable en 4.8 et Testing en 4.11
> 
> Excellente journée
> Florent
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Michel Py
> Emmanuel Jacquet a écrit :
> Est ce que qqun possède ou a testé une solution à base d'Hyper-V ?

Un peu, mais la license est trop chère pour faire plus que du bricolage.

Michel.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


RE: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Joel DEREFINKO
Bonjour,

J'interviens un peu tard, et ,comme d'hab diront certains, je vais parler de 
Nutanix avec AHV (basé sur KVM).
Pour monter un POC, la Community Edition permet de monter un cluster jusqu'à 3 
nœuds si je me souviens bien.

Nous fonctionnons depuis 4 ans avec 2 clusters de 3 noeuds sur ESX (5.5) et 
nous envisageons de les migrer vers AHV et de les fusionner en un cluster de 6 
nœuds. Ca juste marche, c'est à la limite du "fire and forget".

Ca supporte pas mal de choses, ca tourne sur différents types de HW, la plupart 
des labs en community edition sont montés sur des NUCs. Par contre il faut 
vérifier la possibilité d'intégration avec un NAS en iSCSI, mais j'imagine que 
ca doit etre possible.
Idem pour le HW de prod, ca peut être tatillon sur les controleurs 
disques/réseau.

Ah, pas de licence pour les fonctions "standards" (HA, migration à chaud, 
etc...) mais des modules pour les fonctions avancées, type metro-availability.

https://www.nutanix.com/products/acropolis/virtualization


Joël 

-Message d'origine-
De : frnog-requ...@frnog.org  De la part de Sebastien 
Caps
Envoyé : lundi 27 mai 2019 12:48
À : frnog-m...@frnog.org
Objet : Re: [FRnOG] [MISC] Solution de virtualisation

Le 27-05-2019 11:59, Emmanuel Jacquet a écrit :
> Le ven. 24 mai 2019 à 13:21, Lucas Viallon  a
> écrit :
> 
>> Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox 
>> dans
>> la tête mais je voulais connaitre l'avis de ceux qui comme moi on 
>> rapatrié
>> ou on gardé en interne.
>> 
>> 
> 
> Salut tous
> 
> Est ce que qqun possède ou a testé une solution à base d'Hyper-V ?

Bonjour,
@job -1 on avait de l'Hyper-V 2012r2 (pour du Windows uniquement) et du 
VMWare pour du Windows et du Linux.

Sur mes 4 ans là-bas: 5 ou 6 redémarrages non désiré et aléatoire d'une 
partie des 3 nœuds Hyper-V(jamais les mêmes) sans aucune vrai 
explication dans les logs.
Coté positif: les VM redémarraient sur les nœuds restant avec la 
priorité indiquée (et d'autres VM pas par manque de RAM...)
La logique fonctionnait bien et tout: live-migration, load balance, 
etc..., mais bon les crash on aimait pas trop :)

Donc décision a été prise de convertir les nœuds Hyper-V vers du VMWare 
plus stable de toute évidence vu que le hardware ne semblait pas être la 
cause de nos soucis.
La migration est en principe en cours à l'heure ou je vous parle.

Seb



---
Liste de diffusion du FRnOG
http://www.frnog.org/

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Florent H. CARRÉ (COLUNDRUM)
Bonjour la liste,

Désolé pour le retard mais je vais compléter ma présente réponse.

Effectivement XCP-NG peut avoir Xen Orchestra qui n'est pas installé par défaut 
et tant mieux.

C'est une base solide : CentOS + OpenVSwitch

La personne qui était sur XenServer ne sera pas trop dépaysée de la cli.

Les 2 points noirs que j'ai pour le moment :
- impossible d'utiliser l'app lourde car nécessite Windows … j'ai mis un Xen 
Orchestra version open source pour quand je ne peux pas faire de ssh
- pas de mosh dans les dépôts de XCP-NG donc obligé d'installer celui de CentOS.

Les problèmes que j'avais eu avec Proxmox à l'époque (2012-2013) concernaient 
l'iscsi, les performances des vm et en prime la GUI.

J'ai migré sur XCP-NG parce que la migration venant de XenServer était facile 
et rapide.

Là, je regarde pour migrer le stockage sur Ceph : 
https://xcp-ng.org/forum/topic/4/ceph-on-xcp-ng
C'est la seule chose qui me poussera à migrer les XCP-NG vers Debian avec Xen.

Je regrette le manque de la version server de QubesOS qui aurait pu faire un 
excellent Xen server.

Je suis quasiment à 60% CentOS et 40% Debian.

Actuellement, sur le perso, je suis en XCP-NG 8 beta.

L'autre importance d'avoir une CentOS à l'heure actuelle est la rapidité des 
patchs concernant les vulnérabilités Intel (et ce n'est pas terminé), Debian 
avait été lente où Vmware, Xen, CentOS avaient patchés.

Je vais un peu plus regarder Xen sur Debian voir comment je pourrais y migrer 
dessus en venant de XCP-NG dans le cas où le support de Ceph n'est pas 
satisfaisant sur XCP-NG.
(recréer tout le network, migrer les disques des vm …)

Question pour ceux sous Xen avec Debian : avez-vous un dépôt spécial pour 
compenser la vieille version de Xen ?
Parce qu'il y a un sacré gap entre Stable en 4.8 et Testing en 4.11

Excellente journée
Florent
---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Sebastien Caps

Le 27-05-2019 11:59, Emmanuel Jacquet a écrit :

Le ven. 24 mai 2019 à 13:21, Lucas Viallon  a
écrit :

Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox 
dans
la tête mais je voulais connaitre l'avis de ceux qui comme moi on 
rapatrié

ou on gardé en interne.




Salut tous

Est ce que qqun possède ou a testé une solution à base d'Hyper-V ?


Bonjour,
@job -1 on avait de l'Hyper-V 2012r2 (pour du Windows uniquement) et du 
VMWare pour du Windows et du Linux.


Sur mes 4 ans là-bas: 5 ou 6 redémarrages non désiré et aléatoire d'une 
partie des 3 nœuds Hyper-V(jamais les mêmes) sans aucune vrai 
explication dans les logs.
Coté positif: les VM redémarraient sur les nœuds restant avec la 
priorité indiquée (et d'autres VM pas par manque de RAM...)
La logique fonctionnait bien et tout: live-migration, load balance, 
etc..., mais bon les crash on aimait pas trop :)


Donc décision a été prise de convertir les nœuds Hyper-V vers du VMWare 
plus stable de toute évidence vu que le hardware ne semblait pas être la 
cause de nos soucis.

La migration est en principe en cours à l'heure ou je vous parle.

Seb



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Emmanuel Jacquet
Le ven. 24 mai 2019 à 13:21, Lucas Viallon  a
écrit :

> Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox dans
> la tête mais je voulais connaitre l'avis de ceux qui comme moi on rapatrié
> ou on gardé en interne.
>
>

Salut tous

Est ce que qqun possède ou a testé une solution à base d'Hyper-V ?


-- 
Emmanuel Jacquet
m...@formidable-inc.net

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Kevin Decherf


On Mon, May 27, 2019, at 10:23, Alexandre DERUMIER wrote:
> >>C'est effectivement la recommandation pour un replicated_pool.
> >>Tu peux également créer un pool à code à effacement pour faire un équivalent
> >>RAID 5/6 mais les implications ne sont pas tout à fait les mêmes.
> 
> erasure coding ca marche bien pour les objets, mais pour les vms ce 
> n'est pas recommandé niveau perf.
> il y a moyen de faire du tiering avec un pool repliqué au dessus du 
> pool erasure coding,
> mais le tiering fonctionne pas bien avec les vms.

Intéressant, cela se matérialisait comment ?

-- 
Kevin Decherf - @Kdecherf
GPG 0x108ABD75A81E6E2F
https://kdecherf.com


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet roca emile
Bonjour,

Je profite du débat pour poser 2 3 questions sur proxmox ^^

Je travail a la mise en place d’un lab virtuel sous proxmox, j’ai les principes 
de bases de gestion des utilisateur mais un problème reste cependant. Comment 
donner  le droit a des utilisateur de créer des vms et choisir leur switch ? Je 
peux seulement donnée le droit ou non de add/remove/modify des vms?

Comment empêcher un utilisateur qui doit pouvoir créer des vms et les attribuer 
a un switch sans qu’il puisse ce placer sur mon vmbr0 par exemple ?

Merci d’avance ^^

Cordialement,

Roca Emile 

> Le 27 mai 2019 à 10:33, Laurent-Charles Fabre  a écrit :
> 
> Bonjour,
> 
> je laisse les Proxmox addict commenter cette partie.
> Mais 3 c’est le mini pour la sécurité.
> J’ajouterai juste que vu le prix et le professionnalisme du support, donner 
> quelques €uro à Proxmox pour le support me parait une bonne idée.
> Ces gens sont capable de SSH nocturne sur votre infra pour vous dépatouiller 
> d’un incident.
> C’est appréciable.
> 
> Sur ce qui est des SSD en Raid, je me permets une remarque.
> Ne pas considérer le SSD comme du rotatif.
> Il faut prendre en compte le « vieillissement » du SSD à l’usage qui est 
> différent de celui d’un rotatif.
> 
> Je peuts échanger dans les détail en MP mais les cookbook c’est :
> - éviter les contrôleurs RAID hardware (qui sont prévus pour du rotatif)
> - le Raid 5, c’est pas pour les SSD, vive le 0, 1, 10. (google write 
> amplification)
> - utiliser un HBA et laisser l’OS/FS/Soft dédié gérer les SSD en sachant que 
> c’est du SSD
> - avoir le bon noyau avec les bonnes options (trim)
> - utiliser des SSD typé pour l’usage envisagé (Cache, Write Intensive, Read 
> Intensive)
> - fuyez les nouveaux SSD QLC
> - Quand je dis SSD, ça peut se décliner en nvme mais là, sujet sur le nombre 
> de « disques » possible dans la boite
> - nous c’était SSD Intel SLC puis Samsung MLC, quasi aucune panne mais 
> remplacé tout les 3 ans
>  ->mais vu le prix, une OceanStore 2600 avec du SSD à bord rentre en 
> comparaison tarifaire
>  -> le truc d’une baie pro sous support, c’est que la fiabilité du SSD en 
> s’en fou, l’usure est comprise dans le prix du support
> 
> ET ne négligez votre politique de sauvegarde qui va devoir gérer toutes ces 
> Téra sur ces centaines de VM en 6H chrono.
> 
> Un bon NAS maison en ZFS avec beaucoup de RAM et ZIL sur nvme + rotatif 7,4K 
> nombreux (12+) fait le taf pour pas cher
> 
> My 2 cents d’hébergeur
> 
> Joyeux POC :-)
> 
> Laurent-Charles Fabre
> 
> 
> 
>> Le 27 mai 2019 à 09:43, David Touitou  a écrit :
>> 
>> 'jour,
>> 
>>> Ca dépends du nombre de copies que tu souhaites. Par défaut, et
>>> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à
>>> un instant T.
>>> Du coup, 4*4/3 ~= 5To utile.
>> 
>> Me semble aussi que la recommandation Proxmox c'est 5 serveurs pour un 
>> cluster.
>> 
>> Concernant Ceph et les calculs de volumétrie, il a un truc ici : 
>> http://florian.ca/ceph-calculator/
>> 
>> David
>> 
>> 
>> ---
>> Liste de diffusion du FRnOG
>> http://www.frnog.org/
> 
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Laurent-Charles Fabre
Bonjour,

je laisse les Proxmox addict commenter cette partie.
Mais 3 c’est le mini pour la sécurité.
J’ajouterai juste que vu le prix et le professionnalisme du support, donner 
quelques €uro à Proxmox pour le support me parait une bonne idée.
Ces gens sont capable de SSH nocturne sur votre infra pour vous dépatouiller 
d’un incident.
C’est appréciable.

Sur ce qui est des SSD en Raid, je me permets une remarque.
Ne pas considérer le SSD comme du rotatif.
Il faut prendre en compte le « vieillissement » du SSD à l’usage qui est 
différent de celui d’un rotatif.

Je peuts échanger dans les détail en MP mais les cookbook c’est :
- éviter les contrôleurs RAID hardware (qui sont prévus pour du rotatif)
- le Raid 5, c’est pas pour les SSD, vive le 0, 1, 10. (google write 
amplification)
- utiliser un HBA et laisser l’OS/FS/Soft dédié gérer les SSD en sachant que 
c’est du SSD
- avoir le bon noyau avec les bonnes options (trim)
- utiliser des SSD typé pour l’usage envisagé (Cache, Write Intensive, Read 
Intensive)
- fuyez les nouveaux SSD QLC
- Quand je dis SSD, ça peut se décliner en nvme mais là, sujet sur le nombre de 
« disques » possible dans la boite
- nous c’était SSD Intel SLC puis Samsung MLC, quasi aucune panne mais remplacé 
tout les 3 ans
  ->mais vu le prix, une OceanStore 2600 avec du SSD à bord rentre en 
comparaison tarifaire
  -> le truc d’une baie pro sous support, c’est que la fiabilité du SSD en s’en 
fou, l’usure est comprise dans le prix du support

ET ne négligez votre politique de sauvegarde qui va devoir gérer toutes ces 
Téra sur ces centaines de VM en 6H chrono.

Un bon NAS maison en ZFS avec beaucoup de RAM et ZIL sur nvme + rotatif 7,4K 
nombreux (12+) fait le taf pour pas cher

My 2 cents d’hébergeur

Joyeux POC :-)

Laurent-Charles Fabre



> Le 27 mai 2019 à 09:43, David Touitou  a écrit :
> 
> 'jour,
> 
>> Ca dépends du nombre de copies que tu souhaites. Par défaut, et
>> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à
>> un instant T.
>> Du coup, 4*4/3 ~= 5To utile.
> 
> Me semble aussi que la recommandation Proxmox c'est 5 serveurs pour un 
> cluster.
> 
> Concernant Ceph et les calculs de volumétrie, il a un truc ici : 
> http://florian.ca/ceph-calculator/
> 
> David
> 
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Alexandre DERUMIER
>>Pas forcément beaucoup d'io, on tourne actuellement sur du vmware, avec du 
>>disque non SSD...

>>Du coup, pour ceph, je dois prévoir quoi? Style 2x500 go en SSD pour proxmox, 
>>et après style 4x1to SSD par serveur. Avec 4 serveur basé sur de l'amd epyc, 
>>ça me permettra d'avoir quoi on espace >>disponible pour les VM? 4*4to 
>>disponible, ça doit faire a minima 8to SSD, voir 12 si je me base sur un 
>>calcul type raid 5?

sur ceph, pour les vms, il est recommandé de faire de la replication (x2 = 
raid1  , x3= raid1++).
tu peux meme creer des pools avec des niveaux de replications différents 
(genre, vms de test, tu fais un pool sans replication, vm critiques replicat 
x3, etc...).

il est recommandé de faire replication x3, mais replication x2 ca fonctionne 
également. (par contre, si tu perd 1disque il ne faut pas que tu en perde un 
2eme dans l'interval
de temps où le cluster rereplique les données)

Egalement, pour les ssd, il faut absolument prendre une gamme datacenter, avec 
des ecritures syncrones rapides pour le journal de ceph
https://www.sebastien-han.fr/blog/2014/10/10/ceph-how-to-test-if-your-ssd-is-suitable-as-a-journal-device/

(où à la limite, une paire de disques ssd/nvme en raid1 de qualité pour les 
journaux (il faut 4Go de journal pour chaque disque/os), et les datas sur des 
ssd moins chers)





- Mail original -
De: "Olivier Lange" 
À: "aderumier" 
Cc: "Lucas Viallon" , "frnog-misc" 

Envoyé: Dimanche 26 Mai 2019 21:43:28
Objet: Re: [FRnOG] [MISC] Solution de virtualisation



Le dim. 26 mai 2019 à 20:17, Alexandre DERUMIER < [ mailto:aderum...@odiso.com 
| aderum...@odiso.com ] > a écrit : 


>>Tu préconise plutôt un nas syno en réplication, en full disques SSD ou plutôt 
>>des serveurs avec ses disques SSD en ceph? 
>> 
>>En terme de disponibilité, ha, scalabilité ? 

ceph sans hésiter. (perso, je ne mettrait pas de prod sur un nas syno, c'est 
bien pour la maison, mais pour mettre des vms..ouch...). 

je sais pas trop comment tu pourrais gérer la HA avec un syno ? (2 controlleurs 
qui bascule ? ca existe ? ou alors de la replication entre 2 NAS en syncrone ?) 




Oui, ils ont une solution de réplication entre certains de leurs nas racks. Ont 
est plus dans la gamme Home ;). Mais si je peux avoir de la haute disponibilité 
du stockage avec une solution interne a proxmox, je prends. 

BQ_BEGIN


Avec ceph, 0 bascule en cas panne d'un noeud, en prod depuis 5ans, jamais eu un 
plantage ou lag. 
(il faut juste apprendre les concepts, mais après tout roule). 
Si tu dois faire vraiment beaucoup d'io, prévoit des cpu avec des grosses 
frequences et pas mal de coeurs. 
(mes benchs avec les cpu à 100%: lecture 4k : 700.000 iops/s , ecriture 4K: 150 
000 iop/s, avec 3 noeuds 24cores 3,1ghz chacun). 

BQ_END


Pas forcément beaucoup d'io, on tourne actuellement sur du vmware, avec du 
disque non SSD... 

Du coup, pour ceph, je dois prévoir quoi? Style 2x500 go en SSD pour proxmox, 
et après style 4x1to SSD par serveur. Avec 4 serveur basé sur de l'amd epyc, ça 
me permettra d'avoir quoi on espace disponible pour les VM? 4*4to disponible, 
ça doit faire a minima 8to SSD, voir 12 si je me base sur un calcul type raid 
5? 

Jamais fait de ceph, mais ça fait un moment que ça me titille... 

Ceph + cluster proxmox me donne accès a tout ( live motion, Snapshot, 
redémarrage sur un autre host, etc...)? 

Merci de ton retour d'expérience. Ça fait 6-7 ans que je bosse avec succès avec 
proxmox, et la le projet un peu plus évolué me tente bien ;) 

BQ_BEGIN



- Mail original - 
De: "Olivier Lange" < [ mailto:olang...@gmail.com | olang...@gmail.com ] > 
À: "aderumier" < [ mailto:aderum...@odiso.com | aderum...@odiso.com ] > 
Cc: "Lucas Viallon" < [ mailto:lucas.vial...@gmail.com | 
lucas.vial...@gmail.com ] >, "frnog-misc" < [ mailto:frnog-m...@frnog.org | 
frnog-m...@frnog.org ] > 
Envoyé: Dimanche 26 Mai 2019 18:56:12 
Objet: Re: [FRnOG] [MISC] Solution de virtualisation 

Alexandre, 


Je profite que tu sembles maîtriser... 

Tu préconise plutôt un nas syno en réplication, en full disques SSD ou plutôt 
des serveurs avec ses disques SSD en ceph? 

En terme de disponibilité, ha, scalabilité ? 

Merci. 
Olivier 

Le dim. 26 mai 2019 à 18:48, Alexandre DERUMIER < [ mailto: [ 
mailto:aderum...@odiso.com | aderum...@odiso.com ] | [ 
mailto:aderum...@odiso.com | aderum...@odiso.com ] ] > a écrit : 


Salut, 

je suis un des principaux contributeurs sur proxmox, 

j'espère ne pas te donner un avis biaisé. (on gère 3000 vms sous proxmox + ceph 
au taff) 

Concernant openstack, ca depend vraiment de la taille de ton équipe, 

openstack, ca fait tout, mais c'est quand meme l'usine à gaz. (et les montée de 
version pas facile) 
(à moins de partir sur une distro qui package tout, style mirantis [ [ 
htt

Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Alexandre DERUMIER
>>C'est effectivement la recommandation pour un replicated_pool.
>>Tu peux également créer un pool à code à effacement pour faire un équivalent
>>RAID 5/6 mais les implications ne sont pas tout à fait les mêmes.

erasure coding ca marche bien pour les objets, mais pour les vms ce n'est pas 
recommandé niveau perf.
il y a moyen de faire du tiering avec un pool repliqué au dessus du pool 
erasure coding,
mais le tiering fonctionne pas bien avec les vms.


- Mail original -
De: "Kevin Decherf" 
À: "frnog" 
Envoyé: Lundi 27 Mai 2019 09:21:55
Objet: Re: [FRnOG] [MISC] Solution de virtualisation

Hello, 

On Mon, May 27, 2019, at 09:17, Richard DEMONGEOT wrote: 
> Hello, 
> 
> 
> > Du coup, pour ceph, je dois prévoir quoi? Style 2x500 go en SSD pour 
> > proxmox, et après style 4x1to SSD par serveur. Avec 4 serveur basé sur 
> > de 
> > l'amd epyc, ça me permettra d'avoir quoi on espace disponible pour les 
> > VM? 
> > 4*4to disponible, ça doit faire a minima 8to SSD, voir 12 si je me base 
> > sur 
> > un calcul type raid 5? 
> 
> Ca dépends du nombre de copies que tu souhaites. Par défaut, et 
> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à 
> un instant T. 
> Du coup, 4*4/3 ~= 5To utile. 

C'est effectivement la recommandation pour un replicated_pool. 
Tu peux également créer un pool à code à effacement pour faire un équivalent 
RAID 5/6 mais les implications ne sont pas tout à fait les mêmes. 

-- 
Kevin Decherf - @Kdecherf 
GPG 0x108ABD75A81E6E2F 
https://kdecherf.com 


--- 
Liste de diffusion du FRnOG 
http://www.frnog.org/ 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Alexandre DERUMIER
>>Me semble aussi que la recommandation Proxmox c'est 5 serveurs pour un 
>>cluster. 

3 serveurs minimum, pour avoir le quorum.  (idem pour les monitors cephs)

- Mail original -
De: "David Touitou" 
À: "Richard DEMONGEOT" 
Cc: "Olivier Lange" , "aderumier" , 
"Lucas Viallon" , "frnog-misc" 
Envoyé: Lundi 27 Mai 2019 09:43:52
Objet: Re: [FRnOG] [MISC] Solution de virtualisation

'jour, 

> Ca dépends du nombre de copies que tu souhaites. Par défaut, et 
> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à 
> un instant T. 
> Du coup, 4*4/3 ~= 5To utile. 

Me semble aussi que la recommandation Proxmox c'est 5 serveurs pour un cluster. 

Concernant Ceph et les calculs de volumétrie, il a un truc ici : 
http://florian.ca/ceph-calculator/ 

David 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet David Touitou
'jour,

> Ca dépends du nombre de copies que tu souhaites. Par défaut, et
> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à
> un instant T.
> Du coup, 4*4/3 ~= 5To utile.

Me semble aussi que la recommandation Proxmox c'est 5 serveurs pour un cluster.

Concernant Ceph et les calculs de volumétrie, il a un truc ici : 
http://florian.ca/ceph-calculator/

David


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Kevin Decherf
Hello,

On Mon, May 27, 2019, at 09:17, Richard DEMONGEOT wrote:
> Hello,
> 
> 
> > Du coup, pour ceph, je dois prévoir quoi? Style 2x500 go en SSD pour
> > proxmox, et après style 4x1to SSD par serveur. Avec 4 serveur basé sur 
> > de
> > l'amd epyc, ça me permettra d'avoir quoi on espace disponible pour les 
> > VM?
> > 4*4to disponible, ça doit faire a minima 8to SSD, voir 12 si je me base 
> > sur
> > un calcul type raid 5?
> 
> Ca dépends du nombre de copies que tu souhaites. Par défaut, et 
> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à 
> un instant T.
> Du coup, 4*4/3 ~= 5To utile.

C'est effectivement la recommandation pour un replicated_pool.
Tu peux également créer un pool à code à effacement pour faire un équivalent
RAID 5/6 mais les implications ne sont pas tout à fait les mêmes.

-- 
Kevin Decherf - @Kdecherf
GPG 0x108ABD75A81E6E2F
https://kdecherf.com


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Olivier Lange
Le lun. 27 mai 2019 à 09:15, Richard DEMONGEOT  a
écrit :

> Hello,
>
>
> > Du coup, pour ceph, je dois prévoir quoi? Style 2x500 go en SSD pour
> > proxmox, et après style 4x1to SSD par serveur. Avec 4 serveur basé sur
> > de
> > l'amd epyc, ça me permettra d'avoir quoi on espace disponible pour les
> > VM?
> > 4*4to disponible, ça doit faire a minima 8to SSD, voir 12 si je me base
> > sur
> > un calcul type raid 5?
>
> Ca dépends du nombre de copies que tu souhaites. Par défaut, et
> recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à
> un instant T.
> Du coup, 4*4/3 ~= 5To utile.
>

Merci Richard pour cette information. Ca réponds à ma question de savoir
comment est gérer le stockage de Ceph. DU coup je partirais sur des disques
de 2To, donc 4x4x2/3 = env. 10To de données. Ca me donne de quoi voir
venir, et surtout c'est extensible!

Bon, et bien merci pour ces informations.

Olivier

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-27 Par sujet Richard DEMONGEOT

Hello,



Du coup, pour ceph, je dois prévoir quoi? Style 2x500 go en SSD pour
proxmox, et après style 4x1to SSD par serveur. Avec 4 serveur basé sur 
de
l'amd epyc, ça me permettra d'avoir quoi on espace disponible pour les 
VM?
4*4to disponible, ça doit faire a minima 8to SSD, voir 12 si je me base 
sur

un calcul type raid 5?


Ca dépends du nombre de copies que tu souhaites. Par défaut, et 
recomandé, c'est 3 copies. Donc ta donnée est sur 3 disques différents à 
un instant T.

Du coup, 4*4/3 ~= 5To utile.

Tu peut faire du 2 copies, pour de la préprod par exemple (donc 8To 
utiles).


Il faudrai que je creuse plus les calculs pour comprendre les 3 copies 
recommandées.


Cordialement,


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-26 Par sujet Olivier Lange
Le dim. 26 mai 2019 à 20:17, Alexandre DERUMIER  a
écrit :

> >>Tu préconise plutôt un nas syno en réplication, en full disques SSD ou
> plutôt des serveurs avec ses disques SSD en ceph?
> >>
> >>En terme de disponibilité, ha, scalabilité ?
>
> ceph sans hésiter. (perso, je ne mettrait pas de prod sur un nas syno,
> c'est bien pour la maison, mais pour mettre des vms..ouch...).
>
> je sais pas trop comment tu pourrais gérer la HA avec un syno ? (2
> controlleurs qui bascule ? ca existe ?   ou alors de la replication entre 2
> NAS en syncrone ?)
>

Oui, ils ont une solution de réplication entre certains de leurs nas racks.
Ont est plus dans la gamme Home ;). Mais si je peux avoir de la haute
disponibilité du stockage avec une solution interne a proxmox, je prends.

>
>
> Avec ceph, 0 bascule en cas panne d'un noeud, en prod depuis 5ans, jamais
> eu un plantage ou lag.
> (il faut juste apprendre les concepts, mais après tout roule).
> Si tu dois faire vraiment beaucoup d'io, prévoit des cpu avec des grosses
> frequences et pas mal de coeurs.
> (mes benchs avec les cpu à 100%: lecture 4k : 700.000 iops/s  , ecriture
> 4K: 150 000 iop/s, avec 3 noeuds 24cores 3,1ghz chacun).
>

Pas forcément beaucoup d'io, on tourne actuellement sur du vmware, avec du
disque non SSD...

Du coup, pour ceph, je dois prévoir quoi? Style 2x500 go en SSD pour
proxmox, et après style 4x1to SSD par serveur. Avec 4 serveur basé sur de
l'amd epyc, ça me permettra d'avoir quoi on espace disponible pour les VM?
4*4to disponible, ça doit faire a minima 8to SSD, voir 12 si je me base sur
un calcul type raid 5?

Jamais fait de ceph, mais ça fait un moment que ça me titille...

Ceph + cluster proxmox me donne accès a tout ( live motion, Snapshot,
redémarrage sur un autre host, etc...)?

Merci de ton retour d'expérience. Ça fait 6-7 ans que je bosse avec succès
avec proxmox, et la le projet un peu plus évolué me tente bien ;)

>
>
>
> - Mail original -
> De: "Olivier Lange" 
> À: "aderumier" 
> Cc: "Lucas Viallon" , "frnog-misc" <
> frnog-m...@frnog.org>
> Envoyé: Dimanche 26 Mai 2019 18:56:12
> Objet: Re: [FRnOG] [MISC] Solution de virtualisation
>
> Alexandre,
>
>
> Je profite que tu sembles maîtriser...
>
> Tu préconise plutôt un nas syno en réplication, en full disques SSD ou
> plutôt des serveurs avec ses disques SSD en ceph?
>
> En terme de disponibilité, ha, scalabilité ?
>
> Merci.
> Olivier
>
> Le dim. 26 mai 2019 à 18:48, Alexandre DERUMIER < [ mailto:
> aderum...@odiso.com | aderum...@odiso.com ] > a écrit :
>
>
> Salut,
>
> je suis un des principaux contributeurs sur proxmox,
>
> j'espère ne pas te donner un avis biaisé. (on gère 3000 vms sous proxmox +
> ceph au taff)
>
> Concernant openstack, ca depend vraiment de la taille de ton équipe,
>
> openstack, ca fait tout, mais c'est quand meme l'usine à gaz. (et les
> montée de version pas facile)
> (à moins de partir sur une distro qui package tout, style mirantis [
> https://www.mirantis.com/software/openstack/ |
> https://www.mirantis.com/software/openstack/ ] ).
>
>
> Ovirt, ca fait un bail que je l'ai pas utilisé, les anciennes version
> étaient pas top, mais ca semble s'etre bien améliorer.
>
> Pour proxmox, je pense que c'est le stockage qui va te limiter les
> fonctionalité. (snapshot, thin provisining,...).
> Je ne sais pas quel est ton modèle de NAS/SAN, mais si les api ne sont pas
> implémenter dans proxmox,
> le seul moyen de le gérer, c'est de faire un gros lun + du lvm coté
> proxmox pour gérer les disques.
> (mais pas de thin provisining, pas de snapshots).
> (A la limite, tu peux toujours recupérer tes ssd, et faire un cluster
> ceph)
>
>
> N'hésites pas à me demander si tu as des besoins spécifiques.
>
>
>
> - Mail original -
> De: "Lucas Viallon" < [ mailto:lucas.vial...@gmail.com |
> lucas.vial...@gmail.com ] >
> À: "frnog-misc" < [ mailto:frnog-m...@frnog.org | frnog-m...@frnog.org ]
> >
> Envoyé: Vendredi 24 Mai 2019 13:21:19
> Objet: [FRnOG] [MISC] Solution de virtualisation
>
> Bonjour,
>
> Bon je sais ce n'est pas trop réseau mais je pose quand même la question,
> n’hésitez pas a faire des retours en privés pour ne pas ennuyer.
>
> Après avoir externalisé nos serveurs dans des cloud de grand nom, nous
> souhaitons maintenant les ré-internaliser. Nous avons eu de trop mauvaise
> expérience (Attention, on ne cherche pas de nouveau prestataire ou cloud).
>
> Nous avons donc un NAS haut de gamme bourré de SSD et supportant ISCSI,
> plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 10G
> bref

Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-26 Par sujet Alexandre DERUMIER
>>Tu préconise plutôt un nas syno en réplication, en full disques SSD ou plutôt 
>>des serveurs avec ses disques SSD en ceph? 
>>
>>En terme de disponibilité, ha, scalabilité ? 

ceph sans hésiter. (perso, je ne mettrait pas de prod sur un nas syno, c'est 
bien pour la maison, mais pour mettre des vms..ouch...).

je sais pas trop comment tu pourrais gérer la HA avec un syno ? (2 controlleurs 
qui bascule ? ca existe ?   ou alors de la replication entre 2 NAS en syncrone 
?)


Avec ceph, 0 bascule en cas panne d'un noeud, en prod depuis 5ans, jamais eu un 
plantage ou lag.
(il faut juste apprendre les concepts, mais après tout roule).
Si tu dois faire vraiment beaucoup d'io, prévoit des cpu avec des grosses 
frequences et pas mal de coeurs.
(mes benchs avec les cpu à 100%: lecture 4k : 700.000 iops/s  , ecriture 4K: 
150 000 iop/s, avec 3 noeuds 24cores 3,1ghz chacun).



- Mail original -
De: "Olivier Lange" 
À: "aderumier" 
Cc: "Lucas Viallon" , "frnog-misc" 

Envoyé: Dimanche 26 Mai 2019 18:56:12
Objet: Re: [FRnOG] [MISC] Solution de virtualisation

Alexandre, 


Je profite que tu sembles maîtriser... 

Tu préconise plutôt un nas syno en réplication, en full disques SSD ou plutôt 
des serveurs avec ses disques SSD en ceph? 

En terme de disponibilité, ha, scalabilité ? 

Merci. 
Olivier 

Le dim. 26 mai 2019 à 18:48, Alexandre DERUMIER < [ mailto:aderum...@odiso.com 
| aderum...@odiso.com ] > a écrit : 


Salut, 

je suis un des principaux contributeurs sur proxmox, 

j'espère ne pas te donner un avis biaisé. (on gère 3000 vms sous proxmox + ceph 
au taff) 

Concernant openstack, ca depend vraiment de la taille de ton équipe, 

openstack, ca fait tout, mais c'est quand meme l'usine à gaz. (et les montée de 
version pas facile) 
(à moins de partir sur une distro qui package tout, style mirantis [ 
https://www.mirantis.com/software/openstack/ | 
https://www.mirantis.com/software/openstack/ ] ). 


Ovirt, ca fait un bail que je l'ai pas utilisé, les anciennes version étaient 
pas top, mais ca semble s'etre bien améliorer. 

Pour proxmox, je pense que c'est le stockage qui va te limiter les 
fonctionalité. (snapshot, thin provisining,...). 
Je ne sais pas quel est ton modèle de NAS/SAN, mais si les api ne sont pas 
implémenter dans proxmox, 
le seul moyen de le gérer, c'est de faire un gros lun + du lvm coté proxmox 
pour gérer les disques. 
(mais pas de thin provisining, pas de snapshots). 
(A la limite, tu peux toujours recupérer tes ssd, et faire un cluster ceph) 


N'hésites pas à me demander si tu as des besoins spécifiques. 



- Mail original - 
De: "Lucas Viallon" < [ mailto:lucas.vial...@gmail.com | 
lucas.vial...@gmail.com ] > 
À: "frnog-misc" < [ mailto:frnog-m...@frnog.org | frnog-m...@frnog.org ] > 
Envoyé: Vendredi 24 Mai 2019 13:21:19 
Objet: [FRnOG] [MISC] Solution de virtualisation 

Bonjour, 

Bon je sais ce n'est pas trop réseau mais je pose quand même la question, 
n’hésitez pas a faire des retours en privés pour ne pas ennuyer. 

Après avoir externalisé nos serveurs dans des cloud de grand nom, nous 
souhaitons maintenant les ré-internaliser. Nous avons eu de trop mauvaise 
expérience (Attention, on ne cherche pas de nouveau prestataire ou cloud). 

Nous avons donc un NAS haut de gamme bourré de SSD et supportant ISCSI, 
plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 10G 
bref que du bonheur pour moi en terme d’équipement. 

Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox dans 
la tête mais je voulais connaitre l'avis de ceux qui comme moi on rapatrié 
ou on gardé en interne. 

Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions disposer 
de la Haute Disponibilité avec si possible déplacement des VM a chaud. 

merci d'avance 
Lucas 

--- 
Liste de diffusion du FRnOG 
[ http://www.frnog.org/ | http://www.frnog.org/ ] 


--- 
Liste de diffusion du FRnOG 
[ http://www.frnog.org/ | http://www.frnog.org/ ] 





---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-26 Par sujet Olivier Lange
Alexandre,


Je profite que tu sembles maîtriser...

Tu préconise plutôt un nas syno en réplication, en full disques SSD ou
plutôt des serveurs avec ses disques SSD en ceph?

En terme de disponibilité, ha, scalabilité ?

Merci.
Olivier

Le dim. 26 mai 2019 à 18:48, Alexandre DERUMIER  a
écrit :

> Salut,
>
> je suis un des principaux contributeurs sur proxmox,
>
> j'espère ne pas te donner un avis biaisé. (on gère 3000 vms sous proxmox +
> ceph au taff)
>
> Concernant openstack, ca depend vraiment de la taille de ton équipe,
>
> openstack, ca fait tout, mais c'est quand meme l'usine à gaz. (et les
> montée de version pas facile)
> (à moins de partir sur une distro qui package tout, style mirantis
> https://www.mirantis.com/software/openstack/).
>
>
> Ovirt, ca fait un bail que je l'ai pas utilisé, les anciennes version
> étaient pas top, mais ca semble s'etre bien améliorer.
>
> Pour proxmox, je pense que c'est le stockage qui va te limiter les
> fonctionalité. (snapshot, thin provisining,...).
> Je ne sais pas quel est ton modèle de NAS/SAN, mais si les api ne sont pas
> implémenter dans proxmox,
> le seul moyen de le gérer, c'est de faire un gros lun + du lvm coté
> proxmox pour gérer les disques.
> (mais pas de thin provisining, pas de snapshots).
> (A la limite, tu peux toujours recupérer tes ssd, et faire un cluster ceph)
>
>
> N'hésites pas à me demander si tu as des besoins spécifiques.
>
>
>
> - Mail original -
> De: "Lucas Viallon" 
> À: "frnog-misc" 
> Envoyé: Vendredi 24 Mai 2019 13:21:19
> Objet: [FRnOG] [MISC] Solution de virtualisation
>
> Bonjour,
>
> Bon je sais ce n'est pas trop réseau mais je pose quand même la question,
> n’hésitez pas a faire des retours en privés pour ne pas ennuyer.
>
> Après avoir externalisé nos serveurs dans des cloud de grand nom, nous
> souhaitons maintenant les ré-internaliser. Nous avons eu de trop mauvaise
> expérience (Attention, on ne cherche pas de nouveau prestataire ou cloud).
>
> Nous avons donc un NAS haut de gamme bourré de SSD et supportant ISCSI,
> plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 10G
> bref que du bonheur pour moi en terme d’équipement.
>
> Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox
> dans
> la tête mais je voulais connaitre l'avis de ceux qui comme moi on rapatrié
> ou on gardé en interne.
>
> Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions
> disposer
> de la Haute Disponibilité avec si possible déplacement des VM a chaud.
>
> merci d'avance
> Lucas
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-26 Par sujet Alexandre DERUMIER
Salut,

je suis un des principaux contributeurs sur proxmox,

j'espère ne pas te donner un avis biaisé. (on gère 3000 vms sous proxmox + ceph 
au taff)

Concernant openstack, ca depend vraiment de la taille de ton équipe,

openstack, ca fait tout, mais c'est quand meme l'usine à gaz. (et les montée de 
version pas facile)
(à moins de partir sur une distro qui package tout, style mirantis 
https://www.mirantis.com/software/openstack/).


Ovirt, ca fait un bail que je l'ai pas utilisé, les anciennes version étaient 
pas top, mais ca semble s'etre bien améliorer.

Pour proxmox, je pense que c'est le stockage qui va te limiter les 
fonctionalité. (snapshot, thin provisining,...).
Je ne sais pas quel est ton modèle de NAS/SAN, mais si les api ne sont pas 
implémenter dans proxmox,
le seul moyen de le gérer, c'est de faire un gros lun + du lvm coté proxmox 
pour gérer les disques.
(mais pas de thin provisining, pas de snapshots).
(A la limite, tu peux toujours recupérer tes ssd, et faire un cluster ceph)


N'hésites pas à me demander si tu as des besoins spécifiques.



- Mail original -
De: "Lucas Viallon" 
À: "frnog-misc" 
Envoyé: Vendredi 24 Mai 2019 13:21:19
Objet: [FRnOG] [MISC] Solution de virtualisation

Bonjour, 

Bon je sais ce n'est pas trop réseau mais je pose quand même la question, 
n’hésitez pas a faire des retours en privés pour ne pas ennuyer. 

Après avoir externalisé nos serveurs dans des cloud de grand nom, nous 
souhaitons maintenant les ré-internaliser. Nous avons eu de trop mauvaise 
expérience (Attention, on ne cherche pas de nouveau prestataire ou cloud). 

Nous avons donc un NAS haut de gamme bourré de SSD et supportant ISCSI, 
plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 10G 
bref que du bonheur pour moi en terme d’équipement. 

Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox dans 
la tête mais je voulais connaitre l'avis de ceux qui comme moi on rapatrié 
ou on gardé en interne. 

Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions disposer 
de la Haute Disponibilité avec si possible déplacement des VM a chaud. 

merci d'avance 
Lucas 

--- 
Liste de diffusion du FRnOG 
http://www.frnog.org/ 


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-26 Par sujet Stéphane Rivière



C'est aussi du packaging/patching, et suivi de version/features. Avec 


Merci Thomas pour tes infos détaillées. Effectivement Proxmox ne se 
limite pas à un clickodrome :) Je n'avais pas creusé...


--
Stéphane Rivière
Ile d'Oléron - France


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-26 Par sujet Thomas Samson
On Sat, May 25, 2019 at 9:45 AM Stéphane Rivière  wrote:

> Le 25/05/2019 à 08:56, David Ponzone a écrit :
> > Est-ce qu’il y en a au moins un de vous qui pourrait arrêter de troller
> sur Proxmox et poser quelques arguments
>
> Avec plaisir David, j'avais déjà vaguement argumenté. Je recommence en
> plus long. Là je reprends un copié/collé d'un MP :
>
> Je me cite : C'est une interface connue et appréciée par beaucoup. De
> notre point de vue, c'est une couche "d'apparente simplification" qui
> ajoute donc de la "complexité cachée". Notre point de vue est qu'un
> jour, cette dernière se vengera..
>
> Plus précisément, c'est une couche sur de l'existant. C'est comme
> employer une surcouche de routage et de firewalling au kernel +
> netfilter/iptables (genre un zeroshell ou un vyaos) ou employer
> directement les fonctions de base avec quelques scripts.
>
>
C'est aussi du packaging/patching, et suivi de version/features. Avec
notamment un bon suivi
du kernel et des outils utilisés (il y a quand meme dans les 200 paquets
dans le repo
proxmox, avec notamment qemu-server, corosync, un kernel custom pve, zfs,
ceph, ...)

Et des parties qui n'existe pas ailleurs, comme pmxcfs pour la gestion d'un
/etc/pve distribué.

J'ai regardé, installé, testé, ça ne m'intéresse pas pour les raisons
> évoquées. J'aime pas les clickodromes. Je ne savais même pas qu'il y
> avait une CLI au clickodrome.
>

Tu peux ne jamais utiliser la gui. L'interet est plus dans l'api et l'env
pour moi, meme si
la gui aide et fourni des fonctionnalités difficiles à avoir sur une debian
de base (genre
la console visible via spice, ou en html5)

Mais l'api et les outils couvrent nettement plus de fonctionnalités qu'une
simple surcouche,
comme la gestion distribuée de la configuration dans un cluster, ou la
délégation de droits
plutot fine sur les diverses actions possibles.

D'autres ne jurent que par ça. La beauté du truc c'est qu'on a le choix.
>
> Perso, j'aime la simplicité. C'est pas si simple que ça la simplicité
> (sic). Ca demande du travail. Mais le résultat est une remarquable
> stabilité avec un minimum de composants.
>
> > (d’ingénieur ou d'autodidacte, perso, je m’en fous) ? :)
>
> Clairement, le grade sur l'épaule n'a rien à voir avec la compétence (ou
> pas) :)
>
> > C’est avec plaisir que je testerai XCP-NG sur une prochaine infra, mais
> pour le moment, à part que le GUI est plus joli, je manque de motivation.
>
> Mode Troll post Dredi
> Donc tu aimes les GUI, c'est même un critère :>
>
> Sérieusement, il y a plein de cas où un GUI peut aider à abaisser le
> niveau de compétence nécessaire à la mise en œuvre d'une techno.
>
> Proxmox en est un parfait exemple. Plein de gens l'adorent. Tant mieux
> pour lui, tant mieux pour eux.
>
> De mon point de vue, j'ai pas besoin de ça pour monter du kvm ou du lxc
> et la glue logique qui tourne autour (lvm, zfs, ou stockages réseau). Je
> trouve ça overkill.
>
>
Dès que tu tente de monter un cluster, la simplicité a tendance à
disparaitre,
peu importe l'outil, meme si certains sont apparement simples, les
concepts ne le sont pas :)
Proxmox ne me sert pas juste a avoir une interface simple pour faire de la
vm
(meme si c'est possible) mais a avoir une bonne base pour faire une infra
potentiellement complexe.


> Le jour où j'ai une merde, bien endormi dans mon édredon proxmox, je ne
> saurais pas nécessairement quoi faire car, au delà des briques de base
> que met en œuvre Proxmox, il faudra que je m'imprègne de la logique et
> des concepts Proxmox.
>
> Savoir utiliser la ligne de commande pour construire un mur simple, fait
> de briques simples, me semble une meilleure approche. De mon point de
> vue (bis).
>
>
ça tombe bien. C'est des outils plutot connus, kvm, lxc, corosync. Et le
reste
c'est pas mal de perl avec des outils en cli :) (et/ou une api rest/json)


> Des potes l'utilisent et en sont contents. Je suis content pour eux.
>
> Mais j'aime pas la pensée monothéïste. L'info est un monde de modes qui,
> selon la définition de la mode, varie toujours. Aujourd'hui Machin a la
> cote, demain ça sera Bidule et après demain Trucmuche.
>
> D'où l'idée de rappeler l'existence de Xen.
>
> Mais aussi de basher Proxmox (on entend plus que des admins sautillants
> et psalmodiants  Proxmox ! Proxmox ! Proxmox !). Manquerai plus qu'ils
> se transforment de derviches tourneurs pour la peine...
>
> Y'a des applications pour lesquelles VMWare est très bien voire
> incontournable, d'autres ou KVM ou LXC feront l'affaire, etc... C'est la
> variété des solutions qui autorisent la variété des choix.
>
> Proxmox, c'est comme le cloud aujourd'hui : la solution à tous les
> problèmes de mauvais réveil, d'hygiène alimentaire et de lutte contre le
> réchauffement de la boule... À force, on aimerait un peu de diversité.
>
>
+1 pour la diversité.


> Perso, le penguin, la debian, le xen, raidsoft, lvm, nginx pour tout,
> postfix et mariadb pour le reste, etc... toujours les mêmes outils
> complètement 

Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-25 Par sujet Stéphane Rivière

Le 25/05/2019 à 10:35, David Ponzone a écrit :

Donc finalement on reproche à Proxmox:


Je reproche rien à Proxmox, je dis (et répète, lis moi) que ce n'est pas 
pour moi. Et j'espère susciter la curiosité en évoquant Xen.


On peut peut-être voir Proxmox comme un produit d’entrée pour quelqu’un qui vient de VMware et qui est habitué au GUI, pour éventuellement 


Tout à fait.


passer sur XCP-NG plus tard si c’est un produit techniquement plus avancé.


XCP-NG est un truc qui ne me concerne pas. Ce qui me concerne, c'est du 
vrai Xen libre, qui n'a pas grand chose à voir. Le système de base est 
de mémoire centos, c'est pas non plus le même jeu de commande CLI (xe au 
lieu du standard xl), jamais réussi à monter du raidsoft + lvm (ce qui 
ne prouve rien, de toute façon, je connais pas centos).


En fait que Xen soit 'plus avancé' n'est pas le sujet, c'est juste une 
question d'adéquation : pour faire tourner seulement du Linux, KVM ou 
LXC ne sont pas des choix criticables.


Mais pour faire tourner n'importe quel OS, il faudra trouver autre 
chose... Xen est un virtualiseur très avancé, libre, multi architecture, 
à la pointe de la recherche, c'est un autre monde, pas nécessairement le 
bon monde pour toutes les situations :)


Pour moi, c'est ultra polyvalent (os et multi architectures), fiable 
(uptimes de fou sur des machines avec 10 ou 15 VM) et pérenne (solution 
ancienne, qui a survécu à tout, désormais intégrée au kernel et qui 
remonte grave en technos de pointe de virtu ces dernières années).


Une de mes règles est de ne pas additionner trop de 'connaissances 
stupides'... Donc un pb ici, une seule solution (tant qu'on peut).


os => gnu/linux debian stable ou oldstable
lb, proxy, servweb => nginx (pas de haproxy pour le proxy).
db => mariadb (pas postgresql pour l'instant).

Personnellement, la seule chose que je trouve problématique avec les solutions de ce type, c’est de choisir celle qui est abandonnée 3 ans après (à cause de guerre interne/fork/pertes de motivation ou autre…) et là, t’as plus de support officiel, plus de mises à jour, et tu 


+1 C'est pour ça que Xen libre, c'est juste libre (sic) et indépendant 
de toute entreprise... Que ça soit Orchestra (xcp-ng) ou Citrix... Pour 
notre part c'est que du vrai libre. Sinon un jour où l'autre...



Dans la bataille GUI/CLI, je rentre pas dans ce débat, mais je pense pas qu’il 
y ait encore grand monde qui fasse du LaTeX sous Emacs, sauf peut-être  les 
doctorants en informatique/éledtronique. Les 2 sont indispensables, point barre.


+1 J'ai soutenu un mémoire en StarOffice à l'époque, ils ne m'ont pas 
flingué pour autant :)


--
Stéphane Rivière
Ile d'Oléron - France


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-25 Par sujet David Ponzone
Donc finalement on reproche à Proxmox:
-d’être un GUI (alors que tu peux tout faire en CLI si vraiment ça t’éclate) 
(et la dernière fois que j’ai regardé, VMware était aussi un clicodrome avec un 
CLI derrière, et XCP-NG avec Orchestra aussi, j’ai donc du mal à faire la 
différence)
-d’étouffer le marché parce que plein de gens apprécient le produit et en 
parlent ??? Je pense que le produit a permis à pas mal de monde d’éviter VMware 
et ses limitations en version gratuite (là, XCP-NG a clairement un problème de 
visibilité)

Proxmox a quelques avantages réels quand même, comme l’intégration de Ceph. 
XCP-NG aurait de meilleurs perfs possibles dans une VM (à confirmer par 
quelqu’un qui utilise les 2).
XCP-NG serait dans le collimateur de Citrix (d’après ce que j’ai lu dans un 
article de Nov 2018): est-ce réglé ?

On peut peut-être voir Proxmox comme un produit d’entrée pour quelqu’un qui 
vient de VMware et qui est habitué au GUI, pour éventuellement passer sur 
XCP-NG plus tard si c’est un produit techniquement plus avancé.

Personnellement, la seule chose que je trouve problématique avec les solutions 
de ce type, c’est de choisir celle qui est abandonnée 3 ans après (à cause de 
guerre interne/fork/pertes de motivation ou autre…) et là, t’as plus de support 
officiel, plus de mises à jour, et tu commences à planifier ta migration vers 
un autre produit (la version qui a forké par exemple). Finalement, il faut 
juste être capable de migrer d’un produit à l’autre en pas trop longtemps et 
l’intérêt de la virtualisation, c’est justement que ça devrait se passer pas 
trop mal en pas trop longtemps.

Dans la bataille GUI/CLI, je rentre pas dans ce débat, mais je pense pas qu’il 
y ait encore grand monde qui fasse du LaTeX sous Emacs, sauf peut-être  les 
doctorants en informatique/éledtronique. Les 2 sont indispensables, point barre.


> Le 25 mai 2019 à 09:44, Stéphane Rivière  a écrit :
> 
> ...
> -- 
> Stéphane Rivière
> Ile d'Oléron - France


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-25 Par sujet Stéphane Rivière

Le 25/05/2019 à 08:56, David Ponzone a écrit :

Est-ce qu’il y en a au moins un de vous qui pourrait arrêter de troller sur 
Proxmox et poser quelques arguments


Avec plaisir David, j'avais déjà vaguement argumenté. Je recommence en 
plus long. Là je reprends un copié/collé d'un MP :


Je me cite : C'est une interface connue et appréciée par beaucoup. De 
notre point de vue, c'est une couche "d'apparente simplification" qui 
ajoute donc de la "complexité cachée". Notre point de vue est qu'un 
jour, cette dernière se vengera..


Plus précisément, c'est une couche sur de l'existant. C'est comme 
employer une surcouche de routage et de firewalling au kernel + 
netfilter/iptables (genre un zeroshell ou un vyaos) ou employer 
directement les fonctions de base avec quelques scripts.


J'ai regardé, installé, testé, ça ne m'intéresse pas pour les raisons 
évoquées. J'aime pas les clickodromes. Je ne savais même pas qu'il y 
avait une CLI au clickodrome.


D'autres ne jurent que par ça. La beauté du truc c'est qu'on a le choix.

Perso, j'aime la simplicité. C'est pas si simple que ça la simplicité 
(sic). Ca demande du travail. Mais le résultat est une remarquable 
stabilité avec un minimum de composants.



(d’ingénieur ou d'autodidacte, perso, je m’en fous) ? :)


Clairement, le grade sur l'épaule n'a rien à voir avec la compétence (ou 
pas) :)



C’est avec plaisir que je testerai XCP-NG sur une prochaine infra, mais pour le 
moment, à part que le GUI est plus joli, je manque de motivation.


Mode Troll post Dredi
Donc tu aimes les GUI, c'est même un critère :>

Sérieusement, il y a plein de cas où un GUI peut aider à abaisser le 
niveau de compétence nécessaire à la mise en œuvre d'une techno.


Proxmox en est un parfait exemple. Plein de gens l'adorent. Tant mieux 
pour lui, tant mieux pour eux.


De mon point de vue, j'ai pas besoin de ça pour monter du kvm ou du lxc 
et la glue logique qui tourne autour (lvm, zfs, ou stockages réseau). Je 
trouve ça overkill.


Le jour où j'ai une merde, bien endormi dans mon édredon proxmox, je ne 
saurais pas nécessairement quoi faire car, au delà des briques de base 
que met en œuvre Proxmox, il faudra que je m'imprègne de la logique et 
des concepts Proxmox.


Savoir utiliser la ligne de commande pour construire un mur simple, fait 
de briques simples, me semble une meilleure approche. De mon point de 
vue (bis).


Des potes l'utilisent et en sont contents. Je suis content pour eux.

Mais j'aime pas la pensée monothéïste. L'info est un monde de modes qui, 
selon la définition de la mode, varie toujours. Aujourd'hui Machin a la 
cote, demain ça sera Bidule et après demain Trucmuche.


D'où l'idée de rappeler l'existence de Xen.

Mais aussi de basher Proxmox (on entend plus que des admins sautillants 
et psalmodiants  Proxmox ! Proxmox ! Proxmox !). Manquerai plus qu'ils 
se transforment de derviches tourneurs pour la peine...


Y'a des applications pour lesquelles VMWare est très bien voire 
incontournable, d'autres ou KVM ou LXC feront l'affaire, etc... C'est la 
variété des solutions qui autorisent la variété des choix.


Proxmox, c'est comme le cloud aujourd'hui : la solution à tous les 
problèmes de mauvais réveil, d'hygiène alimentaire et de lutte contre le 
réchauffement de la boule... À force, on aimerait un peu de diversité.


Perso, le penguin, la debian, le xen, raidsoft, lvm, nginx pour tout, 
postfix et mariadb pour le reste, etc... toujours les mêmes outils 
complètement libres... depuis toujours... des briques de base... un 
minimum de société commerciales, un maximum de projets vraiment libres.


Ligne de commande, fichiers de confs et documentation interne 
constamment mise à jour sont ma trinité (pour l'instant).


Tout peut bouger. On est pas sectaire. On a du soft payé qui tourne sous 
Linux (Da Vinci Resolve, TreePadBusiness, Elementor Pro entre autres).


--
Stéphane Rivière
Ile d'Oléron - France


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-25 Par sujet David Ponzone
Est-ce qu’il y en a au moins un de vous qui pourrait arrêter de troller sur 
Proxmox et poser quelques arguments (d’ingénieur ou d'autodidacte, perso, je 
m’en fous) ? :)
C’est avec plaisir que je testerai XCP-NG sur une prochaine infra, mais pour le 
moment, à part que le GUI est plus joli, je manque de motivation.


> 
>> Je suis plus tranché concernant Proxmox, c'est directement la benne et c'est 
>> tout.
> 
> +1


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Stéphane Rivière

A l'ère du "pet vs cattle" (architecture logicielle résiliente à base de
container & microservices : on peut (doit) se foutre complètement de perdre
un serveur) ça me semble beaucoup moins pertinent qu'avant même si ça reste
pratique pour gérer le legacy.


Aurais-tu quelques pointeurs pour m'éclairer sur ces architectures dont 
j'entends parler sans trop saisir le truc ? Merci d'avance :)


--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Stéphane Rivière

Utilisateurs de Xen de la première heure (à l'époque ou ce n'était qu'un
projet de recherche à Cambridge et à faire des trucs comme ça
http://2010.rmll.info/XenoControl-a-High-Availability-Management-Console-For-Xen-Clusters.html
:-))
ça a suffit à nous faire basculer sur KVM.


Pourquoi ? (curieux de nature) :)

Ca avait l'air bien joli tout plein avec drdb et lvm votre affaire...

--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Stéphane Rivière

Avé Romain,

La GUI n'est... qu'une GUI : pas du tout obligatoire pour utiliser 
Proxmox. (Cli & API complète et utilisable avec terraform).


Je savais même pas qu'il y avait une CLI... Le con ! Mais ça changera 
pas mon point de vue sur le truc : certains adorent, je respecte ça, 
mais c'est pas pour moi...


D'autre part, le fait que ce soit une surcouche à Debian (il suffit 
juste de prendre une Debian standard, de rajouter le repo public de 
Proxmox et de faire un apt-get install proxmox-ve) c'est un peu ce que 
tu met en avant avec Xen non ?


Exact. Enfin, là c'est le repo std debian. Mais l'idée est la même.

Du coup ça se troubleshoot comme une Debian et "on est dans du standard 
linux" comme tu dis.


Oui.

J'ajoute que Xen à quand même connu des heures sombres en terme de 
"disponibilité en standard" (code du support dom0 qui a mis 1000ans 
avant d'être intégré au kernel linux vanilla) et le rachat par Citrix et 
divers fork et histoires de licensing n'ont pas été roses non plus!


Je plussoie. Xen aurait pu crever de tout ça... et pourtant non...

J'ai vécu les compils de noyau à rallonge pour des serveurs qui tournent 
toujours depuis 10 ans... Limite insane, mais c'est dans de l'intranet 
bien au chaud, et le truc il a 2000 jours d'uptime parce qu'un jour on a 
changé les processeurs et un disque... Bon j'ai ailleurs des serveurs 
qui tournent depuis 13 ans. Disques changés une fois (maintenance 
préventive).


Utilisateurs de Xen de la première heure (à l'époque ou ce n'était qu'un 
projet de recherche à Cambridge et à faire des trucs comme ça 
http://2010.rmll.info/XenoControl-a-High-Availability-Management-Console-For-Xen-Clusters.html :-)) 


Marrant on s'est croisé à cette rmll : je faisais la présentation flash 
dolibarr cette année là à l'ENSEIRB... J'ai bouffé à la cantine U juste 
a coté de RMS (il avait cette fois là un sac "carrefour" en guise de 
malette :)


J'ai trouvé le lien avec les PJ

http://2010.rmll.info/XenoControl-une-console-de-controle-a-haute-disponibilite-pour-les-clusters-Xen.html

Et ton œuvre... Joli boulot... Bizarre que j'ai pas capté sur le moment...

https://bitbucket.org/enix/xenocontrol/src/default/src/xenocontrol.py

Pour la live migration en 40ms... j'aimerai bien voir ça avec une VM de 
96GB qui bosse et du storage local attaché :-)


:) J'ai pas testé sur ces métriques...

Le pire qu'on avait fait à l'époque (c'était aussi en 2010 de mémoire), 
c'est 2 servs reliés avec des 2x1 Gbps bindées + 1Gbps chaque sur 
l'intranet, avec DRDB et je ne sais plus quelle glue logique en python 
de mémoire (c'était pas un français d'ailleurs l'auteur, je ne sais 
plus) pour faire de la vraie HA... On s'amusait à enlever une barette 
ram, un câble sata ou bêtement le câble secteur... Pendant un gros dl de 
DVD sous une VM windows ou Linux et voir la barre de progression freezer 
imperceptiblement et continuer le dl...


A l'ère du "pet vs cattle" (architecture logicielle résiliente à base de 
container & microservices : on peut (doit) se foutre complètement de 


J'en suis pas à ce niveau (et certainement que mon niveau n'en a pas 
besoin). Il faudrait que je regarde... Manque de temps...


Y a un côté cyclique dans tout ça. Xen existe depuis longtemps et est 
passé par des hauts et des bas.


Clairement. Mais je crois que là, on va dans la bonne direction (et 
c'était pas gagné).


Tu as visiblement serré les fesses quand c'était 'bas' du coup tu en 
ressors d'autant plus convaincu. Ça s'entend!


C'est ça. Exactement ça.

C'est pour ça que je comprends aussi parfaitement que d'autres trouvent 
proxmox à leur pied...


--
Stéphane Rivière
Ile d'Oléron - France


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Stéphane Rivière

- prod vm : Xen via XCP-NG (pour une fois qu'on a un truc français qui 
fonctionne)


Pas sous debian hélas, je suppose... (tu me confirmes ?)


Pas de Xen brut de décoffrage sur une Debian parce qu'il ne faut plus se 
prendre la tête pour privilégier d'autres choses plus importantes.


Aucune prise de tête. Ca tombe en marche. Un seul fichier de conf. 
Quelques commandes basiques. Rien d'autre.



Je suis plus tranché concernant Proxmox, c'est directement la benne et c'est 
tout.


+1


Même pour mes projets perso, x noeuds sous XCP-NG, ça juste fonctionne sans 
problème.


J'ai vu que c'est un projet initié par Laurent de Xen Orchestra (joli 
clickodrome pour XenServer, la version Xen proprio de Citrix) à cause de 
la nouvelle politique bien pourrie de Citrix réduisant les 
fonctionnalités dispos en libre...


Quelles sont les plus values de Xcp-ng par rapport à Xen standard ?

--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Anthony Frnog
Pour ma part je suis en train de migrer une infra esxi vers proxmox.

Proxmox intègre de base la migration a chaud, le HA


Le ven. 24 mai 2019 20:48, Jonathan Leroy  a
écrit :

> Je hijack scandaleusement ce thread pour une question un peu similaire
> : j'ai une veille infra Xen que je dois remplacer pour plusieurs
> raisons.
> J'aimerai partir sur du KVM. Comme je ne veux pas me prendre trop la
> tête à gérer la HA notamment, je pensais partir vers une solution
> tout-en-un.
>
> J'ai regardé rapidement ce qu'il se fait ici et là, et je suis pas mal
> tenté par Proxmox VE et OpenNebula mais n'ai pas encore eu le temps de
> tester plus en détail.
> Je suis preneur de vos avis (positifs ou négatifs) sur ces solutions. :)
>
>
> --
> Jonathan Leroy.
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Jonathan Leroy
Je hijack scandaleusement ce thread pour une question un peu similaire
: j'ai une veille infra Xen que je dois remplacer pour plusieurs
raisons.
J'aimerai partir sur du KVM. Comme je ne veux pas me prendre trop la
tête à gérer la HA notamment, je pensais partir vers une solution
tout-en-un.

J'ai regardé rapidement ce qu'il se fait ici et là, et je suis pas mal
tenté par Proxmox VE et OpenNebula mais n'ai pas encore eu le temps de
tester plus en détail.
Je suis preneur de vos avis (positifs ou négatifs) sur ces solutions. :)


-- 
Jonathan Leroy.


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Raphael Mazelier





 >  A part la raison financière (et/ou sécurité) je vois assez peu de 
cas pour faire un rollback sur du physique.


À part le fric et la sécu, il reste quoi ?

Ici, c'est trop cher pour ce que c'est, pas si fiable que ça, du bon 
vieux dédié chez OVH, ça juste marche au bon prix. C'est pas à la mode, 
il parait...




On ne peut pas limiter les infrastructures type "cloud" à la simple 
fourniture de vm(s)/instances. C'est pour cela que ce n'est pas qu'une 
question de mode mais plutôt une nouvelle manière d'envisager son 
infrastructure. C'est souvent aussi un arbitrage lié à la rapidité de 
mise en œuvre, et la pénurie de sysadmins.


--
Raphael Mazelier


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Romain Degez
Bonjour Stephane,

Effectivement Xen est un bel oubli dans la liste :-)

Maintenant je trouve que tu vas un peu vite en besogne en définissant
Proxmox comme "ne rajoutant qu'une couche clikodromesque à de l'existant
valable".
La GUI n'est... qu'une GUI : pas du tout obligatoire pour utiliser Proxmox.
(Cli & API complète et utilisable avec terraform).
D'autre part, le fait que ce soit une surcouche à Debian (il suffit juste
de prendre une Debian standard, de rajouter le repo public de Proxmox et de
faire un apt-get install proxmox-ve) c'est un peu ce que tu met en avant
avec Xen non ?
Du coup ça se troubleshoot comme une Debian et "on est dans du standard
linux" comme tu dis.

J'ajoute que Xen à quand même connu des heures sombres en terme de
"disponibilité en standard" (code du support dom0 qui a mis 1000ans avant
d'être intégré au kernel linux vanilla) et le rachat par Citrix et divers
fork et histoires de licensing n'ont pas été roses non plus!
Utilisateurs de Xen de la première heure (à l'époque ou ce n'était qu'un
projet de recherche à Cambridge et à faire des trucs comme ça
http://2010.rmll.info/XenoControl-a-High-Availability-Management-Console-For-Xen-Clusters.html
:-))
ça a suffit à nous faire basculer sur KVM.

Mais je te rejoins sur le fait qu'aujourd'hui Xen est une alternative à
Proxmox tout à fait valable (et la comparaison avec AWS est quand même
pertinente!).

Pour la live migration en 40ms... j'aimerai bien voir ça avec une VM de
96GB qui bosse et du storage local attaché :-)
A l'ère du "pet vs cattle" (architecture logicielle résiliente à base de
container & microservices : on peut (doit) se foutre complètement de perdre
un serveur) ça me semble beaucoup moins pertinent qu'avant même si ça reste
pratique pour gérer le legacy.

Quand au REX de la pilière du bar OVH... YMMV nous on a eu l’expérience
inverse :-)

Y a un côté cyclique dans tout ça. Xen existe depuis longtemps et est passé
par des hauts et des bas.
Tu as visiblement serré les fesses quand c'était 'bas' du coup tu en
ressors d'autant plus convaincu. Ça s'entend!

En tout cas merci d'avoir corrigé cet oubli!

++

-- 
Romain

On Fri, May 24, 2019 at 6:33 PM Stéphane Rivière  wrote:

>
> > Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions
> disposer
> > de la Haute Disponibilité avec si possible déplacement des VM a chaud.
>
> OpenStack, vu qu'on est pas OVH & Co, ça me semble légèrement
> disproportionné.
>
> Pour le reste, hormis Proxmox, qui ne fait que rajouter une couche
> clikodromesque (*) à de l'existant valable- personne n'évoque Xen...
>
> Dispo en standard sous Debian. D'une simpliplicité et d'une efficacité
> ridicules.
>
> Les dernières version déchirent, on est proche du natif, ça fait tourner
> à peu près n'importe quoi, c'est très mature et super tunable. Une
> relocation prend entre 40 et 60 ms.
>
> https://wiki.xenproject.org/wiki/Migration &
>
> https://www.suse.com/documentation/sles-12/book_virt/data/sec_xen_manage_migrate.html
>
> Il y a aussi des soluce de vraies HA, comme toute soluce similaire, il
> faut du réseau de chez réseau (10 Gbps ou plusieurs 1 Gbps boundées).
>
>
> Sinon en utilisation de base avec RaidSoftLinux+LVM : confort et
> sécurité. Après, comme on est dans du standard, on greffe ce qu'on veux
> au niveau de l'hyperviseur... et le reste suit...
>
> Cette remarque "on est dans du standard Linux" est (imho) essentielle.
>
> On greffe ce qu'on veux, pourvu que ça tournique sous Linux.
>
> Nos machines Xen n'ont même pas de VM routeur. Tout en standard
> réseau/iptables linux dans l'hyperviseur et les VM.
>
> Xen est assez invisible mais on le trouve un peu partout, y compris de
> plus en plus dans les voitures, entre autres... À part ça, il fait aussi
> tourner AWS, mais c'est pas une référence :>
>
>
>  >  A part la raison financière (et/ou sécurité) je vois assez peu de
> cas pour faire un rollback sur du physique.
>
> À part le fric et la sécu, il reste quoi ?
>
> Ici, c'est trop cher pour ce que c'est, pas si fiable que ça, du bon
> vieux dédié chez OVH, ça juste marche au bon prix. C'est pas à la mode,
> il parait...
>
>
> (*) C'est une interface connue et appréciée par beaucoup. De notre point
> de vue, c'est une couche "d'apparente simplification" qui ajoute donc de
> la "complexité cachée". Notre point de vue est qu'un jour, cette
> dernière se vengera...
>
> On a eu le cas d'une pilière du bar OVH qui venait de faire sa migration
> Proxmox vers Xen... Quelques temps après, j'ai eu droit à un message de
> remerciement car "si elle était resté sous Proxmox, elle n'aurait pu
> gérer l'incident aussi facilement". J'ai pas eu plus de détail mais
> comme c'est une vraie kador, je suppose que c'était pas du bluff...
>
>
>
> --
> Be Seeing You
> Number Six
>
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Florent H. CARRÉ (COLUNDRUM)
Bonjour tout le monde,

D'avance désolé pour le top posting (smartphone) et pour le décalage horaire.

De mon côté, c'est trois possibilités en fonction de ce qu'on veut faire :

- du simple et rapide : ovirt
- prod dans le style containers : OpenShift
- prod vm : Xen via XCP-NG (pour une fois qu'on a un truc français qui 
fonctionne)

Pas de Xen brut de décoffrage sur une Debian parce qu'il ne faut plus se 
prendre la tête pour privilégier d'autres choses plus importantes.

Je suis plus tranché concernant Proxmox, c'est directement la benne et c'est 
tout.

Je préfère qu'on finance de l'hardware de qualité afin d'avoir des vrais 
clusters de base de données et de vm que de payer des licences VMware.
Si les mecs veulent payer, qu'ils financent des noeuds pour les vm et le 
stockage.

Autre point, base de données en vm, je suis moins fan, je préfère du vrai 
physique dédiée pour cela, il faut avoir de la performance et donc l'hardware 
adapté surtout quand on a des triggers & co dans la db.

Même pour mes projets perso, x noeuds sous XCP-NG, ça juste fonctionne sans 
problème.

Bonne journée tout le monde

Florent

> On 24 May 2019, at 11:32, Stéphane Rivière  wrote:
> 
> 
>> Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions disposer
>> de la Haute Disponibilité avec si possible déplacement des VM a chaud.
> 
> OpenStack, vu qu'on est pas OVH & Co, ça me semble légèrement disproportionné.
> 
> Pour le reste, hormis Proxmox, qui ne fait que rajouter une couche 
> clikodromesque (*) à de l'existant valable- personne n'évoque Xen...
> 
> Dispo en standard sous Debian. D'une simpliplicité et d'une efficacité 
> ridicules.
> 
> Les dernières version déchirent, on est proche du natif, ça fait tourner à 
> peu près n'importe quoi, c'est très mature et super tunable. Une relocation 
> prend entre 40 et 60 ms.
> 
> https://wiki.xenproject.org/wiki/Migration & 
> https://www.suse.com/documentation/sles-12/book_virt/data/sec_xen_manage_migrate.html
> 
> Il y a aussi des soluce de vraies HA, comme toute soluce similaire, il faut 
> du réseau de chez réseau (10 Gbps ou plusieurs 1 Gbps boundées).
> 
> 
> Sinon en utilisation de base avec RaidSoftLinux+LVM : confort et sécurité. 
> Après, comme on est dans du standard, on greffe ce qu'on veux au niveau de 
> l'hyperviseur... et le reste suit...
> 
> Cette remarque "on est dans du standard Linux" est (imho) essentielle.
> 
> On greffe ce qu'on veux, pourvu que ça tournique sous Linux.
> 
> Nos machines Xen n'ont même pas de VM routeur. Tout en standard 
> réseau/iptables linux dans l'hyperviseur et les VM.
> 
> Xen est assez invisible mais on le trouve un peu partout, y compris de plus 
> en plus dans les voitures, entre autres... À part ça, il fait aussi tourner 
> AWS, mais c'est pas une référence :>
> 
> 
> >  A part la raison financière (et/ou sécurité) je vois assez peu de cas pour 
> > faire un rollback sur du physique.
> 
> À part le fric et la sécu, il reste quoi ?
> 
> Ici, c'est trop cher pour ce que c'est, pas si fiable que ça, du bon vieux 
> dédié chez OVH, ça juste marche au bon prix. C'est pas à la mode, il parait...
> 
> 
> (*) C'est une interface connue et appréciée par beaucoup. De notre point de 
> vue, c'est une couche "d'apparente simplification" qui ajoute donc de la 
> "complexité cachée". Notre point de vue est qu'un jour, cette dernière se 
> vengera...
> 
> On a eu le cas d'une pilière du bar OVH qui venait de faire sa migration 
> Proxmox vers Xen... Quelques temps après, j'ai eu droit à un message de 
> remerciement car "si elle était resté sous Proxmox, elle n'aurait pu gérer 
> l'incident aussi facilement". J'ai pas eu plus de détail mais comme c'est une 
> vraie kador, je suppose que c'était pas du bluff...
> 
> 
> 
> -- 
> Be Seeing You
> Number Six
> 
> 
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Stéphane Rivière




Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions disposer
de la Haute Disponibilité avec si possible déplacement des VM a chaud.


OpenStack, vu qu'on est pas OVH & Co, ça me semble légèrement 
disproportionné.


Pour le reste, hormis Proxmox, qui ne fait que rajouter une couche 
clikodromesque (*) à de l'existant valable- personne n'évoque Xen...


Dispo en standard sous Debian. D'une simpliplicité et d'une efficacité 
ridicules.


Les dernières version déchirent, on est proche du natif, ça fait tourner 
à peu près n'importe quoi, c'est très mature et super tunable. Une 
relocation prend entre 40 et 60 ms.


https://wiki.xenproject.org/wiki/Migration & 
https://www.suse.com/documentation/sles-12/book_virt/data/sec_xen_manage_migrate.html


Il y a aussi des soluce de vraies HA, comme toute soluce similaire, il 
faut du réseau de chez réseau (10 Gbps ou plusieurs 1 Gbps boundées).



Sinon en utilisation de base avec RaidSoftLinux+LVM : confort et 
sécurité. Après, comme on est dans du standard, on greffe ce qu'on veux 
au niveau de l'hyperviseur... et le reste suit...


Cette remarque "on est dans du standard Linux" est (imho) essentielle.

On greffe ce qu'on veux, pourvu que ça tournique sous Linux.

Nos machines Xen n'ont même pas de VM routeur. Tout en standard 
réseau/iptables linux dans l'hyperviseur et les VM.


Xen est assez invisible mais on le trouve un peu partout, y compris de 
plus en plus dans les voitures, entre autres... À part ça, il fait aussi 
tourner AWS, mais c'est pas une référence :>



>  A part la raison financière (et/ou sécurité) je vois assez peu de 
cas pour faire un rollback sur du physique.


À part le fric et la sécu, il reste quoi ?

Ici, c'est trop cher pour ce que c'est, pas si fiable que ça, du bon 
vieux dédié chez OVH, ça juste marche au bon prix. C'est pas à la mode, 
il parait...



(*) C'est une interface connue et appréciée par beaucoup. De notre point 
de vue, c'est une couche "d'apparente simplification" qui ajoute donc de 
la "complexité cachée". Notre point de vue est qu'un jour, cette 
dernière se vengera...


On a eu le cas d'une pilière du bar OVH qui venait de faire sa migration 
Proxmox vers Xen... Quelques temps après, j'ai eu droit à un message de 
remerciement car "si elle était resté sous Proxmox, elle n'aurait pu 
gérer l'incident aussi facilement". J'ai pas eu plus de détail mais 
comme c'est une vraie kador, je suppose que c'était pas du bluff...




--
Be Seeing You
Number Six


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Laurent Coustet
On 24/05/2019 16:28, Raphael Mazelier wrote:

[...]

>> Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions
>> disposer
>> de la Haute Disponibilité avec si possible déplacement des VM a chaud.
>>
> 
> Au risque de m'attirer les foudres de certains pour moi rien ne vaut
> Vmware pour monter un cluster de virtualisation on premise.
> Je ne dis pas que les solutions OSS ne fonctionnent pas mais cela
> demande beaucoup plus de temps et d'expertise.

[...]

Tout dépend de ce que tu connais. Pour un non initié, installer
un simple patch de sécurité sur VMWare c'est quelque jours
de recherches et de galères par exemple.

Je pense que cette vision est biaisée par des années d'expérience
avec cette stack logicielle.



-- 
Laurent



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Raphael Mazelier

On 24/05/2019 13:21, Lucas Viallon wrote:

Bonjour,

Bon je sais ce n'est pas trop réseau mais je pose quand même la question,
n’hésitez pas a faire des retours en privés pour ne pas ennuyer.

Après avoir externalisé nos serveurs dans des cloud de grand nom, nous
souhaitons maintenant les ré-internaliser. Nous avons eu de trop mauvaise
expérience (Attention, on ne cherche pas de nouveau prestataire ou cloud).



Je suis certain que beaucoup serait intéressés par les raisons de choix. 
A part la raison financière (et/ou sécurité mais ça on le sait au départ 
en général) je vois assez peu de cas pour faire un rollback sur du 
physique.



Nous avons donc un NAS haut de gamme bourré de SSD et supportant ISCSI,
plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 10G
bref que du bonheur pour moi en terme d’équipement.

Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox dans
la tête mais je voulais connaitre l'avis de ceux qui comme moi on rapatrié
ou on gardé en interne.

Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions disposer
de la Haute Disponibilité avec si possible déplacement des VM a chaud.



Au risque de m'attirer les foudres de certains pour moi rien ne vaut 
Vmware pour monter un cluster de virtualisation on premise.
Je ne dis pas que les solutions OSS ne fonctionnent pas mais cela 
demande beaucoup plus de temps et d'expertise. Alors certe cela a un 
coût, mais pour moi il est complètement justifié. Évidement cela dépende 
de ton besoin, tes compétences, tes finance, etc...


PS : attention à ne pas mélanger/comparer des solutions de 
virtualisation classiques (proxmox) à des trucs styles openstack (au 
passage je déconseille à part si tu veux fournir des services cloud à 
tes clients).


--
Raphael Mazelier




---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Raphael Jacquot



On 5/24/19 1:21 PM, Lucas Viallon wrote:

> Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions disposer
> de la Haute Disponibilité avec si possible déplacement des VM a chaud.
> 

je miserai probablement sur openstack alors

Raph


---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Arnaud BRAND

Hello,

Pour l'instant, chez nous en campagne/province, le mouvement est plutôt 
encore vers le cloud (ce qui ne nous réjouit pas forcément).
Sans vouloir hijacker le thread, quels sont les motifs qui vous ont 
poussé (ou ont poussé vos clients) à revenir en arrière ?


Sur la question initiale, sur infra "classique" (= comme toi, Lucas, 
baies de disques et SAN) on bosse beaucoup avec VMWare, satisfaisant 
depuis longtemps.

Après, c'est sûr, ça coûte des sous.

La volumétrie, typologie de machine, les attentes en termes 
d'automatisation, etc... seraient un réel plus pour orienter la réponse.


Quoi qu'il en soit, je suis preneur d'un retour d'expérience quand tu 
auras réinternalisé (car je devine des écueils que les cloud providers 
n'auront pas manqué de poser)


Bon WE
Arnaud


Le 2019-05-24 13:55, Romain Degez a écrit :

Bonjour Lucas,

Intéressant ce rétropédalage / sortie du cloud.
C'est une tendance qu'on constate un peu aussi du coup suis intéressé 
du

feedback si tu peux en dire un peu plus!

Pour répondre à ta questionj e dirais que ça dépend un peu du nombre
d'hyperviseurs (HV) & DC que tu veux gérer ainsi que des features que 
tu

attends de la solution.

Proxmox (que tu peux piloter avec Terraform.io derrière!) présente
l'avantage d'être assez simple, rock solid et de ne pas nécessiter un
contrôle plane séparé comme OpenStack par exemple : tu peux facilement
faire un cluster avec seulement 3 HV par exemple.
Mais tu n'auras pas vraiment les "services" un peu fancy que tu trouves
chez les cloud-provider en plus de la simple fourniture de VM.

Proxmox gère jusqu'à 32 Noeuds par cluster, supporte la live-migration 
et
un SAN iSCSI sans problème. (Ainsi que Ceph, et autres joyeuseté autour 
de

ZFS - d'ailleurs la version 0.8 d'OpenZFS vient de sortir et apporte du
lourd! https://github.com/zfsonlinux/zfs/releases )

Je dirais qu'oVirt est encore plus light que Proxmox en terme de 
feature

mais je l'ai moins utilisé donc je ne me prononce pas trop..

Tu n'as pas mentionné OpenNebula et CloudStack qui sont aussi des
alternatives que je placerai un peu entre Proxmox et OpenStack en terme 
de

features/complexité.
OpenNebula se positionne comme une alternative ou en tout cas une 
solution

relativement compatible avec un environnement VMWare existant (voir
https://opennebula.systems/opennebula/ & h
ttps://opennebula.systems/vonecloud/ 


 )
La promesse initiale de CloudStack (projet Apache) était d'offrir 
solution

de virt avec des API compatibles AWS EC2 et S3 et le projet à beaucoup
évolué depuis! (
http://docs.cloudstack.apache.org/en/4.12.0.0/releasenotes/about.html)

Pour OpenStack... c'est clairement la solution la plus riche (pas pour 
rien
qu'OVH se base dessus pour son offre public-cloud) mais aussi de loin 
la

plus complexe à intégrer et opérer donc il faut que l'envergure du
besoin/projet en vaille la peine.

++

--
Romain



On Fri, May 24, 2019 at 1:22 PM Lucas Viallon 
wrote:


Bonjour,

Bon je sais ce n'est pas trop réseau mais je pose quand même la 
question,

n’hésitez pas a faire des retours en privés pour ne pas ennuyer.

Après avoir externalisé nos serveurs dans des cloud de grand nom, nous
souhaitons maintenant les ré-internaliser. Nous avons eu de trop 
mauvaise
expérience (Attention, on ne cherche pas de nouveau prestataire ou 
cloud).


Nous avons donc un NAS haut de gamme bourré de SSD et supportant 
ISCSI,
plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 
10G

bref que du bonheur pour moi en terme d’équipement.

Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox 
dans
la tête mais je voulais connaitre l'avis de ceux qui comme moi on 
rapatrié

ou on gardé en interne.

Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions 
disposer

de la Haute Disponibilité avec si possible déplacement des VM a chaud.

merci d'avance
Lucas

---
Liste de diffusion du FRnOG
http://www.frnog.org/



---
Liste de diffusion du FRnOG
http://www.frnog.org/



---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Olivier Lange
Hello Lucas,

On a exactement la même réflexion, et je termine les POCs pour migrer de
Vmware a proxmox. Le choix est fait de notre côté car on a besoin de plus
de maîtrise de l'infrastructure, d'optimiser nos coût et de plus de
scalabilité.

Le choix de proxmox est défini parce qu'il est connu, en interne, et que
les fonctions nous conviennent. Et on pense prendre le support, en cas de
besoin.

Olivier

Le ven. 24 mai 2019 à 13:56, Romain Degez  a écrit :

> Bonjour Lucas,
>
> Intéressant ce rétropédalage / sortie du cloud.
> C'est une tendance qu'on constate un peu aussi du coup suis intéressé du
> feedback si tu peux en dire un peu plus!
>
> Pour répondre à ta questionj e dirais que ça dépend un peu du nombre
> d'hyperviseurs (HV) & DC que tu veux gérer ainsi que des features que tu
> attends de la solution.
>
> Proxmox (que tu peux piloter avec Terraform.io derrière!) présente
> l'avantage d'être assez simple, rock solid et de ne pas nécessiter un
> contrôle plane séparé comme OpenStack par exemple : tu peux facilement
> faire un cluster avec seulement 3 HV par exemple.
> Mais tu n'auras pas vraiment les "services" un peu fancy que tu trouves
> chez les cloud-provider en plus de la simple fourniture de VM.
>
> Proxmox gère jusqu'à 32 Noeuds par cluster, supporte la live-migration et
> un SAN iSCSI sans problème. (Ainsi que Ceph, et autres joyeuseté autour de
> ZFS - d'ailleurs la version 0.8 d'OpenZFS vient de sortir et apporte du
> lourd! https://github.com/zfsonlinux/zfs/releases )
>
> Je dirais qu'oVirt est encore plus light que Proxmox en terme de feature
> mais je l'ai moins utilisé donc je ne me prononce pas trop..
>
> Tu n'as pas mentionné OpenNebula et CloudStack qui sont aussi des
> alternatives que je placerai un peu entre Proxmox et OpenStack en terme de
> features/complexité.
> OpenNebula se positionne comme une alternative ou en tout cas une solution
> relativement compatible avec un environnement VMWare existant (voir
> https://opennebula.systems/opennebula/ & h
> ttps://opennebula.systems/vonecloud/ <
> https://opennebula.systems/vonecloud/>
>  )
> La promesse initiale de CloudStack (projet Apache) était d'offrir solution
> de virt avec des API compatibles AWS EC2 et S3 et le projet à beaucoup
> évolué depuis! (
> http://docs.cloudstack.apache.org/en/4.12.0.0/releasenotes/about.html)
>
> Pour OpenStack... c'est clairement la solution la plus riche (pas pour rien
> qu'OVH se base dessus pour son offre public-cloud) mais aussi de loin la
> plus complexe à intégrer et opérer donc il faut que l'envergure du
> besoin/projet en vaille la peine.
>
> ++
>
> --
> Romain
>
>
>
> On Fri, May 24, 2019 at 1:22 PM Lucas Viallon 
> wrote:
>
> > Bonjour,
> >
> > Bon je sais ce n'est pas trop réseau mais je pose quand même la question,
> > n’hésitez pas a faire des retours en privés pour ne pas ennuyer.
> >
> > Après avoir externalisé nos serveurs dans des cloud de grand nom, nous
> > souhaitons maintenant les ré-internaliser. Nous avons eu de trop mauvaise
> > expérience (Attention, on ne cherche pas de nouveau prestataire ou
> cloud).
> >
> > Nous avons donc un NAS haut de gamme bourré de SSD et supportant ISCSI,
> > plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 10G
> > bref que du bonheur pour moi en terme d’équipement.
> >
> > Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox
> dans
> > la tête mais je voulais connaitre l'avis de ceux qui comme moi on
> rapatrié
> > ou on gardé en interne.
> >
> > Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions
> disposer
> > de la Haute Disponibilité avec si possible déplacement des VM a chaud.
> >
> > merci d'avance
> > Lucas
> >
> > ---
> > Liste de diffusion du FRnOG
> > http://www.frnog.org/
> >
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/


Re: [FRnOG] [MISC] Solution de virtualisation

2019-05-24 Par sujet Romain Degez
Bonjour Lucas,

Intéressant ce rétropédalage / sortie du cloud.
C'est une tendance qu'on constate un peu aussi du coup suis intéressé du
feedback si tu peux en dire un peu plus!

Pour répondre à ta questionj e dirais que ça dépend un peu du nombre
d'hyperviseurs (HV) & DC que tu veux gérer ainsi que des features que tu
attends de la solution.

Proxmox (que tu peux piloter avec Terraform.io derrière!) présente
l'avantage d'être assez simple, rock solid et de ne pas nécessiter un
contrôle plane séparé comme OpenStack par exemple : tu peux facilement
faire un cluster avec seulement 3 HV par exemple.
Mais tu n'auras pas vraiment les "services" un peu fancy que tu trouves
chez les cloud-provider en plus de la simple fourniture de VM.

Proxmox gère jusqu'à 32 Noeuds par cluster, supporte la live-migration et
un SAN iSCSI sans problème. (Ainsi que Ceph, et autres joyeuseté autour de
ZFS - d'ailleurs la version 0.8 d'OpenZFS vient de sortir et apporte du
lourd! https://github.com/zfsonlinux/zfs/releases )

Je dirais qu'oVirt est encore plus light que Proxmox en terme de feature
mais je l'ai moins utilisé donc je ne me prononce pas trop..

Tu n'as pas mentionné OpenNebula et CloudStack qui sont aussi des
alternatives que je placerai un peu entre Proxmox et OpenStack en terme de
features/complexité.
OpenNebula se positionne comme une alternative ou en tout cas une solution
relativement compatible avec un environnement VMWare existant (voir
https://opennebula.systems/opennebula/ & h
ttps://opennebula.systems/vonecloud/ 
 )
La promesse initiale de CloudStack (projet Apache) était d'offrir solution
de virt avec des API compatibles AWS EC2 et S3 et le projet à beaucoup
évolué depuis! (
http://docs.cloudstack.apache.org/en/4.12.0.0/releasenotes/about.html)

Pour OpenStack... c'est clairement la solution la plus riche (pas pour rien
qu'OVH se base dessus pour son offre public-cloud) mais aussi de loin la
plus complexe à intégrer et opérer donc il faut que l'envergure du
besoin/projet en vaille la peine.

++

-- 
Romain



On Fri, May 24, 2019 at 1:22 PM Lucas Viallon 
wrote:

> Bonjour,
>
> Bon je sais ce n'est pas trop réseau mais je pose quand même la question,
> n’hésitez pas a faire des retours en privés pour ne pas ennuyer.
>
> Après avoir externalisé nos serveurs dans des cloud de grand nom, nous
> souhaitons maintenant les ré-internaliser. Nous avons eu de trop mauvaise
> expérience (Attention, on ne cherche pas de nouveau prestataire ou cloud).
>
> Nous avons donc un NAS haut de gamme bourré de SSD et supportant ISCSI,
> plusieurs serveurs pour faire des nodes, des switch cisco nexus 100% 10G
> bref que du bonheur pour moi en terme d’équipement.
>
> Aujourd'hui je dois choisir la solution software, de base j'ai ProxMox dans
> la tête mais je voulais connaitre l'avis de ceux qui comme moi on rapatrié
> ou on gardé en interne.
>
> Proxmox, OVirt, OpenStack que choisir ? sachant que nous aimerions disposer
> de la Haute Disponibilité avec si possible déplacement des VM a chaud.
>
> merci d'avance
> Lucas
>
> ---
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>

---
Liste de diffusion du FRnOG
http://www.frnog.org/