Bonjour,

J’hésite à répondre à toute la liste, le sujet étant un peu particulier, je ne suis pas sûr qu'il intéresse beaucoup de monde, de plus on a bien dévié de la question initiale.

Le 22. 09. 15 18:07, Stéphane Graber a écrit :
On Tue, Sep 22, 2015 at 10:01:22AM +0200, Daniel Cordey wrote:
On 21. 09. 15 20:29, Benninger Frédéric wrote:

Non plus vraiment, depuis la version 3.4 zfs est supporté par ProxMox.

Oui, mais j'imagine qu'il n'est pas facile de faire du scaling avec
ça. De plus, KVM n'est pas optimum au niveau perf (bien que 100 fois
meilleur que VMWare) et OpenVZ n'a ppus vraiment le vent en poupe.
Il serait plus rassurant s'ils avaient fait le choix de LXC !

LXC est prévu dans la V4

Niveau performance, c'est pas si géniale que ça, j'ai l'impression que
les VM se prennent parfois des gros lags.

Tu as donc une machine et plusieurs disques ? Le problème est que tu
es limité en nombre de canaux I/O avec un seul CPU... De plus, les
chipsets des machines non-haut-de-gamme sont assez mauvais en accès
concurrents sur le SATA (sans compter les limites du SATA). Il y a
donc une asymptote horizontale que tu ne pourras jamais dépasser et
qui n'est déjà pas très haute.

Mes tests se sont basés sur une config lowcost que je connais mal, avec chipset Z87 Express, et tout un tas de gadgets à configurer dans le BIOS. En prod j'ai du SAS, mais vu le prix des disques... le SSD devient aussi intéressant qu'une grappe disque.

Je vais certainement poursuivre dans cette voie et faire du fine tuning,
à moins que je passe directement sur un SSD NVMe 800Go.

Oui, forcément le SSD va t'amener de meilleurs perfs, mais... les
limites du SATA sont toujours là ainsi que celles du CPU unique. Qui
plus est, OpenVZ a un overhead non négligeable en I/O (disques) et
j'imagine que ça se dégrade lorsque tu as plusieurs disques.

Les limites du SATA ne s'applique pas à un SSD NVMe étant donné que NVMe
attache le SSD directement au bus PCI Express.


SI tu as plusieurs systèmes, pourquoi ne pas passer à CEPH ? De
plus, CEPH offre bien plus qu'une simple paralellisation des accès
du type RAID0; deduplication, redondance, etc.

Idéalement, je passerais à CEPH ou GlusterFS, mais je n'ai pas les prérequis, d'après la littérature, le prix d’entrée est également élevé; SSD entreprise pour les logs et les journaux, réseau 10Gbit et 3 configs identiques, j'ai choisi de lisser les investissements et la charge de travail en ne changeant qu'un serveur par année.

En ce qui concerne la virtualisation, j'envisagerais du Docker/CoreOS
qui a l'avantage de permettre de monter en puissance facilement.

Dans un concept de virtualisation de systèmes Windows sous Linux, Docker me semble pas encore possible puisqu' il est basé sur LXC. Étant donné que je dois principalement rapatrier des applications tournant sur des postes opérateurs. ( pc isolé ) Si je veux maîtriser le budget, et éviter de trop me salir les mains, KVM me semble la solution, je me simplifie la vie en centralisant les backups, m’affranchis du matériel, gère finement les règles d'accès avec le firewall et fait une utilisation rationnelle de l'énergie. Je laisse à l'opérateur écran, clavier souris et remplace son PC par un raspberry Pi, administré via Ansible. Sans le savoir, l'opérateur fait du RDP jusqu'à sa VM.

C'est temporaire, dans peu de temps, on ne parlera bientôt plus du "poste opérateur" qui parfois n'était même pas connecté au réseau et ne recevait jamais de mises-à-jours, les fournisseurs se tournent lentement, pour le meilleur ou pour le pire, vers des solutions SaaS.

Salutations
  F.Benninger
_______________________________________________
gull mailing list
[email protected]
http://forum.linux-gull.ch/mailman/listinfo/gull

Répondre à