Bonjour Pierre,
Ton client n'utiliserait-il pas une Unifi Security Gateway par hasard ??
[image: image.png]
Le mer. 24 juil. 2019 à 15:51, Radu-Adrian Feurdean <
fr...@radu-adrian.feurdean.net> a écrit :
>
>
> On Wed, Jul 24, 2019, at 00:24, Pierre Colombier wrote:
>
> > Ensuite il se
Michel Py (michel) writes:
> > Quentin Leconte a écrit :
> > Je laisse Guillaume te répondre, il sera plus à même de te donner des
> > détails, il était en première ligne.
> > Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To
> > en prod. ;)
>
> Je lirai avec intérêt
> Quentin Leconte a écrit :
> Je laisse Guillaume te répondre, il sera plus à même de te donner des
> détails, il était en première ligne.
> Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To
> en prod. ;)
Je lirai avec intérêt la suite. J'étais justement en train de
Je laisse Guillaume te répondre, il sera plus à même de te donner des détails,
il était en première ligne.
Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de To en
prod. ;)
> Le 24 juil. 2019 à 22:14, Kevin Decherf a écrit :
>
> Hello,
>
>> On Wed, Jul 24, 2019 at
Hello,
On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
> Salut !
>
> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
>
> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox,
> avec pertes des données, c'est déjà arrivé. #vécu
Je
Au prix du SSD, je te conseille du full SSD. Je viens de monter un cluster
de 5 machine (AMD epyc 16/32, 128go RAM extensible a 512) avec 4ssd 2to et
un nvme pour le système/log, par machine. Le tout en sfp+ 10g dédié pour la
synchro et le wan.
Ça dépote !
Olivier
Le mer. 24 juil. 2019 à 19:13,
Hello,
Je te conseil d'ajouter des nodes, mais avec un certain nombre de disque, si tu
peux avoir un cluster homogène c'est encore mieux.
Genre si tu peux coupler le SSD avec le HD c'est mieux. SSD pour les logs, car
ça gratte à mort, et HD pour de la donnée brute.
L'idéal c'est de faire du
Salut !
Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster proxmox,
avec pertes des données, c'est déjà arrivé. #vécu
Bon courage !
Le 24/07/2019 18:49, « David Ponzone » a écrit :
Et côté équilibre
Et côté équilibre en HD entre les nodes, on fait ce qu’on veut ?
Exemple: j’ai 3 nodes avec chacun 2x2TB dédiés à Ceph.
J’ai plus assez de place:
-je rajoute forcément un node
-j’ajoute pas de node mais je rajoute un HD dans chaque node
-j’ajoute pas de node mais je rajoute un HD seulement dans un
Oui et c'est même conseiller. Dans les deux cas :)
Kevin LABECOT
Responsable Infrastructure
Service Informatique
Le 24 juil. 2019 à 18:29 +0200, David Ponzone , a
écrit :
> Utilisateurs/Maitres de Ceph,
>
> 2 petites questions avant que je commence à jouer:
> -dans un cluster Proxmox/Ceph, on
Utilisateurs/Maitres de Ceph,
2 petites questions avant que je commence à jouer:
-dans un cluster Proxmox/Ceph, on peut avoir un port réseau pour l’accès à
Internet, et un second port pour uniquement les échanges de Ceph, ou c’est tout
sur le même ?
-si on peut séparer, je suppose qu’il est
On Wed, Jul 24, 2019, at 00:24, Pierre Colombier wrote:
> Ensuite il se trouve qu'en théorie, je ne vends pas plus de 100M mais
> qu'en pratique je ne bride pas et même si ce n'est pas dans le contrat,
> je le dis et c'est un argument. => là c'est abuser de ma gentillesse
> donc ça me
Merci pour les retours.
Je pense bien que le CCR1009-7G-1C-1S+ va correspondre à ce que je cherche. Je
vais lui faire une place dans une de nos baies
Pour l'IPv6 j'ai tourné un peu en rond sur les CPE Mikrotik, donc je n’oublie
pas d'activer le package IPv6.
Je pense que cela sera la même
Le 23/07/2019 à 21:20, Pierre Colombier a écrit :
> Bonjour la liste,
>
> Je sais qu'on est pas trolldi mais ça presse un peu.
>
>
>
> J'aurais besoin d'une liste des IP de serveurs de speedtest.net /
> ookla / nperf et autres exploseurs de commit.
>
> ou d'une méthode pour la récupérer ou pour
14 matches
Mail list logo