Les stacks en environnement DC je trouve pas ça tip-top. 4500 ou 6500 avec
les arguments qui vont bien (non on parle pas du prix ;) )

Un client m'a remonté un problème sur un 3750 stack-pas-tres-Wise et j'ai
testé ça en lab:

Sur le master tu configure ip vrf forwarding XXXXX , tu sauvegardes la
config, tu perds le courant sur ton master. Le slave passe Master et le
Master passe slave a son retour.

Maintenant tu fais un show run et tu t’aperçois que t'as perdu la commande
qui attribue une VRF a ton port ..... fun isnt it ?

Pour ceux qui veulent tester et jeter un oeil : CSCtn46230

Une nouvelle version devrait corriger le bug assez rapidement.



Le 18 mars 2011 00:21, Thery <clement.th...@aciernet.com> a écrit :

> Sans aucune hesitation, deux n5k en tete en 10g les n2k en dessous, il
> existe meme des bundles cisco 2x n5k 20 port  plus 6x n2k pour 40000€
> remisé. Dans les bundles tu as meme 40 FET inclus pour tes interco, As tu
> besoin des ref de ces bundles ? Il y en 3-4 differents. Salut
>
> Envoyé de mon iPhone
>
> Le 17 mars 2011 à 23:33, Rachid Zitouni <rachid.zito...@gmail.com> a
> écrit :
>
> Hello,
> Assez d'accord sur la solution virtuel châssis. Chez cisco il y a la gamme
> nexus 5k avec les modules nexus 2 k qui offre une bonne densité de ports et
> une couverture assez large pour les besoins de connectivité serveurs avec un
> upgrade a chaud possible ( issu) Pour simplifier ta distribution cuivre tu
> peux partir sur une distrib cuivre en top of rack et y placer tes nexus 2k.
> Pour la scalabilite, c'est 500 vlan en mst et 250 en pvst, 480 ports
> serveurs en lacp dans une certaine configuration sinon ce sera du teaming.
> Cote prix : bien remplit (480 ports) un virtuel châssis redonde coûte moins
> cher que 2 stack de la gamme 3750g  et maintenant 3750x. Cote management les
> deux solutions se valent sauf pour la supervision et le monitoring (XML vs
> snmp). Autre point : issu est en roadmap je crois sur la gamme 3750x a
> vérifier ...
>
> A+
> Rachid
>
> Le 17 mars 2011 à 22:04, "Fregate84" < <fregat...@free.fr>
> fregat...@free.fr> a écrit :
>
>  Les virtuals chassis c’est pas mal. 2 gros switch indépendant mais vu
> comme un seul. Comme ca pas de spanning tree, tout en LACP …. Et une bonne
> redondance. Bon par contre ca coute un peu plus chère que des swich en stack
> …
>
>
>  ------------------------------
>
> *De :* <owner-fr...@frnog.org>owner-fr...@frnog.org [mailto:
> owner-fr...@frnog.org] *De la part de* Raymond Caracatamatere
> *Envoyé :* jeudi 17 mars 2011 21:54
> *À :* <frnog@frnog.org> <frnog@frnog.org>frnog@frnog.org
> *Objet :* [FRnOG] Switch en stack ou pas?
>
>
>
> Bonjour à tous,
>
> Je dois réfléchir à une architecture réseau "très haute-disponibilité", et
> je me pose des questions sur ce qu'il est mieux de faire au niveau des
> switchs.
> Il est indispensable de double attacher les serveurs pour la redondance
> (utilisation aussi de bladecenter DELL M1000e), et j'aimerai avoir vos avis
> sur les stack de switch.
> Avec 2x5 baies, je peux faire 2 stacks de 5 switchs par rangé de baie.
>
> Les stacks c'est sexy car l'administration est sympa et simplifiée, et
> surtout on peut utiliser le Pvlan (ou similaire) j'en suis fan et le LACP,
> par contre les mises à jour de firmware c'est triste quand il faut couper
> tout le stack ... ou bien quand tout ton stack à un soucis.
> D'après vos expériences, plutôt le stack ou plutôt les switchs seuls ?
>
> Et le double attachement des serveurs plutôt en spanning-tree (cela me
> semble très très moche) ou plutôt en teaming ?
> Il existe une solution miracle?
>
> Si vous avez des idées pour faire balancer mon cœur :)
>
> Merci beaucoup
>
> Ray
>
>
>
>

Répondre à