Bonsoir,
En fait, et si c'est bien ce que je crois, le lossless dans le cas des Nexus
est liée a l’arrivée de FCoE, donc la nécessité d'avoir une classe de
service sur laquelle la perte de paquet n'est pas tolérable.
C'est une amélioration de la fonction pause qui existait déjà dans Ethernet,
mais s'appliquait a toute l'interface, alors que la, ça s'applique a une
file hardware uniquement (mappee sur une classe de service du coup). C'est
un sous segment de Datacenter Bridging, la fameuse 802.1Qbb, ou
Priority-based flow control (
http://en.wikipedia.org/wiki/Priority-based_Flow_Control), mais pour que ce
soit valable, il faut :
1) une CNA cote serveur
2) du switch compatible 802.1Qbb cote access
3) configurer la classe de service qui va bien sur les Nexus*, et mapper du
trafic dedans, en général le trafic FCoE
* Ou Brocade/Juniper/Arista compatible avec cette norme, ne froissons
personne.
Apres l’intérêt d'un lossless sur du trafic TCP/IP qui
par définition gère la congestion par diminution de la fenêtre d'envoi des
qu'un équipement du réseau commence a dropper des paquets, hein ... a part
si vraiment on veut s'amuser a exploser les buffers des switchs pour
s'amuser ?
Sur du pur UDP, genre du RTP, a la limite, mais je connais
peu d’hébergeur acceptant d’héberger des RTP Forwarders (pour cause).
En plus, y a un cote dangereux a PFC : plus la distance augmente plus
l'impact cote taille des buffers des interfaces est enorme.
Cf le white
paperhttp://www.cisco.com/en/US/prod/collateral/switches/ps9441/ps9670/white_paper_c11-542809_ns783_Networking_Solutions_White_Paper.htmlde
Cisco sur le sujet, sur les Nexus, il ne faut pas depasser 50m entre
le
Nexus 5k et la CNA du serveur.
C'est donc bien pour du FCoE *, donc un truc tout neuf déployé en Top of
Rack sur du twinax ou de la fibre (car cerise sur le gateau, en 10G-BaseT,
le temps de sérialisation se compte en microseconde, donc trop long pour
activer PFC sans exploser les buffers des switchs...).
* eventuellement iSCSI, mais vu que tu achetes une CNA, autant faire du
FCoE. Rien que dans Nexenta c'est supporte, et au moins t'as toute la stack
SAN avec les VSAN et le zoning, ca evite les confs LUN masking cote
baie. Je dis ca, venant du reseau le zoning me parait toujours
plus cohérent que le LUN Masking, mais bon c'est personnel.
A+
Guillaume
PS : le C6K date de
1999http://blogs.cisco.com/news/the_unified_computing_story_or_ciscos_history_in_the_data_center/,
en 2005-2006 y avait déjà les SUP720 et les cartes ACE, mais
le châssis etait la depuis bien plus longtemps !
PS2 : le Nexus 7k tourne OSPF/BGP et même MPLS depuis la 5.2, et tout ca en
dualstack, et avec la full routing Internet si besoin. Pour beaucoup c'est
amplement suffisant comme routage...
2011/9/23 o...@ovh.net
si on utilise les switchs de la gamme cisco nexus on
appele ce reseau lossless (moi je prefere lostless)
et si on utilise du (simple) catalyst on n'appele pas
ce reseau avec un nom commercial. c'est du reseau.
c'est tout.
si vous voulez connaitre les avantages côté marketing
de nexus et catalyst il y a un site pour ça www.cisco.com
de point de vue client ce que moi je voie comme avantage
est que le port du serveur est passif et il est attaché
sur 2 équipements actifs. c'est comme spantree mais c'est
du port channel, virtual port channel si on veut être
precis. on utilise donc tous les liens et donc on a pas
mal de bp. ça permet de mettre à jour tous les équipements
à chaud sans generer de panne. quand c'est interessant ?
dans le cas de stockage car si votre serveur iSCSI
perd quelques packets rapidement votre filesystem est
down. jusqu'au là il fallait mettre 2 équipements sur
2 cartes reseaux avec multi path en iSCSI. avec le reseau
lostless(c) on peut tourner avec 1 seul port pour le
même type de fonctionnement. puis il y a plein d'autres
avantages point de vue technique et gestion dans le
datacentre. puis le cout 10G, puis le fait qu'on peut livrer
du 1G avec la bp garantit sur l'ensemble du reseau
interne qui est très interessant (encore une fois) pour
le stockage. ça fait par exemple presque 2 ans qu'on
livre les serveurs avec du 10G en volume, pour qui ?
pour les clients qui font 2-3Gbps de trafic interne.
on boucle ..
apres, on va dire que catalyst c'est du beton en terme
de fiabilitée et bug, mais côté cout, capacité de commutation
qos, etc ça date des années 2005-2006. d'où la penurie
de bug et la richesse de la plateforme dans sa globalité.
nexus ne sait pas (bien) router par exemple. c'est un
super L2, mais côté L3 c'est pas vraiment fait pour.
pour finir parlons brutalement:
- kimsufi, sp sont connectés en catalyst
- eg 1G, mg 10G, hg 10G sur nexus avec 1 port reseau
- pcc 1G ou 10G sur nexus avec 2 ports reseaux
comme cette ml n'est pas ovh, ça sera tout pour moi.
On Fri, Sep 23, 2011 at 04:41:55PM +0200, Julien Escario wrote:
Le 23/09/2011 16:34, Fabrice a écrit :
C'est dans le cadre d'un serveur dédié chez le trés