Ahoj, 2009/9/11 Richard Willmann <[email protected]>: > Pozdravujem pani, > > ma prosim niekto v produkcii nasadene "jumbo frames"?
u mnoha zakazniku to nastavujeme, ale vzdycjy je potreba vedet proc a jak > Doteraz som to nikdy nepotreboval. Zatial som zistil nasledovne: > > * bge to podporuje, > * nastavuje sa to zvysenim MTU (az do hodnoty 16110 bajtov) prostrednictvom > ifconfig alebo route - aka hodnota je optimalna? Ahoj, 2009/9/11 Indigo <[email protected]>: > Tak ja jenom dopnim ze tohle resi RFC 1191 a ze specialne ve Windows svete > neni uplne 100% plneno. Takze za sebe doporucuju na MTU nesahat. MTU se dneska nastavuje vetsinou pro SAN (Storage Area Network) pracujici nad ethernetem. Tzn. iSCSI a FCoE V malych lokalnich SAN zalozenych na ethernetu vetsinou neni zadny routing a vse se odehrava na L2, takze by vsechny prvky po ceste mely mit stejne MTU. V uloznych sitich jde o to, ze kdyz se prenasi diskovy blok, ktery je vetsinou 2-16kB, po ethernetu, kde je defaultne MTU 1500B, tak je tam velka fragmentace a neni to efektivni. Proto se tam vetsinou nastavuji MTU na 9000. SAN by vsak mela byt provozovana na uplne oddelene ethernetove siti od LAN. > * su evidovane pripady, kedy nie je mozne nadviazat spojenie v pripade, ze > na jednej strane su jumbo frames povolene a na druhej nie - tomuto celkom > nerozumiem, napada niekoho preco by to malo takto byt? Kdyz nektere zarizeni po ceste v L2 siti neumi fragmentovat/defragmentovat. > * zvysenie priepustnosti nie je nikde deklarovane, nenasiel som ziadne > porovnania az na par, nie priliz doverychodnych - ak to niekto pouziva, > podelite sa prosim o nejake cisla? Hlavne se to projevi v mensi zatezi CPU u softwarovych iSCSI initiatoru a targetu. > * na niektorych formach som si vsimol poznamky o negativnom dopade zvysenia > MTU na latenciu - stretol sa s tym niekto? To uz vysvetlil Dan. > V mojom pripade bude na druhej > strane NFS server, nizka latencia je dolezita. S NFS serverem je to tezsi. Bud je zapojeny do normalni LAN, kde je MTU 1500 a poskytuje souborove sluzby pres tuto klasickou LAN a tam bych MTU nezvedal. Nebo si NFS server dam do dedikovane site (jiny L2 segment). Na serverech (NFS klientech) budu mit specialni sitovku zapojenou do specialniho/specialnich switchu a vsude po ceste nastavim MTU 9000. Tim by se mohlo ulevit procesorum na obou stranach a zvysit vykon cteni/zapisu v MB/s. Sit ale casto neni tim nejuzsim mistem a je potreba vedet, jestli mi to stihaji treba disky. Hlavne u nahodneho cteni malych souboru. > * pozna niekto efektivny, maly a rozumny nastroj na testovanie raw > priepustnosti medzi dvoma boxami na urovni TCP/UDP? Idealne nieco naozaj > velmi jednoduche a zkompilovatelne aj na Solarise. ttcp a nebo lidi od storagu casto pouzivaji IOmeter, aby byli schopni nasimulovat i diskovou zatez. Hlavne si tam muzes nastavit velikosti diskovych bloku, apod. David. -- FreeBSD mailing list ([email protected]) http://www.freebsd.cz/listserv/listinfo/users-l
