Ahoj, 2014-03-06 22:30 GMT+01:00 Dan Lukes <[email protected]>: > Neodpovim protoze nevim, misto toho se zeptam ... > > Duvod ? Mel jsme dojem, ze iSCSI ma za srovnatelnych sitovych okolnosti > nutne horsi pruchodnost. Ale nemeril jsem, je to jen odhad ... > > Dan
Take neodpovim upne konkretne, protoze jsem zatim nikdy nebyl nucen zprovoznovat iSCSI iniciator na FreeBSD. Zatim jen na Linuxech a Windows. Na FreeBSD si v labech provozuji iSCSI target (iSCSI storage) v predpripravene podobe FreeNAS. Nicmene FreeBSD 10 asi iSCSI dost meni a snad k lepsimu viz. https://www.freebsd.org/doc/handbook/network-iscsi.html Informace v handbooku ti nepomohou k reseni tve puvodni otazky? Nicmene tady je odpoved na Danuv dotaz. Jelikoz jsou storage poslednich nekolik let muj denni chleba, tak mohu zodpovedne prohlasit, ze rozhodne neplati to, ze by iSCSI za srovnatelnych sitovych okolnosti melo horsi pruchodnost. Predpoklady: - sit je LAN - LAN umoznuje JumboFrames (ne ze by JumboFrames vzdy pomohly, ale casto ano) - iSCSI storage (target) je neco dostatecne dobreho - vim ze je to dost obecny predpoklad :-) Vyhoda iSCSI oproti NFS je v tom, ze umoznuje tzv. multipathing, coz vyrazne zvysuje pruchodnost. Takze mam-li 4x1Gb jen pro iSCSI, tak mohu efektivne dosahnout throughput az 400-500MBps. Na NFS logicky podobneho multipathingu a logickeho zbundlovani dosahnout nemuzu, protoze i kdyz pouziji LACP agregaci ke zbundlovani vice interfacu, tak je loadbalancing vzdy zavisly na load balancing algoritmu, ktery mi nikdy nerozbalancuje komunikaci mezi stejnym src-IP a dst-IP, coz u NFS spojeni vzdy bude. Dalsi potencialni vyhoda iSCSI je to, ze se to tvari jako blokove zarizeni. iSCSI ma i sve nevyhody. Drive, nez jsem se naucil Fibre Channel, jsem iSCSI dost preferoval. Dnes zatim spise preferuji Fibre Channel a do budoucna asi FCoE. Obecna vyhoda iSCSI mela byt v tom, ze administratori rozumi ethernetu a IP, takze to bude levnejsi a jednodussi. Problem je v tom predpokladu, ze admini rozumi ethernetu a IP. Z mych zkusenosti tomu tak neni - pozor nemluvim a FreeBSD a Linux adminech ;-) Nekdo tady zminil FCoE (Fibre Channel over Ethertnet). Ano to je nastupujici trend, ktery razi treba CISCO. Dava to smysl, ale opet to vyzaduje dobrou znalost ethernetu a prioritizace. Storage prenos (SCSI) musi byt bez-ztratovy (lost less). K tomu je vsak zapotrebi switche podporujici lost-less ethernet (tzv. DCB - data center bridging) a ty zatim nejsou levne a take tomu rozumi malokdo. Mimochodem paradoxne i pro iSCSI je lost-less ethernet velmi vyhodny, i kdyz by si clovek rekl, ze to preci zajisti TCP, ale ono delat caste retransmity rozhodne storage prenosu nepomuze. Vyhoda FCoE je v tom, ze nemusim mit dedikovane switche pro LAN a SAN, ale je to zkonvergovane do jedne sitove infrastruktury. Drive byl cisty Fibre Channel draha zalezitost. V dnesni dobe je FC 8Gb HBA stejne drahe jako 10Gb sitovka. 8Gb FC Switche jsou dnes dokonce levnejsi nez datacentrove 10Gb ethernetove switche, takze cenove vyhody FCoE jsou znatelne jen ve vetsich prostredich. Nicmene konvergence je neuprosna a odhaduji, ze casem klasicky FC zmizi a bude nahrazen FCoE. Vyber mezi iSCSI, FC, FCoE, a NFS je vzdy zavisly na tom, co od toho pozaduji a jake mam moznosti a omezeni. NFS je obecne vhodny pro sdileni souboru mezi vice systemy - na to byl udelan. Blockove storage protokoly (FC, iSCSI, FCoE) jsou vhodne pro pripojeni blokovych disku k jednomu serveru a nebo k vice serverum podporujici nejakou formu clusteringu. Mimochodem cela story neni jen o protokolu, ale i o konkretnich implementacich a produktech, takze se muze stat, ze za urcitych podminek neplati obecne povidani, ktere jsem tady sepsal. David. -- FreeBSD mailing list ([email protected]) http://www.freebsd.cz/listserv/listinfo/users-l
