On Sunday 11 July 2010 21:21:50 Łukasz Jagiełło wrote: > W dniu 11 lipca 2010 18:00 użytkownik Paweł Sikora <[email protected]> napisał: > >> R10-over-eth. > >> ^ ^ ^ ^ ^ ^ > >> master: | | | | | | > >> ------------------------------------------------------- > >> +--|----|--+ +--|----|--+ +--|----|--+ AoE (ata-over-eth) > >> slaves: | hd0 hd1 | | hd0 hd1 | | hd0 hd1 | > >> +----------+ +----------+ +----------+ > > > > i wszystko prawie fajnie, tylko jak teraz taki softwarowy raid10 > > podpiac na stacjach klienckich zeby nie stracic zbytnio na szybkosci? > > ktos moze praktycznie eksperymentowal? > > Nie wiem jak twoje rozwiązanie, ale od pewnego czasu poszukuje > wydajnego rozwiązania pod NFS(lub coś na ten gust) które będzie > skalowalne i odpowiednio odporne na awarie. Dodatkowo planowałem > zrobić to nie wydając setek tysięcy złotych na macierz. Po testach > aktualnie najlepiej wygląda Gluster Storage Platform > (http://www.gluster.com/), całkiem ładnie to działa i nie ma dużego > impaktu na wydajność nawet jeżeli łącze się z użyciem ich natywnego > protokołu po fuse. No i można robić RAID pomiędzy maszynami. RAID10 > nie zrobisz, ale może wystarczy kilka RAID1 z różnych maszyn.
ja zrobilem tak: fefnascie maszyn (kazda z 2 dyskami) eksportuje dyski przez AoE do gigowego switacha 3com. jeden master (poki co na sieciowce z plyty, a docelowo na 2/4 kanalowym intelu) spina w mdadm/raid10 dyski AoE tak, aby mirrory powstawaly miedzy sasiednimi komputerami (przez takie spiecie w razie strzalu napiecia z zasilacza padaja tylko fragmenty dwoch mirrorow i macierz-10 dziala nadal). w optymistycznym padzie moze zginac (n/2)-1 komputerow (co drugi sasiad) i calosc bedzie dzialac jako stripe na zdegradowanych mirrorach. w pesymistycznym padzie gina dwa sasiadujace kompy, ze stripe-a wypada caly mirror, macierz robi halt, ocfs2 sie ladnie rozlacza. fault tolerance przyzwoity, koszty niskie, jak na plac dla developerow mi wystarczay :) _______________________________________________ pld-users-pl mailing list [email protected] http://lists.pld-linux.org/mailman/listinfo/pld-users-pl
