la gfs cvorumul clusterului hotaraste ca sa-i dea in cap gigelului care a luat-o razna; in functie de metoda de fencing aleasa ori taie un port in switch, ori ii da shutdown prin ilo sau varianta corespondenta de la dell, posibil si alte metode dar n-am stat sa ma uit mai mult ca nu aveam ce cereau ei pe acolo cred ca la mine e de vreun an-doi, s-a tot scris pe el, posibil si sters dar mai putine operatii; la cum e facut fs-ul nu cred ca e vorba de fragmentare, plus ca oricum trece si printr-un cache de storage deci deja cu atat mai putin am control la cum e scris efectiv pe disc; iar deja fragmentarea in linux nu prea mai conteaza, fiindca filesystem-urile sunt facute in asa masura inca sa conteze intr-o masura mult prea mica daca un fisier e fragmentat sau nu ... cred ca o solutie buna ar fi sa mai incerc cu inca o partitie sa vad daca pe aia merge brici la inceput macar; dar asta inseamna niste reboot-uri la servere (ca multipath-ul mai dadea rateuri la chestii hot-change), si nu prea e o idee buna
2011/10/14 Laurentiu Gosu <[email protected]> > > -----Original Message----- > From: Alex 'CAVE' Cernat [mailto:[email protected]] > Sent: Friday, October 14, 2011 14:43 > To: Romanian Linux Users Group > Cc: Laurentiu Gosu > Subject: Re: [rlug] SAN - ocfs2 > > On 10/14/2011 12:33 PM, Laurentiu Gosu wrote: > > Salut *, > > Planuiesc sa construiesc o solutie de storage SAN-based. Storageul(deja > cumparat) este "expus" prin 10gb Ethernet iSCSI. Nodurile o sa fie masini > CentOS 5.X. Performanta si stabilitatea sunt critice. > > Dupa ce am citit si rascitit pe google am ajuns la urmatoarea > > configuratie pe care o testez acum: iscsi-multipath-lvm(eventual > clvm)-ocfs2 Am ales ocfs2 in dauna lui gfs2 dupa ce am citit (si) > recomandarea de mai demult a unui colistas. > > As aprecia daca mi-ati impartasi experientele voastre legate de medii > SAN, ocfs2 v1.6(sau oricare alta versiune), clvm+fencing(e posibil fencing > software in clusterul redhat?..adica shutdown printrun script la porturile > din switch). > s-ar putea sa fi fost recomandarea mea, nu mai stiu, cert este ca am > folosit si gfs2 si ocfs2 (cred ca e 1.4 versiunea, ca e de ceva vreme) la > gfs dupa cum ziceam cand mergea mergea, cand o lua in boscheti atunci > incepea jocul cu rebooturile la toate masinile; mi s-a parut ciocaneala si > de aia am zis mersi cand am scapat de el atentie ca clusterul de ocfs nu e > legat de clusterul de redhat (si stau sa ma gandesc daca pot coexista > impreuna); clusterul de la oracle nici nu-l simti, merge in spate si nu ai > cine stie ce control la el; dar e ok, iar configurarea e chiar foarte simpla > de curand insa, dupa multe fisiere puse pe el, parca nu mai merge ca > inainte, si ce e mai ciudat e ca scrieri concurente, de pe masini diferite, > in acelasi storage in directoare total diferite (din motive de evitare a > lock-ului) au inceput sa aiba performante cam nashpa clusterul nu zice > nimic, nicio eroare, dar totusi clar nu se misca la fel ca la inceput > > legat de clusterul redhat, exista posibilitatea de fencing prin mai multe > metode, am folosit la gfs folosind ilo (server hp), dar poti sa tai porturi > de switch si multe altele; cred ca o data sau de doua ori s-a activat > fencing-ul, si parca si atunci a fost oarecum de test; dar mai bine sa ai si > sa nu fie folosit, decat sa-ti dai seama dupa aia ca ar fi nevoie dar > iarasi, nu stiu daca poti folosi la clusterul oracle si ocfs2, care din cate > am citit are un sistem de fencing propriu, mai mult soft decat hard (aici > memoriile sunt cam fuzzy, asa ca mai bine citeste niste documentatie > inainte) > > si inca o chestie, nu am folosit lvm (cred ca pe vremea aia nu exista > posibilitatea, din cate am citit la ultimile distributii ar cam trebui sa > fie clvm), la mine sunt strict exportate partitiile ca atare; stiu ca nu e > in ton cu moda, dar prefer principiu kiss (sau eventual if ain't broken > don't fix it) > > Alex > > Intr-adevar ocfs2 n-are nici o treaba cu clusterul de la redhat. Fencingul > la ocfs2 e mult mai simplu si eficient(fiecare nod isi da reset cand pierde > legatura cu celelalte noduri; mai nasol e cand pica switchul..se reseteaza > toate nodurile ceea ce nu-i chiar funny..dar probabil si la gfs2 e la fel). > Ideea mea era sa pun si clusterul redhat doar pt ca am nevoie de clvm pt > propagarea intre noduri a posibilei extinderi a storageului; dar inca ma mai > gandesc daca merita sau pur si simplu scanez manual cu lvm pe fiecare nod. > Problemele tale de performanta dupa un timp(apropo.. cat timp?) la ocfs2 > pot fi cumva legate de fragmentarea storageului? Din cate am vazut nu exista > defrag pt ocfs2. > > Laurentiu. > _______________________________________________ > RLUG mailing list > [email protected] > http://lists.lug.ro/mailman/listinfo/rlug > _______________________________________________ RLUG mailing list [email protected] http://lists.lug.ro/mailman/listinfo/rlug
