la gfs cvorumul clusterului hotaraste ca sa-i dea in cap gigelului care a
luat-o razna; in functie de metoda de fencing aleasa ori taie un port in
switch, ori ii da shutdown prin ilo sau varianta corespondenta de la dell,
posibil si alte metode dar n-am stat sa ma uit mai mult ca nu aveam ce
cereau ei pe acolo
cred ca la mine e de vreun an-doi, s-a tot scris pe el, posibil si sters dar
mai putine operatii; la cum e facut fs-ul nu cred ca e vorba de fragmentare,
plus ca oricum trece si printr-un cache de storage deci deja cu atat mai
putin am control la cum e scris efectiv pe disc; iar deja fragmentarea in
linux nu prea mai conteaza, fiindca filesystem-urile sunt facute in asa
masura inca sa conteze intr-o masura mult prea mica daca un fisier e
fragmentat sau nu ...
cred ca o solutie buna ar fi sa mai incerc cu inca o partitie sa vad daca pe
aia merge brici la inceput macar; dar asta inseamna niste reboot-uri la
servere (ca multipath-ul mai dadea rateuri la chestii hot-change), si nu
prea e o idee buna

2011/10/14 Laurentiu Gosu <[email protected]>

>
> -----Original Message-----
> From: Alex 'CAVE' Cernat [mailto:[email protected]]
> Sent: Friday, October 14, 2011 14:43
> To: Romanian Linux Users Group
> Cc: Laurentiu Gosu
> Subject: Re: [rlug] SAN - ocfs2
>
> On 10/14/2011 12:33 PM, Laurentiu Gosu wrote:
> > Salut *,
> > Planuiesc sa construiesc o solutie de storage SAN-based. Storageul(deja
> cumparat)  este "expus" prin 10gb Ethernet iSCSI. Nodurile o sa fie masini
> CentOS 5.X. Performanta si stabilitatea sunt critice.
> > Dupa ce am citit si rascitit pe google am ajuns la urmatoarea
> > configuratie pe care o testez acum: iscsi-multipath-lvm(eventual
> clvm)-ocfs2 Am ales ocfs2 in dauna lui gfs2 dupa ce am citit (si)
> recomandarea de mai demult a unui colistas.
> > As aprecia daca mi-ati impartasi experientele voastre legate de medii
> SAN, ocfs2 v1.6(sau oricare alta versiune), clvm+fencing(e posibil fencing
> software in clusterul redhat?..adica shutdown printrun script la porturile
> din switch).
> s-ar putea sa fi fost recomandarea mea, nu mai stiu, cert este ca am
> folosit si gfs2 si ocfs2 (cred ca e 1.4 versiunea, ca e de ceva vreme) la
> gfs dupa cum ziceam cand mergea mergea, cand o lua in boscheti atunci
> incepea jocul cu rebooturile la toate masinile; mi s-a parut  ciocaneala si
> de aia am zis mersi cand am scapat de el atentie ca clusterul de ocfs nu e
> legat de clusterul de redhat (si stau sa ma gandesc daca pot coexista
> impreuna); clusterul de la oracle nici nu-l simti, merge in spate si nu ai
> cine stie ce control la el; dar e ok, iar configurarea e chiar foarte simpla
> de curand insa, dupa multe fisiere puse pe el, parca nu mai merge ca
> inainte, si ce e mai ciudat e ca scrieri concurente, de pe masini diferite,
> in acelasi storage in directoare total diferite (din motive de evitare a
> lock-ului) au inceput sa aiba performante cam nashpa clusterul nu zice
> nimic, nicio eroare, dar totusi clar nu se misca la fel ca la inceput
>
> legat de clusterul redhat, exista posibilitatea de fencing prin mai multe
> metode, am folosit la gfs  folosind ilo (server hp), dar poti sa tai porturi
> de switch si multe altele; cred ca o data sau de doua ori s-a activat
> fencing-ul, si parca si atunci a fost oarecum de test; dar mai bine sa ai si
> sa nu fie folosit, decat sa-ti dai seama dupa aia ca ar fi nevoie dar
> iarasi, nu stiu daca poti folosi la clusterul oracle si ocfs2, care din cate
> am citit are un sistem de fencing propriu, mai mult soft decat hard (aici
> memoriile sunt cam fuzzy, asa ca mai bine citeste niste documentatie
> inainte)
>
> si inca o chestie, nu am folosit lvm (cred ca pe vremea aia nu exista
> posibilitatea, din cate am citit la ultimile distributii ar cam trebui sa
> fie clvm), la mine sunt strict exportate partitiile ca atare; stiu ca nu e
> in ton cu moda, dar prefer principiu kiss (sau eventual if ain't broken
> don't fix it)
>
> Alex
>
> Intr-adevar ocfs2 n-are nici o treaba cu clusterul de la redhat. Fencingul
> la ocfs2 e mult mai simplu si eficient(fiecare nod isi da reset cand pierde
> legatura cu celelalte noduri; mai nasol e cand pica switchul..se reseteaza
> toate nodurile ceea ce nu-i chiar funny..dar probabil si la gfs2 e la fel).
> Ideea mea era sa pun si clusterul redhat doar pt ca am nevoie de clvm pt
> propagarea intre noduri a posibilei extinderi a storageului; dar inca ma mai
> gandesc daca merita sau pur si simplu scanez manual cu lvm pe fiecare nod.
> Problemele tale de performanta dupa un timp(apropo.. cat timp?) la ocfs2
> pot fi cumva legate de fragmentarea storageului? Din cate am vazut nu exista
> defrag pt ocfs2.
>
> Laurentiu.
> _______________________________________________
> RLUG mailing list
> [email protected]
> http://lists.lug.ro/mailman/listinfo/rlug
>
_______________________________________________
RLUG mailing list
[email protected]
http://lists.lug.ro/mailman/listinfo/rlug

Raspunde prin e-mail lui