2012/6/11 Petru Ratiu <[email protected]>

> 2012/6/11 m3t30r m3t30r <[email protected]>:
>
> > Banui deci ca problema ca e ca DRBD-ul (pt HA la master) face de 2.5 ori
> > mai mult IO decat replicarea master slave. SI ca pe nodul cu DRBD
> mysql-ul
> > e oprit.
> >
> > Am identificat problema ?
> >
>
>
> Nu.
>
> Master   ------> slave1
>           \-------> slave2-1 <---(drbd)--> slave2-2
>
> perechea slave 2-1 <-> 2-2 este pusa in drbd active/passive (deci nu e
> nevoie de gfs, fs-ul ala e montat o singura data) si, unlike slave1
> nici macar nu primeste queries de la clienti, asa ca ar fi de asteptat
> sa faca mai putin io.
>
> Comparatia o fac intre numerele pe care le vad pe drbd0 pe slave2-1 si
> cele pe care le vad pe sda pe slave1 (cu tot cu binlogs, relaylogs si
> tot tacamul). Configurile de mysql sunt identice, versiunile de mysql
> sunt identice, diferenta principala e ca ala cu drbd are ext4 si ca e
> pe 64bit. Nu discut de ce face anume drbd cu sda-ul pe care e (pentru
> ca nu acolo am bottleneck-ul ci chiar in device-ul drbd). Opritul
> drbd-ului nu ajuta decat putin problema, dar in continuare vad aceeasi
> diferenta de writes/s intre slaves, banuiesc ca e vreo schema cu
> jurnalul de ext4 sau mai stiu eu ce (prin literatura pe care am
> citit-o parerile erau impartite intra ext4 si xfs, asa ca am zis ca
> merg tot pe ext din ratiuni operationale).
>
> Pana una alta incerc sa tunez diverse alte chestii care n-au legatura
> directa cu FS-ul, dar tot ma intriga diferenta aia de iops.
>
> --
> Petre.
>

Aha, asta schimba putin (mai mult) problema. Humm ... n-am idei :). Dap,
probabil jurnalizarea sau ceva. Ma depaseste :).

De curiozitate ...
totusi ... exista vre-un motiv (altul decat istoric) pt care ai folosi
HA/DRBD pe slave, si nu pe master ? Adica daca ramane slave 2-1 in urma cu
replicarea, oricum e degeaba.

D.
_______________________________________________
RLUG mailing list
[email protected]
http://lists.lug.ro/mailman/listinfo/rlug

Raspunde prin e-mail lui