2012/6/11 Petru Ratiu <[email protected]> > 2012/6/11 m3t30r m3t30r <[email protected]>: > > > Banui deci ca problema ca e ca DRBD-ul (pt HA la master) face de 2.5 ori > > mai mult IO decat replicarea master slave. SI ca pe nodul cu DRBD > mysql-ul > > e oprit. > > > > Am identificat problema ? > > > > > Nu. > > Master ------> slave1 > \-------> slave2-1 <---(drbd)--> slave2-2 > > perechea slave 2-1 <-> 2-2 este pusa in drbd active/passive (deci nu e > nevoie de gfs, fs-ul ala e montat o singura data) si, unlike slave1 > nici macar nu primeste queries de la clienti, asa ca ar fi de asteptat > sa faca mai putin io. > > Comparatia o fac intre numerele pe care le vad pe drbd0 pe slave2-1 si > cele pe care le vad pe sda pe slave1 (cu tot cu binlogs, relaylogs si > tot tacamul). Configurile de mysql sunt identice, versiunile de mysql > sunt identice, diferenta principala e ca ala cu drbd are ext4 si ca e > pe 64bit. Nu discut de ce face anume drbd cu sda-ul pe care e (pentru > ca nu acolo am bottleneck-ul ci chiar in device-ul drbd). Opritul > drbd-ului nu ajuta decat putin problema, dar in continuare vad aceeasi > diferenta de writes/s intre slaves, banuiesc ca e vreo schema cu > jurnalul de ext4 sau mai stiu eu ce (prin literatura pe care am > citit-o parerile erau impartite intra ext4 si xfs, asa ca am zis ca > merg tot pe ext din ratiuni operationale). > > Pana una alta incerc sa tunez diverse alte chestii care n-au legatura > directa cu FS-ul, dar tot ma intriga diferenta aia de iops. > > -- > Petre. >
Aha, asta schimba putin (mai mult) problema. Humm ... n-am idei :). Dap, probabil jurnalizarea sau ceva. Ma depaseste :). De curiozitate ... totusi ... exista vre-un motiv (altul decat istoric) pt care ai folosi HA/DRBD pe slave, si nu pe master ? Adica daca ramane slave 2-1 in urma cu replicarea, oricum e degeaba. D. _______________________________________________ RLUG mailing list [email protected] http://lists.lug.ro/mailman/listinfo/rlug
