Quoting Alex 'CAVE' Cernat <[email protected]>: > >> Eu folosesc GLUSTERFS in productie de 2 ani si, cred ca am >> trecut prin 4-5 >> versiuni, daca nu ma insel. Nu il folosesc cu NFS. Clientii mei de glusterfs >> sunt si linux(client nativ glusterfs) si windows(via samba). Am >> diverse servicii care isi tin fisierele de config(partial/total). pe >> glusterfs(samba, apache, squid, dhcp, etc.).Filesystem-ul > nu vreau sa arunc cu piatra, ca poate n-am inteles eu esenta sau poate > am privit problema superficial, asa ca impresii primesc cu mare drag, > vorba aia cat traiesti omul invata > dar acum vreun an (sau cat o mai fi fost, cine mai stie) am incercat sa > facut un setup de test de glusterfs (totul virtual, desi asta nu > conteaza), si sincer pot sa spun ca m-a dezamagit > ce nu mi-a placut > 1. setup-ul a mers chiar prea bine, si nu a trebuit sa pun pe nicaieri > configuratii de acces (cel putin din cate imi aduc eu aminte); asta > inseamna ca oricine putea sa monteze respectivul fs, doar eventual sa-l > tai din firewall; nu m-am uitat eu destul de atent sau la vremea > respectiva nu avea sistem propriu de autentificare/limitare ceva; daca > nu, a aparut sistemul respectiv intre timp ?
> 2. din cate am inteles master-ul de pe care montezi pe clienti fs-urile > e unic, si deci automat e cam SPOF; corect ? GRESIT. Cam asa arata un set-up de client(http://www.howtoforge.com/high-availability-storage-with-glusterfs-3.0.x-on-debian-squeeze-automatic-file-replication-across-two-storage-servers): /etc/glusterfs/glusterfs.vol volume remote1 type protocol/client option transport-type tcp option remote-host server1.example.com option remote-subvolume brick end-volume volume remote2 type protocol/client option transport-type tcp option remote-host server2.example.com option remote-subvolume brick end-volume volume replicate type cluster/replicate subvolumes remote1 remote2 end-volume volume writebehind type performance/write-behind option window-size 1MB subvolumes replicate end-volume volume cache type performance/io-cache option cache-size 512MB subvolumes writebehind end-volume si clientul monteaza asa: mount -t glusterfs /etc/glusterfs/glusterfs.vol /mnt/glusterfs .... unde e SPOF-ul? Mai mult, chiar daca ai monta pe baza de IP, ceva de genul cum am eu in /etc/fstab: 192.x.y.100:/SPOF /mnt/_spof glusterfs defaults 0 0 - unde 192.x.y.100 este IP-ul unuia din BRICK-ri, daca opresc acest BRICK, totusi clintul are acces in continuare bine-mersi(R/W) la /mnt/_spof , presupunad ca al 2-le BRICK(192.x.y.101), este functional. - de aici cred ca ai tras tu concluzia(gresita) ca sistemul are ceva gen MASTER. > x. doar o observatie, nu pot sa o pun la negative pentru ca e chestie de > baza, asa functioneaza sistemul: e destul de funny sa gasesti pe > brick-uri jumatate din fisierele puse pe glusterfs (era vorba de un > sistem cu 2 sau 4 calculatoare in spate, ca sa fie si 'stripe', dar > posibil si 'raid', ca doar faceam teste nu ?) > nu am apucat sa vad la performante cine stie ce, pentru ca sincer nu m-a > impresionat prea mult arhitectura, mai curand ma interesa un mecanism de > fs distribuit dar care sa nu aiba nevoie de un server master, dar nu > cred ca asa ceva exista (exclud binenteles aici fs-urile care pot fi > accesate concurent de pe masini diferite - gen gfs, ocfs, ca nu prea e > 'distribuit', ci de fapt 'concurent' access) > > Alex > > _______________________________________________ > RLUG mailing list > [email protected] > http://lists.lug.ro/mailman/listinfo/rlug > ---------------------------------------------------------------- This message was sent using IMP, the Internet Messaging Program. ================================ DISCLAIMER ============================= Pentru a transmite email-ri catre casbv.ro, va rugam: - daca trimiteti atashamente tip Office, ele trebuie sa fie in format OFFICE 97; - nu trimiteti date personale(CNP, copii dupa acte de identitate, etc). O lista completa cu reguli de utilizare exista la: http://gw.casbv.ro/forum_smf/index.php?topic=2000.msg3106#msg3106 C.A.S.J. Brasov - B-dul Mihail Kogalniceanu, nr. 11,Brasov [web-site]: http://www.casbv.ro [forum]: http://gw.casbv.ro/forum_smf/index.php ========================================================================== _______________________________________________ RLUG mailing list [email protected] http://lists.lug.ro/mailman/listinfo/rlug
