Marcello, o NFS não é recomendado no uso write one / read all, pq ao modificar o inodes "under the feets" do NFS ele perde a ref, devido ao seu cache. No caso, apenas uma máquina servindo NFS e a outra como mirror daria certo, desde que não se quisesse ler via NFS da máquina mirror.
Att, RS On 11/17/06, Marcello Costa <[EMAIL PROTECTED]> wrote: > NFS não foi seria recomendado > > http://lists.freebsd.org/pipermail/freebsd-net/2006-August/011331.html > > Melhor solução seria sem duvida um raid via rede > > > A latencia pode não ser um grande problema , vc não fica alterando > arquivos assim a todo instante , fora o /tmp claro. > > Tem isso aqui , antigão mas interessante > > http://blizzard.rwic.und.edu/~nordlie/miniwulf/ > > http://people.freebsd.org/~brooks/papers/bsdcon2003/ > > Esse parecem promissores > > http://www.freebsd.org/cgi/url.cgi?ports/sysutils/sge/pkg-descr > > http://gridengine.sunsource.net/ > > Q: What is Grid Engine? > > A: Grid Engine is a Distributed Resource Management (DRM) software. DRM > software aggregates compute power and delivers it as a network service. > Grid Engine software is used with a set of computers to create powerful > compute farms, which are used in a wide range of technical computing > applications such as the development of semiconductors, bioinformatics, > mechanical design, software development, oil/gas exploration, and > financial analysis; additionally, massively scaling supercomputers use > Grid Engine software in a variety of academic and research pursuits. > Users enjoy access to large computing capability and organizations enjoy > effective utilization of their computing resource investments > approaching 100%. > > Implementrar ai é outra história ... > > > > > Não é besteira não, estou trabalhando para utilizar um sistema baseado > > em geom com ggate e gmirror. > > Bem, a idéia é replicar um volume de uma máquina para outra, e quando > > a slave assumir, checar se ela pode assumir, se estiver com sistema > > limpo, consistente. Parece simples, mas na hora de implementar é que > > aparecem os problemas reais. > > Outra coisa, é que as vezes a sincronização me parece muito lenta, > > quando de uma falha, o novo slave recebe, no startup, TODO o volume do > > atual master... Isso leva muito tempo. O DRBD diz ser otimizado nisso, > > levando de 1 a 3 minutos para sync completa, em volumes de até 4 TB, > > isso sim é bom. > > Se o gmirror pudesse fazer isso, seria ótimo, trabalhar como o rsync > > saca, gerando hashs de blocos contínuos e checando com o destino, > > otimizando a transferência, enviando somente aquilo que é realmente > > diferente, e não tudo. > > > > Esbarrei nesse problema agora... E outra coisa é quando um slave > > assume master com o FS corrompido. Pode ocorrer, e representa risco > > para os dados, imaigna fazer um espelhamento disso sobre o antigo > > master, que tem os dados consistentes? Pronto neh... Essa chacagem > > deve ser feita antes de o slave assumir master. > > > > Quanto aos clientes, seriam NFS, ai entra um outro problema. > > Como eles se comportariam numa troca onde ninguém asume? Master falha, > > slave não assume por inconsistência.. Será que o cliente (server web, > > mail) não vai tentar usar arquivos locais nesse caso? Isso seria uma > > boa bosta :) > > > > Att, > > RS > > > > > > > > > > > > > > > > > Em Qui, 2006-11-16 às 14:27 -0200, Rogério Schneider escreveu: > > > > Marcelo, veja: > > > > > > > > Failover e Load Balance é sim simples de se fazer, o PF resolve tudo > > > > isso, com pfsync, CARP e rdr. Ponto. > > > > > > > > Compartilhar os dados, centralizar, isso sim é uma problema, e seria > > > > exatamente sobre isso que eu gostaria que alguém aqui se manifestasse. > > > > Existe alguma maneira eficiente de se ter um storage redundante > > > > montado sobre FreeBSD (ou mesmo Linux, Open, enfim...) baseado > > > > TOTALMENTE em soluções livres? > > > > Esse é o ponto. > > > > > > > > :) > > > > > > > > Os /tmp poderiam ficar no storage, sem problemas, mesmo. Você vê algum > > > > problema? Tudo bem, muda o diretório de sessions nos teus servers www > > > > e aponta este novo caminho para dentro do storage, em área > > > > compartilhada, assim vc mantém os /tmp isolados. > > > > > > > > O problema é o storage gente.... alguém? > > > > > > > > Att, > > > > RS > > > > > > > > > > -- > > > Marcello Costa > > > BSD System Engineer > > > unixmafia at yahoo dot com dot br > > > FUG-BR #156 > > > http://www.fug.com.br > > > > > > > > > > > > _______________________________________________________ > > > Novidade no Yahoo! Mail: receba alertas de novas mensagens no seu > > > celular. Registre seu aparelho agora! > > > http://br.mobile.yahoo.com/mailalertas/ > > > > > > > > > ------------------------- > > > Histórico: http://www.fug.com.br/historico/html/freebsd/ > > > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd > > > > > > > > -- > Marcello Costa > BSD System Engineer > unixmafia at yahoo dot com dot br > FUG-BR #156 > http://www.fug.com.br > > > > _______________________________________________________ > O Yahoo! est� de cara nova. Venha conferir! > http://br.yahoo.com > > > ------------------------- > Histórico: http://www.fug.com.br/historico/html/freebsd/ > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd > > > -- Rogério Schneider +55 (55) 9985 2127 MSN: [EMAIL PROTECTED] GTalk: [EMAIL PROTECTED] Skype: stockrt ------------------------- Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

