Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: > Buenas Marcelo !!! > > Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas > quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, > mas até algum tempo atras não estava estavel (falo isso mas eu não sei > como esta o estado dele hoje). Opa Luiz,
É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem 12Gb de ram então é de boa. Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela dica do RaidZ. > > Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 > no ports, sinceramente nunca usei, mas pode-se testar: > > [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr > FreeBSD GEOM class for RAID5. > > This is RAID5 geom class, originally written by Arne Worner > <[email protected]> > > WWW: http://lev.serebryakov.spb.ru/download/graid5/ > > Abraços > > > Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<[email protected]> > escreveu: > >> Olá Pesssoal, >> >> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 >> com eles. Usei o gvinum: >> >> drive r0 device /dev/ad12a >> drive r1 device /dev/ad14a >> drive r2 device /dev/ad16a >> drive r3 device /dev/ad18a >> volume raid5 >> plex org raid5 512k >> sd drive r0 >> sd drive r1 >> sd drive r2 >> sd drive r3 >> >> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 >> ou existe alguma outra forma melhor no FreeBSD? >> Uma outra coisa que aparece no boot é essa mensagem: >> >> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. >> gvinum/raid5[READ(offset=1500321938944, length=512)] >> >> Mas parece que está tudo funcionando: >> >> gvinum -> printconfig >> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 >> 14:48:59 2011 >> drive r0 device /dev/ad12a >> drive r1 device /dev/ad14a >> drive r2 device /dev/ad16a >> drive r3 device /dev/ad18a >> volume raid5 >> plex name raid5.p0 org raid5 1024s vol raid5 >> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex >> raid5.p0 plexoffset 0s >> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex >> raid5.p0 plexoffset 1024s >> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex >> raid5.p0 plexoffset 2048s >> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex >> raid5.p0 plexoffset 3072s >> >> gvinum -> l >> 4 drives: >> D r0 State: up /dev/ad12a A: 0/476939 MB >> (0%) >> D r1 State: up /dev/ad14a A: 0/476939 MB >> (0%) >> D r2 State: up /dev/ad16a A: 0/476939 MB >> (0%) >> D r3 State: up /dev/ad18a A: 0/476939 MB >> (0%) >> >> 1 volume: >> V raid5 State: up Plexes: 1 Size: 1397 >> GB >> >> 1 plex: >> P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 >> GB >> >> 4 subdisks: >> S raid5.p0.s0 State: up D: r0 Size: 465 >> GB >> S raid5.p0.s1 State: up D: r1 Size: 465 >> GB >> S raid5.p0.s2 State: up D: r2 Size: 465 >> GB >> S raid5.p0.s3 State: up D: r3 Size: 465 >> GB >> >> Essa mensagem de erro no boot é normal? >> >> Grande abraço à todos >> >> ------------------------- >> Histórico: http://www.fug.com.br/historico/html/freebsd/ >> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd > ------------------------- Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

