Re: [FUG-BR] instalacoes em serie
Clonezilla tem suporte a live CD e a EtherBoot a partir de um servidor. Dependendo da configuração que vc fizer vc nao precisa fazer nada nao ser configurar a bios para dar boot pela placa de rede. Em 14 de outubro de 2011 22:14, Allan Patrick Ksiaskiewcz alla...@ig.com.br escreveu: Como vão? Quais ferramentas seriam indicadas para facilitar uma instalação em computadores com mesmas funções e hardwares a partir de uma imagem (instalação) pronta. Ou ainda a partir de um BSD já atualizado para outros servidores mesmo com hardwares diferentes. Li algo sobre usfdump e ufsrestore. Existe algo mais especifico para BSD? A ideia é ter agilidade no processo de instalação de servidores, usando uma imagem meio que padrão atualizada e com kernel pré-customizado. - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd -- Otavio Augusto - Consultor de TI - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
[FUG-BR] Raid 5 no FreeBSD
Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum - printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum - l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim gon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum - printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum - l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd -- /\ Luiz Gustavo S. Costa / \Programmer at BSD Perimeter /\ /\/\/\Visit the pfSense Project / \\ \ http://www.pfsense.org - BSD da serra carioca, Teresopolis (visite: http://miud.in/Inv) Contatos: luizgust...@luizgustavo.pro.br / lgco...@pfsense.org Blog: http://www.luizgustavo.pro.br - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Opa Luiz, É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem 12Gb de ram então é de boa. Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela dica do RaidZ. Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum - printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum - l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
Aproposito, cuidado com disco maiores de 2Tb, a placa-mãe tem que disponibilizar suporte a GPT assim como o loader do sistema tambem, Acabei de me informar sobre apos 6 discos de 3Tb da Seagate adquiridos recentemente só poderá ser usados em placas sandy-bridge. Para mais informação: http://www.rodsbooks.com/gdisk/booting.html At.t. Em 15/10/2011 19:57, Marcelo Gondim escreveu: Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Opa Luiz, É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem 12Gb de ram então é de boa. Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela dica do RaidZ. Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum - printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum - l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd -- Quando a Morte decide contar uma historia, A melhor ação que possa fazer é ouvi-la, e torcer por não ser a sua própria a tal história. Paulo Henrique. Analista de Sistemas / Programador BSDs Brasil. Genuine Unix/BSD User. Fone: (21) 9683-5433. - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: Pronto agora em raidz ;) (root@zeus)[~]# zpool status storage pool: storage state: ONLINE scan: none requested config: NAMESTATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ad12ONLINE 0 0 0 ad14ONLINE 0 0 0 ad16ONLINE 0 0 0 ad18ONLINE 0 0 0 errors: No known data errors As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida que realmente funcione. ahahahahaah Muito bom mesmo!!! [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum - printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum - l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
Em 15/10/2011 20:23, Paulo Henrique BSD Brasil escreveu: Aproposito, cuidado com disco maiores de 2Tb, a placa-mãe tem que disponibilizar suporte a GPT assim como o loader do sistema tambem, Acabei de me informar sobre apos 6 discos de 3Tb da Seagate adquiridos recentemente só poderá ser usados em placas sandy-bridge. Para mais informação: http://www.rodsbooks.com/gdisk/booting.html Opa essa é uma excelente informação Paulo. Bom saber para não comprar errado. At.t. Em 15/10/2011 19:57, Marcelo Gondim escreveu: Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Opa Luiz, É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem 12Gb de ram então é de boa. Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela dica do RaidZ. Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum -printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum -l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID 10 com zfs? Thiago Em 15 de outubro de 2011 21:32, Marcelo Gondim gon...@bsdinfo.com.br escreveu: Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: Pronto agora em raidz ;) (root@zeus)[~]# zpool status storage pool: storage state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ad12 ONLINE 0 0 0 ad14 ONLINE 0 0 0 ad16 ONLINE 0 0 0 ad18 ONLINE 0 0 0 errors: No known data errors As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida que realmente funcione. ahahahahaah Muito bom mesmo!!! [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum - printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum - l 4 drives: D r0 State: up /dev/ad12a A: 0/476939 MB (0%) D r1 State: up /dev/ad14a A: 0/476939 MB (0%) D r2 State: up /dev/ad16a A: 0/476939 MB (0%) D r3 State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size: 465 GB S raid5.p0.s1 State: up D: r1 Size: 465 GB S raid5.p0.s2 State: up D: r2 Size: 465 GB S raid5.p0.s3 State: up D: r3 Size: 465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
Em 15/10/2011 23:03, Thiago Damas escreveu: Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID 10 com zfs? Opa Thiago, No momento para hospedagem de algumas aplicações mas pensei em criar um servidor de VMs. No entanto parece que para isso o que temos de melhor seria o Virtualbox pelo jeito. Pena que ainda não temos grandes opções para essa tarefa ou estou enganado? Estive procurando por Xen no FreeBSD e pelo visto só trabalha como domU e não como dom0. Thiago Em 15 de outubro de 2011 21:32, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: Pronto agora em raidz ;) (root@zeus)[~]# zpool status storage pool: storage state: ONLINE scan: none requested config: NAMESTATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ad12ONLINE 0 0 0 ad14ONLINE 0 0 0 ad16ONLINE 0 0 0 ad18ONLINE 0 0 0 errors: No known data errors As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida que realmente funcione. ahahahahaah Muito bom mesmo!!! [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum -printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum -l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] Raid 5 no FreeBSD
http://wiki.freebsd.org/BHyVe Em breve algo melhor do que Xen. Abraços. Em 15/10/2011, às 23:41, Marcelo Gondim escreveu: Em 15/10/2011 23:03, Thiago Damas escreveu: Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID 10 com zfs? Opa Thiago, No momento para hospedagem de algumas aplicações mas pensei em criar um servidor de VMs. No entanto parece que para isso o que temos de melhor seria o Virtualbox pelo jeito. Pena que ainda não temos grandes opções para essa tarefa ou estou enganado? Estive procurando por Xen no FreeBSD e pelo visto só trabalha como domU e não como dom0. Thiago Em 15 de outubro de 2011 21:32, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: Buenas Marcelo !!! Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, mas até algum tempo atras não estava estavel (falo isso mas eu não sei como esta o estado dele hoje). Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 no ports, sinceramente nunca usei, mas pode-se testar: Pronto agora em raidz ;) (root@zeus)[~]# zpool status storage pool: storage state: ONLINE scan: none requested config: NAMESTATE READ WRITE CKSUM storage ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ad12ONLINE 0 0 0 ad14ONLINE 0 0 0 ad16ONLINE 0 0 0 ad18ONLINE 0 0 0 errors: No known data errors As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida que realmente funcione. ahahahahaah Muito bom mesmo!!! [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr FreeBSD GEOM class for RAID5. This is RAID5 geom class, originally written by Arne Worner arne_woer...@yahoo.com WWW: http://lev.serebryakov.spb.ru/download/graid5/ Abraços Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br escreveu: Olá Pesssoal, Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 com eles. Usei o gvinum: drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex org raid5 512k sd drive r0 sd drive r1 sd drive r2 sd drive r3 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 ou existe alguma outra forma melhor no FreeBSD? Uma outra coisa que aparece no boot é essa mensagem: Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. gvinum/raid5[READ(offset=1500321938944, length=512)] Mas parece que está tudo funcionando: gvinum -printconfig # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 14:48:59 2011 drive r0 device /dev/ad12a drive r1 device /dev/ad14a drive r2 device /dev/ad16a drive r3 device /dev/ad18a volume raid5 plex name raid5.p0 org raid5 1024s vol raid5 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 0s sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 1024s sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 2048s sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex raid5.p0 plexoffset 3072s gvinum -l 4 drives: D r0State: up /dev/ad12a A: 0/476939 MB (0%) D r1State: up /dev/ad14a A: 0/476939 MB (0%) D r2State: up /dev/ad16a A: 0/476939 MB (0%) D r3State: up /dev/ad18a A: 0/476939 MB (0%) 1 volume: V raid5 State: up Plexes: 1 Size: 1397 GB 1 plex: P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 GB 4 subdisks: S raid5.p0.s0 State: up D: r0 Size:465 GB S raid5.p0.s1 State: up D: r1 Size:465 GB S raid5.p0.s2 State: up D: r2 Size:465 GB S raid5.p0.s3 State: up D: r3 Size:465 GB Essa mensagem de erro no boot é normal? Grande abraço à todos - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista:
Re: [FUG-BR] instalacoes em serie
Opa, se for fazer clone de maquina (mesmo hard, etc... pode ser até hd diferente), da uma olhada nesse cara: g4u = http://www.feyrer.de/g4u/ Usei muito ele Em 14 de outubro de 2011 22:14, Allan Patrick Ksiaskiewcz alla...@ig.com.br escreveu: Como vão? Quais ferramentas seriam indicadas para facilitar uma instalação em computadores com mesmas funções e hardwares a partir de uma imagem (instalação) pronta. Ou ainda a partir de um BSD já atualizado para outros servidores mesmo com hardwares diferentes. Li algo sobre usfdump e ufsrestore. Existe algo mais especifico para BSD? A ideia é ter agilidade no processo de instalação de servidores, usando uma imagem meio que padrão atualizada e com kernel pré-customizado. - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd -- /\ Luiz Gustavo S. Costa / \ Programmer at BSD Perimeter / \ /\/\/\ Visit the pfSense Project / \ \ \ http://www.pfsense.org - BSD da serra carioca, Teresopolis (visite: http://miud.in/Inv) Contatos: luizgust...@luizgustavo.pro.br / lgco...@pfsense.org Blog: http://www.luizgustavo.pro.br - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd