Re: [FUG-BR] instalacoes em serie

2011-10-15 Por tôpico Otavio Augusto
Clonezilla tem suporte a live CD e a EtherBoot a partir de um servidor.
Dependendo da configuração que vc fizer vc nao precisa fazer nada nao
ser configurar a bios para dar boot pela placa de rede.



Em 14 de outubro de 2011 22:14, Allan Patrick Ksiaskiewcz
alla...@ig.com.br escreveu:
 Como vão? Quais ferramentas seriam indicadas para facilitar uma
 instalação em computadores com mesmas funções e hardwares a partir de
 uma imagem (instalação) pronta.

 Ou ainda a partir de um BSD já atualizado para outros servidores mesmo
 com hardwares diferentes.

 Li algo sobre usfdump e ufsrestore. Existe algo mais especifico para BSD?

 A ideia é ter agilidade no processo de instalação de servidores,
 usando uma imagem meio que padrão atualizada e com kernel
 pré-customizado.
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




-- 
Otavio Augusto
-
Consultor de TI
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


[FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Marcelo Gondim
Olá Pesssoal,

Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 
com eles. Usei o gvinum:

drive r0 device /dev/ad12a
drive r1 device /dev/ad14a
drive r2 device /dev/ad16a
drive r3 device /dev/ad18a
volume raid5
 plex org raid5 512k
 sd drive r0
 sd drive r1
 sd drive r2
 sd drive r3

Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 
ou existe alguma outra forma melhor no FreeBSD?
Uma outra coisa que aparece no boot é essa mensagem:

Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. 
gvinum/raid5[READ(offset=1500321938944, length=512)]

Mas parece que está tudo funcionando:

gvinum - printconfig
# Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 
14:48:59 2011
drive r0 device /dev/ad12a
drive r1 device /dev/ad14a
drive r2 device /dev/ad16a
drive r3 device /dev/ad18a
volume raid5
plex name raid5.p0 org raid5 1024s vol raid5
sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex 
raid5.p0 plexoffset 0s
sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex 
raid5.p0 plexoffset 1024s
sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex 
raid5.p0 plexoffset 2048s
sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex 
raid5.p0 plexoffset 3072s

gvinum - l
4 drives:
D r0State: up   /dev/ad12a  A: 0/476939 MB (0%)
D r1State: up   /dev/ad14a  A: 0/476939 MB (0%)
D r2State: up   /dev/ad16a  A: 0/476939 MB (0%)
D r3State: up   /dev/ad18a  A: 0/476939 MB (0%)

1 volume:
V raid5 State: up   Plexes:   1 Size:   1397 GB

1 plex:
P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397 GB

4 subdisks:
S raid5.p0.s0   State: up   D: r0   Size:465 GB
S raid5.p0.s1   State: up   D: r1   Size:465 GB
S raid5.p0.s2   State: up   D: r2   Size:465 GB
S raid5.p0.s3   State: up   D: r3   Size:465 GB

Essa mensagem de erro no boot é normal?

Grande abraço à todos

-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Luiz Gustavo Costa
Buenas Marcelo !!!

Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas  
quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,  
mas até algum tempo atras não estava estavel (falo isso mas eu não sei  
como esta o estado dele hoje).

Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5  
no ports, sinceramente nunca usei, mas pode-se testar:

[root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
FreeBSD GEOM class for RAID5.

This is RAID5 geom class, originally written by Arne Worner  
arne_woer...@yahoo.com

WWW: http://lev.serebryakov.spb.ru/download/graid5/

Abraços


Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim gon...@bsdinfo.com.br  
escreveu:

 Olá Pesssoal,

 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:

 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
  plex org raid5 512k
  sd drive r0
  sd drive r1
  sd drive r2
  sd drive r3

 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:

 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]

 Mas parece que está tudo funcionando:

 gvinum - printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s

 gvinum - l
 4 drives:
 D r0State: up   /dev/ad12a  A: 0/476939 MB  
 (0%)
 D r1State: up   /dev/ad14a  A: 0/476939 MB  
 (0%)
 D r2State: up   /dev/ad16a  A: 0/476939 MB  
 (0%)
 D r3State: up   /dev/ad18a  A: 0/476939 MB  
 (0%)

 1 volume:
 V raid5 State: up   Plexes:   1 Size:   1397  
 GB

 1 plex:
 P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397  
 GB

 4 subdisks:
 S raid5.p0.s0   State: up   D: r0   Size:465  
 GB
 S raid5.p0.s1   State: up   D: r1   Size:465  
 GB
 S raid5.p0.s2   State: up   D: r2   Size:465  
 GB
 S raid5.p0.s3   State: up   D: r3   Size:465  
 GB

 Essa mensagem de erro no boot é normal?

 Grande abraço à todos

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


-- 
/\ Luiz Gustavo S. Costa
   /  \Programmer at BSD Perimeter
  /\ /\/\/\Visit the pfSense Project
/  \\ \   http://www.pfsense.org
  -
BSD da serra carioca, Teresopolis (visite: http://miud.in/Inv)
Contatos: luizgust...@luizgustavo.pro.br / lgco...@pfsense.org
Blog: http://www.luizgustavo.pro.br
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Marcelo Gondim
Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
 Buenas Marcelo !!!

 Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
 quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
 mas até algum tempo atras não estava estavel (falo isso mas eu não sei
 como esta o estado dele hoje).
Opa Luiz,

É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem 
12Gb de ram então é de boa.
Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos 
para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela 
dica do RaidZ.


 Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
 no ports, sinceramente nunca usei, mas pode-se testar:

 [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
 FreeBSD GEOM class for RAID5.

 This is RAID5 geom class, originally written by Arne Worner
 arne_woer...@yahoo.com

 WWW: http://lev.serebryakov.spb.ru/download/graid5/

 Abraços


 Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br
 escreveu:

 Olá Pesssoal,

 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:

 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
   plex org raid5 512k
   sd drive r0
   sd drive r1
   sd drive r2
   sd drive r3

 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:

 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]

 Mas parece que está tudo funcionando:

 gvinum -  printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s

 gvinum -  l
 4 drives:
 D r0State: up   /dev/ad12a  A: 0/476939 MB
 (0%)
 D r1State: up   /dev/ad14a  A: 0/476939 MB
 (0%)
 D r2State: up   /dev/ad16a  A: 0/476939 MB
 (0%)
 D r3State: up   /dev/ad18a  A: 0/476939 MB
 (0%)

 1 volume:
 V raid5 State: up   Plexes:   1 Size:   1397
 GB

 1 plex:
 P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397
 GB

 4 subdisks:
 S raid5.p0.s0   State: up   D: r0   Size:465
 GB
 S raid5.p0.s1   State: up   D: r1   Size:465
 GB
 S raid5.p0.s2   State: up   D: r2   Size:465
 GB
 S raid5.p0.s3   State: up   D: r3   Size:465
 GB

 Essa mensagem de erro no boot é normal?

 Grande abraço à todos

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Paulo Henrique BSD Brasil
Aproposito, cuidado com disco maiores de 2Tb, a placa-mãe tem que 
disponibilizar suporte a GPT assim como o loader do sistema tambem,
Acabei de me informar sobre apos 6 discos de 3Tb da Seagate adquiridos 
recentemente só poderá ser usados em placas sandy-bridge.
Para mais informação:
http://www.rodsbooks.com/gdisk/booting.html

At.t.
Em 15/10/2011 19:57, Marcelo Gondim escreveu:
 Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
 Buenas Marcelo !!!

 Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
 quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
 mas até algum tempo atras não estava estavel (falo isso mas eu não sei
 como esta o estado dele hoje).
 Opa Luiz,

 É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem
 12Gb de ram então é de boa.
 Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos
 para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela
 dica do RaidZ.

 Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
 no ports, sinceramente nunca usei, mas pode-se testar:

 [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
 FreeBSD GEOM class for RAID5.

 This is RAID5 geom class, originally written by Arne Worner
 arne_woer...@yahoo.com

 WWW: http://lev.serebryakov.spb.ru/download/graid5/

 Abraços


 Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br
 escreveu:

 Olá Pesssoal,

 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:

 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
plex org raid5 512k
sd drive r0
sd drive r1
sd drive r2
sd drive r3

 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:

 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]

 Mas parece que está tudo funcionando:

 gvinum -   printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s

 gvinum -   l
 4 drives:
 D r0State: up   /dev/ad12a  A: 0/476939 MB
 (0%)
 D r1State: up   /dev/ad14a  A: 0/476939 MB
 (0%)
 D r2State: up   /dev/ad16a  A: 0/476939 MB
 (0%)
 D r3State: up   /dev/ad18a  A: 0/476939 MB
 (0%)

 1 volume:
 V raid5 State: up   Plexes:   1 Size:   1397
 GB

 1 plex:
 P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397
 GB

 4 subdisks:
 S raid5.p0.s0   State: up   D: r0   Size:465
 GB
 S raid5.p0.s1   State: up   D: r1   Size:465
 GB
 S raid5.p0.s2   State: up   D: r2   Size:465
 GB
 S raid5.p0.s3   State: up   D: r3   Size:465
 GB

 Essa mensagem de erro no boot é normal?

 Grande abraço à todos

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


-- 
Quando a Morte decide contar uma historia,
A melhor ação que possa fazer é ouvi-la,
e torcer por não ser a sua própria a tal história.

Paulo Henrique.
Analista de Sistemas / Programador
BSDs Brasil.
Genuine Unix/BSD User.
Fone: (21) 9683-5433.


-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Marcelo Gondim
Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
 Buenas Marcelo !!!

 Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
 quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
 mas até algum tempo atras não estava estavel (falo isso mas eu não sei
 como esta o estado dele hoje).

 Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
 no ports, sinceramente nunca usei, mas pode-se testar:

Pronto agora em raidz  ;)

(root@zeus)[~]# zpool status storage
   pool: storage
  state: ONLINE
  scan: none requested
config:

 NAMESTATE READ WRITE CKSUM
 storage ONLINE   0 0 0
   raidz1-0  ONLINE   0 0 0
 ad12ONLINE   0 0 0
 ad14ONLINE   0 0 0
 ad16ONLINE   0 0 0
 ad18ONLINE   0 0 0

errors: No known data errors

As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida 
que realmente funcione. ahahahahaah
Muito bom mesmo!!!



 [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
 FreeBSD GEOM class for RAID5.

 This is RAID5 geom class, originally written by Arne Worner
 arne_woer...@yahoo.com

 WWW: http://lev.serebryakov.spb.ru/download/graid5/

 Abraços


 Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br
 escreveu:

 Olá Pesssoal,

 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:

 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
   plex org raid5 512k
   sd drive r0
   sd drive r1
   sd drive r2
   sd drive r3

 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:

 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]

 Mas parece que está tudo funcionando:

 gvinum -  printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s

 gvinum -  l
 4 drives:
 D r0State: up   /dev/ad12a  A: 0/476939 MB
 (0%)
 D r1State: up   /dev/ad14a  A: 0/476939 MB
 (0%)
 D r2State: up   /dev/ad16a  A: 0/476939 MB
 (0%)
 D r3State: up   /dev/ad18a  A: 0/476939 MB
 (0%)

 1 volume:
 V raid5 State: up   Plexes:   1 Size:   1397
 GB

 1 plex:
 P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397
 GB

 4 subdisks:
 S raid5.p0.s0   State: up   D: r0   Size:465
 GB
 S raid5.p0.s1   State: up   D: r1   Size:465
 GB
 S raid5.p0.s2   State: up   D: r2   Size:465
 GB
 S raid5.p0.s3   State: up   D: r3   Size:465
 GB

 Essa mensagem de erro no boot é normal?

 Grande abraço à todos

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Marcelo Gondim
Em 15/10/2011 20:23, Paulo Henrique BSD Brasil escreveu:
 Aproposito, cuidado com disco maiores de 2Tb, a placa-mãe tem que
 disponibilizar suporte a GPT assim como o loader do sistema tambem,
 Acabei de me informar sobre apos 6 discos de 3Tb da Seagate adquiridos
 recentemente só poderá ser usados em placas sandy-bridge.
 Para mais informação:
 http://www.rodsbooks.com/gdisk/booting.html

Opa essa é uma excelente informação Paulo. Bom saber para não comprar 
errado.

 At.t.
 Em 15/10/2011 19:57, Marcelo Gondim escreveu:
 Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
 Buenas Marcelo !!!

 Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
 quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
 mas até algum tempo atras não estava estavel (falo isso mas eu não sei
 como esta o estado dele hoje).
 Opa Luiz,

 É uma boa oportunidade de começar à trabalhar com o zfs e a máquina tem
 12Gb de ram então é de boa.
 Tava vendo que para cada 1Tb de disco é bom ter 1Gb de ram pelo menos
 para o zfs ou algo assim. Bem vou fazer meus testes aqui e valeu pela
 dica do RaidZ.

 Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
 no ports, sinceramente nunca usei, mas pode-se testar:

 [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
 FreeBSD GEOM class for RAID5.

 This is RAID5 geom class, originally written by Arne Worner
 arne_woer...@yahoo.com

 WWW: http://lev.serebryakov.spb.ru/download/graid5/

 Abraços


 Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br
 escreveu:

 Olá Pesssoal,

 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:

 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex org raid5 512k
 sd drive r0
 sd drive r1
 sd drive r2
 sd drive r3

 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:

 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]

 Mas parece que está tudo funcionando:

 gvinum -printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s

 gvinum -l
 4 drives:
 D r0State: up   /dev/ad12a  A: 0/476939 MB
 (0%)
 D r1State: up   /dev/ad14a  A: 0/476939 MB
 (0%)
 D r2State: up   /dev/ad16a  A: 0/476939 MB
 (0%)
 D r3State: up   /dev/ad18a  A: 0/476939 MB
 (0%)

 1 volume:
 V raid5 State: up   Plexes:   1 Size:   1397
 GB

 1 plex:
 P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397
 GB

 4 subdisks:
 S raid5.p0.s0   State: up   D: r0   Size:465
 GB
 S raid5.p0.s1   State: up   D: r1   Size:465
 GB
 S raid5.p0.s2   State: up   D: r2   Size:465
 GB
 S raid5.p0.s3   State: up   D: r3   Size:465
 GB

 Essa mensagem de erro no boot é normal?

 Grande abraço à todos


-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Thiago Damas
  Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID
10 com zfs?

Thiago

Em 15 de outubro de 2011 21:32, Marcelo Gondim gon...@bsdinfo.com.br escreveu:
 Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
 Buenas Marcelo !!!

 Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
 quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
 mas até algum tempo atras não estava estavel (falo isso mas eu não sei
 como esta o estado dele hoje).

 Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
 no ports, sinceramente nunca usei, mas pode-se testar:

 Pronto agora em raidz  ;)

 (root@zeus)[~]# zpool status storage
   pool: storage
  state: ONLINE
  scan: none requested
 config:

         NAME        STATE     READ WRITE CKSUM
         storage     ONLINE       0     0     0
           raidz1-0  ONLINE       0     0     0
             ad12    ONLINE       0     0     0
             ad14    ONLINE       0     0     0
             ad16    ONLINE       0     0     0
             ad18    ONLINE       0     0     0

 errors: No known data errors

 As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida
 que realmente funcione. ahahahahaah
 Muito bom mesmo!!!



 [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
 FreeBSD GEOM class for RAID5.

 This is RAID5 geom class, originally written by Arne Worner
 arne_woer...@yahoo.com

 WWW: http://lev.serebryakov.spb.ru/download/graid5/

 Abraços


 Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br
 escreveu:

 Olá Pesssoal,

 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:

 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
       plex org raid5 512k
       sd drive r0
       sd drive r1
       sd drive r2
       sd drive r3

 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:

 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]

 Mas parece que está tudo funcionando:

 gvinum -  printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s

 gvinum -  l
 4 drives:
 D r0                    State: up       /dev/ad12a      A: 0/476939 MB
 (0%)
 D r1                    State: up       /dev/ad14a      A: 0/476939 MB
 (0%)
 D r2                    State: up       /dev/ad16a      A: 0/476939 MB
 (0%)
 D r3                    State: up       /dev/ad18a      A: 0/476939 MB
 (0%)

 1 volume:
 V raid5                 State: up       Plexes:       1 Size:       1397
 GB

 1 plex:
 P raid5.p0           R5 State: up       Subdisks:     4 Size:       1397
 GB

 4 subdisks:
 S raid5.p0.s0           State: up       D: r0           Size:        465
 GB
 S raid5.p0.s1           State: up       D: r1           Size:        465
 GB
 S raid5.p0.s2           State: up       D: r2           Size:        465
 GB
 S raid5.p0.s3           State: up       D: r3           Size:        465
 GB

 Essa mensagem de erro no boot é normal?

 Grande abraço à todos

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Marcelo Gondim
Em 15/10/2011 23:03, Thiago Damas escreveu:
Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID
 10 com zfs?

Opa Thiago,

No momento para hospedagem de algumas aplicações mas pensei em criar um 
servidor de VMs. No entanto parece que para isso o que temos de melhor 
seria o Virtualbox pelo jeito.
Pena que ainda não temos grandes opções para essa tarefa ou estou enganado?
Estive procurando por Xen no FreeBSD e pelo visto só trabalha como domU 
e não como dom0.


 Thiago

 Em 15 de outubro de 2011 21:32, Marcelo Gondimgon...@bsdinfo.com.br  
 escreveu:
 Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
 Buenas Marcelo !!!

 Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
 quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
 mas até algum tempo atras não estava estavel (falo isso mas eu não sei
 como esta o estado dele hoje).

 Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
 no ports, sinceramente nunca usei, mas pode-se testar:
 Pronto agora em raidz  ;)

 (root@zeus)[~]# zpool status storage
pool: storage
   state: ONLINE
   scan: none requested
 config:

  NAMESTATE READ WRITE CKSUM
  storage ONLINE   0 0 0
raidz1-0  ONLINE   0 0 0
  ad12ONLINE   0 0 0
  ad14ONLINE   0 0 0
  ad16ONLINE   0 0 0
  ad18ONLINE   0 0 0

 errors: No known data errors

 As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida
 que realmente funcione. ahahahahaah
 Muito bom mesmo!!!


 [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
 FreeBSD GEOM class for RAID5.

 This is RAID5 geom class, originally written by Arne Worner
 arne_woer...@yahoo.com

 WWW: http://lev.serebryakov.spb.ru/download/graid5/

 Abraços


 Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br
 escreveu:

 Olá Pesssoal,

 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:

 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
plex org raid5 512k
sd drive r0
sd drive r1
sd drive r2
sd drive r3

 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:

 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]

 Mas parece que está tudo funcionando:

 gvinum -printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s

 gvinum -l
 4 drives:
 D r0State: up   /dev/ad12a  A: 0/476939 MB
 (0%)
 D r1State: up   /dev/ad14a  A: 0/476939 MB
 (0%)
 D r2State: up   /dev/ad16a  A: 0/476939 MB
 (0%)
 D r3State: up   /dev/ad18a  A: 0/476939 MB
 (0%)

 1 volume:
 V raid5 State: up   Plexes:   1 Size:   1397
 GB

 1 plex:
 P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397
 GB

 4 subdisks:
 S raid5.p0.s0   State: up   D: r0   Size:465
 GB
 S raid5.p0.s1   State: up   D: r1   Size:465
 GB
 S raid5.p0.s2   State: up   D: r2   Size:465
 GB
 S raid5.p0.s3   State: up   D: r3   Size:465
 GB

 Essa mensagem de erro no boot é normal?

 Grande abraço à todos

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Raid 5 no FreeBSD

2011-10-15 Por tôpico Josias L.G
http://wiki.freebsd.org/BHyVe

Em breve algo melhor do que Xen.

Abraços.

Em 15/10/2011, às 23:41, Marcelo Gondim escreveu:

 Em 15/10/2011 23:03, Thiago Damas escreveu:
   Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID
 10 com zfs?
 
 Opa Thiago,
 
 No momento para hospedagem de algumas aplicações mas pensei em criar um 
 servidor de VMs. No entanto parece que para isso o que temos de melhor 
 seria o Virtualbox pelo jeito.
 Pena que ainda não temos grandes opções para essa tarefa ou estou enganado?
 Estive procurando por Xen no FreeBSD e pelo visto só trabalha como domU 
 e não como dom0.
 
 
 Thiago
 
 Em 15 de outubro de 2011 21:32, Marcelo Gondimgon...@bsdinfo.com.br  
 escreveu:
 Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu:
 Buenas Marcelo !!!
 
 Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas
 quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum,
 mas até algum tempo atras não estava estavel (falo isso mas eu não sei
 como esta o estado dele hoje).
 
 Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5
 no ports, sinceramente nunca usei, mas pode-se testar:
 Pronto agora em raidz  ;)
 
 (root@zeus)[~]# zpool status storage
   pool: storage
  state: ONLINE
  scan: none requested
 config:
 
 NAMESTATE READ WRITE CKSUM
 storage ONLINE   0 0 0
   raidz1-0  ONLINE   0 0 0
 ad12ONLINE   0 0 0
 ad14ONLINE   0 0 0
 ad16ONLINE   0 0 0
 ad18ONLINE   0 0 0
 
 errors: No known data errors
 
 As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida
 que realmente funcione. ahahahahaah
 Muito bom mesmo!!!
 
 
 [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr
 FreeBSD GEOM class for RAID5.
 
 This is RAID5 geom class, originally written by Arne Worner
 arne_woer...@yahoo.com
 
 WWW: http://lev.serebryakov.spb.ru/download/graid5/
 
 Abraços
 
 
 Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondimgon...@bsdinfo.com.br
 escreveu:
 
 Olá Pesssoal,
 
 Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5
 com eles. Usei o gvinum:
 
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
   plex org raid5 512k
   sd drive r0
   sd drive r1
   sd drive r2
   sd drive r3
 
 Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5
 ou existe alguma outra forma melhor no FreeBSD?
 Uma outra coisa que aparece no boot é essa mensagem:
 
 Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed.
 gvinum/raid5[READ(offset=1500321938944, length=512)]
 
 Mas parece que está tudo funcionando:
 
 gvinum -printconfig
 # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15
 14:48:59 2011
 drive r0 device /dev/ad12a
 drive r1 device /dev/ad14a
 drive r2 device /dev/ad16a
 drive r3 device /dev/ad18a
 volume raid5
 plex name raid5.p0 org raid5 1024s vol raid5
 sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 0s
 sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 1024s
 sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 2048s
 sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex
 raid5.p0 plexoffset 3072s
 
 gvinum -l
 4 drives:
 D r0State: up   /dev/ad12a  A: 0/476939 MB
 (0%)
 D r1State: up   /dev/ad14a  A: 0/476939 MB
 (0%)
 D r2State: up   /dev/ad16a  A: 0/476939 MB
 (0%)
 D r3State: up   /dev/ad18a  A: 0/476939 MB
 (0%)
 
 1 volume:
 V raid5 State: up   Plexes:   1 Size:   1397
 GB
 
 1 plex:
 P raid5.p0   R5 State: up   Subdisks: 4 Size:   1397
 GB
 
 4 subdisks:
 S raid5.p0.s0   State: up   D: r0   Size:465
 GB
 S raid5.p0.s1   State: up   D: r1   Size:465
 GB
 S raid5.p0.s2   State: up   D: r2   Size:465
 GB
 S raid5.p0.s3   State: up   D: r3   Size:465
 GB
 
 Essa mensagem de erro no boot é normal?
 
 Grande abraço à todos
 
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 
 
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: 

Re: [FUG-BR] instalacoes em serie

2011-10-15 Por tôpico Luiz Gustavo S. Costa
Opa,

se for fazer clone de maquina (mesmo hard, etc... pode ser até hd
diferente), da uma olhada nesse cara:

g4u = http://www.feyrer.de/g4u/

Usei muito ele

Em 14 de outubro de 2011 22:14, Allan Patrick Ksiaskiewcz
alla...@ig.com.br escreveu:
 Como vão? Quais ferramentas seriam indicadas para facilitar uma
 instalação em computadores com mesmas funções e hardwares a partir de
 uma imagem (instalação) pronta.

 Ou ainda a partir de um BSD já atualizado para outros servidores mesmo
 com hardwares diferentes.

 Li algo sobre usfdump e ufsrestore. Existe algo mais especifico para BSD?

 A ideia é ter agilidade no processo de instalação de servidores,
 usando uma imagem meio que padrão atualizada e com kernel
 pré-customizado.
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




-- 
  /\             Luiz Gustavo S. Costa
 /  \            Programmer at BSD Perimeter
/    \ /\/\/\    Visit the pfSense Project
/      \    \ \   http://www.pfsense.org
-
BSD da serra carioca, Teresopolis (visite: http://miud.in/Inv)
Contatos: luizgust...@luizgustavo.pro.br / lgco...@pfsense.org
Blog: http://www.luizgustavo.pro.br
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd