Em 16/10/2011 01:38, Josias L.G escreveu: > http://wiki.freebsd.org/BHyVe > > Em breve algo melhor do que Xen. Cool !!! Não sabia desse projeto. Vou ficar de olho nele, porque é uma área que o FreeBSD ainda não se destacou. O que mais vejo são servidores Debian usando Xen rodando como dom0 e aí sim outros sistemas como domU rodando com excelente performance.
Se o BHyVe ficar melhor com certeza novos horizontes se abrirão. :) > > Abraços. > > Em 15/10/2011, às 23:41, Marcelo Gondim escreveu: > >> Em 15/10/2011 23:03, Thiago Damas escreveu: >>> Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID >>> 10 com zfs? >> Opa Thiago, >> >> No momento para hospedagem de algumas aplicações mas pensei em criar um >> servidor de VMs. No entanto parece que para isso o que temos de melhor >> seria o Virtualbox pelo jeito. >> Pena que ainda não temos grandes opções para essa tarefa ou estou enganado? >> Estive procurando por Xen no FreeBSD e pelo visto só trabalha como domU >> e não como dom0. >> >>> Thiago >>> >>> Em 15 de outubro de 2011 21:32, Marcelo Gondim<[email protected]> >>> escreveu: >>>> Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: >>>>> Buenas Marcelo !!! >>>>> >>>>> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! mas >>>>> quando migra-mos para o 5.x ele não foi portado, até foi criado o gvinum, >>>>> mas até algum tempo atras não estava estavel (falo isso mas eu não sei >>>>> como esta o estado dele hoje). >>>>> >>>>> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada graid5 >>>>> no ports, sinceramente nunca usei, mas pode-se testar: >>>> Pronto agora em raidz ;) >>>> >>>> (root@zeus)[~]# zpool status storage >>>> pool: storage >>>> state: ONLINE >>>> scan: none requested >>>> config: >>>> >>>> NAME STATE READ WRITE CKSUM >>>> storage ONLINE 0 0 0 >>>> raidz1-0 ONLINE 0 0 0 >>>> ad12 ONLINE 0 0 0 >>>> ad14 ONLINE 0 0 0 >>>> ad16 ONLINE 0 0 0 >>>> ad18 ONLINE 0 0 0 >>>> >>>> errors: No known data errors >>>> >>>> As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida >>>> que realmente funcione. ahahahahaah >>>> Muito bom mesmo!!! >>>> >>>> >>>>> [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr >>>>> FreeBSD GEOM class for RAID5. >>>>> >>>>> This is RAID5 geom class, originally written by Arne Worner >>>>> <[email protected]> >>>>> >>>>> WWW: http://lev.serebryakov.spb.ru/download/graid5/ >>>>> >>>>> Abraços >>>>> >>>>> >>>>> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim<[email protected]> >>>>> escreveu: >>>>> >>>>>> Olá Pesssoal, >>>>>> >>>>>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um raid 5 >>>>>> com eles. Usei o gvinum: >>>>>> >>>>>> drive r0 device /dev/ad12a >>>>>> drive r1 device /dev/ad14a >>>>>> drive r2 device /dev/ad16a >>>>>> drive r3 device /dev/ad18a >>>>>> volume raid5 >>>>>> plex org raid5 512k >>>>>> sd drive r0 >>>>>> sd drive r1 >>>>>> sd drive r2 >>>>>> sd drive r3 >>>>>> >>>>>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o raid 5 >>>>>> ou existe alguma outra forma melhor no FreeBSD? >>>>>> Uma outra coisa que aparece no boot é essa mensagem: >>>>>> >>>>>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. >>>>>> gvinum/raid5[READ(offset=1500321938944, length=512)] >>>>>> >>>>>> Mas parece que está tudo funcionando: >>>>>> >>>>>> gvinum -> printconfig >>>>>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 >>>>>> 14:48:59 2011 >>>>>> drive r0 device /dev/ad12a >>>>>> drive r1 device /dev/ad14a >>>>>> drive r2 device /dev/ad16a >>>>>> drive r3 device /dev/ad18a >>>>>> volume raid5 >>>>>> plex name raid5.p0 org raid5 1024s vol raid5 >>>>>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex >>>>>> raid5.p0 plexoffset 0s >>>>>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex >>>>>> raid5.p0 plexoffset 1024s >>>>>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex >>>>>> raid5.p0 plexoffset 2048s >>>>>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex >>>>>> raid5.p0 plexoffset 3072s >>>>>> >>>>>> gvinum -> l >>>>>> 4 drives: >>>>>> D r0 State: up /dev/ad12a A: 0/476939 MB >>>>>> (0%) >>>>>> D r1 State: up /dev/ad14a A: 0/476939 MB >>>>>> (0%) >>>>>> D r2 State: up /dev/ad16a A: 0/476939 MB >>>>>> (0%) >>>>>> D r3 State: up /dev/ad18a A: 0/476939 MB >>>>>> (0%) >>>>>> >>>>>> 1 volume: >>>>>> V raid5 State: up Plexes: 1 Size: 1397 >>>>>> GB >>>>>> >>>>>> 1 plex: >>>>>> P raid5.p0 R5 State: up Subdisks: 4 Size: 1397 >>>>>> GB >>>>>> >>>>>> 4 subdisks: >>>>>> S raid5.p0.s0 State: up D: r0 Size: 465 >>>>>> GB >>>>>> S raid5.p0.s1 State: up D: r1 Size: 465 >>>>>> GB >>>>>> S raid5.p0.s2 State: up D: r2 Size: 465 >>>>>> GB >>>>>> S raid5.p0.s3 State: up D: r3 Size: 465 >>>>>> GB >>>>>> >>>>>> Essa mensagem de erro no boot é normal? >>>>>> >>>>>> Grande abraço à todos >>>>>> >>>>>> ------------------------- >>>>>> ------------------------- Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

