bom dia, Se não me engano tem um port do KVM
http://www.linux-kvm.org/page/BSD http://www.sufixo.com/raw/2009/06/08/kvm-on-freebsd-72/ Fica a dica, e um abraço. Em 16 de outubro de 2011 11:49, Marcelo Gondim <[email protected]>escreveu: > Em 16/10/2011 01:38, Josias L.G escreveu: > > http://wiki.freebsd.org/BHyVe > > > > Em breve algo melhor do que Xen. > Cool !!! Não sabia desse projeto. Vou ficar de olho nele, porque é uma > área que o FreeBSD ainda não se destacou. O que mais vejo são servidores > Debian usando Xen rodando como dom0 e aí sim outros sistemas como domU > rodando com excelente performance. > > Se o BHyVe ficar melhor com certeza novos horizontes se abrirão. :) > > > > Abraços. > > > > Em 15/10/2011, às 23:41, Marcelo Gondim escreveu: > > > >> Em 15/10/2011 23:03, Thiago Damas escreveu: > >>> Que tipo de aplicacao usara estes discos? Ja pensou em fazer um RAID > >>> 10 com zfs? > >> Opa Thiago, > >> > >> No momento para hospedagem de algumas aplicações mas pensei em criar um > >> servidor de VMs. No entanto parece que para isso o que temos de melhor > >> seria o Virtualbox pelo jeito. > >> Pena que ainda não temos grandes opções para essa tarefa ou estou > enganado? > >> Estive procurando por Xen no FreeBSD e pelo visto só trabalha como domU > >> e não como dom0. > >> > >>> Thiago > >>> > >>> Em 15 de outubro de 2011 21:32, Marcelo Gondim<[email protected]> > escreveu: > >>>> Em 15/10/2011 16:54, Luiz Gustavo Costa escreveu: > >>>>> Buenas Marcelo !!! > >>>>> > >>>>> Rapaz, vinum... usei muito na familia 4.x do freebsd, era muito bom ! > mas > >>>>> quando migra-mos para o 5.x ele não foi portado, até foi criado o > gvinum, > >>>>> mas até algum tempo atras não estava estavel (falo isso mas eu não > sei > >>>>> como esta o estado dele hoje). > >>>>> > >>>>> Eu faria o raid5 (raidZ) no zfs, mas existe uma outra opção chamada > graid5 > >>>>> no ports, sinceramente nunca usei, mas pode-se testar: > >>>> Pronto agora em raidz ;) > >>>> > >>>> (root@zeus)[~]# zpool status storage > >>>> pool: storage > >>>> state: ONLINE > >>>> scan: none requested > >>>> config: > >>>> > >>>> NAME STATE READ WRITE CKSUM > >>>> storage ONLINE 0 0 0 > >>>> raidz1-0 ONLINE 0 0 0 > >>>> ad12 ONLINE 0 0 0 > >>>> ad14 ONLINE 0 0 0 > >>>> ad16 ONLINE 0 0 0 > >>>> ad18 ONLINE 0 0 0 > >>>> > >>>> errors: No known data errors > >>>> > >>>> As vezes é tão fácil fazer as coisas no FreeBSD que a gente até duvida > >>>> que realmente funcione. ahahahahaah > >>>> Muito bom mesmo!!! > >>>> > >>>> > >>>>> [root@desktop] /usr/ports/sysutils/graid5# cat pkg-descr > >>>>> FreeBSD GEOM class for RAID5. > >>>>> > >>>>> This is RAID5 geom class, originally written by Arne Worner > >>>>> <[email protected]> > >>>>> > >>>>> WWW: http://lev.serebryakov.spb.ru/download/graid5/ > >>>>> > >>>>> Abraços > >>>>> > >>>>> > >>>>> Em Sat, 15 Oct 2011 14:50:45 -0300, Marcelo Gondim< > [email protected]> > >>>>> escreveu: > >>>>> > >>>>>> Olá Pesssoal, > >>>>>> > >>>>>> Estou aqui com 4 discos SATA II em uma máquina e resolvi fazer um > raid 5 > >>>>>> com eles. Usei o gvinum: > >>>>>> > >>>>>> drive r0 device /dev/ad12a > >>>>>> drive r1 device /dev/ad14a > >>>>>> drive r2 device /dev/ad16a > >>>>>> drive r3 device /dev/ad18a > >>>>>> volume raid5 > >>>>>> plex org raid5 512k > >>>>>> sd drive r0 > >>>>>> sd drive r1 > >>>>>> sd drive r2 > >>>>>> sd drive r3 > >>>>>> > >>>>>> Parece que foi tudo 100%. É realmente o gvinum usado para fazer o > raid 5 > >>>>>> ou existe alguma outra forma melhor no FreeBSD? > >>>>>> Uma outra coisa que aparece no boot é essa mensagem: > >>>>>> > >>>>>> Oct 15 10:36:12 zeus kernel: GEOM_VINUM: raid5 plex request failed. > >>>>>> gvinum/raid5[READ(offset=1500321938944, length=512)] > >>>>>> > >>>>>> Mas parece que está tudo funcionando: > >>>>>> > >>>>>> gvinum -> printconfig > >>>>>> # Vinum configuration of zeus.linuxinfo.com.br, saved at Sat Oct 15 > >>>>>> 14:48:59 2011 > >>>>>> drive r0 device /dev/ad12a > >>>>>> drive r1 device /dev/ad14a > >>>>>> drive r2 device /dev/ad16a > >>>>>> drive r3 device /dev/ad18a > >>>>>> volume raid5 > >>>>>> plex name raid5.p0 org raid5 1024s vol raid5 > >>>>>> sd name raid5.p0.s0 drive r0 len 976772096s driveoffset 265s plex > >>>>>> raid5.p0 plexoffset 0s > >>>>>> sd name raid5.p0.s1 drive r1 len 976772096s driveoffset 265s plex > >>>>>> raid5.p0 plexoffset 1024s > >>>>>> sd name raid5.p0.s2 drive r2 len 976772096s driveoffset 265s plex > >>>>>> raid5.p0 plexoffset 2048s > >>>>>> sd name raid5.p0.s3 drive r3 len 976772096s driveoffset 265s plex > >>>>>> raid5.p0 plexoffset 3072s > >>>>>> > >>>>>> gvinum -> l > >>>>>> 4 drives: > >>>>>> D r0 State: up /dev/ad12a A: 0/476939 > MB > >>>>>> (0%) > >>>>>> D r1 State: up /dev/ad14a A: 0/476939 > MB > >>>>>> (0%) > >>>>>> D r2 State: up /dev/ad16a A: 0/476939 > MB > >>>>>> (0%) > >>>>>> D r3 State: up /dev/ad18a A: 0/476939 > MB > >>>>>> (0%) > >>>>>> > >>>>>> 1 volume: > >>>>>> V raid5 State: up Plexes: 1 Size: > 1397 > >>>>>> GB > >>>>>> > >>>>>> 1 plex: > >>>>>> P raid5.p0 R5 State: up Subdisks: 4 Size: > 1397 > >>>>>> GB > >>>>>> > >>>>>> 4 subdisks: > >>>>>> S raid5.p0.s0 State: up D: r0 Size: > 465 > >>>>>> GB > >>>>>> S raid5.p0.s1 State: up D: r1 Size: > 465 > >>>>>> GB > >>>>>> S raid5.p0.s2 State: up D: r2 Size: > 465 > >>>>>> GB > >>>>>> S raid5.p0.s3 State: up D: r3 Size: > 465 > >>>>>> GB > >>>>>> > >>>>>> Essa mensagem de erro no boot é normal? > >>>>>> > >>>>>> Grande abraço à todos > >>>>>> > >>>>>> ------------------------- > >>>>>> > > ------------------------- > Histórico: http://www.fug.com.br/historico/html/freebsd/ > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd > -- João Luis Mancy dos Santos joaocep at gmail.com (msn too) http://joaocep.blogspot.com http://www.istf.com.br/perguntas/ http://www.fug.com.br/content/view/20/69/ uin 82889044 ------------------------- Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

