Re: [FUG-BR] Acesso ao disco em vmware

2012-06-15 Por tôpico Welinaldo Lopes Nascimento
Fiz um novo teste /extração usando freebsd 9 64bis, com disco pre-alocado,
o resultado é de 14.20 min... Já com Freebsd 8 32bits, com disco não
pre-alocado, ficou com tempo de 13.12 min.

Alguém chegou a alguma conclusão para esta thread?



Em 19 de maio de 2012 11:22, Welinaldo Lopes Nascimento <
welina...@bsd.com.br> escreveu:

> Estou implementando um servidor HP proliant com 4gb, até amanhã posto aqui
> este resultado também..
>
> Ari, qual foi o seu tempo para remoção?
>
>
>
>
> Em 19 de maio de 2012 11:18, Welinaldo Lopes Nascimento <
> welina...@bsd.com.br> escreveu:
>
> É um notebook Dell XPS, i7 2630QM, 8GB ram, só para estudo básico.
>>
>> Em 19 de maio de 2012 09:19, Ari Arantes Filho  escreveu:
>>
>> 13minutos é muito tempo também.
>>>
>>> Qual a configuração da sua máquina?
>>>
>>>
>>> Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
>>>  escreveu:
>>> > e pra remover:
>>> >
>>> > 0.238   3.642s   3:44.30  1.7%
>>> >
>>> > Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento <
>>> > welina...@bsd.com.br> escreveu:
>>> >
>>> >> Ari, fiz o teste aqui no meu e ficou o seguinte:
>>> >>
>>> >> 7.088u   19.307s  13:12.91  3.3%
>>> >>
>>> >>
>>> >>
>>> >>
>>> >>
>>> >> Em 18 de maio de 2012 18:37, Ari Arantes Filho 
>>> escreveu:
>>> >>
>>> >> Testei com o disco sem o thinprovisioning:
>>> >>>
>>> >>> # time tar xzf ports.tar.gz
>>> >>>
>>> >>> real16m8.904s
>>> >>>
>>> >>> mesma coisa, péssima performance.
>>> >>>
>>> >>>
>>> >>>
>>> >>> Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
>>> >>>  escreveu:
>>> >>> > Beleza Ari, vamos ficar aguardando o resultado...
>>> >>> > Amanhã vou fazer o mesmo e posto aqui também o resultado.
>>> >>> >
>>> >>> > Em 18 de maio de 2012 17:08, Ari Arantes Filho 
>>> >>> escreveu:
>>> >>> >
>>> >>> >> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o
>>> thinprovisioning
>>> >>> >> e reporto aqui na lista os resultados.
>>> >>> >>
>>> >>> >> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
>>> >>> >>  escreveu:
>>> >>> >> > 2012/5/18 Ari Arantes Filho 
>>> >>> >> >
>>> >>> >> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
>>> >>> seja,
>>> >>> >> >> libero o espaço e teoricamente o vmware não precisará aumentar
>>> >>> >> >> novamente
>>> >>> >> >>
>>> >>> >> >
>>> >>> >> > Eu posso estar errado, os mais experientes neste caso que me
>>> >>> corrijam,
>>> >>> >> mas
>>> >>> >> > o UFS2 em uso no caso do FreeBSD não faz isso que você está
>>> >>> imaginando.
>>> >>> >> >
>>> >>> >> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2
>>> vai
>>> >>> alocar
>>> >>> >> o
>>> >>> >> > espaço para o mesmo. E quando você apaga o mesmo, apesar do
>>> espaço
>>> >>> ficar
>>> >>> >> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova
>>> gravação,
>>> >>> não
>>> >>> >> irá
>>> >>> >> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O
>>> >>> espaço
>>> >>> >> > liberado somente será utilizando quando o disco não tiver mais
>>> >>> espaços
>>> >>> >> > livres.
>>> >>> >> >
>>> >>> >> > Ao utilizar recursos como este em HDs reais, o file system tem
>>> uma
>>> >>> >> melhora
>>> >>> >> > de performance, pois não precisa ficar apagando o disco... ele
>>> vai
>>> >>> usando
>>> >>> >> > espaços livres até que realmente seja necessário uma limpeza do
>>> file
>>> >>> >> system
>>> >>> >> > por ter acabado o espaço livre.
>>> >>> >> >
>>> >>> >> > Ultimamente percebi que após algum tempo, algumas horas, o
>>> espaço
>>> >>> acaba
>>> >>> >> > sendo liberado para uso... então acredito que tenha sido feita
>>> uma
>>> >>> >> > alteração para algum processo de varredura ir liberando o
>>> espaço de
>>> >>> tempo
>>> >>> >> > em tempo.. mas isso não é em tempo real.
>>> >>> >> >
>>> >>> >> > Um exemplo prático disso:
>>> >>> >> >
>>> >>> >> > - esgote o espaço em disco com arquivos grandes.
>>> >>> >> > - apague um dos arquivos grandes.
>>> >>> >> > - o espaço não será liberado imediatamente... o disco vai
>>> continuar
>>> >>> >> > reclamando que não tem espaço livre o suficiente.
>>> >>> >> >
>>> >>> >> > Normalmente isso não apresenta grandes problemas... pois um bom
>>> >>> >> > administrador nunca irá deixar esgotar o espaço em disco.
>>> >>> >> >
>>> >>> >> > Porém, no caso do thinprovisioning isso é um problema. Pois a
>>> cada
>>> >>> nova
>>> >>> >> > gravação ele vai precisar requisitar do HOST um novo espaço em
>>> >>> disco. O
>>> >>> >> que
>>> >>> >> > acaba ficando lendo.
>>> >>> >> >
>>> >>> >> > Eu sinceramente evito usar thinprovisioning em servidores de
>>> >>> >> virtualização,
>>> >>> >> > tanto por causa deste problema, quanto pelo efeito surpresa, de
>>> você
>>> >>> >> alocar
>>> >>> >> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
>>> >>> precisaram
>>> >>> >> usar
>>> >>> >> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na
>>> prática
>>> >>> >> teremos
>>> >>> >> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil
>>> >>> ficar
>>> >

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-19 Por tôpico Welinaldo Lopes Nascimento
Estou implementando um servidor HP proliant com 4gb, até amanhã posto aqui
este resultado também..

Ari, qual foi o seu tempo para remoção?




Em 19 de maio de 2012 11:18, Welinaldo Lopes Nascimento <
welina...@bsd.com.br> escreveu:

> É um notebook Dell XPS, i7 2630QM, 8GB ram, só para estudo básico.
>
> Em 19 de maio de 2012 09:19, Ari Arantes Filho  escreveu:
>
> 13minutos é muito tempo também.
>>
>> Qual a configuração da sua máquina?
>>
>>
>> Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
>>  escreveu:
>> > e pra remover:
>> >
>> > 0.238   3.642s   3:44.30  1.7%
>> >
>> > Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento <
>> > welina...@bsd.com.br> escreveu:
>> >
>> >> Ari, fiz o teste aqui no meu e ficou o seguinte:
>> >>
>> >> 7.088u   19.307s  13:12.91  3.3%
>> >>
>> >>
>> >>
>> >>
>> >>
>> >> Em 18 de maio de 2012 18:37, Ari Arantes Filho 
>> escreveu:
>> >>
>> >> Testei com o disco sem o thinprovisioning:
>> >>>
>> >>> # time tar xzf ports.tar.gz
>> >>>
>> >>> real16m8.904s
>> >>>
>> >>> mesma coisa, péssima performance.
>> >>>
>> >>>
>> >>>
>> >>> Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
>> >>>  escreveu:
>> >>> > Beleza Ari, vamos ficar aguardando o resultado...
>> >>> > Amanhã vou fazer o mesmo e posto aqui também o resultado.
>> >>> >
>> >>> > Em 18 de maio de 2012 17:08, Ari Arantes Filho 
>> >>> escreveu:
>> >>> >
>> >>> >> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o
>> thinprovisioning
>> >>> >> e reporto aqui na lista os resultados.
>> >>> >>
>> >>> >> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
>> >>> >>  escreveu:
>> >>> >> > 2012/5/18 Ari Arantes Filho 
>> >>> >> >
>> >>> >> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
>> >>> seja,
>> >>> >> >> libero o espaço e teoricamente o vmware não precisará aumentar
>> >>> >> >> novamente
>> >>> >> >>
>> >>> >> >
>> >>> >> > Eu posso estar errado, os mais experientes neste caso que me
>> >>> corrijam,
>> >>> >> mas
>> >>> >> > o UFS2 em uso no caso do FreeBSD não faz isso que você está
>> >>> imaginando.
>> >>> >> >
>> >>> >> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
>> >>> alocar
>> >>> >> o
>> >>> >> > espaço para o mesmo. E quando você apaga o mesmo, apesar do
>> espaço
>> >>> ficar
>> >>> >> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova
>> gravação,
>> >>> não
>> >>> >> irá
>> >>> >> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O
>> >>> espaço
>> >>> >> > liberado somente será utilizando quando o disco não tiver mais
>> >>> espaços
>> >>> >> > livres.
>> >>> >> >
>> >>> >> > Ao utilizar recursos como este em HDs reais, o file system tem
>> uma
>> >>> >> melhora
>> >>> >> > de performance, pois não precisa ficar apagando o disco... ele
>> vai
>> >>> usando
>> >>> >> > espaços livres até que realmente seja necessário uma limpeza do
>> file
>> >>> >> system
>> >>> >> > por ter acabado o espaço livre.
>> >>> >> >
>> >>> >> > Ultimamente percebi que após algum tempo, algumas horas, o espaço
>> >>> acaba
>> >>> >> > sendo liberado para uso... então acredito que tenha sido feita
>> uma
>> >>> >> > alteração para algum processo de varredura ir liberando o espaço
>> de
>> >>> tempo
>> >>> >> > em tempo.. mas isso não é em tempo real.
>> >>> >> >
>> >>> >> > Um exemplo prático disso:
>> >>> >> >
>> >>> >> > - esgote o espaço em disco com arquivos grandes.
>> >>> >> > - apague um dos arquivos grandes.
>> >>> >> > - o espaço não será liberado imediatamente... o disco vai
>> continuar
>> >>> >> > reclamando que não tem espaço livre o suficiente.
>> >>> >> >
>> >>> >> > Normalmente isso não apresenta grandes problemas... pois um bom
>> >>> >> > administrador nunca irá deixar esgotar o espaço em disco.
>> >>> >> >
>> >>> >> > Porém, no caso do thinprovisioning isso é um problema. Pois a
>> cada
>> >>> nova
>> >>> >> > gravação ele vai precisar requisitar do HOST um novo espaço em
>> >>> disco. O
>> >>> >> que
>> >>> >> > acaba ficando lendo.
>> >>> >> >
>> >>> >> > Eu sinceramente evito usar thinprovisioning em servidores de
>> >>> >> virtualização,
>> >>> >> > tanto por causa deste problema, quanto pelo efeito surpresa, de
>> você
>> >>> >> alocar
>> >>> >> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
>> >>> precisaram
>> >>> >> usar
>> >>> >> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na
>> prática
>> >>> >> teremos
>> >>> >> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil
>> >>> ficar
>> >>> >> > acompanhando o crescimento, e o tamanho configurado para cada
>> uma no
>> >>> >> > momento da crianção da máquina.
>> >>> >> >
>> >>> >> > --
>> >>> >> > Rafael Henrique da Silva Faria
>> >>> >> > -
>> >>> >> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>> >>> >> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> >>> >> -
>> >>> >> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> >>> >> Sai

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-19 Por tôpico Welinaldo Lopes Nascimento
É um notebook Dell XPS, i7 2630QM, 8GB ram, só para estudo básico.

Em 19 de maio de 2012 09:19, Ari Arantes Filho  escreveu:

> 13minutos é muito tempo também.
>
> Qual a configuração da sua máquina?
>
>
> Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
>  escreveu:
> > e pra remover:
> >
> > 0.238   3.642s   3:44.30  1.7%
> >
> > Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento <
> > welina...@bsd.com.br> escreveu:
> >
> >> Ari, fiz o teste aqui no meu e ficou o seguinte:
> >>
> >> 7.088u   19.307s  13:12.91  3.3%
> >>
> >>
> >>
> >>
> >>
> >> Em 18 de maio de 2012 18:37, Ari Arantes Filho 
> escreveu:
> >>
> >> Testei com o disco sem o thinprovisioning:
> >>>
> >>> # time tar xzf ports.tar.gz
> >>>
> >>> real16m8.904s
> >>>
> >>> mesma coisa, péssima performance.
> >>>
> >>>
> >>>
> >>> Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
> >>>  escreveu:
> >>> > Beleza Ari, vamos ficar aguardando o resultado...
> >>> > Amanhã vou fazer o mesmo e posto aqui também o resultado.
> >>> >
> >>> > Em 18 de maio de 2012 17:08, Ari Arantes Filho 
> >>> escreveu:
> >>> >
> >>> >> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o
> thinprovisioning
> >>> >> e reporto aqui na lista os resultados.
> >>> >>
> >>> >> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
> >>> >>  escreveu:
> >>> >> > 2012/5/18 Ari Arantes Filho 
> >>> >> >
> >>> >> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
> >>> seja,
> >>> >> >> libero o espaço e teoricamente o vmware não precisará aumentar
> >>> >> >> novamente
> >>> >> >>
> >>> >> >
> >>> >> > Eu posso estar errado, os mais experientes neste caso que me
> >>> corrijam,
> >>> >> mas
> >>> >> > o UFS2 em uso no caso do FreeBSD não faz isso que você está
> >>> imaginando.
> >>> >> >
> >>> >> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
> >>> alocar
> >>> >> o
> >>> >> > espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
> >>> ficar
> >>> >> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova
> gravação,
> >>> não
> >>> >> irá
> >>> >> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O
> >>> espaço
> >>> >> > liberado somente será utilizando quando o disco não tiver mais
> >>> espaços
> >>> >> > livres.
> >>> >> >
> >>> >> > Ao utilizar recursos como este em HDs reais, o file system tem uma
> >>> >> melhora
> >>> >> > de performance, pois não precisa ficar apagando o disco... ele vai
> >>> usando
> >>> >> > espaços livres até que realmente seja necessário uma limpeza do
> file
> >>> >> system
> >>> >> > por ter acabado o espaço livre.
> >>> >> >
> >>> >> > Ultimamente percebi que após algum tempo, algumas horas, o espaço
> >>> acaba
> >>> >> > sendo liberado para uso... então acredito que tenha sido feita uma
> >>> >> > alteração para algum processo de varredura ir liberando o espaço
> de
> >>> tempo
> >>> >> > em tempo.. mas isso não é em tempo real.
> >>> >> >
> >>> >> > Um exemplo prático disso:
> >>> >> >
> >>> >> > - esgote o espaço em disco com arquivos grandes.
> >>> >> > - apague um dos arquivos grandes.
> >>> >> > - o espaço não será liberado imediatamente... o disco vai
> continuar
> >>> >> > reclamando que não tem espaço livre o suficiente.
> >>> >> >
> >>> >> > Normalmente isso não apresenta grandes problemas... pois um bom
> >>> >> > administrador nunca irá deixar esgotar o espaço em disco.
> >>> >> >
> >>> >> > Porém, no caso do thinprovisioning isso é um problema. Pois a cada
> >>> nova
> >>> >> > gravação ele vai precisar requisitar do HOST um novo espaço em
> >>> disco. O
> >>> >> que
> >>> >> > acaba ficando lendo.
> >>> >> >
> >>> >> > Eu sinceramente evito usar thinprovisioning em servidores de
> >>> >> virtualização,
> >>> >> > tanto por causa deste problema, quanto pelo efeito surpresa, de
> você
> >>> >> alocar
> >>> >> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
> >>> precisaram
> >>> >> usar
> >>> >> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
> >>> >> teremos
> >>> >> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil
> >>> ficar
> >>> >> > acompanhando o crescimento, e o tamanho configurado para cada uma
> no
> >>> >> > momento da crianção da máquina.
> >>> >> >
> >>> >> > --
> >>> >> > Rafael Henrique da Silva Faria
> >>> >> > -
> >>> >> > Histórico: http://www.fug.com.br/historico/html/freebsd/
> >>> >> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> >>> >> -
> >>> >> Histórico: http://www.fug.com.br/historico/html/freebsd/
> >>> >> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> >>> >>
> >>> >
> >>> >
> >>> >
> >>> > --
> >>> > .:: Welinaldo L N
> >>> > .:: Estudante de Desenvolvimento de Sistemas
> >>> > .:: FreeBSD Community Member #BSD/OS
> >>> > .:: Antes de imprimir, veja se realmente é necessário!
> >>> > .ılı..ılı.
> >>> > -
> >>> > Histórico: http://www.fug.com.br/historico/

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-19 Por tôpico Ari Arantes Filho
13minutos é muito tempo também.

Qual a configuração da sua máquina?


Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
 escreveu:
> e pra remover:
>
> 0.238   3.642s   3:44.30  1.7%
>
> Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento <
> welina...@bsd.com.br> escreveu:
>
>> Ari, fiz o teste aqui no meu e ficou o seguinte:
>>
>> 7.088u   19.307s  13:12.91  3.3%
>>
>>
>>
>>
>>
>> Em 18 de maio de 2012 18:37, Ari Arantes Filho  escreveu:
>>
>> Testei com o disco sem o thinprovisioning:
>>>
>>> # time tar xzf ports.tar.gz
>>>
>>> real    16m8.904s
>>>
>>> mesma coisa, péssima performance.
>>>
>>>
>>>
>>> Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
>>>  escreveu:
>>> > Beleza Ari, vamos ficar aguardando o resultado...
>>> > Amanhã vou fazer o mesmo e posto aqui também o resultado.
>>> >
>>> > Em 18 de maio de 2012 17:08, Ari Arantes Filho 
>>> escreveu:
>>> >
>>> >> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
>>> >> e reporto aqui na lista os resultados.
>>> >>
>>> >> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
>>> >>  escreveu:
>>> >> > 2012/5/18 Ari Arantes Filho 
>>> >> >
>>> >> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
>>> seja,
>>> >> >> libero o espaço e teoricamente o vmware não precisará aumentar
>>> >> >> novamente
>>> >> >>
>>> >> >
>>> >> > Eu posso estar errado, os mais experientes neste caso que me
>>> corrijam,
>>> >> mas
>>> >> > o UFS2 em uso no caso do FreeBSD não faz isso que você está
>>> imaginando.
>>> >> >
>>> >> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
>>> alocar
>>> >> o
>>> >> > espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
>>> ficar
>>> >> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova gravação,
>>> não
>>> >> irá
>>> >> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O
>>> espaço
>>> >> > liberado somente será utilizando quando o disco não tiver mais
>>> espaços
>>> >> > livres.
>>> >> >
>>> >> > Ao utilizar recursos como este em HDs reais, o file system tem uma
>>> >> melhora
>>> >> > de performance, pois não precisa ficar apagando o disco... ele vai
>>> usando
>>> >> > espaços livres até que realmente seja necessário uma limpeza do file
>>> >> system
>>> >> > por ter acabado o espaço livre.
>>> >> >
>>> >> > Ultimamente percebi que após algum tempo, algumas horas, o espaço
>>> acaba
>>> >> > sendo liberado para uso... então acredito que tenha sido feita uma
>>> >> > alteração para algum processo de varredura ir liberando o espaço de
>>> tempo
>>> >> > em tempo.. mas isso não é em tempo real.
>>> >> >
>>> >> > Um exemplo prático disso:
>>> >> >
>>> >> > - esgote o espaço em disco com arquivos grandes.
>>> >> > - apague um dos arquivos grandes.
>>> >> > - o espaço não será liberado imediatamente... o disco vai continuar
>>> >> > reclamando que não tem espaço livre o suficiente.
>>> >> >
>>> >> > Normalmente isso não apresenta grandes problemas... pois um bom
>>> >> > administrador nunca irá deixar esgotar o espaço em disco.
>>> >> >
>>> >> > Porém, no caso do thinprovisioning isso é um problema. Pois a cada
>>> nova
>>> >> > gravação ele vai precisar requisitar do HOST um novo espaço em
>>> disco. O
>>> >> que
>>> >> > acaba ficando lendo.
>>> >> >
>>> >> > Eu sinceramente evito usar thinprovisioning em servidores de
>>> >> virtualização,
>>> >> > tanto por causa deste problema, quanto pelo efeito surpresa, de você
>>> >> alocar
>>> >> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
>>> precisaram
>>> >> usar
>>> >> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
>>> >> teremos
>>> >> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil
>>> ficar
>>> >> > acompanhando o crescimento, e o tamanho configurado para cada uma no
>>> >> > momento da crianção da máquina.
>>> >> >
>>> >> > --
>>> >> > Rafael Henrique da Silva Faria
>>> >> > -
>>> >> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>>> >> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>> >> -
>>> >> Histórico: http://www.fug.com.br/historico/html/freebsd/
>>> >> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>> >>
>>> >
>>> >
>>> >
>>> > --
>>> > .:: Welinaldo L N
>>> > .:: Estudante de Desenvolvimento de Sistemas
>>> > .:: FreeBSD Community Member #BSD/OS
>>> > .:: Antes de imprimir, veja se realmente é necessário!
>>> > .ılı..ılı.
>>> > -
>>> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>>> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>> -
>>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>>
>>
>>
>>
>> --
>> .:: Welinaldo L N
>> .:: Estudante de Desenvolvimento de Sistemas
>> .:: FreeBSD Community Member #BSD/OS
>> .:: Antes de imprimir, veja se realmente é necessá

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
e pra remover:

0.238   3.642s   3:44.30  1.7%

Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento <
welina...@bsd.com.br> escreveu:

> Ari, fiz o teste aqui no meu e ficou o seguinte:
>
> 7.088u   19.307s  13:12.91  3.3%
>
>
>
>
>
> Em 18 de maio de 2012 18:37, Ari Arantes Filho  escreveu:
>
> Testei com o disco sem o thinprovisioning:
>>
>> # time tar xzf ports.tar.gz
>>
>> real16m8.904s
>>
>> mesma coisa, péssima performance.
>>
>>
>>
>> Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
>>  escreveu:
>> > Beleza Ari, vamos ficar aguardando o resultado...
>> > Amanhã vou fazer o mesmo e posto aqui também o resultado.
>> >
>> > Em 18 de maio de 2012 17:08, Ari Arantes Filho 
>> escreveu:
>> >
>> >> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
>> >> e reporto aqui na lista os resultados.
>> >>
>> >> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
>> >>  escreveu:
>> >> > 2012/5/18 Ari Arantes Filho 
>> >> >
>> >> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
>> seja,
>> >> >> libero o espaço e teoricamente o vmware não precisará aumentar
>> >> >> novamente
>> >> >>
>> >> >
>> >> > Eu posso estar errado, os mais experientes neste caso que me
>> corrijam,
>> >> mas
>> >> > o UFS2 em uso no caso do FreeBSD não faz isso que você está
>> imaginando.
>> >> >
>> >> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
>> alocar
>> >> o
>> >> > espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
>> ficar
>> >> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova gravação,
>> não
>> >> irá
>> >> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O
>> espaço
>> >> > liberado somente será utilizando quando o disco não tiver mais
>> espaços
>> >> > livres.
>> >> >
>> >> > Ao utilizar recursos como este em HDs reais, o file system tem uma
>> >> melhora
>> >> > de performance, pois não precisa ficar apagando o disco... ele vai
>> usando
>> >> > espaços livres até que realmente seja necessário uma limpeza do file
>> >> system
>> >> > por ter acabado o espaço livre.
>> >> >
>> >> > Ultimamente percebi que após algum tempo, algumas horas, o espaço
>> acaba
>> >> > sendo liberado para uso... então acredito que tenha sido feita uma
>> >> > alteração para algum processo de varredura ir liberando o espaço de
>> tempo
>> >> > em tempo.. mas isso não é em tempo real.
>> >> >
>> >> > Um exemplo prático disso:
>> >> >
>> >> > - esgote o espaço em disco com arquivos grandes.
>> >> > - apague um dos arquivos grandes.
>> >> > - o espaço não será liberado imediatamente... o disco vai continuar
>> >> > reclamando que não tem espaço livre o suficiente.
>> >> >
>> >> > Normalmente isso não apresenta grandes problemas... pois um bom
>> >> > administrador nunca irá deixar esgotar o espaço em disco.
>> >> >
>> >> > Porém, no caso do thinprovisioning isso é um problema. Pois a cada
>> nova
>> >> > gravação ele vai precisar requisitar do HOST um novo espaço em
>> disco. O
>> >> que
>> >> > acaba ficando lendo.
>> >> >
>> >> > Eu sinceramente evito usar thinprovisioning em servidores de
>> >> virtualização,
>> >> > tanto por causa deste problema, quanto pelo efeito surpresa, de você
>> >> alocar
>> >> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
>> precisaram
>> >> usar
>> >> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
>> >> teremos
>> >> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil
>> ficar
>> >> > acompanhando o crescimento, e o tamanho configurado para cada uma no
>> >> > momento da crianção da máquina.
>> >> >
>> >> > --
>> >> > Rafael Henrique da Silva Faria
>> >> > -
>> >> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>> >> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> >> -
>> >> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> >> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> >>
>> >
>> >
>> >
>> > --
>> > .:: Welinaldo L N
>> > .:: Estudante de Desenvolvimento de Sistemas
>> > .:: FreeBSD Community Member #BSD/OS
>> > .:: Antes de imprimir, veja se realmente é necessário!
>> > .ılı..ılı.
>> > -
>> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> -
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>
>
>
>
> --
> .:: Welinaldo L N
> .:: Estudante de Desenvolvimento de Sistemas
> .:: FreeBSD Community Member #BSD/OS
> .:: Antes de imprimir, veja se realmente é necessário!
>  .ılı..ılı.
>
>


-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lis

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Ari, fiz o teste aqui no meu e ficou o seguinte:

7.088u   19.307s  13:12.91  3.3%





Em 18 de maio de 2012 18:37, Ari Arantes Filho  escreveu:

> Testei com o disco sem o thinprovisioning:
>
> # time tar xzf ports.tar.gz
>
> real16m8.904s
>
> mesma coisa, péssima performance.
>
>
>
> Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
>  escreveu:
> > Beleza Ari, vamos ficar aguardando o resultado...
> > Amanhã vou fazer o mesmo e posto aqui também o resultado.
> >
> > Em 18 de maio de 2012 17:08, Ari Arantes Filho  escreveu:
> >
> >> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
> >> e reporto aqui na lista os resultados.
> >>
> >> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
> >>  escreveu:
> >> > 2012/5/18 Ari Arantes Filho 
> >> >
> >> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
> >> >> libero o espaço e teoricamente o vmware não precisará aumentar
> >> >> novamente
> >> >>
> >> >
> >> > Eu posso estar errado, os mais experientes neste caso que me corrijam,
> >> mas
> >> > o UFS2 em uso no caso do FreeBSD não faz isso que você está
> imaginando.
> >> >
> >> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
> alocar
> >> o
> >> > espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
> ficar
> >> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova gravação,
> não
> >> irá
> >> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O espaço
> >> > liberado somente será utilizando quando o disco não tiver mais espaços
> >> > livres.
> >> >
> >> > Ao utilizar recursos como este em HDs reais, o file system tem uma
> >> melhora
> >> > de performance, pois não precisa ficar apagando o disco... ele vai
> usando
> >> > espaços livres até que realmente seja necessário uma limpeza do file
> >> system
> >> > por ter acabado o espaço livre.
> >> >
> >> > Ultimamente percebi que após algum tempo, algumas horas, o espaço
> acaba
> >> > sendo liberado para uso... então acredito que tenha sido feita uma
> >> > alteração para algum processo de varredura ir liberando o espaço de
> tempo
> >> > em tempo.. mas isso não é em tempo real.
> >> >
> >> > Um exemplo prático disso:
> >> >
> >> > - esgote o espaço em disco com arquivos grandes.
> >> > - apague um dos arquivos grandes.
> >> > - o espaço não será liberado imediatamente... o disco vai continuar
> >> > reclamando que não tem espaço livre o suficiente.
> >> >
> >> > Normalmente isso não apresenta grandes problemas... pois um bom
> >> > administrador nunca irá deixar esgotar o espaço em disco.
> >> >
> >> > Porém, no caso do thinprovisioning isso é um problema. Pois a cada
> nova
> >> > gravação ele vai precisar requisitar do HOST um novo espaço em disco.
> O
> >> que
> >> > acaba ficando lendo.
> >> >
> >> > Eu sinceramente evito usar thinprovisioning em servidores de
> >> virtualização,
> >> > tanto por causa deste problema, quanto pelo efeito surpresa, de você
> >> alocar
> >> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram
> >> usar
> >> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
> >> teremos
> >> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
> >> > acompanhando o crescimento, e o tamanho configurado para cada uma no
> >> > momento da crianção da máquina.
> >> >
> >> > --
> >> > Rafael Henrique da Silva Faria
> >> > -
> >> > Histórico: http://www.fug.com.br/historico/html/freebsd/
> >> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> >> -
> >> Histórico: http://www.fug.com.br/historico/html/freebsd/
> >> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> >>
> >
> >
> >
> > --
> > .:: Welinaldo L N
> > .:: Estudante de Desenvolvimento de Sistemas
> > .:: FreeBSD Community Member #BSD/OS
> > .:: Antes de imprimir, veja se realmente é necessário!
> > .ılı..ılı.
> > -
> > Histórico: http://www.fug.com.br/historico/html/freebsd/
> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>



-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Testei com o disco sem o thinprovisioning:

# time tar xzf ports.tar.gz

real16m8.904s

mesma coisa, péssima performance.



Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
 escreveu:
> Beleza Ari, vamos ficar aguardando o resultado...
> Amanhã vou fazer o mesmo e posto aqui também o resultado.
>
> Em 18 de maio de 2012 17:08, Ari Arantes Filho  escreveu:
>
>> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
>> e reporto aqui na lista os resultados.
>>
>> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
>>  escreveu:
>> > 2012/5/18 Ari Arantes Filho 
>> >
>> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
>> >> libero o espaço e teoricamente o vmware não precisará aumentar
>> >> novamente
>> >>
>> >
>> > Eu posso estar errado, os mais experientes neste caso que me corrijam,
>> mas
>> > o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.
>> >
>> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar
>> o
>> > espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
>> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não
>> irá
>> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O espaço
>> > liberado somente será utilizando quando o disco não tiver mais espaços
>> > livres.
>> >
>> > Ao utilizar recursos como este em HDs reais, o file system tem uma
>> melhora
>> > de performance, pois não precisa ficar apagando o disco... ele vai usando
>> > espaços livres até que realmente seja necessário uma limpeza do file
>> system
>> > por ter acabado o espaço livre.
>> >
>> > Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
>> > sendo liberado para uso... então acredito que tenha sido feita uma
>> > alteração para algum processo de varredura ir liberando o espaço de tempo
>> > em tempo.. mas isso não é em tempo real.
>> >
>> > Um exemplo prático disso:
>> >
>> > - esgote o espaço em disco com arquivos grandes.
>> > - apague um dos arquivos grandes.
>> > - o espaço não será liberado imediatamente... o disco vai continuar
>> > reclamando que não tem espaço livre o suficiente.
>> >
>> > Normalmente isso não apresenta grandes problemas... pois um bom
>> > administrador nunca irá deixar esgotar o espaço em disco.
>> >
>> > Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
>> > gravação ele vai precisar requisitar do HOST um novo espaço em disco. O
>> que
>> > acaba ficando lendo.
>> >
>> > Eu sinceramente evito usar thinprovisioning em servidores de
>> virtualização,
>> > tanto por causa deste problema, quanto pelo efeito surpresa, de você
>> alocar
>> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram
>> usar
>> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
>> teremos
>> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
>> > acompanhando o crescimento, e o tamanho configurado para cada uma no
>> > momento da crianção da máquina.
>> >
>> > --
>> > Rafael Henrique da Silva Faria
>> > -
>> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> -
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>
>
>
>
> --
> .:: Welinaldo L N
> .:: Estudante de Desenvolvimento de Sistemas
> .:: FreeBSD Community Member #BSD/OS
> .:: Antes de imprimir, veja se realmente é necessário!
> .ılı..ılı.
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Beleza Ari, vamos ficar aguardando o resultado...
Amanhã vou fazer o mesmo e posto aqui também o resultado.

Em 18 de maio de 2012 17:08, Ari Arantes Filho  escreveu:

> Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
> e reporto aqui na lista os resultados.
>
> Em 18 de maio de 2012 17:01, Rafael Henrique Faria
>  escreveu:
> > 2012/5/18 Ari Arantes Filho 
> >
> >> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
> >> libero o espaço e teoricamente o vmware não precisará aumentar
> >> novamente
> >>
> >
> > Eu posso estar errado, os mais experientes neste caso que me corrijam,
> mas
> > o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.
> >
> > Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar
> o
> > espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
> > "livre", o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não
> irá
> > utilizar o espaço liberado, mas sim um espaço livre "virgem". O espaço
> > liberado somente será utilizando quando o disco não tiver mais espaços
> > livres.
> >
> > Ao utilizar recursos como este em HDs reais, o file system tem uma
> melhora
> > de performance, pois não precisa ficar apagando o disco... ele vai usando
> > espaços livres até que realmente seja necessário uma limpeza do file
> system
> > por ter acabado o espaço livre.
> >
> > Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
> > sendo liberado para uso... então acredito que tenha sido feita uma
> > alteração para algum processo de varredura ir liberando o espaço de tempo
> > em tempo.. mas isso não é em tempo real.
> >
> > Um exemplo prático disso:
> >
> > - esgote o espaço em disco com arquivos grandes.
> > - apague um dos arquivos grandes.
> > - o espaço não será liberado imediatamente... o disco vai continuar
> > reclamando que não tem espaço livre o suficiente.
> >
> > Normalmente isso não apresenta grandes problemas... pois um bom
> > administrador nunca irá deixar esgotar o espaço em disco.
> >
> > Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
> > gravação ele vai precisar requisitar do HOST um novo espaço em disco. O
> que
> > acaba ficando lendo.
> >
> > Eu sinceramente evito usar thinprovisioning em servidores de
> virtualização,
> > tanto por causa deste problema, quanto pelo efeito surpresa, de você
> alocar
> > 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram
> usar
> > os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
> teremos
> > 40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
> > acompanhando o crescimento, e o tamanho configurado para cada uma no
> > momento da crianção da máquina.
> >
> > --
> > Rafael Henrique da Silva Faria
> > -
> > Histórico: http://www.fug.com.br/historico/html/freebsd/
> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>



-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
e reporto aqui na lista os resultados.

Em 18 de maio de 2012 17:01, Rafael Henrique Faria
 escreveu:
> 2012/5/18 Ari Arantes Filho 
>
>> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
>> libero o espaço e teoricamente o vmware não precisará aumentar
>> novamente
>>
>
> Eu posso estar errado, os mais experientes neste caso que me corrijam, mas
> o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.
>
> Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar o
> espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
> "livre", o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não irá
> utilizar o espaço liberado, mas sim um espaço livre "virgem". O espaço
> liberado somente será utilizando quando o disco não tiver mais espaços
> livres.
>
> Ao utilizar recursos como este em HDs reais, o file system tem uma melhora
> de performance, pois não precisa ficar apagando o disco... ele vai usando
> espaços livres até que realmente seja necessário uma limpeza do file system
> por ter acabado o espaço livre.
>
> Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
> sendo liberado para uso... então acredito que tenha sido feita uma
> alteração para algum processo de varredura ir liberando o espaço de tempo
> em tempo.. mas isso não é em tempo real.
>
> Um exemplo prático disso:
>
> - esgote o espaço em disco com arquivos grandes.
> - apague um dos arquivos grandes.
> - o espaço não será liberado imediatamente... o disco vai continuar
> reclamando que não tem espaço livre o suficiente.
>
> Normalmente isso não apresenta grandes problemas... pois um bom
> administrador nunca irá deixar esgotar o espaço em disco.
>
> Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
> gravação ele vai precisar requisitar do HOST um novo espaço em disco. O que
> acaba ficando lendo.
>
> Eu sinceramente evito usar thinprovisioning em servidores de virtualização,
> tanto por causa deste problema, quanto pelo efeito surpresa, de você alocar
> 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram usar
> os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática teremos
> 40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
> acompanhando o crescimento, e o tamanho configurado para cada uma no
> momento da crianção da máquina.
>
> --
> Rafael Henrique da Silva Faria
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Rafael Henrique Faria
2012/5/18 Ari Arantes Filho 

> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
> libero o espaço e teoricamente o vmware não precisará aumentar
> novamente
>

Eu posso estar errado, os mais experientes neste caso que me corrijam, mas
o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.

Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar o
espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
"livre", o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não irá
utilizar o espaço liberado, mas sim um espaço livre "virgem". O espaço
liberado somente será utilizando quando o disco não tiver mais espaços
livres.

Ao utilizar recursos como este em HDs reais, o file system tem uma melhora
de performance, pois não precisa ficar apagando o disco... ele vai usando
espaços livres até que realmente seja necessário uma limpeza do file system
por ter acabado o espaço livre.

Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
sendo liberado para uso... então acredito que tenha sido feita uma
alteração para algum processo de varredura ir liberando o espaço de tempo
em tempo.. mas isso não é em tempo real.

Um exemplo prático disso:

- esgote o espaço em disco com arquivos grandes.
- apague um dos arquivos grandes.
- o espaço não será liberado imediatamente... o disco vai continuar
reclamando que não tem espaço livre o suficiente.

Normalmente isso não apresenta grandes problemas... pois um bom
administrador nunca irá deixar esgotar o espaço em disco.

Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
gravação ele vai precisar requisitar do HOST um novo espaço em disco. O que
acaba ficando lendo.

Eu sinceramente evito usar thinprovisioning em servidores de virtualização,
tanto por causa deste problema, quanto pelo efeito surpresa, de você alocar
10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram usar
os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática teremos
40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
acompanhando o crescimento, e o tamanho configurado para cada uma no
momento da crianção da máquina.

-- 
Rafael Henrique da Silva Faria
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Realmente, como o Pedro disse, notei também em algum momento erro de IO em
meus testes...

Em 18 de maio de 2012 16:41, Pedro Madsen  escreveu:

> Ari,
>
> pode ser no suporte ao SO mesmo. No caso do Hiper-V, o Linux funciona (mais
> lento mas funciona) e o FreeBSD tem uma performance tão ruim que fica
> acusando erro de IO como se o disco tivesse inacessível. Não é a toa que
> dou preferencia para usar Jails ao invés da virtualização em muitos casos,
> o suporte ao FreeBSD por parte dos virtualizadores não é prioritário.
>
> Em 18 de maio de 2012 16:36, Ari Arantes Filho  escreveu:
>
> > Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
> > concordo que ele cresce qdo precisa e nesse momento fica mais lento,
> > mas 2 coisas:
> > 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
> > libero o espaço e teoricamente o vmware não precisará aumentar
> > novamente
> > 2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
> > esse problema de crescer o disco dinamicamente, tem para os 2
> > servidores.
> >
> > O que quero descobrir é como deixar o BSD mais rápido. Onde podemos
> mexer.
> >
> >
> > Em 18 de maio de 2012 16:31, Pedro Madsen  escreveu:
> > > Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas
> como
> > > disse noutro post, é uma criança carregando um adulto no colo.
> > >
> > > Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento <
> > > welina...@bsd.com.br> escreveu:
> > >
> > >> Interessante a observação do Pedro Madsen, e inclusive vou checar
> > isto...
> > >> Sempre usei esta configuração para expandir dinamicamente e também
> notei
> > >> lentidão ao realizar os testes informado pelo Ari :-)
> > >>
> > >> Em 18 de maio de 2012 16:16, Pedro Madsen 
> escreveu:
> > >>
> > >> > Pelo proprio virtualizador, veja se o espaço do disco já foi
> > préa-locado
> > >> ou
> > >> > se ele irá expandir dinamicamente conforme o uso. No caso do
> Hiper-V,
> > >> isso
> > >> > demora pois após o FreeBSD solicitar espaço no disco, o tempo de
> > repasse
> > >> > para o virtualizador e a resposta da alocação do próprio Windows
> gera
> > uma
> > >> > latência alta demais que engargala os processos da máquina virtual.
> No
> > >> caso
> > >> > do espaço pré-alocado, o virtualizador não demora a responder a
> > >> > solicitação.
> > >> >
> > >> > Em 18 de maio de 2012 08:02, Ari Arantes Filho 
> > escreveu:
> > >> >
> > >> > > Como eu vejo se está dinâmico ou não? No vmware ou no SO?
> > >> > >
> > >> > > 2 duas VMs:
> > >> > > SCSI controller --> LSI Logic Parallel
> > >> > > SCSI Bus Sharing --> None
> > >> > >
> > >> > > HD1 --> Virtual --> SCSI (0:0)
> > >> > >
> > >> > > Ambos são thinprovisiniong.
> > >> > >
> > >> > > Mount e fdisk no FreeBSD:
> > >> > > # mount
> > >> > > /dev/da0p2 on / (ufs, local, journaled soft-updates)
> > >> > > devfs on /dev (devfs, local, multilabel)
> > >> > >
> > >> > > # fdisk /dev/da0
> > >> > > *** Working on device /dev/da0 ***
> > >> > > parameters extracted from in-core disklabel are:
> > >> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> > >> > >
> > >> > > Figures below won't work with BIOS for partitions not in cyl 1
> > >> > > parameters to be used for BIOS calculations are:
> > >> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> > >> > >
> > >> > > Media sector size is 512
> > >> > > Warning: BIOS sector numbering starts with sector 1
> > >> > > Information from DOS bootblock is:
> > >> > > The data for partition 1 is:
> > >> > > sysid 238 (0xee),(EFI GPT)
> > >> > >start 1, size 20971519 (10239 Meg), flag 80 (active)
> > >> > >beg: cyl 0/ head 0/ sector 2;
> > >> > >end: cyl 1023/ head 255/ sector 63
> > >> > > The data for partition 2 is:
> > >> > > 
> > >> > > The data for partition 3 is:
> > >> > > 
> > >> > > The data for partition 4 is:
> > >> > > 
> > >> > >
> > >> > >
> > >> > > Mount e fdisk no ubuntu:
> > >> > > # mount
> > >> > > /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
> > >> > > proc on /proc type proc (rw,noexec,nosuid,nodev)
> > >> > > none on /sys type sysfs (rw,noexec,nosuid,nodev)
> > >> > > none on /sys/fs/fuse/connections type fusectl (rw)
> > >> > > none on /sys/kernel/debug type debugfs (rw)
> > >> > > none on /sys/kernel/security type securityfs (rw)
> > >> > > none on /dev type devtmpfs (rw,mode=0755)
> > >> > > none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
> > >> > > none on /dev/shm type tmpfs (rw,nosuid,nodev)
> > >> > > none on /var/run type tmpfs (rw,nosuid,mode=0755)
> > >> > > none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
> > >> > > none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
> > >> > > /dev/sda1 on /boot type ext2 (rw)
> > >> > >
> > >> > > # fdisk -l
> > >> > >
> > >> > > Disk /dev/sda: 10.7 GB, 10737418240 bytes
> > >> > > 255 heads, 63 sectors/track, 1305 cylinders
> > >> > > Units = cylinders of 16065 * 512 = 8225280 bytes
> > >> > > Sector si

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Ari, ontem realizei estes mesmos testes utilizando quase o mesmo cenário..
também observei uma demora imensa ao descompactar e remover este arquivo.

Em 18 de maio de 2012 16:36, Ari Arantes Filho  escreveu:

> Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
> concordo que ele cresce qdo precisa e nesse momento fica mais lento,
> mas 2 coisas:
> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
> libero o espaço e teoricamente o vmware não precisará aumentar
> novamente
> 2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
> esse problema de crescer o disco dinamicamente, tem para os 2
> servidores.
>
> O que quero descobrir é como deixar o BSD mais rápido. Onde podemos mexer.
>
>
> Em 18 de maio de 2012 16:31, Pedro Madsen  escreveu:
> > Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
> > disse noutro post, é uma criança carregando um adulto no colo.
> >
> > Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento <
> > welina...@bsd.com.br> escreveu:
> >
> >> Interessante a observação do Pedro Madsen, e inclusive vou checar
> isto...
> >> Sempre usei esta configuração para expandir dinamicamente e também notei
> >> lentidão ao realizar os testes informado pelo Ari :-)
> >>
> >> Em 18 de maio de 2012 16:16, Pedro Madsen  escreveu:
> >>
> >> > Pelo proprio virtualizador, veja se o espaço do disco já foi
> préa-locado
> >> ou
> >> > se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
> >> isso
> >> > demora pois após o FreeBSD solicitar espaço no disco, o tempo de
> repasse
> >> > para o virtualizador e a resposta da alocação do próprio Windows gera
> uma
> >> > latência alta demais que engargala os processos da máquina virtual. No
> >> caso
> >> > do espaço pré-alocado, o virtualizador não demora a responder a
> >> > solicitação.
> >> >
> >> > Em 18 de maio de 2012 08:02, Ari Arantes Filho 
> escreveu:
> >> >
> >> > > Como eu vejo se está dinâmico ou não? No vmware ou no SO?
> >> > >
> >> > > 2 duas VMs:
> >> > > SCSI controller --> LSI Logic Parallel
> >> > > SCSI Bus Sharing --> None
> >> > >
> >> > > HD1 --> Virtual --> SCSI (0:0)
> >> > >
> >> > > Ambos são thinprovisiniong.
> >> > >
> >> > > Mount e fdisk no FreeBSD:
> >> > > # mount
> >> > > /dev/da0p2 on / (ufs, local, journaled soft-updates)
> >> > > devfs on /dev (devfs, local, multilabel)
> >> > >
> >> > > # fdisk /dev/da0
> >> > > *** Working on device /dev/da0 ***
> >> > > parameters extracted from in-core disklabel are:
> >> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> >> > >
> >> > > Figures below won't work with BIOS for partitions not in cyl 1
> >> > > parameters to be used for BIOS calculations are:
> >> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> >> > >
> >> > > Media sector size is 512
> >> > > Warning: BIOS sector numbering starts with sector 1
> >> > > Information from DOS bootblock is:
> >> > > The data for partition 1 is:
> >> > > sysid 238 (0xee),(EFI GPT)
> >> > >start 1, size 20971519 (10239 Meg), flag 80 (active)
> >> > >beg: cyl 0/ head 0/ sector 2;
> >> > >end: cyl 1023/ head 255/ sector 63
> >> > > The data for partition 2 is:
> >> > > 
> >> > > The data for partition 3 is:
> >> > > 
> >> > > The data for partition 4 is:
> >> > > 
> >> > >
> >> > >
> >> > > Mount e fdisk no ubuntu:
> >> > > # mount
> >> > > /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
> >> > > proc on /proc type proc (rw,noexec,nosuid,nodev)
> >> > > none on /sys type sysfs (rw,noexec,nosuid,nodev)
> >> > > none on /sys/fs/fuse/connections type fusectl (rw)
> >> > > none on /sys/kernel/debug type debugfs (rw)
> >> > > none on /sys/kernel/security type securityfs (rw)
> >> > > none on /dev type devtmpfs (rw,mode=0755)
> >> > > none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
> >> > > none on /dev/shm type tmpfs (rw,nosuid,nodev)
> >> > > none on /var/run type tmpfs (rw,nosuid,mode=0755)
> >> > > none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
> >> > > none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
> >> > > /dev/sda1 on /boot type ext2 (rw)
> >> > >
> >> > > # fdisk -l
> >> > >
> >> > > Disk /dev/sda: 10.7 GB, 10737418240 bytes
> >> > > 255 heads, 63 sectors/track, 1305 cylinders
> >> > > Units = cylinders of 16065 * 512 = 8225280 bytes
> >> > > Sector size (logical/physical): 512 bytes / 512 bytes
> >> > > I/O size (minimum/optimal): 512 bytes / 512 bytes
> >> > > Disk identifier: 0x0007fbc2
> >> > >
> >> > >   Device Boot  Start End  Blocks   Id  System
> >> > > /dev/sda1   *   1  32  248832   83  Linux
> >> > > Partition 1 does not end on cylinder boundary.
> >> > > /dev/sda2  321306102338575  Extended
> >> > > /dev/sda5  32130610233856   8e  Linux LVM
> >> > >
> >> > >
> >> > >
> >> > > Em 18 de maio de 2012 00:04, Pedro Madsen 
> escreveu:
> >> > > > O volume e

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Pedro Madsen
Ari,

pode ser no suporte ao SO mesmo. No caso do Hiper-V, o Linux funciona (mais
lento mas funciona) e o FreeBSD tem uma performance tão ruim que fica
acusando erro de IO como se o disco tivesse inacessível. Não é a toa que
dou preferencia para usar Jails ao invés da virtualização em muitos casos,
o suporte ao FreeBSD por parte dos virtualizadores não é prioritário.

Em 18 de maio de 2012 16:36, Ari Arantes Filho  escreveu:

> Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
> concordo que ele cresce qdo precisa e nesse momento fica mais lento,
> mas 2 coisas:
> 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
> libero o espaço e teoricamente o vmware não precisará aumentar
> novamente
> 2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
> esse problema de crescer o disco dinamicamente, tem para os 2
> servidores.
>
> O que quero descobrir é como deixar o BSD mais rápido. Onde podemos mexer.
>
>
> Em 18 de maio de 2012 16:31, Pedro Madsen  escreveu:
> > Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
> > disse noutro post, é uma criança carregando um adulto no colo.
> >
> > Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento <
> > welina...@bsd.com.br> escreveu:
> >
> >> Interessante a observação do Pedro Madsen, e inclusive vou checar
> isto...
> >> Sempre usei esta configuração para expandir dinamicamente e também notei
> >> lentidão ao realizar os testes informado pelo Ari :-)
> >>
> >> Em 18 de maio de 2012 16:16, Pedro Madsen  escreveu:
> >>
> >> > Pelo proprio virtualizador, veja se o espaço do disco já foi
> préa-locado
> >> ou
> >> > se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
> >> isso
> >> > demora pois após o FreeBSD solicitar espaço no disco, o tempo de
> repasse
> >> > para o virtualizador e a resposta da alocação do próprio Windows gera
> uma
> >> > latência alta demais que engargala os processos da máquina virtual. No
> >> caso
> >> > do espaço pré-alocado, o virtualizador não demora a responder a
> >> > solicitação.
> >> >
> >> > Em 18 de maio de 2012 08:02, Ari Arantes Filho 
> escreveu:
> >> >
> >> > > Como eu vejo se está dinâmico ou não? No vmware ou no SO?
> >> > >
> >> > > 2 duas VMs:
> >> > > SCSI controller --> LSI Logic Parallel
> >> > > SCSI Bus Sharing --> None
> >> > >
> >> > > HD1 --> Virtual --> SCSI (0:0)
> >> > >
> >> > > Ambos são thinprovisiniong.
> >> > >
> >> > > Mount e fdisk no FreeBSD:
> >> > > # mount
> >> > > /dev/da0p2 on / (ufs, local, journaled soft-updates)
> >> > > devfs on /dev (devfs, local, multilabel)
> >> > >
> >> > > # fdisk /dev/da0
> >> > > *** Working on device /dev/da0 ***
> >> > > parameters extracted from in-core disklabel are:
> >> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> >> > >
> >> > > Figures below won't work with BIOS for partitions not in cyl 1
> >> > > parameters to be used for BIOS calculations are:
> >> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> >> > >
> >> > > Media sector size is 512
> >> > > Warning: BIOS sector numbering starts with sector 1
> >> > > Information from DOS bootblock is:
> >> > > The data for partition 1 is:
> >> > > sysid 238 (0xee),(EFI GPT)
> >> > >start 1, size 20971519 (10239 Meg), flag 80 (active)
> >> > >beg: cyl 0/ head 0/ sector 2;
> >> > >end: cyl 1023/ head 255/ sector 63
> >> > > The data for partition 2 is:
> >> > > 
> >> > > The data for partition 3 is:
> >> > > 
> >> > > The data for partition 4 is:
> >> > > 
> >> > >
> >> > >
> >> > > Mount e fdisk no ubuntu:
> >> > > # mount
> >> > > /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
> >> > > proc on /proc type proc (rw,noexec,nosuid,nodev)
> >> > > none on /sys type sysfs (rw,noexec,nosuid,nodev)
> >> > > none on /sys/fs/fuse/connections type fusectl (rw)
> >> > > none on /sys/kernel/debug type debugfs (rw)
> >> > > none on /sys/kernel/security type securityfs (rw)
> >> > > none on /dev type devtmpfs (rw,mode=0755)
> >> > > none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
> >> > > none on /dev/shm type tmpfs (rw,nosuid,nodev)
> >> > > none on /var/run type tmpfs (rw,nosuid,mode=0755)
> >> > > none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
> >> > > none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
> >> > > /dev/sda1 on /boot type ext2 (rw)
> >> > >
> >> > > # fdisk -l
> >> > >
> >> > > Disk /dev/sda: 10.7 GB, 10737418240 bytes
> >> > > 255 heads, 63 sectors/track, 1305 cylinders
> >> > > Units = cylinders of 16065 * 512 = 8225280 bytes
> >> > > Sector size (logical/physical): 512 bytes / 512 bytes
> >> > > I/O size (minimum/optimal): 512 bytes / 512 bytes
> >> > > Disk identifier: 0x0007fbc2
> >> > >
> >> > >   Device Boot  Start End  Blocks   Id  System
> >> > > /dev/sda1   *   1  32  248832   83  Linux
> >> > > Partition 1 does not end on cylinder boundary.
> >> > > /dev/sda2  32  

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
concordo que ele cresce qdo precisa e nesse momento fica mais lento,
mas 2 coisas:
1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
libero o espaço e teoricamente o vmware não precisará aumentar
novamente
2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
esse problema de crescer o disco dinamicamente, tem para os 2
servidores.

O que quero descobrir é como deixar o BSD mais rápido. Onde podemos mexer.


Em 18 de maio de 2012 16:31, Pedro Madsen  escreveu:
> Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
> disse noutro post, é uma criança carregando um adulto no colo.
>
> Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento <
> welina...@bsd.com.br> escreveu:
>
>> Interessante a observação do Pedro Madsen, e inclusive vou checar isto...
>> Sempre usei esta configuração para expandir dinamicamente e também notei
>> lentidão ao realizar os testes informado pelo Ari :-)
>>
>> Em 18 de maio de 2012 16:16, Pedro Madsen  escreveu:
>>
>> > Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado
>> ou
>> > se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
>> isso
>> > demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
>> > para o virtualizador e a resposta da alocação do próprio Windows gera uma
>> > latência alta demais que engargala os processos da máquina virtual. No
>> caso
>> > do espaço pré-alocado, o virtualizador não demora a responder a
>> > solicitação.
>> >
>> > Em 18 de maio de 2012 08:02, Ari Arantes Filho  escreveu:
>> >
>> > > Como eu vejo se está dinâmico ou não? No vmware ou no SO?
>> > >
>> > > 2 duas VMs:
>> > > SCSI controller --> LSI Logic Parallel
>> > > SCSI Bus Sharing --> None
>> > >
>> > > HD1 --> Virtual --> SCSI (0:0)
>> > >
>> > > Ambos são thinprovisiniong.
>> > >
>> > > Mount e fdisk no FreeBSD:
>> > > # mount
>> > > /dev/da0p2 on / (ufs, local, journaled soft-updates)
>> > > devfs on /dev (devfs, local, multilabel)
>> > >
>> > > # fdisk /dev/da0
>> > > *** Working on device /dev/da0 ***
>> > > parameters extracted from in-core disklabel are:
>> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
>> > >
>> > > Figures below won't work with BIOS for partitions not in cyl 1
>> > > parameters to be used for BIOS calculations are:
>> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
>> > >
>> > > Media sector size is 512
>> > > Warning: BIOS sector numbering starts with sector 1
>> > > Information from DOS bootblock is:
>> > > The data for partition 1 is:
>> > > sysid 238 (0xee),(EFI GPT)
>> > >    start 1, size 20971519 (10239 Meg), flag 80 (active)
>> > >        beg: cyl 0/ head 0/ sector 2;
>> > >        end: cyl 1023/ head 255/ sector 63
>> > > The data for partition 2 is:
>> > > 
>> > > The data for partition 3 is:
>> > > 
>> > > The data for partition 4 is:
>> > > 
>> > >
>> > >
>> > > Mount e fdisk no ubuntu:
>> > > # mount
>> > > /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
>> > > proc on /proc type proc (rw,noexec,nosuid,nodev)
>> > > none on /sys type sysfs (rw,noexec,nosuid,nodev)
>> > > none on /sys/fs/fuse/connections type fusectl (rw)
>> > > none on /sys/kernel/debug type debugfs (rw)
>> > > none on /sys/kernel/security type securityfs (rw)
>> > > none on /dev type devtmpfs (rw,mode=0755)
>> > > none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
>> > > none on /dev/shm type tmpfs (rw,nosuid,nodev)
>> > > none on /var/run type tmpfs (rw,nosuid,mode=0755)
>> > > none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
>> > > none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
>> > > /dev/sda1 on /boot type ext2 (rw)
>> > >
>> > > # fdisk -l
>> > >
>> > > Disk /dev/sda: 10.7 GB, 10737418240 bytes
>> > > 255 heads, 63 sectors/track, 1305 cylinders
>> > > Units = cylinders of 16065 * 512 = 8225280 bytes
>> > > Sector size (logical/physical): 512 bytes / 512 bytes
>> > > I/O size (minimum/optimal): 512 bytes / 512 bytes
>> > > Disk identifier: 0x0007fbc2
>> > >
>> > >   Device Boot      Start         End      Blocks   Id  System
>> > > /dev/sda1   *           1          32      248832   83  Linux
>> > > Partition 1 does not end on cylinder boundary.
>> > > /dev/sda2              32        1306    10233857    5  Extended
>> > > /dev/sda5              32        1306    10233856   8e  Linux LVM
>> > >
>> > >
>> > >
>> > > Em 18 de maio de 2012 00:04, Pedro Madsen  escreveu:
>> > > > O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V
>> > com
>> > > > volume dinâmico.
>> > > >
>> > > > Em 17 de maio de 2012 23:36, Paulo Henrique > > > >escreveu:
>> > > >
>> > > >> Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento <
>> > > >> welina...@bsd.com.br> escreveu:
>> > > >>
>> > > >> > Qual a configuração de hardware deste servidor?
>> > > >> >
>> > > >> > Em 17 de maio de 2012 18:56, Ari Arantes Filho 
>> > > escr

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Pedro Madsen
Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
disse noutro post, é uma criança carregando um adulto no colo.

Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento <
welina...@bsd.com.br> escreveu:

> Interessante a observação do Pedro Madsen, e inclusive vou checar isto...
> Sempre usei esta configuração para expandir dinamicamente e também notei
> lentidão ao realizar os testes informado pelo Ari :-)
>
> Em 18 de maio de 2012 16:16, Pedro Madsen  escreveu:
>
> > Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado
> ou
> > se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
> isso
> > demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
> > para o virtualizador e a resposta da alocação do próprio Windows gera uma
> > latência alta demais que engargala os processos da máquina virtual. No
> caso
> > do espaço pré-alocado, o virtualizador não demora a responder a
> > solicitação.
> >
> > Em 18 de maio de 2012 08:02, Ari Arantes Filho  escreveu:
> >
> > > Como eu vejo se está dinâmico ou não? No vmware ou no SO?
> > >
> > > 2 duas VMs:
> > > SCSI controller --> LSI Logic Parallel
> > > SCSI Bus Sharing --> None
> > >
> > > HD1 --> Virtual --> SCSI (0:0)
> > >
> > > Ambos são thinprovisiniong.
> > >
> > > Mount e fdisk no FreeBSD:
> > > # mount
> > > /dev/da0p2 on / (ufs, local, journaled soft-updates)
> > > devfs on /dev (devfs, local, multilabel)
> > >
> > > # fdisk /dev/da0
> > > *** Working on device /dev/da0 ***
> > > parameters extracted from in-core disklabel are:
> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> > >
> > > Figures below won't work with BIOS for partitions not in cyl 1
> > > parameters to be used for BIOS calculations are:
> > > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> > >
> > > Media sector size is 512
> > > Warning: BIOS sector numbering starts with sector 1
> > > Information from DOS bootblock is:
> > > The data for partition 1 is:
> > > sysid 238 (0xee),(EFI GPT)
> > >start 1, size 20971519 (10239 Meg), flag 80 (active)
> > >beg: cyl 0/ head 0/ sector 2;
> > >end: cyl 1023/ head 255/ sector 63
> > > The data for partition 2 is:
> > > 
> > > The data for partition 3 is:
> > > 
> > > The data for partition 4 is:
> > > 
> > >
> > >
> > > Mount e fdisk no ubuntu:
> > > # mount
> > > /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
> > > proc on /proc type proc (rw,noexec,nosuid,nodev)
> > > none on /sys type sysfs (rw,noexec,nosuid,nodev)
> > > none on /sys/fs/fuse/connections type fusectl (rw)
> > > none on /sys/kernel/debug type debugfs (rw)
> > > none on /sys/kernel/security type securityfs (rw)
> > > none on /dev type devtmpfs (rw,mode=0755)
> > > none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
> > > none on /dev/shm type tmpfs (rw,nosuid,nodev)
> > > none on /var/run type tmpfs (rw,nosuid,mode=0755)
> > > none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
> > > none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
> > > /dev/sda1 on /boot type ext2 (rw)
> > >
> > > # fdisk -l
> > >
> > > Disk /dev/sda: 10.7 GB, 10737418240 bytes
> > > 255 heads, 63 sectors/track, 1305 cylinders
> > > Units = cylinders of 16065 * 512 = 8225280 bytes
> > > Sector size (logical/physical): 512 bytes / 512 bytes
> > > I/O size (minimum/optimal): 512 bytes / 512 bytes
> > > Disk identifier: 0x0007fbc2
> > >
> > >   Device Boot  Start End  Blocks   Id  System
> > > /dev/sda1   *   1  32  248832   83  Linux
> > > Partition 1 does not end on cylinder boundary.
> > > /dev/sda2  321306102338575  Extended
> > > /dev/sda5  32130610233856   8e  Linux LVM
> > >
> > >
> > >
> > > Em 18 de maio de 2012 00:04, Pedro Madsen  escreveu:
> > > > O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V
> > com
> > > > volume dinâmico.
> > > >
> > > > Em 17 de maio de 2012 23:36, Paulo Henrique  > > >escreveu:
> > > >
> > > >> Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento <
> > > >> welina...@bsd.com.br> escreveu:
> > > >>
> > > >> > Qual a configuração de hardware deste servidor?
> > > >> >
> > > >> > Em 17 de maio de 2012 18:56, Ari Arantes Filho 
> > > escreveu:
> > > >> >
> > > >> > > SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no
> > > Ubuntu.
> > > >> > > Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64
> > para o
> > > >> > > BSD e Ubuntu 64 para ubuntu.
> > > >> > >
> > > >> > >
> > > >> > > Em 17 de maio de 2012 14:46, Francisco Cardoso <
> > frica...@bsd.com.br
> > > >
> > > >> > > escreveu:
> > > >> > > > Em 17 de maio de 2012 11:58, Ari Arantes Filho  >
> > > >> > escreveu:
> > > >> > > >> O servidor é um IBM3550M3. A controladora é a padrão.
> > > >> > > >>
> > > >> > > >> Também testei com um FreeBSD instalado no storage e não no
> > disco
> > > >> local
> > > >> > > >> do vmware na 3550, 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Interessante a observação do Pedro Madsen, e inclusive vou checar isto...
Sempre usei esta configuração para expandir dinamicamente e também notei
lentidão ao realizar os testes informado pelo Ari :-)

Em 18 de maio de 2012 16:16, Pedro Madsen  escreveu:

> Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado ou
> se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V, isso
> demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
> para o virtualizador e a resposta da alocação do próprio Windows gera uma
> latência alta demais que engargala os processos da máquina virtual. No caso
> do espaço pré-alocado, o virtualizador não demora a responder a
> solicitação.
>
> Em 18 de maio de 2012 08:02, Ari Arantes Filho  escreveu:
>
> > Como eu vejo se está dinâmico ou não? No vmware ou no SO?
> >
> > 2 duas VMs:
> > SCSI controller --> LSI Logic Parallel
> > SCSI Bus Sharing --> None
> >
> > HD1 --> Virtual --> SCSI (0:0)
> >
> > Ambos são thinprovisiniong.
> >
> > Mount e fdisk no FreeBSD:
> > # mount
> > /dev/da0p2 on / (ufs, local, journaled soft-updates)
> > devfs on /dev (devfs, local, multilabel)
> >
> > # fdisk /dev/da0
> > *** Working on device /dev/da0 ***
> > parameters extracted from in-core disklabel are:
> > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> >
> > Figures below won't work with BIOS for partitions not in cyl 1
> > parameters to be used for BIOS calculations are:
> > cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
> >
> > Media sector size is 512
> > Warning: BIOS sector numbering starts with sector 1
> > Information from DOS bootblock is:
> > The data for partition 1 is:
> > sysid 238 (0xee),(EFI GPT)
> >start 1, size 20971519 (10239 Meg), flag 80 (active)
> >beg: cyl 0/ head 0/ sector 2;
> >end: cyl 1023/ head 255/ sector 63
> > The data for partition 2 is:
> > 
> > The data for partition 3 is:
> > 
> > The data for partition 4 is:
> > 
> >
> >
> > Mount e fdisk no ubuntu:
> > # mount
> > /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
> > proc on /proc type proc (rw,noexec,nosuid,nodev)
> > none on /sys type sysfs (rw,noexec,nosuid,nodev)
> > none on /sys/fs/fuse/connections type fusectl (rw)
> > none on /sys/kernel/debug type debugfs (rw)
> > none on /sys/kernel/security type securityfs (rw)
> > none on /dev type devtmpfs (rw,mode=0755)
> > none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
> > none on /dev/shm type tmpfs (rw,nosuid,nodev)
> > none on /var/run type tmpfs (rw,nosuid,mode=0755)
> > none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
> > none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
> > /dev/sda1 on /boot type ext2 (rw)
> >
> > # fdisk -l
> >
> > Disk /dev/sda: 10.7 GB, 10737418240 bytes
> > 255 heads, 63 sectors/track, 1305 cylinders
> > Units = cylinders of 16065 * 512 = 8225280 bytes
> > Sector size (logical/physical): 512 bytes / 512 bytes
> > I/O size (minimum/optimal): 512 bytes / 512 bytes
> > Disk identifier: 0x0007fbc2
> >
> >   Device Boot  Start End  Blocks   Id  System
> > /dev/sda1   *   1  32  248832   83  Linux
> > Partition 1 does not end on cylinder boundary.
> > /dev/sda2  321306102338575  Extended
> > /dev/sda5  32130610233856   8e  Linux LVM
> >
> >
> >
> > Em 18 de maio de 2012 00:04, Pedro Madsen  escreveu:
> > > O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V
> com
> > > volume dinâmico.
> > >
> > > Em 17 de maio de 2012 23:36, Paulo Henrique  > >escreveu:
> > >
> > >> Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento <
> > >> welina...@bsd.com.br> escreveu:
> > >>
> > >> > Qual a configuração de hardware deste servidor?
> > >> >
> > >> > Em 17 de maio de 2012 18:56, Ari Arantes Filho 
> > escreveu:
> > >> >
> > >> > > SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no
> > Ubuntu.
> > >> > > Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64
> para o
> > >> > > BSD e Ubuntu 64 para ubuntu.
> > >> > >
> > >> > >
> > >> > > Em 17 de maio de 2012 14:46, Francisco Cardoso <
> frica...@bsd.com.br
> > >
> > >> > > escreveu:
> > >> > > > Em 17 de maio de 2012 11:58, Ari Arantes Filho 
> > >> > escreveu:
> > >> > > >> O servidor é um IBM3550M3. A controladora é a padrão.
> > >> > > >>
> > >> > > >> Também testei com um FreeBSD instalado no storage e não no
> disco
> > >> local
> > >> > > >> do vmware na 3550, mas os tempos também são bem parecidos.
> > >> > > >>
> > >> > > >> Vou testar com a 8.3.
> > >> > > >>
> > >> > > >>
> > >> > > >
> > >> > > > Acho que não me expressei bem. Quando falei controladora quis
> > dizer a
> > >> > > > controladora da máquina virtual, não a do hardware físico do
> > >> servidor.
> > >> > > > Em outras palavras se a sua máquina virtual usa a controladora
> > >> > > > Buslogic, por exemplo, você vai ter problemas de lentidão, já
> que
> > >> essa
> > 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Pedro Madsen
Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado ou
se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V, isso
demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
para o virtualizador e a resposta da alocação do próprio Windows gera uma
latência alta demais que engargala os processos da máquina virtual. No caso
do espaço pré-alocado, o virtualizador não demora a responder a solicitação.

Em 18 de maio de 2012 08:02, Ari Arantes Filho  escreveu:

> Como eu vejo se está dinâmico ou não? No vmware ou no SO?
>
> 2 duas VMs:
> SCSI controller --> LSI Logic Parallel
> SCSI Bus Sharing --> None
>
> HD1 --> Virtual --> SCSI (0:0)
>
> Ambos são thinprovisiniong.
>
> Mount e fdisk no FreeBSD:
> # mount
> /dev/da0p2 on / (ufs, local, journaled soft-updates)
> devfs on /dev (devfs, local, multilabel)
>
> # fdisk /dev/da0
> *** Working on device /dev/da0 ***
> parameters extracted from in-core disklabel are:
> cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
>
> Figures below won't work with BIOS for partitions not in cyl 1
> parameters to be used for BIOS calculations are:
> cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
>
> Media sector size is 512
> Warning: BIOS sector numbering starts with sector 1
> Information from DOS bootblock is:
> The data for partition 1 is:
> sysid 238 (0xee),(EFI GPT)
>start 1, size 20971519 (10239 Meg), flag 80 (active)
>beg: cyl 0/ head 0/ sector 2;
>end: cyl 1023/ head 255/ sector 63
> The data for partition 2 is:
> 
> The data for partition 3 is:
> 
> The data for partition 4 is:
> 
>
>
> Mount e fdisk no ubuntu:
> # mount
> /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
> proc on /proc type proc (rw,noexec,nosuid,nodev)
> none on /sys type sysfs (rw,noexec,nosuid,nodev)
> none on /sys/fs/fuse/connections type fusectl (rw)
> none on /sys/kernel/debug type debugfs (rw)
> none on /sys/kernel/security type securityfs (rw)
> none on /dev type devtmpfs (rw,mode=0755)
> none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
> none on /dev/shm type tmpfs (rw,nosuid,nodev)
> none on /var/run type tmpfs (rw,nosuid,mode=0755)
> none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
> none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
> /dev/sda1 on /boot type ext2 (rw)
>
> # fdisk -l
>
> Disk /dev/sda: 10.7 GB, 10737418240 bytes
> 255 heads, 63 sectors/track, 1305 cylinders
> Units = cylinders of 16065 * 512 = 8225280 bytes
> Sector size (logical/physical): 512 bytes / 512 bytes
> I/O size (minimum/optimal): 512 bytes / 512 bytes
> Disk identifier: 0x0007fbc2
>
>   Device Boot  Start End  Blocks   Id  System
> /dev/sda1   *   1  32  248832   83  Linux
> Partition 1 does not end on cylinder boundary.
> /dev/sda2  321306102338575  Extended
> /dev/sda5  32130610233856   8e  Linux LVM
>
>
>
> Em 18 de maio de 2012 00:04, Pedro Madsen  escreveu:
> > O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V com
> > volume dinâmico.
> >
> > Em 17 de maio de 2012 23:36, Paulo Henrique  >escreveu:
> >
> >> Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento <
> >> welina...@bsd.com.br> escreveu:
> >>
> >> > Qual a configuração de hardware deste servidor?
> >> >
> >> > Em 17 de maio de 2012 18:56, Ari Arantes Filho 
> escreveu:
> >> >
> >> > > SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no
> Ubuntu.
> >> > > Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
> >> > > BSD e Ubuntu 64 para ubuntu.
> >> > >
> >> > >
> >> > > Em 17 de maio de 2012 14:46, Francisco Cardoso  >
> >> > > escreveu:
> >> > > > Em 17 de maio de 2012 11:58, Ari Arantes Filho 
> >> > escreveu:
> >> > > >> O servidor é um IBM3550M3. A controladora é a padrão.
> >> > > >>
> >> > > >> Também testei com um FreeBSD instalado no storage e não no disco
> >> local
> >> > > >> do vmware na 3550, mas os tempos também são bem parecidos.
> >> > > >>
> >> > > >> Vou testar com a 8.3.
> >> > > >>
> >> > > >>
> >> > > >
> >> > > > Acho que não me expressei bem. Quando falei controladora quis
> dizer a
> >> > > > controladora da máquina virtual, não a do hardware físico do
> >> servidor.
> >> > > > Em outras palavras se a sua máquina virtual usa a controladora
> >> > > > Buslogic, por exemplo, você vai ter problemas de lentidão, já que
> >> essa
> >> > > > controladora é antiga e em geral só deve ser usada para sistemas
> >> > > > legados.
> >> > > >
> >> > > > Em geral o vsphere oferece como padrão para o FreeBSD a controlado
> >> LSI
> >> > > > Logic Parallel se não me falha a memória. A performance desta é
> >> > > > incomparavelmente melhor do que a Buslogic.
> >> > > >
> >> >
> >> >
> >> Só uma pergunta, qual o seu valor de HZ  no kernel ?
> >>
> >> Att.
> >>
> >> >
> >> >
> >> > --
> >> > .:: Welinaldo L N
> >> > .:: Estudante de Desenvolvimento de Sistemas
> >> > .:: Free

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Como eu vejo se está dinâmico ou não? No vmware ou no SO?

2 duas VMs:
SCSI controller --> LSI Logic Parallel
SCSI Bus Sharing --> None

HD1 --> Virtual --> SCSI (0:0)

Ambos são thinprovisiniong.

Mount e fdisk no FreeBSD:
# mount
/dev/da0p2 on / (ufs, local, journaled soft-updates)
devfs on /dev (devfs, local, multilabel)

# fdisk /dev/da0
*** Working on device /dev/da0 ***
parameters extracted from in-core disklabel are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

Figures below won't work with BIOS for partitions not in cyl 1
parameters to be used for BIOS calculations are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

Media sector size is 512
Warning: BIOS sector numbering starts with sector 1
Information from DOS bootblock is:
The data for partition 1 is:
sysid 238 (0xee),(EFI GPT)
start 1, size 20971519 (10239 Meg), flag 80 (active)
beg: cyl 0/ head 0/ sector 2;
end: cyl 1023/ head 255/ sector 63
The data for partition 2 is:

The data for partition 3 is:

The data for partition 4 is:



Mount e fdisk no ubuntu:
# mount
/dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
proc on /proc type proc (rw,noexec,nosuid,nodev)
none on /sys type sysfs (rw,noexec,nosuid,nodev)
none on /sys/fs/fuse/connections type fusectl (rw)
none on /sys/kernel/debug type debugfs (rw)
none on /sys/kernel/security type securityfs (rw)
none on /dev type devtmpfs (rw,mode=0755)
none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
none on /dev/shm type tmpfs (rw,nosuid,nodev)
none on /var/run type tmpfs (rw,nosuid,mode=0755)
none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
/dev/sda1 on /boot type ext2 (rw)

# fdisk -l

Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0007fbc2

   Device Boot  Start End  Blocks   Id  System
/dev/sda1   *   1  32  248832   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2  321306102338575  Extended
/dev/sda5  32130610233856   8e  Linux LVM



Em 18 de maio de 2012 00:04, Pedro Madsen  escreveu:
> O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V com
> volume dinâmico.
>
> Em 17 de maio de 2012 23:36, Paulo Henrique escreveu:
>
>> Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento <
>> welina...@bsd.com.br> escreveu:
>>
>> > Qual a configuração de hardware deste servidor?
>> >
>> > Em 17 de maio de 2012 18:56, Ari Arantes Filho  escreveu:
>> >
>> > > SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no Ubuntu.
>> > > Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
>> > > BSD e Ubuntu 64 para ubuntu.
>> > >
>> > >
>> > > Em 17 de maio de 2012 14:46, Francisco Cardoso 
>> > > escreveu:
>> > > > Em 17 de maio de 2012 11:58, Ari Arantes Filho 
>> > escreveu:
>> > > >> O servidor é um IBM3550M3. A controladora é a padrão.
>> > > >>
>> > > >> Também testei com um FreeBSD instalado no storage e não no disco
>> local
>> > > >> do vmware na 3550, mas os tempos também são bem parecidos.
>> > > >>
>> > > >> Vou testar com a 8.3.
>> > > >>
>> > > >>
>> > > >
>> > > > Acho que não me expressei bem. Quando falei controladora quis dizer a
>> > > > controladora da máquina virtual, não a do hardware físico do
>> servidor.
>> > > > Em outras palavras se a sua máquina virtual usa a controladora
>> > > > Buslogic, por exemplo, você vai ter problemas de lentidão, já que
>> essa
>> > > > controladora é antiga e em geral só deve ser usada para sistemas
>> > > > legados.
>> > > >
>> > > > Em geral o vsphere oferece como padrão para o FreeBSD a controlado
>> LSI
>> > > > Logic Parallel se não me falha a memória. A performance desta é
>> > > > incomparavelmente melhor do que a Buslogic.
>> > > >
>> >
>> >
>> Só uma pergunta, qual o seu valor de HZ  no kernel ?
>>
>> Att.
>>
>> >
>> >
>> > --
>> > .:: Welinaldo L N
>> > .:: Estudante de Desenvolvimento de Sistemas
>> > .:: FreeBSD Community Member #BSD/OS
>> > .:: Antes de imprimir, veja se realmente é necessário!
>> > .ılı..ılı.
>> > -
>> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> >
>>
>>
>>
>> --
>> :=)><(=:
>>
>> Flamers > /dev/null !!!
>> -
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailm

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
São 2 processadores Xeon E5620, 4 HDs SAS 300Gb e 32Gb de RAM.

Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento
 escreveu:
> Qual a configuração de hardware deste servidor?
>
> Em 17 de maio de 2012 18:56, Ari Arantes Filho  escreveu:
>
>> SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no Ubuntu.
>> Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
>> BSD e Ubuntu 64 para ubuntu.
>>
>>
>> Em 17 de maio de 2012 14:46, Francisco Cardoso 
>> escreveu:
>> > Em 17 de maio de 2012 11:58, Ari Arantes Filho  escreveu:
>> >> O servidor é um IBM3550M3. A controladora é a padrão.
>> >>
>> >> Também testei com um FreeBSD instalado no storage e não no disco local
>> >> do vmware na 3550, mas os tempos também são bem parecidos.
>> >>
>> >> Vou testar com a 8.3.
>> >>
>> >>
>> >
>> > Acho que não me expressei bem. Quando falei controladora quis dizer a
>> > controladora da máquina virtual, não a do hardware físico do servidor.
>> > Em outras palavras se a sua máquina virtual usa a controladora
>> > Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
>> > controladora é antiga e em geral só deve ser usada para sistemas
>> > legados.
>> >
>> > Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
>> > Logic Parallel se não me falha a memória. A performance desta é
>> > incomparavelmente melhor do que a Buslogic.
>> >
>> > --
>> >
>> > Francisco Ricardo
>> > ___
>> > Administrador de Redes e Sistemas Unix/Linux
>> > Profissional Certificado RedHat | Entusiasta FreeBSD
>> > Natal/RN | (84)9461-4801   | frica...@bsd.com.br
>> > -
>> > Histórico: http://www.fug.com.br/historico/html/freebsd/
>> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> -
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>>
>
>
>
> --
> .:: Welinaldo L N
> .:: Estudante de Desenvolvimento de Sistemas
> .:: FreeBSD Community Member #BSD/OS
> .:: Antes de imprimir, veja se realmente é necessário!
> .ılı..ılı.
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Pedro Madsen
O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V com
volume dinâmico.

Em 17 de maio de 2012 23:36, Paulo Henrique escreveu:

> Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento <
> welina...@bsd.com.br> escreveu:
>
> > Qual a configuração de hardware deste servidor?
> >
> > Em 17 de maio de 2012 18:56, Ari Arantes Filho  escreveu:
> >
> > > SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no Ubuntu.
> > > Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
> > > BSD e Ubuntu 64 para ubuntu.
> > >
> > >
> > > Em 17 de maio de 2012 14:46, Francisco Cardoso 
> > > escreveu:
> > > > Em 17 de maio de 2012 11:58, Ari Arantes Filho 
> > escreveu:
> > > >> O servidor é um IBM3550M3. A controladora é a padrão.
> > > >>
> > > >> Também testei com um FreeBSD instalado no storage e não no disco
> local
> > > >> do vmware na 3550, mas os tempos também são bem parecidos.
> > > >>
> > > >> Vou testar com a 8.3.
> > > >>
> > > >>
> > > >
> > > > Acho que não me expressei bem. Quando falei controladora quis dizer a
> > > > controladora da máquina virtual, não a do hardware físico do
> servidor.
> > > > Em outras palavras se a sua máquina virtual usa a controladora
> > > > Buslogic, por exemplo, você vai ter problemas de lentidão, já que
> essa
> > > > controladora é antiga e em geral só deve ser usada para sistemas
> > > > legados.
> > > >
> > > > Em geral o vsphere oferece como padrão para o FreeBSD a controlado
> LSI
> > > > Logic Parallel se não me falha a memória. A performance desta é
> > > > incomparavelmente melhor do que a Buslogic.
> > > >
> >
> >
> Só uma pergunta, qual o seu valor de HZ  no kernel ?
>
> Att.
>
> >
> >
> > --
> > .:: Welinaldo L N
> > .:: Estudante de Desenvolvimento de Sistemas
> > .:: FreeBSD Community Member #BSD/OS
> > .:: Antes de imprimir, veja se realmente é necessário!
> > .ılı..ılı.
> > -
> > Histórico: http://www.fug.com.br/historico/html/freebsd/
> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> >
>
>
>
> --
> :=)><(=:
>
> Flamers > /dev/null !!!
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Paulo Henrique
Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento <
welina...@bsd.com.br> escreveu:

> Qual a configuração de hardware deste servidor?
>
> Em 17 de maio de 2012 18:56, Ari Arantes Filho  escreveu:
>
> > SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no Ubuntu.
> > Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
> > BSD e Ubuntu 64 para ubuntu.
> >
> >
> > Em 17 de maio de 2012 14:46, Francisco Cardoso 
> > escreveu:
> > > Em 17 de maio de 2012 11:58, Ari Arantes Filho 
> escreveu:
> > >> O servidor é um IBM3550M3. A controladora é a padrão.
> > >>
> > >> Também testei com um FreeBSD instalado no storage e não no disco local
> > >> do vmware na 3550, mas os tempos também são bem parecidos.
> > >>
> > >> Vou testar com a 8.3.
> > >>
> > >>
> > >
> > > Acho que não me expressei bem. Quando falei controladora quis dizer a
> > > controladora da máquina virtual, não a do hardware físico do servidor.
> > > Em outras palavras se a sua máquina virtual usa a controladora
> > > Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
> > > controladora é antiga e em geral só deve ser usada para sistemas
> > > legados.
> > >
> > > Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
> > > Logic Parallel se não me falha a memória. A performance desta é
> > > incomparavelmente melhor do que a Buslogic.
> > >
>
>
Só uma pergunta, qual o seu valor de HZ  no kernel ?

Att.

>
>
> --
> .:: Welinaldo L N
> .:: Estudante de Desenvolvimento de Sistemas
> .:: FreeBSD Community Member #BSD/OS
> .:: Antes de imprimir, veja se realmente é necessário!
> .ılı..ılı.
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>



-- 
:=)><(=:

Flamers > /dev/null !!!
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Welinaldo Lopes Nascimento
Qual a configuração de hardware deste servidor?

Em 17 de maio de 2012 18:56, Ari Arantes Filho  escreveu:

> SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no Ubuntu.
> Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
> BSD e Ubuntu 64 para ubuntu.
>
>
> Em 17 de maio de 2012 14:46, Francisco Cardoso 
> escreveu:
> > Em 17 de maio de 2012 11:58, Ari Arantes Filho  escreveu:
> >> O servidor é um IBM3550M3. A controladora é a padrão.
> >>
> >> Também testei com um FreeBSD instalado no storage e não no disco local
> >> do vmware na 3550, mas os tempos também são bem parecidos.
> >>
> >> Vou testar com a 8.3.
> >>
> >>
> >
> > Acho que não me expressei bem. Quando falei controladora quis dizer a
> > controladora da máquina virtual, não a do hardware físico do servidor.
> > Em outras palavras se a sua máquina virtual usa a controladora
> > Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
> > controladora é antiga e em geral só deve ser usada para sistemas
> > legados.
> >
> > Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
> > Logic Parallel se não me falha a memória. A performance desta é
> > incomparavelmente melhor do que a Buslogic.
> >
> > --
> >
> > Francisco Ricardo
> > ___
> > Administrador de Redes e Sistemas Unix/Linux
> > Profissional Certificado RedHat | Entusiasta FreeBSD
> > Natal/RN | (84)9461-4801   | frica...@bsd.com.br
> > -
> > Histórico: http://www.fug.com.br/historico/html/freebsd/
> > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>



-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Ari Arantes Filho
SCSI controller 0 --> LSI Logic Parallel. A mesma utilizada no Ubuntu.
Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
BSD e Ubuntu 64 para ubuntu.


Em 17 de maio de 2012 14:46, Francisco Cardoso  escreveu:
> Em 17 de maio de 2012 11:58, Ari Arantes Filho  escreveu:
>> O servidor é um IBM3550M3. A controladora é a padrão.
>>
>> Também testei com um FreeBSD instalado no storage e não no disco local
>> do vmware na 3550, mas os tempos também são bem parecidos.
>>
>> Vou testar com a 8.3.
>>
>>
>
> Acho que não me expressei bem. Quando falei controladora quis dizer a
> controladora da máquina virtual, não a do hardware físico do servidor.
> Em outras palavras se a sua máquina virtual usa a controladora
> Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
> controladora é antiga e em geral só deve ser usada para sistemas
> legados.
>
> Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
> Logic Parallel se não me falha a memória. A performance desta é
> incomparavelmente melhor do que a Buslogic.
>
> --
>
> Francisco Ricardo
> ___
> Administrador de Redes e Sistemas Unix/Linux
> Profissional Certificado RedHat | Entusiasta FreeBSD
> Natal/RN | (84)9461-4801   | frica...@bsd.com.br
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Francisco Cardoso
Em 17 de maio de 2012 11:58, Ari Arantes Filho  escreveu:
> O servidor é um IBM3550M3. A controladora é a padrão.
>
> Também testei com um FreeBSD instalado no storage e não no disco local
> do vmware na 3550, mas os tempos também são bem parecidos.
>
> Vou testar com a 8.3.
>
>

Acho que não me expressei bem. Quando falei controladora quis dizer a
controladora da máquina virtual, não a do hardware físico do servidor.
Em outras palavras se a sua máquina virtual usa a controladora
Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
controladora é antiga e em geral só deve ser usada para sistemas
legados.

Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
Logic Parallel se não me falha a memória. A performance desta é
incomparavelmente melhor do que a Buslogic.

-- 

Francisco Ricardo
___
Administrador de Redes e Sistemas Unix/Linux
Profissional Certificado RedHat | Entusiasta FreeBSD
Natal/RN | (84)9461-4801   | frica...@bsd.com.br
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Ari Arantes Filho
O servidor é um IBM3550M3. A controladora é a padrão.

Também testei com um FreeBSD instalado no storage e não no disco local
do vmware na 3550, mas os tempos também são bem parecidos.

Vou testar com a 8.3.


Em 16 de maio de 2012 16:47, Francisco Cardoso  escreveu:
> Em 15 de maio de 2012 20:19, Ari Arantes Filho  escreveu:
>> No ubuntu também não tem o vmware-tools instalado.
>>
>> Em 15 de maio de 2012 18:36, Luiz Gustavo
>>  escreveu:
>>> Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
 Pessoal,

 Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
 acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.

 Alguém sabe o que pode ser feito para melhorar isso?

 Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
 servidor com as mesmas configurações e fiz 8 testes em tempos
 variados.

 Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
 o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
 (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
 ports), sempre pegando os tempos através do time. Já no FreeBSD, os
 tempos passam de 10m, 12m, um teste foi até 17m.

 O / no FreeBSD está com soft-update.
>>>
>>> Dai Ari, tudo bom ?
>>>
>>> Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
>>> ubuntu, por isso talvez a grande diferença.
>>>
>>> Tente instalar o vmware-guestd, acho que pra teu caso é esse:
>>>
>>> /usr/ports/emulators/vmware-guestd5
>>>
>>>
>>> Abraços
>>>
>>> --
>>> Luiz Gustavo Costa (Powered by BSD)
>>> *+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
>>> mundoUnix - Consultoria em Software Livre
>>> http://www.mundounix.com.br
>>> ICQ: 2890831 / MSN: cont...@mundounix.com.br
>>> Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
>>> Blog: http://www.luizgustavo.pro.br
>>>
>>> -
>>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>> -
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
>
> Muito estranho Ari ... 10 minutos para descompactar a árvore de ports?
>
> Qual a controladora virtual de discos que você usou? Testou com a
> versão 8.2/8.3 do Free também?
>
>
> --
>
> Francisco Ricardo
> ___
> Administrador de Redes e Sistemas Unix/Linux
> Profissional Certificado RedHat | Entusiasta FreeBSD
> Natal/RN | (84)9461-4801   | frica...@bsd.com.br
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-16 Por tôpico Francisco Cardoso
Em 15 de maio de 2012 20:19, Ari Arantes Filho  escreveu:
> No ubuntu também não tem o vmware-tools instalado.
>
> Em 15 de maio de 2012 18:36, Luiz Gustavo
>  escreveu:
>> Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
>>> Pessoal,
>>>
>>> Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
>>> acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.
>>>
>>> Alguém sabe o que pode ser feito para melhorar isso?
>>>
>>> Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
>>> servidor com as mesmas configurações e fiz 8 testes em tempos
>>> variados.
>>>
>>> Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
>>> o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
>>> (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
>>> ports), sempre pegando os tempos através do time. Já no FreeBSD, os
>>> tempos passam de 10m, 12m, um teste foi até 17m.
>>>
>>> O / no FreeBSD está com soft-update.
>>
>> Dai Ari, tudo bom ?
>>
>> Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
>> ubuntu, por isso talvez a grande diferença.
>>
>> Tente instalar o vmware-guestd, acho que pra teu caso é esse:
>>
>> /usr/ports/emulators/vmware-guestd5
>>
>>
>> Abraços
>>
>> --
>> Luiz Gustavo Costa (Powered by BSD)
>> *+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
>> mundoUnix - Consultoria em Software Livre
>> http://www.mundounix.com.br
>> ICQ: 2890831 / MSN: cont...@mundounix.com.br
>> Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
>> Blog: http://www.luizgustavo.pro.br
>>
>> -
>> Histórico: http://www.fug.com.br/historico/html/freebsd/
>> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

Muito estranho Ari ... 10 minutos para descompactar a árvore de ports?

Qual a controladora virtual de discos que você usou? Testou com a
versão 8.2/8.3 do Free também?


-- 

Francisco Ricardo
___
Administrador de Redes e Sistemas Unix/Linux
Profissional Certificado RedHat | Entusiasta FreeBSD
Natal/RN | (84)9461-4801   | frica...@bsd.com.br
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-15 Por tôpico Ari Arantes Filho
No ubuntu também não tem o vmware-tools instalado.

Em 15 de maio de 2012 18:36, Luiz Gustavo
 escreveu:
> Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
>> Pessoal,
>>
>> Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
>> acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.
>>
>> Alguém sabe o que pode ser feito para melhorar isso?
>>
>> Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
>> servidor com as mesmas configurações e fiz 8 testes em tempos
>> variados.
>>
>> Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
>> o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
>> (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
>> ports), sempre pegando os tempos através do time. Já no FreeBSD, os
>> tempos passam de 10m, 12m, um teste foi até 17m.
>>
>> O / no FreeBSD está com soft-update.
>
> Dai Ari, tudo bom ?
>
> Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
> ubuntu, por isso talvez a grande diferença.
>
> Tente instalar o vmware-guestd, acho que pra teu caso é esse:
>
> /usr/ports/emulators/vmware-guestd5
>
>
> Abraços
>
> --
> Luiz Gustavo Costa (Powered by BSD)
> *+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
> mundoUnix - Consultoria em Software Livre
> http://www.mundounix.com.br
> ICQ: 2890831 / MSN: cont...@mundounix.com.br
> Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
> Blog: http://www.luizgustavo.pro.br
>
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-15 Por tôpico Luiz Gustavo
Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
> Pessoal,
> 
> Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
> acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.
> 
> Alguém sabe o que pode ser feito para melhorar isso?
> 
> Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
> servidor com as mesmas configurações e fiz 8 testes em tempos
> variados.
> 
> Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
> o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
> (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
> ports), sempre pegando os tempos através do time. Já no FreeBSD, os
> tempos passam de 10m, 12m, um teste foi até 17m.
> 
> O / no FreeBSD está com soft-update.

Dai Ari, tudo bom ?

Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
ubuntu, por isso talvez a grande diferença.

Tente instalar o vmware-guestd, acho que pra teu caso é esse:

/usr/ports/emulators/vmware-guestd5


Abraços

-- 
Luiz Gustavo Costa (Powered by BSD)
*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
mundoUnix - Consultoria em Software Livre
http://www.mundounix.com.br
ICQ: 2890831 / MSN: cont...@mundounix.com.br
Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
Blog: http://www.luizgustavo.pro.br

-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd