Re: [FUG-BR] Acesso ao disco em vmware

2012-06-15 Por tôpico Welinaldo Lopes Nascimento
Fiz um novo teste /extração usando freebsd 9 64bis, com disco pre-alocado,
o resultado é de 14.20 min... Já com Freebsd 8 32bits, com disco não
pre-alocado, ficou com tempo de 13.12 min.

Alguém chegou a alguma conclusão para esta thread?



Em 19 de maio de 2012 11:22, Welinaldo Lopes Nascimento 
welina...@bsd.com.br escreveu:

 Estou implementando um servidor HP proliant com 4gb, até amanhã posto aqui
 este resultado também..

 Ari, qual foi o seu tempo para remoção?




 Em 19 de maio de 2012 11:18, Welinaldo Lopes Nascimento 
 welina...@bsd.com.br escreveu:

 É um notebook Dell XPS, i7 2630QM, 8GB ram, só para estudo básico.

 Em 19 de maio de 2012 09:19, Ari Arantes Filho a...@dd.com.br escreveu:

 13minutos é muito tempo também.

 Qual a configuração da sua máquina?


 Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
 welina...@bsd.com.br escreveu:
  e pra remover:
 
  0.238   3.642s   3:44.30  1.7%
 
  Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento 
  welina...@bsd.com.br escreveu:
 
  Ari, fiz o teste aqui no meu e ficou o seguinte:
 
  7.088u   19.307s  13:12.91  3.3%
 
 
 
 
 
  Em 18 de maio de 2012 18:37, Ari Arantes Filho a...@dd.com.br
 escreveu:
 
  Testei com o disco sem o thinprovisioning:
 
  # time tar xzf ports.tar.gz
 
  real16m8.904s
 
  mesma coisa, péssima performance.
 
 
 
  Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
  welina...@bsd.com.br escreveu:
   Beleza Ari, vamos ficar aguardando o resultado...
   Amanhã vou fazer o mesmo e posto aqui também o resultado.
  
   Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br
  escreveu:
  
   Vou reinstalar um FreeBSD 9 e utilizar um disco sem o
 thinprovisioning
   e reporto aqui na lista os resultados.
  
   Em 18 de maio de 2012 17:01, Rafael Henrique Faria
   rafaelhfa...@cenadigital.com.br escreveu:
2012/5/18 Ari Arantes Filho a...@dd.com.br
   
1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
  seja,
libero o espaço e teoricamente o vmware não precisará aumentar
novamente
   
   
Eu posso estar errado, os mais experientes neste caso que me
  corrijam,
   mas
o UFS2 em uso no caso do FreeBSD não faz isso que você está
  imaginando.
   
Quando você descompacta a primeira vez o ports.tar.gz, o UFS2
 vai
  alocar
   o
espaço para o mesmo. E quando você apaga o mesmo, apesar do
 espaço
  ficar
livre, o UFS2 não apaga o conteũdo do disco. E uma nova
 gravação,
  não
   irá
utilizar o espaço liberado, mas sim um espaço livre virgem. O
  espaço
liberado somente será utilizando quando o disco não tiver mais
  espaços
livres.
   
Ao utilizar recursos como este em HDs reais, o file system tem
 uma
   melhora
de performance, pois não precisa ficar apagando o disco... ele
 vai
  usando
espaços livres até que realmente seja necessário uma limpeza do
 file
   system
por ter acabado o espaço livre.
   
Ultimamente percebi que após algum tempo, algumas horas, o
 espaço
  acaba
sendo liberado para uso... então acredito que tenha sido feita
 uma
alteração para algum processo de varredura ir liberando o
 espaço de
  tempo
em tempo.. mas isso não é em tempo real.
   
Um exemplo prático disso:
   
- esgote o espaço em disco com arquivos grandes.
- apague um dos arquivos grandes.
- o espaço não será liberado imediatamente... o disco vai
 continuar
reclamando que não tem espaço livre o suficiente.
   
Normalmente isso não apresenta grandes problemas... pois um bom
administrador nunca irá deixar esgotar o espaço em disco.
   
Porém, no caso do thinprovisioning isso é um problema. Pois a
 cada
  nova
gravação ele vai precisar requisitar do HOST um novo espaço em
  disco. O
   que
acaba ficando lendo.
   
Eu sinceramente evito usar thinprovisioning em servidores de
   virtualização,
tanto por causa deste problema, quanto pelo efeito surpresa, de
 você
   alocar
10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
  precisaram
   usar
os 1TB oferecidos para o mesmo. Claro que é um exemplo, na
 prática
   teremos
40 máquinas com HDs de tamanhos variados, que se tornará difícil
  ficar
acompanhando o crescimento, e o tamanho configurado para cada
 uma no
momento da crianção da máquina.
   
--
Rafael Henrique da Silva Faria
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  
  
  
  
   --
   .:: Welinaldo L N
   .:: Estudante de Desenvolvimento de Sistemas
   .:: FreeBSD Community Member #BSD/OS
   .:: Antes de imprimir, veja se realmente é necessário!
   .ılı..ılı.
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-19 Por tôpico Ari Arantes Filho
13minutos é muito tempo também.

Qual a configuração da sua máquina?


Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
welina...@bsd.com.br escreveu:
 e pra remover:

 0.238   3.642s   3:44.30  1.7%

 Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento 
 welina...@bsd.com.br escreveu:

 Ari, fiz o teste aqui no meu e ficou o seguinte:

 7.088u   19.307s  13:12.91  3.3%





 Em 18 de maio de 2012 18:37, Ari Arantes Filho a...@dd.com.br escreveu:

 Testei com o disco sem o thinprovisioning:

 # time tar xzf ports.tar.gz

 real    16m8.904s

 mesma coisa, péssima performance.



 Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
 welina...@bsd.com.br escreveu:
  Beleza Ari, vamos ficar aguardando o resultado...
  Amanhã vou fazer o mesmo e posto aqui também o resultado.
 
  Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br
 escreveu:
 
  Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
  e reporto aqui na lista os resultados.
 
  Em 18 de maio de 2012 17:01, Rafael Henrique Faria
  rafaelhfa...@cenadigital.com.br escreveu:
   2012/5/18 Ari Arantes Filho a...@dd.com.br
  
   1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
 seja,
   libero o espaço e teoricamente o vmware não precisará aumentar
   novamente
  
  
   Eu posso estar errado, os mais experientes neste caso que me
 corrijam,
  mas
   o UFS2 em uso no caso do FreeBSD não faz isso que você está
 imaginando.
  
   Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
 alocar
  o
   espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
 ficar
   livre, o UFS2 não apaga o conteũdo do disco. E uma nova gravação,
 não
  irá
   utilizar o espaço liberado, mas sim um espaço livre virgem. O
 espaço
   liberado somente será utilizando quando o disco não tiver mais
 espaços
   livres.
  
   Ao utilizar recursos como este em HDs reais, o file system tem uma
  melhora
   de performance, pois não precisa ficar apagando o disco... ele vai
 usando
   espaços livres até que realmente seja necessário uma limpeza do file
  system
   por ter acabado o espaço livre.
  
   Ultimamente percebi que após algum tempo, algumas horas, o espaço
 acaba
   sendo liberado para uso... então acredito que tenha sido feita uma
   alteração para algum processo de varredura ir liberando o espaço de
 tempo
   em tempo.. mas isso não é em tempo real.
  
   Um exemplo prático disso:
  
   - esgote o espaço em disco com arquivos grandes.
   - apague um dos arquivos grandes.
   - o espaço não será liberado imediatamente... o disco vai continuar
   reclamando que não tem espaço livre o suficiente.
  
   Normalmente isso não apresenta grandes problemas... pois um bom
   administrador nunca irá deixar esgotar o espaço em disco.
  
   Porém, no caso do thinprovisioning isso é um problema. Pois a cada
 nova
   gravação ele vai precisar requisitar do HOST um novo espaço em
 disco. O
  que
   acaba ficando lendo.
  
   Eu sinceramente evito usar thinprovisioning em servidores de
  virtualização,
   tanto por causa deste problema, quanto pelo efeito surpresa, de você
  alocar
   10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
 precisaram
  usar
   os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
  teremos
   40 máquinas com HDs de tamanhos variados, que se tornará difícil
 ficar
   acompanhando o crescimento, e o tamanho configurado para cada uma no
   momento da crianção da máquina.
  
   --
   Rafael Henrique da Silva Faria
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 
 
 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




 --
 .:: Welinaldo L N
 .:: Estudante de Desenvolvimento de Sistemas
 .:: FreeBSD Community Member #BSD/OS
 .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.




 --
 .:: Welinaldo L N
 .:: Estudante de Desenvolvimento de Sistemas
 .:: FreeBSD Community Member #BSD/OS
 .:: Antes de imprimir, veja se realmente é necessário!
 .ılı..ılı.
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-19 Por tôpico Welinaldo Lopes Nascimento
É um notebook Dell XPS, i7 2630QM, 8GB ram, só para estudo básico.

Em 19 de maio de 2012 09:19, Ari Arantes Filho a...@dd.com.br escreveu:

 13minutos é muito tempo também.

 Qual a configuração da sua máquina?


 Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
 welina...@bsd.com.br escreveu:
  e pra remover:
 
  0.238   3.642s   3:44.30  1.7%
 
  Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento 
  welina...@bsd.com.br escreveu:
 
  Ari, fiz o teste aqui no meu e ficou o seguinte:
 
  7.088u   19.307s  13:12.91  3.3%
 
 
 
 
 
  Em 18 de maio de 2012 18:37, Ari Arantes Filho a...@dd.com.br
 escreveu:
 
  Testei com o disco sem o thinprovisioning:
 
  # time tar xzf ports.tar.gz
 
  real16m8.904s
 
  mesma coisa, péssima performance.
 
 
 
  Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
  welina...@bsd.com.br escreveu:
   Beleza Ari, vamos ficar aguardando o resultado...
   Amanhã vou fazer o mesmo e posto aqui também o resultado.
  
   Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br
  escreveu:
  
   Vou reinstalar um FreeBSD 9 e utilizar um disco sem o
 thinprovisioning
   e reporto aqui na lista os resultados.
  
   Em 18 de maio de 2012 17:01, Rafael Henrique Faria
   rafaelhfa...@cenadigital.com.br escreveu:
2012/5/18 Ari Arantes Filho a...@dd.com.br
   
1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
  seja,
libero o espaço e teoricamente o vmware não precisará aumentar
novamente
   
   
Eu posso estar errado, os mais experientes neste caso que me
  corrijam,
   mas
o UFS2 em uso no caso do FreeBSD não faz isso que você está
  imaginando.
   
Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
  alocar
   o
espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
  ficar
livre, o UFS2 não apaga o conteũdo do disco. E uma nova
 gravação,
  não
   irá
utilizar o espaço liberado, mas sim um espaço livre virgem. O
  espaço
liberado somente será utilizando quando o disco não tiver mais
  espaços
livres.
   
Ao utilizar recursos como este em HDs reais, o file system tem uma
   melhora
de performance, pois não precisa ficar apagando o disco... ele vai
  usando
espaços livres até que realmente seja necessário uma limpeza do
 file
   system
por ter acabado o espaço livre.
   
Ultimamente percebi que após algum tempo, algumas horas, o espaço
  acaba
sendo liberado para uso... então acredito que tenha sido feita uma
alteração para algum processo de varredura ir liberando o espaço
 de
  tempo
em tempo.. mas isso não é em tempo real.
   
Um exemplo prático disso:
   
- esgote o espaço em disco com arquivos grandes.
- apague um dos arquivos grandes.
- o espaço não será liberado imediatamente... o disco vai
 continuar
reclamando que não tem espaço livre o suficiente.
   
Normalmente isso não apresenta grandes problemas... pois um bom
administrador nunca irá deixar esgotar o espaço em disco.
   
Porém, no caso do thinprovisioning isso é um problema. Pois a cada
  nova
gravação ele vai precisar requisitar do HOST um novo espaço em
  disco. O
   que
acaba ficando lendo.
   
Eu sinceramente evito usar thinprovisioning em servidores de
   virtualização,
tanto por causa deste problema, quanto pelo efeito surpresa, de
 você
   alocar
10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
  precisaram
   usar
os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
   teremos
40 máquinas com HDs de tamanhos variados, que se tornará difícil
  ficar
acompanhando o crescimento, e o tamanho configurado para cada uma
 no
momento da crianção da máquina.
   
--
Rafael Henrique da Silva Faria
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  
  
  
  
   --
   .:: Welinaldo L N
   .:: Estudante de Desenvolvimento de Sistemas
   .:: FreeBSD Community Member #BSD/OS
   .:: Antes de imprimir, veja se realmente é necessário!
   .ılı..ılı.
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 
 
 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se realmente é necessário!
   .ılı..ılı.
 
 
 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.
  

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-19 Por tôpico Welinaldo Lopes Nascimento
Estou implementando um servidor HP proliant com 4gb, até amanhã posto aqui
este resultado também..

Ari, qual foi o seu tempo para remoção?




Em 19 de maio de 2012 11:18, Welinaldo Lopes Nascimento 
welina...@bsd.com.br escreveu:

 É um notebook Dell XPS, i7 2630QM, 8GB ram, só para estudo básico.

 Em 19 de maio de 2012 09:19, Ari Arantes Filho a...@dd.com.br escreveu:

 13minutos é muito tempo também.

 Qual a configuração da sua máquina?


 Em 19 de maio de 2012 02:26, Welinaldo Lopes Nascimento
 welina...@bsd.com.br escreveu:
  e pra remover:
 
  0.238   3.642s   3:44.30  1.7%
 
  Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento 
  welina...@bsd.com.br escreveu:
 
  Ari, fiz o teste aqui no meu e ficou o seguinte:
 
  7.088u   19.307s  13:12.91  3.3%
 
 
 
 
 
  Em 18 de maio de 2012 18:37, Ari Arantes Filho a...@dd.com.br
 escreveu:
 
  Testei com o disco sem o thinprovisioning:
 
  # time tar xzf ports.tar.gz
 
  real16m8.904s
 
  mesma coisa, péssima performance.
 
 
 
  Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
  welina...@bsd.com.br escreveu:
   Beleza Ari, vamos ficar aguardando o resultado...
   Amanhã vou fazer o mesmo e posto aqui também o resultado.
  
   Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br
  escreveu:
  
   Vou reinstalar um FreeBSD 9 e utilizar um disco sem o
 thinprovisioning
   e reporto aqui na lista os resultados.
  
   Em 18 de maio de 2012 17:01, Rafael Henrique Faria
   rafaelhfa...@cenadigital.com.br escreveu:
2012/5/18 Ari Arantes Filho a...@dd.com.br
   
1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
  seja,
libero o espaço e teoricamente o vmware não precisará aumentar
novamente
   
   
Eu posso estar errado, os mais experientes neste caso que me
  corrijam,
   mas
o UFS2 em uso no caso do FreeBSD não faz isso que você está
  imaginando.
   
Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
  alocar
   o
espaço para o mesmo. E quando você apaga o mesmo, apesar do
 espaço
  ficar
livre, o UFS2 não apaga o conteũdo do disco. E uma nova
 gravação,
  não
   irá
utilizar o espaço liberado, mas sim um espaço livre virgem. O
  espaço
liberado somente será utilizando quando o disco não tiver mais
  espaços
livres.
   
Ao utilizar recursos como este em HDs reais, o file system tem
 uma
   melhora
de performance, pois não precisa ficar apagando o disco... ele
 vai
  usando
espaços livres até que realmente seja necessário uma limpeza do
 file
   system
por ter acabado o espaço livre.
   
Ultimamente percebi que após algum tempo, algumas horas, o espaço
  acaba
sendo liberado para uso... então acredito que tenha sido feita
 uma
alteração para algum processo de varredura ir liberando o espaço
 de
  tempo
em tempo.. mas isso não é em tempo real.
   
Um exemplo prático disso:
   
- esgote o espaço em disco com arquivos grandes.
- apague um dos arquivos grandes.
- o espaço não será liberado imediatamente... o disco vai
 continuar
reclamando que não tem espaço livre o suficiente.
   
Normalmente isso não apresenta grandes problemas... pois um bom
administrador nunca irá deixar esgotar o espaço em disco.
   
Porém, no caso do thinprovisioning isso é um problema. Pois a
 cada
  nova
gravação ele vai precisar requisitar do HOST um novo espaço em
  disco. O
   que
acaba ficando lendo.
   
Eu sinceramente evito usar thinprovisioning em servidores de
   virtualização,
tanto por causa deste problema, quanto pelo efeito surpresa, de
 você
   alocar
10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
  precisaram
   usar
os 1TB oferecidos para o mesmo. Claro que é um exemplo, na
 prática
   teremos
40 máquinas com HDs de tamanhos variados, que se tornará difícil
  ficar
acompanhando o crescimento, e o tamanho configurado para cada
 uma no
momento da crianção da máquina.
   
--
Rafael Henrique da Silva Faria
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  
  
  
  
   --
   .:: Welinaldo L N
   .:: Estudante de Desenvolvimento de Sistemas
   .:: FreeBSD Community Member #BSD/OS
   .:: Antes de imprimir, veja se realmente é necessário!
   .ılı..ılı.
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 
 
 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
São 2 processadores Xeon E5620, 4 HDs SAS 300Gb e 32Gb de RAM.

Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento
welina...@bsd.com.br escreveu:
 Qual a configuração de hardware deste servidor?

 Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br escreveu:

 SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no Ubuntu.
 Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
 BSD e Ubuntu 64 para ubuntu.


 Em 17 de maio de 2012 14:46, Francisco Cardoso frica...@bsd.com.br
 escreveu:
  Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br escreveu:
  O servidor é um IBM3550M3. A controladora é a padrão.
 
  Também testei com um FreeBSD instalado no storage e não no disco local
  do vmware na 3550, mas os tempos também são bem parecidos.
 
  Vou testar com a 8.3.
 
 
 
  Acho que não me expressei bem. Quando falei controladora quis dizer a
  controladora da máquina virtual, não a do hardware físico do servidor.
  Em outras palavras se a sua máquina virtual usa a controladora
  Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
  controladora é antiga e em geral só deve ser usada para sistemas
  legados.
 
  Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
  Logic Parallel se não me falha a memória. A performance desta é
  incomparavelmente melhor do que a Buslogic.
 
  --
 
  Francisco Ricardo
  ___
  Administrador de Redes e Sistemas Unix/Linux
  Profissional Certificado RedHat | Entusiasta FreeBSD
  Natal/RN | (84)9461-4801   | frica...@bsd.com.br
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




 --
 .:: Welinaldo L N
 .:: Estudante de Desenvolvimento de Sistemas
 .:: FreeBSD Community Member #BSD/OS
 .:: Antes de imprimir, veja se realmente é necessário!
 .ılı..ılı.
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Como eu vejo se está dinâmico ou não? No vmware ou no SO?

2 duas VMs:
SCSI controller -- LSI Logic Parallel
SCSI Bus Sharing -- None

HD1 -- Virtual -- SCSI (0:0)

Ambos são thinprovisiniong.

Mount e fdisk no FreeBSD:
# mount
/dev/da0p2 on / (ufs, local, journaled soft-updates)
devfs on /dev (devfs, local, multilabel)

# fdisk /dev/da0
*** Working on device /dev/da0 ***
parameters extracted from in-core disklabel are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

Figures below won't work with BIOS for partitions not in cyl 1
parameters to be used for BIOS calculations are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

Media sector size is 512
Warning: BIOS sector numbering starts with sector 1
Information from DOS bootblock is:
The data for partition 1 is:
sysid 238 (0xee),(EFI GPT)
start 1, size 20971519 (10239 Meg), flag 80 (active)
beg: cyl 0/ head 0/ sector 2;
end: cyl 1023/ head 255/ sector 63
The data for partition 2 is:
UNUSED
The data for partition 3 is:
UNUSED
The data for partition 4 is:
UNUSED


Mount e fdisk no ubuntu:
# mount
/dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
proc on /proc type proc (rw,noexec,nosuid,nodev)
none on /sys type sysfs (rw,noexec,nosuid,nodev)
none on /sys/fs/fuse/connections type fusectl (rw)
none on /sys/kernel/debug type debugfs (rw)
none on /sys/kernel/security type securityfs (rw)
none on /dev type devtmpfs (rw,mode=0755)
none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
none on /dev/shm type tmpfs (rw,nosuid,nodev)
none on /var/run type tmpfs (rw,nosuid,mode=0755)
none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
/dev/sda1 on /boot type ext2 (rw)

# fdisk -l

Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0007fbc2

   Device Boot  Start End  Blocks   Id  System
/dev/sda1   *   1  32  248832   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2  321306102338575  Extended
/dev/sda5  32130610233856   8e  Linux LVM



Em 18 de maio de 2012 00:04, Pedro Madsen pe...@madnix.com escreveu:
 O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V com
 volume dinâmico.

 Em 17 de maio de 2012 23:36, Paulo Henrique paulo.rd...@bsd.com.brescreveu:

 Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
 welina...@bsd.com.br escreveu:

  Qual a configuração de hardware deste servidor?
 
  Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br escreveu:
 
   SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no Ubuntu.
   Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
   BSD e Ubuntu 64 para ubuntu.
  
  
   Em 17 de maio de 2012 14:46, Francisco Cardoso frica...@bsd.com.br
   escreveu:
Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br
  escreveu:
O servidor é um IBM3550M3. A controladora é a padrão.
   
Também testei com um FreeBSD instalado no storage e não no disco
 local
do vmware na 3550, mas os tempos também são bem parecidos.
   
Vou testar com a 8.3.
   
   
   
Acho que não me expressei bem. Quando falei controladora quis dizer a
controladora da máquina virtual, não a do hardware físico do
 servidor.
Em outras palavras se a sua máquina virtual usa a controladora
Buslogic, por exemplo, você vai ter problemas de lentidão, já que
 essa
controladora é antiga e em geral só deve ser usada para sistemas
legados.
   
Em geral o vsphere oferece como padrão para o FreeBSD a controlado
 LSI
Logic Parallel se não me falha a memória. A performance desta é
incomparavelmente melhor do que a Buslogic.
   
 
 
 Só uma pergunta, qual o seu valor de HZ  no kernel ?

 Att.

 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 



 --
 :=)(=:

 Flamers  /dev/null !!!
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Pedro Madsen
Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado ou
se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V, isso
demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
para o virtualizador e a resposta da alocação do próprio Windows gera uma
latência alta demais que engargala os processos da máquina virtual. No caso
do espaço pré-alocado, o virtualizador não demora a responder a solicitação.

Em 18 de maio de 2012 08:02, Ari Arantes Filho a...@dd.com.br escreveu:

 Como eu vejo se está dinâmico ou não? No vmware ou no SO?

 2 duas VMs:
 SCSI controller -- LSI Logic Parallel
 SCSI Bus Sharing -- None

 HD1 -- Virtual -- SCSI (0:0)

 Ambos são thinprovisiniong.

 Mount e fdisk no FreeBSD:
 # mount
 /dev/da0p2 on / (ufs, local, journaled soft-updates)
 devfs on /dev (devfs, local, multilabel)

 # fdisk /dev/da0
 *** Working on device /dev/da0 ***
 parameters extracted from in-core disklabel are:
 cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

 Figures below won't work with BIOS for partitions not in cyl 1
 parameters to be used for BIOS calculations are:
 cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

 Media sector size is 512
 Warning: BIOS sector numbering starts with sector 1
 Information from DOS bootblock is:
 The data for partition 1 is:
 sysid 238 (0xee),(EFI GPT)
start 1, size 20971519 (10239 Meg), flag 80 (active)
beg: cyl 0/ head 0/ sector 2;
end: cyl 1023/ head 255/ sector 63
 The data for partition 2 is:
 UNUSED
 The data for partition 3 is:
 UNUSED
 The data for partition 4 is:
 UNUSED


 Mount e fdisk no ubuntu:
 # mount
 /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
 proc on /proc type proc (rw,noexec,nosuid,nodev)
 none on /sys type sysfs (rw,noexec,nosuid,nodev)
 none on /sys/fs/fuse/connections type fusectl (rw)
 none on /sys/kernel/debug type debugfs (rw)
 none on /sys/kernel/security type securityfs (rw)
 none on /dev type devtmpfs (rw,mode=0755)
 none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
 none on /dev/shm type tmpfs (rw,nosuid,nodev)
 none on /var/run type tmpfs (rw,nosuid,mode=0755)
 none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
 none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
 /dev/sda1 on /boot type ext2 (rw)

 # fdisk -l

 Disk /dev/sda: 10.7 GB, 10737418240 bytes
 255 heads, 63 sectors/track, 1305 cylinders
 Units = cylinders of 16065 * 512 = 8225280 bytes
 Sector size (logical/physical): 512 bytes / 512 bytes
 I/O size (minimum/optimal): 512 bytes / 512 bytes
 Disk identifier: 0x0007fbc2

   Device Boot  Start End  Blocks   Id  System
 /dev/sda1   *   1  32  248832   83  Linux
 Partition 1 does not end on cylinder boundary.
 /dev/sda2  321306102338575  Extended
 /dev/sda5  32130610233856   8e  Linux LVM



 Em 18 de maio de 2012 00:04, Pedro Madsen pe...@madnix.com escreveu:
  O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V com
  volume dinâmico.
 
  Em 17 de maio de 2012 23:36, Paulo Henrique paulo.rd...@bsd.com.br
 escreveu:
 
  Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
  welina...@bsd.com.br escreveu:
 
   Qual a configuração de hardware deste servidor?
  
   Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br
 escreveu:
  
SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no
 Ubuntu.
Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
BSD e Ubuntu 64 para ubuntu.
   
   
Em 17 de maio de 2012 14:46, Francisco Cardoso frica...@bsd.com.br
 
escreveu:
 Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br
   escreveu:
 O servidor é um IBM3550M3. A controladora é a padrão.

 Também testei com um FreeBSD instalado no storage e não no disco
  local
 do vmware na 3550, mas os tempos também são bem parecidos.

 Vou testar com a 8.3.



 Acho que não me expressei bem. Quando falei controladora quis
 dizer a
 controladora da máquina virtual, não a do hardware físico do
  servidor.
 Em outras palavras se a sua máquina virtual usa a controladora
 Buslogic, por exemplo, você vai ter problemas de lentidão, já que
  essa
 controladora é antiga e em geral só deve ser usada para sistemas
 legados.

 Em geral o vsphere oferece como padrão para o FreeBSD a controlado
  LSI
 Logic Parallel se não me falha a memória. A performance desta é
 incomparavelmente melhor do que a Buslogic.

  
  
  Só uma pergunta, qual o seu valor de HZ  no kernel ?
 
  Att.
 
  
  
   --
   .:: Welinaldo L N
   .:: Estudante de Desenvolvimento de Sistemas
   .:: FreeBSD Community Member #BSD/OS
   .:: Antes de imprimir, veja se realmente é necessário!
   .ılı..ılı.
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Interessante a observação do Pedro Madsen, e inclusive vou checar isto...
Sempre usei esta configuração para expandir dinamicamente e também notei
lentidão ao realizar os testes informado pelo Ari :-)

Em 18 de maio de 2012 16:16, Pedro Madsen pe...@madnix.com escreveu:

 Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado ou
 se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V, isso
 demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
 para o virtualizador e a resposta da alocação do próprio Windows gera uma
 latência alta demais que engargala os processos da máquina virtual. No caso
 do espaço pré-alocado, o virtualizador não demora a responder a
 solicitação.

 Em 18 de maio de 2012 08:02, Ari Arantes Filho a...@dd.com.br escreveu:

  Como eu vejo se está dinâmico ou não? No vmware ou no SO?
 
  2 duas VMs:
  SCSI controller -- LSI Logic Parallel
  SCSI Bus Sharing -- None
 
  HD1 -- Virtual -- SCSI (0:0)
 
  Ambos são thinprovisiniong.
 
  Mount e fdisk no FreeBSD:
  # mount
  /dev/da0p2 on / (ufs, local, journaled soft-updates)
  devfs on /dev (devfs, local, multilabel)
 
  # fdisk /dev/da0
  *** Working on device /dev/da0 ***
  parameters extracted from in-core disklabel are:
  cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
 
  Figures below won't work with BIOS for partitions not in cyl 1
  parameters to be used for BIOS calculations are:
  cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
 
  Media sector size is 512
  Warning: BIOS sector numbering starts with sector 1
  Information from DOS bootblock is:
  The data for partition 1 is:
  sysid 238 (0xee),(EFI GPT)
 start 1, size 20971519 (10239 Meg), flag 80 (active)
 beg: cyl 0/ head 0/ sector 2;
 end: cyl 1023/ head 255/ sector 63
  The data for partition 2 is:
  UNUSED
  The data for partition 3 is:
  UNUSED
  The data for partition 4 is:
  UNUSED
 
 
  Mount e fdisk no ubuntu:
  # mount
  /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
  proc on /proc type proc (rw,noexec,nosuid,nodev)
  none on /sys type sysfs (rw,noexec,nosuid,nodev)
  none on /sys/fs/fuse/connections type fusectl (rw)
  none on /sys/kernel/debug type debugfs (rw)
  none on /sys/kernel/security type securityfs (rw)
  none on /dev type devtmpfs (rw,mode=0755)
  none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
  none on /dev/shm type tmpfs (rw,nosuid,nodev)
  none on /var/run type tmpfs (rw,nosuid,mode=0755)
  none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
  none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
  /dev/sda1 on /boot type ext2 (rw)
 
  # fdisk -l
 
  Disk /dev/sda: 10.7 GB, 10737418240 bytes
  255 heads, 63 sectors/track, 1305 cylinders
  Units = cylinders of 16065 * 512 = 8225280 bytes
  Sector size (logical/physical): 512 bytes / 512 bytes
  I/O size (minimum/optimal): 512 bytes / 512 bytes
  Disk identifier: 0x0007fbc2
 
Device Boot  Start End  Blocks   Id  System
  /dev/sda1   *   1  32  248832   83  Linux
  Partition 1 does not end on cylinder boundary.
  /dev/sda2  321306102338575  Extended
  /dev/sda5  32130610233856   8e  Linux LVM
 
 
 
  Em 18 de maio de 2012 00:04, Pedro Madsen pe...@madnix.com escreveu:
   O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V
 com
   volume dinâmico.
  
   Em 17 de maio de 2012 23:36, Paulo Henrique paulo.rd...@bsd.com.br
  escreveu:
  
   Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
   welina...@bsd.com.br escreveu:
  
Qual a configuração de hardware deste servidor?
   
Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br
  escreveu:
   
 SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no
  Ubuntu.
 Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64
 para o
 BSD e Ubuntu 64 para ubuntu.


 Em 17 de maio de 2012 14:46, Francisco Cardoso 
 frica...@bsd.com.br
  
 escreveu:
  Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br
escreveu:
  O servidor é um IBM3550M3. A controladora é a padrão.
 
  Também testei com um FreeBSD instalado no storage e não no
 disco
   local
  do vmware na 3550, mas os tempos também são bem parecidos.
 
  Vou testar com a 8.3.
 
 
 
  Acho que não me expressei bem. Quando falei controladora quis
  dizer a
  controladora da máquina virtual, não a do hardware físico do
   servidor.
  Em outras palavras se a sua máquina virtual usa a controladora
  Buslogic, por exemplo, você vai ter problemas de lentidão, já
 que
   essa
  controladora é antiga e em geral só deve ser usada para sistemas
  legados.
 
  Em geral o vsphere oferece como padrão para o FreeBSD a
 controlado
   LSI
  Logic Parallel se não me falha a memória. A performance desta é
  incomparavelmente melhor do que a 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Pedro Madsen
Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
disse noutro post, é uma criança carregando um adulto no colo.

Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento 
welina...@bsd.com.br escreveu:

 Interessante a observação do Pedro Madsen, e inclusive vou checar isto...
 Sempre usei esta configuração para expandir dinamicamente e também notei
 lentidão ao realizar os testes informado pelo Ari :-)

 Em 18 de maio de 2012 16:16, Pedro Madsen pe...@madnix.com escreveu:

  Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado
 ou
  se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
 isso
  demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
  para o virtualizador e a resposta da alocação do próprio Windows gera uma
  latência alta demais que engargala os processos da máquina virtual. No
 caso
  do espaço pré-alocado, o virtualizador não demora a responder a
  solicitação.
 
  Em 18 de maio de 2012 08:02, Ari Arantes Filho a...@dd.com.br escreveu:
 
   Como eu vejo se está dinâmico ou não? No vmware ou no SO?
  
   2 duas VMs:
   SCSI controller -- LSI Logic Parallel
   SCSI Bus Sharing -- None
  
   HD1 -- Virtual -- SCSI (0:0)
  
   Ambos são thinprovisiniong.
  
   Mount e fdisk no FreeBSD:
   # mount
   /dev/da0p2 on / (ufs, local, journaled soft-updates)
   devfs on /dev (devfs, local, multilabel)
  
   # fdisk /dev/da0
   *** Working on device /dev/da0 ***
   parameters extracted from in-core disklabel are:
   cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
  
   Figures below won't work with BIOS for partitions not in cyl 1
   parameters to be used for BIOS calculations are:
   cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
  
   Media sector size is 512
   Warning: BIOS sector numbering starts with sector 1
   Information from DOS bootblock is:
   The data for partition 1 is:
   sysid 238 (0xee),(EFI GPT)
  start 1, size 20971519 (10239 Meg), flag 80 (active)
  beg: cyl 0/ head 0/ sector 2;
  end: cyl 1023/ head 255/ sector 63
   The data for partition 2 is:
   UNUSED
   The data for partition 3 is:
   UNUSED
   The data for partition 4 is:
   UNUSED
  
  
   Mount e fdisk no ubuntu:
   # mount
   /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
   proc on /proc type proc (rw,noexec,nosuid,nodev)
   none on /sys type sysfs (rw,noexec,nosuid,nodev)
   none on /sys/fs/fuse/connections type fusectl (rw)
   none on /sys/kernel/debug type debugfs (rw)
   none on /sys/kernel/security type securityfs (rw)
   none on /dev type devtmpfs (rw,mode=0755)
   none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
   none on /dev/shm type tmpfs (rw,nosuid,nodev)
   none on /var/run type tmpfs (rw,nosuid,mode=0755)
   none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
   none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
   /dev/sda1 on /boot type ext2 (rw)
  
   # fdisk -l
  
   Disk /dev/sda: 10.7 GB, 10737418240 bytes
   255 heads, 63 sectors/track, 1305 cylinders
   Units = cylinders of 16065 * 512 = 8225280 bytes
   Sector size (logical/physical): 512 bytes / 512 bytes
   I/O size (minimum/optimal): 512 bytes / 512 bytes
   Disk identifier: 0x0007fbc2
  
 Device Boot  Start End  Blocks   Id  System
   /dev/sda1   *   1  32  248832   83  Linux
   Partition 1 does not end on cylinder boundary.
   /dev/sda2  321306102338575  Extended
   /dev/sda5  32130610233856   8e  Linux LVM
  
  
  
   Em 18 de maio de 2012 00:04, Pedro Madsen pe...@madnix.com escreveu:
O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V
  com
volume dinâmico.
   
Em 17 de maio de 2012 23:36, Paulo Henrique paulo.rd...@bsd.com.br
   escreveu:
   
Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
welina...@bsd.com.br escreveu:
   
 Qual a configuração de hardware deste servidor?

 Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br
   escreveu:

  SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no
   Ubuntu.
  Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64
  para o
  BSD e Ubuntu 64 para ubuntu.
 
 
  Em 17 de maio de 2012 14:46, Francisco Cardoso 
  frica...@bsd.com.br
   
  escreveu:
   Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br
 
 escreveu:
   O servidor é um IBM3550M3. A controladora é a padrão.
  
   Também testei com um FreeBSD instalado no storage e não no
  disco
local
   do vmware na 3550, mas os tempos também são bem parecidos.
  
   Vou testar com a 8.3.
  
  
  
   Acho que não me expressei bem. Quando falei controladora quis
   dizer a
   controladora da máquina virtual, não a do hardware físico do
servidor.
   Em outras palavras se a sua máquina virtual usa a controladora
 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
concordo que ele cresce qdo precisa e nesse momento fica mais lento,
mas 2 coisas:
1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
libero o espaço e teoricamente o vmware não precisará aumentar
novamente
2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
esse problema de crescer o disco dinamicamente, tem para os 2
servidores.

O que quero descobrir é como deixar o BSD mais rápido. Onde podemos mexer.


Em 18 de maio de 2012 16:31, Pedro Madsen pe...@madnix.com escreveu:
 Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
 disse noutro post, é uma criança carregando um adulto no colo.

 Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento 
 welina...@bsd.com.br escreveu:

 Interessante a observação do Pedro Madsen, e inclusive vou checar isto...
 Sempre usei esta configuração para expandir dinamicamente e também notei
 lentidão ao realizar os testes informado pelo Ari :-)

 Em 18 de maio de 2012 16:16, Pedro Madsen pe...@madnix.com escreveu:

  Pelo proprio virtualizador, veja se o espaço do disco já foi préa-locado
 ou
  se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
 isso
  demora pois após o FreeBSD solicitar espaço no disco, o tempo de repasse
  para o virtualizador e a resposta da alocação do próprio Windows gera uma
  latência alta demais que engargala os processos da máquina virtual. No
 caso
  do espaço pré-alocado, o virtualizador não demora a responder a
  solicitação.
 
  Em 18 de maio de 2012 08:02, Ari Arantes Filho a...@dd.com.br escreveu:
 
   Como eu vejo se está dinâmico ou não? No vmware ou no SO?
  
   2 duas VMs:
   SCSI controller -- LSI Logic Parallel
   SCSI Bus Sharing -- None
  
   HD1 -- Virtual -- SCSI (0:0)
  
   Ambos são thinprovisiniong.
  
   Mount e fdisk no FreeBSD:
   # mount
   /dev/da0p2 on / (ufs, local, journaled soft-updates)
   devfs on /dev (devfs, local, multilabel)
  
   # fdisk /dev/da0
   *** Working on device /dev/da0 ***
   parameters extracted from in-core disklabel are:
   cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
  
   Figures below won't work with BIOS for partitions not in cyl 1
   parameters to be used for BIOS calculations are:
   cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
  
   Media sector size is 512
   Warning: BIOS sector numbering starts with sector 1
   Information from DOS bootblock is:
   The data for partition 1 is:
   sysid 238 (0xee),(EFI GPT)
      start 1, size 20971519 (10239 Meg), flag 80 (active)
          beg: cyl 0/ head 0/ sector 2;
          end: cyl 1023/ head 255/ sector 63
   The data for partition 2 is:
   UNUSED
   The data for partition 3 is:
   UNUSED
   The data for partition 4 is:
   UNUSED
  
  
   Mount e fdisk no ubuntu:
   # mount
   /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
   proc on /proc type proc (rw,noexec,nosuid,nodev)
   none on /sys type sysfs (rw,noexec,nosuid,nodev)
   none on /sys/fs/fuse/connections type fusectl (rw)
   none on /sys/kernel/debug type debugfs (rw)
   none on /sys/kernel/security type securityfs (rw)
   none on /dev type devtmpfs (rw,mode=0755)
   none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
   none on /dev/shm type tmpfs (rw,nosuid,nodev)
   none on /var/run type tmpfs (rw,nosuid,mode=0755)
   none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
   none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
   /dev/sda1 on /boot type ext2 (rw)
  
   # fdisk -l
  
   Disk /dev/sda: 10.7 GB, 10737418240 bytes
   255 heads, 63 sectors/track, 1305 cylinders
   Units = cylinders of 16065 * 512 = 8225280 bytes
   Sector size (logical/physical): 512 bytes / 512 bytes
   I/O size (minimum/optimal): 512 bytes / 512 bytes
   Disk identifier: 0x0007fbc2
  
     Device Boot      Start         End      Blocks   Id  System
   /dev/sda1   *           1          32      248832   83  Linux
   Partition 1 does not end on cylinder boundary.
   /dev/sda2              32        1306    10233857    5  Extended
   /dev/sda5              32        1306    10233856   8e  Linux LVM
  
  
  
   Em 18 de maio de 2012 00:04, Pedro Madsen pe...@madnix.com escreveu:
O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V
  com
volume dinâmico.
   
Em 17 de maio de 2012 23:36, Paulo Henrique paulo.rd...@bsd.com.br
   escreveu:
   
Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
welina...@bsd.com.br escreveu:
   
 Qual a configuração de hardware deste servidor?

 Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br
   escreveu:

  SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no
   Ubuntu.
  Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64
  para o
  BSD e Ubuntu 64 para ubuntu.
 
 
  Em 17 de maio de 2012 14:46, Francisco Cardoso 
  frica...@bsd.com.br
   
  escreveu:
  

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Pedro Madsen
Ari,

pode ser no suporte ao SO mesmo. No caso do Hiper-V, o Linux funciona (mais
lento mas funciona) e o FreeBSD tem uma performance tão ruim que fica
acusando erro de IO como se o disco tivesse inacessível. Não é a toa que
dou preferencia para usar Jails ao invés da virtualização em muitos casos,
o suporte ao FreeBSD por parte dos virtualizadores não é prioritário.

Em 18 de maio de 2012 16:36, Ari Arantes Filho a...@dd.com.br escreveu:

 Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
 concordo que ele cresce qdo precisa e nesse momento fica mais lento,
 mas 2 coisas:
 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
 libero o espaço e teoricamente o vmware não precisará aumentar
 novamente
 2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
 esse problema de crescer o disco dinamicamente, tem para os 2
 servidores.

 O que quero descobrir é como deixar o BSD mais rápido. Onde podemos mexer.


 Em 18 de maio de 2012 16:31, Pedro Madsen pe...@madnix.com escreveu:
  Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
  disse noutro post, é uma criança carregando um adulto no colo.
 
  Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento 
  welina...@bsd.com.br escreveu:
 
  Interessante a observação do Pedro Madsen, e inclusive vou checar
 isto...
  Sempre usei esta configuração para expandir dinamicamente e também notei
  lentidão ao realizar os testes informado pelo Ari :-)
 
  Em 18 de maio de 2012 16:16, Pedro Madsen pe...@madnix.com escreveu:
 
   Pelo proprio virtualizador, veja se o espaço do disco já foi
 préa-locado
  ou
   se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
  isso
   demora pois após o FreeBSD solicitar espaço no disco, o tempo de
 repasse
   para o virtualizador e a resposta da alocação do próprio Windows gera
 uma
   latência alta demais que engargala os processos da máquina virtual. No
  caso
   do espaço pré-alocado, o virtualizador não demora a responder a
   solicitação.
  
   Em 18 de maio de 2012 08:02, Ari Arantes Filho a...@dd.com.br
 escreveu:
  
Como eu vejo se está dinâmico ou não? No vmware ou no SO?
   
2 duas VMs:
SCSI controller -- LSI Logic Parallel
SCSI Bus Sharing -- None
   
HD1 -- Virtual -- SCSI (0:0)
   
Ambos são thinprovisiniong.
   
Mount e fdisk no FreeBSD:
# mount
/dev/da0p2 on / (ufs, local, journaled soft-updates)
devfs on /dev (devfs, local, multilabel)
   
# fdisk /dev/da0
*** Working on device /dev/da0 ***
parameters extracted from in-core disklabel are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
   
Figures below won't work with BIOS for partitions not in cyl 1
parameters to be used for BIOS calculations are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
   
Media sector size is 512
Warning: BIOS sector numbering starts with sector 1
Information from DOS bootblock is:
The data for partition 1 is:
sysid 238 (0xee),(EFI GPT)
   start 1, size 20971519 (10239 Meg), flag 80 (active)
   beg: cyl 0/ head 0/ sector 2;
   end: cyl 1023/ head 255/ sector 63
The data for partition 2 is:
UNUSED
The data for partition 3 is:
UNUSED
The data for partition 4 is:
UNUSED
   
   
Mount e fdisk no ubuntu:
# mount
/dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
proc on /proc type proc (rw,noexec,nosuid,nodev)
none on /sys type sysfs (rw,noexec,nosuid,nodev)
none on /sys/fs/fuse/connections type fusectl (rw)
none on /sys/kernel/debug type debugfs (rw)
none on /sys/kernel/security type securityfs (rw)
none on /dev type devtmpfs (rw,mode=0755)
none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
none on /dev/shm type tmpfs (rw,nosuid,nodev)
none on /var/run type tmpfs (rw,nosuid,mode=0755)
none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
/dev/sda1 on /boot type ext2 (rw)
   
# fdisk -l
   
Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0007fbc2
   
  Device Boot  Start End  Blocks   Id  System
/dev/sda1   *   1  32  248832   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2  321306102338575  Extended
/dev/sda5  32130610233856   8e  Linux LVM
   
   
   
Em 18 de maio de 2012 00:04, Pedro Madsen pe...@madnix.com
 escreveu:
 O volume está dinâmico ou estático? Já vi problemas assim com
 Hiper-V
   com
 volume dinâmico.

 Em 17 de maio de 2012 23:36, Paulo Henrique 
 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Ari, ontem realizei estes mesmos testes utilizando quase o mesmo cenário..
também observei uma demora imensa ao descompactar e remover este arquivo.

Em 18 de maio de 2012 16:36, Ari Arantes Filho a...@dd.com.br escreveu:

 Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
 concordo que ele cresce qdo precisa e nesse momento fica mais lento,
 mas 2 coisas:
 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
 libero o espaço e teoricamente o vmware não precisará aumentar
 novamente
 2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
 esse problema de crescer o disco dinamicamente, tem para os 2
 servidores.

 O que quero descobrir é como deixar o BSD mais rápido. Onde podemos mexer.


 Em 18 de maio de 2012 16:31, Pedro Madsen pe...@madnix.com escreveu:
  Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas como
  disse noutro post, é uma criança carregando um adulto no colo.
 
  Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento 
  welina...@bsd.com.br escreveu:
 
  Interessante a observação do Pedro Madsen, e inclusive vou checar
 isto...
  Sempre usei esta configuração para expandir dinamicamente e também notei
  lentidão ao realizar os testes informado pelo Ari :-)
 
  Em 18 de maio de 2012 16:16, Pedro Madsen pe...@madnix.com escreveu:
 
   Pelo proprio virtualizador, veja se o espaço do disco já foi
 préa-locado
  ou
   se ele irá expandir dinamicamente conforme o uso. No caso do Hiper-V,
  isso
   demora pois após o FreeBSD solicitar espaço no disco, o tempo de
 repasse
   para o virtualizador e a resposta da alocação do próprio Windows gera
 uma
   latência alta demais que engargala os processos da máquina virtual. No
  caso
   do espaço pré-alocado, o virtualizador não demora a responder a
   solicitação.
  
   Em 18 de maio de 2012 08:02, Ari Arantes Filho a...@dd.com.br
 escreveu:
  
Como eu vejo se está dinâmico ou não? No vmware ou no SO?
   
2 duas VMs:
SCSI controller -- LSI Logic Parallel
SCSI Bus Sharing -- None
   
HD1 -- Virtual -- SCSI (0:0)
   
Ambos são thinprovisiniong.
   
Mount e fdisk no FreeBSD:
# mount
/dev/da0p2 on / (ufs, local, journaled soft-updates)
devfs on /dev (devfs, local, multilabel)
   
# fdisk /dev/da0
*** Working on device /dev/da0 ***
parameters extracted from in-core disklabel are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
   
Figures below won't work with BIOS for partitions not in cyl 1
parameters to be used for BIOS calculations are:
cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)
   
Media sector size is 512
Warning: BIOS sector numbering starts with sector 1
Information from DOS bootblock is:
The data for partition 1 is:
sysid 238 (0xee),(EFI GPT)
   start 1, size 20971519 (10239 Meg), flag 80 (active)
   beg: cyl 0/ head 0/ sector 2;
   end: cyl 1023/ head 255/ sector 63
The data for partition 2 is:
UNUSED
The data for partition 3 is:
UNUSED
The data for partition 4 is:
UNUSED
   
   
Mount e fdisk no ubuntu:
# mount
/dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
proc on /proc type proc (rw,noexec,nosuid,nodev)
none on /sys type sysfs (rw,noexec,nosuid,nodev)
none on /sys/fs/fuse/connections type fusectl (rw)
none on /sys/kernel/debug type debugfs (rw)
none on /sys/kernel/security type securityfs (rw)
none on /dev type devtmpfs (rw,mode=0755)
none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
none on /dev/shm type tmpfs (rw,nosuid,nodev)
none on /var/run type tmpfs (rw,nosuid,mode=0755)
none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
/dev/sda1 on /boot type ext2 (rw)
   
# fdisk -l
   
Disk /dev/sda: 10.7 GB, 10737418240 bytes
255 heads, 63 sectors/track, 1305 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0007fbc2
   
  Device Boot  Start End  Blocks   Id  System
/dev/sda1   *   1  32  248832   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sda2  321306102338575  Extended
/dev/sda5  32130610233856   8e  Linux LVM
   
   
   
Em 18 de maio de 2012 00:04, Pedro Madsen pe...@madnix.com
 escreveu:
 O volume está dinâmico ou estático? Já vi problemas assim com
 Hiper-V
   com
 volume dinâmico.

 Em 17 de maio de 2012 23:36, Paulo Henrique 
 paulo.rd...@bsd.com.br
escreveu:

 Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
 welina...@bsd.com.br escreveu:

  Qual a configuração de hardware deste servidor?
 
  Em 17 de maio de 2012 18:56, 

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Realmente, como o Pedro disse, notei também em algum momento erro de IO em
meus testes...

Em 18 de maio de 2012 16:41, Pedro Madsen pe...@madnix.com escreveu:

 Ari,

 pode ser no suporte ao SO mesmo. No caso do Hiper-V, o Linux funciona (mais
 lento mas funciona) e o FreeBSD tem uma performance tão ruim que fica
 acusando erro de IO como se o disco tivesse inacessível. Não é a toa que
 dou preferencia para usar Jails ao invés da virtualização em muitos casos,
 o suporte ao FreeBSD por parte dos virtualizadores não é prioritário.

 Em 18 de maio de 2012 16:36, Ari Arantes Filho a...@dd.com.br escreveu:

  Ainda que tenha esse HD dinâmico, conhecia como thinprovisioning,
  concordo que ele cresce qdo precisa e nesse momento fica mais lento,
  mas 2 coisas:
  1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
  libero o espaço e teoricamente o vmware não precisará aumentar
  novamente
  2) os 2 servidores (freebsd e ubuntu) estão idênticos, ou seja, se tem
  esse problema de crescer o disco dinamicamente, tem para os 2
  servidores.
 
  O que quero descobrir é como deixar o BSD mais rápido. Onde podemos
 mexer.
 
 
  Em 18 de maio de 2012 16:31, Pedro Madsen pe...@madnix.com escreveu:
   Agora que o Hiper-V vai suportar FreeBSD, isso deve melhorar... mas
 como
   disse noutro post, é uma criança carregando um adulto no colo.
  
   Em 18 de maio de 2012 16:30, Welinaldo Lopes Nascimento 
   welina...@bsd.com.br escreveu:
  
   Interessante a observação do Pedro Madsen, e inclusive vou checar
  isto...
   Sempre usei esta configuração para expandir dinamicamente e também
 notei
   lentidão ao realizar os testes informado pelo Ari :-)
  
   Em 18 de maio de 2012 16:16, Pedro Madsen pe...@madnix.com
 escreveu:
  
Pelo proprio virtualizador, veja se o espaço do disco já foi
  préa-locado
   ou
se ele irá expandir dinamicamente conforme o uso. No caso do
 Hiper-V,
   isso
demora pois após o FreeBSD solicitar espaço no disco, o tempo de
  repasse
para o virtualizador e a resposta da alocação do próprio Windows
 gera
  uma
latência alta demais que engargala os processos da máquina virtual.
 No
   caso
do espaço pré-alocado, o virtualizador não demora a responder a
solicitação.
   
Em 18 de maio de 2012 08:02, Ari Arantes Filho a...@dd.com.br
  escreveu:
   
 Como eu vejo se está dinâmico ou não? No vmware ou no SO?

 2 duas VMs:
 SCSI controller -- LSI Logic Parallel
 SCSI Bus Sharing -- None

 HD1 -- Virtual -- SCSI (0:0)

 Ambos são thinprovisiniong.

 Mount e fdisk no FreeBSD:
 # mount
 /dev/da0p2 on / (ufs, local, journaled soft-updates)
 devfs on /dev (devfs, local, multilabel)

 # fdisk /dev/da0
 *** Working on device /dev/da0 ***
 parameters extracted from in-core disklabel are:
 cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

 Figures below won't work with BIOS for partitions not in cyl 1
 parameters to be used for BIOS calculations are:
 cylinders=1305 heads=255 sectors/track=63 (16065 blks/cyl)

 Media sector size is 512
 Warning: BIOS sector numbering starts with sector 1
 Information from DOS bootblock is:
 The data for partition 1 is:
 sysid 238 (0xee),(EFI GPT)
start 1, size 20971519 (10239 Meg), flag 80 (active)
beg: cyl 0/ head 0/ sector 2;
end: cyl 1023/ head 255/ sector 63
 The data for partition 2 is:
 UNUSED
 The data for partition 3 is:
 UNUSED
 The data for partition 4 is:
 UNUSED


 Mount e fdisk no ubuntu:
 # mount
 /dev/mapper/coringa-root on / type ext4 (rw,errors=remount-ro)
 proc on /proc type proc (rw,noexec,nosuid,nodev)
 none on /sys type sysfs (rw,noexec,nosuid,nodev)
 none on /sys/fs/fuse/connections type fusectl (rw)
 none on /sys/kernel/debug type debugfs (rw)
 none on /sys/kernel/security type securityfs (rw)
 none on /dev type devtmpfs (rw,mode=0755)
 none on /dev/pts type devpts (rw,noexec,nosuid,gid=5,mode=0620)
 none on /dev/shm type tmpfs (rw,nosuid,nodev)
 none on /var/run type tmpfs (rw,nosuid,mode=0755)
 none on /var/lock type tmpfs (rw,noexec,nosuid,nodev)
 none on /lib/init/rw type tmpfs (rw,nosuid,mode=0755)
 /dev/sda1 on /boot type ext2 (rw)

 # fdisk -l

 Disk /dev/sda: 10.7 GB, 10737418240 bytes
 255 heads, 63 sectors/track, 1305 cylinders
 Units = cylinders of 16065 * 512 = 8225280 bytes
 Sector size (logical/physical): 512 bytes / 512 bytes
 I/O size (minimum/optimal): 512 bytes / 512 bytes
 Disk identifier: 0x0007fbc2

   Device Boot  Start End  Blocks   Id  System
 /dev/sda1   *   1  32  248832   83  Linux
 Partition 1 does not end on cylinder boundary.
 /dev/sda2  321306102338575  Extended
 /dev/sda5  321306

Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Rafael Henrique Faria
2012/5/18 Ari Arantes Filho a...@dd.com.br

 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
 libero o espaço e teoricamente o vmware não precisará aumentar
 novamente


Eu posso estar errado, os mais experientes neste caso que me corrijam, mas
o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.

Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar o
espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
livre, o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não irá
utilizar o espaço liberado, mas sim um espaço livre virgem. O espaço
liberado somente será utilizando quando o disco não tiver mais espaços
livres.

Ao utilizar recursos como este em HDs reais, o file system tem uma melhora
de performance, pois não precisa ficar apagando o disco... ele vai usando
espaços livres até que realmente seja necessário uma limpeza do file system
por ter acabado o espaço livre.

Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
sendo liberado para uso... então acredito que tenha sido feita uma
alteração para algum processo de varredura ir liberando o espaço de tempo
em tempo.. mas isso não é em tempo real.

Um exemplo prático disso:

- esgote o espaço em disco com arquivos grandes.
- apague um dos arquivos grandes.
- o espaço não será liberado imediatamente... o disco vai continuar
reclamando que não tem espaço livre o suficiente.

Normalmente isso não apresenta grandes problemas... pois um bom
administrador nunca irá deixar esgotar o espaço em disco.

Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
gravação ele vai precisar requisitar do HOST um novo espaço em disco. O que
acaba ficando lendo.

Eu sinceramente evito usar thinprovisioning em servidores de virtualização,
tanto por causa deste problema, quanto pelo efeito surpresa, de você alocar
10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram usar
os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática teremos
40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
acompanhando o crescimento, e o tamanho configurado para cada uma no
momento da crianção da máquina.

-- 
Rafael Henrique da Silva Faria
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
e reporto aqui na lista os resultados.

Em 18 de maio de 2012 17:01, Rafael Henrique Faria
rafaelhfa...@cenadigital.com.br escreveu:
 2012/5/18 Ari Arantes Filho a...@dd.com.br

 1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
 libero o espaço e teoricamente o vmware não precisará aumentar
 novamente


 Eu posso estar errado, os mais experientes neste caso que me corrijam, mas
 o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.

 Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar o
 espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
 livre, o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não irá
 utilizar o espaço liberado, mas sim um espaço livre virgem. O espaço
 liberado somente será utilizando quando o disco não tiver mais espaços
 livres.

 Ao utilizar recursos como este em HDs reais, o file system tem uma melhora
 de performance, pois não precisa ficar apagando o disco... ele vai usando
 espaços livres até que realmente seja necessário uma limpeza do file system
 por ter acabado o espaço livre.

 Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
 sendo liberado para uso... então acredito que tenha sido feita uma
 alteração para algum processo de varredura ir liberando o espaço de tempo
 em tempo.. mas isso não é em tempo real.

 Um exemplo prático disso:

 - esgote o espaço em disco com arquivos grandes.
 - apague um dos arquivos grandes.
 - o espaço não será liberado imediatamente... o disco vai continuar
 reclamando que não tem espaço livre o suficiente.

 Normalmente isso não apresenta grandes problemas... pois um bom
 administrador nunca irá deixar esgotar o espaço em disco.

 Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
 gravação ele vai precisar requisitar do HOST um novo espaço em disco. O que
 acaba ficando lendo.

 Eu sinceramente evito usar thinprovisioning em servidores de virtualização,
 tanto por causa deste problema, quanto pelo efeito surpresa, de você alocar
 10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram usar
 os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática teremos
 40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
 acompanhando o crescimento, e o tamanho configurado para cada uma no
 momento da crianção da máquina.

 --
 Rafael Henrique da Silva Faria
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Beleza Ari, vamos ficar aguardando o resultado...
Amanhã vou fazer o mesmo e posto aqui também o resultado.

Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br escreveu:

 Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
 e reporto aqui na lista os resultados.

 Em 18 de maio de 2012 17:01, Rafael Henrique Faria
 rafaelhfa...@cenadigital.com.br escreveu:
  2012/5/18 Ari Arantes Filho a...@dd.com.br
 
  1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
  libero o espaço e teoricamente o vmware não precisará aumentar
  novamente
 
 
  Eu posso estar errado, os mais experientes neste caso que me corrijam,
 mas
  o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.
 
  Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar
 o
  espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
  livre, o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não
 irá
  utilizar o espaço liberado, mas sim um espaço livre virgem. O espaço
  liberado somente será utilizando quando o disco não tiver mais espaços
  livres.
 
  Ao utilizar recursos como este em HDs reais, o file system tem uma
 melhora
  de performance, pois não precisa ficar apagando o disco... ele vai usando
  espaços livres até que realmente seja necessário uma limpeza do file
 system
  por ter acabado o espaço livre.
 
  Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
  sendo liberado para uso... então acredito que tenha sido feita uma
  alteração para algum processo de varredura ir liberando o espaço de tempo
  em tempo.. mas isso não é em tempo real.
 
  Um exemplo prático disso:
 
  - esgote o espaço em disco com arquivos grandes.
  - apague um dos arquivos grandes.
  - o espaço não será liberado imediatamente... o disco vai continuar
  reclamando que não tem espaço livre o suficiente.
 
  Normalmente isso não apresenta grandes problemas... pois um bom
  administrador nunca irá deixar esgotar o espaço em disco.
 
  Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
  gravação ele vai precisar requisitar do HOST um novo espaço em disco. O
 que
  acaba ficando lendo.
 
  Eu sinceramente evito usar thinprovisioning em servidores de
 virtualização,
  tanto por causa deste problema, quanto pelo efeito surpresa, de você
 alocar
  10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram
 usar
  os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
 teremos
  40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
  acompanhando o crescimento, e o tamanho configurado para cada uma no
  momento da crianção da máquina.
 
  --
  Rafael Henrique da Silva Faria
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Ari Arantes Filho
Testei com o disco sem o thinprovisioning:

# time tar xzf ports.tar.gz

real16m8.904s

mesma coisa, péssima performance.



Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
welina...@bsd.com.br escreveu:
 Beleza Ari, vamos ficar aguardando o resultado...
 Amanhã vou fazer o mesmo e posto aqui também o resultado.

 Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br escreveu:

 Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
 e reporto aqui na lista os resultados.

 Em 18 de maio de 2012 17:01, Rafael Henrique Faria
 rafaelhfa...@cenadigital.com.br escreveu:
  2012/5/18 Ari Arantes Filho a...@dd.com.br
 
  1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
  libero o espaço e teoricamente o vmware não precisará aumentar
  novamente
 
 
  Eu posso estar errado, os mais experientes neste caso que me corrijam,
 mas
  o UFS2 em uso no caso do FreeBSD não faz isso que você está imaginando.
 
  Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai alocar
 o
  espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço ficar
  livre, o UFS2 não apaga o conteũdo do disco. E uma nova gravação, não
 irá
  utilizar o espaço liberado, mas sim um espaço livre virgem. O espaço
  liberado somente será utilizando quando o disco não tiver mais espaços
  livres.
 
  Ao utilizar recursos como este em HDs reais, o file system tem uma
 melhora
  de performance, pois não precisa ficar apagando o disco... ele vai usando
  espaços livres até que realmente seja necessário uma limpeza do file
 system
  por ter acabado o espaço livre.
 
  Ultimamente percebi que após algum tempo, algumas horas, o espaço acaba
  sendo liberado para uso... então acredito que tenha sido feita uma
  alteração para algum processo de varredura ir liberando o espaço de tempo
  em tempo.. mas isso não é em tempo real.
 
  Um exemplo prático disso:
 
  - esgote o espaço em disco com arquivos grandes.
  - apague um dos arquivos grandes.
  - o espaço não será liberado imediatamente... o disco vai continuar
  reclamando que não tem espaço livre o suficiente.
 
  Normalmente isso não apresenta grandes problemas... pois um bom
  administrador nunca irá deixar esgotar o espaço em disco.
 
  Porém, no caso do thinprovisioning isso é um problema. Pois a cada nova
  gravação ele vai precisar requisitar do HOST um novo espaço em disco. O
 que
  acaba ficando lendo.
 
  Eu sinceramente evito usar thinprovisioning em servidores de
 virtualização,
  tanto por causa deste problema, quanto pelo efeito surpresa, de você
 alocar
  10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram
 usar
  os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
 teremos
  40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
  acompanhando o crescimento, e o tamanho configurado para cada uma no
  momento da crianção da máquina.
 
  --
  Rafael Henrique da Silva Faria
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




 --
 .:: Welinaldo L N
 .:: Estudante de Desenvolvimento de Sistemas
 .:: FreeBSD Community Member #BSD/OS
 .:: Antes de imprimir, veja se realmente é necessário!
 .ılı..ılı.
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
Ari, fiz o teste aqui no meu e ficou o seguinte:

7.088u   19.307s  13:12.91  3.3%





Em 18 de maio de 2012 18:37, Ari Arantes Filho a...@dd.com.br escreveu:

 Testei com o disco sem o thinprovisioning:

 # time tar xzf ports.tar.gz

 real16m8.904s

 mesma coisa, péssima performance.



 Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
 welina...@bsd.com.br escreveu:
  Beleza Ari, vamos ficar aguardando o resultado...
  Amanhã vou fazer o mesmo e posto aqui também o resultado.
 
  Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br escreveu:
 
  Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
  e reporto aqui na lista os resultados.
 
  Em 18 de maio de 2012 17:01, Rafael Henrique Faria
  rafaelhfa...@cenadigital.com.br escreveu:
   2012/5/18 Ari Arantes Filho a...@dd.com.br
  
   1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou seja,
   libero o espaço e teoricamente o vmware não precisará aumentar
   novamente
  
  
   Eu posso estar errado, os mais experientes neste caso que me corrijam,
  mas
   o UFS2 em uso no caso do FreeBSD não faz isso que você está
 imaginando.
  
   Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
 alocar
  o
   espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
 ficar
   livre, o UFS2 não apaga o conteũdo do disco. E uma nova gravação,
 não
  irá
   utilizar o espaço liberado, mas sim um espaço livre virgem. O espaço
   liberado somente será utilizando quando o disco não tiver mais espaços
   livres.
  
   Ao utilizar recursos como este em HDs reais, o file system tem uma
  melhora
   de performance, pois não precisa ficar apagando o disco... ele vai
 usando
   espaços livres até que realmente seja necessário uma limpeza do file
  system
   por ter acabado o espaço livre.
  
   Ultimamente percebi que após algum tempo, algumas horas, o espaço
 acaba
   sendo liberado para uso... então acredito que tenha sido feita uma
   alteração para algum processo de varredura ir liberando o espaço de
 tempo
   em tempo.. mas isso não é em tempo real.
  
   Um exemplo prático disso:
  
   - esgote o espaço em disco com arquivos grandes.
   - apague um dos arquivos grandes.
   - o espaço não será liberado imediatamente... o disco vai continuar
   reclamando que não tem espaço livre o suficiente.
  
   Normalmente isso não apresenta grandes problemas... pois um bom
   administrador nunca irá deixar esgotar o espaço em disco.
  
   Porém, no caso do thinprovisioning isso é um problema. Pois a cada
 nova
   gravação ele vai precisar requisitar do HOST um novo espaço em disco.
 O
  que
   acaba ficando lendo.
  
   Eu sinceramente evito usar thinprovisioning em servidores de
  virtualização,
   tanto por causa deste problema, quanto pelo efeito surpresa, de você
  alocar
   10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs precisaram
  usar
   os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
  teremos
   40 máquinas com HDs de tamanhos variados, que se tornará difícil ficar
   acompanhando o crescimento, e o tamanho configurado para cada uma no
   momento da crianção da máquina.
  
   --
   Rafael Henrique da Silva Faria
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 
 
 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-18 Por tôpico Welinaldo Lopes Nascimento
e pra remover:

0.238   3.642s   3:44.30  1.7%

Em 19 de maio de 2012 02:11, Welinaldo Lopes Nascimento 
welina...@bsd.com.br escreveu:

 Ari, fiz o teste aqui no meu e ficou o seguinte:

 7.088u   19.307s  13:12.91  3.3%





 Em 18 de maio de 2012 18:37, Ari Arantes Filho a...@dd.com.br escreveu:

 Testei com o disco sem o thinprovisioning:

 # time tar xzf ports.tar.gz

 real16m8.904s

 mesma coisa, péssima performance.



 Em 18 de maio de 2012 17:17, Welinaldo Lopes Nascimento
 welina...@bsd.com.br escreveu:
  Beleza Ari, vamos ficar aguardando o resultado...
  Amanhã vou fazer o mesmo e posto aqui também o resultado.
 
  Em 18 de maio de 2012 17:08, Ari Arantes Filho a...@dd.com.br
 escreveu:
 
  Vou reinstalar um FreeBSD 9 e utilizar um disco sem o thinprovisioning
  e reporto aqui na lista os resultados.
 
  Em 18 de maio de 2012 17:01, Rafael Henrique Faria
  rafaelhfa...@cenadigital.com.br escreveu:
   2012/5/18 Ari Arantes Filho a...@dd.com.br
  
   1) sempre rodo o tar xzf ports.tar.gz e depois rm -rf ports, ou
 seja,
   libero o espaço e teoricamente o vmware não precisará aumentar
   novamente
  
  
   Eu posso estar errado, os mais experientes neste caso que me
 corrijam,
  mas
   o UFS2 em uso no caso do FreeBSD não faz isso que você está
 imaginando.
  
   Quando você descompacta a primeira vez o ports.tar.gz, o UFS2 vai
 alocar
  o
   espaço para o mesmo. E quando você apaga o mesmo, apesar do espaço
 ficar
   livre, o UFS2 não apaga o conteũdo do disco. E uma nova gravação,
 não
  irá
   utilizar o espaço liberado, mas sim um espaço livre virgem. O
 espaço
   liberado somente será utilizando quando o disco não tiver mais
 espaços
   livres.
  
   Ao utilizar recursos como este em HDs reais, o file system tem uma
  melhora
   de performance, pois não precisa ficar apagando o disco... ele vai
 usando
   espaços livres até que realmente seja necessário uma limpeza do file
  system
   por ter acabado o espaço livre.
  
   Ultimamente percebi que após algum tempo, algumas horas, o espaço
 acaba
   sendo liberado para uso... então acredito que tenha sido feita uma
   alteração para algum processo de varredura ir liberando o espaço de
 tempo
   em tempo.. mas isso não é em tempo real.
  
   Um exemplo prático disso:
  
   - esgote o espaço em disco com arquivos grandes.
   - apague um dos arquivos grandes.
   - o espaço não será liberado imediatamente... o disco vai continuar
   reclamando que não tem espaço livre o suficiente.
  
   Normalmente isso não apresenta grandes problemas... pois um bom
   administrador nunca irá deixar esgotar o espaço em disco.
  
   Porém, no caso do thinprovisioning isso é um problema. Pois a cada
 nova
   gravação ele vai precisar requisitar do HOST um novo espaço em
 disco. O
  que
   acaba ficando lendo.
  
   Eu sinceramente evito usar thinprovisioning em servidores de
  virtualização,
   tanto por causa deste problema, quanto pelo efeito surpresa, de você
  alocar
   10 HDs de 1TB em um volume de 7TB, e acontecer de os 10 HDs
 precisaram
  usar
   os 1TB oferecidos para o mesmo. Claro que é um exemplo, na prática
  teremos
   40 máquinas com HDs de tamanhos variados, que se tornará difícil
 ficar
   acompanhando o crescimento, e o tamanho configurado para cada uma no
   momento da crianção da máquina.
  
   --
   Rafael Henrique da Silva Faria
   -
   Histórico: http://www.fug.com.br/historico/html/freebsd/
   Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 
 
 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




 --
 .:: Welinaldo L N
 .:: Estudante de Desenvolvimento de Sistemas
 .:: FreeBSD Community Member #BSD/OS
 .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.




-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Ari Arantes Filho
O servidor é um IBM3550M3. A controladora é a padrão.

Também testei com um FreeBSD instalado no storage e não no disco local
do vmware na 3550, mas os tempos também são bem parecidos.

Vou testar com a 8.3.


Em 16 de maio de 2012 16:47, Francisco Cardoso frica...@bsd.com.br escreveu:
 Em 15 de maio de 2012 20:19, Ari Arantes Filho a...@dd.com.br escreveu:
 No ubuntu também não tem o vmware-tools instalado.

 Em 15 de maio de 2012 18:36, Luiz Gustavo
 luizgust...@luizgustavo.pro.br escreveu:
 Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
 Pessoal,

 Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
 acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.

 Alguém sabe o que pode ser feito para melhorar isso?

 Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
 servidor com as mesmas configurações e fiz 8 testes em tempos
 variados.

 Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
 o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
 (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
 ports), sempre pegando os tempos através do time. Já no FreeBSD, os
 tempos passam de 10m, 12m, um teste foi até 17m.

 O / no FreeBSD está com soft-update.

 Dai Ari, tudo bom ?

 Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
 ubuntu, por isso talvez a grande diferença.

 Tente instalar o vmware-guestd, acho que pra teu caso é esse:

 /usr/ports/emulators/vmware-guestd5


 Abraços

 --
 Luiz Gustavo Costa (Powered by BSD)
 *+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
 mundoUnix - Consultoria em Software Livre
 http://www.mundounix.com.br
 ICQ: 2890831 / MSN: cont...@mundounix.com.br
 Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
 Blog: http://www.luizgustavo.pro.br

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

 Muito estranho Ari ... 10 minutos para descompactar a árvore de ports?

 Qual a controladora virtual de discos que você usou? Testou com a
 versão 8.2/8.3 do Free também?


 --

 Francisco Ricardo
 ___
 Administrador de Redes e Sistemas Unix/Linux
 Profissional Certificado RedHat | Entusiasta FreeBSD
 Natal/RN | (84)9461-4801   | frica...@bsd.com.br
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Francisco Cardoso
Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br escreveu:
 O servidor é um IBM3550M3. A controladora é a padrão.

 Também testei com um FreeBSD instalado no storage e não no disco local
 do vmware na 3550, mas os tempos também são bem parecidos.

 Vou testar com a 8.3.



Acho que não me expressei bem. Quando falei controladora quis dizer a
controladora da máquina virtual, não a do hardware físico do servidor.
Em outras palavras se a sua máquina virtual usa a controladora
Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
controladora é antiga e em geral só deve ser usada para sistemas
legados.

Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
Logic Parallel se não me falha a memória. A performance desta é
incomparavelmente melhor do que a Buslogic.

-- 

Francisco Ricardo
___
Administrador de Redes e Sistemas Unix/Linux
Profissional Certificado RedHat | Entusiasta FreeBSD
Natal/RN | (84)9461-4801   | frica...@bsd.com.br
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Ari Arantes Filho
SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no Ubuntu.
Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
BSD e Ubuntu 64 para ubuntu.


Em 17 de maio de 2012 14:46, Francisco Cardoso frica...@bsd.com.br escreveu:
 Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br escreveu:
 O servidor é um IBM3550M3. A controladora é a padrão.

 Também testei com um FreeBSD instalado no storage e não no disco local
 do vmware na 3550, mas os tempos também são bem parecidos.

 Vou testar com a 8.3.



 Acho que não me expressei bem. Quando falei controladora quis dizer a
 controladora da máquina virtual, não a do hardware físico do servidor.
 Em outras palavras se a sua máquina virtual usa a controladora
 Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
 controladora é antiga e em geral só deve ser usada para sistemas
 legados.

 Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
 Logic Parallel se não me falha a memória. A performance desta é
 incomparavelmente melhor do que a Buslogic.

 --

 Francisco Ricardo
 ___
 Administrador de Redes e Sistemas Unix/Linux
 Profissional Certificado RedHat | Entusiasta FreeBSD
 Natal/RN | (84)9461-4801   | frica...@bsd.com.br
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Welinaldo Lopes Nascimento
Qual a configuração de hardware deste servidor?

Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br escreveu:

 SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no Ubuntu.
 Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
 BSD e Ubuntu 64 para ubuntu.


 Em 17 de maio de 2012 14:46, Francisco Cardoso frica...@bsd.com.br
 escreveu:
  Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br escreveu:
  O servidor é um IBM3550M3. A controladora é a padrão.
 
  Também testei com um FreeBSD instalado no storage e não no disco local
  do vmware na 3550, mas os tempos também são bem parecidos.
 
  Vou testar com a 8.3.
 
 
 
  Acho que não me expressei bem. Quando falei controladora quis dizer a
  controladora da máquina virtual, não a do hardware físico do servidor.
  Em outras palavras se a sua máquina virtual usa a controladora
  Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
  controladora é antiga e em geral só deve ser usada para sistemas
  legados.
 
  Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
  Logic Parallel se não me falha a memória. A performance desta é
  incomparavelmente melhor do que a Buslogic.
 
  --
 
  Francisco Ricardo
  ___
  Administrador de Redes e Sistemas Unix/Linux
  Profissional Certificado RedHat | Entusiasta FreeBSD
  Natal/RN | (84)9461-4801   | frica...@bsd.com.br
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




-- 
.:: Welinaldo L N
.:: Estudante de Desenvolvimento de Sistemas
.:: FreeBSD Community Member #BSD/OS
.:: Antes de imprimir, veja se realmente é necessário!
.ılı..ılı.
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Paulo Henrique
Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
welina...@bsd.com.br escreveu:

 Qual a configuração de hardware deste servidor?

 Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br escreveu:

  SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no Ubuntu.
  Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
  BSD e Ubuntu 64 para ubuntu.
 
 
  Em 17 de maio de 2012 14:46, Francisco Cardoso frica...@bsd.com.br
  escreveu:
   Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br
 escreveu:
   O servidor é um IBM3550M3. A controladora é a padrão.
  
   Também testei com um FreeBSD instalado no storage e não no disco local
   do vmware na 3550, mas os tempos também são bem parecidos.
  
   Vou testar com a 8.3.
  
  
  
   Acho que não me expressei bem. Quando falei controladora quis dizer a
   controladora da máquina virtual, não a do hardware físico do servidor.
   Em outras palavras se a sua máquina virtual usa a controladora
   Buslogic, por exemplo, você vai ter problemas de lentidão, já que essa
   controladora é antiga e em geral só deve ser usada para sistemas
   legados.
  
   Em geral o vsphere oferece como padrão para o FreeBSD a controlado LSI
   Logic Parallel se não me falha a memória. A performance desta é
   incomparavelmente melhor do que a Buslogic.
  


Só uma pergunta, qual o seu valor de HZ  no kernel ?

Att.



 --
 .:: Welinaldo L N
 .:: Estudante de Desenvolvimento de Sistemas
 .:: FreeBSD Community Member #BSD/OS
 .:: Antes de imprimir, veja se realmente é necessário!
 .ılı..ılı.
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd




-- 
:=)(=:

Flamers  /dev/null !!!
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-17 Por tôpico Pedro Madsen
O volume está dinâmico ou estático? Já vi problemas assim com Hiper-V com
volume dinâmico.

Em 17 de maio de 2012 23:36, Paulo Henrique paulo.rd...@bsd.com.brescreveu:

 Em 17 de maio de 2012 21:19, Welinaldo Lopes Nascimento 
 welina...@bsd.com.br escreveu:

  Qual a configuração de hardware deste servidor?
 
  Em 17 de maio de 2012 18:56, Ari Arantes Filho a...@dd.com.br escreveu:
 
   SCSI controller 0 -- LSI Logic Parallel. A mesma utilizada no Ubuntu.
   Não mexi na configuração wizard do vmware. Escolhi FreeBSD 64 para o
   BSD e Ubuntu 64 para ubuntu.
  
  
   Em 17 de maio de 2012 14:46, Francisco Cardoso frica...@bsd.com.br
   escreveu:
Em 17 de maio de 2012 11:58, Ari Arantes Filho a...@dd.com.br
  escreveu:
O servidor é um IBM3550M3. A controladora é a padrão.
   
Também testei com um FreeBSD instalado no storage e não no disco
 local
do vmware na 3550, mas os tempos também são bem parecidos.
   
Vou testar com a 8.3.
   
   
   
Acho que não me expressei bem. Quando falei controladora quis dizer a
controladora da máquina virtual, não a do hardware físico do
 servidor.
Em outras palavras se a sua máquina virtual usa a controladora
Buslogic, por exemplo, você vai ter problemas de lentidão, já que
 essa
controladora é antiga e em geral só deve ser usada para sistemas
legados.
   
Em geral o vsphere oferece como padrão para o FreeBSD a controlado
 LSI
Logic Parallel se não me falha a memória. A performance desta é
incomparavelmente melhor do que a Buslogic.
   
 
 
 Só uma pergunta, qual o seu valor de HZ  no kernel ?

 Att.

 
 
  --
  .:: Welinaldo L N
  .:: Estudante de Desenvolvimento de Sistemas
  .:: FreeBSD Community Member #BSD/OS
  .:: Antes de imprimir, veja se realmente é necessário!
  .ılı..ılı.
  -
  Histórico: http://www.fug.com.br/historico/html/freebsd/
  Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 



 --
 :=)(=:

 Flamers  /dev/null !!!
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-16 Por tôpico Francisco Cardoso
Em 15 de maio de 2012 20:19, Ari Arantes Filho a...@dd.com.br escreveu:
 No ubuntu também não tem o vmware-tools instalado.

 Em 15 de maio de 2012 18:36, Luiz Gustavo
 luizgust...@luizgustavo.pro.br escreveu:
 Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
 Pessoal,

 Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
 acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.

 Alguém sabe o que pode ser feito para melhorar isso?

 Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
 servidor com as mesmas configurações e fiz 8 testes em tempos
 variados.

 Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
 o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
 (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
 ports), sempre pegando os tempos através do time. Já no FreeBSD, os
 tempos passam de 10m, 12m, um teste foi até 17m.

 O / no FreeBSD está com soft-update.

 Dai Ari, tudo bom ?

 Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
 ubuntu, por isso talvez a grande diferença.

 Tente instalar o vmware-guestd, acho que pra teu caso é esse:

 /usr/ports/emulators/vmware-guestd5


 Abraços

 --
 Luiz Gustavo Costa (Powered by BSD)
 *+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
 mundoUnix - Consultoria em Software Livre
 http://www.mundounix.com.br
 ICQ: 2890831 / MSN: cont...@mundounix.com.br
 Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
 Blog: http://www.luizgustavo.pro.br

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

Muito estranho Ari ... 10 minutos para descompactar a árvore de ports?

Qual a controladora virtual de discos que você usou? Testou com a
versão 8.2/8.3 do Free também?


-- 

Francisco Ricardo
___
Administrador de Redes e Sistemas Unix/Linux
Profissional Certificado RedHat | Entusiasta FreeBSD
Natal/RN | (84)9461-4801   | frica...@bsd.com.br
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


[FUG-BR] Acesso ao disco em vmware

2012-05-15 Por tôpico Ari Arantes Filho
Pessoal,

Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.

Alguém sabe o que pode ser feito para melhorar isso?

Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
servidor com as mesmas configurações e fiz 8 testes em tempos
variados.

Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
(sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
ports), sempre pegando os tempos através do time. Já no FreeBSD, os
tempos passam de 10m, 12m, um teste foi até 17m.

O / no FreeBSD está com soft-update.

Obrigado,

Ari
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-15 Por tôpico Luiz Gustavo
Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
 Pessoal,
 
 Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
 acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.
 
 Alguém sabe o que pode ser feito para melhorar isso?
 
 Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
 servidor com as mesmas configurações e fiz 8 testes em tempos
 variados.
 
 Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
 o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
 (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
 ports), sempre pegando os tempos através do time. Já no FreeBSD, os
 tempos passam de 10m, 12m, um teste foi até 17m.
 
 O / no FreeBSD está com soft-update.

Dai Ari, tudo bom ?

Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
ubuntu, por isso talvez a grande diferença.

Tente instalar o vmware-guestd, acho que pra teu caso é esse:

/usr/ports/emulators/vmware-guestd5


Abraços

-- 
Luiz Gustavo Costa (Powered by BSD)
*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
mundoUnix - Consultoria em Software Livre
http://www.mundounix.com.br
ICQ: 2890831 / MSN: cont...@mundounix.com.br
Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
Blog: http://www.luizgustavo.pro.br

-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] Acesso ao disco em vmware

2012-05-15 Por tôpico Ari Arantes Filho
No ubuntu também não tem o vmware-tools instalado.

Em 15 de maio de 2012 18:36, Luiz Gustavo
luizgust...@luizgustavo.pro.br escreveu:
 Em Ter, 2012-05-15 às 18:26 -0300, Ari Arantes Filho escreveu:
 Pessoal,

 Tenho alguns servidores em teste no VMware ESXi 5. Porém reparei que o
 acesso ao disco é extramente lento. Testei a versão 9.0-RELEASE.

 Alguém sabe o que pode ser feito para melhorar isso?

 Sem querer gerar polêmica, mas instalei um Ubuntu 10.04 LTS no mesmo
 servidor com as mesmas configurações e fiz 8 testes em tempos
 variados.

 Para descompactar a árvore do ports (tar xzf ports.tar.gz), no Ubuntu,
 o pior tempo foi de 0m49.005s e o melhor 0m32.784s.Fiz uns 10 testes
 (sempre depois que rodava o tar xzf ports.tar.gz, rodava um rm -rf
 ports), sempre pegando os tempos através do time. Já no FreeBSD, os
 tempos passam de 10m, 12m, um teste foi até 17m.

 O / no FreeBSD está com soft-update.

 Dai Ari, tudo bom ?

 Você instalou o vwmare-guestd ? se não me engano, isso já vem padrão no
 ubuntu, por isso talvez a grande diferença.

 Tente instalar o vmware-guestd, acho que pra teu caso é esse:

 /usr/ports/emulators/vmware-guestd5


 Abraços

 --
 Luiz Gustavo Costa (Powered by BSD)
 *+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+*+
 mundoUnix - Consultoria em Software Livre
 http://www.mundounix.com.br
 ICQ: 2890831 / MSN: cont...@mundounix.com.br
 Tel: 55 (21) 4063-7110 / 8194-1905 / (11) 4063-0407
 Blog: http://www.luizgustavo.pro.br

 -
 Histórico: http://www.fug.com.br/historico/html/freebsd/
 Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] acesso a disco

2006-05-03 Por tôpico Diego Linke
Gilvan,

  
 Estou tendo problemas com acesso a disco, (gargalo de acesso) muitos
 programas tendando acessar o disco ao mesmo tempo, existe algum programa
 que eu possar ver que software esta gravando ou acessando o disco ??
  

Você pode utilizar o iostat mesmo, porém o melhor e mais fácil na minha
opinião é o gstat (Geom Stat).

Abraços

-- 
Diego Linke
Public Key: http://www.gamk.com.br/gamk.asc


___
freebsd mailing list
freebsd@fug.com.br
https://www.fug.com.br/mailman/listinfo/freebsd


[FUG-BR] acesso a disco

2006-05-02 Por tôpico GAWKSTER



Ola lista,

Estou tendo problemas com acesso a disco, (gargalo 
de acesso)muitos programas tendando acessar o disco ao mesmo tempo, existe 
algum programa que eu possar ver que software esta gravando ou acessando o disco 
??

Gilvan Lima
___
freebsd mailing list
freebsd@fug.com.br
https://www.fug.com.br/mailman/listinfo/freebsd