> Eduardo, para referencia futura, procure quebrar sua pergunta em
> paragrafos. Eu quase nao respondi a sua pergunta por que tive que
> rele-la umas 2 vezes para entender qual banco tinha qual tamanho e
> qual era o problema.

>:Quando a gente faz uma pergunta para uma lista, temos que facilitar ao
> maximo o trabalho dos leitores se quisermos que as pessoas respondam.

OK, nas referências futuras tentarei ao máximo melhorar ... obrigado pela
dica !

> Estou com dúvida nos tamanhos dos arquivos, pois o banco de dados da 5433
> que possui no total 9.2 GB(para saber o tamanho total das bases de bados
> utilizei a função pg_database_size) compactando com gzip deu 480 MB, o
> arquivo dump deu 3.2 GB, no banco de dados da 5432 que possui no total 3.4
> GB, o arquivo compactado deu 640 MB e o arquivo dump gerou 2.9 GB. Porque
> essa pequena diferença pois o arquivo de dump da 5433 não deveria bem
maior
> do que a da 5432 ?

  > Os dados das duas instancias sao absolutamente iguais? A compressao
  > pode dar resultados diferentes se os dados sendo comprimidos fore mais
  > "comprimiveis" (ex: texto)
       Os dados são iguais, o que muda mesmo é a quantidade de registro. E
os dump são em arquivos em textos.

>  Será que a instância da 5433 está realizando o dump total dos dados ?
>
> O pg_dumpall existe ha' muito tempo e e' de importancia critica.
> Duvido que haja algum problema nele.

> O arquivo de dump era para ter quase mesmo tamanho total das bases ?
>
> Nao sei detalhes da implementacao, mas imagino que a
> pg_database_size() deva levar em consideracao todos os meta-dados que
> fazem parte do sistema de arquivos que inclui o banco de dados, ao
> passo que um dump nao inclui isso.
   Não entendi, vc poderia esclarecer melhor ?



Em 03/03/08, Roberto Mello <[EMAIL PROTECTED]> escreveu:
>
> Eduardo, para referencia futura, procure quebrar sua pergunta em
> paragrafos. Eu quase nao respondi a sua pergunta por que tive que
> rele-la umas 2 vezes para entender qual banco tinha qual tamanho e
> qual era o problema.
>
> Quando a gente faz uma pergunta para uma lista, temos que facilitar ao
> maximo o trabalho dos leitores se quisermos que as pessoas respondam.
>
> 2008/3/3 Eduardo Silva Oliveira <[EMAIL PROTECTED]>:
> >
> > Estou com dúvida nos tamanhos dos arquivos, pois o banco de dados da
> 5433
> > que possui no total 9.2 GB(para saber o tamanho total das bases de bados
> > utilizei a função pg_database_size) compactando com gzip deu 480 MB, o
> > arquivo dump deu 3.2 GB, no banco de dados da 5432 que possui no total
> 3.4
> > GB, o arquivo compactado deu 640 MB e o arquivo dump gerou 2.9 GB.
> Porque
> > essa pequena diferença pois o arquivo de dump da 5433 não deveria bem
> maior
> > do que a da 5432 ?
>
> Os dados das duas instancias sao absolutamente iguais? A compressao
> pode dar resultados diferentes se os dados sendo comprimidos fore mais
> "comprimiveis" (ex: texto)
>
> >  Será que a instância da 5433 está realizando o dump total dos dados ?
>
> O pg_dumpall existe ha' muito tempo e e' de importancia critica.
> Duvido que haja algum problema nele.
>
> > O arquivo de dump era para ter quase mesmo tamanho total das bases ?
>
> Nao sei detalhes da implementacao, mas imagino que a
> pg_database_size() deva levar em consideracao todos os meta-dados que
> fazem parte do sistema de arquivos que inclui o banco de dados, ao
> passo que um dump nao inclui isso.
>
> Roberto
> _______________________________________________
> pgbr-geral mailing list
> [email protected]
> https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
>
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a