Eduardo, para referencia futura, procure quebrar sua pergunta em
paragrafos. Eu quase nao respondi a sua pergunta por que tive que
rele-la umas 2 vezes para entender qual banco tinha qual tamanho e
qual era o problema.

Quando a gente faz uma pergunta para uma lista, temos que facilitar ao
maximo o trabalho dos leitores se quisermos que as pessoas respondam.

2008/3/3 Eduardo Silva Oliveira <[EMAIL PROTECTED]>:
>
> Estou com dúvida nos tamanhos dos arquivos, pois o banco de dados da 5433
> que possui no total 9.2 GB(para saber o tamanho total das bases de bados
> utilizei a função pg_database_size) compactando com gzip deu 480 MB, o
> arquivo dump deu 3.2 GB, no banco de dados da 5432 que possui no total 3.4
> GB, o arquivo compactado deu 640 MB e o arquivo dump gerou 2.9 GB. Porque
> essa pequena diferença pois o arquivo de dump da 5433 não deveria bem maior
> do que a da 5432 ?

Os dados das duas instancias sao absolutamente iguais? A compressao
pode dar resultados diferentes se os dados sendo comprimidos fore mais
"comprimiveis" (ex: texto)

>  Será que a instância da 5433 está realizando o dump total dos dados ?

O pg_dumpall existe ha' muito tempo e e' de importancia critica.
Duvido que haja algum problema nele.

> O arquivo de dump era para ter quase mesmo tamanho total das bases ?

Nao sei detalhes da implementacao, mas imagino que a
pg_database_size() deva levar em consideracao todos os meta-dados que
fazem parte do sistema de arquivos que inclui o banco de dados, ao
passo que um dump nao inclui isso.

Roberto
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a