Eduardo, para referencia futura, procure quebrar sua pergunta em paragrafos. Eu quase nao respondi a sua pergunta por que tive que rele-la umas 2 vezes para entender qual banco tinha qual tamanho e qual era o problema.
Quando a gente faz uma pergunta para uma lista, temos que facilitar ao maximo o trabalho dos leitores se quisermos que as pessoas respondam. 2008/3/3 Eduardo Silva Oliveira <[EMAIL PROTECTED]>: > > Estou com dúvida nos tamanhos dos arquivos, pois o banco de dados da 5433 > que possui no total 9.2 GB(para saber o tamanho total das bases de bados > utilizei a função pg_database_size) compactando com gzip deu 480 MB, o > arquivo dump deu 3.2 GB, no banco de dados da 5432 que possui no total 3.4 > GB, o arquivo compactado deu 640 MB e o arquivo dump gerou 2.9 GB. Porque > essa pequena diferença pois o arquivo de dump da 5433 não deveria bem maior > do que a da 5432 ? Os dados das duas instancias sao absolutamente iguais? A compressao pode dar resultados diferentes se os dados sendo comprimidos fore mais "comprimiveis" (ex: texto) > Será que a instância da 5433 está realizando o dump total dos dados ? O pg_dumpall existe ha' muito tempo e e' de importancia critica. Duvido que haja algum problema nele. > O arquivo de dump era para ter quase mesmo tamanho total das bases ? Nao sei detalhes da implementacao, mas imagino que a pg_database_size() deva levar em consideracao todos os meta-dados que fazem parte do sistema de arquivos que inclui o banco de dados, ao passo que um dump nao inclui isso. Roberto _______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
