Valeu pela informação, terei que analisar pois eu não sei o tipo de hardware
de cada servidor, só a quantidade de memória que é a mesma

Abs

Em 21 de outubro de 2011 09:12, Flavio Henrique Araque Gurgel <
[email protected]> escreveu:

> Em 21 de outubro de 2011 10:05, Danilo Silva
> <[email protected]> escreveu:
>  > Pessoal, existe algum parâmetro que se altere no postgresql.conf para
> tornar
> > o pg_dump mais rápido, pois em um cluster com uma base de 30 GB o dump
> leva
> > em torno de 15 minutos, em outro cluster (outro servidor) tenho várias
> bases
> > que somadas dá em torno de 50 GB e o dump leva 1 hora, em ambos a forma
> de
> > executar o pg_dump é a mesma "pg_dump -Fc"
>
> Não existe "algum parâmetro".
> Se seu servidor estiver otimizado para leitura, o pg_dump será mais rápido.
> Se seus discos forem mais rápidos, o pg_dump será mais rápido.
> Uma máquina sempre é diferente da outra, um banco de dados sempre é
> diferente do outro. Você usa o modo custom, tem compressão, então
> existe também o tempo de compressão que depende do tipo de dados a
> comprimir, não somente do tamanho do banco de dados.
>
> Resumindo: são muitas variáveis envolvidas, não dá pra comparar assim "a
> seco".
>
> []s
> Flavio Gurgel
> _______________________________________________
> pgbr-geral mailing list
> [email protected]
> https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
>
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a