Valeu pela informação, terei que analisar pois eu não sei o tipo de hardware de cada servidor, só a quantidade de memória que é a mesma
Abs Em 21 de outubro de 2011 09:12, Flavio Henrique Araque Gurgel < [email protected]> escreveu: > Em 21 de outubro de 2011 10:05, Danilo Silva > <[email protected]> escreveu: > > Pessoal, existe algum parâmetro que se altere no postgresql.conf para > tornar > > o pg_dump mais rápido, pois em um cluster com uma base de 30 GB o dump > leva > > em torno de 15 minutos, em outro cluster (outro servidor) tenho várias > bases > > que somadas dá em torno de 50 GB e o dump leva 1 hora, em ambos a forma > de > > executar o pg_dump é a mesma "pg_dump -Fc" > > Não existe "algum parâmetro". > Se seu servidor estiver otimizado para leitura, o pg_dump será mais rápido. > Se seus discos forem mais rápidos, o pg_dump será mais rápido. > Uma máquina sempre é diferente da outra, um banco de dados sempre é > diferente do outro. Você usa o modo custom, tem compressão, então > existe também o tempo de compressão que depende do tipo de dados a > comprimir, não somente do tamanho do banco de dados. > > Resumindo: são muitas variáveis envolvidas, não dá pra comparar assim "a > seco". > > []s > Flavio Gurgel > _______________________________________________ > pgbr-geral mailing list > [email protected] > https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral >
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
