Pessoal,
Bom dia!!!
Vejam se podem me ajudar:
Tenho o meu banco de produção e agora preciso fazer uma carga de cerca de
50 arquivos (cada com aproximadamente 100 milhões de registros). Todos
foram feitos com o pg_dump -Fc na versão 9.0 e agora estou restaurando
utilizando o pg_restore da 9.2.
Tenha em mente de que se trata de uma restauração lógica e não física.
Então retornar essa quantidade de informações deve ser muito demorado
mesmo. Veja se não vale à pena desligar alguns índices, desabilitar os
gatilhos e retornar somente dados. Isso vai lhe dar um bom ganho de tempo,
mas não
Tenha em mente de que se trata de uma restauração lógica e não física.
Então retornar essa quantidade de informações deve ser muito demorado
mesmo. Veja se não vale à pena desligar alguns índices, desabilitar os
gatilhos e retornar somente dados. Isso vai lhe dar um bom ganho de
tempo, mas não
Boa tarde. Ja fez o vacuum full antes de iniciar a operacao??
Como esta a leitura do disco e processamento da maquina? E a rede de dados?
Em 20/01/2014 11:56, JotaComm jota.c...@gmail.com escreveu:
Pessoal,
Bom dia!!!
Vejam se podem me ajudar:
Tenho o meu banco de produção e agora preciso
Bom dia!!!
Em 20 de janeiro de 2014 12:07, Flavio Henrique Araque Gurgel
fha...@gmail.com escreveu:
Tenha em mente de que se trata de uma restauração lógica e não física.
Então retornar essa quantidade de informações deve ser muito demorado
mesmo. Veja se não vale à pena desligar alguns
O que importa é: qual o tamanho desse arquivo de dump?
O arquivo tem 4.7GB.
Não é grande.
Aposto que essa base em disco não passa dos 100 GiB .
Sim, estou usando a opção -j do pg_restore :)
Qual o valor que passou para o -j e quantos núcleos tem a máquina que
está restaurando?
De qualquer forma, essa demora é normal.
Agora não acho mais normal. Mais que um dia pra um dump de 4,7 GiB e ainda
no COPY, isso *não* é definitivamente normal.
Concordo plenamente, com certeza não é normal.
Uma pergunta meio tosca, eu sei, mas mesmo assim vou ter de fazer: O backup
Opa,
Em 20 de janeiro de 2014 12:58, Flavio Henrique Araque Gurgel
fha...@gmail.com escreveu:
O que importa é: qual o tamanho desse arquivo de dump?
O arquivo tem 4.7GB.
Não é grande.
Aposto que essa base em disco não passa dos 100 GiB .
Acertou :)
Sim, estou usando a opção
Qual o valor que passou para o -j e quantos núcleos tem a máquina
que está restaurando?
Ao todo a máquina tem 24 núcleos.
Mas quanto passou pro -j ?
Como não foi em quem montou o servidor precisar verificar, acredito que
seja XFS. O diretório de dados está todo mapeado dentro de um
Opa,
Em 20 de janeiro de 2014 13:42, Flavio Henrique Araque Gurgel
fha...@gmail.com escreveu:
Qual o valor que passou para o -j e quantos núcleos tem a máquina
que está restaurando?
Ao todo a máquina tem 24 núcleos.
Mas quanto passou pro -j ?
3
Como não foi em quem
Ao todo a máquina tem 24 núcleos.
Mas quanto passou pro -j ?
3
Se você tem 24 núcleos pode passar 24 pro -j.
Ou, pode ser que não tenha entendido, sua máquina é virtual e as CPUs
ditas virtuais são mais limitadas que a máquina real?
Esta com XFS e nobarrier.
Teste a
Opa,
Em 20 de janeiro de 2014 14:28, Flavio Henrique Araque Gurgel
fha...@gmail.com escreveu:
Ao todo a máquina tem 24 núcleos.
Mas quanto passou pro -j ?
3
Se você tem 24 núcleos pode passar 24 pro -j.
Ou, pode ser que não tenha entendido, sua máquina é virtual e as
12 matches
Mail list logo