Considerando duas máquinas com hardware e versões de postgresql diferentes,
o processo com menor down-grade seria com o pg_dumpall ou há alguma outra
forma de ser feito?
No meu caso seria migração do postgresql da versão 9.0 para a 9.6
Atenciosamente
Rafael Bragatto Gratz
Projeta - Sistemas
Em 28 de junho de 2017 22:57, Ronaldo Bernardes Pereira <
ronaldobernar...@gmail.com> escreveu:
>
> ... [corte] ...
>
>
> --=== Como acredito que você irá resolver seu problema, seque
considerações
>
> O problema encontrado é que o PostgreSQL fez um CAST da coluna (gn)
(Filter:
Em 29 de junho de 2017 14:32, Rafael Bragatto Gratz <
raf...@projetasistemas.com.br> escreveu:
> Considerando duas máquinas com hardware e versões de postgresql
> diferentes, o processo com menor down-grade seria com o pg_dumpall ou há
> alguma outra forma de ser feito?
>
> Não.
>
>
> Ambiente Linux CentOS 6
> Postgres 9.1
> Somente 1 Database, tamanho 415 GB
> Peculiaridade : 95% desse tamanho são binários de arquivos anexados ao
> banco
> Atualmente o pg_dump leva 22h para terminar
>
> Eu preciso transferir esse banco (no menor tempo possível) para outro
> equipamento
Em 28 de junho de 2017 21:49, Euler Taveira escreveu:
>
> O pg_dump faz um bloqueio (AccessShareLock) para cada tabela que irá
> copiar. Como ele faz isso numa única transação, o parâmetro
> max_locks_per_transaction deve ser no mínimo igual ao número de tabelas a
> serem
Em 29 de junho de 2017 11:35, Euler Taveira escreveu:
>
> Em 28 de junho de 2017 22:35, Douglas Fabiano Specht <
douglasfabi...@gmail.com> escreveu:
>>>
>>>
>> Euler,
>> esse valor é para cada schema 233 tabelas ou 41000 tabelas no geral de
todos os schemas..?
>
>
> É a
Em 29 de junho de 2017 17:45, Fabrízio de Royes Mello <
fabri...@timbira.com.br> escreveu:
>
> Em 29 de junho de 2017 11:35, Euler Taveira
> escreveu:
> >
> > Em 28 de junho de 2017 22:35, Douglas Fabiano Specht <
> douglasfabi...@gmail.com> escreveu:
> >>>
> >>>
> >>
Em 29 de junho de 2017 18:00, Douglas Fabiano Specht <
douglasfabi...@gmail.com> escreveu:
>
>
> Fabrizio,
> obrigado pela sua reposta
> vou ajustar para 500, pois deu 432 o calculo e sei que esse banco pode
ser acrescentado mais schemas.(42000/50+64) + 64 = 432 .
Esqueci de mencionar que as
Em 28 de junho de 2017 22:35, Douglas Fabiano Specht <
douglasfabi...@gmail.com> escreveu:
>
>> Euler,
> esse valor é para cada schema 233 tabelas ou 41000 tabelas no geral de
> todos os schemas..?
>
É a quantidade de tabelas por execução do pg_dump. Então seria 181 schemas
x 233 tabelas.
--