Em 28 de junho de 2017 17:45, Douglas Fabiano Specht <
[email protected]> escreveu:

> Pessoal,
> depois dos erros que tivemos na semana passada, fizemos uma separação dos
> serviços do Postgres para 2 maquinas distintas.
> utilizei o Pgconfig.org para me recomendar e efetui as alterações
> necessárias conforme abaixo.
>
>
> # Generated by PGConfig 2.0 beta
> ## http://pgconfig.org
>
> # Memory Configuration
> shared_buffers = 3GB
> effective_cache_size = 9GB
> work_mem = 246MB
> maintenance_work_mem = 768MB
>
> # Checkpoint Related Configuration
> min_wal_size = 512MB
> max_wal_size = 2GB
> checkpoint_completion_target = 0.7
> wal_buffers = 16MB
>
> # Network Related Configuration
> listen_addresses = '*'
> max_connections = 50
>
> dados do servidor
> Debian 8.7
> Postgres 9.5.7
> Memoria do servidor 16GB
>
> Ocorre que ao efetuar um dump, está dando o seguinte erro:
>
> ERROR:  out of shared memory pg_dump
> WARNING:  out of shared memory
> HINT increase max_locks_per_transaction
>
> alguem poderia me ajudar nesse caso?
> nao alterei outras configurações.
> --
>
> Douglas Fabiano Specht
>

Pessoal,
para complementar essa base é muito grande em objetos, mas nao em dados,
temos 181 schemas com 233 tabelas em cada uma delas, o que da mais de
41.000 tabelas.
vi outros erros na internert que falam qdo existe muitos objetos, entao
pensei em quebrar esse dump e fazer algo dinamico, ou seja ler todos os
schemas e dividir em 3 ou 4 arquivos. o que acham?


-- 

Douglas Fabiano Specht
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a