Em 28 de junho de 2017 17:45, Douglas Fabiano Specht < [email protected]> escreveu:
> Pessoal, > depois dos erros que tivemos na semana passada, fizemos uma separação dos > serviços do Postgres para 2 maquinas distintas. > utilizei o Pgconfig.org para me recomendar e efetui as alterações > necessárias conforme abaixo. > > > # Generated by PGConfig 2.0 beta > ## http://pgconfig.org > > # Memory Configuration > shared_buffers = 3GB > effective_cache_size = 9GB > work_mem = 246MB > maintenance_work_mem = 768MB > > # Checkpoint Related Configuration > min_wal_size = 512MB > max_wal_size = 2GB > checkpoint_completion_target = 0.7 > wal_buffers = 16MB > > # Network Related Configuration > listen_addresses = '*' > max_connections = 50 > > dados do servidor > Debian 8.7 > Postgres 9.5.7 > Memoria do servidor 16GB > > Ocorre que ao efetuar um dump, está dando o seguinte erro: > > ERROR: out of shared memory pg_dump > WARNING: out of shared memory > HINT increase max_locks_per_transaction > > alguem poderia me ajudar nesse caso? > nao alterei outras configurações. > -- > > Douglas Fabiano Specht > Pessoal, para complementar essa base é muito grande em objetos, mas nao em dados, temos 181 schemas com 233 tabelas em cada uma delas, o que da mais de 41.000 tabelas. vi outros erros na internert que falam qdo existe muitos objetos, entao pensei em quebrar esse dump e fazer algo dinamico, ou seja ler todos os schemas e dividir em 3 ou 4 arquivos. o que acham? -- Douglas Fabiano Specht
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
