Tenho um replicação no Postgres 9.0, linux red hat, 32 bits, hot standby.

Sistema industrial para reparo de circuitos de placas de circuito impresso
Possuo um banco de leitura para as sequencias de operações (BJA) 4 MB
E um banco de dados das operações executadas que recebe os dados de cada dia
de trabalho e consolida em outro banco, o consolidador, para aumentar a
performance, pois o gravação de dados é feito em uma tabela que é limpa
todos os dias. (BCONS) 400 MB

O Banco consolidado (BCONS) é replicado via LAN para o banco (BCONS01) que é
a central de consolidações das outras filiais.

A replicação ativa é a Hot_standby, com a opção "arquive" ativa, ou seja
cópia quente e de arquivos WAL.
Os arquivos são salvos em uma pasta tmp, compactados em formato "tar" para
serem transmitidos via SSH para a máquina consolidadora;
A máquina consolidadora carrega estes arquivos tmp, descompacta e salva na
pasta pg_xlog para a consistência dos dados.

Meu problema é que a cada consolidação do banco BJA para o banco BCONS01 são
gerados uns 40 arquivos de logs com 16 mega cada um, é claro que compactado
fica com uns 3 megas, mas é uma quantidade de dados enorme!

O que posso fazer para reduzir a quantidade de LOGs gerados no banco BCONS01
quando copio os dados do banco BJA para o BCONS01.
Utilizo cópia simples com comandos, utilizando o psql em 6 tabelas:

\copy "tblX" to /xxx/"tblX"

e para carregar o arquivo no outro banco:

\copy "tblX" from /xxx/"tblX"

que é neste momento que são gerados os logs.


_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a