Tenho um replicação no Postgres 9.0
Sistema industrial para reparo de circuitos de placas de circuito impresso
Possuo um banco de leitura para as sequencias de operações (BJA) 4 MB
E um banco de dados das operações executadas que recebe os dados de cada dia de trabalho e consolida em outro banco, o consolidador, para aumentar a performance, pois o gravação de dados é feito em uma tabela que é limpa todos os dias. (BCONS) 400 MB
O Banco consolidado (BCONS) é replicado via LAN para o banco (BCONS01) que é a central de consolidações das outras filiais.
A replicação ativa é a Hot_standby, com a opção "arquive" ativa, ou seja cópia quente e de arquivos WAL.
Os arquivos são salvos em uma pasta tmp, compactados em formato "tar" para serem transmitidos via SSH para a máquina replicada;
A máquina replicada carrega estes arquivos da pasta remota tmp, descompacta e salva na pasta pg_xlog para a consistênc ia dos dados.
Meu problema é que a cada consolidação do banco BJA para o banco BCONS01 são gerados uns 40 arquivos de logs com 16 mega cada um, é claro que compactado fica com uns 3~4 megas cada, mas é uma quantidade de dados enorme!
O que posso fazer para reduzir a quantidade de LOGs gerados no banco BCONS01 quando copio os dados do banco BJA para o BCONS01.
Utilizo cópia simples com comandos, utilizando o psql:
\copy "tblX" to /xxx/"tblX"
e para carregar o arquivo no outro banco:
\copy "tblX" from /xxx/"tblX"
que é neste momento que são gerados os logs.
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
