Tenho um replicação no Postgres 9.0, linux red hat, 32 bits, hot standby.
Sistema industrial para reparo de circuitos de placas de circuito impresso Possuo um banco de leitura para as sequencias de operações (BJA) 4 MB E um banco de dados das operações executadas que recebe os dados de cada dia de trabalho e consolida em outro banco, o consolidador, para aumentar a performance, pois o gravação de dados é feito em uma tabela que é limpa todos os dias. (BCONS) 400 MB O Banco consolidado (BCONS) é replicado via LAN para o banco (BCONS01) que é a central de consolidações das outras filiais. A replicação ativa é a Hot_standby, com a opção "arquive" ativa, ou seja cópia quente e de arquivos WAL. Os arquivos são salvos em uma pasta tmp, compactados em formato "tar" para serem transmitidos via SSH para a máquina consolidadora; A máquina consolidadora carrega estes arquivos tmp, descompacta e salva na pasta pg_xlog para a consistência dos dados. Meu problema é que a cada consolidação do banco BJA para o banco BCONS01 são gerados uns 40 arquivos de logs com 16 mega cada um, é claro que compactado fica com uns 3 megas, mas é uma quantidade de dados enorme! O que posso fazer para reduzir a quantidade de LOGs gerados no banco BCONS01 quando copio os dados do banco BJA para o BCONS01. Utilizo cópia simples com comandos, utilizando o psql em 6 tabelas: \copy "tblX" to /xxx/"tblX" e para carregar o arquivo no outro banco: \copy "tblX" from /xxx/"tblX" que é neste momento que são gerados os logs. _______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
