2013/6/21 luiz damascena <[email protected]> > Colaboradores da lista. > > Meu ambiente é um postgreSQL 9.1.4, Linux RedHat 6.3 64 bits, 24 > processadores Intel X5690. > > Quatro databases no cluster (36 GB, 70 GB, 800 MB e 2 GB), sendo que dois > deles (o maior inclusive (70 GB)) armazenam basicamente LOB´s. > > O backup lógico está consumindo mais de dez horas - só a geração / > compactação do maior database com LOB´s consome 9 horas e 15 minutos. > > Uma ideia é "backupear" os LOBs separadamente e em paralelo, mas na 9.1 você não vai conseguir garantir consistência nisso (a partir da 9.2 já consegue).
Ainda, a 9.3 (já em beta) tem pg_dump em paralelo, vale a pena testar. > O comando é $BIN_DIR/pg_dump -h 127.0.0.1 -p $PGPORT -U $PGUSER -F c -E > LATIN1 -b NomeDoMeuDatabase | gzip > NomeDoMeuDatabase.backup.gz 2>> > $LOG_DIR/backup_logico.log > > Se está usando o -Fc não vejo necessidade de passar pelo gzip. O -Fc já gera um arquivo comprido (pelo menos se instalou o PostgreSQL com zlib). Só não consigo dizer com certeza se o fato de ser muito LOB pode atrabalhar, se quiser, faça o teste, crie sem o gzip e depois passe por ele e compare os tamanhos. PS: Cada vez mais eu vejo motivos para não se armazenar arquivos binários no banco... mas isso é uma discussão infinita!!! Atenciosamente, -- Matheus de Oliveira Analista de Banco de Dados Dextra Sistemas - MPS.Br nível F! www.dextra.com.br/postgres
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
