Exatamente Matheus, a Amazon realmente não disponibiliza nenhuma forma de
dump, apenas o PITR, mas creio que deva estar no radar deles vocês poder
agendar dumps e jogar diretamente ao S3, seria uma ótima funcionalidade, já
que hoje nos fazemos esse dump apenas para jogar para o S3 :).

Mas estou fazendo mais alguns testes, pq pelo que percebi agora, pode ser
algum bug de comunicação entre as VPCs.

Em 12 de maio de 2015 16:21, Matheus de Oliveira <[email protected]>
escreveu:

>
> 2015-05-12 14:31 GMT-03:00 Cleiton Luiz Domazak <[email protected]>
> :
>
>> Um detalhe que pode ser a causa, é que esta base tem muitos arquivos
>> blob, utilizando tipos OID que ficam armazenados na pg_largeobjects, e o
>> bytea output está setado como "ESCAPE" e não posso alterá-lo para HEX.
>>
>>
> Para large objects o formato do bytea_output não importa. Ainda mais, para
> formato binário os large objects também são salvos como binário. Já colunas
> bytea pode ter diferença.
>
>
>
>> A base tem uns 7GB, o dump acaba ficando com uns 1.7G  compactados, já
>> tentei não compactar tbm e nada.
>>
>> O que percebi é que ao exportar os large objects, a taxa de transferência
>> cai para alguns míseros Kb.
>>
>> Minha pergunta é se existe uma forma de fazer o pg_dump funcionar bem
>> remotamente, ou é uma característica dele não trabalhar bem remotamente?
>>
>> Sintaxe do pg_dump
>>
>> pg_dump -h <host> -v -Fc -b -E UTF-8 -f <file> -U <user> <database>
>>
>
> Um problema é que se a taxa de transferência for baixa você fica com pouca
> opção, porque o pg_dump faz a compressão dos dados do lado do cliente, e
> não do lado do servidor, ou seja, você vai transmitir os 7GB (assumindo que
> a maior parte seja BLOBs) sempre. Uma solução comum é fazer o dump no
> servidor ou usar um túnel com compressão, o que não é possível com um RDS.
> Talvez você possa tentar uma conexão SSL com compressão e ver se ajuda na
> transferência.
>
> Faça também uma análise (usando o cloud watch) para ver onde está o
> gargalo, se está mesmo na transferência ou simplesmente na leitura dos
> dados do disco, se for uma instância pequena, pode ser lenta também.
>
> Me fez pensar agora, não tem backup pg_dump feito pela própria AWS né? Me
> parece que seria muito bom ter.
>
> Atenciosamente,
> --
> Matheus de Oliveira
> Analista de Banco de Dados
> Dextra Sistemas - MPS.Br nível F!
> www.dextra.com.br/postgres
>
>
> _______________________________________________
> pgbr-geral mailing list
> [email protected]
> https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
>
>
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a