Em 28 de abril de 2017 06:00, Fabrízio de Royes Mello <
fabri...@timbira.com.br> escreveu:
>
>
> Em 27 de abril de 2017 03:55, Flavio Henrique Araque Gurgel <
> fha...@gmail.com> escreveu:
> >>
> >>
> >> É um sistema online com 30 mil usuários, ou seja, não tem como eu ter
> downtime. Eu entendo
Em 27 de abril de 2017 17:26, Fabrízio de Royes Mello <
fabri...@timbira.com.br> escreveu:
>
> Em 26 de abril de 2017 23:54, Euler Taveira <eu...@timbira.com.br>
> escreveu:
> >
> > Em 26 de abril de 2017 23:40, Patrick B <patrickbake...@gmail.com>
&g
Olá pessoal. Tenho uma columna tipo bytea, onde armazenamos os pdfs, jpg,
png de nossos clientes.
Estamos atualmente migrando estes dados para o disco local, o invés do
Banco. Estou utilizando Postgres 9.1 (Quando isso terminar o PG será
atualizado).
O que estamos fazendo hoje para deletar o
Em 8 de abril de 2017 00:22, Camilo <camilossantos.2...@gmail.com> escreveu:
> Em 06/04/2017 22:28, Patrick B escreveu:
>
>> Em 7 de abril de 2017 12:36, Patrick B <patrickbake...@gmail.com > patrickbake...@gmail.com>> escreveu:
>>
>> Oi pess
Em 7 de abril de 2017 12:36, Patrick B <patrickbake...@gmail.com> escreveu:
> Oi pessoal, tudo bem?
>
> Eu tenho a coluna (seg_table.path_name character varying(255), onde eu
> armazeno o caminho do arquivo (pdf ou jpg) no S3bucket.
>
> Exemplo:
>
>> /{s3
Oi pessoal, tudo bem?
Eu tenho a coluna (seg_table.path_name character varying(255), onde eu
armazeno o caminho do arquivo (pdf ou jpg) no S3bucket.
Exemplo:
> /{s3bucket}/filesuser/client/27801123/attachment/4510/main
>
/{s3bucket}/filesuser/client/27801123/attachment/4510/file
Eu preciso,
2016-12-15 13:38 GMT+13:00 Patrick B <patrickbake...@gmail.com>:
> Olá,
>
> Eu possuo a seguinte query:
>
> COPY (
>
> SELECT
>
> uuid,
>
> clientid,
>
> *
>
> FROM
>
> logging
>
> WHERE
>
> logtime
>
Olá,
Eu possuo a seguinte query:
COPY (
SELECT
uuid,
clientid,
*
FROM
logging
WHERE
logtime
BETWEEN
'201611015'
AND
'201612015' ) TO '/var/lib/postgresql/arquivo.csv';
Esta query tem que ser manualmente rodada 1x por mês. Por esta razão, estou
fazendo
Oi pessoal,
WITH rows AS (
SELECT
t1.id,
t1.clientid,
t1.name_first,
t1.name_last
row_number() OVER (ORDER BY t1.id) AS rn
FROM
Em 18 de agosto de 2016 00:25, Zan escreveu:
> On 17/08/2016 09:13, Wagner Rogerio Garcia wrote:
>
>> Bom dia.
>>
>> Você poderia usar uma instancia gratuita por 01 ano no AWS (Amazon).
>> Instala o PostgreSQL, PHP .etc...
>>
>>
>> WAGNER ROGERIO GARCIA
>>
>
> Obrigado
>
>
>
> Procure por "archive_mode" e "archive_command" na documentação.
>
>
Eu já utilizo esses comandos. Mas não consigo arquivar os wal_files por 30
dias através destes comandos.
___
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
>
>
> Sugiro arquivar o WAL e guardá-los por 30 dias.
Como? é isso que quero saber
> Com wal_keep_segments
> você não vai ter a garantia que ficará com 30 dias de dados; o
> arquivamento te dará essa segurança.
>
>
___
pgbr-geral mailing list
Em 5 de agosto de 2016 02:16, Euler Taveira <eu...@timbira.com.br> escreveu:
> On 04-08-2016 00:38, Patrick B wrote:
> > Eu quero aumentar o número de wal files gerados pelo meu servidor
> > Master. Estou atualmente utilizando Postgres 9.2.
> >
> Finalidade?
>
Olá pessoal, tudo bem?
Eu quero aumentar o número de wal files gerados pelo meu servidor Master.
Estou atualmente utilizando Postgres 9.2.
O parâmetro responsável por isto no postgresql.conf é o *wal_keep_segments*,
certo?
Ou seja:
wal_keep_segments = 300
Com isto estarei mantendo 300
opa.. é possível sim!
https://www.postgresql.org/docs/9.2/static/warm-standby.html#CASCADING-REPLICATION
Patrick
___
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
ops... e-mail errado :(
___
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
Hi guys,
I got two slaves using Postgresql 9.2.
slave01 - Streaming replication from master
slave02 - nothing.. new server
is it possible to get slave02 replicating from slave01 (Cascade streaming
replication) this can be done with streaming ? and also slave01 sending the
wal_files to that new
>
> Qual versão você está usando? Apenas a partir da 9.4 é possível fazer
> archive de um slave.
>
Putz Sério que é só da 9.4??? Eu estou usando o 9.2 (Sim, iremos
> atualizar mas vai demorar um pouco :P)
não encontrei nada disso na doc.. tem certeza que só a partir da 9.4?
obrigado!
>
> Eu não usuária o -h, melhor ir via Unix domain sockets (não deve ter
> *grandes* ganhos, mas creio que seja um pouquinho melhor).
>
> O seu split seria pra poder fazer o upload em paralelo, certo? Tem uma
> ferramenta que promete fazer um basebackup em paralelo e super eficiente,
> se chama
Em 6 de julho de 2016 15:08, Matheus de Oliveira <matioli.math...@gmail.com>
escreveu:
>
> 2016-07-05 22:46 GMT-03:00 Patrick B <patrickbake...@gmail.com>:
>
>> o pg_basebackup pode ser usado para gerar uma cópia local da DB?
>
>
> Sim. O pg_basebackup faz uma
Olá pessoal.
o pg_basebackup pode ser usado para gerar uma cópia local da DB?
A ideia é utilizar a opção -Ft e dividir o dump entre arquivos de 50GB, por
exemplo.
É possível com o basebackup?
Patrick
___
pgbr-geral mailing list
Pessoal,
Acabei reiniciando todo o processo, já que não tem como recuperar com
wal_files faltando
Desta vez, executei o pg_basebackup com a opção stream, para garantir que o
mesmo erro não volte à acontecer.
Após o pg_basebackup ter começado, verifiquei o arquivo backup_label para
ver qual
Oi pessoal...
Um de meus servidores backup, teve problemas de disco e precisou ser
re-criado.
Quando o servidor ficou no ar novamente, uma cópia da DB foi feita para
retomar o Postgres naquele servidor.
*Os passos foram:*
1 - Assegurar que os wal_files estavam sendo entregues ao servidor
2 -
https://www.postgresql.org/docs/9.2/static/app-pgbasebackup.html
"
-D directory
--pgdata=directory
Directory to write the output to. pg_basebackup will create the
directory and any parent directories if necessary. The directory may
already exist, but it is an error if the directory already
Olá pessoal,
Tenho um servidor slave que deu problema nos discos, estou agora realizando
a cópia da DB novamente, utilizando o pg_basebackup.
Pergunta:
Eu ainda tenho a base velha no servidor, e estou executando o comando para
re-sincronizar. Vai ocupar espaço novo? Ou irá reescrever os dados
25 matches
Mail list logo