Pablo Sánchez escreveu:
> Já andei vendo várias outras otimizações possíveis no postgres, que é
> quem está realmente morrendo, mas não resolveu-se 100% ainda. Porque
> eu afirmo que é o PG, e não o Apache? Simples, porque as mensagens de
> erro são "Desculpe, excedido o limite de conexões simultâneas" -
> colocamos para 80, e ainda assim....
> 
O sintoma apresentado aqui quer dizer que a aplicação tem problemas e *não*
fecha as conexões adequadamente.

> Já verifiquei uma coisa no código: é aberta apenas uma conexão por
> requisição, ou seja, se temos 40 máquinas conectadas, 80 conexões
> simultâneas permitidas, a princípio isso não deveria ser o problema.
> 
Pode verificar novamente a configuração do Apache e da aplicação.

> Alguém tem alguma outra dica de otimização do PostgreSQL?
> 
Existem várias. Algumas delas:
shared_buffers: quantidade adequada para a carga utilizada
work_mem: valor adequado para caber os dados da consulta na memória
fsync: off
syncronous_commit: off
full_page_writes: off
checkpoint_segments: aumentar para ser suficiente para *não* fazer um
checkpoint durante a demonstração
checkpoint_timeout: aumentar para valor maior que o tempo da demonstração

> Outra, e mais importante: precisamos de uma ferramenta de
> monitoramento do PostgreSQL, uma decente, preferencialmente gratuita,
> ou pelo menos shareware para 30 dias. Alguém tem uma boa dica de
> ferramenta?
> 
Monitorar o que?


PS> se são transações simples, eu te aconselharia utilizar um pool de conexões.


-- 
  Euler Taveira de Oliveira
  http://www.timbira.com/

_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a