Pablo Sánchez escreveu: > Já andei vendo várias outras otimizações possíveis no postgres, que é > quem está realmente morrendo, mas não resolveu-se 100% ainda. Porque > eu afirmo que é o PG, e não o Apache? Simples, porque as mensagens de > erro são "Desculpe, excedido o limite de conexões simultâneas" - > colocamos para 80, e ainda assim.... > O sintoma apresentado aqui quer dizer que a aplicação tem problemas e *não* fecha as conexões adequadamente.
> Já verifiquei uma coisa no código: é aberta apenas uma conexão por > requisição, ou seja, se temos 40 máquinas conectadas, 80 conexões > simultâneas permitidas, a princípio isso não deveria ser o problema. > Pode verificar novamente a configuração do Apache e da aplicação. > Alguém tem alguma outra dica de otimização do PostgreSQL? > Existem várias. Algumas delas: shared_buffers: quantidade adequada para a carga utilizada work_mem: valor adequado para caber os dados da consulta na memória fsync: off syncronous_commit: off full_page_writes: off checkpoint_segments: aumentar para ser suficiente para *não* fazer um checkpoint durante a demonstração checkpoint_timeout: aumentar para valor maior que o tempo da demonstração > Outra, e mais importante: precisamos de uma ferramenta de > monitoramento do PostgreSQL, uma decente, preferencialmente gratuita, > ou pelo menos shareware para 30 dias. Alguém tem uma boa dica de > ferramenta? > Monitorar o que? PS> se são transações simples, eu te aconselharia utilizar um pool de conexões. -- Euler Taveira de Oliveira http://www.timbira.com/ _______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
