Em 30 de janeiro de 2014 10:41, Wellington Oppenheimer <
[email protected]> escreveu:

> Nós monitoramos o uso de I/O e CPU e não temos problema de disco (Raid 10
> em SSD) e a rede é GB.
>
> Para as configurações do Postgres utilizando o Pgtune para 250 usuários.
> Estão assim:
>
> checkpoint_segments = 8 # pgtune wizard 2014-01-29
> maintenance_work_mem = 1GB # pgtune wizard 2014-01-29
> effective_cache_size = 16GB # pgtune wizard 2014-01-29
> work_mem = 20MB # pgtune wizard 2014-01-29
> wal_buffers = 4MB # pgtune wizard 2014-01-29
> shared_buffers = 5632MB # pgtune wizard 2014-01-29
> max_connections = 250 # pgtune wizard 2014-01-29
>

Bom.. imaginando uma situação surreal onde entendamos todo o seu ambiente,
que deve ser bem mais complexo do que entendemos até aqui, vamos lá.

Com essas configurações e apenas 24GB de RAM, creio que os erros com 500
usuários simultâneos são quase obrigação no caso de "overcommit" da
memória..

Visto que sua base é pequena e considerando não haver problemas de I/O, no
caso de demora e crash nas consultas eu faria as seguintes alterações em
via de testes:

- maintenance_work_mem = 256MB
- wal_buffers = manter padrão
- checkpoint_timeout = 30min
- work_mem = 4MB
- shared_buffers = 3072MB
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a