Em 30 de janeiro de 2014 10:41, Wellington Oppenheimer < [email protected]> escreveu:
> Nós monitoramos o uso de I/O e CPU e não temos problema de disco (Raid 10 > em SSD) e a rede é GB. > > Para as configurações do Postgres utilizando o Pgtune para 250 usuários. > Estão assim: > > checkpoint_segments = 8 # pgtune wizard 2014-01-29 > maintenance_work_mem = 1GB # pgtune wizard 2014-01-29 > effective_cache_size = 16GB # pgtune wizard 2014-01-29 > work_mem = 20MB # pgtune wizard 2014-01-29 > wal_buffers = 4MB # pgtune wizard 2014-01-29 > shared_buffers = 5632MB # pgtune wizard 2014-01-29 > max_connections = 250 # pgtune wizard 2014-01-29 > Bom.. imaginando uma situação surreal onde entendamos todo o seu ambiente, que deve ser bem mais complexo do que entendemos até aqui, vamos lá. Com essas configurações e apenas 24GB de RAM, creio que os erros com 500 usuários simultâneos são quase obrigação no caso de "overcommit" da memória.. Visto que sua base é pequena e considerando não haver problemas de I/O, no caso de demora e crash nas consultas eu faria as seguintes alterações em via de testes: - maintenance_work_mem = 256MB - wal_buffers = manter padrão - checkpoint_timeout = 30min - work_mem = 4MB - shared_buffers = 3072MB
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
