Em Seg, 2009-05-25 às 11:47 -0300, Wagner Bonfiglio escreveu:
(...)
> Ele disse que prefere fazer uma consulta mais pesada mas que retorne o
> máximo de dados possíveis de uma só vez, para que o tratamento seja
> feito dentro do código e assim evitar o excesso de conexões ao
> banco...
(...)
> Vocês tem alguma opinião formada sobre isso? Ou melhor, existe alguma
> verdade absoluta sobre melhor prática nesse sentido?

E se 100 usuários simultâneos dispararem o mesmo evento no sistema que
execute esta consulta?

E se dessa consulta apenas 20% dos registros forem realmente os
necessários?

E se leva mais tempo para o banco planejar, executar e devolver os
resultados desta consulta do que de várias consultas menores somadas,
ainda vale à pena?

E se o problema é evitar muitas conexões/desconexões com o banco, porque
não utilizar um aglomerador de conexões como pgbouncer ou pgpoolII?


Wagner, sua colocação é bem pertinente, e realmente os vários "e se ..."
acima são apenas algumas das questões que você tem que fazer para si e
para os seus desenvolvedores. 

Vamos ver o que os demais colegas podem contribuir com suas
experiências.


Um abraço.
Dickson S. Guedes
mail/xmpp: [email protected] - skype: guediz
http://guedesoft.net - http://www.postgresql.org.br
http://www.rnp.br/keyserver/pks/lookup?search=0x8F3E3C06D428D10A

Attachment: signature.asc
Description: Esta é uma parte de mensagem assinada digitalmente

_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a