On 02-08-2012 13:55, Flavio Henrique Araque Gurgel wrote:
> 2) Fazer um cache grande o suficiente para que todas as tabelas caibam 
> na memória.
> - vantagem: não vejo muita.
> - desvantagem: cache muito grande costuma causar piora de desempenho no 
> PostgreSQL, justamente por causa do algoritmo que verifica o que deve 
> ficar e o que deve sair da memória.
> 
Você está chamando de cache a cache do PostgreSQL mas não se esqueça que
alguns sistemas operacionais fazem cache dos arquivos lidos para aumentar a
eficiência das operações. Então, quanto mais memória melhor (se puder caber a
quantidade de dados manipulados no dia a dia, seria perfeito). Sendo assim,
uma vez lidos os arquivos referentes as tabelas e índices envolvidos, a
manipulação desses dados será algumas vezes mais rápida do que se o arquivo
estivesse sendo acessado pela primeira vez.

O que o Tiago precisa é de um bom sistema de discos. De preferência uma
controladora que tenha bastante cache. E se o orçamento permitir, invista em
discos SSD.

> 4) Procure outro SGBD que atenda sua necessidade. Mas acho que é radical 
> demais. O que você precisa é desempenho? Já fez testes? O tempo de 
> acesso via índices no PostgreSQL é de microssegundos, o tempo maior é 
> enviar o resultado da consulta via rede. Memória não ajuda tanto assim.
> 
Acho que ele não precisa. ;) O PostgreSQL é extremamente rápido se a aplicação
for pensada levando em consideração alguns aspectos da arquitetura do SGBD.

Por último, é prudente pensar em um esquema de particionamento para a tabela C.


-- 
   Euler Taveira de Oliveira - Timbira       http://www.timbira.com.br/
   PostgreSQL: Consultoria, Desenvolvimento, Suporte 24x7 e Treinamento
_______________________________________________
pgbr-geral mailing list
pgbr-geral@listas.postgresql.org.br
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a