Em 11 de julho de 2011 15:24, Rodrigo Dias Ribeiro da Silva <[email protected]> escreveu: > Olá Galera, sou novato na lista, mas preciso tirar algumas dúvidas. > > Estou montando um projeto e acredito que o banco ficará com bastante > registros. > > É um banco georeferenciado ( estou pensando em usar PostGIS ) e a chave da
Se você está lidando com geoprocessamento escolheu o banco de dados certo. Implementações de referência. > tabela seria um dado do tipo Latitude-Longitude, e eu tenho basicamente 3000 > pontos e 4 registros por dia durante 360 dias o ano sendo que são uns 200 > anos. > > 3000 x 4 x 360 x 200 = 864.000.000 registros então são 864 milhões de > registros; > > onde cada registro tem umas 10 a 15 variaveis ( que podem vir a ser as > colunas ) com a chave e as datas seriam 12 a 17 colunas. > > Os dados podem ser divido em lotes de décadas ou a cada 50 anos e fazer uma > view com todos juntos, não sei. > > Mas gostaria de saber se o Postgre aguenta tantos registro numa tabela/view O Postgres ou PostgreSQL. Aguentar não é a palavra certa. Bancos de dados (de verdade) são feitos pra isso. > e quanto tempo demoraria uma consulta ? Tudo depende da qualidade do seu modelo, suas consultas e hardware pra tocar o bicho. > E se esse é o melhor modo de modelar isso ? Aí eu deixo pros Postgistas de plantão. []s Flavio Gurgel _______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
