Olá pessoal, boa tarde. Sou iniciante no PostgreSQL (usamos faz 1 ano e meio) e estou com algumas duvidas. Tenho um projeto usando PostgreSQL onde faço estudos de vendas de lojas. Este servidor é uma instancia RDS da Amazon, pela questão de custos estamos mudando para o EC2. Como atendo cliente de vários tamanhos diferentes recebo mensalmente cargas de arquivos txt e xml com os dados das vendas, e em alguns caso o volume de informação é tão grande que ultrapassa 50.000 linhas por loja. O numero de clientes que me envia informação chega próximo a 500, porém existe um plano para 1200 lojas em alguns meses. Existe também um plano de trabalhar com informações mais detalhadas aumentando o tamanho em 20 vezes.
A primeira questão, qual o jeito mais prático de fazer esses inserts? * Hoje fazemos o envio por uma espécie de streaming enviando "pacotes" de mil em mil linhas para nossa base. A segunda questão, além de receber os dados, fazemos cruzamentos e manipulações e por fim geramos dados consolidados, que transformam essas 50.000 linhas em 200 linhas. Utilizar um servidor local para fazer esse processo seria uma boa jogada? Como fazer esse envio de dados para a base sem afetar a experiencia do cliente que está fazendo leitura desses dados?
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
