Beleza Athur, vou testar essa solução aviso aqui se funcionou. Abraços, Robson Assunção
2009/1/29 Arthur M. Meskelis <[email protected]> > 2009/1/29 Robson Assuncao <[email protected]>: > > > > Pessoal, > > > > Estou com o seguinte problema: > > > > Tenho um arquivo CSV de 800MB com dados de uma tabela que devem ser > > inseridos no banco de dados. > > Isso representa 18.679.232 registros dessa tabela. > > Será somente hoje ou isso será recorrente ? > > > > > Estou usando o comando SQL COPY para fazer essa carga, porém acontece que > > ele não termina nunca pq acaba a memória da máquina e usa toda a área de > > swap. > > > > A máquina em questão é um Pentium IV com 1GB de RAM e mais 2GB de swap. > > Estou usando CentOS 5.2 com PostgreSQL versão 8.1. > > > > Já tentei modificar parâmetros do postgresql.conf pra tentar resolver > > (aumentando shared_buffers, maintenance_work_mem, etc ...) mas não > resolve. > > > > Alguma sugestão? > > > > Abraços, > > Robson Assunção > > > > Robson, já que você está usando um *nix e aparentemente não tem > máquina para inserir isso de uma vez você poderia dar um split no > arquivo: > > $ split -l <numero de linhas para cada arquivo> <arquivo> <arquivo>_split_ > > e depois carregar os arquivos um a um. > > > -- > ------------------------------------------ > 1. Notebook para você ficar livre e programar a vontade: R$ 2300 > 2. Curso de Programação/SysAdmin/DBA: R$ 5000 > 3. Pedir a solução pronta para um problema numa lista de discussão: > Não tem preço ! > > E para todas as outras existe RTFM, STFW e na melhor das hipóteses LMGTFY > _______________________________________________ > pgbr-geral mailing list > [email protected] > https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral >
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
