2009/1/29 Robson Assuncao <[email protected]>: > > Pessoal, > > Estou com o seguinte problema: > > Tenho um arquivo CSV de 800MB com dados de uma tabela que devem ser > inseridos no banco de dados. > Isso representa 18.679.232 registros dessa tabela.
Será somente hoje ou isso será recorrente ? > > Estou usando o comando SQL COPY para fazer essa carga, porém acontece que > ele não termina nunca pq acaba a memória da máquina e usa toda a área de > swap. > > A máquina em questão é um Pentium IV com 1GB de RAM e mais 2GB de swap. > Estou usando CentOS 5.2 com PostgreSQL versão 8.1. > > Já tentei modificar parâmetros do postgresql.conf pra tentar resolver > (aumentando shared_buffers, maintenance_work_mem, etc ...) mas não resolve. > > Alguma sugestão? > > Abraços, > Robson Assunção > Robson, já que você está usando um *nix e aparentemente não tem máquina para inserir isso de uma vez você poderia dar um split no arquivo: $ split -l <numero de linhas para cada arquivo> <arquivo> <arquivo>_split_ e depois carregar os arquivos um a um. -- ------------------------------------------ 1. Notebook para você ficar livre e programar a vontade: R$ 2300 2. Curso de Programação/SysAdmin/DBA: R$ 5000 3. Pedir a solução pronta para um problema numa lista de discussão: Não tem preço ! E para todas as outras existe RTFM, STFW e na melhor das hipóteses LMGTFY _______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
