Beleza Athur, vou testar essa solução aviso aqui se funcionou.

Abraços,
Robson Assunção

2009/1/29 Arthur M. Meskelis <[email protected]>

> 2009/1/29 Robson Assuncao <[email protected]>:
> >
> > Pessoal,
> >
> > Estou com o seguinte problema:
> >
> > Tenho um arquivo CSV de 800MB com dados de uma tabela que devem ser
> > inseridos no banco de dados.
> > Isso representa 18.679.232 registros dessa tabela.
>
> Será somente hoje ou isso será recorrente ?
>
> >
> > Estou usando o comando SQL COPY para fazer essa carga, porém acontece que
> > ele não termina nunca pq acaba a memória da máquina e usa toda a área de
> > swap.
> >
> > A máquina em questão é um Pentium IV com 1GB de RAM e mais 2GB de swap.
> > Estou usando CentOS 5.2 com PostgreSQL versão 8.1.
> >
> > Já tentei modificar parâmetros do postgresql.conf pra tentar resolver
> > (aumentando shared_buffers, maintenance_work_mem, etc ...) mas não
> resolve.
> >
> > Alguma sugestão?
> >
> > Abraços,
> > Robson Assunção
> >
>
> Robson, já que você está usando um *nix e aparentemente não tem
> máquina para inserir isso de uma vez você poderia dar um split no
> arquivo:
>
> $ split -l <numero de linhas para cada arquivo> <arquivo> <arquivo>_split_
>
> e depois carregar os arquivos um a um.
>
>
> --
> ------------------------------------------
>  1. Notebook para você ficar livre e programar a vontade: R$ 2300
>  2. Curso de Programação/SysAdmin/DBA: R$ 5000
>  3. Pedir a solução pronta para um problema numa lista de discussão:
> Não tem preço !
>
> E para todas as outras existe RTFM, STFW e na melhor das hipóteses LMGTFY
> _______________________________________________
> pgbr-geral mailing list
> [email protected]
> https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
>
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a