2009/1/29 Robson Assuncao <[email protected]>:
>
> Pessoal,
>
> Estou com o seguinte problema:
>
> Tenho um arquivo CSV de 800MB com dados de uma tabela que devem ser
> inseridos no banco de dados.
> Isso representa 18.679.232 registros dessa tabela.

Será somente hoje ou isso será recorrente ?

>
> Estou usando o comando SQL COPY para fazer essa carga, porém acontece que
> ele não termina nunca pq acaba a memória da máquina e usa toda a área de
> swap.
>
> A máquina em questão é um Pentium IV com 1GB de RAM e mais 2GB de swap.
> Estou usando CentOS 5.2 com PostgreSQL versão 8.1.
>
> Já tentei modificar parâmetros do postgresql.conf pra tentar resolver
> (aumentando shared_buffers, maintenance_work_mem, etc ...) mas não resolve.
>
> Alguma sugestão?
>
> Abraços,
> Robson Assunção
>

Robson, já que você está usando um *nix e aparentemente não tem
máquina para inserir isso de uma vez você poderia dar um split no
arquivo:

$ split -l <numero de linhas para cada arquivo> <arquivo> <arquivo>_split_

e depois carregar os arquivos um a um.


-- 
------------------------------------------
 1. Notebook para você ficar livre e programar a vontade: R$ 2300
 2. Curso de Programação/SysAdmin/DBA: R$ 5000
 3. Pedir a solução pronta para um problema numa lista de discussão:
Não tem preço !

E para todas as outras existe RTFM, STFW e na melhor das hipóteses LMGTFY
_______________________________________________
pgbr-geral mailing list
[email protected]
https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral

Responder a