Para tu nivel creo que lo mejor seria trabajar con archivos CSV o de texto porque esa carga que dices, 10gb, es mucho datos. Otra forma seria instalar plptyhtonu y acceder directamente a SQLServer , asi es como lo hago cuando tengo que interactuar con SQLServer en mis proyectos y es bastante rapido y eficiente , usaba plperl pero era muy lento por eso cambie a python
Date: Wed, 23 Apr 2014 22:34:17 -0600 From: asotolo...@uci.cu To: jgmore...@gmail.com CC: pgsql-es-ayuda@postgresql.org Subject: Re: [pgsql-es-ayuda] Interactuando con SQLServer Hola Jose, revisa a ver si te sirte el FDW http://pgxn.org/dist/odbc_fdw/, para acceder a tus datos de SQLserver. Lo otro que puedes hacer es exportar los datos de SQLserver a CSV http://stackoverflow.com/questions/799465/how-to-export-sql-server-2005-query-to-csv http://stackoverflow.com/questions/3169220/export-query-result-to-csv-file-in-sql-server-2008 y hacer la carga en PostgreSQL con copy from... saludos saludos El 4/23/2014 11:35 AM, Jose Moreira escribió: Estimados, Convencí al jefe de usar PostgreSQL para un nuevo proyecto y necesito vuestra ayuda. Tengo un SQLServer de donde debo extraer ciertas tablas y cargarlas en una base Postgre 9.3. Un detalle: en el medio tengo un firewall, el SQL esta en la pata IN y el Postgre en la DMZ. La carga de dichas tablas debe estar automatizado y con una frecuencia diaria como mínimo. Tamaño total de las tablas, unos 10 GB. La base en Postgre esta creada a nueva, con los atributos que corresponden. Entiendo que no deberia haber problemas y solo resta meter los datos en las tuplas. Soy nulo en SQL. Mi idea es exportar las tablas en archivo de texto con un script en el SQL, copiarlas a destino y luego levantarlas. Se puede hacer o soy muy ingenuo? Alguien sugiere algo mejor? muchas gracias!!! I Conferencia Científica Internacional UCIENCIA 2014 en la UCI del 24 al 26 de abril de 2014, La Habana, Cuba. Ver uciencia.uci.cu