mm, el problema tal vez esta entonces en el trigger. tal vez la consulta que se hace internamente no esta optimizada, o por el hecho de hacer transacciones esta se hace lenta. Tienes esa tabla donde consultas con indices ???, es una tabla diferente o es sobre la misma??
El 21 de febrero de 2011 11:05, Francisco Rodriguez <[email protected] > escribió: > Hola de nuevo. > > Bueno, la tabla recibe una serie de coordenadas UTM y lo que hace la tabla > al detectar el insert es llamar al trigger para conseguir un valor en la > columna the_geom, esto lo hace bien en los primeros registros, pero cuando > se insertan nuevos registros cada cierto tiempo pues pierde velocidad y casi > no se insertan los registros. Se insertan por cada proceso de inserción unos > 12000 registros. > > > > *Fran* > > > 2011/2/21 Carlos Edward Grajales Marmolejo <[email protected] > > > > Lo mejor para darnos cuenta que pasa, es ver la estructura de la tabla >> destino. Aqui pueden existir muchos factiores: >> 1. Vacuum >> 2. Indices >> 3. Contsraint >> 4. Triggers sobre la tabla final. >> 5. .... >> >> Que tantos datos quieres subir? >> >> El 21 de febrero de 2011 10:37, Miguel Angel Hernandez Moreno < >> [email protected]> escribió: >> >> saludos >>> >>> trata de darle mantenimiento, un vacuum, posiblemente como comentaban si >>> tu tabla esta >>> muy saturada y un mantenimiento podria ayudarte a darle un poco de >>> velocidad >>> >>> El 21 de febrero de 2011 08:24, Francisco Rodríguez < >>> [email protected]> escribió: >>> >>> Bueno, el postgres lo tengo configurado de fábrica, por lo que no se si >>>> será eso, aunque en la tabla de destino tengo dos primary keys, voy a >>>> intentar hacerlo sin estas. >>>> >>>> >>>> Un saludo y gracias. >>>> >>>> Francisco Rodríguez Torres >>>> >>>> >>>> El 21/02/2011, a las 15:06, Manuel Fernando Aller < >>>> [email protected]> escribió: >>>> >>>> >>>> El 21 de febrero de 2011 11:01, Francisco Rodríguez >>>> <<[email protected]> >>>> [email protected]> escribió: >>>> >>>>> Hola estoy usando dbsync para pasar datos desde mysql a postgresql. El >>>>> caso que cuando hago el insert de unos 12000 registros va muy lento, ya >>>>> que >>>>> cuando hago select mientras esta insertando lo hace a razón de 5 registros >>>>> cada 10 segundos más o menos, ¿a que puede ser debido? >>>>> >>>>> >>>>> Un saludo. >>>>> >>>>> >>>>> >>>>> >>>> puede que la tabla donde estás insertando tenga índices, y que updatear >>>> esos índices en cada insert sea muy costoso, puede que la tabla donde >>>> insertas tenga referencias desde otras tablas, puede que tenga >>>> constraints... puede ser tantas cosas... hasta un mal diseño de la >>>> distribución de los tablespaces... >>>> >>>> Siempre para un bulk load, es preferible hacer 'copy', si no es posible >>>> (en tu caso, por ejemplo) sería bueno al menos que la tabla destino no >>>> tenga >>>> índices ni referencias ni constraints, (se las puedes añadir después). >>>> >>>> También puede ser que tengas mal configurado el postgres >>>> >>>> -- >>>> Manolo >>>> >>>> >>> >>> >>> -- >>> ISC Miguel Angel Hernandez Moreno >>> >>> >> >> >> -- >> ------------------------------------------------------------------ >> >> >> >> Cordialmente, >> >> *Carlos Edward Grajales* >> Colombia Software Ltda. >> Calle 18 N No. 3N-24 Ofc.902 >> Cali - Colombia >> www.colombiasoftware.net >> Cel. 313 765 0594 >> Tel: (2) 489 79 40 >> > > -- ------------------------------------------------------------------ Cordialmente, *Carlos Edward Grajales* Colombia Software Ltda. Calle 18 N No. 3N-24 Ofc.902 Cali - Colombia www.colombiasoftware.net Cel. 313 765 0594 Tel: (2) 489 79 40
