mm, el problema tal vez esta entonces en el trigger.
tal vez la consulta que se hace internamente no esta optimizada, o por el
hecho de hacer transacciones esta se hace lenta.
Tienes esa tabla donde consultas con indices ???, es una tabla diferente o
es sobre la misma??

El 21 de febrero de 2011 11:05, Francisco Rodriguez <[email protected]
> escribió:

> Hola de nuevo.
>
> Bueno, la tabla recibe una serie de coordenadas UTM y lo que hace la tabla
> al detectar el insert es llamar al trigger para conseguir un valor en la
> columna the_geom, esto lo hace bien en los primeros registros, pero cuando
> se insertan nuevos registros cada cierto tiempo pues pierde velocidad y casi
> no se insertan los registros. Se insertan por cada proceso de inserción unos
> 12000 registros.
>
>
>
> *Fran*
>
>
> 2011/2/21 Carlos Edward Grajales Marmolejo <[email protected]
> >
>
> Lo mejor para darnos cuenta que pasa, es ver la estructura de la tabla
>> destino. Aqui pueden existir muchos factiores:
>> 1. Vacuum
>> 2. Indices
>> 3. Contsraint
>> 4. Triggers sobre la tabla final.
>> 5. ....
>>
>> Que tantos datos quieres subir?
>>
>> El 21 de febrero de 2011 10:37, Miguel Angel Hernandez Moreno <
>> [email protected]> escribió:
>>
>> saludos
>>>
>>> trata de darle mantenimiento, un vacuum, posiblemente como comentaban si
>>> tu tabla esta
>>> muy saturada y un mantenimiento podria ayudarte a darle un poco de
>>> velocidad
>>>
>>> El 21 de febrero de 2011 08:24, Francisco Rodríguez <
>>> [email protected]> escribió:
>>>
>>> Bueno, el postgres lo tengo configurado de fábrica, por lo que no se si
>>>> será eso, aunque en la tabla de destino tengo dos primary keys, voy a
>>>> intentar hacerlo sin estas.
>>>>
>>>>
>>>> Un saludo y gracias.
>>>>
>>>> Francisco Rodríguez Torres
>>>>
>>>>
>>>> El 21/02/2011, a las 15:06, Manuel Fernando Aller <
>>>> [email protected]> escribió:
>>>>
>>>>
>>>> El 21 de febrero de 2011 11:01, Francisco Rodríguez 
>>>> <<[email protected]>
>>>> [email protected]> escribió:
>>>>
>>>>> Hola estoy usando dbsync para pasar datos desde mysql a postgresql. El
>>>>> caso que cuando hago el insert de unos 12000 registros va muy lento, ya 
>>>>> que
>>>>> cuando hago select mientras esta insertando lo hace a razón de 5 registros
>>>>> cada 10 segundos más o menos, ¿a que puede ser debido?
>>>>>
>>>>>
>>>>> Un saludo.
>>>>>
>>>>>
>>>>>
>>>>>
>>>> puede que la tabla donde estás insertando tenga índices, y que updatear
>>>> esos índices en cada insert sea muy costoso, puede que la tabla donde
>>>> insertas tenga referencias desde otras tablas, puede que tenga
>>>> constraints... puede ser tantas cosas... hasta un mal diseño de la
>>>> distribución de los tablespaces...
>>>>
>>>> Siempre para un bulk load, es preferible hacer 'copy', si no es posible
>>>> (en tu caso, por ejemplo) sería bueno al menos que la tabla destino no 
>>>> tenga
>>>> índices ni referencias ni constraints, (se las puedes añadir después).
>>>>
>>>> También puede ser que tengas mal configurado el postgres
>>>>
>>>> --
>>>> Manolo
>>>>
>>>>
>>>
>>>
>>> --
>>> ISC Miguel Angel Hernandez Moreno
>>>
>>>
>>
>>
>> --
>> ------------------------------------------------------------------
>>
>>
>>
>> Cordialmente,
>>
>> *Carlos Edward Grajales*
>> Colombia Software Ltda.
>> Calle 18 N No. 3N-24 Ofc.902
>> Cali - Colombia
>> www.colombiasoftware.net
>> Cel. 313 765 0594
>> Tel: (2) 489 79 40
>>
>
>


-- 
------------------------------------------------------------------



Cordialmente,

*Carlos Edward Grajales*
Colombia Software Ltda.
Calle 18 N No. 3N-24 Ofc.902
Cali - Colombia
www.colombiasoftware.net
Cel. 313 765 0594
Tel: (2) 489 79 40

Responder a