On Viernes 23 Septiembre 2011 00:18:04 Alvaro Herrera escribió:
> Excerpts from sebastian's message of jue sep 22 16:54:54 -0300 
2011:
> > Estimados.
> > 
> > Espero que tenga un buen día, les escribo porque tengo un 
problema
> > extraño, estoy insertando en una tabla de 5 columnas (bigint,
> > timestamp, varchar, varchar, xml) una fila cuyo campo xml pesa 
entre
> > 800MiB a 1.2GiB, sin embargo el INSERT de una única fila, se cae 
por
> > memoria (he probado en un equipo con 4GiB de RAM, otro con 
6GiB y un
> > servidor con 8GiB, en todo se cae por memoria).
> 
> BTW creo que en general insertar una columna de ~1 GB en una BD
> relacional puede ser "como musho".  Quizás deberías considerar 
usar una
> tecnología diferente.  Si fueras a tener unos pocos de esos, podría 
ser
> manejable, pero si piensas escalar a más allá que unas pocas 
docenas de
> registros, los temas como hacer vacuum te van a complicar mucho.
> 
> ¿Qué diablos tienes en ese XML?  ¿Realmente almacenarlo como XML 
es lo
> más sensato?

Son datos que procesa jmeter (una historia extensa) que por 
requerimiento no funcional deben quedar en xml, procesar datos más 
pequeños resultó bastante bien, son con los datos mayores a 800MiB 
en donde tenemos problemas, las pruebas las realizamos sobre 
ubuntu lts x86_64, con los paquetes de PostgreSQL que venian en la 
distribución (y los backports), googleando no encontré nada muy 
descriptivo.
Por otra parte, dado las capacidades actuales (de RAM y 
Almacenamiento), tener campos de más de 1GiB no me parece tan 
descabellado, no es razonable, pero me parece una condición 
posible.

Gracias por la ayuda.
Saludos cordiales.
-
Enviado a la lista de correo pgsql-es-ayuda ([email protected])
Para cambiar tu suscripci�n:
http://www.postgresql.org/mailpref/pgsql-es-ayuda

Responder a