On Viernes 23 Septiembre 2011 00:18:04 Alvaro Herrera escribió: > Excerpts from sebastian's message of jue sep 22 16:54:54 -0300 2011: > > Estimados. > > > > Espero que tenga un buen día, les escribo porque tengo un problema > > extraño, estoy insertando en una tabla de 5 columnas (bigint, > > timestamp, varchar, varchar, xml) una fila cuyo campo xml pesa entre > > 800MiB a 1.2GiB, sin embargo el INSERT de una única fila, se cae por > > memoria (he probado en un equipo con 4GiB de RAM, otro con 6GiB y un > > servidor con 8GiB, en todo se cae por memoria). > > BTW creo que en general insertar una columna de ~1 GB en una BD > relacional puede ser "como musho". Quizás deberías considerar usar una > tecnología diferente. Si fueras a tener unos pocos de esos, podría ser > manejable, pero si piensas escalar a más allá que unas pocas docenas de > registros, los temas como hacer vacuum te van a complicar mucho. > > ¿Qué diablos tienes en ese XML? ¿Realmente almacenarlo como XML es lo > más sensato?
Son datos que procesa jmeter (una historia extensa) que por requerimiento no funcional deben quedar en xml, procesar datos más pequeños resultó bastante bien, son con los datos mayores a 800MiB en donde tenemos problemas, las pruebas las realizamos sobre ubuntu lts x86_64, con los paquetes de PostgreSQL que venian en la distribución (y los backports), googleando no encontré nada muy descriptivo. Por otra parte, dado las capacidades actuales (de RAM y Almacenamiento), tener campos de más de 1GiB no me parece tan descabellado, no es razonable, pero me parece una condición posible. Gracias por la ayuda. Saludos cordiales. - Enviado a la lista de correo pgsql-es-ayuda ([email protected]) Para cambiar tu suscripci�n: http://www.postgresql.org/mailpref/pgsql-es-ayuda
