pg_dump -b -O -Fc -Z 1 -v -f FICHEROSALIDA BBDD
El 20 de septiembre de 2012 23:45, Sergio Gabriel Rodriguez <
sgrodrig...@gmail.com> escribió:
> 2012/9/20 Cesar Martin
>
>> Hola Sergio,
>>
>> Yo tengo un entorno parecido (BBDD de 300GB) y mi solución para que los
>> dumps tarden poco ha sido met
2012/9/20 Cesar Martin
> Hola Sergio,
>
> Yo tengo un entorno parecido (BBDD de 300GB) y mi solución para que los
> dumps tarden poco ha sido meterles poca compresión (-Z 1), aunque el dump
> resultante sera un poco mas grande, el tiempo en mi caso se redujo de 5h a
> solo 2,5h.
>
Gracias Cesar,
Excerpts from Alvaro Herrera's message of jue sep 20 10:53:39 -0300 2012:
> Excerpts from Sergio Gabriel Rodriguez's message of jue sep 20 09:04:46 -0300
> 2012:
>
> > Nuestra base de datos de produccion, postgres 8.4 tiene un tamaño
> > aproximado de 200 GB, la mayoría de los datos son large obj
Hola Sergio,
Yo tengo un entorno parecido (BBDD de 300GB) y mi solución para que los
dumps tarden poco ha sido meterles poca compresión (-Z 1), aunque el dump
resultante sera un poco mas grande, el tiempo en mi caso se redujo de 5h a
solo 2,5h.
También puedes ver que no haya ninguna consulta bloqu
Excerpts from Sergio Gabriel Rodriguez's message of jue sep 20 09:04:46 -0300
2012:
> Nuestra base de datos de produccion, postgres 8.4 tiene un tamaño
> aproximado de 200 GB, la mayoría de los datos son large objects (174 GB),
> hasta hace algunos meses utilizábamos pg_dump para realizar los bac
>
>
> Has probado hacer salvas incremental???
>
> También puedes tener duplicado tus servidores, justo eso de da cierta
> garantía de no perder la información.
>
>
Asi es Gilberto y estamos en eso, pero también nos interesaría saber el
origen o causa de este problema..
2012/9/20 Lazáro Rubén García Martínez
> Mi sugerencia es que instales el módulo lo y vacuumlo. Con el módulo lo
> puedes crear triggers sobre aquellas tablas que utilicen objetos largos, y
> cuando una tupla de estas tablas sea eliminada, serán eliminados los large
> objets que eran referenciado
Mi sugerencia es que instales el módulo lo y vacuumlo. Con el módulo lo puedes
crear triggers sobre aquellas tablas que utilicen objetos largos, y cuando una
tupla de estas tablas sea eliminada, serán eliminados los large objets que eran
referenciados. Lo que sucede, como por ejemplo en java, es
> Hola lista,
>
> Nuestra base de datos de produccion, postgres 8.4 tiene un tamaño
> aproximado de 200 GB, la mayoría de los datos son large objects (174 GB),
> hasta hace algunos meses utilizábamos pg_dump para realizar los backups,
> tomaba alrededor de 3 - 4 horas realizar todo el proceso. Ha