recomiendo intente un vacuum full. interesante articulo que hace una analogía:
http://rhaas.blogspot.com/2014/03/vacuum-full-doesnt-mean-vacuum-but.html?m=1 El 7 de marzo de 2014, 11:03, William Diaz Pabón <[email protected]>escribió: > Bueno les comento como va el tema. > > Ya hice lo que me indicó Alvaro y me di cuenta que por el tamaño de la > tabla (que esta en 14 GB con la verificación de espacio que me indicó > Jaime) si le creo los indices que tenia se incrementa enormemente el tamaño > de la base de datos, entonces por ahora los deje sin indices, solo con la > llame primaria. > > Sin los indices que borre y dejando funcionando la llave primaria bajo el > tamaño de la BD de 40GB a 25GB. > > Existe alguna otra forma que pueda hacer con esta tabla enorme, pues los > indices me ayudan para unas consultas que hago sobre esta tabla. > > Gracias a todos por sus aportes, me han sido de mucha utilidad. > > > El 6 de marzo de 2014, 22:26, Alvaro Herrera > <[email protected]>escribió: > > William Diaz Pabón escribió: >> > Jaime estos son los datos que tus pasos: >> > >> > n_live_tup: 84676478 >> > n_dead_tup: 514363 >> > >> > reltuples: 84676500 >> > relpages: 1869958 >> > >> > tamanio_registro: 174.6132663041931033 >> > >> > n_live_tup * tamanio_registro = 14785636402.7151486193341774 >> > >> > count(*): 84126595 -- este count se demoró 210746 ms >> >> Tu dump de 2 GB está mal, o bien está comprimido y comprime muy bien. >> En otras palabras, yo creo que tienes mucho más datos que los que crees >> que tienes. >> >> Lo que necesitas no es hacer ninguna limpieza extraordinaria, sino >> comprar más disco. >> >> -- >> Álvaro Herrera http://www.2ndQuadrant.com/ >> PostgreSQL Development, 24x7 Support, Training & Services >> > > > > -- > Éxitos. > > Cordialmente, > > > *William Diaz Pabón* > > *, Especialista en Soluciones Informáticas* > > Bogotá, Colombia > Tel: +57 (300) 3917774 > > http://planetapleno.blogspot.com/ > http://tutorialestecnicos.blogspot.com/ > -- Raul Andres Gutierrez Alejo
