2012/1/7 maureen duque <[email protected]>:
>
> Me encuentro en un desarrollo Web en donde se estima la creación de tablas
> en postgresql que almacenarán alrededor de 120 millones de registros.

por politica propia dudo de cualquier estimado que me presenten...
como llegaron a concluir cuantos registros llegaran a haber?

> ¿Que experiencia previa tienen en relación al asunto?
> Se usará un sistema Debian 6.0 como servidor. Pero quisiera saber algunas
> cosas en relación al tipo de sistema de archivos subyacente recomendado
> (ReiserFS, XFS... etc)

si usas ext3 desactiva el jurnalling para el xlog y para los datos
dejalo en ordered, o usa xfs

> ¿es recomendable el particionamiento de  tablas?

depende de la situacion

> ¿que tipo de indices debo usar?

depende de la situacion

> ¿que tareas de mantenimiento deben realizarse?

vacuum y analyze; de preferencia configura bien el autovacuum

> ¿Realmente está postgresql preparado para almacenar tal cantidad de datos y
> ejecutar operaciones OLTP sobre dichas enormes tablas?
>

si

un consejo: siempre guiate bajo la premisa de que la optimizacion
adelantada es la raíz de todos los males... es decir, no trate de
optimizar antes de saber que problemas realmente vas a tener, si lo
haces terminaras con soluciones a problemas que no tuviste y con
problemas reales sin solucion... o peor aun, con soluciones que
provocan mas problemas de los que solucionan

-- 
Jaime Casanova         www.2ndQuadrant.com
Professional PostgreSQL: Soporte 24x7 y capacitación
-
Enviado a la lista de correo pgsql-es-ayuda ([email protected])
Para cambiar tu suscripción:
http://www.postgresql.org/mailpref/pgsql-es-ayuda

Responder a