Tengo una tabla que tiene al rededor de 250 mil registros y pesa unos 170 mb, 
solamente tiene su PK

Esta tabla se consulta un promedio de 1000 veces por día al no tener indices en 
los que se pueda apoyar, se esta haciendo un Seq Scan.

Tengo entendido que Postgres sube toda la tabla a memoria es decir 170 mb para 
hacer Seq Scan y si ejecuta un promedio de 1000 estaríamos, haciendo que  
Postgres se leyera 170 Gb, esta es la forma en que lo hace o lo hace de otra 
manera?

La consulta demora al rededor de 0.28 segundos, aparentemente inofensiva pero 
esta cargando de trabajo innecesario al servidor, se  creo un indice filtrado y 
se corrigió el problema.

Cuales son los parametros para medir la carga de trabajo del servidor?

Estamos en un proceso de optimización y me gustaría saber cual es la carga de 
trabajo antes y después.

Gracias 
Mauricio

Reply via email to