Tengo una tabla que tiene al rededor de 250 mil registros y pesa unos 170 mb, solamente tiene su PK
Esta tabla se consulta un promedio de 1000 veces por día al no tener indices en los que se pueda apoyar, se esta haciendo un Seq Scan. Tengo entendido que Postgres sube toda la tabla a memoria es decir 170 mb para hacer Seq Scan y si ejecuta un promedio de 1000 estaríamos, haciendo que Postgres se leyera 170 Gb, esta es la forma en que lo hace o lo hace de otra manera? La consulta demora al rededor de 0.28 segundos, aparentemente inofensiva pero esta cargando de trabajo innecesario al servidor, se creo un indice filtrado y se corrigió el problema. Cuales son los parametros para medir la carga de trabajo del servidor? Estamos en un proceso de optimización y me gustaría saber cual es la carga de trabajo antes y después. Gracias Mauricio