Muchas gracias por la idea, buscare mas por esos lados para saber que
encuentro!





On Wed, Feb 24, 2021 at 6:14 AM Horacio Miranda <hmira...@gmail.com> wrote:

>
> On 24/02/2021 6:50 am, Carlos Edward Grajales Marmolejo wrote:
>
>
> Hola buen dia.
>
> Tengo la siguiente consulta.
> Existe algun mecanismo con el que se pueda generar logs de la cantidad de
> trafico de red de entrada y/o salida que genera una base de datos en
> postgres?, me interesa optimizar aquellas consultas que generen mucho
> trafico de salida, claro siempre que se pueda.
>
> Al momento he optimizado la base datos desde los siguientes puntos de
> vista:
> 1. Consultas Lentas
> 2. Cantidad de registros devueltos por consultas.
> 3. Consultas repetitivas (uso de cache)
>
> Activa las consultas lentas en los logs, las que mueven mucho trafico se
> van a demorar mucho.
>
> Y ya estoy usando herramientas como pgbadger y pg_stat_statements para
> hacer analisis, que mas podria usar para buscar optimizaciones, y en
> particular medir el trafico de red?
>
> Pegale una mirada a alguna que recomiende indices ( en lo personal me
> gustan los reportes de indices para crear, no activarlas para que hagan lo
> que quieran estas erramientas.
>
> Sobre la red, lo unico que se me ocurre es que instales algo como
> observium y captures los traficos de salida por IP, revises las que IP que
> trafican mucho y cruzando esa información con las consultas lentas de
> pueden salir algunas que esten traficando mucho.
>
> Ahora algo que hago en Oracle es consultas largas. postgresql tiene algo
> similar tambien.
> https://til.codes/finding-long-running-sql-queries-in-postgresql/
>
>
> Gracias por su ayuda.
>
>

Reply via email to