Muchas gracias por la idea, buscare mas por esos lados para saber que encuentro!
On Wed, Feb 24, 2021 at 6:14 AM Horacio Miranda <hmira...@gmail.com> wrote: > > On 24/02/2021 6:50 am, Carlos Edward Grajales Marmolejo wrote: > > > Hola buen dia. > > Tengo la siguiente consulta. > Existe algun mecanismo con el que se pueda generar logs de la cantidad de > trafico de red de entrada y/o salida que genera una base de datos en > postgres?, me interesa optimizar aquellas consultas que generen mucho > trafico de salida, claro siempre que se pueda. > > Al momento he optimizado la base datos desde los siguientes puntos de > vista: > 1. Consultas Lentas > 2. Cantidad de registros devueltos por consultas. > 3. Consultas repetitivas (uso de cache) > > Activa las consultas lentas en los logs, las que mueven mucho trafico se > van a demorar mucho. > > Y ya estoy usando herramientas como pgbadger y pg_stat_statements para > hacer analisis, que mas podria usar para buscar optimizaciones, y en > particular medir el trafico de red? > > Pegale una mirada a alguna que recomiende indices ( en lo personal me > gustan los reportes de indices para crear, no activarlas para que hagan lo > que quieran estas erramientas. > > Sobre la red, lo unico que se me ocurre es que instales algo como > observium y captures los traficos de salida por IP, revises las que IP que > trafican mucho y cruzando esa información con las consultas lentas de > pueden salir algunas que esten traficando mucho. > > Ahora algo que hago en Oracle es consultas largas. postgresql tiene algo > similar tambien. > https://til.codes/finding-long-running-sql-queries-in-postgresql/ > > > Gracias por su ayuda. > >