> On 15/10/2019, at 5:10 AM, Carlos T. Groero Carmona <cton...@gmail.com> wrote:
> 
> 
> 
> On Mon, Oct 14, 2019 at 10:59 AM Horacio Miranda <hmira...@gmail.com 
> <mailto:hmira...@gmail.com>> wrote:
> 
> 
>> On 15/10/2019, at 4:49 AM, Carlos T. Groero Carmona <cton...@gmail.com 
>> <mailto:cton...@gmail.com>> wrote:
>> 
>> Hola Horacio como siempre agradecido por tus comentarios, mis respuestas las 
>> encontraras en rojo
> 
> Hola si usas New Relic, instalaste el agente del S.O. ? para monitorear los 
> IO de los discos ? Si, tengo intalado el agente y tambien un plugin para 
> integrar y monitorear postgres y pgbouncer, estuve usando New Relic durante 
> todo el tiempo que pg_basebackup estuvo corriendo
Si esta instalado que te dicen los graficos de latencia de los discos y revisa 
si el vacuum estaba corriendo o esta de forma automatica. puede que sea mejor 
desactivarlo y activarlo en la noche solamente o en baja carga.
> 
> de casualidad has corrido el defrag del XFS ? No que yo sepa, el DC fue quien 
> monto y creo que el servidor y nosotros solo lo rentamos, tengo un hermano 
> del sevidor donde corry el pg_basebackup que no estoy usando ahora mismo, asi 
> que si me das mas detalles puedo correrlo ahi.

Ahh ahora entiendo, le llamar DC al Data Center y no Active Directory ( esa 
parte me tenia confundido ), el XFS defrag puede que no se haya corrido nunca. 
que te dice el comando, multipath -ll

Que tipo de discos tienes ? mecanicos/ssd ,son multipath ? 

> 
> Sobre bajar la cantidad de los discos en RAID 10 ( es mi idea o estas usando 
> raid por software ? ).  Las maquinas de producción deben ser discos con raid 
> por hardware.
> NOTA: En arreglos de discos grandes en un sistema de 500 TB hice unas pruebas 
> y el cache termine desactivandolo, bajo IO intenso el cache era el cuello de 
> botella. Disculpa, creo qu eno me explique, cuando te hacia la pregunta sobre 
> los discos, como te comente estamos moviendonos hacia Azure, ali voy a 
> utilizar VMs y yo voy a administrar mis discos, no puedo usar RAID 10, asi 
> que solo puedo crear un volumen l'ogico stripped que practicamente suma los 
> I/O y el throughput como si fuera un solo disco, es decir si tengo los 5 
> discos con los datos que te comentae, tendria un solo volumen logico stripped 
> como 2500*5 the I/O y 250 MB/s*5 the troughput, ahi tendria a postgres 
> corriendo, por lo que tendria data, pg_xlog, en fin todo lo de postgres, la 
> otra recomendacion que me hacen es separar discos un volumen de solo 4 discos 
> para pg_data y otro disco para pg_xlog.
> 
> Voy a preguntar si el Raid es por software or hardware.

Debe ser por hardware, AWS y Azure son plataformas comerciales con storage 
distribuidos a menos que compres los tiempos de un bare metal.

Hace pruebas, los discos LVM debes tener en cuenta que si crear stripe 5, 
cuando crescas debes crecer de a 5 discos.

NOTA Insisto que cuando tengas el problema de rendimiento saca un sosreport o 
un comando equivalente que saque una Foto del S.O.

> 
>  
> Cuando estes haciendo el proceso saca un sosreport ( es una foto al S.O. con 
> todo lo necesario para diargnosticar la maquina, RedHat lo usar para 
> diagnosticos de hecho ).
> 
>> 
>> On Mon, Oct 14, 2019 at 12:19 AM Horacio Miranda <hmira...@gmail.com 
>> <mailto:hmira...@gmail.com>> wrote:
>> 
>> On 13/10/2019 1:19 PM, Carlos T. Groero Carmona wrote:
>> > Hola Lista,
>> Hola
>> >
>> > Dejenme introducir un porquito lo que esta pasando, en estos momentos 
>> > estamos usando un DC, pero estamos estamos dando algunos pasos firmes 
>> > para movernos para Azure, por lo que tengo 4 servidores en production 
>> > y 3 mas en hold.
>> >
>> > Que significa esto:
>> > serv1 es mi servidor primario (location 1)
>> > serv2 es mi HA (location 1)
>> > serv3 va a ser mi servidor primario en Azure (Location 2)
>> > serv4 es mi DR (location3)
>> >
>> > Estoy replicando (SR) desde :
>> > * serv1->serv2
>> > Estoy Cascading replication:
>> > * serv2->serv3
>> > * serv2->serv4
>> >
>> > Pero cuando teniamos graves incidentes (P1) hace unos meses, se 
>> > decidio rentar servidores nuevos con mayor capacidad, y por otras 
>> > rasones se exagero en la capidad, los nuevos servidores tienen:
>> > CPU: 114 (74 cores, 2 Thread per Core)
>> > RAM: 790 Gb
>> > Disk 10 TB (RAID 10)
>> > OS: CentOS 7.x
>> >
>> > Mi actual servidor primario tiene:
>> > CPU: 48 (24 Cores * 2 thread)
>> > RAM: 790 GB
>> > Disk 5TB (RAID 10)
>> > OS: CentOS 7.x
>> >
>> > En todos los casos uso PostgreSQL 9.6
>> >
>> > En estos momentos estamos estables gracias a la correcta configuration 
>> > de pgBouncer y solo en los momentos picos alcanzamos un 60% del uso 
>> > del CPU, nuestro average es un 45%, asi que no se necesita utilizar 
>> > los nuevos servidores, PERO, se ha decido ponerlos en hot standby por 
>> > si se llega a necesitar en un futuro cercano, ya que como quiera se 
>> > esta pagando por ellos.
>> >
>> > Asi que intente poner uno de estos nuevos servidores detrás de serv2 y 
>> > se vio affectado el tiempo de respuesta del sistema, trate de ponerlo 
>> > detras de serv1 y fue peor la affectation, en todo momento apenas que 
>> > pg_basebackup empezo a copiar los datos se disparo el % de utilizaicon 
>> > de l disco en serv1 o serv2 asi que detuve el pg_basebackup.
>> 
>> ( estas usando compresion en los respaldos ? ), estas usando un arreglo 
>> distindo al arreglo de discos de los datos vs los respaldos ?
>> 
>> Que te dice la cola de procesos y la los IO waits ?  del S.O. ? estas 
>> usando XFS  como filesystem ?
>> 
>> >
>> > En un escenario pues lo deje correr detras de serv2 porque se affecto 
>> > el tiempo de respuesta de postgres serca de 3 veces mas pero no 
>> > impacto mucho el tiempo de respuesta del sistema, una vez que termino 
>> > el pg_basebackup todo funciono correctamente y el tiempo de respuesta 
>> > del sistema regreso a su normalidad.
>> A que te refieres con que afecto el tiempo de respuetsa de postgresql a 
>> 3 veces pero al mismo tiempo no impacto el tiempo de respuesta del 
>> sistema ?  Yo uso New Relic para monitorear todo el sistema y tambien uso el 
>> New Relic Postgres Integration Plugin, antes de empezar el pg_basebackup el 
>> tiempo de respuesta por request de postgres era 1.96 ms y cuando el 
>> pg_basebackup encontro el checkpoint y empezo a copiar los archivos el 
>> tiempo de respuesta aumento a 489ms per request ( me tinca que tienes una 
>> cola en algun lado que esta 
>> limitando el postgresql ), como estan tus parametros de open files ? 
>> cuanta RAM tienes asignada al postgrsql ? y cuantos procesos al 
>> postrgesql ?
>>  Durante el tiempo en que se ejecuto el pg_basebackup estaba monitoreando 
>> todo, pgbouncer pool, Tiempo de Respuesta del sistema, tiempo de respuesta 
>> de postgres, utilizacion de discos, RAM, CPU en mi servidor primario y mi 
>> servidor secundario del cual se estaban copiando los archivos.
>> CPU: el uso del CPU en ambos servidores estaban or debajo del uso promedio
>> Pgbouncer pool: el numero de clientes activos aumentaba al mismo tiempo el 
>> tiempo de respuesta de todo el systema aumentaba
>> Ram: no se vio affectada
>> Discos: el uso de disco en el servidor secundario aumento considerablemente 
>> (de este servidor es de donde yo estaba copiando los archivos con el 
>> ph_basebackup), cuando aumentaba el uso del disco en el servidor secundario 
>> entonces aumentaba el tiempo de respuesta tambien. Los discos del sevidor 
>> primario no se vio afectado.
>> 
>> Esos servidores tienen 790GB of RAM, asi que le tengo asignada alrededor del 
>> 30%
>> 
>> Algo que debo resaltar, es cuando use pg_basebackup anteriormente, este 
>> necesito alrededor de 18 horas para terminar, sin embargo ahora lo hizo solo 
>> en 8 horas y medias, casi la mitad del tiempo y ahora tengo mas data que 
>> cuando pg_basebackup necesito mas tiempo,  lo qu eme hace pensar que como el 
>> servidor que esta copiando tiene 3 veces mas CPU que el servidor del cual se 
>> esta copiando esto afecta mas drasticamente el comportamiento de esos 
>> servidores.
>> 
>> >
>> > Mi hypotesis es que el monstrou de servidor nuevo esta chupandose todo 
>> > el I/O a traves de pg_basebackup. Tienen ustedes alguna otra idea?
>> Que te dice el top ? lo mejor es correr un sysreport o sosreport para 
>> saber que esta pasando justo en el momento de la falla o durante tu 
>> problema para saber que esta pasando en la maquina.
>> >
>> > Si tienen alguna pregunta dejenme saber, tengo ulgunas imagenes de mi 
>> > herramienta de monitoreo..
>> >
>> > Lo curioso es que las TPS no se vieron afectadas ni las queries por 
>> > segundo.
>> Esto no lo entiendo, si el postrgresql esta mas lento tus TPS se veran 
>> afectadas, esto esta raro. Estuve monitoriando el TPS que estaban pasando y 
>> comparandolas con las de la semana anterior utilizando un Chart, por lo que 
>> podia ver el comportamiento que tenia el sistema con el que tubo al mismo 
>> tiempo una semana anterior, y si decrecio un poco las TPS pero no 
>> drasticamente.
>> >
>> > Como siempre cualquier sugerencia o explicacion sera apreciada.
>> 
>> En mi experiencia con bases de datos grandes, lo importante son los 
>> canales entre las maquinas y el cypher que uses para conectarte entre 
>> las bases de datos. Ejemplo sí usas un tunel SSH debes usar un tunel con 
>> un cypher que no sea costoso, uncluso un NFS ( ahora los NFS son 
>> peligrosos por que cuando se te pegan a nivel de kernel debes reiniciar 
>> las maquinas no hay otra forma de recuperarse, NFSv4 soporta multipath.
>> 
>> yo revisaría los cuellos de botellas que tengas y los arreglaría uno por 
>> uno, no hay otra forma, optimiza y estreza para saber donde esta tu 
>> cuello de botella. En estos momento diria que mi cuello de botella estaria 
>> en los discos, porque es cierto que tengo RAID 10, pero los discos 
>> utilizados quizas eran de 1GB con bajos I/O y throughput, pero eso es algo 
>> que no podre arreglar por ahora.   Todos los servidores usan XFS en los 
>> discos donde postgres tiene Data Directory
>> 
>> Horacio, una pregunta, supon que tienen 5 discos para postgres cierto, yo 
>> estoy pensando en crear un volumen logico stripped y tener todo lo de 
>> postgres ahi, sin embargo, hay personas que me estan recomendando utilizar 
>> quizas 4 para pg_data y uno para pg_xlog, creo que dividiendo los discos voy 
>> a perder I/O y Throughput, todos los discos son iguales 2TB cada uno con 
>> 2500 I/O y 250 MB/s throughput. Cual es tu opinion?  
>> >
>> > Saludos,
>> > Carlos
>> >
> 

Reply via email to