Hola Jaime, Antes que todo muchas gracias por responder mi correo.
Revisé tu teoria y parece bastante certera, sin embargo, nosotros ejecutamos cada noche vacuumdb con la opcion de analyze a todas las base de datos existentes en el servidor incluyendo las base de datos postgres, template0 y template1. Pocas horas antes de ejecutar el insert para copiar las filas ejecutamos manualmente ese cronjob de vacuumdb. Revise los logs de la ultima semana completa buscando por la palabra wraparound y solo aparecio el dia que reiniciamos el servidor con el mensaje: "MultiXact member wraparound protection are now enabled", es decir no se ejecuto un autovacuum forzado para eliminar ese gran peligro. La version de postgres que estoy usando es la 9.6.19 Revise de nuevo y estamos perdiendo alrededor de 4500 rows de las copiadas cada hora, y perdimos 55 mil 400 y algo mas en 23 hours. La data no se ha perdido porque la tengo en una tabla en el servidor y en backup, pero si no logrp solucionar este problema voy a tener que rollback el cambio que hice. El problema es que esta haciendo que esos datos desaparescan y como puedo parar que sigan desapareciendo, si logro hacer eso puedo copiar los datos desaparecidos de nuevo... He estado buscando pero es un caso muy particular y no he encontrado ninguna informacion asi que cualquier idea o sugerencia sera muy agradecida. Saludos, Carlos