Em 29 de junho de 2017 11:35, Euler Taveira <[email protected]> escreveu: > > Em 28 de junho de 2017 22:35, Douglas Fabiano Specht < [email protected]> escreveu: >>> >>> >> Euler, >> esse valor é para cada schema 233 tabelas ou 41000 tabelas no geral de todos os schemas..? > > > É a quantidade de tabelas por execução do pg_dump. Então seria 181 schemas x 233 tabelas. >
Não é *exatamente* este valor porque o PostgreSQL cria um hash na memória compartilhada (TopMemoryContext) para alocar esses locks e o tamanho dela é definido por: max_locks_per_transaction * (max_connections + max_prepared_transactions) Quero dizer com isso que não é necessário colocar no "max_locks_per_transaction" o valor da multplicação que o Euler comentou que é demasiado e ocupara memória compartilhada sem necessidade. Em um cenário como o seu que são muitas tabelas para efetuar dump poderi então fazer o seguinte cálculo: (numero_de_tabelas / (max_connections + max_prepared_transactions)) + 64 Desta forma quando rodar o dump vc terá slots suficientes para locks e também a folga de 64 para sua aplicacao continuar funcionando... porém eis que me surge uma dúvida?? - Vc precisa fazer um dump de TODOS schemas ao mesmo tempo??? Att, -- Fabrízio de Royes Mello Timbira - http://www.timbira.com.br/ PostgreSQL: Consultoria, Desenvolvimento, Suporte 24x7 e Treinamento
_______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
