Pois é.... Além da enorme dor de cabeça para a manutenção como Flavio e Renato estão me alertando eu teria kilos de registros duplicados. Imaginem se dois cientistas resolvam estudar o mesmo gene, eu teria esse gene duplicado no meu sistema e, como o tamanho de um gene e de usuários estudando o mesmo gene podem variar consideravelmente, o sistema acumularia peta bytes ao invés de gigabytes.
Sendo assim posso abrir mão de maior compatibilidade, e alterar a estrutura de tabelas do biosql em prol de uma noite de sono melhor. Entretanto ao abrir mão da compatibilidade muita coisa pronta na praça seria incompatível com o meu sistema. Em 19 de novembro de 2012 11:32, Flávio Alves Granato <[email protected]> escreveu: > > Renato Ricci writes: > >> Conforme já foi dito, ter por exemplo 100 bancos ou até mesmo 100 schemas >> diferentes, irá lhe custar tempo para atualizar as tabelas caso você >> adicione alguma nova coluna, ou até mesmo faça alteração em alguma >> function().. pois terá que atualizar uma a uma.. a não ser que você faça >> algum script que automatize isso... >> >> Renato >> >> > > Mesmo assim levará tempo para a execução do script e pior "se" passar > alguma coisa errada no script e ter que fazer rollback do script, também > levará tempo e causará muito transtorno... > > -- > Flávio Alves Granato > gpg: 968F:A938:70B9:82C7:5198:2C74:13CB:2C25:EF1E:726D > _______________________________________________ > pgbr-geral mailing list > [email protected] > https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral _______________________________________________ pgbr-geral mailing list [email protected] https://listas.postgresql.org.br/cgi-bin/mailman/listinfo/pgbr-geral
