Hello, Nikolay!
Nikolay Ponomarenko wrote:
Одна сторона утверждает, что сверхбольшие (>100млн) таблицы зло, и даже
доступ по чтению, по индексу, из за его размера, значительно деградирует
в сравнении с обычными таблицами, к примеру 100 тысячниками.
На мой взгляд, который правда базируется только на синтетических
собственных тестах
(http://groups.google.com/group/ru-firebird/browse_frm/thread/b5384c2c3a73b71e)
и недавней статье о террабайтной базе, значимого, в практической работе,
ухудшения производительности быть не должно.
Может ли кто описать, какие нетипичные затраты могут возникать при
работе с огромными таблицами? Значимы ли эти затраты в практической
работе?
при тесте 1тб базы было замечено следующее -
известно, что при prepare для определения кардинальности таблицы
сервер сканирует pointer pages таблицы для определения кол-ва
страниц, занимаемых таблицей.
Так вот, в тесте 1тб таблицы были "размазаны" по базе, в результате
чего (и их объема) prepare длился до ~50 секунд на самых больших
таблицах (сколько гиг там у же не помню).
Еманов сказал что попробует каким-то образом это поправить,
или что подумает над этим.
--
Dmitri Kouzmenko, www.ibase.ru, (495) 953-13-34