Hello, Nikolay!

Nikolay Ponomarenko wrote:

Одна сторона утверждает, что сверхбольшие (>100млн) таблицы зло, и даже доступ по чтению, по индексу, из за его размера, значительно деградирует в сравнении с обычными таблицами, к примеру 100 тысячниками.

На мой взгляд, который правда базируется только на синтетических собственных тестах (http://groups.google.com/group/ru-firebird/browse_frm/thread/b5384c2c3a73b71e) и недавней статье о террабайтной базе, значимого, в практической работе, ухудшения производительности быть не должно.


Может ли кто описать, какие нетипичные затраты могут возникать при работе с огромными таблицами? Значимы ли эти затраты в практической работе?

при тесте 1тб базы было замечено следующее -
известно, что при prepare для определения кардинальности таблицы
сервер сканирует pointer pages таблицы для определения кол-ва
страниц, занимаемых таблицей.
Так вот, в тесте 1тб таблицы были "размазаны" по базе, в результате
чего (и их объема) prepare длился до ~50 секунд на самых больших
таблицах (сколько гиг там у же не помню).
Еманов сказал что попробует каким-то образом это поправить,
или что подумает над этим.

--
Dmitri Kouzmenko, www.ibase.ru, (495) 953-13-34


Ответить