Hello, Dmitri!
You wrote on Thu, 25 Feb 2010 18:19:00 +0300:
>> (http://groups.google.com/group/ru-firebird/browse_frm/thread/b5384c2c3a
>> 73b71e) и недавней статье о террабайтной базе, значимого, в практической
DK> известно, что при prepare для определения кардинальности таблицы
DK> сервер сканирует pointer pages таблицы для определения кол-ва
DK> страниц, занимаемых таблицей.
DK> Еманов сказал что попробует каким-то образом это поправить,
DK> или что подумает над этим.
Да, эта проблема известна, ее обсуждали еще по приведенной ссылке.
Интересен уже сам доступ к данным, есть ли разница, к примеру при доступе по
PK для 100 тысячной таблицы и для миллиардной?
Быстрый(т.е. не шибко достоверный) тест (джойн справочника с таблицей
фактов) показал что время выборки _одной_ записи различается:
select count(*) from dict_table t
join giant_table g on g.id_dict = t.id_dict
-- join middle_table g on g.id_dict = t.id_dict
понятно, что пример не чистый и влиять может куча факторов. Просто
интересно, есть ли смысл продолжать что-то тестить, или действительно, есть
какие-то доп. накладаные расходы при работе(пусть просто при чтении) со
свехбольшими таблицами?
--
-=Я привык быть пунктуальным, хотя это часто обрекает меня на одиночество.=-
With best regards, Nikolay Ponomarenko