Hello, Dmitri!
You wrote  on Thu, 25 Feb 2010 18:19:00 +0300:

>> (http://groups.google.com/group/ru-firebird/browse_frm/thread/b5384c2c3a
>> 73b71e) и недавней статье о террабайтной базе, значимого, в практической

DK> известно, что при prepare для определения кардинальности таблицы
DK> сервер сканирует pointer pages таблицы для определения кол-ва
DK> страниц, занимаемых таблицей.
DK> Еманов сказал что попробует каким-то образом это поправить,
DK> или что подумает над этим.

Да, эта проблема известна, ее обсуждали еще по приведенной ссылке.
Интересен уже сам доступ к данным, есть ли разница, к примеру при доступе по PK для 100 тысячной таблицы и для миллиардной?

Быстрый(т.е. не шибко достоверный) тест (джойн справочника с таблицей фактов) показал что время выборки _одной_ записи различается:

select count(*) from dict_table t
join giant_table g on g.id_dict = t.id_dict
-- join middle_table g on g.id_dict = t.id_dict

понятно, что пример не чистый и влиять может куча факторов. Просто интересно, есть ли смысл продолжать что-то тестить, или действительно, есть какие-то доп. накладаные расходы при работе(пусть просто при чтении) со свехбольшими таблицами?

--
-=Я привык быть пунктуальным, хотя это часто обрекает меня на одиночество.=-
With best regards, Nikolay Ponomarenko

Ответить