5 августа 2012 г., 15:06 пользователь Михаил Монашёв < [email protected]> написал:
> Здравствуйте, Andrei. > > > Я сначала хотел порекомендовать прокачать железо, в частности диски, > > но теперь я вижу, что проблема может быть решена немножко иначе. > > Если один процесс обновляет много записей, то имеет смысл объединять > > много мелких запросов в один. Если же это не тот случай, то можно > > рассмотреть вариант некого сервиса, который будет получать данные от > > разных процессов, объединять их в большие запросы и скармливать > > мускулу. Или нескольким мускулам. Сеть, конечно, должна быть > > толстой. > > Железо лучше не бывает, сеть 2Г/с. Группировка нескольких инсертов в > один реализована, но это нечего не менят, ведь на диск писаться меньше > данных не начинает и сами они тормозить не перестают. > Вопрос не в том, сколько данных записывается, а в том, как часто. Я бы сказал, что не меньше одной-две тысячи записей за запрос может сильно упростить жизнь. Опять же можно поиграться с размером пакета, т.е. сделать так, чтобы запрос помещался в один пакет, чтобы мускул не ждал пока запрос соберётся из нескольких, прежде чем его распарсить. Т.е. если данных много, и запрос в пакет не вмещается, то разбить такой запрос на несколько. -- Andrei Protasovitski < andrei[dot]protasovitski[at]gmail[dot]com > Diemen, Netherlands
-- Moscow.pm mailing list [email protected] | http://moscow.pm.org
