2008/8/22 Denis Klimov <[EMAIL PROTECTED]>: > On Fri, 22 Aug 2008 10:15:20 +0300 Michael Shigorin wrote: > >> On Fri, Aug 22, 2008 at 11:00:09AM +0600, Denis Klimov wrote: >> > допустим, есть две системы, которые обмениваются довольно >> > интенсивно между собой xml запросами через HTTP POST. При этом >> > возникает много установлений соединений и на это теряется >> > время.. есть ли какое то решение, не затрагивающее сами системы >> > и позволяющее созать постоянное (в идеале одно) соединение, по >> > которому и гонялись бы данные? Это бы решило проблему >> > производительности.. >> >> В чём именно выражаются проблемы производительности? >> Если не "допустим", то сколько систем коннектится и >> каков характер линков до них? >> >> (не совсем, но) nginx уже прикручен как reverse proxy, >> а то и с (включая автоугадав) php-cgi+eaccelerator? > Хорошо. конкретизирую. > Есть сайт на php он через curl обращается к другому сайту-ядру. На > каждую отдачу страницы идет около 10-15 запросов к ядру. При > тестировании производительности с помощью ab или siege всего 30 > запросов в сек. Обе системы (сайт и ядро) находятся на разных серверах. > Причем сайт - на двух под nginx'ом. и ядро на 4х серверах за nginx. > Севрера достаточно очень мощные, но и они не загружены при > тестировании. Все в объединены Gigabit-Ethernet. > > При профилировании кода с помощью xDebug было выяснено, то большая > часть времени уходит на вызовы к ядру через curl. > > Есть предложения?
использовать keep-alive?.. после чего отказаться от HTTP как транспорта... PS: Я для подобных целей использую ZeroC Ice. _______________________________________________ Sysadmins mailing list [email protected] https://lists.altlinux.org/mailman/listinfo/sysadmins
