зачем огромные ?
значение keepalive - это "запас", соединения, которые держатся подгретыми
на всякий случай.
если у вас нагрузка носит однородный характер, то они будут простаивать
26 мая 2016 г., 21:12 пользователь S.A.N
написал:
> Илья Шипицин Wrote:
>
Добрый вечер,
подскажите пожалуйста, в каких случаях нужно включать multi_accept on
и как именно он работает?
документацию читал http://nginx.org/r/multi_accept/ru
из того, что мне удалось нагуглить, ничто не проясняет ситуацию для меня:
Есть нужда передавать в хидере типа X-Aloha передавать хостней сервера, но
без site.ru.
Какие есть варианты кроме regex, map и lua?
Posted at Nginx Forum:
https://forum.nginx.org/read.php?21,267181,267181#msg-267181
___
nginx-ru mailing list
Илья Шипицин Wrote:
---
> а вы настройте keepalive между nginx и бекендами.
Да, этим и спасаемся, у нас огромные значения keepalive в upstream :)
Posted at Nginx Forum:
https://forum.nginx.org/read.php?21,266693,267180#msg-267180
а вы настройте keepalive между nginx и бекендами.
26 мая 2016 г., 16:28 пользователь S.A.N
написал:
> > Конечно, мультиплексирование в FastCGI будет легче чем в HTTP/2.
> >
> > Но само по себе мультиплексирование не является самоцелью, оно может
> > быть уместно
On Thursday 26 May 2016 15:11:06 Дмитрий Андреев wrote:
> чт, 26 мая 2016 г. в 15:20, Валентин Бартенев :
>
> > On Thursday 26 May 2016 08:04:59 Vadim Osipov wrote:
> > > location /screenshot/ {
> > > if ($request_method != GET) {
> > > proxy_pass http://127.0.0.1:8080;
чт, 26 мая 2016 г. в 15:20, Валентин Бартенев :
> On Thursday 26 May 2016 08:04:59 Vadim Osipov wrote:
> > location /screenshot/ {
> > if ($request_method != GET) {
> > proxy_pass http://127.0.0.1:8080;
> > break;
> > }
> >
> > more_clear_headers
On Thu, May 26, 2016 at 07:28:59AM -0400, S.A.N wrote:
> > Конечно, мультиплексирование в FastCGI будет легче чем в HTTP/2.
> >
> > Но само по себе мультиплексирование не является самоцелью, оно может
> > быть уместно в каких-то вычурных ситуациях (вроде исчерпания
> > сокетов),
> > которые
On Thursday 26 May 2016 08:04:59 Vadim Osipov wrote:
> location /screenshot/ {
> if ($request_method != GET) {
> proxy_pass http://127.0.0.1:8080;
> break;
> }
>
> more_clear_headers 'Content-Type';
> more_clear_headers 'Cache-Control';
Это делается с помощью
> Конечно, мультиплексирование в FastCGI будет легче чем в HTTP/2.
>
> Но само по себе мультиплексирование не является самоцелью, оно может
> быть уместно в каких-то вычурных ситуациях (вроде исчерпания
> сокетов),
> которые на самом деле разруливаются другими методами.
Подскажите где
On Thursday 26 May 2016 06:17:00 Vadim Osipov wrote:
> Новые подробности. Благодаря советам, решил попытаться дать такую нагрузку
> на nginx, чтобы потом заsegfault-ив memcached, попытаться смоделировать у
> проблему у клиента. Однако, заинтересовала ситуация, возможно, подобная
> тому, что есть у
Vadim Osipov Wrote:
---
> Новые подробности. Благодаря советам, решил попытаться дать такую
> upstream memcached_cluster {
> server 10.197.162.35:11211;# <-- такого memcached нету
> либо он не запущен (или упал, завис как в случае
Спасибо. Появились некоторые новые детали, которые, возможно, будут
интересны вам.
Posted at Nginx Forum:
https://forum.nginx.org/read.php?21,267049,267160#msg-267160
___
nginx-ru mailing list
nginx-ru@nginx.org
Новые подробности. Благодаря советам, решил попытаться дать такую нагрузку
на nginx, чтобы потом заsegfault-ив memcached, попытаться смоделировать у
проблему у клиента. Однако, заинтересовала ситуация, возможно, подобная
тому, что есть у клиента, по меньшей мере, по загрузке CPU и косвенным
14 matches
Mail list logo