Re: Статика с поддомена

2014-10-28 Пенетрантность Dmitriy Lyalyuev

Добрый день.

Симлинки в sites-enabled сделали?


28.10.2014 13:12, Zarus пишет:

Здравствуйте , пробую сделать раздачу статики с поддомена , не получаеться в
чем может быть ошибка ? Спасибо
в sites-available создал
static.mysite
server {

 server_name static.mysite.ru;

 location / {
 root /home/www/public/images;

 }
}

mysite

   server {
 set $mysite_root /home/www/mysite/public;
listen mysite.ru;
 server_name mysite.ru;
 root $mysite_root;
 }

Posted at Nginx Forum: 
http://forum.nginx.org/read.php?21,254340,254340#msg-254340

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru




smime.p7s
Description: Криптографическая подпись S/MIME
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Статика с поддомена

2014-10-28 Пенетрантность Zarus
Да симлинк в sites-enabled сделан , права выставленны

Posted at Nginx Forum: 
http://forum.nginx.org/read.php?21,254340,254342#msg-254342

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Статика с поддомена

2014-10-28 Пенетрантность Валентин Бартенев
On Tuesday 28 October 2014 07:12:16 Zarus wrote:
 Здравствуйте , пробую сделать раздачу статики с поддомена , не получаеться в
 чем может быть ошибка ? Спасибо

Что именно не получается?


[..]
 mysite
 
   server {
 set $mysite_root /home/www/mysite/public;
   listen mysite.ru;
 server_name mysite.ru;
 root $mysite_root;
 }
 

Не надо так делать.

Правильно:

  root /home/www/mysite/public;

--
Валентин Бартенев
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Статика с поддомена

2014-10-28 Пенетрантность Zarus
После конфигурации , static.mysite.ru/image.png . не доступно

Posted at Nginx Forum: 
http://forum.nginx.org/read.php?21,254340,254344#msg-254344

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: nginx environment directives

2014-10-28 Пенетрантность Maxim Dounin
Hello!

On Tue, Oct 28, 2014 at 04:21:53AM +0300, S L wrote:

 Mon, 27 Oct 2014 19:23:17 +0300 от Maxim Dounin mdou...@mdounin.ru:
 Hello!
 
 On Fri, Oct 24, 2014 at 03:11:03PM +0400, S L wrote:
 
   где это опция сборки? В апаче? вот что это за опция... и она на запуск, а 
  не на сборку.
    -D name    : define a name for use in IfDefine name directives
 
 Если вы передаёте -DOPENSSL_NO_HEARTBEATS Апачу при запуске - то 
 оно ничего полезного не делает, кроме как позволяет проверить 
 соответствующее имя конфигах.
 
 Если вопрос на самом деле про то, как сделать в nginx'е 
 конфигурацию, зависящую от переменных окружения, т.е. какой-либо 
 аналог директивы IfDefine в Апаче, то ответ - использовать 
 любимый шаблонизатор, например make + sed.
 
 Если вопрос про то, как защититься от атак в связи с уязвимостью 
 Heartbleed, то ответ - обновить OpenSSL.  (В крайнем случае - 
 пересобрать OpenSSL с соответствующей опцией, но лучше так не 
 делать, ибо и других дырок хватает.)
 
 Если вопрос про то, как запретить OpenSSL'ю использование 
 расширения Heartbeat (на всякий случай, вдруг там ещё где грабли), 
 то ответ - собрать OpenSSL с соответствующей опцией.
 А если у меня бинарный дистрибутив, то опцию никак нельзя выключить?

Никак.

-- 
Maxim Dounin
http://nginx.org/

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Статика с поддомена

2014-10-28 Пенетрантность Валентин Бартенев
On Tuesday 28 October 2014 08:26:00 Zarus wrote:
 После конфигурации , static.mysite.ru/image.png . не доступно
 

Что понимается под не доступно? Ничего не возвращается? Возвращается ошибка? 
Если ошибка, то какая? Что в логе ошибок при этом?

--
Валентин Бартенев
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

nginx-1.7.7

2014-10-28 Пенетрантность Maxim Dounin
Изменения в nginx 1.7.7   28.10.2014

*) Изменение: теперь nginx учитывает при кэшировании строку Vary в
   заголовке ответа бэкенда.

*) Добавление: директивы proxy_force_ranges, fastcgi_force_ranges,
   scgi_force_ranges и uwsgi_force_ranges.

*) Добавление: директивы proxy_limit_rate, fastcgi_limit_rate,
   scgi_limit_rate и uwsgi_limit_rate.

*) Добавление: параметр Vary директив proxy_ignore_headers,
   fastcgi_ignore_headers, scgi_ignore_headers и uwsgi_ignore_headers.

*) Исправление: последняя часть ответа, полученного от бэкенда при
   небуферизированном проксировании, могла не отправляться клиенту, если
   использовались директивы gzip или gunzip.

*) Исправление: в директиве proxy_cache_revalidate.
   Спасибо Piotr Sikora.

*) Исправление: в обработке ошибок.
   Спасибо Yichun Zhang и Даниилу Бондареву.

*) Исправление: в директивах proxy_next_upstream_tries и
   proxy_next_upstream_timeout.
   Спасибо Feng Gu.

*) Исправление: nginx/Windows не собирался с MinGW-w64 gcc.
   Спасибо Kouhei Sutou.


-- 
Maxim Dounin
http://nginx.org/en/donation.html

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Корректная работа с tomcat deploy

2014-10-28 Пенетрантность Никита Кардашин
Привет всем,

Каким образом можно корректно работать с tomcat-upstream, который
используется для java-приложения, deploy которого занимает несколько минут?

Среда:
На входе стоит nginx proxy, в котором настроено n апстримов в режиме
round-robin с max_fail=1. За ним - n серверов приложений, на которых
работает Apache Tomcat, в котором работает java-приложение.

Если падает один из серверов приложений - все прекрасно, nginx стучится к
нему, получает 500/502 и выкидывает апстрим из списка доступных на заданное
время и рероутит запрос на другой апстрим. Пользователь проблемы не видит.
Но это если упало совсем. Если не упало, а зависло или ушло в re-deploy
(либо мы сами стартовали re-deploy) - возникает проблема.

Проблема:
Деплой java-приложения в случае краша или обновления занимает несколько
минут (в особо злом случае - до десяти). Томкат, сволочь, в это время
принимает входящие соединения на свой порт, но не обслуживает их, а вешает
на холд до момента завершения деплоя приложения. Nginx принимает коннект от
пользователя, маршрутизирует запрос к апстриму, и... ждет 3-5 минут пока
бэкэнд не поднимется.
В итоге пользователь видит белый экран или частично загрузившуюся страницу
(как повезет раунд-робином), хотя в живых есть куча других апстримов,
которые могли бы обслужить его запрос.

Осложняется ситуация тем, что апстрим в некоторых ситуациях может долго
думать или отдавать много данных и решить проблему в лоб, урезав
proxy_read_timeout до нескольких секунд - нельзя.

Меня может что-то спасти?


-- 
With best regards,
differentlocal (www.differentlocal.ru | differentlo...@gmail.com),
System administrator.
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Корректная работа с tomcat deploy

2014-10-28 Пенетрантность Styopa Semenukha
On Tuesday, October 28, 2014 10:31:11 PM Никита Кардашин wrote:
 Привет всем,
 
 Каким образом можно корректно работать с tomcat-upstream, который
 используется для java-приложения, deploy которого занимает несколько минут?
 
 Среда:
 На входе стоит nginx proxy, в котором настроено n апстримов в режиме
 round-robin с max_fail=1. За ним - n серверов приложений, на которых
 работает Apache Tomcat, в котором работает java-приложение.
 
 Если падает один из серверов приложений - все прекрасно, nginx стучится к
 нему, получает 500/502 и выкидывает апстрим из списка доступных на заданное
 время и рероутит запрос на другой апстрим. Пользователь проблемы не видит.
 Но это если упало совсем. Если не упало, а зависло или ушло в re-deploy
 (либо мы сами стартовали re-deploy) - возникает проблема.
 
 Проблема:
 Деплой java-приложения в случае краша или обновления занимает несколько
 минут (в особо злом случае - до десяти). Томкат, сволочь, в это время
 принимает входящие соединения на свой порт, но не обслуживает их, а вешает
 на холд до момента завершения деплоя приложения. Nginx принимает коннект от
 пользователя, маршрутизирует запрос к апстриму, и... ждет 3-5 минут пока
 бэкэнд не поднимется.
 В итоге пользователь видит белый экран или частично загрузившуюся страницу
 (как повезет раунд-робином), хотя в живых есть куча других апстримов,
 которые могли бы обслужить его запрос.
 
 Осложняется ситуация тем, что апстрим в некоторых ситуациях может долго
 думать или отдавать много данных и решить проблему в лоб, урезав
 proxy_read_timeout до нескольких секунд - нельзя.
 
 Меня может что-то спасти?
 
 
 -- 
 With best regards,
 differentlocal (www.differentlocal.ru | differentlo...@gmail.com),
 System administrator.

Привет.

Может быть, добавить в ваш скрипт прикрытие порта фаерволлом на время деплоя? 
По принципу:
try {
iptables -A … -j REJECT
} finally {
iptables -D … -j REJECT
}
-- 
Best regards,
Styopa Semenukha.
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Корректная работа с tomcat deploy

2014-10-28 Пенетрантность Maxim Dounin
Hello!

On Tue, Oct 28, 2014 at 10:31:11PM +0500, Никита Кардашин wrote:

 Привет всем,
 
 Каким образом можно корректно работать с tomcat-upstream, который
 используется для java-приложения, deploy которого занимает несколько минут?
 
 Среда:
 На входе стоит nginx proxy, в котором настроено n апстримов в режиме
 round-robin с max_fail=1. За ним - n серверов приложений, на которых
 работает Apache Tomcat, в котором работает java-приложение.
 
 Если падает один из серверов приложений - все прекрасно, nginx стучится к
 нему, получает 500/502 и выкидывает апстрим из списка доступных на заданное
 время и рероутит запрос на другой апстрим. Пользователь проблемы не видит.
 Но это если упало совсем. Если не упало, а зависло или ушло в re-deploy
 (либо мы сами стартовали re-deploy) - возникает проблема.
 
 Проблема:
 Деплой java-приложения в случае краша или обновления занимает несколько
 минут (в особо злом случае - до десяти). Томкат, сволочь, в это время
 принимает входящие соединения на свой порт, но не обслуживает их, а вешает
 на холд до момента завершения деплоя приложения. Nginx принимает коннект от
 пользователя, маршрутизирует запрос к апстриму, и... ждет 3-5 минут пока
 бэкэнд не поднимется.
 В итоге пользователь видит белый экран или частично загрузившуюся страницу
 (как повезет раунд-робином), хотя в живых есть куча других апстримов,
 которые могли бы обслужить его запрос.
 
 Осложняется ситуация тем, что апстрим в некоторых ситуациях может долго
 думать или отдавать много данных и решить проблему в лоб, урезав
 proxy_read_timeout до нескольких секунд - нельзя.
 
 Меня может что-то спасти?

Если процедура проходит в штатном режиме, то правильно - убрать 
обновляемый сервер из блока upstream{}, после обновления - вернуть 
обратно.

Если говорить о нештатных ситуациях, то имеет смысл посмотреть в 
сторону балансировщика least_conn.  В отличие от round-robin'а он 
сразу заметит большое количество соединений, ждущих ответа, и 
перестанет направлять запросы на плохой бекенд.

Ну и в nginx-plus есть некоторое количество более других решений, 
таких как активные health check'и и реконфигурация 
upstream-серверов на лету.  Но это уже реклама.

-- 
Maxim Dounin
http://nginx.org/

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Корректная работа с tomcat deploy

2014-10-28 Пенетрантность Aleksandr Sytar
28 октября 2014 г., 20:31 пользователь Никита Кардашин megal...@gmail.com
написал:

 Привет всем,

 Каким образом можно корректно работать с tomcat-upstream, который
 используется для java-приложения, deploy которого занимает несколько минут?

 Среда:
 На входе стоит nginx proxy, в котором настроено n апстримов в режиме
 round-robin с max_fail=1. За ним - n серверов приложений, на которых
 работает Apache Tomcat, в котором работает java-приложение.

 Если падает один из серверов приложений - все прекрасно, nginx стучится к
 нему, получает 500/502 и выкидывает апстрим из списка доступных на заданное
 время и рероутит запрос на другой апстрим. Пользователь проблемы не видит.
 Но это если упало совсем. Если не упало, а зависло или ушло в re-deploy
 (либо мы сами стартовали re-deploy) - возникает проблема.

 Проблема:
 Деплой java-приложения в случае краша или обновления занимает несколько
 минут (в особо злом случае - до десяти). Томкат, сволочь, в это время
 принимает входящие соединения на свой порт, но не обслуживает их, а вешает
 на холд до момента завершения деплоя приложения. Nginx принимает коннект от
 пользователя, маршрутизирует запрос к апстриму, и... ждет 3-5 минут пока
 бэкэнд не поднимется.
 В итоге пользователь видит белый экран или частично загрузившуюся страницу
 (как повезет раунд-робином), хотя в живых есть куча других апстримов,
 которые могли бы обслужить его запрос.

 Осложняется ситуация тем, что апстрим в некоторых ситуациях может долго
 думать или отдавать много данных и решить проблему в лоб, урезав
 proxy_read_timeout до нескольких секунд - нельзя.

 Меня может что-то спасти?



Помечать неработающие бекенды как down - nginx reload - deploy - убираем
down - nginx reload
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: nginx-1.7.7

2014-10-28 Пенетрантность S.A.N
 Изменения в nginx 1.7.7  
 28.10.2014
 
 *) Изменение: теперь nginx учитывает при кэшировании строку Vary
 в
заголовке ответа бэкенда.

Где можно почитать подробности влияния Vary, на кеширования в Nginx?

Posted at Nginx Forum: 
http://forum.nginx.org/read.php?21,254366,254384#msg-254384

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Корректная работа с tomcat deploy

2014-10-28 Пенетрантность Daniel Podolsky
 Помечать неработающие бекенды как down - nginx reload - deploy -
 убираем down - nginx reload

​И так на всех фронтах...

Решение с добавлением блокировки через файрвол в процедуру деплоя выглядит
несколько более простым.

только надо проследить, чтобы блокировка не DROP, а REJECT (в терминах
iptables) ​
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: nginx-1.7.7

2014-10-28 Пенетрантность Ruslan Ermilov
On Tue, Oct 28, 2014 at 03:15:01PM -0400, S.A.N wrote:
  Изменения в nginx 1.7.7  
  28.10.2014
  
  *) Изменение: теперь nginx учитывает при кэшировании строку Vary
  в
 заголовке ответа бэкенда.
 
 Где можно почитать подробности влияния Vary, на кеширования в Nginx?

Какие-то подробности будут в документации, которая ещё не обновлена.
Какие-то останутся в коде.

___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru

Re: Корректная работа с tomcat deploy

2014-10-28 Пенетрантность Aleksandr Sytar
28 октября 2014 г., 22:17 пользователь Daniel Podolsky onoko...@gmail.com
написал:


 Помечать неработающие бекенды как down - nginx reload - deploy -
 убираем down - nginx reload

 ​И так на всех фронтах...

 Решение с добавлением блокировки через файрвол в процедуру деплоя выглядит
 несколько более простым.

 только надо проследить, чтобы блокировка не DROP, а REJECT (в терминах
 iptables) ​


Если вы уверены что на том томкате нет других приложений, которые вы
конечно не собирались отключать,ага.
___
nginx-ru mailing list
nginx-ru@nginx.org
http://mailman.nginx.org/mailman/listinfo/nginx-ru