On Jan 20, 2014, at 14:52 , Anatoly Mikhailov wrote: > в нашем случае - локально настроенная Jira с 10 пользователями, > сомневаюсь, что приложение загнется при такой нагрузке. > > и все же, кто как кэширует статику, сгенерированную налету?
http { proxy_cache_path /path/to/cache keys_zone=CACHE:20M; proxy_temp_path /path/to/temp; server { location /static/ { proxy_pass http://backend; proxy_cache CACHE; proxy_cache_valid 1h; } } } -- Igor Sysoev > Анатолий > > On 20 Jan 2014, at 10:35, Илья Шипицин <chipits...@gmail.com> wrote: > >> у jira, teamcity узкое место - само приложение. оно начинает >> загибаться гораздо раньше, чем становятся заметны проблемы с отдачей >> статики. >> оптимизировать именно статику в данном случае - предпосылка непонятная >> >> 20 января 2014 г., 14:30 пользователь Anatoly Mikhaylov >> <anat...@sonru.com> написал: >>> Вопрос не в количестве статики, а в том, что весьма неуклюже гонять http >>> запросы за ее получением через Catalina. >>> >>> Http 1.1 с keep-alive, ConditionalGet для статики - это лишь попытка >>> прикрыть глупость организации отдачи контента, который, во многих случаях, >>> не меняется никогда. Одно дело - все эти украшения для статики, которую >>> отдает Nginx напрямую с диска, но в данном случае все это отдается через >>> бэкэнд. Так и остается загадкой зачем было сделанно именно так. >>> >>> Суть задачи не меняется, кэшировать статику (в случае с jira: location /s/) >>> после первого обращения к ней. Proxy pass cache - копать в эту сторону? >>> >>> Анатолий >>> >>>> On Jan 20, 2014, at 5:05 AM, Илья Шипицин <chipits...@gmail.com> wrote: >>>> >>>> teamcity очень мало статики отдает. >>>> для jira лучше настроить keepalive до бекенда >>>> а stash - это что именно ? >>>> >>>> 20 января 2014 г., 6:30 пользователь Anatoly Mikhaylov >>>> <anat...@sonru.com> написал: >>>>> Добрый день, >>>>> >>>>> Есть несколько java-приложений (stash, jira, teamcity), в которых статика >>>>> генерируется на ходу, файлов на диске с такими именами просто нет. Сейчас >>>>> организовано элементарное проксирование proxy_pass и все работает, но >>>>> медленно. >>>>> >>>>> Вопрос, как кэшировать ответы от бэкэнда (статику), чтобы это не >>>>> препятствовало основному проксированию ответа бэкэнда? >>>>> >>>>> Анатолий >>>>> _______________________________________________ >>>>> nginx-ru mailing list >>>>> nginx-ru@nginx.org >>>>> http://mailman.nginx.org/mailman/listinfo/nginx-ru >>>> _______________________________________________ >>>> nginx-ru mailing list >>>> nginx-ru@nginx.org >>>> http://mailman.nginx.org/mailman/listinfo/nginx-ru >>> >>> _______________________________________________ >>> nginx-ru mailing list >>> nginx-ru@nginx.org >>> http://mailman.nginx.org/mailman/listinfo/nginx-ru >> _______________________________________________ >> nginx-ru mailing list >> nginx-ru@nginx.org >> http://mailman.nginx.org/mailman/listinfo/nginx-ru > > _______________________________________________ > nginx-ru mailing list > nginx-ru@nginx.org > http://mailman.nginx.org/mailman/listinfo/nginx-ru _______________________________________________ nginx-ru mailing list nginx-ru@nginx.org http://mailman.nginx.org/mailman/listinfo/nginx-ru