On Thu, Aug 15, 2019 at 03:08:05PM +0800, Alexander Titaev wrote:
> Здравствуйте, Evgeniy.
>
> Вы писали 15 августа 2019 г., 1:33:21:
>
> > On Thu, Aug 15, 2019 at 12:48:56AM +0800, Alexander Titaev wrote:
> >> у клиента nginx проксирует запросы на tomcat. tomcat должен возвращать
> >> 301 с
On Wed, Aug 14, 2019 at 08:02:53PM +0300, Gena Makhomed wrote:
> Разве есть возможность системный резолвер научить понимать что нет
> интернета, если IP адрес сконфигурирован статически на CentOS 7.6?
> Как это можно сделать? (Подозреваю что такой возможности нет и не будет)
Не надо так делать.
On Thu, Aug 15, 2019 at 12:48:56AM +0800, Alexander Titaev wrote:
> у клиента nginx проксирует запросы на tomcat. tomcat должен возвращать 301
> с хитрым url, но у него регулярно затекает
> мозг и он периодически начинает возвращать 200. Помогает рестарт.
> Клиент просит временно,
On Thu, Aug 08, 2019 at 11:17:17AM +0400, Алексей Сундуков wrote:
>Есть ли возможность при недоступности бэка (временной, буквально на пару
>секунд) на клиент не отдавать сразу '502 Bad Gateway', а повторить попытку
>через Х секунд удерживаю при этом коннект с клиентом?
Какой именно
On Thu, Jun 20, 2019 at 11:43:35AM +0300, Gena Makhomed wrote:
> Что именно Вы предлагаете написать в конфигурации nginx для того,
> чтобы убрать префикс /wiki и сделать 301 редирект на новый урл,
>
> при этом чтобы /wiki/some/other/uri
> не превращалось в /some%2Fother%2Furi
Я же написал:
On Thu, Jun 20, 2019 at 07:24:37AM +0300, Gena Makhomed wrote:
> Кроме того, процесс раскодирования сопровождается потерей информации,
> так что в результате потом невозможно будет корректно закодировать урл.
...
> Ошибка в том, что /wiki/some/other/uri
> превращается в /some%2Fother%2Furi
Ну
On Wed, Jun 19, 2019 at 02:54:10PM +0300, Maxim Dounin wrote:
> On Tue, Jun 18, 2019 at 04:45:13PM +0300, Gena Makhomed wrote:
>
> > On 18.06.2019 15:26, Maxim Dounin wrote:
> >
> > > И снова эксперимент плохой, негодный.
> >
> > Вот полный конфиг тестового сервера:
> >
> > server {
> >
On Mon, May 13, 2019 at 12:16:52PM +0300, Виктор Вислобоков wrote:
> Не будет. Проверено.
Чем проверено, уже написан нужный модуль для nginx?
> 13.05.2019, Evgeniy Berdnikov написал(а):
> > On Mon, May 13, 2019 at 09:00:54AM +0300, Виктор Вислобоков wrote:
> >> >> Зач
On Mon, May 13, 2019 at 09:00:54AM +0300, Виктор Вислобоков wrote:
> >> Зачем, если пользователь может просто установить Apache?
> Читайте начальный пост ТС. Он говорил при наличии php-fpm.
> Связка nginx+apache увы, не даёт той производительности, которую даёт
> связка nginx+php-fpm.
Перетащите
On Wed, May 08, 2019 at 05:30:41AM -0400, grey wrote:
> Неужели ни у кого нет идей?
Расскажите, что, как и чем измеряли, с чем сравнивали,
что ожидали увидеть и почему.
С какой скоростью отдаётся одиночный файл размером 300-500 мег
на машину в том же LANе, какая при этом загрузка процессора?
On Fri, Feb 22, 2019 at 03:36:07AM -0500, waster wrote:
> По совету сделал дамп на обоих серверах, в момент проблем наблюдается такая
> картина: https://imgur.com/a/Y9xN0H1
>
> Множественных ретрансмиссий не вижу. На обоих серверах сейчас backlog=65535
> reuseport.
Я лично вижу на этой картинке
On Thu, Feb 21, 2019 at 07:06:11AM -0500, waster wrote:
> Все-таки странно, mtr не показывает проблем с пингом до ориджина во время
> таких скачков. Получается, что такое приличное падение трафика в эти моменты
> означает, что и чанки не отдаются в том числе, хотя для кэша установлено
>
On Wed, Feb 20, 2019 at 07:08:13AM -0500, waster wrote:
> Под нагрузкой периодически наблюдается такая картина:
> https://imgur.com/a/B3fOWg7
> По понятным причинам также резко подпрыгивает кол-во открытых файловых
> дескрипторов.
>
> В error.log на cache в эти моменты иногда (но не всегда) видны
On Mon, Jan 07, 2019 at 07:23:04PM -0500, valet wrote:
> Вопрос такой: на сервере лежат статические html-файлы с именами типа
> index.html?id=1 index.html?id=2 и т.д. - то есть это их имена именно в таком
> виде.
...
> на запросы типа http://site.ru/index.html?id=1 отдает просто
>
On Tue, Dec 11, 2018 at 02:54:29PM -0500, suffix wrote:
> Смотрю error.log nginx:
>
> 2018/12/11 16:38:51 [error] 2893#2893: *45224 upstream prematurely closed
> connection while reading response header from upstream, client:
> 66.249.76.90, server: www.babai.ru, request: "GET
>
On Tue, Dec 11, 2018 at 08:44:01AM -0500, ingtar wrote:
> Забыл версию nginx указать:
>
> nginx version: nginx/1.14.0
> built by gcc 6.3.0 20170516 (Debian 6.3.0-18+deb9u1)
> built with OpenSSL 1.1.1a 20 Nov 2018
Возможно, причина в глобальном отключении старых шифров в дебиане:
Добрый день.
On Fri, Nov 16, 2018 at 02:23:52PM +0300, Maxim Dounin wrote:
> Проблема в том, что в Debian на системном уровне запрещены
> протоколы меньше TLS 1.2. Соответственно в вашей конфигурации
> оказываются запрещены вообще все протоколы - об этом и говорит
> ошибка "no protocols
Коллеги, добрый вечер.
Есть задача спроксировать соединение до сервера с Exchange 2013,
который не умеет TLSv1.2 и выше -- он просто обрывает соединение.
Это выяснено с помощью "openssl s_client" перебором ключей -tlsXXX.
Openssl с ключами -tls1 и -tls1_1 соединение устанавливает.
Смотрим
On Fri, Oct 26, 2018 at 12:35:21PM +0500, Илья Шипицин wrote:
>возьмем, к примеру, Linux, у него ретрансмит первоначального SYN жестко
>задан 3 сек (меняется только патчем ядра)
Время для ретрансмита первоначального syn'a (rto) в большинстве
реализаций tcp/ip (в том числе в линуксе)
On Thu, Jul 05, 2018 at 10:45:35AM -0400, YuriN wrote:
> Статика, скажем, размером 20kb отдаётся порядка 1-1.5 секунды. При чём TTFB
> относительно быстрый - 200-300 ms, а доставка от nginx до браузера уже 1-1.5
> секунды. По логам видно, что эта статика берётся из кэша всё-таки
>
On Mon, Feb 26, 2018 at 03:49:34AM -0500, Dmytro Lavryk wrote:
> Доброго всем здоровья!
> Недавно прикрутил к нескольким сайтам на сервере ipv6 адреса, прописал в
> nginx . В access на этих сайтах периодически по непонятным причинам
> проскакивает код ответа 400. При чем ИСКЛЮЧИТЕЛЬНО при
On Thu, Jan 18, 2018 at 12:31:14PM +0200, Maxim Bashtovoy wrote:
> Пути к файлам и права проверил, все с ними нормально (пробовал и
> полный и относительный путь.
>
> При попытке прописать заведома неправильный путь пишет:
> 2018/01/18 12:17:07 [emerg] 4076#4236:
>
Здесь написано, что в 11:46:14 от клиента серверу на порту 80
было передано 90 байт:
On Wed, Dec 27, 2017 at 03:50:08AM -0500, Dmytro Lavryk wrote:
> 11:46:14.812376 IP 127.0.0.1.62479 > 127.0.0.1.80: Flags [P.], seq 810:900,
> ack 2332, win 1275, options [nop,nop,TS val 29902235 ecr
On Wed, Dec 27, 2017 at 09:33:29AM +0200, Dmytro Lavryk wrote:
> Не совсем понял что должно быть видно. Картина примерно такая:
В этой картине отметки времени в одном логе не соответствуют
отметкам в другом. Дампа трафика нет, привязки его к логам
соответственно тоже нет.
--
Eugene Berdnikov
On Wed, Dec 27, 2017 at 09:05:21AM +0200, Dmytro Lavryk wrote:
> NGINX, такое ощущение, что просто игнорит какое-то количество коннектов. Для
> снятия статистики применяется collectd, у него в логах:[2017-12-27 09:52:55]
> [warning] nginx plugin: curl_easy_perform failed: Operation timed out
On Fri, Nov 24, 2017 at 07:12:31AM +0300, Maxim Dounin wrote:
> +if (read(pp[0], buf, 1) != 1) {
> +ngx_log_error(NGX_LOG_EMERG, log, ngx_errno, "read() pipe
> failed");
> +return NGX_ERROR;
> +}
> +
> +if (close(pp[0]) == -1) {
> +
On Wed, Nov 22, 2017 at 08:43:14PM +0300, Maxim Dounin wrote:
> С точки зрения практики - паттерн "daemon(); write_pidfile();"
> используется чуть менее, чем везде, вплоть до соответствующих
> библиотечных функций. Так что инициатива выглядит, скажем так,
> сомнительной.
Отговорка, скажем
On Sun, Oct 29, 2017 at 11:44:19PM -0400, Дима Кулик wrote:
> в том, что все айтишники сидящие на Windows пожмут вам руку в случае
> добавления параметра queue в бесплатную версию в догонку к max_conns, ведь
> самоцель работы программиста - это довольные пользователи его творения.
У
On Sun, Oct 22, 2017 at 08:28:30AM -0400, supermicro wrote:
> Но когда файл скомпилировался (gcc version 5.4.0 20160609 (Ubuntu
> 5.4.0-6ubuntu1~16.04.5)), то каково было мое удивление, что размер стал
> больше, чем был! Размер оригинального файла - 1230768 байт, а получившегося
> - 4211352 байт.
On Wed, Oct 11, 2017 at 12:56:49PM -0400, neomaq wrote:
> При изменении static файла nginx отдает мусор несколько секунд
Файл можно менять по-разному, т.е. разными последовательностями сисколов.
Есть атомарная замена через rename(2), есть другие варианты.
Редактор vi меняет не атомарно -- он
On Tue, Sep 26, 2017 at 04:07:34AM -0400, EugeneNF wrote:
> Тут-то и возникает противоречие - как приложению узнать, что второй запрос
> блокирован поскольку nginx ждёт окончания первого запроса? Решение видится
> в два этапа - первое nginx просто обрывает первый запрос.
Каким образом? Вместо
On Mon, Sep 25, 2017 at 03:27:54PM -0400, EugeneNF wrote:
> Представить легко - если кто-то долбит по серверу - отменяется предыдущий
> запрос для такого нетерпеливогого клиента. Abort опция. Можно ли что то
> такое уровне nginx, а не не уровне приложения?
Такое представить легко и просто лишь
On Mon, Sep 25, 2017 at 10:56:24AM +0300, Alex Vorona wrote:
> 24.09.17 19:06, EugeneNF wrote:
> [...]
> >Но nginx ждёт пока не закончится первый запрос. Есть ли опция чтобы отменить
> >первый запрос при получении второго от того же самого клиента?
> Как вы увидели, что именно nginx "ничего не
On Sat, Sep 23, 2017 at 05:36:19PM -0400, EugeneNF wrote:
> Я попробовал strace для nginx worker: strace -t -c -p 17630. Но ничего не
> печатается до тех пор пока процесс не закончен.
Флаг -c означает "выводить только статистику", потому системные вызовы
и не печатаются. Уберите его, и
On Sat, Sep 23, 2017 at 03:35:16PM -0400, EugeneNF wrote:
> Спасибо за ответ.
> Сервер пока ничем не занят кроме этой тестовой задачи. 40 ядер, 2Т диск, 32
> Г памяти. Во время тишины загрузка нулевая. ОС - CentOS 7. Подскажите как
> трассировать nginx. Я - новичок с ним.
Для CentOS: man strace.
On Sat, Sep 23, 2017 at 02:45:05PM -0400, EugeneNF wrote:
> Используется nginx + uwsgi приложение на Python. Первый запрос
> обрабатывается медленно в связи с обработкой данных. Но этот запрос не для
> клиентов. Запросы от клиентов обрабатываются очень быстро, меньше 10
> миллисекунд. Однако после
On Thu, Aug 24, 2017 at 04:18:01AM -0400, 1a2bb2cc wrote:
> Цель была в ответе согласно RFC 2817.
> Благодарю! Ответы получены на все вопросы - оставляем как есть, немного
> модифицировав конфиг до такого:
>
> server {
> listen 0.0.0.0:80;
> server_name core.example.com;
> add_header Upgrade
On Wed, Aug 09, 2017 at 08:54:24AM -0400, igroykt wrote:
> Отдает 403. В логе:
> 1.1.1.1 - - [09/Aug/2017:21:50:07 +0900] "GET /pwned/ HTTP/1.0" 403 564 "-"
> "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like
> Gecko) Chrome/59.0.3071.115 Safari/537.36" "1.2.3.4"
> 1.1.1.1
On Mon, Jun 19, 2017 at 05:17:18PM +0200, Alexander Moskalenko wrote:
> 2017-06-19 17:00 GMT+02:00 Evgeniy Berdnikov <b...@protva.ru>:
>
> > On Mon, Jun 19, 2017 at 04:26:59PM +0200, Alexander Moskalenko wrote:
> > > Кейс такой:
> > >
> > >
ести
для неё иной термин, иначе получается вынос мозга себе и другим.
Если речь о каскаде прокси-серверов, есть стандартный заголовок Via:.
> 2017-06-19 16:05 GMT+02:00 Evgeniy Berdnikov <b...@protva.ru>:
>
> > On Mon, Jun 19, 2017 at 04:00:59PM +0200, Alexander Moskalenko
On Mon, Jun 19, 2017 at 04:00:59PM +0200, Alexander Moskalenko wrote:
>
> Максим, а возможно ли указать 2 заголовка realip_header ?
А что это будет означать?
--
Eugene Berdnikov
___
nginx-ru mailing list
nginx-ru@nginx.org
On Thu, Jun 15, 2017 at 09:07:39PM +0300, Алексанр Платонов wrote:
> > А это похоже на таймаут коннекта. Вопрос в том, почему SYN+ACK от бэкенда
> > пришёл с такой задержкой. Возможно, бэкенд перегружен.
> > Возможно, свитчи по пути перегружены трафиком.
>
> Дампы:
> RST:
On Thu, Jun 15, 2017 at 05:21:38PM +0300, Алексанр Платонов wrote:
> У меня есть ~30 хостов в 3-х разных ДЦ. Nginx принимает нагрузку и
> распределяет её по алгоритму WRR на php-fpm пулы, расположенные на этих же
> хостах.
>
> Периодически, примерно 1/5000 (ошибка к общему кол-ву запросов) на
>
On Thu, Apr 20, 2017 at 11:26:20PM +0300, Андрей Василишин wrote:
> Есть такая проблема, настроен 301 редирект с кучи доменов на основной,
> конфиг ниже. Все работает, в логах помино 301 редкие 400 и 408 ответы,
> но вот счетчик liveinternet, яндекс.вэбмастер все же показывает пару
> десятков
On Mon, Apr 03, 2017 at 11:35:30PM -0400, DemDA wrote:
> А, кстати, волею плюшевого димки винда
> попала в реестр российского ПО.
Чаво? Ссылку, pls (хоть это здесь явный оффтоп).
Я нашёл только такое упоминание винды в связи с реестром:
https://www.pcweek.ru/business/blog/foss/9482.php
--
On Mon, Apr 03, 2017 at 09:52:01PM -0400, DemDA wrote:
> Максим, здравствуйте! Спасибо за ответ. ssl_verify_depth задавал. Но, к
> сожалению, это не возымело эффекта. Сегодня буду исследовать вопрос в
> сторону обновления OpenSSL до версии выше 1.0.2. Что касается Вашего
> замечания относительно
On Sat, Mar 25, 2017 at 04:01:59PM -0400, Siava wrote:
> Добрый вечер.
>
> Имеется роутер, за ним несколько http-серверов. Один из серверов за роутером
> проксирующий.
>
> То есть схема доступа такая:
> роутер (192.168.0.1) -> проксирующий_сервер (192.168.0.11) -> [остальные
> бекенды
On Mon, Mar 20, 2017 at 04:18:59AM -0400, Archy wrote:
> Может быть есть возможность просто чтения сырых tcp-пакетов запроса?
В nginx? Конечно же нет. Вообще, tcp это абстракция потока данных
(stream), приложение tcp не видит никаких пакетов. Передавать на этот
уровень информацию по отдельным
On Tue, Dec 27, 2016 at 05:57:55AM -0500, Vvedensky wrote:
> Вот что получилось. То пишет адрес, то нет. Не понятен результат.
1. В логе только редиректы, запросы с другими статусами есть?
2. Сравнивайте с логами апстрима.
--
Eugene Berdnikov
___
On Fri, Dec 23, 2016 at 05:13:47PM -0500, Violence wrote:
> Evgeniy Berdnikov Wrote:
> ---
> >
> > Поясните, какой в этом смысл. Может быть, задачу можно решить иначе.
> > --
> > Eugene Berdnikov
>
> Бол
On Fri, Dec 23, 2016 at 04:52:54PM -0500, Violence wrote:
> В условиях виртуального хостинга часто вызывается команда nginx reload,
> выполняется мягкое завершение старых процессов и сразу запускаются новые,
> при этом "убитые" процессы продолжают отдавать обслуживать старые
> соединение.
>
>
On Thu, Dec 15, 2016 at 10:23:37PM -0500, sofiamay wrote:
> Давайте просто посмотрим на ситуацию с Winodws с точки зрения сложившегося в
> IT обществе мнения. Windows долгие годы была в аутсайдерах и не принималась
> всерьез, имела много проблем с производительностью, безопасностью и в целом
>
On Thu, Dec 01, 2016 at 07:06:50PM +0700, Vadim A. Misbakh-Soloviov wrote:
> В письме от среда, 30 ноября 2016 г. 17:21:39 +07 пользователь atway написал:
> > Это баг ядра. Пришлось откатиться до версии vzkernel 2.6.32-042stab116.2
> > https://bugs.openvz.org/browse/OVZ-6836
>
> На самом деле, не
On Thu, Nov 17, 2016 at 03:47:08PM -0500, atway wrote:
> На проксирующем в апач нжинксе со временем скорость обработки запросов
> падает.
> Посмотрели стрейсом и увидели, что увеличивается выполнение сисколв
> connect.
> Когда нжинкс только только запущен сисколл обрабатывается менее чем за 100
>
On Sun, Oct 02, 2016 at 10:03:06PM -0400, Trurl wrote:
> Evgeniy Berdnikov Wrote:
> ---
> > On Sat, Oct 01, 2016 at 09:59:51PM -0400, Trurl wrote:
>
> >
> > Заголовок content-length: присутствует в ответе?
>
>
On Mon, Sep 19, 2016 at 06:58:16PM -0400, Mikanoshi wrote:
> Maxim Dounin Wrote:
> ---
> > Всё это выглядит как ошибка ядра. Во FreeBSD 11 был существенно
> > переделан sendfile() в части работы с флагом SF_NODISKIO -
> > возможно, имеет смысл
On Mon, Sep 19, 2016 at 04:03:36AM -0400, Mikanoshi wrote:
> Maxim Dounin Wrote:
> ---
> > Эта ошибка должна писаться в лог, настроенный на глобальном
> > уровне. Если вы его не настроили явно - будет использован лог,
> > заданный в параметре
On Fri, Sep 16, 2016 at 01:54:00AM -0400, Mikanoshi wrote:
> Отключил оба модуля сторонних - то же самое, виснет.
На каком сисколе висит? Снимите strace, покажите стэк вызовов.
--
Eugene Berdnikov
___
nginx-ru mailing list
nginx-ru@nginx.org
On Mon, Aug 15, 2016 at 11:33:13AM +0300, Anton Kiryushkin wrote:
> Никаких игр при этом в безопасность мы и не затевали. И крайне удивительно
> видеть подобные вопросы в столь уважаемой рассылке. Уж профессионалы-то
> должны знать, как выглядят заголовки Apache и способны их отличить от
>
On Fri, Aug 12, 2016 at 04:13:04AM -0400, M-A-X wrote:
> Поставил промежуточный прокси на 127.0.0.1
>
> К нему приходит несколько запросов:
> 127.0.0.1 - - [12/Aug/2016:00:09:45 +0300] "GET /hls/football2-2026731240.ts
> HTTP/1.1" 200 11933 "-" "-" "-" -
> 127.0.0.1 - - [12/Aug/2016:00:09:46
On Mon, Aug 08, 2016 at 07:27:14AM -0400, nNgzlTtv3k5lzmKRvlmS22tSl8sJr68k
wrote:
> Указал размер очереди =5:
>
> limit_req zone=php_dos_bot burst=5;
>
> Теперь в логе одни сплошные "200 OK":
>
> 08/Aug/2016:14:19:32 +0300 200 site.com
> 08/Aug/2016:14:19:32 +0300 200 site.com
>
On Sun, Jul 31, 2016 at 06:40:43PM +0700, Vadim A. Misbakh-Soloviov wrote:
> В письме от воскресенье, 31 июля 2016 г. 6:13:55 +07 пользователь Vasiliy P.
> Melnik написал:
> > echo 'HTTP Error 402 > center>';
> >
> > я надеюсь это форум перенос строки сделал?
>
> Почтовый клиент, если точнее :)
On Mon, Jul 18, 2016 at 04:25:28AM -0400, Vasiliy P. Melnik wrote:
> Пробросил порт через iptables сразу на бекэнд - получается что-то типа
> 0,20-0,22 , нгинкс добавляет 0,20-0,30 к времени ответа.
Традиционно, strace + tcpdump в зубы и искать узкое место.
Величина 200 мс подозрительно похожа
On Mon, Jul 18, 2016 at 11:05:12AM +0300, Vladislav Shabanov wrote:
> Пусть есть сайт ABC, на котором внедрили клиентские SSL-сертификаты
> для сотрудников. Такой сайт любому зашедшему браузеру сообщает, что
> принимает сертификаты, выданные организацией ZZZ. Если это
> сотрудник, то он сможет
On Fri, Jun 17, 2016 at 04:39:00PM +0300, Иван Мишин wrote:
> Сначала написано что сервер принял запрос "и тишина". Ниже что он
> > что-то отправляет. Так что же делает сервер, приняв запрос?
>
>
> Опечатался, в случае висяка сервер всегда принимает и молчит далее.
Откуда такой вывод? Вы же
On Fri, Jun 17, 2016 at 10:48:00AM +0300, Иван Мишин wrote:
> >
> > А в логе что?
>
> В логе пусто. По окончанию "виселицы" появлейтся лог запроса с 500 ответом
То есть запросов к серверу нет? С кем же клиент тогда устанавливает
соединения в цикле, перед тем как сообщает "Запрос HTTP послан,
On Thu, Jun 16, 2016 at 03:05:01PM +0300, Иван Мишин wrote:
> Запрос HTTP послан, ожидается ответ... Ошибка чтения (Время ожидания
> > соединения истекло) в заголовках.
> > Повтор.
>
> После чего происходит автоматически новая попытка. Соединение постоянно
> открыто. Может так висеть днями.
...
>
On Sun, Jun 05, 2016 at 01:36:15AM -0400, windos321 wrote:
> по специфике моего проекта, у каждого сайта выделенный IP адрес.
> Если я указываю всем (135) сайтам reuseport - обновление конфигурации nginx
> service reload и nginx -t длится очень долго, если этой опции нету,
> вышеприведенные
On Mon, May 30, 2016 at 09:15:06AM -0400, S.A.N wrote:
> Было бы очень круто, если бы в Nginx была возможность что-то вроде этого
>
> location /
> {
>proxy_cache_pass localhost:11211; # address memcached server socket
> }
>
>
> Тогда клиентcий код станет гениально простым :)
>
>
On Thu, May 26, 2016 at 07:28:59AM -0400, S.A.N wrote:
> > Конечно, мультиплексирование в FastCGI будет легче чем в HTTP/2.
> >
> > Но само по себе мультиплексирование не является самоцелью, оно может
> > быть уместно в каких-то вычурных ситуациях (вроде исчерпания
> > сокетов),
> > которые
On Tue, May 24, 2016 at 08:34:57AM -0400, S.A.N wrote:
> Протокол клиента HTTP/1.1 все три запроса браузер отправляет в одном
> конекте.
> Nginx отправляет все эти три запроса в одном конекте на бекенд.
>
> Теперь смотрим как все плохо в HTTP/1.1 когда в одном конекте приходит
> очередь HTTP
On Wed, Apr 27, 2016 at 03:32:36PM -0400, Dimka wrote:
> Для информации.
> Придумал как можно сделать без хака.
>
> Процесс который заливает файл:
> - заливает файл (WebDav)
> - делает GET запрос на проверку файла (этот запрос NGiNX проксирует на
> бекенд, тот в свою очередь проверяет наличие
On Tue, Apr 26, 2016 at 12:38:28PM -0400, vitcool wrote:
> Konstantin Tokarev Wrote:
> ---
> > Вообще удивляет, на дворе 2016 год, и кто-то еще использует Windows
> > для веб-сервера
>
> это бестолковый холивар имхо, потому что, если не
On Wed, Apr 20, 2016 at 12:12:21PM +0300, navern wrote:
> > Да хоть на Юпитере. Он вообще-то в контейнере. Ядро может входящие
> > коннекции перенаправлять на любой порт, и ip-адрес можно менять.
> > Без разницы, как отличать новый сервер от старого, по ip или порту,
> > но в любом случае их
On Wed, Apr 20, 2016 at 11:37:50AM +0300, navern wrote:
> On 20.04.2016 11:19, Evgeniy Berdnikov wrote:
> > Так же как и вашем. В чём проблема-то? Если в пересечении портов
> > для bind(2), так порты нужно сделать разными, вот и всё.
> Nginx во фронтэнде. Какие разные порты?
On Wed, Apr 20, 2016 at 11:02:39AM +0300, navern wrote:
> On 20.04.2016 10:57, Evgeniy Berdnikov wrote:
> > О какой альтернативе речь? Перенаправьте syn'ы на новый контейнер,
> > и будет вам счастье без патчей и потерь входящих соединений.
> А как поднять два контейнера од
On Tue, Apr 19, 2016 at 05:43:58PM +0300, navern wrote:
> >Вас не смущает, что при этом часть соединений будет потеряна?
> Ну это не супер приятно да, но альтернатива хуже. Потому что в
> альтернативном варинте часть соединений будет невозможна на то
> время, пока мы опустили один контейнер, а
On Tue, Apr 12, 2016 at 03:53:59PM +0300, navern wrote:
> По поводу двух одновременно запущенных nginx'ов - это необходимо так как
> сам nginx находится в докер контейнере и бывают ситуации, когда нужно
> запустить одновременно два докер контейнера, а потом один из них погасить.
Ужас какой...
On Mon, Apr 11, 2016 at 04:59:08PM +0300, navern wrote:
> Проблема в том, что нам как раз нужен негативный побочный эффект:)
> Необходимо, чтобы одновременно можно было запустить два nginx'а. Этого можно
> добиться если везде указать reuseport, но только один раз.
А зачем нужны 2 копии сервера
On Fri, Apr 01, 2016 at 11:33:55PM +0300, Роман Москвитин wrote:
> А что тут знать то. Один сервак с мускулем уже есть. Ставится еще один. На
> котором настраивается проксипас с кешированием на первого. Все.
> Извращенно несколько, но что ж поделать при таком ТЗ.
Отказаться от реляционной базы
On Fri, Apr 01, 2016 at 02:10:20AM +0300, Paul Sin wrote:
> копать вниз.. к центру Земли.. извините, не удержался )
>
> >> Просто достать данные из БД не проблема есть модуль
> nginx-mysql-module. Но как заставить закэшировать данные, и дать возможность
> перемотки видео в плеере не представляю.
On Mon, Mar 21, 2016 at 04:53:57PM +0300, Andrey Oktyabrskiy wrote:
> Я бы это делал вообще на уровне мониторинга. storage1 заполнился на 95% -
> перегенерировали конфиг(и), перечитали, пишем на storage2. Освободили место
> на storage1, стал он заполнен на 90% - перегенерировали конфиг(и),
>
On Wed, Mar 16, 2016 at 08:32:26AM -0400, S.A.N wrote:
> > И более правильным, потому что независимо от чей-то любви к
> > systemd.socket
> > в данном случае он поставленную задачу НЕ решает. Всяко лучше
> > устранить
> > проблему полностью, чем уменьшить её вероятность на несколько
> >
On Wed, Mar 16, 2016 at 08:36:50AM +0300, Vasiliy Tolstov wrote:
> 16 марта 2016 г. 2:35 пользователь "S.A.N"
> написал:
> > Возможно вы правы, но мне как разработчику бекенда, приятней и понятней
> > настраивать директивы systemd.socket.
> >
> > Наши бекенд демоны
On Tue, Mar 15, 2016 at 11:39:12AM -0400, S.A.N wrote:
> Evgeniy Berdnikov Wrote:
> ---
> > On Tue, Mar 15, 2016 at 10:33:10AM -0400, S.A.N wrote:
> > > Наш use case простой, нужно чтобы на ранней стадии загрузки OS,
> &g
On Tue, Mar 15, 2016 at 10:33:10AM -0400, S.A.N wrote:
> Наш use case простой, нужно чтобы на ранней стадии загрузки OS, нужные порты
> могли принимать конекты, systemd.socket идеальный вариант, мы его используем
> для наших бекендов.
Зачем принимать коннекты, если их некому обрабатывать? Такой
On Fri, Mar 11, 2016 at 11:46:09AM +0300, Vasil Mikhalenya wrote:
> 2016-03-11 1:18 GMT+03:00 Evgeniy Berdnikov <b...@protva.ru>:
> > On Thu, Mar 10, 2016 at 06:30:48PM +0300, Vasil Mikhalenya wrote:
> > > 2016-03-10 16:37 GMT+03:00 Evgeniy Berdnikov <b...@protva.ru>
On Thu, Mar 10, 2016 at 06:30:48PM +0300, Vasil Mikhalenya wrote:
> 2016-03-10 16:37 GMT+03:00 Evgeniy Berdnikov <b...@protva.ru>:
>
> > On Thu, Mar 10, 2016 at 04:12:14PM +0300, Vasil Mikhalenya wrote:
> > > При определенном трафике более нет возможности установить
On Thu, Mar 10, 2016 at 04:12:14PM +0300, Vasil Mikhalenya wrote:
> При определенном трафике более нет возможности установить соединение на
> порт 80.
>
> Коллеги, помогите идеей, в чем может быть дело. Думал проблема в backlog,
> однако нет.
Как сделан такой вывод?
> [root@up ~]# netstat -an
On Fri, Mar 04, 2016 at 05:24:31AM +0300, Maxim Dounin wrote:
> > > Так или иначе - "Connection reset by peer" при живом бекенде как
> > > бы намекает на то, что в первую очередь надо смотреть, что
> > > происходит в сети.
> >
> > Я бы скорее подозревал наличие какой-то баги в сетевой карте.
>
On Thu, Mar 03, 2016 at 10:49:34PM +0300, Maxim Dounin wrote:
> On Thu, Mar 03, 2016 at 09:41:09PM +0300, Evgeniy Berdnikov wrote:
> > On Thu, Mar 03, 2016 at 08:36:28PM +0300, Maxim Dounin wrote:
> > > Я бы для начала попробовал поискать statefull firewall между
> >
On Thu, Mar 03, 2016 at 08:36:28PM +0300, Maxim Dounin wrote:
> Hello!
>
> On Thu, Mar 03, 2016 at 06:53:43PM +0300, Vadim Lazovskiy wrote:
>
> > Здравствуйте.
> >
> > Возможно немного не по теме, но возможно кто-то сталкивался.
> >
> > Есть upstream на nginx раздающий файлы.
> > Есть frontend
On Tue, Mar 01, 2016 at 02:05:28PM -0500, mikhal123 wrote:
> p.s. но вы бы все-таки как-то отразили суть данной беседы в документации.
> не один я меняю файлы через обычный fopen('w+'),
Звучит как предложение написать в инструкции по эксплуатации автомобиля,
что не следует одновременно сливать
On Thu, Nov 12, 2015 at 10:42:47PM +0300, Dmitry Ivanov wrote:
> > X-Custom-Header: value1
> > X-Custom-Header: value2
>
> Вы уверены, что использование 2-х одинаковых заголовков как-то
> регламентировано в RFC?
RFC2616:
Multiple message-header fields with the same field-name MAY be
On Wed, Nov 11, 2015 at 08:41:24PM +0300, Vladimir Sopot wrote:
> index.shtml
>
> this is the beginning
>
On Tue, Nov 10, 2015 at 08:44:47AM -0500, S.A.N wrote:
> > Поддерживаю Антона: поведение совершенно неожиданное, и к тому же
> > никак не описанное в документации. Прежде всего нужно эту засаду
> > задокументировать, чтобы прилежные читатели не налетали на грабли.
>
> Это не засада, это
On Mon, Nov 09, 2015 at 10:35:31PM +0300, Maxim Dounin wrote:
> > 2015-11-09 21:54 GMT+03:00 Anton Kuznetsov :
> >
> > > Но позвольте, зачем тогда нужен ключ кэширования? Я же четко сказал от
> > > чего он должен зависить? Почему он зависит еще от чего-то?
>
> Явно заданный
On Mon, Oct 19, 2015 at 03:56:17PM +0300, Pavel Odintsov wrote:
> Отсутствие поддержки http2 со стороны бэкэнда в среде, где с клиентам
> уже можно общаться по http2 будет тормомзом прогресса, потому что мы
> не можем использовать везде http2 и исключительно из-за прихоти
> реверс-прокси должны
On Mon, Oct 19, 2015 at 07:18:54PM +0300, denis wrote:
> 19.10.2015 17:25, Evgeniy Berdnikov пишет:
> >Это имеет смысл лишь
> > для клиентов с большим rtt до сервера. В локалке, между фронтэндом
> > и бэкендом при малых rtt, даёт лишь бессмысленные накладные расходы
On Thu, Oct 15, 2015 at 09:30:09AM +0300, kpoxa wrote:
> Да, я не прав, однако не всегда есть возможность убедить бэкэнд слушать два
> или более портов.
Вряд ли бэкенд, которому нужно более 65 тысяч коннектов одновременно,
представляет собой чёрный ящик, к которому не дают админского доступа.
101 - 200 of 203 matches
Mail list logo