Hello, Vadim Goncharov!

On Tue, Apr 05, 2011 at 08:57:21PM +0700
[email protected] wrote about "Re: [freebsd] ngctl: send msg: No buffer 
space available":
> 05.04.11 @ 19:37 Lystopad Aleksandr wrote:

> Я так понимаю, оба параметра были подняты? kern.ipc.nmbclusters не влияет,  
> как выясняется.

Да, оба.

> >Я готов крутить все что нужно, лишь бы помогло. Но четкого понимания
> >пока нету. :(
> 
> kern.ipc.maxsockbuf задает общесистемный лимит на размер буфера сокета  

Может ...сокетов? Или таки сокета?

> (есть еще в ulimit), параметры в net.graph. задают их для сокетов  
> AF_NETGRAPH, дефолтные и неизменяеме приложением, поскольку setsockopt()  
> на AF_NETGRAPH не поддерживается. Сообщение netgrpah есть 1 datagram,  
> которая, естественно, должна влезть в буфер сокета.
> 
> >>>А как бы без прерывания пользовательских сессий узнать поднимится ли
> >>>mpd в следующий раз при таких настройках? Или если работает сейчас,
> >>>то и поднимется?
> >>
> >>В код mpd не смотрел. Думаю, поднимется.
> >>
> >>>>>А как самому мониторить это? Где посмотреть текущее потребление?
> >>>>Потребление чего именно?
> >>>
> >>>Ну потребление процессом mpd буферов. Потребление вообще netgraph-ом
> >>>памяти, буферов и тд. Я хочу знать хватает или нет, может надо
> >>>добавить. Хочу это знать и мониторить.
> >>
> >>Сам процесс mpd их почти не потребляет (можно смотреть в netstat, с
> >>разными -f), а отдельной статистики в ядре, насколько мне известно,  
> >>кроме
> >>vmstat -m / vmstat -z не ведется (из соображений производительности).
> >
> >Вот мои результаты:
> >
> ># vmstat -m:
> >         Type InUse MemUse HighUse Requests  Size(s)
> >....
> > netgraph_msg     0     0K       -  1836290  64,128,256,512,1024
> >netgraph_node  2726   682K       -    20208  256
> >netgraph_hook  9288  1161K       -    84544  128
> >     netgraph  1946  3235K       -    15454  64,256,4096
> >netgraph_sock     5     1K       -       40  128
> >netgraph_path     0     0K       -   978589  16,32
> >netgraph_mppc     0     0K       -        1  1024
> >netgraph_pppoe   391    37K       -     6035  64,512
> >netgraph_iface   388    49K       -     2364  128
> > netgraph_ppp   388  4656K       -     2364
> > netgraph_bpf  7720  1641K       -    60970  128,1024
> >#
> >
> >При таких значениях использования памяти переменные
> >net.graph.maxdgram и net.graph.recvspace задранные в 128000 и выше
> >похоже ничего не меняют? Верно?
> 
> Размеры памяти в общем зависят от разного. Конкретно для ngctl list  
> релевантно netgraph_node, их примерно 2726 штук. Сообщение NGM_LISTNODES  
> оперирует массивом структур, по 72 байта на одну ноду. На одного клиента  
> mpd создается несколько узлов.

Дык как мне избавится от subj я из этого не могу понять. Что надо
докрутить?

-- 
 Lystopad Olexandr 

Ответить