Em 14/10/2015 12:19, Marcelo Gondim escreveu:
On 14-10-2015 06:07, Sergio Lopes wrote:
Estou usando o FreeBSD 10.1 com 2 interfaces de 1GB e estou com o mesmo problema usando LACP


igb2: Interface stopped DISTRIBUTING, possible flapping
igb4: Interface stopped DISTRIBUTING, possible flapping


Cada vez que o problema ocorre o tráfego da interface de um sentido comuta para outra interface, fazendo com que o usuário perceba uma queda de 5 segundos.

Quando mudo para roundrobin e removo o lacp do FreeBSD e do Switch ai fica normal.

Repara também no load como que sobe. Tenta usar o 10.1-stable que to usando e vê se resolve seu problema:

10.1-STABLE r281235






Vinícius Zavam escreveu:
2015-10-04 9:59 GMT-03:00 Marcelo Gondim<gon...@bsdinfo.com.br>:

On 21-09-2015 09:23, Marcelo Gondim wrote:

On 21-09-2015 08:27, Antonio Modesto wrote:

On 09/21/15 08:23, Antonio Modesto wrote:

On 09/17/15 15:22, Marcelo Gondim wrote:

On 17-09-2015 11:51, Luiz Otavio O Souza wrote:

2015-09-15 11:59 GMT-03:00 Marcelo Gondim:

Opa Danilo,

Pois é e a única coisa que tenho é a revisão que funciona perfeito no 10.1-stable. Não sei se é simples achar a mudança entre as versões
que
saíram mas algo mudou nesse meio do caminho destruiu meu cenário.

Outra recente também que descobri e que sofri por muito mas muito
tempo. Não
sei se lembram dessa thread [1] que abri em abril do ano passado.
Sabe qual era a solução desse problema?

Colocar um simples: gateway_enable="YES" no /etc/rc.conf

Ou seja, mesmo colocando o net.inet.ip.forwarding=1 se você não
colocar essa
instrução no rc.conf e mandar criar uma vlan, simplesmente seu
roteamento
para completamente. Só reiniciando a máquina. Agora me diga porque o roteamento para de funcionar quando faço um ifconfig vlanX create se
eu não
tiver o gateway_enable no rc.conf? Onde que isso está escrito?
Fiquei meses
com esse problema e agora não tenho mais.

Pior é que os caras que me responderam isso na lista acham que isso
não é um
bug. Só teve 1 que achou que era um bug. Não faz sentido algum isso. Podem fazer esse teste. Peguem um FreeBSD 10.x coloquem 2 interfaces
de rede
pra fazer o roteamento de um lado pra outro e setem umas vlans. Sem o
parâmetro acima experimentem fazer um simples:

# ifconfig vlan200 create

Depois tentem pingar de uma rede pra outra. Não vai nem à pau. Agora
se
colocarem o parâmetro acima no rc.conf vocês podem criar vlans sem
problemas.

São essas coisas que matam a gente.

[1]
http://www.fug.com.br/historico/html/freebsd/2014-04/msg00154.html

Opa Gondim,

Nós entendemos e sabemos o quanto é frustante aguardar (sem um ETA
definido) uma resposta ou uma correção nesses casos (eu também já
estive nessa posição).

É sempre importante lembrar que o projeto trabalha com voluntários, há muita pouca gente lá que é paga pra fazer algum serviço ou para ser responsável por determinada area, então mesmo com toda frustração é
importante manter uma atitude positiva.

Pessoas com a atitude positiva se relacionam melhor com a comunidade e se relacionando bem as pessoas vão se lembrar de você. Lembre-se, é tudo uma questão de como você interage com o projeto. O projeto esta
sempre acompanhando as pessoas, todo contribuidor eventual é um
possível desenvolvedor.

Mesmo com todos esses problemas, eu aposto que você ainda tem muito
mais chances de ter o seu problema resolvido no FreeBSD do que no
mikrotik ou no Windows (mesmo os últimos dois sendo pagos), reporte um
problema lá e depois me diga quando foram resolvidos ;-)

Bom, quanto a esse problema do gateway_enable, esta correto, apenas adicionando o net.inet.ip.forwarding=1 não é o bastante para que o sistema funcione, existem casos onde os scripts rc vão reescrever essa sysctl e a única forma de você instruir os scripts para fazer a coisa
certa é através da variável gateway_enable.

O roteamento para de funcionar porque quando você cria a vlan ele seta
a sysctl de volta pra 0, pode fazer o teste. Basta setar a sysctl
novamente para tudo voltar a funcionar, não precisa reiniciar.

Contribua com a documentação do projeto, deixe isso escrito e claro
para que outras pessoas não tenham a mesma dificuldade.

Grande LooS  :)
Só desanima mas continuo na guerra rsrsrsrs

Então pois é. Eu vi que a sysctl voltava pra 0 mas mesmo setando pra 1 não voltava à funcionar. Uma doideira mesmo. Só voltava o sistema quando reiniciado e como estava em produção não deu pra fazer mais testes,
infelizmente. Só achei estranho isso acontecer.
Não sei se ele altera alguma outra sysctl que seria o motivo de parar.

Fala Gondim. Essa questão do sysctl realmente não acho que seja um
comportamento exótico, já que não existe sentido em não ter o
gateway_enable="YES" no rc.conf se você não precisa de roteamento. Agora esses problemas com o lagg realmente devem ser osso. Mal lhe pergunte, não seria viável usar interfaces 10G diretamente? Digo isso pois apesar de o lagg ser um recurso muito útil, acredito que ter interfaces boas com drivers bem testados seja mais recomendado para um ambiente crítico como o
seu.

Corrigindo: Se você precisa de roteamento. =)

Bom dia Modesto,

Sim essa semana eu vou passar os 3Gbps de IX-SP + 2Gbps Link IP Internexa para uma porta de 10GbE e um link de 2Gbps com a Level3 para a outra porta de 10GbE de uma Intel X520-SR2. Dessa forma eu mato 2 laggs que tenho. Pena que depois disso não vou mais saber se esse problema do lagg foi resolvido porque não terei mais nenhum lagg para checar. De qualquer forma deixei anotado a revisão do 10.1-stable que estava tudo funcionando, para o caso
de algum dia eu voltar à precisar.

Bom dia pessoal,
Egypcio sabe se recentemente descobriram algum problema que afetava a
performance do FreeBSD 10.2? Porque conversando com outro amigo meu ele também estava tendo problemas de performance e quando falei pra ele usar o 10.1-STABLE, que to usando, o problema dele acabou. Ou seja, to achando que
esse meu problema está relacionado à performance geral do sistema.
Porque no último teste que fiz; quando eu ligava o servidor e começava à
carregar o OpenBGP o load ia em 20.x até carregar tudo e depois ficava
dando problema com load alto. Com a versão 10.1-STABLE, que não largo até que isso seja resolvido, quando carrega o OpenBGP fica com load baixo de no
máximo 4.x. Só aí já é claro um problema no sistema como um todo. Algo
mudou que afetou a performance dele.

Sabe se recentemente descobriram e corrigiram algo nesse sentido? Porque sinceramente isso é coisa pra sair inclusive nota avisando e alteração no
releng.


[]'s
Gondim<https://www.fug.com.br/mailman/listinfo/freebsd>


gondim,

isso daí é algo que, assim como você, eu também teria de sentar com tempo e calma pra escovar com ajuda de ferramentas de stress, benchmark e algumas
RFC; 2544, por exemplo (se não me engano).

"adota essa criança" e ajuda o projeto a identificar o que está ruim pra quem utiliza stable/10. quanto mais detalhes e informações forem coletadas
e reportadas, melhor. certamente uma sugestão de correção com patches
também ajuda. infelizmente eu não chego nem perto de ter como reproduzir o cenário (não tenho máquinas, nem infraestrutura, que estejam disponíveis
pra isso).
E ae pessoal,

Retornando com essa thread pois descobri coisas novas à respeito do problema. O problema não está no LACP porque nós retiramos o LACP e colocamos tudo em interface de 10GbE X520-SR2. O que parece é que algo mudou em relação ao cpu affinity entre a versão 10.1-STABLE que estou usando e as versões atuais.

Na versão 10.1-STABLE estou com o cpu affinity assim:

/usr/bin/cpuset -l 11 -x 300
/usr/bin/cpuset -l 10 -x 301
/usr/bin/cpuset -l 9 -x 302
/usr/bin/cpuset -l 8 -x 303
/usr/bin/cpuset -l 7 -x 304
/usr/bin/cpuset -l 6 -x 305
/usr/bin/cpuset -l 0 -x 306
/usr/bin/cpuset -l 1 -x 307
/usr/bin/cpuset -l 9 -x 308

/usr/bin/cpuset -l 5 -x 355
/usr/bin/cpuset -l 4 -x 356
/usr/bin/cpuset -l 3 -x 357
/usr/bin/cpuset -l 2 -x 358
/usr/bin/cpuset -l 1 -x 359
/usr/bin/cpuset -l 0 -x 360
/usr/bin/cpuset -l 5 -x 361
/usr/bin/cpuset -l 4 -x 362
/usr/bin/cpuset -l 3 -x 363

/usr/bin/cpuset -l 5 -x 364
/usr/bin/cpuset -l 4 -x 365
/usr/bin/cpuset -l 3 -x 366
/usr/bin/cpuset -l 2 -x 367
/usr/bin/cpuset -l 1 -x 368
/usr/bin/cpuset -l 0 -x 369
/usr/bin/cpuset -l 5 -x 370
/usr/bin/cpuset -l 4 -x 371
/usr/bin/cpuset -l 3 -x 372

Dessa forma está funcionando no 10.1-STABLE sem problemas e os idle dos cores meio que balanceados. A máquina é um Dual Hexa Xeon e por isso tem 12 cores. Aí fiz uns testes e percebi o seguinte:

Problema 1: quando atualizo do 10.1-STABLE para o 10.2 ou 11 e jogo os meus links para o router (+5Gbps de tráfego), os cores ficam totalmente desbalanceados ou seja, uns ficam normais com 30% à 40% idle e outros ficam com 5% à 8% idle. Isso sem mudar nada em nenhum arquivo, somente atualizando o sistema e mantendo todas as configurações. Egypcio sabe se houve alguma mudança que poderia ter mudado esse comportamento no cpu affinity?

Problema 2: no sistema atual 10.1-STABLE descobri o seguinte: fui tentar melhorar o balanceamento nos cores com o cpu affinity (cpuset) e quando faço isso passo à ter perdas de pacotes nos links de dados. O que me obriga à ter que reiniciar o sistema pra normalizar tudo. Ou seja mexeu no cpu affinity, então reinicie porque senão pode dar zica e feia.

Doideira isso. Ou seja o problema não estava no link aggregation.

[]´s
Gondim

-------------------------
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

Responder a