Em 12/07/2012 10:43, William Grzybowski escreveu: > 2012/7/12 Marcelo Gondim <[email protected]>: >> Em 12/07/2012 10:07, Leonardo Augusto escreveu: >>> 2012/7/12 Marcelo Gondim <[email protected]>: >>>> ahhaha que jeito bom de começar uma nova thread :D >>>> >>>> Pessoal vou começar a thread com os dados técnicos para quem não >>>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número >>>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do >>>> site: >>>> >>>> Peers: 436.180 >>>> Users: 94.733 >>>> Torrents: 99.282 >>>> >>>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS >>>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. >>>> >>>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou >>>> UFS2+SUJ >>>> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: >>>> >>>> sysctl.conf: >>>> ========== >>>> kern.ipc.somaxconn=4096 >>>> kern.ipc.shmmax=2147483648 >>>> kern.ipc.maxsockets=204800 >>>> kern.ipc.nmbclusters=262144 >>>> kern.ps_arg_cache_limit=4096 >>>> kern.maxfiles=204800 >>>> kern.maxfilesperproc=200000 >>>> kern.maxvnodes=200000 >>>> kern.timecounter.hardware=HPET >>>> net.inet.tcp.rfc1323=1 >>>> net.inet.tcp.delayed_ack=0 >>>> net.inet.ip.portrange.first=1024 >>>> net.inet.ip.portrange.last=65535 >>>> net.inet.ip.rtminexpire=2 >>>> net.inet.ip.rtmaxcache=1024 >>>> net.inet.ip.redirect=0 >>>> net.inet.ip.sourceroute=0 >>>> net.inet.ip.accept_sourceroute=0 >>>> net.inet.icmp.maskrepl=0 >>>> net.inet.icmp.log_redirect=0 >>>> net.inet.icmp.drop_redirect=1 >>>> net.inet.tcp.drop_synfin=1 >>>> net.inet.udp.blackhole=1 >>>> net.inet.tcp.blackhole=2 >>>> net.inet6.icmp6.nodeinfo=0 >>>> net.inet6.ip6.use_tempaddr=1 >>>> net.inet6.ip6.prefer_tempaddr=1 >>>> net.inet6.icmp6.rediraccept=0 >>>> net.inet.ip.ttl=128 >>>> net.inet.tcp.msl=5000 >>>> net.inet.tcp.maxtcptw=200000 >>>> net.inet.tcp.fast_finwait2_recycle=1 >>>> net.inet.ip.intr_queue_maxlen=4096 >>>> net.inet.ip.dummynet.io_fast=1 >>>> vfs.ufs.dirhash_maxmem=67108864 >>>> vfs.read_max=64 >>>> net.inet.tcp.ecn.enable=1 >>>> net.inet.ip.fw.dyn_buckets=65536 >>>> net.inet.ip.fw.dyn_max=65536 >>>> net.inet.ip.fw.dyn_ack_lifetime=120 >>>> net.inet.ip.fw.dyn_syn_lifetime=10 >>>> net.inet.ip.fw.dyn_fin_lifetime=2 >>>> net.inet.ip.fw.dyn_short_lifetime=10 >>>> >>>> loader.conf: >>>> ========== >>>> aio_load="YES" >>>> net.inet.tcp.syncache.hashsize=32768 >>>> net.inet.tcp.syncache.bucketlimit=32 >>>> net.inet.tcp.syncache.cachelimit=1048576 >>>> net.inet.tcp.hostcache.hashsize=65536 >>>> net.inet.tcp.hostcache.cachelimit=1966080 >>>> net.inet.tcp.tcbhashsize=4096 >>>> vm.pmap.pg_ps_enabled=1 >>>> >>>> Sabemos que essa parte de tunning é uma característica muitas das vezes >>>> até do tipo do servidor e da carga que esse recebe mas é sempre bom >>>> comentar sobre o que temos e ouvir a experiência daqueles que já >>>> passaram por diversos problemas. :) >>>> >>>> Gondim >>> Marcelo, >>> >>> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd >>> pifar, para e perde tudo, >>> raid 0 só em lugares onde tem apenas read e tem cluster... senao o >>> sistema para mesmo >>> em caso de falha fisica de algum hd. >>> >>> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em >>> read/write(o 10 tem melhor read) >>> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. >>> raid 0 sera uma catastrofe. >> E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a >> performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o >> UFS2+SUJ? > ZFS é um cara complicado, tem que tunar _muito_ bem, e achar o meio > termo entre desempenho e uso de memória (come muuuuuuita). > Sobre raidz2, é bom lembrar que ele tem uma penalidade se comparado ao > raidz (algo em torno de 30-40%). Não é oficial mas isso é com base nos > diversos testes que realizamos na empresa que trabalho. > > Eu sou fã do ZFS mas com o hardware que você tem eu faria um hardware > RAID10 e usaria UFS. > > Show e realmente preciso de performance mesmo de i/o no disco.
------------------------- Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

