Cara, eu já fiz um servidor de log monstro e vou te relatar como consegui
resolver alguns problemas de performance. Vamos ver se eu lembro.

Peguei os 3 níveis do SGDB:


   1. Físico
   2. Lógico
   3. Aplicação

No físico eu usei RAID 0 nos discos
No lógico
* eu usei como sistema de arquivos no mysql o innodb;
* retirei o auto commit;
* criei index das principais tabelas;
* aumentei o cache do mysql;
* Outro detalhe foi ter usado XFS como FS do RAID0, e é uma boa separar a
partição do OS

Na aplicação, agendei no(a) cron um script que vem nela para
cache/compactação das tabelas em 15 / 15 dias.

att




Em 26 de julho de 2011 11:04, Diogo Leal <[email protected]> escreveu:

> Diogo Leal [estranho]
> http://diogoleal.com
> msn | gtalk: [email protected]
>
>
>
>
> 2011/7/26 Renato Rudnicki <[email protected]>:
> > Ola Pessoal.
> >
> > Eu instalei um servidor de logs com interface web (loganalyzer). Esse
> > servidor de logs além de gravar os logs no mysql, ele da a opção de fazer
> > pesquisas por determinado ip's e gerar gráficos. O problema, é que quando
> eu
> > faço uma pesquisa personalizada ou tento gerar gráficos, ele fica uns 5
> > minutos até gerar o resultado. O banco não é muito grande, está em + -
> 4.5G
> > (e crescendo). O que eu gostaria de saber, é se alguem poderia me ajudar
> a
> > melhorar o desempenho do servidor ao realizar consultas personalizadas
> (pelo
> > loganalyzer) e ao gerar os gráficos. O servidor que eu instalei o
> > loganalyzer + mysql tem 2GB de ram e xeon com 2 nucleos). Abaixo estou
> > postando o meu my.cnf
> >
>
> Rodrigo,
> Veja se este script vai lhe ajudar... Eu o uso com frequência.
>
> http://mysqltuner.pl/mysqltuner.pl
>
>
>
> >
> > [mysqld]
> > datadir=/logs/var/lib/mysql/
> > socket=/logs/var/lib/mysql/mysql.sock
> > log_slow_queries
> > long_query_time = 4
> > user=mysql
> > skip-locking
> > key_buffer = 1024M
> > max_allowed_packet = 1M
> > table_cache = 1024M
> > key_buffer_size = 256M
> > sort_buffer_size = 4M
> > read_buffer_size = 4M
> > read_rnd_buffer_size = 8M
> > max_connections = 25
> > myisam_sort_buffer_size = 64M
> > thread_cache_size = 16
> > query_cache_size = 128k
> > query_cache_limit = 1024M
> > thread_concurrency = 16
> > max_heap_table_size = 32M
> > log-bin=mysql-bin
> > max_binlog_size=500M
> > server-id       = 1
> > expire_logs_days=2
> > [mysqldump]
> > quick
> > max_allowed_packet = 16M
> > [mysql]
> > no-auto-rehash
> > [isamchk]
> > key_buffer = 128M
> > sort_buffer_size = 128M
> > read_buffer = 2M
> > write_buffer = 2M
> > [myisamchk]
> > key_buffer = 128M
> > sort_buffer_size = 128M
> > read_buffer = 2M
> > write_buffer = 2M
> > [mysqlhotcopy]
> > interactive-timeout
> > old_passwords=1
> > [mysqld_safe]
> > log-error=/var/log/mysqld.log
> > pid-file=/var/run/mysqld/mysqld.pid
> >
> > --
> >
> > Abraços,
> > Renato
> >
> > --
> > GUS-BR - Grupo de Usuários de Slackware Brasil
> > http://www.slackwarebrasil.org/
> > http://groups.google.com/group/slack-users-br
> >
> > Antes de perguntar:
> > http://www.istf.com.br/perguntas/
> >
> > Para sair da lista envie um e-mail para:
> > [email protected]
>
> --
> GUS-BR - Grupo de Usuários de Slackware Brasil
> http://www.slackwarebrasil.org/
> http://groups.google.com/group/slack-users-br
>
> Antes de perguntar:
> http://www.istf.com.br/perguntas/
>
> Para sair da lista envie um e-mail para:
> [email protected]
>



-- 
" Eu quero saber como renomear um arquivo " ele diz.
Por favor, é dia de pagamento, não é?! Mas eu estou de bom humor.
" Claro. Basta dar 'rm' e o nome do arquivo "
" Obrigado "

Noilson Caio T. de Araújo
Linux Professional Institute Certification
LPI000182893
Novell Certified Linux Administrator (CLA)
10111916
Novell Data Center Technical Specialist
http://ncaio.ithub.com.br
http://www.commandlinefu.com/commands/by/ncaio
http://www.dicas-l.com.br/autores/noilsoncaioteixeiradearaujo.php

-- 
GUS-BR - Grupo de Usuários de Slackware Brasil
http://www.slackwarebrasil.org/
http://groups.google.com/group/slack-users-br

Antes de perguntar:
http://www.istf.com.br/perguntas/

Para sair da lista envie um e-mail para:
[email protected]

Responder a