Assuero wrote: > Então Galera.. o que tem acontecido em dos meu servers que esta com > slack12.1 eh o seguinte: > o filesystem (reiserfs) ficou como read-only "do nada"... > vou colar pra vcs aqui uns erros que ocorrem: > [EMAIL PROTECTED]:~# vi > too many session files in /var/tmp > > [EMAIL PROTECTED]:/var/tmp# rm -vrf /var/tmp/* > rm: cannot remove `/var/tmp/elvis1.ses': Read-only file system > rm: cannot remove `/var/tmp/elvis2.ses': Read-only file system > rm: cannot remove `/var/tmp/elvis3.ses': Read-only file system > rm: cannot remove `/var/tmp/elvis4.ses': Read-only file system > rm: cannot remove `/var/tmp/elvis5.ses': Read-only file system > rm: cannot remove `/var/tmp/elvis6.ses': Read-only file system > rm: cannot remove `/var/tmp/elvis7.ses': Read-only file system > rm: cannot remove `/var/tmp/elvis8.ses': Read-only file system > > [EMAIL PROTECTED]:/# touch ~/teste > touch: cannot touch `/root/teste': Read-only file system > > [EMAIL PROTECTED]:/# mount > /dev/sda2 on / type reiserfs (rw) > proc on /proc type proc (rw) > sysfs on /sys type sysfs (rw) > usbfs on /proc/bus/usb type usbfs (rw) > /dev/sda1 on /boot type reiserfs (rw) > /dev/sdb1 on /mnt/data type reiserfs (rw) > > [EMAIL PROTECTED]:/# vmstat 2 > procs -----------memory---------- ---swap-- -----io---- -system-- > ----cpu---- > r b swpd free buff cache si so bi bo in cs us > sy id wa > 1 0 2540 8788 336712 12324 0 0 3 0 8 13 0 > 0 100 0 > 0 0 2540 8780 336712 12324 0 0 0 0 269 29 0 > 0 100 0 > 0 0 2540 8780 336712 12324 0 0 0 0 269 27 0 > 0 100 0 > 0 0 2540 8780 336712 12324 0 0 0 0 271 28 0 > 0 100 0 > 0 0 2540 8780 336712 12324 0 0 0 0 270 29 0 > 0 100 0 > > [EMAIL PROTECTED]:/# iostat 2 > Linux 2.6.24.5-smp (slack) 11/09/2008 > > avg-cpu: %user %nice %system %iowait %steal %idle > 0.01 0.00 0.02 0.01 0.00 99.96 > > Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn > sda 0.06 5.88 0.42 16526496 1189232 > sdb 0.00 0.02 0.00 65021 104 > > avg-cpu: %user %nice %system %iowait %steal %idle > 0.00 0.00 0.00 0.00 0.00 100.00 > > Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn > sda 0.00 0.00 0.00 0 0 > sdb 0.00 0.00 0.00 0 0 > > Quando o server é restartado, tudo volta ao normal.. soh que restartar > o server, sempre que isso acontecer, é algo anormal e abominavel :P > Não conseguir entender o pq o file-system tah "travando" assim.. > Alguem já teve alguma experiência com isso ou do pq isso acontece? > > T+ > Assuero > > Rodrigo Forte wrote: >> Jfs ... the best file system >> >> >> renator wrote: >>> opa.....tenta dar uma olhada no chiron fs......nao usei ele, mas ouvi >>> dizer que a proposta dele, é exatamente isso que vc esta procurando no >>> tópico. >>> >>> http://en.wikipedia.org/wiki/Chiron_FS >>> >>> http://www.furquim.org/chironfs/index.en.html >>> >>> >>> >>> On 7 nov, 17:24, Assuero <[EMAIL PROTECTED]> wrote: >>> >>>> Boa tarde Slackers.. >>>> >>>> Particularmente, gosto e uso bastante o ReiserFS.. Nunca tinha me dado >>>> problemas. >>>> >>>> Atualmente comecei a me perguntar qual seria um FS mais seguro contra >>>> perda de dados e para aplicações críticas? >>>> >>>> Ext3, XFS ou ReiserFS? >>>> >>> >>> >>> >>> E-mail verificado pelo Terra Anti-Spam. >>> Para classificar esta mensagem como spam ou não spam, visite >>> http://mail.terra.com.br/cgi-bin/reportspam.cgi?+_d=SCYxNTIxOTIwOSNwZXJtIXRlcnJhJjEsMTIyNjI1MzY4NS40NTQ5OS4xMTg1OC5xdWVzbmVsLnRlcnJhLmNvbSw0ODY2 >>> Verifique periodicamente a pasta Spam para garantir que apenas mensagens >>> indesejadas sejam classificadas como Spam. >>> >>> Esta mensagem foi verificada pelo E-mail Protegido Terra. >>> Atualizado em 08/11/2008 >>> >>> >> >> >> > > > > #########################################################################################################
O dmesg não lhe da alguma dica não? Veja no manual do mount a opção "errors=remount-ro". Você esta com ela ativada? --~--~---------~--~----~------------~-------~--~----~ GUS-BR - Grupo de Usuários de Slackware Brasil http://www.slackwarebrasil.org/ http://groups.google.com/group/slack-users-br -~----------~----~----~----~------~----~------~--~---

