J'ai ciblé un peu plus le problème et celui-ci ne survient que lorsque le 
NFS est sur un disque firewire spécifique: j'ai des LACie de 250Gb en 
FireWire800 en share NFS, sur lesquels je n'ai pas une performance 
foudroyante mais qui fonctionnent assez bien. J'ai ajouté des nouveaux 
LaCie Exterme de 300Gb et je les ai préparés de la même façon que les 
250gb: une partition ext3 sur sdx1. Si je connecte ces disques et les 
monte sur l'export Ndès que des I/O sont effectués, la machine a un load 
qui monte à 18! iostat ne m'indique pas de block in/out sur le disque et 
un hdparm -tT /dev/sdb (mon 300gb) donne ca:
 Timing cached reads:   3676 MB in  2.00 seconds = 1837.36 MB/sec
 Timing buffered disk reads:   74 MB in  3.03 seconds =  24.39 MB/sec

Par compte mon dmesg est rempli de messages:
Write (10) 00 0b ee c3 67 00 00 f8 00
ieee1394: sbp2: aborting sbp2 command

Après la connexion du media et son mount:
ieee1394: Reconnected to SBP-2 device
ieee1394: Node 0-00:1023: Max speed [S400] - Max payload [2048]
ieee1394: Node added: ID:BUS[0-01:1023]  GUID[00d04b560802c88c]
ieee1394: Reconnected to SBP-2 device
ieee1394: Node 0-00:1023: Max speed [S400] - Max payload [2048]
scsi5 : SCSI emulation for IEEE-1394 SBP-2 Devices
ieee1394: sbp2: Logged into SBP-2 device
ieee1394: Node 0-01:1023: Max speed [S400] - Max payload [2048]
  Vendor: ST330083  Model: 1A                Rev: 3.01
  Type:   Direct-Access                      ANSI SCSI revision: 06
SCSI device sdb: 586072368 512-byte hdwr sectors (300069 MB)
sdb: asking for cache data failed
sdb: assuming drive cache: write through
SCSI device sdb: 586072368 512-byte hdwr sectors (300069 MB)
sdb: asking for cache data failed
sdb: assuming drive cache: write through
 sdb: sdb1
Attached scsi disk sdb at scsi5, channel 0, id 0, lun 0
Attached scsi generic sg1 at scsi5, channel 0, id 0, lun 0,  type 0

Un problème de microcode dans l'enclosure FireWire? C'est toujours une 
SuSE 9.2 avec le 2.6.8-24.16-bigsmp, peut-être certains d'entre-vous ont 
aussi ce périphérique...



On Wed, 27 Jul 2005, Alain EMPAIN wrote:

> Bonjour,
> 
> je suis moi-même sur ce genre de problème de preformance sur SuSE 9.1.
> Je n'avais pas rencontré de problèmes particuliers avant d'augmenter mon 
> parc de machines montées.
> 
> j'avais une poignée de serveurs qui montaient une partition partagée en 
> NFS sur un NAS. Je suis passé à plus d'une douzaine, et parfois un mount 
> prend plus de 5 min pour réussir, alors que normalement il est terminé 
> en une demi seconde (mais même s'il prend beaucoup de temps, il réussit).
> 
> J'ai changé le /etc/sysconfig/nfs : USE_KERNEL_NFSD_NUMBER de 4 à 12.
> Je viens de modifier les fstab pour passer à
> ...   nfs rw,hard,nointr,tcp,vers=3,rsize=32k,wsize=32k,bg 0 0
> 
> Les premiers serveurs montent rapidement ( 0.5 s), mais j'ai à nouveau 
> un délai de montage pour certains serveurs.
> J'explore (nfsstat...).
> 
> REM: les nouveaux serveurs sont tous sous Scientific Linux 3.0.4 (un 
> dérivé de RedHat ES3 produit par FermiLab et supporté par le CERN).
> 
> 
>       Bonne journée,
> 
>       Alain
> 
> 
> Jean-Francois Dive wrote:
> > kk recherchent montrent un probs de deadlock la dedans mainteantn c'est
> > impossible de savoir se que suse a fait quand aux patch. T'a pas de
> > support la dessus ?
> > 
> > On Mon, Jul 25, 2005 at 09:57:56AM +0200, Vincent Jamart wrote:
> > 
> >>Hello, 
> >>
> >>sur un server en SuSE 9.2 qui fait NFS pour d'autres OS j'ai r?guli?rement 
> >>des probl?mes de performances et d'acces aux espaces export?s. Lorsque je 
> >>veux stopper le daemon  NFS il se crash avec ces messages dans dmesg:
> >>lockd: host still in use after nlmsvc_free_host_resources!------------[ 
> >>cut here  ]------------
> >>kernel BUG at fs/lockd/host.c:275!
> >>invalid operand: 0000 [#2]
> >>SMP
> >>Modules linked in: nfsd exportfs usbserial parport_pc lp parport nvram 
> >>ipv6 ther mal processor fan button battery ac subfs edd sbp2 evdev joydev 
> >>sg st sr_mod ide _cd cdrom ohci1394 ieee1394 ehci_hcd uhci_hcd 
> >>intel_mch_agp agpgart hw_random dm _mod e100 mii e1000 usbcore ata_piix 
> >>libata reiserfs sd_mod scsi_mod
> >>CPU:    0
> >>EIP:    0060:[<c01cf213>]    Not tainted VLI
> >>EFLAGS: 00010286   (2.6.8-24.16-bigsmp SL92_BRANCH-200506021209570000)
> >>EIP is at nlm_release_host+0x23/0x50
> >>eax: ffffffff   ebx: d8b1a480   ecx: f4639fc8   edx: 00000296
> >>esi: f4638000   edi: c1dffe00   ebp: f7decf40   esp: f4639fb4
> >>ds: 007b   es: 007b   ss: 0068
> >>Process lockd (pid: 7617, threadinfo=f4638000 task=f760f670)
> >>Stack: c0125a97 c036f8bc d8b1a480 c01d2928 c036f8bc 00000000 c01cf995 
> >>c03819d8
> >>       00000000 00059437 00000000 c01cf740 00000000 00000000 00000000 
> >>c01062b9
> >>       c1dffe00 00000000 00000000
> >>Call Trace:
> >> [<c0125a97>] printk+0x17/0x20
> >> [<c01d2928>] nlmsvc_invalidate_all+0x38/0x46
> >> [<c01cf995>] lockd+0x255/0x280
> >> [<c01cf740>] lockd+0x0/0x280
> >> [<c01062b9>] kernel_thread_helper+0x5/0xc
> >>Code: 04 e8 92 68 f5 ff eb c3 53 83 ec 08 85 c0 89 c3 74 14 80 3d 1c 38 4e 
> >>c0 00  78 1a f0 ff 4b 50 8b 43 50 85 c0 78 05 83 c4 08 5b c3 <0f> 0b 13 01 
> >>b6 a6 36 c0  eb f1 c7 04 24 c6 a6 36 c0 8d 40 18 89
> >> <4>lockd_down: lockd failed to exit, clearing pid
> >>nfsd: last server has exited
> >>nfsd: unexporting all filesystems
> >>
> >>
> >>Je n'avais pas cela il y a 3 semaines mais depuis, c'est ssyt?matique 
> >>lorsque plusieurs clients NFS (AIX, HP-UX, IRIX,...) copient de gros 
> >>volumes  de donnes en meme temps sur l'export de backup.
> >>
> >>J'ai un peu cherch? sur le message kernel bug et j'ai trouv? des mails de 
> >>Hans Reiser de 12/2004 mais pas de solution. L'export est un disque de 
> >>300Gb en firewire avec Reiserfs. Le kernel est le dernier en date de SuSE 
> >>via YoU...
> >>
> >>_______________________________________________________
> >>Linux Mailing List - http://www.unixtech.be
> >>Subscribe/Unsubscribe: http://www.unixtech.be/mailman/listinfo/linux
> >>Archives: http://www.mail-archive.com/linux@lists.unixtech.be
> >>IRC: chat.unixtech.be:6667 - #unixtech
> >>NNTP: news.gname.org - gmane.org.user-groups.linux.unixtech
> > 
> > 
> > 
> > ------------------------------------------------------------------------
> > 
> > _______________________________________________________
> > Linux Mailing List - http://www.unixtech.be
> > Subscribe/Unsubscribe: http://www.unixtech.be/mailman/listinfo/linux
> > Archives: http://www.mail-archive.com/linux@lists.unixtech.be
> > IRC: chat.unixtech.be:6667 - #unixtech
> > NNTP: news.gname.org - gmane.org.user-groups.linux.unixtech
> 
> 

_______________________________________________________
Linux Mailing List - http://www.unixtech.be
Subscribe/Unsubscribe: http://www.unixtech.be/mailman/listinfo/linux
Archives: http://www.mail-archive.com/linux@lists.unixtech.be
IRC: chat.unixtech.be:6667 - #unixtech
NNTP: news.gname.org - gmane.org.user-groups.linux.unixtech

Répondre à