Buna seara,

Am nevoie de ajutorul vostru pentru a intelege ce problema pot sa am cu o 
nenorocita de partitie XFS.

Descrierea sistemului:
* 2 x Dual-Core AMD Opteron (275 HE)
* 8 GB RAM
* OS: Fedora Core 4, kernel 2.6.17-1.2142_FC4smp, xfsprogs-2.6.13-4
* 2 cartele RAID 3-Ware, fiecare configurate cu RAID5 + hotspare
* Pe fiecare din volumele RAID am o partitie XFS
* OS-ul e instalat pe un HDD separat care nu face parte din nici un volum RAID

Problema e ca pe unul dintre volume (/raid.1), imi spune ca nu mai pot crea 
fisiere desi spatiu mai este suficient:

# touch /raid.1/x
-bash: /raid.1/x: No space left on device

Totusi:
# df -hl | egrep -i /raid
/dev/sdb              6.4T  5.7T  756G  89% /raid.1
/dev/sdc              3.2T  2.4T  829G  75% /raid.2

I-node-uri mai sunt:
# df -i | egrep -i /raid
/dev/sdb             3145751648    3264 3145748384    1% /raid.1
/dev/sdc             3417895936   20995 3417874941    1% /raid.2

Nu este nici un proces care sa aiba deschise fisiere. Am rebutat systemul si 
acum nu se poate nimeni loga pe el, sunt absolut sigur ca nu este nici un 
proces care sa aiba deschis vreun fisier.

Am rulat xfs_repair (cu partitia unmounted) si nu s-a plans de nimic:

# xfs_repair /dev/sdb
Phase 1 - find and verify superblock...
Phase 2 - using internal log
        - zero log...
        - scan filesystem freespace and inode maps...
        - found root inode chunk
Phase 3 - for each AG...
        - scan and clear agi unlinked lists...
        - process known inodes and perform inode discovery...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - agno = 4
        - agno = 5
        - agno = 6
        - agno = 7
        - agno = 8
        - agno = 9
        - agno = 10
        - agno = 11
        - agno = 12
        - agno = 13
        - agno = 14
        - agno = 15
        - agno = 16
        - agno = 17
        - agno = 18
        - agno = 19
        - agno = 20
        - agno = 21
        - agno = 22
        - agno = 23
        - agno = 24
        - agno = 25
        - agno = 26
        - agno = 27
        - agno = 28
        - agno = 29
        - agno = 30
        - agno = 31
        - process newly discovered inodes...
Phase 4 - check for duplicate blocks...
        - setting up duplicate extent list...
        - clear lost+found (if it exists) ...
        - clearing existing "lost+found" inode
        - deleting existing "lost+found" entry
        - check for inodes claiming duplicate blocks...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - agno = 4
        - agno = 5
        - agno = 6
        - agno = 7
        - agno = 8
        - agno = 9
        - agno = 10
        - agno = 11
        - agno = 12
        - agno = 13
        - agno = 14
        - agno = 15
        - agno = 16
        - agno = 17
        - agno = 18
        - agno = 19
        - agno = 20
        - agno = 21
        - agno = 22
        - agno = 23
        - agno = 24
        - agno = 25
        - agno = 26
        - agno = 27
        - agno = 28
        - agno = 29
        - agno = 30
        - agno = 31
Phase 5 - rebuild AG headers and trees...
        - reset superblock...
Phase 6 - check inode connectivity...
        - resetting contents of realtime bitmap and summary inodes
        - ensuring existence of lost+found directory
        - traversing filesystem starting at / ...
        - traversal finished ...
        - traversing all unattached subtrees ...
        - traversals finished ...
        - moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
done

xfs_check nu zice nici el nimic:

# xfs_check /dev/sdb
# 

Pot face append la fisiere deja existente cat doresc, dar nu pot crea nici un 
fisier nou, nici macar unul de zero bytes. Pot crea fisiere sau directori 
numai daca in prealabil sterg fisiere sau directori. Daca sterg X, pot crea 
din nou maxim X.

Pe partitia cu probleme (/raid.1), pot avea maxim:

# find /raid.1 | wc -l
3262

de fisiere/directori/symlinks. Pot insa crea hardlinks.

Pe cealalta partitie (/raid.2, mai mica) din acelasi sistem am mult mai multe 
fisiere:

# find /raid.2 | wc -l
20993

deci limitarea nu poate fi de la driver-ul de XFS sau de la kernel.

Nu am quota. Partitiile au fost create asftel:
# mkfs.xfs /dev/sdb
# mkfs.xfs /dev/sdc
cu ceva vreme in urma.

# xfs_info /dev/sdb
meta-data=/dev/sdb               isize=256    agcount=32, agsize=53404624 blks
         =                       sectsz=512   attr=0
data     =                       bsize=4096   blocks=1708947968, imaxpct=25
         =                       sunit=0      swidth=0 blks, unwritten=1
naming   =version 2              bsize=4096
log      =internal               bsize=4096   blocks=32768, version=1
         =                       sectsz=512   sunit=0 blks
realtime =none                   extsz=65536  blocks=0, rtextents=0


# xfs_info /dev/sdc
meta-data=/dev/sdc               isize=256    agcount=32, agsize=26702312 blks
         =                       sectsz=512   attr=0
data     =                       bsize=4096   blocks=854473984, imaxpct=25
         =                       sunit=0      swidth=0 blks, unwritten=1
naming   =version 2              bsize=4096
log      =internal               bsize=4096   blocks=32768, version=1
         =                       sectsz=512   sunit=0 blks
realtime =none                   extsz=65536  blocks=0, rtextents=0


Nu inteleg unde poate fi problema, Google nu m-a ajutat cu nimic. 

Are cineva vreo idee, vreun pai de care sa ma agat?

Multumesc,
  Radu

P.S. Foarte important: a copia continutul partitie in alta parte si a reface 
partitia de la capat NU este o optiune. Nu am unde sa backup 5.7 TB de date.

_______________________________________________
RLUG mailing list
[email protected]
http://lists.lug.ro/mailman/listinfo/rlug

Raspunde prin e-mail lui