Hallo zusammen,

ich habe hier eine auf Ldoms basierende Schulungsumgebung.
Das funktioniert etwas folgendermaßen:
Wenn ich ein paar Schulungsmaschinen benötige, werden auf der primary domain für jede Ldom pro Ldom Festplatte aus einem ZFS snapshot ein Clon erzeugt. Zum besseren Verständnis habe ich die Konfiguration unten angehängt. Das funktioniert so auch ganz prima. Innerhalb weniger Minuten kann ich etlichen Schulungsteilnehmern eine frische Ldom geben, auf der jeder dann nach Belieben werkeln kann. Zum nächsten Kurs, oder wenn einer seine Ldom nieder gemetzelt hat, wird die dann mit allen Devices plattgemacht und frisch erstellt.

Das Problem ist nur: Die Ldom haben als virtuellen Plattenplatz Zpools auf ZFS Volumes und das ist langsam. Natürlich habe ich nicht erwartet, dass es mit dem zusätzlichen Protokolloverhead schneller wird, aber ich bekomme nur ein Drittel des Durchsatzes, den ich bekomme, wenn ich den Ldoms Device durchreiche.

Um die Ldoms selbst auszuschliessen habe ich den Bonnie mal direkt auf einem ZFS im Vergleich zu einem ZFS auf einem ZVOL laufen lassen:

zfs un LUN
Version 1.03e       -Sequential Output- -Seq.Inp.- -Random-
                    --Block-- -Rewrite- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP  /sec %CP
zx.schulung. 16448M 81857  86 51578  79 119064 82  1178  17
                    -Sequential Create- -Random Create-----
                    -Create-- -Delete-- -Create-- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  4691  99  7010  99  3353  99  7648  99

zpool/zfs on zvol on LUN
Version 1.03e       -Sequential Output- -Seq.Inp.- -Random-
                    --Block-- -Rewrite- --Block-- --Seeks--
Machine        Size K/sec %CP K/sec %CP K/sec %CP  /sec %CP
zx.schulung. 16448M 30168  34 14629  40 13060  85 486.1 192
                    -Sequential Create- -Random Create-----
                    -Create-- -Delete-- -Create-- -Delete--
              files  /sec %CP  /sec %CP  /sec %CP  /sec %CP
                 16  4626  99  7290  99  2924  99  2762  98

Ich bekomme damit auch so etwa ein Drittel des Durchsatzes.
Ein paar Versuche etwas mehr Performance zu bekommen habe ich schon erfolfglos ausprobiert:
- ramdisk als ZIL
- ramdisk als ARC cache
- ZVOL volblocksize und ZFS recordsize auf 128K
- bzw. ZVOL volblocksize und ZFS recordsize auf 8K
...

So und nun meine Frage:
Hat jemand eine Erfolg versprechende Idee oder muss ich mich mit diesem Performanceeinbruch abfinden ?

Grüße

Gerhard Weick

Anhang Ldom Konfiguration

# zfs list
.....
ldmpoolB/OraData@Default             0      -  3.99G  -
ldmpoolB/OraData.ldom16          3.40M  30.5G  3.99G  -
ldmpoolB/Oracle@Default              0      -  8.63G  -
ldmpoolB/Oracle.ldom16           6.14M  30.5G  8.63G  -
ldmpoolB/SunOS10_u9@Default          0      -  3.08G  -
ldmpoolB/SunOS10_u9.ldom16       12.7M  30.5G  3.08G  -
ldmpoolB/swap.ldom16               16K  30.5G    16K  -


# ldm list services
....

VDS
  NAME     ... VOLUME  ... DEVICE
  primary-vds0 bootdisk16  /dev/zvol/dsk/ldmpool/SunOS10_u9.ldom16
               swap16      /dev/zvol/dsk/ldmpoolB/swap.ldom16
               oradisk16   /dev/zvol/dsk/ldmpoolB/Oracle.ldom16
               oradata16   /dev/zvol/dsk/ldmpoolB/OraData.ldom16



# ldm list -l ldom16

DISK
NAME VOLUME ... DEVICE SERVER bootdisk bootdisk16@primary-vds0 disk@0 primary
    swap16    swap16@primary-vds0         disk@1  primary
    oradisk   oradisk16@primary-vds0      disk@2  primary
    oradata   oradata16@primary-vds0      disk@3  primary




_______________________________________________
ug-fraosug mailing list
ug-fraosug@opensolaris.org
http://mail.opensolaris.org/mailman/listinfo/ug-fraosug

Antwort per Email an