Hallo zusammen,
ich habe hier eine auf Ldoms basierende Schulungsumgebung.
Das funktioniert etwas folgendermaßen:
Wenn ich ein paar Schulungsmaschinen benötige, werden auf der primary
domain für jede Ldom pro Ldom Festplatte aus einem ZFS snapshot ein Clon
erzeugt. Zum besseren Verständnis habe ich die Konfiguration unten
angehängt.
Das funktioniert so auch ganz prima. Innerhalb weniger Minuten kann ich
etlichen Schulungsteilnehmern eine frische Ldom geben, auf der jeder
dann nach Belieben werkeln kann. Zum nächsten Kurs, oder wenn einer
seine Ldom nieder gemetzelt hat, wird die dann mit allen Devices
plattgemacht und frisch erstellt.
Das Problem ist nur: Die Ldom haben als virtuellen Plattenplatz Zpools
auf ZFS Volumes und das ist langsam. Natürlich habe ich nicht erwartet,
dass es mit dem zusätzlichen Protokolloverhead schneller wird, aber ich
bekomme nur ein Drittel des Durchsatzes, den ich bekomme, wenn ich den
Ldoms Device durchreiche.
Um die Ldoms selbst auszuschliessen habe ich den Bonnie mal direkt auf
einem ZFS im Vergleich zu einem ZFS auf einem ZVOL laufen lassen:
zfs un LUN
Version 1.03e -Sequential Output- -Seq.Inp.- -Random-
--Block-- -Rewrite- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP /sec %CP
zx.schulung. 16448M 81857 86 51578 79 119064 82 1178 17
-Sequential Create- -Random Create-----
-Create-- -Delete-- -Create-- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP
16 4691 99 7010 99 3353 99 7648 99
zpool/zfs on zvol on LUN
Version 1.03e -Sequential Output- -Seq.Inp.- -Random-
--Block-- -Rewrite- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP /sec %CP
zx.schulung. 16448M 30168 34 14629 40 13060 85 486.1 192
-Sequential Create- -Random Create-----
-Create-- -Delete-- -Create-- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP
16 4626 99 7290 99 2924 99 2762 98
Ich bekomme damit auch so etwa ein Drittel des Durchsatzes.
Ein paar Versuche etwas mehr Performance zu bekommen habe ich schon
erfolfglos ausprobiert:
- ramdisk als ZIL
- ramdisk als ARC cache
- ZVOL volblocksize und ZFS recordsize auf 128K
- bzw. ZVOL volblocksize und ZFS recordsize auf 8K
...
So und nun meine Frage:
Hat jemand eine Erfolg versprechende Idee oder muss ich mich mit diesem
Performanceeinbruch abfinden ?
Grüße
Gerhard Weick
Anhang Ldom Konfiguration
# zfs list
.....
ldmpoolB/OraData@Default 0 - 3.99G -
ldmpoolB/OraData.ldom16 3.40M 30.5G 3.99G -
ldmpoolB/Oracle@Default 0 - 8.63G -
ldmpoolB/Oracle.ldom16 6.14M 30.5G 8.63G -
ldmpoolB/SunOS10_u9@Default 0 - 3.08G -
ldmpoolB/SunOS10_u9.ldom16 12.7M 30.5G 3.08G -
ldmpoolB/swap.ldom16 16K 30.5G 16K -
# ldm list services
....
VDS
NAME ... VOLUME ... DEVICE
primary-vds0 bootdisk16 /dev/zvol/dsk/ldmpool/SunOS10_u9.ldom16
swap16 /dev/zvol/dsk/ldmpoolB/swap.ldom16
oradisk16 /dev/zvol/dsk/ldmpoolB/Oracle.ldom16
oradata16 /dev/zvol/dsk/ldmpoolB/OraData.ldom16
# ldm list -l ldom16
DISK
NAME VOLUME ... DEVICE SERVER
bootdisk bootdisk16@primary-vds0 disk@0 primary
swap16 swap16@primary-vds0 disk@1 primary
oradisk oradisk16@primary-vds0 disk@2 primary
oradata oradata16@primary-vds0 disk@3 primary
_______________________________________________
ug-fraosug mailing list
ug-fraosug@opensolaris.org
http://mail.opensolaris.org/mailman/listinfo/ug-fraosug