On 17.Feb 2005 - 12:28:43, Hagen Kuehnel wrote: > Wollen wir uns �ber das Thema nun wirklich unterhalten?
Ein kleiner Einwurf von mir... > On Thu, Feb 17, 2005 at 10:48:12AM +0100, Thomas Kosch wrote: > > On Day 48 of Chaos 3171, Hagen Kuehnel wrote: > > > > > On Thu, Feb 17, 2005 at 03:17:53AM +0100, Thomas Kosch wrote: > > > > > >> Wobi ich diese Aussage bezweifeln m�chte. Ich hatte ende letzten Jahres > > >> das "Vergnugen" das ganze mit einem Gesamtdatenbankvolumen von 20 GB > > >> durchziehen zu d�rfen. Mit dem Weg mysqldump | gzip | ssh | gunzip | > > >> mysqldump war das ganze in rund 8 Minuten gegessen. Ich glaube nicht das > > >> ich schneller gewsen w�re wenn ich das Ganze "bin�r" kopiert h�tte. > > > > > > nette Performance. Das d�rfte das absolute Minimum f�r den Transfer > > > gewesen sein, gzip sollte in 0,nichts komprimiert haben. > > > > Wie kommst du auf das schmale Brett? > > Weil 8 Minuten f�r 20GB verdamt wenig Zeit ist, selbst, wenn man nur > diese Datenmenge �bers Netz kopiert. Welches 100MBit-Netz schafft > wirklich 100MBit (OK, ich habe Cisco-Switches noch nicht ausprobiert). Er hat 20GB DB-Volumen, das heisst aber nicht, dass er die gesamte Menge �bers Netz kopiert... > > Nein. Ich hatte das was ich geschrieben habe nicht ohne Grund so > > geschrieben wie ich es gschrieben hatte. > > Und oben steht (s.o.), dass Du in 8 Minuten > > - mysqldump 20GB (1. lesen/schreiben) Ok, wobei die Ausgabe von mysqldump direkt in eine Pipe gejagt wird, wodurch da kein "schreiben" ala HDD notwendig ist, du hast also volle Leseleistung. > - gzip 20GB*FaktorX (2. lesen/schreiben) gzip ist IMHO auch beim Komprimieren recht fix... > - ssh 20GB*FaktorX (3. lesen/schreiben) Falsch, hier hast du nicht mehr 20GB, sondern je nach Daten nur noch einen Bruchteil. Wenn z.B. viele Daten == NULL sind, d�rfte das ganze insgesamt gut komprimieren. Wenn man vorraussetzt das kein normaler Mensch BLOBS in ne MysqlDB packt ;-) dann denke ich kann man durchaus mit 2/3 bis 3/4 Komprimierung (also 5-6.6GB) rechnen. > - gunzip 20GB*FaktorX (4. lesen/schreiben) Jetzt erst sinds wieder 20GB... > - mysql 20GB*FaktorX (mit mysqldump kann man nicht restoren) > (5. lesen/schreiben) Der 2. Festplattenzugriff - diesmal schreibend, anderer Rechenr... > ausgef�hrt hast. Und das nehme ich Dir nur ab, wenn beide Maschinen > Hardware vom Feinsten haben, weil es sonst nicht funktioniert - rein > arithmetisch ist es mit der Performance normaler 0815-Hardware nicht zu > machen. Hmm, was ist, wenn Mysql schon 25% der Daten im RAM hat? > IDE-ATA133 ben�tigt bei voller Auslastung eine Kanals 2,5 Minuten f�r > den Transfer von 20GB. Bei Nutzung von zwei Platten an zwei seperaten > IDE-Kan�len kommst Du mit dem notwendigen 5maligen lese/schreibvorg�ngen > auf eine Mindestzeit von 12,5 Minuten - der 3 Vorgang kann nur mit Er kopiert aber �bers Netz, hat also auf dem Rechner nur die 2.5 Minuten und auf dem anderen ebenfalls. Wobei ich bisher noch keinen "Benchmark" gesehen habe der wirklich 133MB/s schafft. Vielleicht mit SATA... > 133MB/s ablaufen, wenn Du GigaBit-Ethernet nutzt. > .....usw. usf. > > Und das alles ohne Wartezeit auf den Prozessor. Reine Peripherie-Last, > also I/O-wait. Ich gebe dir durchaus Recht, dass die Zeit ziemlich eng wird wenn man das mal realistisch durchrechnet, selbt wenn der Dump gut komprimiert wird, braucht der �ber ein 100MBit Netz noch mind. 8 Minuten, 1GBit Netz w�ren dann aber so 0.8 Minuten (Ich rechne normalerweise mit 10MB/s auf nem 100MBit Netz..) > Sollte ich mich verrechnet haben, bitte ich um Korrektur. Ja, du ber�cksichtigst nicht das die Daten �ber ein GBit Netz nahezu keine Zeit brauchen (im Vgl. zum auslesen) und das dort wesentlich weniger Daten r�bergehen als 20GB. Weiterhin k�nnen die 2 Rechner parallel arbeiten - sprich du hast effektiv nur die Zeit die der Datentransfer durchs Netz braucht + Overhead.... > PPS: Nachweis - eine hda, moderner Bauart > > /dev/hda: > Timing buffer-cache reads: 2308 MB in 2.00 seconds = 1153.02 MB/sec > Timing buffered disk reads: 166 MB in 3.03 seconds = 54.74 MB/sec Hmm, wenn ich das mal nachrechner 55MB/s lesen, macht zum Lesen von 20GB 6 Minuten, inkl. Overhead und �hnlichem w�rde ich da 8 Minuten durchaus realistisch finden... Andreas -- You will be a winner today. Pick a fight with a four-year-old. -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject "unsubscribe". Probleme? Mail an [EMAIL PROTECTED] (engl)

