Hallo, > Wenn ich eine einzige Tabelle dafÃr mach, wÃhren das dann 800.000 > Zeilen und mehr tausenden von Spalten. Dann kommt dazu, das ich die > Benuzerrechte Ãber die Zeilen managen muÃ...
Vielleicht wollte ich anregen, das Konzept an sich einfach mal zu Ãberdenken? Vielleicht lÃsst sich einiges auch ganz anders lÃsen als man das bisher getan hat - das macht manchmal durchaus Sinn :-) > Das ist ja dann ein Dump, der mehrere Tabellen beinhaltet... Habe ich > bis jetzt nicht hinbekommen... Jede Tabelle einzeln :-) > Das Datenbank-Schema ist ja bei $USER auch vorhanden. Mit allen 800.000 Tabellen? Ohje.. > Damit muà ich aber alle tabellen einzeln dumpen. Ich suchte eine > MÃglichkeit, wie ich gleich ein dutzent Tabellen auf einem einzigen > Schlag dumpen kann, damit der $USER es einfacher hat. Selbst schreiben ist eine LÃsung. Per SELECT alles rausholen, in das Dateiformat fÃr den COPY FROM bringen und speichern das ganze. Wie das genau aussieht, zeigt ein Blick in die Ausgabe des normalen Dumps. Und was die Datenkollisionen angeht, so kÃnnte man in dem entsprechenden File entweder alles in Transaktionen verpacken und dann spielen die IntegrityErrors keine Rolle weil sie ja nur Duplikate anzeigen oder man setzt einige entsprechende DROP Zeilen davor. > Ebend... Ich benÃtige ja fÃr projekte keine 80 GByte Tabelle sondern > nur gewisse Daten daraus... Sowas lÃÃt dann die Gehirnwindungen > rauchen. Ich hÃtte das ja auf die einzelnen Projekte direkt verteilt oder mir halt wirklich die Teilmenge der Daten in einen eigenen Dump geschrieben. Sollte wenn die SELECT Statements klar definiert sind doch kein Problem darstellen... > LÃuft nicht unter WOODY :-) Mit neuerem Kernel (evtl. ein gepatchter) und einem Backport schon. Hatte ich mal... Cheers, Jan
signature.asc
Description: OpenPGP digital signature

