Hallo,

> Wenn ich eine einzige Tabelle dafÃr mach, wÃhren das dann 800.000
> Zeilen und mehr tausenden von Spalten. Dann kommt dazu, das ich die 
> Benuzerrechte Ãber die Zeilen managen muÃ...

Vielleicht wollte ich anregen, das Konzept an sich einfach mal zu
Ãberdenken? Vielleicht lÃsst sich einiges auch ganz anders lÃsen als man
das bisher getan hat - das macht manchmal durchaus Sinn :-)

> Das ist ja dann ein Dump, der mehrere Tabellen beinhaltet... Habe ich
> bis jetzt nicht hinbekommen...

Jede Tabelle einzeln :-)

> Das Datenbank-Schema ist ja bei $USER auch vorhanden.

Mit allen 800.000 Tabellen? Ohje..

> Damit muà ich aber alle tabellen einzeln dumpen. Ich suchte eine
> MÃglichkeit, wie ich gleich ein dutzent Tabellen auf einem einzigen
> Schlag dumpen kann, damit der $USER es einfacher hat.

Selbst schreiben ist eine LÃsung. Per SELECT alles rausholen, in das
Dateiformat fÃr den COPY FROM bringen und speichern das ganze. Wie das
genau aussieht, zeigt ein Blick in die Ausgabe des normalen Dumps.

Und was die Datenkollisionen angeht, so kÃnnte man in dem entsprechenden
File entweder alles in Transaktionen verpacken und dann spielen die
IntegrityErrors keine Rolle weil sie ja nur Duplikate anzeigen oder man
setzt einige entsprechende DROP Zeilen davor.

> Ebend... Ich benÃtige ja fÃr projekte keine 80 GByte Tabelle sondern 
> nur gewisse Daten daraus... Sowas lÃÃt dann die Gehirnwindungen
> rauchen.

Ich hÃtte das ja auf die einzelnen Projekte direkt verteilt oder mir
halt wirklich die Teilmenge der Daten in einen eigenen Dump geschrieben.
Sollte wenn die SELECT Statements klar definiert sind doch kein Problem
darstellen...

> LÃuft nicht unter WOODY :-)

Mit neuerem Kernel (evtl. ein gepatchter) und einem Backport schon.
Hatte ich mal...

Cheers,
Jan

Attachment: signature.asc
Description: OpenPGP digital signature

Antwort per Email an