N'Abend,

Am 2005-01-20 17:58:46, schrieb Jan Kesten:
> Hallo zusammen :-)

> Wenn diese Projekt-Tabellen vom Aufbau her �hnlich sind, kann man die
> doch problemlos zu einer Tabelle zusammenfassen und dann die
> entsprechend gebrauchten Daten beim mittels eines modifizierten Selects
> herausholen.

Theoretish ja, aber ich habe Benutzerrechte auf den Tabellen...

Wenn ich eine einzige Tabelle daf�r mach, w�hren das dann 800.000 Zeilen
und mehr tausenden von Spalten. Dann kommt dazu, das ich die
Benuzerrechte �ber die Zeilen managen mu�...

> > Diese Tabellen sind ja auch das, was ich per Webinterfache exportieren
> > will und dazu alle Referenzen vollst�ndig.
> 
> Was spricht denn gegen einen (modifizierten) Dump? Wenn man einfach ein

Das ist ja dann ein Dump, der mehrere Tabellen beinhaltet...
Habe ich bis jetzt nicht hinbekommen...

W�hre wie gesagt, die Projecttabelle, ausschnitte aus der Haupttabelle
sowie eine unbekannte anzahl von Referenztabellen.

> SQL-Ger�st zur Verf�gung stellt, kann man damit die Datenbankstruktur
> erstellen und mittels COPY dann die Datein einf�ttern lassen, da sehe
> ich auch anhieb kein Problem. Man muss nur wenn man (echte) Referenzen

Eine Struktur von tempor�ren Tabellen erstellen und Daten hineinkopieren
habe ich auch schon fertiggebracht. Nur nicht alle tempor�ren tabellen
in einen einzigen Dump.

> benutzt sicherstellen, dass diese dann nicht mit schon vorhandenen Daten
> kollidieren.

Also Ver�nderungen werden nur am master Server vorgenommen. Somit sind
die Referenzen einmalig. Das einziege was passieren kann ist, das
Referenzen hinzukommen.

> > Das Problem ist nur, wie kann ich das am besten machen ?
> > Du kannst ja nicht einfach eine dump importieren...
> 
> Warum nicht?

Weil er mit eventuellen vorhandenen Dateien kollidiert (obwohl
es die gleichen sind)

> pg_dump -s <dbname> erstellt ein Datenbank-Schema und ein

Das Datenbank-Schema ist ja bei $USER auch vorhanden.

> pg_dump --table=<tablename> erstellt ein Tabellen-Dump. Und Einspielen
> kann man das ganze wie �blich.

Damit mu� ich aber alle tabellen einzeln dumpen.
Ich suchte eine M�glichkeit, wie ich gleich ein dutzent Tabellen auf
einem einzigen Schlag dumpen kann, damit der $USER es einfacher hat.

Gut, der exportierte Dump ist nur eine/mehrere tempor�re tabelle(n)
aber die m��en dann in das original Datenbank-Scheme kopiert weden
und die tempor�ren Tabellen gel�scht.

> Alternativ mit COPY... nur bei Teiltabellen wird's in beiden F�llen
> etwas lustiger :-)

:-/

Ebend... Ich ben�tige ja f�r projekte keine 80 GByte Tabelle sondern
nur gewisse Daten daraus... Sowas l��t dann die Gehirnwindungen rauchen.

> > Ja ich verwende die PostgreSQL als erweitertes Dateisystem.
> 
> Mal �ber XFS und dessen Attribute nachgedacht?

L�uft nicht unter WOODY :-)

> > Auch mein Datenbankprogramm (programmiert mit DJGPP in 32Bit)
> > hat einwandfrei funktioniert...
> 
> Das waren noch Zeiten damals in den ganz ganz sp�ten Achtzigern - wow
> ist das lange her (Pascal, Basic und Assembler lassen gr��en). Damals wo
> man noch jede Steuerleitung seines Rechners mit Namen kannte... *schwelg*

:-)

Von dort her kenne ich auch ettliche GNU/Linux Core Developer...

Erstaunlich, wen man da so alles im Sourcecode des Kernels
wiederfindet :-)

Wenn ich etwas f�her von linux erfahren h�tte...
H�tte ich nicht die Zeit 1995-1999 mit Windows verschwendet.

> Cheers,
> Jan

Greetings
Michelle

-- 
Linux-User #280138 with the Linux Counter, http://counter.li.org/ 
Michelle Konzack   Apt. 917                  ICQ #328449886
                   50, rue de Soultz         MSM LinuxMichi
0033/3/88452356    67100 Strasbourg/France   IRC #Debian (irc.icq.com)

Attachment: signature.pgp
Description: Digital signature

Antwort per Email an