N'Abend, Am 2005-01-20 17:58:46, schrieb Jan Kesten: > Hallo zusammen :-)
> Wenn diese Projekt-Tabellen vom Aufbau her �hnlich sind, kann man die > doch problemlos zu einer Tabelle zusammenfassen und dann die > entsprechend gebrauchten Daten beim mittels eines modifizierten Selects > herausholen. Theoretish ja, aber ich habe Benutzerrechte auf den Tabellen... Wenn ich eine einzige Tabelle daf�r mach, w�hren das dann 800.000 Zeilen und mehr tausenden von Spalten. Dann kommt dazu, das ich die Benuzerrechte �ber die Zeilen managen mu�... > > Diese Tabellen sind ja auch das, was ich per Webinterfache exportieren > > will und dazu alle Referenzen vollst�ndig. > > Was spricht denn gegen einen (modifizierten) Dump? Wenn man einfach ein Das ist ja dann ein Dump, der mehrere Tabellen beinhaltet... Habe ich bis jetzt nicht hinbekommen... W�hre wie gesagt, die Projecttabelle, ausschnitte aus der Haupttabelle sowie eine unbekannte anzahl von Referenztabellen. > SQL-Ger�st zur Verf�gung stellt, kann man damit die Datenbankstruktur > erstellen und mittels COPY dann die Datein einf�ttern lassen, da sehe > ich auch anhieb kein Problem. Man muss nur wenn man (echte) Referenzen Eine Struktur von tempor�ren Tabellen erstellen und Daten hineinkopieren habe ich auch schon fertiggebracht. Nur nicht alle tempor�ren tabellen in einen einzigen Dump. > benutzt sicherstellen, dass diese dann nicht mit schon vorhandenen Daten > kollidieren. Also Ver�nderungen werden nur am master Server vorgenommen. Somit sind die Referenzen einmalig. Das einziege was passieren kann ist, das Referenzen hinzukommen. > > Das Problem ist nur, wie kann ich das am besten machen ? > > Du kannst ja nicht einfach eine dump importieren... > > Warum nicht? Weil er mit eventuellen vorhandenen Dateien kollidiert (obwohl es die gleichen sind) > pg_dump -s <dbname> erstellt ein Datenbank-Schema und ein Das Datenbank-Schema ist ja bei $USER auch vorhanden. > pg_dump --table=<tablename> erstellt ein Tabellen-Dump. Und Einspielen > kann man das ganze wie �blich. Damit mu� ich aber alle tabellen einzeln dumpen. Ich suchte eine M�glichkeit, wie ich gleich ein dutzent Tabellen auf einem einzigen Schlag dumpen kann, damit der $USER es einfacher hat. Gut, der exportierte Dump ist nur eine/mehrere tempor�re tabelle(n) aber die m��en dann in das original Datenbank-Scheme kopiert weden und die tempor�ren Tabellen gel�scht. > Alternativ mit COPY... nur bei Teiltabellen wird's in beiden F�llen > etwas lustiger :-) :-/ Ebend... Ich ben�tige ja f�r projekte keine 80 GByte Tabelle sondern nur gewisse Daten daraus... Sowas l��t dann die Gehirnwindungen rauchen. > > Ja ich verwende die PostgreSQL als erweitertes Dateisystem. > > Mal �ber XFS und dessen Attribute nachgedacht? L�uft nicht unter WOODY :-) > > Auch mein Datenbankprogramm (programmiert mit DJGPP in 32Bit) > > hat einwandfrei funktioniert... > > Das waren noch Zeiten damals in den ganz ganz sp�ten Achtzigern - wow > ist das lange her (Pascal, Basic und Assembler lassen gr��en). Damals wo > man noch jede Steuerleitung seines Rechners mit Namen kannte... *schwelg* :-) Von dort her kenne ich auch ettliche GNU/Linux Core Developer... Erstaunlich, wen man da so alles im Sourcecode des Kernels wiederfindet :-) Wenn ich etwas f�her von linux erfahren h�tte... H�tte ich nicht die Zeit 1995-1999 mit Windows verschwendet. > Cheers, > Jan Greetings Michelle -- Linux-User #280138 with the Linux Counter, http://counter.li.org/ Michelle Konzack Apt. 917 ICQ #328449886 50, rue de Soultz MSM LinuxMichi 0033/3/88452356 67100 Strasbourg/France IRC #Debian (irc.icq.com)
signature.pgp
Description: Digital signature

