Hallo,
Fuer eine schlechte Loesung
ist OSM erstaunlich weit gekommen.
Nicht OSM ist eine schlechte Lösung, sondern mein Programm,
wenn ich ohne Konzept und Spec draufloswerkle. Manchmal fehlt
nur eine Kleinigkeit zu einer guten Lösung und das habe ich
hier zur Diskussion gestellt.
Ich
Hallo,
weil ich mich gerade damit befasse, möchte ich kurz nochmal ein
altes Thema aufwärmen.
Wir haben derzeit ziemlich genau 40 Millionen Nodes; die hoechste
verwendete Node-Id ist ungefaehr 60 Millionen. Etwa gleichviele
Segmente, und etwa ein Zehntel dieser Zahl an Ways.
Schade eben nur,
Hallo,
Wir haben derzeit ziemlich genau 40 Millionen Nodes; die hoechste
verwendete Node-Id ist ungefaehr 60 Millionen. Etwa gleichviele
Segmente, und etwa ein Zehntel dieser Zahl an Ways.
Schade eben nur, dass man das beim Einlesen nicht schon
vorher weiss.
Die Elemente sind noch
Naja, Du wirst halt nirgends die Garantie bekommen, dass es so bleibt.
Ohne Spec keine vernünftige SW-Entwicklung. So hab ichs gelernt
und damit bin ich bisher gut gefahren. Die Sache mit den Blöcken
ist trivial zu realisieren und die Argumente sind als optional
vorgesehen, so dass es an der
Hallo,
Naja, Du wirst halt nirgends die Garantie bekommen, dass es so bleibt.
Ohne Spec keine vernünftige SW-Entwicklung. So hab ichs gelernt
und damit bin ich bisher gut gefahren.
Siehst Du, und OSM ist bislang gut damit gefahren, keine Specs zu
haben (bzw. das, was an Specs vorhanden
Ohne Spec keine vernünftige SW-Entwicklung. So hab ichs gelernt
und damit bin ich bisher gut gefahren.
Allerdings sollte man in diesem fall das schema (DTD oder
zeitgemäß wohl das RelaxNG-schema) verfeinern. An dieses schema
müssen sich dann der planet-dump halten.
PS. Richtige XML-IDs müssen
Hallo,
PS. Richtige XML-IDs müssen mit Letter beginnen; 1234 ist keine
gültige ID ;)
Richtige XML-Ids duerfen auch nicht 2x im Dokument vorkommen (sowas
wie way id=1 und node id=1). Aber immerhin haben wir jetzt
wenigstens schonmal von seg id=123 auf nd ref=123 umgestellt,
was wesentlich
Hallo,
Siehst Du, und OSM ist bislang gut damit gefahren, keine Specs zu
haben (bzw. das, was an Specs vorhanden ist, wurde in aller Regel im
Nachhinein aus dem Code abgelesen).
Mit viel Aufwand schlechte Lösungen zu finden ist für dich gut
fahren? Für mich nicht.
OSM erlaubt also, nach
Hallo,
Allerdings sollte man in diesem fall das schema (DTD oder
zeitgemäß wohl das RelaxNG-schema) verfeinern. An dieses schema
müssen sich dann der planet-dump halten.
Find ich gut!
Und es trifft genau den Punkt. Wenn man ein Schema formulieren
kann, das die aufsteigenden IDs und
Hi,
Wenn man ein Schema formulieren kann, das die aufsteigenden IDs und
node-way-relation - Regel abbildet,
Letzteres geht - AFAIK sogar schon mit einer DTD, erst recht mit einem
Schema. Ersteres nicht.
Bye
Frederik
--
Frederik Ramm ## eMail [EMAIL PROTECTED] ## N49°00.09' E008°23.33'
Hallo,
Siehst Du, und OSM ist bislang gut damit gefahren, keine Specs zu
haben (bzw. das, was an Specs vorhanden ist, wurde in aller Regel im
Nachhinein aus dem Code abgelesen).
Mit viel Aufwand schlechte Lösungen zu finden ist für dich gut
fahren? Für mich nicht.
Andere Projekte
Hi,
will), oder die Datei für jeden Weg immer und immer wieder nach allen
Nodes durchsuchen (so dass dann die Plattengeschwindigkeit zum
Flaschenhals wird).
Soweit meine bisherigen Forschungsergebnisse.
Ohne gscheite und wohlüberlegte Datenstruktur wird das nix wie Du grad
merkst. Ergo: Du
Hallo,
will), oder die Datei für jeden Weg immer und immer wieder nach allen
Nodes durchsuchen (so dass dann die Plattengeschwindigkeit zum
Flaschenhals wird).
Soweit meine bisherigen Forschungsergebnisse.
Ohne gscheite und wohlüberlegte Datenstruktur wird das nix wie Du grad
Hi,
Ja, vermutlich schon. Ich habe gerade auch angefangen, das Perl-
Skript mal so umzustellen, dass es Bit::Vector benutzt statt Hashes -
das wird langsamer, braucht aber weniger Speicher.
es gibt ab Qt 4.3 fertige Klassen namens QXmlStreamReader und
QXmlStreamWriter. Die lesen XML line
Hallo,
Außerdem könnte es auch nach Kontinenten oder Ländern in mehrere
Dateien aufspalten.
Das ist nicht ganz trivial; ich biete ja auf meiner Webseite immer
den Deutschland-Extrakt des Planet-Files an, und der Job, der das
erzeugt, braucht jetzt schon 2 GB RAM und 3-4 Stunden. Sicher
On Thu, 20 Sep 2007 13:46:02 +0200, Frederik Ramm wrote:
(Zu Holgers Frage - klar, wenn man aus dem Deutschland-Extrakt
ausschneidet, geht es schneller.)
Ok, läuft das es unter Windows?
Und hast Du auch eine Anleitung dazu, was man dazu braucht (incl.
eventuell nötiger Bibliotheken), wo man
On Tue, 18 Sep 2007 23:49:49 +0200, Christoph Eckert wrote:
Das ist nicht ganz trivial; ich biete ja auf meiner Webseite immer
den Deutschland-Extrakt des Planet-Files an, und der Job, der das
erzeugt, braucht jetzt schon 2 GB RAM und 3-4 Stunden. Sicher koennte
man optimieren... aber so eine
Das Planet-File wird dann unkomprimiert weit ueber 100 GB haben, falls
es ueberhaupt noch erstellt wird ;-)
Den Nebensatz finde ich nicht lustig! Die Existenz bzw. Nichtexistenz
der Planetfiles (unkomplizierter Zugriff auf den gesamten Datensatz,
ähnlich wie die dump-files von wikipedia)
Hallo,
Das Planet-File wird dann unkomprimiert weit ueber 100 GB haben,
falls
es ueberhaupt noch erstellt wird ;-)
Den Nebensatz finde ich nicht lustig! Die Existenz bzw. Nichtexistenz
der Planetfiles (unkomplizierter Zugriff auf den gesamten Datensatz,
ähnlich wie die dump-files von
Hallo,
Als Alternative bleibt ja noch, das Planet-File zu komprimieren.
Wird es ja auch.
Außerdem könnte es auch nach Kontinenten oder Ländern in mehrere Dateien
aufspalten.
Das ist nicht ganz trivial; ich biete ja auf meiner Webseite immer den
Deutschland-Extrakt des Planet-Files an, und
Hallo,
TomH arbeitet an mehreren Performance verbessernden Veränderungen
Angeblich ist zumindest fuer die GPS-Punkte jetzt so ein QuadTiles-
artiger Zusatzindex aktiv; auf der englischen Liste berichten Leute
von deutlicher Beschleunigung beim Download.
Bye
Frederik
--
Frederik Ramm ##
Andrerseits hat irgendjemand mal berichtet, dass das bei der Wikipedia
versucht worden sei, und mittlerweile habe man doch wieder alles
zentralisiert, weil es zu muehsam gewesen sei ;-)
Ich vermute auch, daß der Aufwand der Dezentralisierung und Verteilung der
Datenbank zu groß ist. Ich
Hallo,
ich habe immer noch starke Performance-Probleme mit OSM:
- Up- und Downloads in Josm dauern ewig
- Das Laden der Wege in den Online-Editor ist ebenfalls sehr langsam
Vor einer Woche gab es schon mal ein paar Mails zu dem Thema, seit dem
war es ruhig. Bin ich der einzige, der das Problem
Hallo,
[EMAIL PROTECTED] schrieb:
ich stimme zu, heute tagsüber ging mal was, nun geht wieder nix. Das
betrifft nicht nur GPX Tracks.
gerüchteweise werde z.B. gerade die Tiger-Daten nach OSM importiert. Das
sind nicht zu verachtende Datenmengen die in die DB rein müssen = das
macht eine
-BEGIN PGP SIGNED MESSAGE-
Hash: SHA1
Michael Kugelmann schrieb:
Hallo,
[EMAIL PROTECTED] schrieb:
ich stimme zu, heute tagsüber ging mal was, nun geht wieder nix. Das
betrifft nicht nur GPX Tracks.
gerüchteweise werde z.B. gerade die Tiger-Daten nach OSM importiert. Das
sind
Hallo,
gerüchteweise werde z.B. gerade die Tiger-Daten nach OSM importiert. Das
sind nicht zu verachtende Datenmengen die in die DB rein müssen
Genau genommen wird die OSM-Datenmenge nach dem Import 20mal groesser
sein, oder anders gesagt, das, was wir noch vor einem Monat an Daten
hatten,
26 matches
Mail list logo