Am 12.04.2012 17:32, schrieb Jimmy_K:
Aber es kann auch nicht der Sinn der Sache sein, dass die selbe Information oft jenseits der 100 mal vorhanden ist.
Warum nicht?

Datenbank-Theorie: richtig, hier würde man Fremdschlüssel benutzen, aber eine Anwendung, die die entsprechende Datenbank für den Benutzer aufbereitet, würde diese Fremdschlüssel auflösen, so dass der Nutzer wieder den eigentlichen Wert zu sehen bekäme - bei Bedarf 10.000 mal den gleichen.

Fehleranfälligkeit: teilweise richtig. Ein Fehler in EINER Relation ist unter umständen schneller behoben als ein Fehler an 100 Häusern, die konsistent den falsch getippten Straßennamen haben, aber andererseits erlaubt es genau diese Redundanz, (Tipp)Fehler zu erkennen, wenn die eben nicht konsistent bei allen Häusern gleich sind.

Einstiegshürde für Mapper: Relationen sind - so schade das ist - komplex zu warten und gehen immer wieder kaputt. Im zweifelsfall ist dann direkt die ganze Straße kaputt, nicht nur einzelne Häuser.

Einstiegshürde für auswertende Programme: Auswertende Programme müssen hier Relationen bereits für IMHO absolute Basisdaten unterstützen. Schwaches Argument, aber ich halte es dennoch für gerechtfertigt.

Redundanz ist nicht per se falsch.
Im OSM-Kern, der Bearbeiter-Datenbank (nicht der genutzten Datenbank irgendeiner darauf aufbauenden Anwendung), sollten wir das bearbeiten einfach gestalten, nicht in erster Linie die Daten "schön" machen.

Gruß
Peter


_______________________________________________
Talk-de mailing list
[email protected]
http://lists.openstreetmap.org/listinfo/talk-de

Antwort per Email an