>Doch - ein grossteil der Bots macht wirklich murks - Es gibt diese >ausnahmen >und am besten wir lassen das mit den Bots und bauen lieber ordentliche >debugging moeglichkeiten wo jemand mit verstand die dinger korrigieren >kann - >Oder wir erfinden etwas wie im HTTP die robots.txt die elemente bei osm >nicht >anfasst wenn da ein bot=no drauf ist ...
Wäre eine Maßnahme. Oder Bot Edits nur temporär und dann von einem Ortskundigen validieren lassen. Ein anderer Fall gleicher Bot. Ich habe mir an einige Elemente eine comment=xyz angehängt um nicht note=xyz verwenden zu müssen, was ja mancher auswertet, in dem Fall aber nicht als Notiz für andere gedacht war. Kaum war der Bot durch, schon war alles in note umgewandelt. Da kann man nur hoffen das nicht auch noch andere unbekannte Tags in die Bot rules wandern und einem unter Umständen die ganze Arbeit versaut wird. Ich habe ansich nichts gegen Bots, wenn sie sauber und überlegt mit dem Skalpell vorgehen. Manche arbeiten aber leider wie ein Eisbrecher und produzieren gleich deutschlandgroße Massenedits, die man dann garnicht mehr nachvollziehen kann. Man sieht dann garnicht was wo gemacht wurde und lernen kann dadurch auch keiner. Es kann ja mal ein Fehler passieren und man lernt ihn zu verhindern, wenn man denn sieht was da korrigiert wird. Nur keiner klickt ein bundesweites Changeset mit 1000 Elementen durch. Wenn der Bot in deiner Region mal zugeschlagen hat dann siehst du das vielleicht mal nach Monaten, wenn du zufällig das eine Element editierst, was der Bot damals mal in Bearbeitung hatte. Um so ärgerlicher wenn der Edit auch noch Murks war. Gruß Mirko _______________________________________________ Talk-de mailing list [email protected] http://lists.openstreetmap.org/listinfo/talk-de

