Martin Anselm Meyerhoff <[EMAIL PROTECTED]> schrieb: > ich habe nur noch ein problem: kurz nachdem suck die news vom server gesaugt > hat, versucht er auch gleich wieder, die vom vorherigen tag zu posten > (obwohl der server die natürlcih alle schon hat) das dauert jedesmal > genausolange wie das saugen und kostet geld :( hilft da news.daily?
news.daily ist ein Script, daß für den Server regelmäßige Wartung vornimmt, wie etwa das löschen alter Artikel und das erstellen täglicher Statusberichte. Die Lösung deines Problems liegt wohl in der Datei /etc/news/newsfeeds, da wo Eingeträgen ist, wer von dir News erhält. Dort ist jetzt irgendwie der Newsserver deines Providers eingetragen, das sieht bei mir etwa so aus: | news.abacom.net/news.abacom.net\ | :!*,abacom.*\ | :Ap,Tf,Wnm:news.abacom.net Der für dich jetzt entscheidenen Eintrag ist das '/news.abacom.net'. Artikel, die den Eintrag 'news.abacom.net' im Pfad haben, also schon über diesen Server gelaufen sind, werden an diesen nicht nocheinmal gesandt. Sieh also jetzt in einem beliebigen Posting, das du von deinem Provider bezogen hast nach, wie dessen Pfadeintrag aussieht (das muß nicht der Name sein, über den du auf den Server zugreifst!) und setzte diesen Wert ein. Uff, das klingt jetzt umständlich...wenn noch was unklar war, gerne weiter per Mail. -- Hendrik Seffler · [EMAIL PROTECTED] · http://home.pages.de/~seffler/ ------------------------------------------------ Um sich aus der Liste auszutragen schicken Sie bitte eine E-Mail an [EMAIL PROTECTED] die im Body "unsubscribe debian-user-de <your_email_address>" enthaelt. Bei Problemen bitte eine Mail an: [EMAIL PROTECTED] ------------------------------------------------ Anzahl der eingetragenen Mitglieder: 451

