Re: Migration 7.4.11 nach 8.1.5
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Hallo, Peter! haben db-release 7.4.11 auf 8.1.5 umgestellt. seither treten immer wieder laufzeitfehler auf. der code muss immer wieder angepasst werden. auch werden daten falsch angezeigt, obwohl diese richtig gespeichert wurden. beim nochmaligen öffnen werden diese dann korrekt angezeigt. sind da noch einige switche oder parameter zu setzen für die 8.1.5 version ? für hinweise vielen dank. Hmm, bist Du sicher, dass Du hier fragen wolltest? Erstmal tippe ich auf PostgreSQL und Probleme damit :-) Wie habt ihr die Daten übernommen? Welche Fehler treten denn genau auf? pg_restore: [archiver] unsupported version (1.10) in file header Das wird aufgrund der unterschiedlichen Versionen nicht funktionieren, in der Regel ist der Weg zurück autmatisch fast nicht möglich. Du kannst natürlich folgendes Versuchen, zuerst das Schema exportieren und danach die Daten - beides als Plaintext. Dann hast Du eine Chance mittels pg_dumpall -s schema.sql pg_dumpall -a data.sql dann auf dem neuen alten System: psql -f schema.sql postgres psql -f data.sql postgres Ein Blick in die SQL-Dateien ist hilfreich und unter Umständen die Optionen --column-inserts, --inserts und --ignore-version. Aber den Schritt soweit zurück würde ich nur bei guten Gründen gehen, sonst halt eine 8.1. Cheers, Jan -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.3 (MingW32) Comment: GnuPT 2.7.6 Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFFXad+vvmCkIIgH8QRAg6dAKDH9E5hCcrrbsjbyuQ7c1zFRR9AVgCgxE4q YczSOh88deW53WoUi56W9PY= =X4WZ -END PGP SIGNATURE- -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Firefox + google
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Jan Dinger schrieb: ich habe ein kleines Problem mit Google, wenn ich auf www.google.com oder www.google.com/en gehe werde ich immer weitergeleitet auf www.google.de. wie bzw wo kann ich das ändern? Das geht bei google selbst - denn die erkennen, dass man aus DE ist und leiten einen dann entsprechend weiter. Bei mir hat ein Einstellungen - Erweitert - Sprachen geholfen, wenn ich dort 'en' an erster Stelle hab. Da das aber auch auf alle anderen Seiten wirkt, was vielleicht nicht erwünscht ist, probier's mit: http://www.google.com/ncr Cheers, Jan -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.3 (MingW32) Comment: GnuPT 2.7.6 Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFFW0K1vvmCkIIgH8QRAuAGAJ98Z9yO7BCqFeCOqjVqClJJdbkw8QCgsZsh ZXk45M2IDmDJBvzot2q5eTg= =vXHq -END PGP SIGNATURE- -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: localhost
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Hallo, Klaus! http://127.0.0.1 funktionniert bei mir, localhost aber nicht. Dabei steht in /etc/hosts u. A.: 127.0.0.1 localhost.localdomain localhost Ideen dazu: - geht die Auflösung denn generell nicht? z.B. ssh localhost / ping localhost - ist ein Proxy eingetragen? - oder mag der Apache den ServerName localhost nicht? Cheers, Jan -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.3 (MingW32) Comment: GnuPT 2.7.6 Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFFSN/fvvmCkIIgH8QRAnmlAJ4i0XrrGMKC0hGlJfBnguoaxmKmXgCfYCuF pBC7tgUWYZD89IEIt8cDSyo= =2g1Q -END PGP SIGNATURE- -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Messdatenerfassung
Natascha Hess schrieb: hat jemand Erfahrung mit Messdatenerfassung unter Linux und evtl. ein paar links, Literaturhinweise o.ä. für mich? vi + Tastatur? Nein im Ernst, suchst Du etwas zum Auswerten von Messdaten oder etwas was Dir etwas misst und das automatisch? Hatte für mich mal dazu einen PIC missbraucht und ihn seriell ausgelesen.. Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Messdatenerfassung
Natascha Hess schrieb: Ok: ich habe Karten, die über USB messen und möchte die Messwerte im Linux-Rechner sehen. Bin aber bar jeder Ahnung was Messtechnik angeht (also die besten Voraussetzungen *räusper*). Hmm, die Frage ist also eher, wer kennt einen Treiber für die entsprechende Karte :-) Wenns gut läuft hängt ein USB-RS232 Chip irgendwo dazwischen und man kann die Karte darüber ansprechen. Welche Karte ist es denn? Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Internet Portal
Paksu Yofras schrieb: LoL Evgeni ich suche nicht Mail oder Webserver sondern ein Webportal der Zugriff auf diese Dienste ermöglicht. Die Server selbst befinden sich in der Firma und VPN kommt nicht in die Frage. Was willst Du denn genau? Wenn Du einen Mailserver intern hast bekommst Du mit Webmail Zugriff darauf. Auf Intranet-Seiten mittels eines Reverse Proxy ebenfalls und beides lässt sich für bestimmte Nutzer freischalten. Was noch? Dateien und Ordner gehen über eventuell WebFTP. Oder sowas wie Exchange und Outlook, TerminalServer und ähnliches? Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Internet Portal
Hallo :-) Jetzt kommt aber das Portal als Gateway ins Spiel. Man setzt es praktisch zwischen Internet und der Firma. Einfachste Lösung, nehme einen Apachen und lege dort Reverse Proxies an, pro Webdienst einen. Dann kann man jeden einzeln sichern mit differenzierten Rechten und die Verbindungen per SSL verschlüsseln. Sieht dann etwa so aus in der httpd.conf mit aktiviertem mod_proxy: Location /webmail ProxyPass http://ip1:port/path ProxyPassReverse http://ip1:port/path /Location Location /intranet ProxyPass http://ip2:port/path ProxyPassReverse http://ip2:port/path /Location Location /whatever ProxyPass http://ip3:port/path ProxyPassReverse http://ip3:port/path /Location Das ganze in einem Container der nur SSL kann und fertig. Weiss nur nicht aus dem Kopf ob Auth innerhalb einer Location zulässig ist. Von aussen kommt man dann mittels http://externerdnsname.tld/webmail z.B. auf einen solchen Dienst (nach Anmeldung). Nur als Denkanstoss :-) Andreas, der keine Buzzwörter wie 'Portal' mag. Bing! Sie sind dran! *scnr* Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: mdadm --monitor an mehrere Mail-Accounts
Boris Andratzek schrieb: Ich habe allerdings Sorge, dass das nicht funktioniert! Frage also: Wie kann ich das Testen ohne von einer Platte die Stromversorgung abzuziehen) und wie kann ich die Anforderung erfüllen? Probier's aus :-) Die Man-Page verrät Dir folgendes zu mdadm und dem Monitor-Mode: --- SNIP --- -t, --test Generate a TestMessage alert for every array found at startup. This alert gets mailed and passed to the alert program. This can be used for testing that alert message do get through successfully. --- SNIP --- Also probier mal sowas: /sbin/mdadm -F -i /var/run/mdadm.pid -m [EMAIL PROTECTED], \ [EMAIL PROTECTED] -f -s -t Wenns geht dann ist's gut - sonst kannst Du auch noch probierer -m mehrfach anzugeben. Alternativ kannst Du natürlich auch das lokale Alias-File nehmen und dort eine Adresse wie [EMAIL PROTECTED] eintragen und das dann von dort aus weiterverteilen. Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Bandbreite auf ADSL-Router aufteile n und beschränken
Jonas Meurer schrieb: Kann mir jemand Dokumentation zur Aufteilung der Bandbreite auf verschiedene Clients empfehlen? Spontan fallen mir Wondershaper und tcng ein, schau mal hier http://www.linux-magazin.de/Artikel/ausgabe/2005/02/tcng/tcng.html dort findet sich eine Einleitung zum letzteren, ist relativ mächtig und habe ich hier sehr zufriedenstellend im Einsatz. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: [voellig OT] Linux Kuscheltiere
Hallo, Richard! Wenn wer Quellen weiss, kommerziell oder Menschen denen aehnlich viel daran liegt wie mir, bitte melden. Danke, ritch Also Sticker und aehnliches gibt's bei Kernel Concepts, schau mal hier: http://www.kernelconcepts.de/products/fun Frau Kirchner ist auch aeusserst freundlich, Pins gibt fuer 1 Euro oder Aufkleber auch in der Richtung (PC-Sticker 80 Cent). Dort wuerde ich vielleicht mal nachfragen. Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: xargs für url-listen?
Michelle Konzack schrieb: Machste dann ein Array aus den URLs? Ich hatte das mit perl ein bischen versucht, nur bin ich dann in Speicher schwierigkeiten geraten wobei die 4 GByte nicht genug waren... Nein, den ein Array lässt sich nicht 'schön' durchsuchen, entweder nur linear oder es muss sortiert sein. Handelt sich eher um eine Hash-Table, das gibt zwar etwas Overhead aber ist insgesammt schneller (und ich kam auch mit 2G Speicher für meine Liste aus). Nur ich persönlich hab eine Abneigung gegen Speicherwahn und würde für ernste Anwendungen eher eine BerkeleyDB oder sowas nehmen. Die URL's sind ja bereits drin, nur teste ich derzeit jeden eingehenden URL gegen die Liste... was bei über 200 URLs pro Sekunde ne nette Last gibt... Also wenn's nur darum geht, in einer Sekunde zu prüfen, ob 200 URLs im Bestand sind oder nicht, stellt das doch noch kein Problem dar. Mein kleines Snippet hat ja auch 43k URLs pro Sekunde abgeleichen können. Wobei natürlich ein SQL-Query längert dauert, aber 200/s sollten auch da kein Problem sein eigentlich. Aber das führt mich zum Thema, dass SQL-Datenbanken nicht immer das heilige Mittel der Wahl sind. Naja, ich habe auch ein paar URLs des FBI und der CIA im Cache. Man muß ja bischen auf dem laufenden sein... Und dann warte bis die NSA kommt :-) Dachte mir auch, das ich alles in den Speicher lade und von dort aus arbeite und das Ergebnis in die PostgreSQL zurück schiebe. Im Speicher ist sicher am schnellsten, doch für gewöhnlich ist Hauptspeicher auch am schnellsten 'alle'. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: apache2 rewrite port
Dirk Salva wrote: Mich interessiert da aber noch ein Aspekt: Ich habe das Problem, daß ich den Port 443 zwingend für eine bestimmte Anwendung benötige. Jetzt möchte ich auf dem lauschenden Rechner, auf welchem der Dienst auf 443 horcht, aber auch https anbieten. https auf 80 oder 81 funktioniert widerum nicht durch einen Proxy hindurch, das habe ich schon getestet. Gibt es da eine Lösung, oder habe ich einfach Pech und muß mich entscheiden? Vermutlich letzteres. Hatte beim Hinweis auf mod_proxy eigentlich total vergessen, nachzuschauen ob das mit SSL ueberhaupt geht, aber das scheint moeglich zu sein: In addition, extended features are provided by other modules. Caching is provided by mod_cache and related modules. The ability to contact remote servers using the SSL/TLS protocol is provided by the SSLProxy* directives of mod_ssl. These additional modules will need to be loaded and configured to take advantage of these features. Wenn ich das richtig sehe, hast Du auf Port 443 einen SSL-Dienst am Laufen und auf Port 80 einen normalen HTTP-Dienst. Wenn Du jetzt noch einen zweiten haben willst waere ein weiterer Port notwendig (abgesehen von dem Problem, dass Du pro IP nur ein SSL Zertifikat verwenden kannst). Das wird wegen des Proxy der nur 80 und 443 zulaesst nicht funktionieren, einzige Loesung waere ein SSL-Proxy wie ihn einige Anbieter haben, so dass Du nach aussen nur einen SSL-Dienst hast und dann intern den Proxy auf deine Dienste: https://ssl.my.tld/foo:443 --- intern auf Server A https://ssl.my.tld/bar:443 --- intern auf Server B Ob das fuer deinen Fall geht ist eine andere Frage. Und setzt natuerlich voraus, dass umverschluesselt werden darf (oder noch besser intern kein SSL erforderlich ist). Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: apache2 rewrite port
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Marco wrote: Ich habe einen ssl-Dienst auf port 111 laufen, möchte ihn aber via appach2 von außen über port 443 nutzen. (https://foo.bar.org/aaa/ - https://localhost:111/) Wenn kein besonderer Grund besteht, nicht 443 anstelle des 111 zu benuzten - tausche den Port. Ein Zugriff via den Apache um von 443 auf 111 zu kommen, wenn beides auf der gleichen Maschine liegt macht IMHO kaum einen Sinn. Sonst (und wenn der Rechner mit dem Dienst nicht der gleiche ist, wie der wo auch der Apache laeuft) - mod_proxy. Im Einsatz kann man das z.B. unter www.gpg-keyserver.de sehen, dort werden die Requests auf einen SKS Server umgeleitet, der auf einem anderen Port liegt (um HKP auch hinter einer restriktiven Firewall nutzen zu koennen). Wenn Dich das interessiert kann ich gerne mal die Config dazu posten. Cheers, Jan -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.1 (GNU/Linux) Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFEhsPF/HxP9u0KvHURAuIOAJ45ZzssNVwlbRQMySr5Bkd44f/BAwCfcASB iGIZCRtdCo8Y1F0vliayuSo= =MACK -END PGP SIGNATURE- -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Cluster unter Debian Sarge
Stefan Kremer wrote: einzusetzen. In diesem Cluster wird evtl. später noch ein DNS, DHCP, Web- und Mailserver, sowie mySQL laufen. Klingt nach einem typischen Fall fuer Heartbeat. Wäre also eine Lösung mittels heartbeat geeigneter als die beiden Server in einem Cluster laufen zu lassen? Frage ist, was willst Du erreichen? Cluster sind ja in zwei grundlegenden Formen denkbar: a) (Hot-)Failover oder b) Loadblancing. Und natuerlich Mischformen von beidem. Heartbeat ist ein Mittel der Wahl wenn es um Fall a) geht und Du als primaeres Ziel Ausfallsicherheit erreichen willst. Stirbt einer der Rechner im Cluster dann faehrt Heartbeat (im Idealfall) auf einer zweiten Maschine das Netzwerk und alle Dienste hoch und nach einem kurzen Haenger laeuft alles wie gehabt weiter. Wenn dann noch drbd zum Einsatz kommt (idealerweise) ohne Datenverlust (oder zumindest mit minimale). Im Falle des Loadbalancing ist das etwas komplizierter und nicht mehr so generell abgehandelt. Zum einen gibt es da OpenMOSIX was genau sowas im Auge hat, sprich eine Palette von Rechnern verhaelt sich wie ein grosser. Fur maximale Performance wird man jedoch meistenes Hand anlegen muessen. Bei einem viel strapaziertem Webserver koennte man den Frontend Server als Proxy nutzen und die Anfragen dann auf x Systeme verteilen (geht bei Apache z.B. mit mod_rewrite). Generelles Problem sind die Dateissyteme IMHO, denn wenn ich mit mehreren Systemen auf ein Dateisystem zeitgleich zugreifen will gibt das irgendwann Probleme. Insbesondere bei Datenbanken wird das kritisch, dort helfen dann Programme wie dbbalancer im Falle von PostgreSQL weiter. (Noch ein Thema fuer einen Cluster ist die Erhoehung der Rechnenleistung fuer einen Prozess, doch das ist wieder ein anderes Thema und erfordert meistens ein auf das Problem passendes Programm, was in viele 'geringkommunizierende' und rechenintensive Threads zerfallen kann.) Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: apache2 rewrite port
Marco wrote: Ich habe einen ssl-Dienst auf port 111 laufen, möchte ihn aber via appach2 von außen über port 443 nutzen. (https://foo.bar.org/aaa/ - https://localhost:111/) Wenn kein besonderer Grund besteht, nicht 443 anstelle des 111 zu benuzten - tausche den Port. Ein Zugriff via den Apache um von 443 auf 111 zu kommen, wenn beides auf der gleichen Maschine liegt macht IMHO kaum einen Sinn. Sonst (und wenn der Rechner mit dem Dienst nicht der gleiche ist, wie der wo auch der Apache laeuft) - mod_proxy. Im Einsatz kann man das z.B. unter www.gpg-keyserver.de sehen, dort werden die Requests auf einen SKS Server umgeleitet, der auf einem anderen Port liegt (um HKP auch hinter einer restriktiven Firewall nutzen zu koennen). Wenn Dich das interessiert kann ich gerne mal die Config dazu posten. Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: [OT:] SVN-Tutorial
Hannes H. wrote: Ein (verlängertes) Wochenende steht vor der Tür und ich würde es gerne sinnvoll nutzen und einen Subversion-Server zu installieren. Wobei hier heute die Sonne scheint und wenn es am Wochenende genauso wird dann wuerde ich was anderes machen :-) Da ich leider totaler Newbie in Sachen SVN bin würde es mich freuen, wenn ihr mir ein paar Tipps für (gute) deutspracheige Tutorials geben könntet. Ich hab gestern eine Stunde im Netz recherchiert aber nicht wirklich etwas passendes gefunden. Kein Problem, das installieren eines Subversion-Servers ist auch nicht wirklich aufregend, zumindest unter Debian nicht: apt-get install subversion apt-get install libapache2-svn Danach brauchst Du noch einen Eintrag fuer die Apache-Konfig, die wird nicht automatisch erzeugt (IMHO), sieht etwa so aus: VirtualHost 1.2.3.4:443 ServerName svn.foo.bar ServerAlias subversion.foo.bar ServerAdmin [EMAIL PROTECTED] SSLEngine On SSLCertificateFile /etc/apache2/apache.cert.pem SSLCertificateKeyFile /etc/apache2/apache.key.pem Location /svn DAV svn SVNParentPath /svn AuthType Basic AuthName Subversion Repository AuthUserFile /etc/apache2/dav_svn.passwd Require valid-user AuthzSVNAccessFile /etc/apache2/dav_svn.authz /Location DocumentRoot /var/www/subversion Directory / Options FollowSymLinks AllowOverride None /Directory /VirtualHost Muss natuerlich angepasst werden, versteht sich - SSL ist keine Vorraussetzung, aber sicher eine gute Idee und die Repositories liegen alle in /svn (bei mir eben eine eigene Partition). Die beiden erwaehnten Files dienen zur Authentifizierung und zur Authorisierung. dav_svn.passwd stehen wie in einer .htpasswd die Nutzer und deren verschluesselte Passwoerter (kann man mit htpasswd2 erstellen). dav_svn.authz regelt, was ein Nutzer darf, wenn er eingeloggt ist, so kann man z.B. Zugriff auf einzelne Repositories oder gar einzele Verzeichnisse oder Dateien darin einschraenken - solange Du noch 'allein' bist erstmal nicht soo wichtig. Einziger 'Schwachpunkt' bei diesem Ansatz ist, dass alle Repositories in /svn vom User des Webservers les- und schreibbar sein muessen. Im einfachsten Fall legt man sie daher als www-data an (oder setzt die Rechte auf /svn entsprechend mit setgid und gibt das Verzeichnis an www-data). Ein neues Repository bekommst Du dann mit: svnadmin create /svn/mein_erstes_repository Ich nehme an, ich bin nicht der erste mit diesem Vorhaben ;-) Sicher nicht - hoffe das hilft Dir erstmal etwas, sonst ist DIE Quelle fuer Subversion das SVNBook, allerdings leider in Englisch, dort ist aber alles sehr gut beschrieben: http://svnbook.red-bean.com/ http://linuxwiki.de/SubVersion HTH, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: [OT:] SVN-Tutorial
Hannes H. wrote: Für die Version 1.3.x von Apache gibt's sowas nicht? Ich hab nämlich (aus historischen Gründen) auf besagtem Server selbige installiert und möchte eigentlich nicht auf Apache 2 umsteigen - zumal die (wenn ich das richtig sehe) die Version 1 entfernen würde. Leider ist Apache2 notwendig, weil es, soweit ich richtig liege, keine WebDAV Unterstuetzung in Apache 1.x gibt. Allerdings kannst Du auch svnserve verwenden, das ist ein interner Server von Subversion - oder aber mittels ssh zugreifen, das geht auch. Ich hab's alles durch und rate aus Erfahrung zur Apache2-basierten Loesung - das ist am anwenderfreundlichsten und man hat auch per Web sofort ohne weiteres Zugriff auf den letzten Stand des Repository, wenn man mal keinen Subversion-Client greifbar hat. Die beiden anderen Moeglichkeiten sind in den Quellen gut beschrieben. Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: cups will nicht
Martin Grandrath wrote: Meinst du http://www.kubieziel.de/computer/cups-horror.html ? Ja, genau. Die alte deutsche Seite ist ja geschlossen worden - hab Dank! Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Suche billige Netzwerkkarte die v on Linux gut unterstützt wird...
Marc Haber schrieb: Meine Erfahrungen betreffen nicht nur eine Handvoll Rechner. Meine halt eben auch nicht - aber das bestätigt mal wieder meinen Eindruck, dass es eben nicht nachvollziehbar ist, wann es Probleme gibt. Daher Frage aus reiner Neugier: welche Switches/Hubs sind bei Dir im Einsatz? Da das hier aber vielleicht zuweit führt natürlich auch gern per PM :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Suche billige Netzwerkkarte die v on Linux gut unterstützt wird...
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Marc Haber wrote: Lall. 30 Mbit bidirektional sustained mit Peaks bis 80 Mbit haben die RTL8139 in meinen Backbone-Routern damals locker mitgemacht. Und zwar ohne Probleme. Glueck gehabt oder gute Chips erwischt :-) Hatte schon viele RT-Karten und bei weitem nicht alle zeigen das Verhalten in gleicherweise. Wuerde auch nicht sagen, das billigere Karten da anfaelliger sind als 'bessere'. Einige laufen auch schon seit ewig... Hatte auch das Gefuehl, dass es auch eventuell mit der Signalqualitaet und dem Switch/Hub zu tun hat, denn bei einigen Switchen tritt das so ziemlich sofort auf, bei anderen so gut wie nie. Und da die Kisten wegen BGP mit Full Tables eh' ordentlich CPU gebraucht haben, hat auch die etwas höhere I/O-Last nie großartig gestört. Das trifft heute natuerlich mehr und mehr zu, die Rechner werden ja auch immer schneller :-) Cheers, Jan -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.1 (GNU/Linux) Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFEe+En/HxP9u0KvHURAr7FAKCbQN+XOcs6Lv9PFrzlY2jjToenkACeKmjE Tpw1wovCHgkd3IGxQT7N4LY= =O49d -END PGP SIGNATURE- -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Suche billige Netzwerkkarte die v on Linux gut unterstützt wird...
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Jochen Schulz wrote: In genau welchen Szenarien versagen die denn regelmäßig? Oder: was mach ich falsch, das die bei mir immer problemlos funktionieren? ;-) Unter hoher Last steigen die Karten einfach aus, es gibt massenweise RX- und TX-Fehler, Frame-Fehler und der gleichen mehr. Solange man nur das bischen DSL Last mit einigen Mbit/s hat alles kein Problem, laufen und laufen ohne weiters... Sobald man aber versucht, grosse Datenmengen zu bewegen, steigen die Dinger mehr oder weniger sporadisch aus. Entweder durch sehr hohe IO-Last im System oder die Karte bleibt einfach so stehen, alles schon gehabt. Die etwas teureren RT-Karten waren zwar leicht besser, aber die leichte mehr Investition fuer eine 3com mit rund 20 Euronen Kaufpreis lohnen sich IMHO dann doch :-) Haengt aber auch alles mit der restlichen Infrastruktur zusammen, man kann auch mit 3com Karten an einigen Switches Probleme haben, genauso wie mit Intel-Karten. Kommt meist auf den Versuch an :-) Cheers, Jan -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.1 (GNU/Linux) Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFEewHu/HxP9u0KvHURAiosAJ4s+pe9HkoB8NishFYlX6/t4HEJrgCfY4BU YDs7/Le8EOqGbK2d0lvo52g= =jdD5 -END PGP SIGNATURE- -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: cups will nicht
Sascha schrieb: Ersteinmal hallo Liste, ist meine erste mail hier! Willkommen :-) /Remote host did not respond with data status byte after 300 seconds! /entgegen. Bin irgendwie ein bisschen ratlos, hab schon so ziemlich alles probiert. Ist das denn ein Netzwerkdrucker den Du da hast? Wenn ja, ist er denn per ping zu erreichen und ein nmap liefert auch die lauschenden Ports? Oder hängt der Drucker an einem Printserver und wird von diesem bedient? In letzterem Fall wilkommen in den Abgründen von CUPS - denn wenn Du einen CUPS Server hast und auf einem anderen Rechner CUPS als Client, dann hast Du mit dem Einrichten des Druckers lokal schon den ersten Fehler gemacht. Hast Du einen laufenden CUPS-Server können sich alle Clients die Druckerliste mittels Broadcast oder via BrowsePoll (mal in die Config schauen) holen und nutzen - ohne weitere Einrichtung. Dazu sehr lesenswert The luxury of ignorance (btw, wenn jemand noch eine Kopie der deutschen Übersetzung hat, schickt mir mal bitte den Link) :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: alle Prozesse innerhalb eines Zeitraumes
Joerg Zimmermann schrieb: Und nie die bösen User überwachen :-) ;) Nein, ich möchte nur sehen ob bestimmte unregelmässig startenden Prozesse auch wirklich starten. Das hätte ich jetzt auch gesagt ;-) Hatte da mal vor einiger Zeit eine sehr hitzige Diskussion was ein Admin darf und was nicht, war sehr amüsant. Schon erstaunlich wie schnell man auf sehr dünnes Eis kommt, Anlass war damals das Herausfiltern von Spam zur SMTP Zeit. Vielen Dank für alle Antworten, acct ist cool. Man achte allerdings darauf, wieviel Daten da gesammelt werden und wie die nachher verwertet werden. So ein Log kann u.U. sehr lang und groß werden (und hat mir mal eine Unix-Maschine lahmgelegt, weil ich vergessen hab es wieder abzuschalten *g*). Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: nochmal svn-server
Stefan Riedel schrieb: So jetzt häng ich aber nach wie vor an dem svn-server rum! Wollte das ganze via WebDav und MySQL handeln, was an sich auch klappt nur auf das Dateisystem kann ich noch nicht wirklich zugreifen, bekomm nen 500, wenn ich nen repo auschecken möchte: Hast Du denn dort auch vorher ein Repository erstellt? So ala: cd /home/stefan/svn/repos svnadmin create asien Und wichtig, das Repository muss natürlich von dem Benutzer schreibbar und lesbar sein unter dem der Apache läuft (bei Debian i.d.R. www-data). Ich habe daher meine Repositories alle unter /srv/subversion auf einer eigenen Partition liegen und erstelle die Repositories dort (setgid-Bit auf dem Verzeichnis gesetzt). Zugriffsrechte kommen dann etwas differenzierter über dav_authz. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Datensicherheit von XFS erhöhen?
Elias Oltmanns wrote: Das erstaunt mich allerdings sehr. Die Dokumentation zu ext3 und xfs im kernel-Archiv verstehe ich so, dass die Option data=ordered bei ext3 gerade den Vorteil gegenüber xfs darstellt. Wenn hier die Metadaten ins Journal geschrieben werden, ist bereits sichergestellt, dass die eigentlichen Daten ins Dateisystem geschrieben wurden. Vielleicht irre ich mich auch, war der Meinung das die Optionen wie folgt sind: ordered - Die Metadaten wandern ins Journal und werden dort als 'committed' markiert, nachdem die Dateien wirklich auf die Platte geschrieben wurden. Damit lassen sich nach einem unsauberen Neustart alle nicht korrekt geschriebenen Dateien finden, wie die dann aussehen ist ein anderes Thema, weil die Schreiboperation ja noch nicht abgeschlossen war, es können also Daten fehlen. writeback - arbeitet wie ordered, nur mit dem Unterschied dass der 'commit' nicht auf das Ende des realen Schreibens auf die Platte wartet, was etwas schneller sein soll. Hier können nach einem unsauberen Neustart in einer Datei z.B. alte Daten auftauchen, wie das auch bei ext2 der Fall ist (nur ist das fsck wesentlich schneller). journal - schreibt sowohl Metadaten als auch Dateiinhalte ins Journal (und ist deswegen deutlich langsamer). Hier kann nach einem Neustart alles wieder so hergestellt werden, wie es schon im Journal steht. erscheinen, mit der Option data=ordered auszuschließen sein. Bitte sagt Bescheid, wenn ich das falsch verstanden haben sollte. Es sollte so sein, richtig. Kommt aber auf die Schreiboperation an, die gerade stattgefunden (Anhängen ist freundlicher als Änderungen mittendrin) und wann der Strom ausfiel. Beispiel: eine 100 MB grosse Datei wird binär geöffnet und im ersten MB geändert. Das Journal vermerkt das, die Daten werden geschrieben *zack* Strom weg. Jetzt steht im Journal der Eintrag ohne commit - aber auf der Platte sind die Daten schon geändert. So erkläre ich mir das Verhalten was ich beobachten konnte - sollte ich da auf de, Holzweg sein, lass ich mich aber gerne korrigieren. auf den Unterschied zwischen ordered und writeback war ja oben nicht explizit eingegangen worden. Jetzt aber :-) Das ist in der Tat ein starkes Argument für xfs. Trotzdem ist mir auch bei dem Gedanken an ein scheinbar heiles Dateisystem nicht wohl, in welchem ich mit einzelnen Dateien rechnen muss, die von vornherein gar nicht den Inhalt irgend einer vorherigen Version dieser Dateien widerspiegeln können, weil einfach mit beliebigem Inhalt aufgefüllt wurde. Sicherlich ein gutes Argument, aber es wird auch genauso viele Leute geben die mit ext3 besser gefahren sind. Mein persönliches Fazit ist daher unabhängig vom nun verwendetem Dateisystem, dass nach einem solchen GAU immer(!) Vorsicht geboten ist. Egal ob ext3, xfs, reiserfs oder was auch immer. Auf der einen Seite ist das Auftauchen von Nullen nicht so besonders auffällig und unschön - auf der anderen Seite ist der Verlust eines Dateisystems auch nicht besser. Daher (es ist mal wieder an der Zeit es zu erwähnen) mache man Backups. Genau hier sollte ext3 / data=ordered eben xfs überlegen sein, wenn ich das richtig verstehe. Hast Du bei deinen Tests auch darauf geachtet? Richtig, zumindest beschränkt sich der Rahmen für mögliche Probleme auf 15 Minuten (oder entsprechend kürzer). Ich habe mein xfs damals nicht dazu gezwungen, aber auch selten die 15 Minuten gewartet bis zum 'Steckerziehen'. Letztlich ist es Geschmackssache und Glaubensfrage, welches Dateisystem man nimmt, auch ist nicht jedes für jeden Fall brauchbar. Wie gesagt, ich hatte mit xfs bisher die besten Erfahrungen (trotz seiner Schwäche bei einem Stromausfall Dateien zu beschädigen). Andere haben genau das Gegenteil berichten können, wieder andere waren begeistert von ReiserFS. Also hat noch keiner DAS Dateisystem gefunden :-) Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: alle Prozesse innerhalb eines Zeitraumes
Joerg Zimmermann wrote: ich suche eine tool, welches mir eine Liste aller Prozesse/Programme ausgibt, die innerhalb einer bestimmten Zeitspanne gestartet wurden. Wenn Dir eine Liste wie diese reicht: pdflush Froot ?? 0.00 secs Fri May 26 08:01 ls S root stderr 0.08 secs Fri May 26 08:01 postmasterFpostgres ?? 0.04 secs Fri May 26 08:01 procmail Fjan-1?? 0.00 secs Fri May 26 08:01 pymail.py jan-1?? 0.47 secs Fri May 26 08:01 -- apt-get install acct Das aktiviert jedoch das Prozessaccounting, welches noch ein wenig mehr tut und eventuell auch nicht gewünscht ist. Die Liste oben bekommst Du mit lastcomm (wie last commands), auswerten musst Du sie dann selbst, brauchst Du auch nur eine bestimmte Zeit, kannst Du das Accounting entsprechend mit accton zu den gewünschten Zeiten ein-/ausschalten (und natürlich das automatische Starten verhinden). Im Paket dürften folgende Tools sein: ac zusammenfassende Infos zu den letzten Logins sa zusammenfassende Infos zu den letzten Prozessen lastcommAuflistung der letzten Prozesse lastAuflistung der letzten Logins accton Tool zum Aktivieren/Deaktivieren des Accountings dump-acct Liste mit den Prozessinformationen dump-utmp Liste mit den Logininformationen Und nie die bösen User überwachen :-) Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: xargs für url-listen?
Michelle Konzack wrote: machen, was ja auch anständig funktioniert, solange die liste nicht mehr als 1500 locale pfade hat die gegen die Datei in der URLS gespeichert wurden gecheckt wird Hmm, was Du da haben willst ist einfach eine Liste aller URLs die noch nicht in $LISTE sind, aber in $DATEI stehen? Wo ist da das Problem? Wenn ich mich in den Postings richtig erinnere, programmierst Du und nutzt auch PostgreSQL. Lösungsvorschlag a) Anstelle einer Liste mit den URLs als Expression einfach eine weitere Liste, sort + diff = fertig. Lösungsvorschlag b) Kurzes (Python|Perl|Java|whatecer)-Skript geschrieben, die $DATEI mit den URLs komplett einlesen und alle Einträge anhand der $LISTE daraus entfernen. Lösungsvorschlag c) PostgreSQL nehmen, zwei Tabellen für die beiden Listen erstellen, alle URLs hineinschreiben. Okay, dafür sind Datenbanken sicher nicht gedacht, aber möglich wäre es (vorallem wenn man noch zusätzliche Informationen verwalten kann/will). Dann einen Query in der Form: select url from url1 except select url from url2; Lösungsvorschalg d) 'Richtiges' Programm mit 'guter' Datenstrukturschreiben wenns noch halbwegs schnell sein soll. Die Frage ist nun, wie würdet ihr das am besten lösen? NICHT in Umgebungsvariablen der Shell. Sonst mit kurzem Nachdenken, 5 Minuten Arbeit und etwas Warten. $DATEI ist übrigends eine Liste von URLS die ich überwachen, bzw., runterladen will und $LISTE mein localer Cache. Soviel Überwachung lässt mich an gewissen Three-Letter-Agencies denken... Rechenleistung, Speicher und Internetanbindung sind kein Problem. ... und das erst recht :-) Auch wenn man bei der Größe da noch nicht an ein Problem stossen sollte, Ergebnis einer kleinen Fingerübung: -- SNIP -- [EMAIL PROTECTED]:~$ python urltest.py LISTE DATEI DIFF urltest.py list1 list2 out reading first file entirely into memory... 9799524 lines from LISTE read so far... walltime: 18.495s cputime: 17.090s reading second file by line and compare... 999 lines from DATEI compared so far... walltime: 22.473s cputime: 19.240s sorting results... walltime: 0.490s cputime: 0.480s writing results to output file... 200475 lines wrtitten to DIFF so far... walltime: 3.289s cputime: 0.460s [EMAIL PROTECTED]:~$ cat DATEI | wc -l 999 [EMAIL PROTECTED]:~$ cat LISTE | wc -l 9799524 [EMAIL PROTECTED]:~$ cat DIFF | wc -l 200475 [EMAIL PROTECTED]:~$ -- SNIP -- Testdaten waren fast 10 Millionen künstlich generierte URLs in $DATEI, $LISTE als echte Teilmenge davon mit ca. 2% weniger Einträgen, die URLs waren jedoch kurz (http://foo/bar/70563/72992/87713/13210/foobar.html). Ich behaupte das geht noch wesentlich schneller und eleganter (will vorallem meinen etwas weniger speicherlastig), wenn die Listen beide sortiert vorliegen, wenn sie nicht mehr ins RAM passen. Da braucht es dann aber mehr als die zehn Minuten, die ich mir genommen hab :-) Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: xargs für url-listen?
Michelle Konzack wrote: machen, was ja auch anständig funktioniert, solange die liste nicht mehr als 1500 locale pfade hat die gegen die Datei in der URLS gespeichert wurden gecheckt wird Hmm, was Du da haben willst ist einfach eine Liste aller URLs die noch nicht in $LISTE sind, aber in $DATEI stehen? Wo ist da das Problem? Wenn ich mich in den Postings richtig erinnere, programmierst Du und nutzt auch PostgreSQL. Lösungsvorschlag a) Anstelle einer Liste mit den URLs als Expression einfach eine weitere Liste, sort + diff = fertig. Lösungsvorschlag b) Kurzes (Python|Perl|Java|whatecer)-Skript geschrieben, die $DATEI mit den URLs komplett einlesen und alle Einträge anhand der $LISTE daraus entfernen. Lösungsvorschlag c) PostgreSQL nehmen, zwei Tabellen für die beiden Listen erstellen, alle URLs hineinschreiben. Okay, dafür sind Datenbanken sicher nicht gedacht, aber möglich wäre es (vorallem wenn man noch zusätzliche Informationen verwalten kann/will). Dann einen Query in der Form: select url from url1 except select url from url2; Lösungsvorschalg d) 'Richtiges' Programm mit 'guter' Datenstrukturschreiben wenns noch halbwegs schnell sein soll. Die Frage ist nun, wie würdet ihr das am besten lösen? NICHT in Umgebungsvariablen der Shell. Sonst mit kurzem Nachdenken, 5 Minuten Arbeit und etwas Warten. $DATEI ist übrigends eine Liste von URLS die ich überwachen, bzw., runterladen will und $LISTE mein localer Cache. Soviel Überwachung lässt mich an gewissen Three-Letter-Agencies denken... Rechenleistung, Speicher und Internetanbindung sind kein Problem. ... und das erst recht :-) Auch wenn man bei der Größe da noch nicht an ein Problem stossen sollte, Ergebnis einer kleinen Fingerübung: -- SNIP -- [EMAIL PROTECTED]:~$ python urltest.py LISTE DATEI DIFF urltest.py list1 list2 out reading first file entirely into memory... 9799524 lines from LISTE read so far... walltime: 18.495s cputime: 17.090s reading second file by line and compare... 999 lines from DATEI compared so far... walltime: 22.473s cputime: 19.240s sorting results... walltime: 0.490s cputime: 0.480s writing results to output file... 200475 lines wrtitten to DIFF so far... walltime: 3.289s cputime: 0.460s [EMAIL PROTECTED]:~$ cat DATEI | wc -l 999 [EMAIL PROTECTED]:~$ cat LISTE | wc -l 9799524 [EMAIL PROTECTED]:~$ cat DIFF | wc -l 200475 [EMAIL PROTECTED]:~$ -- SNIP -- Testdaten waren fast 10 Millionen künstlich generierte URLs in $DATEI, $LISTE als echte Teilmenge davon mit ca. 2% weniger Einträgen, die URLs waren jedoch kurz (http://foo/bar/70563/72992/87713/13210/foobar.html). Ich behaupte das geht noch wesentlich schneller und eleganter (will vorallem meinen etwas weniger speicherlastig), wenn die Listen beide sortiert vorliegen, wenn sie nicht mehr ins RAM passen. Da braucht es dann aber mehr als die zehn Minuten, die ich mir genommen hab :-) Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Verzögerte Mails auf dieser ML: Debian-user-german
Matthias Haegele schrieb: Seit ein paar Tagen werden Mails die ich an diese Liste sende sehr verzögert ausgeliefert (beim Empfang ebenso), eine Suche in den Logdateien meines Postfix ergab keine weiteren Hinweise, die Mails scheinen normal von der Gegenstelle angenommen zu werden. Hier das gleiche Problem, ebenfalls seit ein paar Tagen. Andere Mailinglisten wie die Postfixbuch-users, dspam funktionieren einwandfrei und scheinen sich auch nicht an u. a. zu stören ... Auch dieses, ich vermute mal murphy hat zur Zeit wieder etwas mehr zu tun und leidet an etwas mehr Last als sonst, kommt ja von Zeit zu Zeit immer mal wieder vor. Habe auch noch 2 andere Domains auf dem Mailserver laufen, weiß zufällig jemand ob es was bringen würde die Auflösung zu *.clients.your-server.de abschalten zu lassen von hetzner oder ob dann evtl. deren Wartungszeugs nicht mehr funktioniert ... Also die Forward-DNS Auflösung kannst Du glaub ich bei Hetzner nicht abschalten lassen, wohl aber den Reverse-DNS Eintrag für deine Domain ändern lassen, dazu siehe: http://hetzner.de/robot/rdns/rdns_1.php (ja, ich bin ebenfalls bei Hetzner :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: ist chroot das richtige für mich?
Ulrich Fürst schrieb: Deshalb meine Überlegung ob ich ein z.B. testing in einer chroot- Umgebung nutzen kann, in der ich einen aktuellen Sylpheed-Claws installiere. Nur soweit ich gelesen habe, sind die Verzeichnisstrukturen ja vollständig getrennt. Z. Zeit werden die Mails aber über fetchmail -- procmail in die verschiedenen Ordner sortiert. Das geht dann ja wohl nicht mehr? Oder gibt es für mein Problem eine andere Lösung? Die Überlegung ist für einen 'Unfitten' doch schonmal sehr gut, gleiches musst Du veranstalten, wenn Du mit amd64 i386 Binaries laufen lassen willst. Für dein Problem, wenn Du die Verzeichnisse /home usw. brauchst, dann hilft dir ein mount mit Option bind. Habs gerade nicht im Kopf aber schau mal hier: https://alioth.debian.org/docman/view.php/30192/21/debian-amd64-howto.html#id271960 Andere Lösung wäre, die Mails in einem IMAP Server (oder POP3 ohne löschen, was aber die Mails dupliziert) zu lagern und darüber zuzugreifen, spart die mounts. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Datensicherheit von XFS erhöhen?
Michelle Konzack wrote: diesem Effekt als dem eines sich auflösenden Dateisystems (ext3 mit journal ist im Vergleich doch deutlich langsamer - und ähnliche Effekte entstehen bei Stromausfall dennoch). Wie meinst Du denn das? So wie geschrieben. Ich habe seinerzeit einige Tests gemacht und mehrere Dateisysteme im laufenden Zugriff 'abgeklemmt' um das Verhalten bei Stromausfall zu simulieren, Kandidaten waren ext2, ext3, reiserfs und xfs (und noch ein paar Exoten). Das ganze unter vielen parallelen Schreib- und Lesezugriffen. Ein ext2 ohne Journal kommt ja ohne langwieriges fsck ohnehin nicht wieder in den Betrieb und wies eindeutig die meisten Fehler auf, bis hin zum total unbrauchbaren Dateisystem. ReiserFS war (damals) nicht nennenswert besser, zwar stabiler, aber wenn es einen Fehler gab, dann war meist ein sehr großer Teil des Dateisystem und das auch sehr gründlich betroffen, soll ja heute besser sein. In der Hinsicht verhielten sich ext3 und xfs doch schon wesentlich besser. Nur ein Stromausfall ist und bleibt der Alptraum für jedes Dateisystem, denn alles was heute auf Leistung optimiert ist, nutzt Puffer und Caches massiv und die Daten die dort drin sind gehen verloren. Was ext3 mit data=ordered oder data=writeback und xfs treiben ist ein Journaling der Metadaten, sprich das soll sicherstellen, dass das Dateisystem selbst heile bleibt, von den selbst Daten ist keine Rede. Meine Tests haben das auch bestätigt, in der Regel bleibt das Dateisystem selbst heil, nur fehlerhafte Daten treten auf. Und das bei mir mit xfs deutlich seltener als bei ext3 (und wenn dann offensichtlicher). Bei ext3 habe ich es dennoch geschafft, das Dateisystem selbst zu zerlegen, bei xfs nur ein einziges Mal bisher. Ich weiss auch, dass ext3 auch data=journal anbietet, was sowohl Metadaten als auch Dateidaten ins Journal schreibt - das war bisher das stabilste Szenario, aber leider grauenhaft langsam, weil ja alles doppelt geschrieben werden muss - keine Option. Daher bin ich 'offizieller XFS Fan' :-) Mal sehen wie lange noch... was ich bisher von ZFS gesehen hab begeistert mich schon, nur vom Linux Port hab ich wenig gehört bisher und ausserdem zielt es auch auf einen anderen Einsatzbereich ab. Also ext3 wird spätestens alle 15 minuten geflushed und ich habe hier in Strasbourg regelmäßig Stromausfälle, so das ich pro Monat mindestens einen Reboot hatte... Also Daten habe ich so gut wie nie unter ext3 Sicher, und man kann ja auch bei xfs dafür sorgen. Problematisch wird das Thema eh nur, wenn Schreibzugriffe stattfinden, die die Größe von Dateien verändern. Wird nur gelesen ist das alles halb so, da ändert sich ja nichts. Aber da selbst mit ext3 der fsck ein paar Stunden dauerte (1,8 TByte auf 3Ware Raid-5), habe ich es vorgezogen endlich ne neue APC mit zwei externen Akku-Blocks zu besorgen... ist einfach nervenschonender. Oder einfach den optionalen Akku-Pack für den 3ware Controller, der den Cache sichert für genau diesen Fall ;-) Sofern man einen 'guten'(TM) 3ware Controller hat. Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Mailserver einrichten...
Hannes H. schrieb: Ich persönlich bin im Moment eher auf der Suche nach guter (deutschsprachiger) Litaratur (auch gerne Howtows) zum Einstieg in die IMAP-Sache. Hat jemand für mich einen Tipp? Mit etwas Geduld auf Juni 2006 warten, dann erscheint meines Wissen von Peer Heinlein Co. bei O'Reilly POP3 und IMAP. Mailserver mit Courier und Cyrus, vielleicht ist das dann was für Dich. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: zahlreiche SSH-login-Versuche unterbinden
Hallo, Thilo! Hat jemand einen Tipp für mich? http://blog.andrew.net.au/2005/02/16#ipt_recent_and_ssh_attacks und eine Suche nach sshblack sollten dir bestimmt weiterhelfen. Skriptkiddies sind schon was feines, nur so langsam könnte diese Modeerscheinung auch mal wieder von der Bildfläche verschwinden :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: streamer ansprechen
Marco Tannert schrieb: Ja. steht genau so drin und als Module hab ich /etc/modules auch sg und st hinzugefügt Was für einen Kernel verwendest Du? Und hast Du devfs oder udev? Eigentlich sollten devfs und auch udev die Devices von selbst anlegen wenn das Modul st geladen ist. Aus ganz alten Zeiten hab ich hier noch folgendes mit mknod: cd /dev mknod -m 660 st0 c 9 0 mknod -m 660 nst0 c 9 128 chown root:tape st0 nst0 ich hab ehrlich gesagt keine ahnung wie ich weitermachen soll. ich hoffe mal, das mir noch jemand weiterhelfen kann. Wird das Laufwerk denn beim booten vom Kernel erkannt (siehe mal in dmesg) und ist das Modul auch wirklich geladen (lsmod)? Cherrs, Jan signature.asc Description: OpenPGP digital signature
Re: streamer ansprechen
Marco Tannert schrieb: ja, ist geladen. duck Auch das für deinen SCSI-Controller? wiederauftauch Klingt blöd, nur eigentlich sollte der Kernel wenn er bootet und den SCSI-Bus scannt die erkannten Geräte ausgeben. Das er Dir die USB-Reader und die SATA Platten zeigt ist zwar schön, aber dass heisst nur, dass der SCSI-Layer im Kernel geht (über den SATA abgewickelt wird, was an sich ja kein SCSI ist, genauso wenig wie USB). Könnte also sein, dass Dir schlicht der Treiber für den Adapter fehlt :-) 1.) Karte reingesteckt Gut ;-) 2.) streamereinstellungen auf ID=3 gesetzt (0 ist usb-card-reader, 1 und 2 sind meine sata-platten) Das hat mit den SCSI-IDs an deinem Kontroller nichts zu tun, das ist die Reihenfolge wie die Geräte gefunden werden (was mich schon mehrfach aufs Kreuz gelegt hat, weil mein Rechner mit extern angesteckter Platte nicht mehr bootet und sein Root-Filesystem nicht mehr findet). 3.) scsi-kabel angesteckt. man kann ja zwei geräte anschließen an das kabel und da ich nur eins habe, hab ich den ersten anschluß genommen (was bei ide-kabeln dem masteranschluß entspricht). Und den Terminator vergessen? SCSI wird im Gegensatz zu IDE, SATA am Ende des Kabels terminiert (genauer an beiden Enden des Busses, aber die eine Terminierung macht der Kontroller). Also sollte am Ende des Kabels ein Terminator stecken, meist kleiner grauer/schwarzer Stecker. Scheint bei Dir noch nicht soo schlimm zu sein, der Kontroller erkennt den Streamer ja, nur ein nicht terminierter Bus kann zu sehr bösen Effekten führen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: streamer ansprechen
Marco Tannert wrote: genau das wirds sein. mein controller ist ein WD-7193. wie bringe ich den nun zum laufen?? Das scheint ja ein richtiger Exot zu sein, kenne ihn nicht genauer (bin seit Anbeginn meiner SCSI-Zeit bei Adaptec geblieben soweit wie es ging), aber zumindest dies hier habe ich gefunden (relativ alt, und für 2.4er Kernel gedacht, wie das bei 2.6 aussieht weiss ich leider auch nicht): http://sun1.rrzn.uni-hannover.de/gaertner.juergen/wd719x/Linux/ http://www.knowplace.org/pages/morgue/wd719x_linux_driver_project.php Scheit als wäre die Sparte der WDC SCSI Controller mal an Adaptec verkauft worden und anschließend der große, schwere Mante aber es ist doch nicht falsch die ID auf drei zu stellen, oder? Nein, wie Du die IDs wählst ist eigentlich egal, nur die ID des Host-Controllers solltest Du nicht unbedingt nehmen :-) der streamer hat einen jumper zum terminieren. das hab ich so verstanden, dass man den jumper setzen muss, wenn man nur ein gerät an einem kabel betreibt (wie in meinem fall). richtig? Halb, bei SCSI muss an beiden Enden des Kabels immer ein Terminator sitzen, egal wieviele Geräte daran angeschlossen sind. +--+++ | ||| Controller Device 1 Device 2...Terminierung (terminiert) In deinem Fall ist eine schaltbare Terminierung im Streamer eingebaut, die übernimmt das dann. Aber wie gesagt, an beiden Enden(!) des Busses muss terminiert werden, weil sonst die Signale nicht mehr sauber sind (Reflektionen am Kabelende, Signalpegel). http://www.hardwaregrundlagen.de/oben14-001.htm Für deinen Fall das schmerzfreieste wird sicher sein, mal eBay nach einem Adaptec Controller zu durchforsten, einen UW wie er für deinen Streamer reicht gibt's dort für gut 10 Euro, U2W ist schon etwas teurer. Beim C1537A von HP müsste es sich ja um einen UW-DDS3 Streamer handeln, wenn ich das richtig im Kopf hab. Cheers, Jan -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Cyrus und TLS
Andreas Hergesell schrieb: imaps cmd=imapd -s listen=imaps prefork=0 pop3s cmd=pop3d -s listen=pop3s prefork=0 Das ist in der Tat nicht in meinem Sinn, weil ich dann andere Ports verwenden muss (bei IMAP anstelle von 143 die 993). Und da ich an einer Stelle eine sehr restriktive Firewall hab, auf die ich auch keinen Einfluss nehmen kann, möchte ich gerne lieber die Verschlüsselung per STARTTLS anstelle von SSL generell haben. Öhm, was hat sasl mit tls zu tun? Direkt nichts, aber SASL bewertet die Sicherheit des Logins mit einem Wert, Plaintext hat eine Null, CRAM-MD5 dann etwas mehr und ein Login nach einem STARTTLS 128 und mehr. Nun kann man wenn ich das richtig verstanden hab mit sasl_minimum_layer genau einschränken, dass man einen Mindestwert erreicht hat (128 und höher). Leider fallen ja CRAM-MD5 und Co. weg, weil ich den saslauthd mit pam_pgsql im Einsatz hab, aber für den Login via CRAM-MD5 ja Zugriff auf dass Passwort im Klartext notwendig ist. Vielleicht sollte ich doch auf die sasldb umstellen, zwar nicht schön, aber besser als Plaintext für die Kennwörter. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Cyrus und TLS
Matthias Haegele schrieb: Sprichst du von cyrus sasl (evtl. in Verb. mit MTA a)) oder von Cyrus imap b) oder von beidem c)?. Meine Cyrus IMAP und die Authenifizierung der Benutzer. Läuft bei mir über saslauthd und der bezieht seine Infos aus pam_pgsql. Auf der MTA-Seite läuft alles nur auf dem Localhost und via LMTP und das klappt auch einwandfrei. Die Logins der Benutzer laufen ja auch, nur eben nicht mit erzwungenem TLS durch sasl_maximum_layer. Problem ist, dass solange ich allowplaintext: yes in der imapd.conf stehen hab, ich mich jederzeit anmelden kann und sasl_minimum_layer nicht beachtet wird. Setzte ich das auf no, schickt Cyrus im Banner ein LOGINDISABLED und ein Thunderbird lehnt die Verbindung ab (imtest ignoriert das und kann sich einloggen). Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Datensicherheit von XFS erhöhen?
Dirk Salva schrieb: Das aktuelle Problem war und ist nicht nachvollziehbar und lag nicht an der Spannungsversorgung von extern. Ich habe an den Firewire-Anschluß des Rechners meine Videokamera (Akkubetrieb) angeschlossen und eingeschaltet. Und schwupps war der Rechner aus, hart, so wie bei einem Stromausfall. Strom war aber noch da, hab extra nachgesehen. Das hat er Das klingt nicht besonders gut - defekte Leitung oder defektes Netzteil kannst Du ausschließen? Besonders bei letzterem bin ich in letzter Zeit immer skeptisch, denn mein subjektiver Eindruck ist, dass Netzteile auch nicht mehr das sind was sie mal waren. Sind früher Platten am laufenden Meter ausgefallen, Speicher kaputt gegangen so hab ich hier mehr Schäden an Netzteilen, deren Lüftern und ähnlichem. Alles Dinge bei denen ich sagen muss, dass das unnötige Fehler sind in meinen Augen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Kaputte E-Mails (von Jan Kohnert) durch X-Face:
Felix M. Palmen schrieb: Am besten nicht weiter beachten. Laut Frau Konzack ist auch meine PGP-Signatur kaputt, was ihr einen ähnlich sinnlosen Thread hier wert war. Ohja, das kenne ich auch. Deine Signatur ist jedoch zumindest hier einwandfrei :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Problem mit IP-Protocoll (ICMP type 3, code 0)
Martin Müller - Rudolf Hausstein OHG schrieb: May 14 10:35:40 X kernel: 172.18.221.11 sent an invalid ICMP type 3, code 0 error to a broadcast: 85.124.163.215 on eth1 whois 172.18.221.11 meint, dass die Adresse von IANA reserviert ist. Was kann an dem Setup falsch sein, dass diese Fehlermeldung provoziert wird? 172.16.0.0-172.31.255.244 (oder 172.16.0.0/12) ist ein privates Subnetz wie 192.168.0.0/16 auch. ICMP type 3 ist 'destination unreachable', code 0 'network unreachable'. Im Klartext, die 172.18.221.11 antwortet auf einen Broadcat von deiner IP und Broadcast-Adresse auf eth1 mit der Antwort, das sie 'nicht erreichbar' ist. Nur dein Kernel stellt sehr richtig fest, dass diese IP auf den Broadcast nie hätte hören dürfen, weil sie gar nicht in deinem Subnetz ist. Hast Du andere Geräte in deinem Netz hängen, mir fallen von der Arbeit aus spontan Ricoh-Drucker ein, die genau das Verhalten auch haben. Ethereal und tcpdump helfen, anhand der MAC-Adresse findet man den Hersteller der Karte und kann seine Suche eingrenzen. Oder auch feststellen, ob und welche Broadcasts das auslösen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: unknown filesystem type 'devfs
Hallo, Saskia! ich habe beim googeln gelesen das beim 2.6er Kernel irgendetwas mit devfs gegen udev ausgetauscht wurde. Weis leider net was das bedeutet bzw. wie ich mein Problem damit lösen kann. Stimmt genau, devfs ist durch udev abgelöst worden (seit 2.6.15 IMHO). Wenn Du deinen alten Kernel noch booten kannst, kannst du versuchen dein System per Hand auf udev umzustellen und es dann erneut zu versuchen, udev sollte mit einem 2.6er Kernel immer funktionieren. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: streamer ansprechen
Marco Tannert schrieb: Mein Problem: sämliche Anleitungen im Netz schreiben, dass man den Streamer über ein Device namens /dev/st0 (bzw. /dev/nst0) anspricht. Bei mir gibt es aber nichts dergleichen. Ohne es jetzt genau im Kopf zu haben, such mal nach makedev oder schau mal in die Manpage davon, damit kann man das Device anlegen. Ist schon lange her... Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Datensicherheit von XFS erhöhen?
Dirk Salva schrieb: Ok. Aber da bleiben dann immer noch Fragen offen: - als erste ganz wichtig obige wie kann ich die defekten Dateien finden? - was meinst Du mit die entsprechenden Dateien? Ich habe das jetzt erst drei oder vier mal gehabt, und jedesmal fallen mir nach einigen Tagen wieder welche auf, die ich noch nicht kannte. Der Effekt ist, dass XFS Metadaten-Updates macht und das Problem tritt auf, wenn eine Datei schreibend geöffnet ist, das Metadaten-Update stattgefunden hat, aber die Datei selbst noch nicht auf die Platte geschrieben wird. XFS stellt an dieser Stelle nur sicher, dass das Dateisystem in sich konsistent ist und nicht die Dateien selbst. Wollte man das, müsste man auf Caching verzichten und alles synchron auf die Platte schreiben, was a) die Platte belastet und b) zu großen Geschwindigkeitseinbußen führt. - können wichtige Systemdateien (libs, module, irgendsowas) davon betroffen sein, oder eher nicht, sondern nur Log-, Status- und Config-Dateien? Betroffen sind i.d.R. nur schreibend geöffnete Dateien, also weniger Programme, Configs oder Bibliotheken. Log sind da sehr gerne anfällig oder aber auch Datenbanken - darauf sollte man sein Hauptaugenmerk richten. Bei den Logs ist es nicht soo tragisch, aber kaputte Datenbank kann sehr ärgerlich sein. Das erkennen welche Dateien dort betroffen sind ist aus deswegen schwierig, md5sum kann man nicht verwenden, weil die Dateien ja gerade schreibend offen waren. Entgegenwirken kann man den Effekten durch ein halbwegs regelmäßiges 'sync' wenn das die Perfomance zulässt, dadurch wird die Wahrscheinlichkeit kleiner. Ist zwar nicht schön, aber lieber so und ein Backup zur Hand als wenn sich ein Dateisystem komplett auflöst, das habe ich mit XFS noch nie geschafft :-) Ansonsten: USV :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Kaputte E-Mails (von Jan Kohnert) durch X-Face:
Michelle Konzack schrieb: Die scheiß E-Mail von... Wortwahl: Null Punkte. Seit einiger Zeit bekomme ich laufen E-Mails von Jan Kohnert mit zerlegtem Header (X-Face:) siehe angehängtes JPEG. Ich gehe mal davon aus, das ein Kmail damit schwierigkeiten hat, denn die E-Mails kommen bereits in meiner Mailbox so an. So wie die Header aussehen würde ich auf einen bei Dir befindlichen nicht UTF8 tauglichen Filter tippen, vorzugsweise Spamassassin weil dessen Header mitten im X-Face stehen. Da war irgendwann mal was... Das X-Face funktioniert bei mir wunderbar, wenn sie Dir generell auf die nerven Fallen, dann hilft Dir formail sicher gerne weiter (und ich meine du hattest mal geschrieben, dass Du formail eh nutzt um die ganzen Recieved-Header zu strippen *dunkelerinner*). X-Face macht mit Textmailern eh nicht den ultimativen Sinn, so dass Du keinen Verlust erleiden sollest. Cheers, Jan signature.asc Description: OpenPGP digital signature
Cyrus und TLS
Hi zusammen, habe da ein Problem mit Cyrus - ich würde gerne TLS erzwingen. TLS funktioniert bereits wunderbar. Setze ich nun sasl_minium_layer auf 128 (oder ähnlich), dann taucht im Login LOGINDISABLED im Banner auf und z.B. Thunderbird verweigert dann den Login. imtest hingegen setzt sich bequem über das gesetzte LOGINDISBALED hinweg und der Login funktioniert. Jemand eine Idee, wie ich das sauber so hinbekomme, dass das LOGINDISABLED nicht auftaucht? Ich möchte ungern nur SSL anbieten auf Port 995, TLS finde ich 'schöner'. Dankbar für jeden Tipp, Jan signature.asc Description: OpenPGP digital signature
Re: Datensicherheit von XFS erhöhen?
Hallo, Dirk! Angeblich nutzt XFS ja als journalling-Option standardmäßig writeback. Kann man das (und wenn ja: wie?) irgendwie umstellen auf die - so weit ich das verstehe - sicherste Variante journal umstellen? Soweit ich das weiss, bietet XFS diese Option leider nicht (auch wenn ich sonst sehr gerne XFS einsetze), aber ich persönlich lebe lieber mit diesem Effekt als dem eines sich auflösenden Dateisystems (ext3 mit journal ist im Vergleich doch deutlich langsamer - und ähnliche Effekte entstehen bei Stromausfall dennoch). Aus der XFS-FAQ: Q: Why do I see binary NULLS in some files after recovery when I unplugged the power? XFS journals metadata updates, not data updates. After a crash you are supposed to get a consistent filesystem which looks like the state sometime shortly before the crash, NOT what the in memory image looked like the instant before the crash. Since XFS does not write data out immediately unless you tell it to with fsync, an O_SYNC or O_DIRECT open (the same is true of other filesystems), you are looking at an inode which was flushed out, but whose data was not. Typically you'll find that the inode is not taking any space since all it has is a size but no extents allocated (try examining the file with the xfs_bmap(8) command). Und: kann man irgendwie die beim crash modifizierten/zerstörten Dateien herausfinden? Ob das von Haus aus geht weiss ich leider nicht, zumindest nicht dass ich das jetzt aus dem Kopf wüsste. Aber nach einem Stromausfall ist so oder so vorsicht geboten, dass ich dazu übergegangen bin, die entsprechenden Dateien danach erstmal zu überprüfen. Spiele gerade mit ZFS, das soll ja auch dagegen immun sein. Cheers, Jan signature.asc Description: PGP signature signature.asc Description: OpenPGP digital signature
Re: Minimalinstallation mit d-i?
Ulrich Mietke schrieb: wie installiert man eine minimale, bootfähige Sarge-Umgebung wenn nur die 1. Installations-CD zur Verfügung steht? Es werden nur die essentialen Pakete Von eben dieser CD :-) Du solltest nur dann halt keine Pakete an Software auswählen und das später von Hand machen. Wenn Du keine besonders exotische Hardware hast, hast Du danach ein Base-System. Ging zumindest früher immer so und sollte auch noch so gehen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Minimalinstallation mit d-i?
Ulrich Mietke schrieb: ... welches geringfügig mehr als Essential umfaßt :-) Halt eben Base - nur von dortaus kann man natürlich noch gut entschlacken wenn man das denn muss. Ansonsten gäbe es noch debootstrap wenn Du den Datenträger umbauen kannst/willst oder wenns sehr minimal werden soll auch LFS und Thinstation (für Anregungen). Woody? oder als sarge noch unstable war? Woody und auch Sarge nahmen sich da nicht viel. Lieferte in beiden Fällen ein benutzbares System, was auch nicht sonderlich groß war. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: cyrus-imap und sa-learn
Hallo, Christoph! sa-learn --spam /var/spool/cyrus/mail/u/user/SPAM/* Vielleicht hilft Dir die Option --username von sa-learn weiter? Wenn Du automatisch die Mails anlernen lassen willst, kannst damit u.U. einen cronjob bauen, der genau das tut. Ich habe dafür einen speziellen Unterordner Train.ham und Train.spam - hat ein Benutzer dorthin Mails verschoben, werden sie angelernt und danach von dort wieder gelöscht (baue das gerade auf virtuelle User um). Cheers, Jan signature.asc Description: OpenPGP digital signature
[SemiOT] OpenSSL Frontend fuer Windows?
-BEGIN PGP SIGNED MESSAGE- Hash: SHA1 Hallo zusammen :-) Ich weiss ist leicht OT, aber vielleicht kennt hier jemand ein einfaches Frontend fuer Windows mit dem sich ein Nutzer dort einen OpenSSL Key und einen dazugehoerigen CSR erstellen kann? Klar, OpenSSL Binaries fuer Windows gibt's und nutze ich auch wenns sein muss, nur ist das leider nicht DAU tauglich :-( Cheers, Jan -BEGIN PGP SIGNATURE- Version: GnuPG v1.4.1 (GNU/Linux) Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org iD8DBQFEWLw9/HxP9u0KvHURAm9aAKCmL0af74tZ4X5D/XneK6PCU9GbRgCgoau0 x2KeUmZlRUJFfdN0rF4rIlA= =3Xz4 -END PGP SIGNATURE- -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Block bei zuviel Mails/Paketen
Philipp Flesch schrieb: Hi! 1) aehnlich Strato und co: mehr Daten-Pakete pro Intervall als bestimmter Schwellwert Schaue mal hier vorbei: http://www.netfilter.org/documentation/HOWTO/de/packet-filtering-HOWTO-7.html Dort dürfte dich dann das Modul 'limit' interessieren. Jedoch gleich als kleiner Tipp vorab: Sorge dafür, dass ein Admin auch bei erreichen des Limit per SSH an den Server kommen kann (sprich, die Regel dafür sollte weiter oben stehen das die für das Limit), sonst könnte es unangenehm werden. 2) mehr als X Mails pro Intervall -- -- Ausfuehren eines Scripts, dass mir dann Postfix beendet oder SMTP ausgehend blockt So komplett fertig kenne ich da nichts. Eine Möglichkeit sollte das Überwachen des Logs sein und anhand dessen eine Auswertung machen. Aber das komplette Abschalten des MTA ist in aller Regel auch nicht unbedingt gut. Wo siehst Du dort das Problem? Meist reicht es auch aus, SMTP AUTH als Plicht einzustellen, so dass man kein offenes Relay ist, welches für Spammer anfällig ist. Jedem seinen Zugang und das wars :-) Mit Exim und leichten Programmierkünsten kann man sich auch etwas in der Art bauen - hatte ich mal gemacht, aber lange her. Dazu hatte ich ein kleines Programm (möglichst kompiliert weil schneller), Grundidee war folgende: Das Programm bedient sich einer Datenbank (gdbm) und merkt sich die From:-Zeilen der bearbeiteten Mails und zählt einen Counter bei jeder abgehenden Mails eins hoch. Dieses Programm wird dann in einem Router aufgerufen und beendet mit einem Exitcode 0 wenn das Limit nicht erreicht ist und mit 0 wenn es erreicht ist (genau dann wird der Router ausgeführt und kann eine Bounce-Mail zurückschicken etc.). Kenne Postfix nicht so besonders gut, aber ähnlich dürfte es auch dort funktionieren. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: [Postingstatistik] April 2006
Hartmut Figge schrieb: Tja, es handelt sich um geerbte Skripte, die ursprünglich mal für die Mozilla-NGs geschrieben wurden. Sie sind in Python geschrieben und ich spreche kein Python. *g* Aber ich :-) Also wenn interesse besteht, kann ich das gerne übernehmen und entsprechend für diese Listen hier anpassen und online stellen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Tape Backup Software Empfehlung
Hallo, Peter :-) ich suche eine *einfache* Software, die Tape-Backups steuert. Hehe :-) Einfach ist gut - also tar, cpio. Nur rate ich dringend davon ab, selbst die Daten auf dem Band zu komprimieren, denn wenn mal ein Bit kippt, dann kann es Dir im Fall der Fälle passieren, dass die Daten auf dem Band unlesbar sind. Die Komprimierung vom Laufwerk ist da etwas toleranter und kann doch noch etwas zurückholen in dem Fall. - dirs einmal voll bz2-komprimiert aufs Band schreiben Einmal tar :-) Alles ganz einfach, solange das Band größer ist als die Nutzdaten die gesichert werden sollen, sonst afio. - MySQL dumpen und bz2-komprimiert aufs Band - inkrementelles Backup bz2-komprimiert ausf Band - einfachste Verwaltung der Bänder - bei Problemen E-Mail schicken Nocheinmal das gleiche - für inkrementelle Backups kannst Du gut rsync verwenden, alles in ein temporäres Verzeichnis schreiben und dann wegsichern. Habe mir die tollen Pakete amanda, bacula, afbackup angesehen, finde die aber heftig überladen. Ich brauche keine Bandroboter-Steuerung oder ausgeklügelte Server/Client-Konzepte. Ich würde Dir dennoch einen (oder auch zwei) tiefergehende Blicke auf diese Lösungen empfehlen. Vor dem ersten Einsatz sicher reichlich viel zu lesen und einzurichten, aber wenn man danach mal in die Verlegenheit eines Restore kommt, hat man ein wesentlich entspannteres Leben. Gerade in punkto Band- und Katalogverwaltung :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Eigene Debian-Installer CDs erstellen?
Andreas Pakulat schrieb: Ich denke schon das jmd. hier was naeheres dazu weiss, aber bestimmt nicht aufn Samstag um die Uhrzeit. Soll ja Leute geben die noch ein richtiges Leben haben ;-) Maybe :-) Sucht Du sowas wie dies hier, das könnte vielleicht helfen: http://jan.exss.de/debian-cd.html Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Keine Key-Verifizierung von evolution, gpg und keyserver
Bernhard Kleine schrieb: Da steht tatsächlich die KeyID ohne 0x. Aber finden tut der Server es nicht. Ein Problem von dfn-pca.de? Nein, alle Keyserver handhaben das so (zumindest der von mir betreute und alle anderen die die kenne und nutze). http://gpg-keyserver.de:11371/pks/lookup?search=0xA8EA9D63op=vindex Das 0x vor der KeyID ist bei der Suche ein Kennzeichen dafür, dass man nach der KeyID und nicht nach dem Namen innerhalb des Schlüssels (Name oder Mailadresse) suchen will. Man kann GnuPG sagen (siehe letzte Mail), dass er fehlende Schlüssel automatisch lädt und das funktioniert auch. Leider weiss ich nicht die Evolution das handhabt. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Keine Key-Verifizierung von evolution, gpg und keyserver
Bernhard Kleine schrieb: Meine Frage, kann man irgendwo etwas daran drehen, dass Schlüssel-ID immer mit 0x beginnen, damit sie verifiziert werden können? Ich kenne zwar Evolution nicht im Detail - nur bekommst Du eine Fehlermeldung und wenn ja an welcher Stelle? Weiss Dein GnuPG denn, dass es sich fehlende Schlüssel automatisch besorgen soll? Das kann man ihm mit zwei Zeilen wie diesen in ~/.gnupg/options beibringen: keyserver www.gpg-keyserver.de keyserver-options auto-key-retrieve Das die KeyIDs angeht, das ist leider leicht irritierend, denn GnuPG gibt sie in der Liste immer ohne das 0x voran aus: pub 1024D/82201FC4 2003-11-15 uid Jan Kesten [EMAIL PROTECTED] Ein Keyserver sucht allerdings ohne das vorangestellte 0x (was eine Hexzahl kennzeichnet) nach Schlüssen mit der ID 'im Namen' und nicht nach der ID selbst. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: backup MX 'e
Sven Hartge schrieb: Userverwaltung via LDAP oder MySQL oder durch eine andere Datenbank-Methode (pam-userdb?), welche auf dem Backup-MX synchron gehalten wird, so daß dieser dann Zugriff auf die gültigen Localparts hat. Die Idee hatte ich auch (jetzt wo ich vor einigen Tagen meinen exim 'virtuell' gemacht hab). Bin noch am verstehen von exim an diesem Punkt, ob und wie er als Relay auch prüfen kann. Wenn ich den Backup-MX einfach die Mails akzeptieren lassen würde dann hab ich ja kein Problem, ab mit der Domain in die local_domains und gut. Nur dann sind die Mails ja zugestellt (und ich muss sie wieder einsammeln, was ich auch schon gemacht hab - nur das bekommt halt keinen Schönheitspreis). Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: XFS-Raid1-Root Filesystem möglich?
Markus Schulz schrieb: hmm, du machst mir Angst. Der Server läuft später unter recht hohem Load (200) zu Spitzenlastzeiten. Ist unter diesen Umständen wirklich davon abzuraten xfs einzusetzen? In meinen Augen ganz klar: XFS ja, Software-RAID bedingt. Hatte auch eine ganze Zeit ein XFS auf einem Software-RAID am laufen und auch unter hoher Last keine Probleme damit gehabt (wird nur irgendwann langsam), besonders wenn es zu IO-Wait kommt - hatte zwar nie Probleme, doch wenn IO der Engpass wird würde ich lieber auf Hardware vertrauen. Fairerweise muss ich aber auch sagen, dass ich als XFS-Fan auch die Auflösung des Dateisystems mal beobachten musste: das war in den Anfangszeiten von XFS und führte zu vielen 0-Byte-Dateien. War jedoch einmalig und ist mit neueren Versionen nie wieder vorgekommen. (Und nein einen FS-War will ich nicht anzetteln :-) Was verursacht denn diese massiv hohe Last? Wenn es IO ist wo es hängt, rate ich dringend zu Hardware-RAID und vernüftigen(TM) Platten :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Exim4 und Cyrus
Markus Schulz schrieb: Also für SASL ist pam_pgsql das Mittel der Wahl. Hab das hier auch am Laufen. Ich setze allerdings als MTA Postfix ein, ich denke aber auch exim wird sich gegen ein pgsql Backend konfigurieren lassen. Hab Dank, läuft jetzt so wie es soll. Bei der Gelegenheit sind auch die die ganzen virtuellen Accounts gleich mit in der Datenbank verschwunden, sehr schick. (/etc/default/saslauthd) solle er pam verwenden. Damit bekommt man Postgresql via pam_pgsql ohne Probleme eingerichtet. Das scheint auch schon zu laufen, mittels eines telnet auf dem localhost kann ich mich einwandfrei verbinden und auch anmelden. Jetzt habe ich gleich das nächste interessante Problem: Ein Login auf den POP3 funktioniert auf dem localhost und von einer anderen Debian-Maschine einwandfrei: +OK debian3164m Cyrus POP3 USER test000 +OK Name is a valid mailbox PASS pass +OK Maildrop locked and ready QUIT +OK Connection closed by foreign host. Ein Windows-Client hingegen sieht nur dies hier (Mailclient geht natürlich auch nicht, ein PuTTY oder eingebautes telnet bringen den gleichen Effekt): +OK debian3164m Cyrus POP3 USER test000 +OK Name is a valid mailbox -ERR Wrong command due to authorization Bin dankbar für jeden Hinweis :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Drucken vom (debian) Laptop auf Netzwerkdrucker
Norbert Harz schrieb: Ich oute micht jetzt mal wieder als 'alter' SuSE - User Wie starte ich cups, wenn es keinen Eintrag in /init.d/ gibt...? Mit deinen Paketen erstmal so gar nicht :-) Weil Dir fehlt ein apt-get install cupsys Ich liebe an diesen Stellen CUPS - bietet schöne kleine Fallen, deswegen: Schau Dir in Ruhe die Config-Files zu CUPS durch (liegen dann unter /etc/cups). Dort drinnen findet sich in cupsd.conf eine Reihe von Allow-Direktiven die wie bei Apache aussehen, mit denen man die Zugriff auf den CUPS etwas aufbohren kann, wenn man im lokalen Netz von überall einrichten will. Hast Du ein lokales Netz, brauchst Du nur einen CUPS-Server und sonst die Clients (den hast Du ja jetzt schon) - und dann sollte man sich BrowsePoll etc. genauer anschauen. Interessates zu lesen: http://www.catb.org/~esr/writings/cups-horror.html (wenn jemand noch eine Kopie der Übersetzung hat, bitte melde man sich bei mir) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Exim4 und Cyrus
Dirk Finkeldey schrieb: Hast du einen samba Server laufen ? Auf dem Server wo Cyrus laufen soll nicht - er steht extern und da hat ein Samba ja dann auch nichts verloren. Hier bei mir lokal ist ein Samba vorhanden weil ebenfalls ein heterogenes Netz (eben mit Windows, Linux und auch unter anderem Solaris). Hätte ja in erster Instanz auf die Firewall getippt - nur dann hätte es auch von den anderen Hosts nicht gehen sollen. Scheint erstmal windowsspezifisch zu sein. Sehr seltsam :-) Naja, weiter forschen... Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: backup MX 'e
stefan schrieb: Wenn ich nun einen 2. MAilserver im DNS mit einer höheren Priorität eintrage dann landen ja alle Mails auf einem zweiten Mailsystems, wenn mailserver1 mit niedrieger Prio ausfällt. DH. wenn ich backup MX nutzen will brauch ich auch dort einen 2. Mailserver, Richtig? Exakt. Wenn nun auf dem 2 Server die mails eintrudeln, wie gelangen die dann zum client? Wird dann synchronisiert wenn mailserver1 wieder online ist? Wie funktioniert das? Die einfachste Variante ist, dem Backup-Server im Falle von exim (und sicher jedem anderen MTA auch), als Option relay_to_domains = primary.domain.tld mitzugeben. Aber Vorsicht, das nimmt alle Mails für die Domain entgegen und wird von Spammern gerne genutzt. Da braucht es dann entweder ein dickes Fell oder auf dem Backup-MX entsprechende Test. Die Mails sollten dann nachdem der echte MX wieder da ist automatisch zugestellt werden. Alternative ist, alles incl. User-Check zustellen zulassen und manuell einen Transfer zu bauen wenn der MX wieder online ist. Willst Du hingegen, dass dir ruhig ein Server ausfallen kann und alle User mit SMTP und POP/IMAP weiterarbeiten können, ist etwas mehr Aufwand nötig. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: backup MX 'e
Hallo, Stefan! Okay, Wie läuft das dann, wenn ich den Server nicht unter Kontrolle hab? Muss ich dann dem Mailadmin dort user credentials übermitteln? Oder mailserver2 synchronisiert die User wenn mailserver1 wieder online? Wie geht das rein technisch vonstatten? Ich habe mich bisher davor immer gehütet. Technisch müsste das so laufen: - jemand schickt dir eine Mail über seinen MTA - der MTA des Absenders holt sich die MX-Einträge vom DNS - probiert den mit der höchsten Priorität aus - das schlägt fehl, so sollte der nächste probiert werden - der Backup MX erlaubt Relaying für deine Domain, also nimmt er die Mail ohne weitere Prüfung an und versucht sie seinerseits zuzustellen - dein primärer MTA läuft nicht und an sich selbst wird nicht zugestellt (wäre eine Loop) - sobald der primäre MTA wieder da ist, sollten beim Queue-Run die Mails vom Backup an den primären MX zugestellt werden Also synchronisieren in der Form eigentlich nicht. Weil die Mails werden zwar angenommen, aber der User bei Dir hat in dem Moment noch keinen Zugriff (weil die Mail noch beim Backup MX liegt). Das Problem ist folgendes, wenn der Backup MX nur anhand der Domain das Relay überprüft, kann man Mails an alle localparts der Domain absetzen. Dein primärer MTA würde diese jedoch gleich als unroutable zurückweisen (mein exim macht das zumindest). Problem ist nun folgendes, hat ein Spammer angefangen alle localparts zu beliefern landen die alle im Spool. Und wenn sie dann zu gestellt werden bekommt der Spammer tausende von Mailer-Daemon-Mails - da er aber nie seine eigene Adresse nimmt, kann das sehr ärgerlich sein. Was ich immer noch suche ist eine einfache Lösung, so dass der Backup-MX auch die localparts prüfen kann. Hmm auch gut, Was gibt es da für Szenarien? Ausser einem Mail- CLuster und reduntante Anbindung fällt mir da nichts ein. Ideen hab ich da genug - einfach ist nichts davon. Eine Idee sind zwei redundante Mailserver, ein zentraler Mailstore und drdb. Hat nur einen Haken, die meisten Mailsysteme vertragen kein NFS. Das hängt auch vom Anwendungsfall ab, was man genau mit welchem Aufwand erreichen will. Wenn mal wieder die totale Langeweile durchkommt wollte ich immer schonmal 'meinen IMAP' Server haben der als Mailspool eine Datenbank verwendet und online replizieren kann. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: backup MX 'e
Marc Ch. Demierre schrieb: Eine einfache Variante kenne ich leider auch nicht, *g* koenntest Du was mit Fetchmail einem Shell Script machen? Vor einer Weile haben wir auf diese Art und Weise ca 4GB Mail per Script gemoved..? Sicher das ist kein Thema - hatte auch einfach mal einen catchall account auf eine Domain gesetzt und alles in eine mbox bzw. ein maildir zustellen lassen. Wenn alles wieder online war, dann per Skript die Mailbox nehmen und die Mails wieder in den primären MX einfüttern. Aufwand damals ein paar Stunden fürs Programmieren und dann halt die Zeit für's manuelle Anwerfen des ganzen Krams (hatte den Vorteil, dass der Absender eine Mail bekam, dass seine Mail verspätet zugestellt werden wird). Nur das ist halt relativ 'dumm' und man bekommt schnell eine Menge Müll zusammen. Ausserdem ist das ja nicht ein Backup-MX im eigentlichen Sinne. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: backup MX 'e
Hallo, Stefan :-) okay, bis hierhin kann ich folgen, aber dass würde ja bedeuten das jeder backup MX auch ein open- relay darstellt. Das kann doch nicht sein?! Also der Backup-MX ist ein Relay für deine Domain und dort ein offenes in Bezug auf alle localparts deiner Domain, d.h. alles was [EMAIL PROTECTED] als Empfänger hat, wird angenommen. Auch hier muss es ja einen Schutz geben. Oder muss ich das so verstehen, dass der Backup MX nur für die domains für die er zuständig ist die mails zwischenspeichert, dann aber nur an mx1 relayed also dann auch kein versenden über mx2 funktioniert? Genau so, der Backup-MX sammelt alles ein was er in die Finger bekommt, da er keinen Zugriff auf deine Benutzerdatenbank hat, kann er auch nicht weiter prüfen. Er ist aber nur ein Relay, d.h. er packt alles in seinen Spool und muss sie dann an den normalen MX zustellen sobald dieser wieder erreichbar ist. Problem mit den Spammern ist nun folgendes: Dein normaler MX prüft die localparts ob sie auch wirklich vorhanden sind und weist bei nicht vorhandenen Mails die Einlieferung ab. Nicht so der Backup-MX der erstmal alles annimmt. Was ein Spammer nun tut ist, er schickt seinen Müll mit Millionen von verschiedenen localparts an den Backup-MX, der ihn nicht abweist und die Mail annimmt. Will nun der Backup-MX die Mail an den normalen MX weiterreichen und er stellt fest, dass dieser ihn wegen eines falschen localparts abweist (no such user, relaying denied), dann generiert er eine Mail an den Absender, das die Zustellung fehlgeschlagen ist. Die landen dann aber bei dem unglücklichen, dessen Mailadresse misbraucht wurde. An der Stelle bastele ich noch, so dass man exim vielleicht beibringen kann als Relay die Mails anzunehmen (wo mein Backup-MX schon etwas unter meiner Kontrolle sein sollte) und sie dort ebenfalls abweist, wenn der Localpart ungültig ist. Abhilfe ist ein catchall nach /dev/null oder eine Skript-Lösung mittels fetchmail vom Backup-MX etc. Aber das hat halt leider den Nachteil, dass auch Unzustellbarkeitsmails die ich eventuell ja haben will weil sich ein echter Nutzer vertippt hat ebenfalls im Nirvana landen. Na gut , mann muss ja nicht zwangsläufig NFS verwenden. drbd sollte eigentlich reichen Hatte damals auch daran gedacht einen IMAP zu implementieren, der seine Mails in einer Datenbank hält, die repliziert wird (ala DBBalancer). Nur ein vollständiges IMAP ist schon ein größeres Projekt.. Wär ein schönes Projekt!!! Also 2 MAilcluster mit drbd, je einer auf einer seite und datensynchronisation per VPN. NA, wer hat Lust? Ja :-) Das ganze müsste nur auch hinreichend performant sein, wenns zwei Rechner sind würde ja auch ein einfacher Tunnel reichen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Exim4 und Cyrus
Hallo, zusammen :-) Nachdem ich mich lange davor herumgedrückt hab muss ich nun doch meinem exim einen cyrus zur Seite stellen. Das klappt generell auch schon ziemlich gut. Auf dem Server laufen Mails für viele verschiedene Domains und User auf, die alle per vdom_aliases auch brav aufteilt werden, sprich ich habe unter /etc/exim4/virtual eine ganze Reihe von alias-Files für jede Domain eben eine. Darin sehen die Mappings dann etwa so aus: /etc/exim4/virutal/example.com ute.mustermann: [EMAIL PROTECTED] Und daneben existierte halt (oder besser existiert) bisher je ein Useraccount ohne Login auf dem Server mit einem Mailspool. Die Mails an cyrus zustellen zulassen sollte ja auch nicht das Problem werden, die Usernamen können von mir aus auch so bleiben wie sie sind. SASL für Cyrus läuft (so wie ich das sehe) auch, kann mich einloggen und Accounts anlegen ohne Probleme. Exim macht sein Mapping auch brav, nur weist die Mail dann ab, sobald acount nicht als lokaler Account existiert. Macht ja auch Sinn :-) Kann ich ihm das irgendwie beibringen, dass er die Accounts von anderer Stelle (idealerweise der sasldb) bezieht? Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Exim4 und Cyrus
Jan Kesten schrieb: Kann ich ihm das irgendwie beibringen, dass er die Accounts von anderer Stelle (idealerweise der sasldb) bezieht? Oder vielleicht noch besser: dass ich eine PostgreSQL Datenbank als Backend für beides hab? SASL soll das ja auch können, ist mir nur noch nicht geglückt. Vielleicht im Zusammenhang mit pam_pgsql möglich? Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Drucken vom (debian) Laptop auf Netzwerkdrucker
Hallo, Norbert! Was muss ich installiern, damit ich vom desktop aus auf einen Netzwerkdrucker (HP) drucken kann? HP Netzwerdrucker sind in aller Regel benutzerfreundlich, sofern sie PCL oder PS sprechen können. Angesprochen werden sie in cups über socket://xx.xx.xx.xx:9100 und einem passenden Treiber (wobei ich für meinen LaserJet5 etwas probieren musste welcher am besten geht). Hast Du CUPS denn konfiguriert per http://localhost:631? Und wenn ja, womit und welcher Fehler taucht genau auf? Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Dynamic MMap ran out of room
Hallo, Daniel! E: Dynamic MMap ran out of room Diese Frage hab ich schon fast ein bischen vermisst *g*, in der Regel hilft das einfügen von APT::Cache-Limit 201326592; in /etc/apt/apt.conf erhöht den Cache für apt und nach einem apt-get update sollte es dann auch wieder gehen :-) Alternativ einige der (nicht benötigten) Einträge aus der sources.list entfernen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Boot error
Matthias Haegele schrieb: braucht man bei einem Dualcore auch einen SMP-Kernel? Definitiv - bei Dualcore und HyperThreading braucht man in jedem Fall einen SMP Kernel (und bei Mehrprozessor-Maschinen erst recht). BTW, das erinnert mich daran, dass ich mal schauen wollte ob es mittlerweile was neues von der Linux-Portierung auf Niagara gibt :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Boot error
Roland M. Kruggel schrieb: Apr 5 11:00:31 alma kernel: EFLAGS: 00010282 (2.6.12.6-xen0) Nutzt Du Xen? Wenn nicht, warum dann einen Xen-Kernel und wenn doch, funktioniert es mit einem normalen Kernel? Glaskugel an In deiner Xen-Konfiguration ist vorgesehen, dass in einer Xen-Domaine auf physikalische Hardware zugegriffen werden soll und dort das Problem entsteht. Da war mal ein Fehler irgendwann im November mit diesen Symptomen in Xen - vielleicht hilft dir ein neuerer Kernel (oder ein Eigenbau) weiter. /Glaskugel aus Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: linklänge - 254 zeichen Limit
Mike Przygoda schrieb: alles was darüber ist ignoriert der browser (iexplorer).. ..wo wurde diese grenze gesetzt? Nirgends, eine URL darf (theoretisch) unbegrenzt lang sein, nur haben die Browser, Server und Proxies für die URL meist feste Puffergrößen und da entsteht dann eine Grenze. 254 Byte sind allerdings viel zu wenig, IMHO. BTW: Bist Du Nutzer dieses komischen Browsers da oben? Oder Entwickler der sich mit ihn herumärgern muss? Wenn letzteres lass Dir gesagt sein, das unterschiedliche Studien gerade diesem sehr hohe Standardkonformität zugeschrieben haben. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Mailserver / Webserver Umzug - Aufteilung
Mike Przygoda schrieb: wie konfiguriere ich die Mail-Funktion auf dem Webserver damit ich über den externen mailserver per php u.s.w. mails zustellen kann? Empfangen braucht der Webserver keine Mails. .. Gibt es da ein HowTo ? Das sollte überhaupt kein Problem darstellen, nutze einfach deinen zweiten Rootserver als smarthost und damit als relay für den ersten (wenn er ebenfalls einen Domainnamen hat, musst Du dem exim sagen, dass er auch noch auf weitere Domains 'hören' soll und SMTP-Auth sollte man auch nicht vergessen...) Ansonsten, wenn Du auch eingehende Mail trennen willst, schau dir die Nameservereinträge an (sofern Du die ändern kannst) und dort insbesondere MX - für eine Domain muss der MX nicht auf dem gleichen Server liegen wie der Rest. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: linklänge - 254 zeichen Limit
Richard Mittendorfer schrieb: Scherz? Ist doch IIRC gerade andersrum: Damit die Seiten in besagtem Ja und nein. Ich empfinde es als einen Scherz, dass von führenden (von M$ bezahlten?) Instituten genau das behauptet wird. Als Entwickler von Webapplikationen bringt mich das irgendwann nochmal in den Wahnsinn :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Python: Dokumentation und Dateirechte
Hallo, Karsten! 1. Wo finde ich die Python Dokumentation? Wenn ich /usr/share/doc/python* Alternativ: http://www.python.org/doc/ 2. Mein Skript möchte gern nach /var/log und ins home-Verzeichnis schreiben. Wenn ich es als root laufen lasse, geht es auch. Aber wenn ich es als normaler Benutzer starte, hat das Skript keine Erlaubnis, die Dateien zu schreiben... Wie kann ich das ändern? Sich Infos über Dateirechte durchlesen, in das eigene Home-Verzeichnis kannst Du in der Regel immer schreiben, nach /var/log jedoch nicht mehr so ohne weiteres, weil es root:root gehört und rwxr-xr-x als Rechte hat. Als Tipp sei Dir noch genannt, schaue dir die Doku zum Modul logging an: http://docs.python.org/lib/module-logging.html (dort suche man nach dem SysLogHandler und damit kannst Du dann auch in Verbindung mit Syslog nach /var/log loggen :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Sicherheitsfragen 2. Teil
Andreas Pakulat schrieb: Auch wenn ich dir prinzipiell Recht gebe, dafuer muss man kein HTTP sprechen. Sowas koennen wget oder curl auch selbst, mit entsprechenden Natürlich :-) Sollte auch mehr ein Beispiel sein, telnet verwenden ist auf jeden Fall lerneffektiver *g* Die meisten Tools bieten sowas an, für POP3 z.B. auch fetchmail -v. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Sicherheitsfragen 2. Teil
Hallo, Andrea :-) Ich hab's deinstalliert, es gibt viele, die telnet als Sicherheitsrisiko bezeichnen und deshalb empfehlen, es zu entfernen. Vorsicht, nicht telnetd und telnet verwechseln. Ein Telnet-Dienst zum Einloggen auf entfernten Maschinen ist in der Tat ein großes Sicherheitsrisiko deswegen sollte ein Server nicht installiert sein. Ein Telnet-Client ist dagegen ungefährlich und man kann einige Sachen damit austesten. Was läßt sich denn mit telnet diagnostizieren? Beispiel, läuft mein lokaler POP3-Dienst noch? Wenn man nun weiss, dass POP3 auf Port 110 lauscht, kann man sich mal anschauen was dort vor sich geht, z.B.: ---SNIP--- [EMAIL PROTECTED]:~$ telnet localhost 110 Trying 127.0.0.1... Connected to localhost.localdomain. Escape character is '^]'. +OK Hello there. USER ifjke +OK Password required. PASS youwontguess +OK logged in. STAT +OK 12 211765 QUIT +OK Bye-bye. Connection closed by foreign host. [EMAIL PROTECTED]:~$ ---SNIP--- Meiner läuft noch und es sind 12 Nachrichten in meinem Konto vorhanden. Hilfreich ist das, wenn man mal auf unteren Ebenen nach Fehlern suchen muss. Zweites gutes Beispiel, HTTP-Requests debuggen, damit man z.B. sich die HTTP-Header anschauen kann: ---SNIP--- [EMAIL PROTECTED]:~$ telnet localhost 80 Trying 127.0.0.1... Connected to localhost.localdomain. Escape character is '^]'. GET / 1.1 HTTP/1.1 200 OK Date: Fri, 31 Mar 2006 07:47:11 GMT Server: Apache/2.0.54 (Debian GNU/Linux) DAV/2 SVN/1.1.4 PHP/4.3.10-16 mod_ssl/2.0.54 OpenSSL/0.9.7e Last-Modified: Fri, 10 Feb 2006 11:57:01 GMT ETag: 101b41-5e-6d453d40 Accept-Ranges: bytes Content-Length: 94 Connection: close Content-Type: text/html; charset=UTF-8 html head titleWelcome!/title /head body h1 Nothing here. /h1 /body /html Connection closed by foreign host. [EMAIL PROTECTED]:~$ ---SNIP--- Damit Dir ein telnet gute Dienste leisten kann muss man natürlich wissen, was man sehen will und die Protokolle kennen (oder kennenlernen). Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: OT: Ethikproblem mit Phishing- Täter
Bernd Schwendele schrieb: So jetzt aber mal Spaß bei Seite. Moralisch gesehen habe ich gegen ein rm -rf * nichts. Das würde ich machen, um zu verhindern, dass jener Bengel weiteren Schaden anrichtet. Ob das legal ist... hmm. Gruß Da stimme ich nur sehr sehr bedingt zu. Denn meistens sind die Server auf denen sowas lagert nicht von denen Betreibern die den Kram anleiern. Oft sind das gehackte Systeme auf denen das dann ohne wissen des Nutzers läuft (habe da in meinem Honeypot schon den einen oder anderen gehabt und es ist lustig denen auf die Finger zu schauen). Einen solchen Server habe ich mal gefunden - damals hatte ich dann erstmal alles soweit gestoppt wie es ging (dank des schon vorhandenen Rootkits ja kein Problem), die Accounts daruf disabled und das Rootkennwort geändert - dann hilft dir das NIC oder der Provider den Eigentümer zu finden und ihn zu informieren, der ist aus allen Wolken gefallen. BTW: Skriptkiddies sind echt lustig - nutzen die Skripte um einfachste Passwort-User-Kombinationen zu finden und setzen dann selbst ein derart unsicheres, dass man mit zwei Rateversuchen drin ist LOL. Ausserdem haben schon viele Hoster eine Netzüberwachung die bei Trafficsprüngen sofort zuschlägt :-) Das hat mich mal eine Downtime meines Keyservers gekostet als der einen großen Sync gemacht hat. Also ich würde in so einem Fall das Löschen und quasi Zerstören des Server nicht in Betracht ziehen, weil das ist dann streg genommen ja auch Sachbeschädigung und man selbst ist ja auch als 'Einbrecher' auf das System gekommen - das System vorrübergehend unbenutzbar zumachen und an die passenden Stellen die Informationen weiterzugeben ist IMHO die richtige Wahl. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Raid 1 mit PDC20378 VT8237 (Asus K8V SE)
Hallo, Martin! Beide bieten ein Raid Level 1. Die beiden Controller sind im Bios so eingerichtet, dass sie jeweils zwei Platten zu einem Raid 1 verbinden. Leider erkennt verwirft die Debian Sarge (Kernel 2.6.12) die Raid-Option aus dem Bios. Habe dazu ein Posting vom 16. Jänner aus Ich vermute Du meinst den PDC20378? Das sind keine echten Hardware-RAID Controller, von daher wirst Du unter Linux wahrscheinlich zwei einzelne Devices sehen. Von VIA gab's mal IMHO auch für Linux RAID Treiber, doch läuft dort das meiste einfach per Software in den Treibern ab, von daher kann man auch gleich das Software-RAID einsetzen, welches bei Linux so oder so dabei ist. Läuft auch hinreichend stabil :-) Google hilft Dir mit entsprechenden HowTos auch weiter (RAID and LVM Howto). Für echtes Hardware-RAID kann ich 3ware empfehlen, die arbeiten und arbeiten und arbeiten... bis Du fast vergessen hast, das Du einen eingebaut hast *g* Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: md5sum liefert nicht immer den selben Wert bei der selben Datei
Hallo :-) Meine Probleme haben damit begonnen, dass Ich solche Einträge bemerkte: daemon.log:Mar 22 19:07:43 System rsyncd[28058]: WARNING: Save/ACWZDAT.MDT failed verification -- update retained (will try again). Sowas hatte ich auch mal - Ursache war eine Änderung einer der Dateien während der Übertragung (war zu diesem Zeitpunkt von einem weiteren Prozess neben rsync geöffnet). Folgendes Beispiel ein und derselben Datei: b6ed3d05d01ad9dc50aa72e7843378c3 b6ed3d05d01ad9dc50aa72e7843378c3 b6ed3d05d01ad9dc50aa72e7843378c3 b6ed3d05d01ad9dc50aa72e7843378c3 b6ed3d05d01ad9dc50aa72e7843378c3 b6ed3d05d01ad9dc50aa72e7843378c3 9717d45a6eb684e5041c3e5139a931d9 9717d45a6eb684e5041c3e5139a931d9 a13390f1fa64181e34048fc4f9b98925 a13390f1fa64181e34048fc4f9b98925 01bc98c75fab1361bec67bcfc6d95f24 Die Differenzen scheinen ja in irgendeiner Form 'polystabil' zu sein. Eventuell hat jemand eine Idee welche Probleme dieses System hat. Du sagtest, das Symptom tritt auf bei anderen Systemen auf, von daher sind Hardwareschäden und der gleichen Ursachen etwas unwahrscheinlicher. Sind denn die Dateien im Zugriff auf den betroffenen Systemen? Und wenn ja, eventuell auch schreibend? Wenn Du LVM in Verbindung mit dem XFS im Einsatz hast, könntest Du versuchen mittels xfs_freeze ein stabiles Dateisystem auf der Platte zu erzeugen und dann mittels LVM einen Snapshot zu erstellen,etwa so: xfs_freeze -f /foo lvcreate --size 500m --name snapshot /dev/vg/foo xfs_freeze -u /foo mount /dev/vg/snapshot /bar Das friert das XFS Dateisystem ein, so dass es sich auf der Platte nicht mehr ändert und es sind keine Zugriffe mehr möglich. Wenn der Zustand erreicht ist, erzeugt das lvcreate einen Snapshot des Dateisystems (bei --size muss man angeben wie viele Änderungen im Ursprungsdateisystem maximal auftreten können, bis der Snapshot ungültig wird, also etwas nachdenken an dieser Stelle oder eine Größe nehmen die dem des ursprünglichen Dateisystems entspricht). Dann wird das Dateisystem wieder aufgetaut und der Normalbetrieb geht weiter und auf dem gemounteten Snapshot fährt man das rsync, ein Backup oder was einem gerade einfällt :-) Achja, Löschen des Snapshots wäre natürlich auch ratsam :-) Sonst könntest Du versuchen herauszufinden, was sich genau an der Datei ändert oder ob sie während des rsync geöffnet ist (lsof dürfte da helfen). Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: md5sum liefert nicht immer den selben Wert bei der selben Datei
(als PM bekommen, daher mal als F'up) Hallo Jan, Das spinnende System ist ein Backup Server (Das Zielsystem von rsync), auf den täglich die Daten repliziert werden. Hier hat im Normalfall nur der rsync Zugriff auf die Dateien. Ich kann daher ausschließen, dass diese Datei in Benutzung war (ist). Die Zieldatei war auch wirklich um ein paar Bytes unterschiedlich zur Originaldatei, daher war die Meldung von rsync korrekt. LVM Habe Ich leidern nicht auf diesem System. Folgende Vorgehensweise wird für die Erzeugung der Dateien am Zielsystem gewählt: Das Quellsystem erzeugt mittels dirvish eine Sicherung auf eigens dafür vorgesehene Laufwerke, von denen die Synchronisation zum Backupserver gestartet wird. Diese Logik ist notwendig, damit Ich auf mehrere Sicherungsgenerationen zurückgreifen kann, Auch die Sicherungen verwenden kann, wenn das Datenlaufwerk seinen Geist aufgibt, und aber im Falle eines Physischen Schadens des Hauptservers noch den aktuellsten Stand auf einem anderen Firmenstandort zu haben. (Alles bereits passiert). Ich kann auch nicht sagen, dass das Problem mit rsync/md5sum bei jeder Datei auftritt, aber bei 300.000 Dateien sind ca. 10 Dateien betroffen, und wenn eine Datei betroffen ist, dann bleibt der Fehler. Zur weiteren Diagnose habe ich jetzt xfs_check und xfs_repair über die Dateisystem laufen lassen, diese haben zwar keinen Fehler gemeldet, aber das Problem mit der MD5 Summe war nicht mehr reproduzierbar. LG Helmut Jan Kesten schrieb: signature.asc Description: OpenPGP digital signature
Re: md5sum liefert nicht immer den selben Wert bei der selben Datei
Hallo! von rsync), auf den täglich die Daten repliziert werden. Hier hat im Normalfall nur der rsync Zugriff auf die Dateien. Dann fällt der Punkt sicherlich weg :-) LVM Habe Ich leidern nicht auf diesem System. Dann an dieser Stelle mal der gute Tipp sich damit einmal zu beschäftigen, kann nie schaden und ich nutze es mittlerweile so gut wie grundsätzlich und hat mir schon einige male das Leben leichter gemacht. Synchronisation zum Backupserver gestartet wird. Diese Logik ist notwendig, damit Ich auf mehrere Sicherungsgenerationen zurückgreifen kann, Auch die Sicherungen verwenden kann, wenn das Datenlaufwerk seinen Geist aufgibt, und aber im Falle eines Physischen Schadens des Hauptservers noch den aktuellsten Stand auf einem anderen Firmenstandort zu haben. (Alles bereits passiert). Brav - immerhin gut nachgedacht, es ist oft erschreckend wie das Thema Backup in manchen Fällen schlecht oder besser gleich gar nicht überdacht wird. Dirvish hab ich selbst noch nie eingesetzt, werd ich mir mal ansehen - nutze meist Bacula (nur das ist schon eine erwachsene Lösung mit vielen Features). Zur weiteren Diagnose habe ich jetzt xfs_check und xfs_repair über die Dateisystem laufen lassen, diese haben zwar keinen Fehler gemeldet, aber das Problem mit der MD5 Summe war nicht mehr reproduzierbar. Hmm, sehr seltsames Verhalten - besonders wenn beide keine Meldungen ergeben. Dass eine Datei ihren Inhalt ändert, das ist mir bei einem XFS bisher nicht vorgekommen, wenn das FS kaputt war, dann kamen 0-Byte Dateien dabei heraus. Würde ich auf jeden Fall mal beobachten und vielleicht auch mal die Hardware nach Schäden absuchen (für solche Fehler fallen mir spontan lose Stecker und Knicke in Kabeln ein). Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Böses agressives Linux, gutes san ftmütiges Windows
Sam Bruhin schrieb: Gibt es da einen speziellen Artikel den du da ansprichst? Oder wie haben die Leute den USB-Stick irreparabel zerstört? Ein spezieller Artikel fällt mir dazu zwar nicht ein, aber einen Flash-Speicher zu zerstören ist im Allgemeinen sehr einfach und schnell möglich, denn Flash-Speicher haben von Haus aus eine bestimme Anzahl von Schreibzyklen die eine Speicherzelle mitmacht und die ist nicht besonders hoch (Standard 10.000, bessere etwa 100.000 - Stand meines Wissens, vielleicht auch schon mehr). Mounte jetzt unter Linux den Stick mit der Option sync und schon fängt das Dilemma an - es wird erzwungen, dass jede Schreiboperation auch auf dem Chip landet, das sind dann schonmal 2 Stück jeweils (einmal die Daten, einmal FAT). Und da die FAT immer am gleichen Fleck bleibt altert der Chip dort schneller, bis sich ein Tranistor festgefressen hat. Adios! Umgehen kann man das, wenn man Zugriffe cachen lässt - weswegen man ja auch unter Winblöd den Stick 'auswerfen' lassen muss und nicht einfach abziehen darf. Das sind auch die Fallen, wenn man einen Rechner aus einer CF Karte oder von FlashDisks bootet. Naja, Festplatten weiss ich nicht, aber Flash-Speicher wie USB-Sticks haben sich viele Leute schon mit Linux zerstoert. Da ist ironischerweise uebrigens Microsoft nicht ganz unschuldig. Festplatten altern genauso, wenn auch bei weitem nicht so schnell. Wird eher gemütlich nacheinander weg gelesen und geschrieben (z.B. FAT als FS, Viedos etc.), dann ist die Lebensdauer wesentlich höher als wenn man ein FS mit Baumstruktur (bei mir XFS) und einer Datenbank betreibt. Die Platte muss wesentlich mehr Kopfbewegungen ausführen und steht unter höherem Stress als vorher. Es wird also Gründe haben, warum es auch heute noch SCSI Platten gibt auch wenn sie nicht mehr soo viel schneller sind und zudem viel teurer. Will man brauchbare SATA-Platten z.B. gibt's die z.B. WDs Raptor, die aber auch gleich wesentlich teurer sind - da machts halt die Mechanik 'drinnen'. Aber die Behauptung des Supports finde ich dennoch eine Unverschämtheit und schlimm ist, dass da keiner was dagegen setzt. Wenn dem so wäre müsste das in den Datenblättern der Platte stehen, nur das dort Lebensdauern in Abhängigkeit des verwendeten Dateisystems angegeben werden ist mir neu. Meine Behauptung: Stresse ich meine IDE/FAT Platte genauso wie ich es mit meiner IDE/XFS Platte mache, dann werden sie fast genauso schnell altern und ausfallen. Was kann ich als Anwender schon dafür, dass ich mit meinem Rechner arbeite - während die Windows-Welt langsam vor sich hinschläft? IBM hatte damals ja bestimmt auch nicht ohne Grund seine IDE Platten für 8/24 Betrieb spezifiziert und damit explizit nicht für den Dauerbetrieb vorgesehen :-) BTW: Ich habe teilweise 10 Jahre alte IDE Plattem die heute noch ihre Dienste tun - trotz bösem, bösem ext2 *fg* Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: unlöschbare Dateien
Gerhard Gaußling schrieb: Ich hatte auch schon mehrmals mit dem alten Reiswolf zu kämpfen, der neue soll ja etwas besser sein... , (oder doch nicht?). Traue mich bisher nicht, auch wenn Reiser4 ein kompletter Rewrite sein soll. Interessant wäre ja schon, dass es bei vielen vielen kleinen Dateien sich wesentlich 'schöner' verhält als die anderen Kandidaten. Nur nach mehrfachen schweren (und irreparablen) Schäden in den alten Versionen lass ich da lieber die Finger von. Nicht dass es unter XFS keine Probleme gegeben hätte, aber wenn da was kaputt war, dann hatte ich eine handvoll 0-Byte Dateien und das wars. ReiserFS hatte damals den gesamten FS-Baum in den Tod gerissen. Dann doch lieber etwas schlechtere Performance und weniger 'Angst' (zur Zeit teste ich auch Suns ZFS und bisher macht es eine gute Figur). Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: Backup MySQL
Robert Einsle schrieb: ich suche ein Tool, um die MySQL möglichst per Shnapshoot zu sichern. Derzeit mach ich die Sicherung über mysqldump, was aber zu viel Zeit in anspruch nimmt, weil mir die Datenbank in dieser Zeit die Tabellen lookt. Am liebsten währe mir ein Tool, bei dem ich auf Komandozeile einen Shansohht erzeugen kann, den ich dann gemütlich wegsichern kann. Wenn ich mich recht erinnere sollte das nicht so schwierig sein, zumindest wenn du mit einem kurzfristigem Table-Lock leben kannst: a) man verwende ein Dateisystem, welches Snapshots unterstützt (ich persönlich habe hier eine Vorliebe für XFS) b) führe für alle Tabellen ein LOCK TABLE in MySQL aus c) führe ein FLUSH TABLES aus d) erstelle per XFS-Tools ein Snapshot deiner Partition auf der die Datenbank-Dateien liegen e) führe UNLOCK TABLE aus f) mounte den Snapshot an eine geeignete Stelle g) kopiere alles was Du sichern willst h) verwerfe den Snapshot Ansonsten fällt mir noch ein, dass es da mal was wie mysqlhotcopy gab? Vielleicht danach mal googlen, das könnte Dir auch weiterhelfen. HTH, Jan signature.asc Description: OpenPGP digital signature
Re: [OT] Bibliothek für IMAP (client)
Michelle Konzack schrieb: Zur Zeit starte ich ein neues (upgedated) Project und möchte gerne wisssen, ob jemand von der existenz einer IMAP client Bibliothek für C programmierung weis. Ist doch leicht off-topic nicht? The UW IMAP tookit includes the following: * c‑client library: an API (application programming interface) used to build email clients and servers, including support for IMAP,POP3, SMTP and NNTP protocols and for local mailbox file access on Unix and Windows Versuche Dein Glück mit einem: apt-get install uw-mailutils BTW: Python ist auch geil - 'comes with batteries included' (so wie Java) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: RSS-Feed Server?
Michelle Konzack schrieb: Ich benötige lediglich einen RSS-Feed-Server den ich mit $TITEL, $LINK und $SHORTDESC per Script füttere und das wars... Gibt's das überhaupt als Server? RSS sind nur einfache Dateien die Du mit einem Skript selbst erstellen kannst (und willst). Ein wenig XML und das war's auch schon, hier nachzulesen: http://www.zdnet.de/builder/program/0,39023551,39126895-4,00.htm Oder mal nach dem Spec googlen :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: unlöschbare Dateien
Michelle Konzack schrieb: Bevor ich ein fsck laufen lasse, würde ich gerne wissen, wie sowas kommen kann, denn sowas ist mir schon öfters passiert. Glaskugel an Spannungsschwankung in der Stromversorgung, Controller-Reset, kaputtes/lockeres Kabel Schlechtes(TM) Filesystem, Erschütterung. /Glaskugel aus Welches Dateisystem? Überleben diese Dateien einen Neustart? Hatte so ein Verhalten einige Male bisher, war ein altes ReisswolfFS, äh, RasierFS - verflixt, ich komm nicht drauf :-) Die Platte ist eine nagelneue WDC WD360GD (Raptor). Was nichts zu sagen hat... Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: SQL-Client Problem
Sandro Frenzel schrieb: (.:5205): GdkPixbuf-CRITICAL **: gdk_pixbuf_new: assertion `width 0' failed JRE ist installiert. Was für eine JRE hast Du denn installiert - ich würde mal auf eine zu alte oder unbrauchbare JRE tippen, denn das sieht eher wie in Bug in der Richtung aus. Weiß trotzdem jemand Rat oder hat ne andere Software-Lösung für ein RDBMS? Was meinst Du mit andere Software-Lösung für ein RDBMS? Also RDBMS sind in der Regel Software - MySQL, PostgreSQL, Oracle und Konsorten. Für alle gibt es auch JDBC-Treiber die einen problemlosen Zugriff von Java auf die Datenbank erlauben... Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: [OT] Speicherplatz-Erweiterung
Florian schrieb: Für uns ist primär Speichermenge und Redudanz (Datensicherheit) wichtig. Speichermenge soll sich ersteinmal verdoppeln, langfristig werden 5-10 TB benötigt. Wie groß ist denn das Buget? Das sind schon Größenordnungen, bei denen man mit 'billig' langfristig nicht wirklich weiterkommt fürchte ich. Wenn es SATA/IDE wegen des Preises sein muss, dann würde ich Dir 3ware Controller ans Herz legen, die sind da IMHO mit am besten. Relativ neu sind welche die bis 16 Ports können und es gibt auch schicke 4HE Rackgehäuse die 16 Laufwerke aufnehmen können. Ausserdem habe ich mit 3ware unter Linux nur die besten Erfahrungen gemacht, ähnlich gute Unterstützung hat man sonst nur bei den SCSI-RAID-Controllern. Kostenpunkt: ca. 1000 Euro Wenn man dann mal von den zur Zeit größen SATA Laufwerken ausgeht (500G) dann könnte man schonmal in die Größenordnung die Ihr braucht kommen. Kostenpunkt: ca. 250-350 Euro pro Laufwerk, also irgendwas um 5000 rum Chenbro hat auch das passende Gehäuse, ein 4 HE mit 16 Laufwerkseinschüben kommt so um die 400 Euro. Wollt ihr gleich mehr, dann gibt's auch 5HE mit mit 24 Laufwerkseinschüben. Zzgl. der Server-Hardware an sich :-) Habt ihr Vorschläge oder Erfahrungen an möglichen lösungen? Wenn Selbstbau, dann in etwa so. Als Erfahrungsinfo noch dazu sollte man sich noch über einige Dinge klarwerden, bevor es los gehen kann: - Wieviel Strom brauche ich für das Gesammtsystem? Man achte hier besonders darauf, dass Platten beim Anlaufen wesentlich(!) mehr Strom ziehen als im laufenden Betrieb. Ausserdem ist die Qualität der Stromversorgung ziemlich wichtig für die Stabilität des Gesamtsystems. - Was passiert mit der Abwärme des Systems? Man kommt ziemlich schnell auch mal auf 2000W pro Raum und das ist nicht wirklich wenig. Man stelle sich einen handelsüblichen Heizlüfter in einem Raum vor, der sich nie abschaltet... - Wieviele Reserveplatten halte ich vor? Denn je mehr Platten ein Verbung hat, desto höher wird die Ausfallwahrscheinlichkeit. Fällt in einem RAID5 eine Platte aus, so lässt meist der nächste Ausfall nicht lange auf sich warten. Platten sterben früher je wärmer sie werden. - Wieviel Platz brauche ich wirklich? Brauche ich ihn an einem Stück? Oder kann ich das vielleicht besser verteilen? (Ausfallsicherheit) - Wie realisiere ich das passende Backup? Das so als ein paar Denkanregungen :-) Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: [OT] programierung: passwörter und cop y-buffer
Dirk Salva schrieb: Ebend. Genauso schlimm sind diese ganzen expire-Zeiträume. Da niemand große Lust hat, sich ständig neue Passwörter auszudenken und zu merken, wird dann ein Passwort genommen, welchem eine Ziffer voran oder hintan gestellt wird. Ausreichende Sicherheit bieten IMHO Sicherheit ist eben nichts was man erzwingen kann - klar PAM und cracklib können schon das Aussuchen der Passwörter beeinflussen (dass sie entsprechend ablaufen, man eine Mindestzahl von Sonderzeichen haben muss, dass sie nicht in Wörterbüchern stehen, nicht zu ähnlich mit den letzten gewählten Passwörtern sind, dass ich schon verwendete Passwörter nicht nochmal nutzen kann, etc.). Nur Public-Keys bringen da auch kaum Abhilfe (ausser dass man die Skriptkiddies los ist, die wörterbuchweise alles mögliche durchprobieren - und damit ja leider nicht selten genug Erfolg haben), denn den kann man ja entweder gar nicht per Passwort sichern oder mit einem schlechten, das Ändern liegt beim Anwender ohne meine Kontrolle, gerne liegen sie auch mit zuvielen Rechten verstehen auf dem Rechner (rwxr--r--) oder sind irgendwo hinkopiert, damit man sie jederzeit griffbereit hat. Moral der Geschichte: Sicherheit fängt in den Köpfen der Leute an und Schwachstelle ist nun mal der Mensch an dieser Stelle. Zwinge ich meine User alle 30 Tage ein 20 Zeichen Kennwort neu zuvergeben, dann werden sich viele es einfach aufschreiben und irgendwo ablegen. Lasse ich alles zu ändert keiner freiwillig über Jahre hinweg. Man muss also ein gutes Mittelmaß finden mit dem beide Seiten leben können und vorallem wollen(!). Gutes Mittel ist eine beispielhafte Vorführung eines POP3 Logins oder Webseitenabrufs mit tcpdump, um klar zumachen warum es ausserdem auch sinnvoll sein kann unterschiedliche Kennwörter für unterschiedliche Systeme zu verwenden. Nett sind dann auch Dienste Ich habe mein Kennwort vergessen. Klicken Sie hier und dann bekomme ich eine Mail wo es im Klartext drinsteht - sehr schön. BTW: Das sind endlose Themen :-) Helfen tut nur eins: (NACH)DENKEN! Zu Michelles Problem: Die ganze Thematik lässt sich halbwegsumgehen, wenn man Anwendungen mit z.B. SmartCards sichert. Habe mal für so eine ähnliche Anwendung welche vom Typ SLE 4428 verwendet, bieten 1KByte Platz für einen Public-Key/Zertifikat und haben eine PIN. Damit kann man Zugriffskontrollen sehr schön abwickeln, auch wenn natürlich immer noch das Risiko besteht, dass jemand die Karte mit draufgeschriebener PIN liegen lässt. Aufwendig ist nur das Managment der Zertifikate und/oder Public-Keys serverseitig. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: [OT] programierung: passwörter und cop y-buffer
Michelle Konzack schrieb: Die Frage ist, wie finde ich heraus, was im Copy-Buffer steht? Da es mehr als nur einen Copy-Buffer gibt (gpm, X etc.) vermutlich entweder gar nicht oder nur mit sehr viel Aufwand um alle erdenklichen Kombinationen abzufangen. Aber: Schule lieber die Anwender - verbietest Du ihnen CopyPaste, dann halte nach so komischen gelben Zettelchen ausschau, die an Monitoren, unter Tastaturen und in Schreibtischen pappen. Du kannst Dir immer ein noch so sicheres System ausdenken, Schwachstelle ist und bleibt der Mensch. Da kommt auch die Passwort-Frage mal wieder ins Spiel - zwinge die User, nicht merkbare Passwörter mit 30 Stellen und mindestens 10 Sonderzeichen zu benutzen, so sind die Kennwörter vielleicht gut gewählt nur werden sie garantiert aufgeschrieben oder gespeichert. Machst Du das nicht, dann werden zu leichte Kennwörter genommen. Oder was wenn jemand per SSH zugreift mit Console oder X-Forwarding? Ich glaube kaum, dass man dann überhaupt feststellen kann, ob eine Eingabe per Tastaur oder CopyPaste erfolgt ist. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: [OT] programierung: passwörter und co py-buffer
Hallo, Gerhard! Vielleicht sollte man darauf hinweisen, daß dies möglich ist. Stimmt - hatte ich glatt vergessen und hole es hier mit nach: [EMAIL PROTECTED]:~$ su -c apt-get install apg [EMAIL PROTECTED]:~$ apg Please enter some random data (only first 8 are significant) (eg. your old password): 1wricDeish (ONE-wric-Deish) reejfawJoak8 (reej-faw-Joak-EIGHT) ujcojEdsOt7 (uj-coj-Eds-Ot-SEVEN) Vojheit0 (Voj-heit-ZERO) rogEygwurd8 (rog-Eyg-wurd-EIGHT) 5omaudAc8 (FIVE-om-aud-Ac-EIGHT) Das verwende ich in der Regel um brauchbare Passwörter zu generieren, wo es nötig ist. apg lässt sich auch sehr umfangreich konfigurieren, was verwendete Zeichen, Länge etc. betrifft und sich ebenfalls sehr gut in Skripten einsetzen. Daneben kommt mir noch pwgen in den Sinn. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: apache als 'proxy'?
Christoph Kaminski schrieb: ist es moeglich einen apache als einer art proxy zu benutzen? sprich, ich gebe sowas wie: http:\\apache_host.mydomain\www.ebay.de an und der wuerde mir die seiten von ebay zeigen... Machbar? Ja, gibt ein eigenes Modul dafür (von mir für meinen Keyserver im Einsatz, da ich diesen nicht direkt auf Port 80 binden kann, sollte aber mit egal welchen Seiten funktionieren): http://httpd.apache.org/docs/2.0/de/mod/mod_proxy.html Oder mod_rewrite - mod_proxy kann jedoch auf ein Rewrite der zurückgelieferten seiten denn, wenn Du nur folgendes machst Client | ^ V | Apache | ^ V | Ebay-Server Dann werden die Seiten direkt so ausgeliefert, wie sie von eBay kommen. Und damit führt ein Klick auf einen Link zu einer direkten Anfrage bei eBay und nicht über den Apache-Proxy (und bleibt dann u.U. in der Firewall hängen). mod_proxy kann dann auch ein entsprechendes Rewrite, so dass alle Links in der zurückgelieferten Seite wieder auf den Apache zeigen. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: VPN zu Hansenet unter sarge - was brauche ich?
Hallo, Rüdiger Muss ich eben eine blöde Win-putty-Lösung benutzen, schon aus Zeitnot. Leichte Verwirrung :-) Ich vermute mal Hansenet ist nur ein einfacher Provider und hat (ausser dass er Carrier ist) erstmal nichts mit dem VPN zu tun. Das Firmennetz wird einen VPN-Zugangspunkt besitzen, für den Du die Zugangsdaten hast? Wenn ja, was wird dort eingesetzt und danach richtet sich in erster Linie Deine Paketwahl. Bei VPN gibt es immer soo viele Lösungen, viele davon auf offenen Standards, manche kochen sich ein eigenen Süppchen. Was mir selbst nie richtig gelungen ist zum Laufen zu bekommen ist IPSec mit Windows und Linux im Verbund. Wenn Du genügend Kontrolle hast beide Seiten zu beeinflussen: OpenVPN. Setzt zwar nicht auf IPSec auf und ist damit nicht kompatibel, aber: es ist einfach zu installieren, funktioniert mit NAT, kann so gut wie alle Konstellationen abbilden, Routing funktioniert, unterstützt pre-shared Keys oder Zertifikate. Und(!) es gibt Windows-Clients die einfach so funktionieren (ala Cisco VPN). Ansonsten fällt mir nur das 'neue' OpenSSH ein, welches ja seit kurzem ebenfalls VPN Funktionalität mitbringt. Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: samba Problem
Peter Kuechler schrieb: Ja. Bei 2000er Maschinen tritt es auch schon auf ;-) Neugier... also nochmal eben getestet. Ja, wie schon gesagt, ich habe deswegen ja schon ewig gegurgelt und bin auch auf die Leidensgenossen gestossen, aber die haben das Problem entweder nicht oder durch wechsel der Netzwerkkarte behoben. Da fallen wohl leider zwei Ursachen für ein Problem zusammen - das Problem ist der Verbindungsabriss zwischen den beiden Punkten. Im Fall a) durch Windows-Verhalten sofort nach erkennen einer Verbindung auf einem der beiden Ports den anderen 'hart' per TCP RST zurückzusetzen. Im Fall b) kann das auch durch schlechte/kaputte/gealterte Netzwerkkarten passieren, wenn ganze Frames verloren gehen oder kaputt sind. Oder die Karte produziert soviel Last, dass der Kernel nicht mehr hinterher kommt (da sind mir Realtek in böser Erinnerung). Gemacht werden muß es, denn irgend wann muß man updaten, das ist klar. Wenn ich das alles halbwegs richtig verstanden hatte damals, kann man wohl wenn nur 2000 und XP im Einsatz sind auf den Port 139 verzichten, solange die Namensauflösung der Clients per DNS möglich ist. Das soll (müsste ich jetzt aber auch nachlesen) wohl die Neuerung von CIFS gegenüber SMB sein (welches NetBIOS over TCP/IP dafür nutzt). Viel Erfolg beim Probieren und Testen, Jan signature.asc Description: OpenPGP digital signature
Re: samba Problem
Hallo, Peter! [2006/01/09 06:54:48, 0] lib/util_sock.c:get_peer_addr(1222) getpeername failed. Error was Transport endpoint is not connected [2006/01/09 06:54:48, 0] lib/util_sock.c:write_data(554) write_data: write failure in writing to client 172.22.201.6. Error Connection reset by peer Na, XP-Maschinen im Netz? Das Problem kenne ich auch und es flutet meine Logfiles. Mein letzter Stand der Dinge hierzu ist, dass Windows (mindestens XP, vielleicht auch W2K) eine Überholung von SMB zu CIFS erhalten hat (was manches einfacher machen kann, so wegen Namensauflösung etc. aber das ist ein anderes Thema). Was passiert ist folgendes: Während SMB Port 139 verwendet, nutzt CIFS 445. Wird nun zu einem Share verbunden, wird (weil ja nicht alle CIFS haben müssen) auf beiden Ports versucht eine Verbindung aufzubauen. Nun bekommt er eine Antwort von Samba auf einem der beiden Ports oder auf beiden, sucht sich eine aus (naja, nimmt wohl am ehesten 445 wenn möglich) und droppt die andere Verbindung. Und genau das ist Transport endpoint is not connected. Soweit das, was mir mal zugetragen wurde. Ob's stimmt oder nicht weiss nicht nicht zu 100% aber es gibt zig Leute mit diesem Problem. Eventuell hilft ein smb ports = 139 in der smb.conf, so dass an Port 445 nicht gelauscht wird? Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: HTML, firefox, utf8, und Umlaute
Andreas Pakulat schrieb: Ach und kannst du das mal den LaTeX Leuten beibringen? Da muss man naemlich auch a nutzen, statt ä. Kann ich auch nicht - weil sie können es ja schon: \usepackage[latin1]{inputenc} :-) Funktioniert wunderbar... Cheers, Jan signature.asc Description: OpenPGP digital signature
Re: [OT] FLASH-Disks
Michelle Konzack schrieb: Anm:Der größte klopfer der drauf muß ist ne Read-Only PostgreSQL. von rund 40 GByte. Tipp, das solltest Du auch wirklich read-only mounten - und wenn nicht auch nicht unbedingt ein RAID-5 verwenden, denn die Lebensdauer von CF Karten ist doch arg begrenzt und die 10 Zyklen sind bei RAID5, einem schreibenden /var, Journaling Filesystem usw. nicht wirklich viel. Die sind dann teilweise schneller kaputt als man denken kann... Ist mir auf einem Mailserver mal passiert, sowas wie Maildirs sind tödlich darauf. Dann doch lieber über SSDs nachdenken :-) Oder ob es wirklich notwendig ist Flash-Speicher zu verwenden. Cheers, Jan signature.asc Description: OpenPGP digital signature