Hallo Jens,

On Tue, 25 Mar 2003 16:37:10 +0100
Jens Benecke <[EMAIL PROTECTED]> wrote:

[...]
> Ich suche eine M�glichkeit, wie ich die Web-Logs nach "besonderen
> Ereignissen" absuchen kann. Ich habe das Gef�hl, unsere (stark
> datenbanklastigen) CMS- und Portal-Seiten werden von irgendeinem Spammer
> durchforstet oder �hnliches. Also, z.B. ein Statistiktool, was mir
> beantworten kann, welche IP (innerhalb der letzten X Stunden) die
> meisten HTTP-Requests gemacht hat, oder andersrum, welche URL am
> h�ufigsten abgerufen wurde.
> 
> webalizer und analog sind "zu allgemein", ie. fassen zu stark zusammen.
> Damit kann ich zwar erkennen, da� die meisten Lastspitzen im Bereich
> 20-23 Uhr liegen, aber nicht WOHER sie kommen.
> 
> 
> Habt ihr eine Idee?

Zur Not: grep, awk, perl, python, ...
z.B. (Ungetestet)
# Suche nach Ursprungs-Adresse
grep "\[25/Mar/2003:2[0-2]:" access.log | awk '{print $1}' | \
        sort | uniq -c | sort -n | tail -n 30
# Suche nach URL
grep "\[25/Mar/2003:2[0-2]:" access.log | awk '{print $7}' | \
        sort | uniq -c | sort -n | tail -n 30

Gru�
  J�rg

-- 
Dipl.-Ing. J�rg Sch�tter           http://www.lug-untermain.de/
                                   http://www.schuetter.org/joerg/
[EMAIL PROTECTED]                http://mypenguin.bei.t-online.de/

Attachment: pgp00000.pgp
Description: PGP signature

Antwort per Email an