Hallo Jens, On Tue, 25 Mar 2003 16:37:10 +0100 Jens Benecke <[EMAIL PROTECTED]> wrote:
[...]
> Ich suche eine M�glichkeit, wie ich die Web-Logs nach "besonderen
> Ereignissen" absuchen kann. Ich habe das Gef�hl, unsere (stark
> datenbanklastigen) CMS- und Portal-Seiten werden von irgendeinem Spammer
> durchforstet oder �hnliches. Also, z.B. ein Statistiktool, was mir
> beantworten kann, welche IP (innerhalb der letzten X Stunden) die
> meisten HTTP-Requests gemacht hat, oder andersrum, welche URL am
> h�ufigsten abgerufen wurde.
>
> webalizer und analog sind "zu allgemein", ie. fassen zu stark zusammen.
> Damit kann ich zwar erkennen, da� die meisten Lastspitzen im Bereich
> 20-23 Uhr liegen, aber nicht WOHER sie kommen.
>
>
> Habt ihr eine Idee?
Zur Not: grep, awk, perl, python, ...
z.B. (Ungetestet)
# Suche nach Ursprungs-Adresse
grep "\[25/Mar/2003:2[0-2]:" access.log | awk '{print $1}' | \
sort | uniq -c | sort -n | tail -n 30
# Suche nach URL
grep "\[25/Mar/2003:2[0-2]:" access.log | awk '{print $7}' | \
sort | uniq -c | sort -n | tail -n 30
Gru�
J�rg
--
Dipl.-Ing. J�rg Sch�tter http://www.lug-untermain.de/
http://www.schuetter.org/joerg/
[EMAIL PROTECTED] http://mypenguin.bei.t-online.de/
pgp00000.pgp
Description: PGP signature

