Hallo Michelle,

Michelle Konzack <[EMAIL PROTECTED]> wrote:
> Mit einfachem spidern ist da nicht geholfen.
> 
> Ich hatte versucht das ganze mit
> 
>     wget --force-html --base "$BASEURL" --input-file="$BASEURL" \
>          --force-directories --referer="$BASEURL" \
>          --user-agent="$UA" --page-requisites --prefix="$TMPDIR"
> 
> herunterzuladen, aber das hat zuviel traffic verursacht, da jedesmal
> die "Seiten Requisiten" erneut heruntergeladen werden.

Da könnte vllt. die Option "-nc" hilfreich sein.

Frank
-- 
# to resolve all your problems, try this
HOWTO='$i=pack(c5,(41*2),sqrt(7056),(unpack(c,H)-2),oct(115),10);'
perl -e 'print '$HOWTO

Antwort per Email an