Hallo Michelle, Michelle Konzack <[EMAIL PROTECTED]> wrote: > Mit einfachem spidern ist da nicht geholfen. > > Ich hatte versucht das ganze mit > > wget --force-html --base "$BASEURL" --input-file="$BASEURL" \ > --force-directories --referer="$BASEURL" \ > --user-agent="$UA" --page-requisites --prefix="$TMPDIR" > > herunterzuladen, aber das hat zuviel traffic verursacht, da jedesmal > die "Seiten Requisiten" erneut heruntergeladen werden.
Da könnte vllt. die Option "-nc" hilfreich sein. Frank -- # to resolve all your problems, try this HOWTO='$i=pack(c5,(41*2),sqrt(7056),(unpack(c,H)-2),oct(115),10);' perl -e 'print '$HOWTO

