Dave Ohlsson wrote:
I would like to download this page:
https://noppa.aalto.fi/noppa/kurssi/ms-a0210/viikkoharjoitukset
as well as its subpages, especially the .pdf documents:
...
When I give this command:
$ wget --page-requisites --convert-links --recursive --level=0
--no-check-certificate --no-proxy -E -H -Dnoppa.aalto.fi
<http://dnoppa.aalto.fi/> -k -d
https://noppa.aalto.fi/noppa/kurssi/ms-a0210/viikkoharjoitukset
I get only:
$ ls -R
.:
noppa.aalto.fi
./noppa.aalto.fi:
noppa robots.txt
./noppa.aalto.fi/noppa:
kurssi
./noppa.aalto.fi/noppa/kurssi:
ms-a0210
./noppa.aalto.fi/noppa/kurssi/ms-a0210:
viikkoharjoitukset.html
I have tried several wget options, with no luck.
What could be the problem?
Terve, terve.
This works fine here:
wget -Apdf -r -np
https://noppa.aalto.fi/noppa/kurssi/ms-a0210/viikkoharjoitukset
Although all the .PDFs end up as:
noppa.aalto.fi\noppa\kurssi\ms-a0210\viikkoharjoitukset\MS-A0210_hints_for_w45.pdf
noppa.aalto.fi\noppa\kurssi\ms-a0210\viikkoharjoitukset\MS-A0210_hints_for_w46.pdf
noppa.aalto.fi\noppa\kurssi\ms-a0210\viikkoharjoitukset\MS-A0210_hints_for_w47.pdf
...
If you want them in current directory, you can add
'--no-directories' to the cmd-line.
BTW, I'm on Win-8. But this should work just the same on Unix.
Oh, no wait, I see from your log "User-Agent: Wget/1.13.4 (cygwin)"
That's not a real Unix :-)
--
--gv