Hi, I would like to download this page:
https://noppa.aalto.fi/noppa/kurssi/ms-a0210/viikkoharjoitukset
as well as its subpages, especially the .pdf documents:
https://noppa.aalto.fi/noppa/kurssi/ms-a0210/viikkoharjoitukset/MS-A0210_thursday_30_oct.pdf
https://noppa.aalto.fi/noppa/kurssi/ms-a0210/viikkoharjoitukset/MS-A0210_hints_for_w45.pdf
etc.
When I give this command:
$ wget --page-requisites --convert-links --recursive --level=0
--no-check-certificate --no-proxy -E -H -Dnoppa.aalto.fi
<http://dnoppa.aalto.fi/> -k -d
https://noppa.aalto.fi/noppa/kurssi/ms-a0210/viikkoharjoitukset
I get only:
$ ls -R
.:
noppa.aalto.fi
./noppa.aalto.fi:
noppa robots.txt
./noppa.aalto.fi/noppa:
kurssi
./noppa.aalto.fi/noppa/kurssi:
ms-a0210
./noppa.aalto.fi/noppa/kurssi/ms-a0210:
viikkoharjoitukset.html
I have tried several wget options, with no luck.
What could be the problem?
I am attaching the output from the wget command above (wget_output.txt).
-- dave
wget_output.txt.gz
Description: GNU Zip compressed data
