* 8587835 wrote/schrieb:

> also rekursiv. Was ich immer noch nicht ganz verstehe sind 2 Dinge:
> - die Erl�uterung dar�ber, bis zu welchem Level man in diesem Falle
> rekursiv fahren mu�,
>    ist m.E. absolut d�rftig. - Macht man einen Fehler lutscht man die
> ganze home page des
>    Autors runter, was man aber auf keinen Fall will !

Das Problem ist, das Ding folgt jedem Link auf der Seite, auch wenn er
logisch "nach oben" f�hrt. Das Abziehen von FTP-Directories kann da auch
schonmal ausufern.

Nehmen wir mal an, Du hast auf einer Seite 10 Links, die f�hren zu 10
Seiten, auf denen wiederum 10 Links sind, die ihrerseits wiederum 10 Links
draufhaben, die zu Seiten f�hren, wo 10 Links sind. Dann gibt wget -r -l 5
die Anzahl von 10^5, also 100000 herunterzuladenden Seiten.

Oder hab ich mich jetzt verrechnet?

> Was passiert jetzt wenn ich diese Artikel wie ich ihn sehe kopieren
> will, etwa auf eine Diskette ? Ein Test: aus dem Ordner "wget" heraus
> kopiere ich den Ordner "www.theregister.co.uk" auf den Desktop. Klicke
> ich die Seite jetzt an sehe ich keine Bilder
> mehr. Das hei�t doch der Job hat es nicht gebracht ?
> Wenn ich bei Buchhandlung M�ller ein Buch kaufe, es abends um 21 Uhr
> aufschlage - und alle Seiten sind leer weil am Originalort, bei M�ller,
> das Licht ausgeschaltet ist: was w�rde ich davon halten m�ssen ?
> Nein, das ist dann doch nicht die L�sung der Aufgabe, die ich mir
> gestellt habe.

Ich sage Dir mal, wie ich das mache. Das wird wieder eine L�sung sein, die 
Dir nicht gef�llt, macht aber nix.

- Seite im Browser �ffnen
- Drucken
- Drucken in Datei "dateiname.ps"
- ps2pdf dateiname.ps
- Ergibt dateiname.pdf

So sah z.B. die PUG-Homepage im Dezember 2000 aus:
http://www.pug.org/~martin/netscape.pdf

Ciao,

-martin

-- 
      Quitters never win, winners never quit.
                But those who never win and never quit are idiots.
----------------------------------------------------------------------------
PUG - Penguin User Group Wiesbaden - http://www.pug.org

Antwort per Email an