* 8587835 wrote/schrieb: > also rekursiv. Was ich immer noch nicht ganz verstehe sind 2 Dinge: > - die Erl�uterung dar�ber, bis zu welchem Level man in diesem Falle > rekursiv fahren mu�, > ist m.E. absolut d�rftig. - Macht man einen Fehler lutscht man die > ganze home page des > Autors runter, was man aber auf keinen Fall will !
Das Problem ist, das Ding folgt jedem Link auf der Seite, auch wenn er logisch "nach oben" f�hrt. Das Abziehen von FTP-Directories kann da auch schonmal ausufern. Nehmen wir mal an, Du hast auf einer Seite 10 Links, die f�hren zu 10 Seiten, auf denen wiederum 10 Links sind, die ihrerseits wiederum 10 Links draufhaben, die zu Seiten f�hren, wo 10 Links sind. Dann gibt wget -r -l 5 die Anzahl von 10^5, also 100000 herunterzuladenden Seiten. Oder hab ich mich jetzt verrechnet? > Was passiert jetzt wenn ich diese Artikel wie ich ihn sehe kopieren > will, etwa auf eine Diskette ? Ein Test: aus dem Ordner "wget" heraus > kopiere ich den Ordner "www.theregister.co.uk" auf den Desktop. Klicke > ich die Seite jetzt an sehe ich keine Bilder > mehr. Das hei�t doch der Job hat es nicht gebracht ? > Wenn ich bei Buchhandlung M�ller ein Buch kaufe, es abends um 21 Uhr > aufschlage - und alle Seiten sind leer weil am Originalort, bei M�ller, > das Licht ausgeschaltet ist: was w�rde ich davon halten m�ssen ? > Nein, das ist dann doch nicht die L�sung der Aufgabe, die ich mir > gestellt habe. Ich sage Dir mal, wie ich das mache. Das wird wieder eine L�sung sein, die Dir nicht gef�llt, macht aber nix. - Seite im Browser �ffnen - Drucken - Drucken in Datei "dateiname.ps" - ps2pdf dateiname.ps - Ergibt dateiname.pdf So sah z.B. die PUG-Homepage im Dezember 2000 aus: http://www.pug.org/~martin/netscape.pdf Ciao, -martin -- Quitters never win, winners never quit. But those who never win and never quit are idiots. ---------------------------------------------------------------------------- PUG - Penguin User Group Wiesbaden - http://www.pug.org

