Translation please. English possibly, if you want to read the majority
of readers.

Heiko

-- 
-- PREVINET S.p.A.            [EMAIL PROTECTED]
-- Via Ferretto, 1         ph  x39-041-5907073
-- I-31021 Mogliano V.to (TV) fax x39-041-5907087
-- ITALY



>-----Original Message-----
>From: Jean Thevenet [mailto:[EMAIL PROTECTED]]
>Sent: Thursday, January 25, 2001 8:31 PM
>To: [EMAIL PROTECTED]
>Subject: demande d'une nouvelle option
>
>
>système suse 6.4
>
>Voici mon problème: je souhaite automatiser le téléchargement 
>des ficheisr à
>partir d'une page: j'ai besoin que wget sache aller chercher 
>des fichiers
>indiqués par une page, et ce quelque soit leur adresse dans un 
>même serveur,,
>ou à partir d'une page locale mais en pouvant controler la 
>profondeur de visite
>des liens: explications
>http://www.sat.dundee.ac.uk:80/abin/piccy/avhrr/2001/01/19/0746
>/ est l'adresse
>des mais la page qui donne accès à ces images est à 
>http://www.sat.dundee.ac.uk:80/abin/browse/avhrr/2001/1/19/0746
>/index.html
>
>on ne peut donc pas utiliser wget -r -np, car avant de 
>télécharger les images
>données par la page, on a aussi le site en entier! (à cause du 
>lien "home" par
>exemple.
>
>si une option que je nomne "page" pour l'exemple permettait de 
>ne récupérer que
>les fichiers liés par une page en choississant le nombre de 
>niveau de pages
>intermédiaires, par exemple le niveau 2 permet de récupérer 
>tous les fichiers
>et les pages  liés par les pages que l'on indique plus tous 
>les fichiées  liés
>par les page que la page indique, puis rien d'autre
> exemple  wget -r -page1
>http://www.sat.dundee.ac.uk:80/abin/browse/avhrr/2001/1/19/0746
>/index.html
>récupérererait toutes les pages, et les ficchiers liées par la page
>http://www.sat.dundee.ac.uk:80/abin/browse/avhrr/2001/1/19/0746
/index.html sans
rien récupérer d'autre,
on peut immaginer et cela serait très utile que ce soit possible à
partir de
n'importe quelle page, par exemple /home/jean/a_telecharger.htm contient
des
lins vers des fichiers situées à http://site1.com et http://sites2.com ,
la
commande wget -r page2 /home/jean/a_telecharger.htm aille chercher les
fichiers
et les pages liés par la page locale, plus les fichiers et les pages
liés par
les pages liées par la page locage (niveau 2) , et ce tout en
construisant les
répertoires www.site1.com et www.site2.com et si besoin les chemins et
répertoires de l'hote... cela serait un gain de temsp énorme pour
récupérer
automatiquement des fichiers qui ont toujours les mêmes adresses mais
qui sont
régulièrement mis à jours...

Jean thevenet

Reply via email to