Bonjour, Je suis en "testing".
J'ai une liste d'URL (http) que je dois consulter à intervalle régulier. Ce sont des pages dynamiques (au sens : créées au moment de leur accès). Actuellement, j'ai simplement une liste de signets dans mon navigateur favori et je les lance manuellement. C'est finalement assez long et pénible. J'aimerais donc faire un script qui mette automatiquement dans un répertoire une copie HTML de l'ensemble des pages accédées pour que je puisse, ensuite, les lire en local plus rapidement. (Pour chaque URL, une seule page m'intéresse, pas tout un site.) Auriez-vous des outils à me conseiller pour faire cela ? (Je sais faire un script Shell, ce sont les outils d'accès en ligne de commande à une page Web, avec sauvegarde de cette page, qui m'intéressent ici mais que je ne connais pas.) Merci. Amitiés, [CITATION ALÉATOIRE : Il n'y a rien de nouveau dans l'art excepté le talent. Anton Tchekhov] -- Pierre Crescenzo mailto:[EMAIL PROTECTED] http://www.crescenzo.nom.fr/