Bonsoir,

Si le but est de jouer avec wget j'ai peur que ce soit un peu chiant.
Si le but est d'avoir une copie d'un site, ou juste une partie (ce que
j'ai compris) je conseille https://www.httrack.com
C'est le package webhttrack.
Un script avec rsync est aussi possible si tu as accès au système de
fichiers du serveur web.

Si je puis me permettre, j'entrevois dans cette demande une
problématique de type "xyproblem" :
https://fr.wikipedia.org/wiki/Probl%C3%A8me_XY
Une explication en anglais : http://xyproblem.info

Bon courage.

Le dim. 24 mai 2020 à 20:00, machinSuite <eric.cla...@gmx.com> a écrit :
>
> Bonsoir.
>
> J'ai téléchargé avec "wget -np" le répertoire d'un site contenant beaucoup
> de fichiers qui sont régulièrement mis à jour.
> Je souhaite télécharger régulèrement ces fichiers pour obtenir lorsque je le
> juge nécessaire les mises à jour.
>
> Aussi comment faire avec "wget" pour :
> 1) Télécharger uniquement les fichiers mis à jour et pas les autres du site
> aspiré dans mon répertoire de sauvegarde.
> 2) Effacer en même temps les fichiers qui n'existent plus sur le site aspiré
> (du fait des mises à jour) de mon répertoire de sauvegarde.
>
> Si cela n'est pas possible directement avec la commande "wget", par quelles
> commandes simple peut on la compléter pour y arriver.
>
> Merci.
>
>
>
> --
> Sent from: http://debian.2.n7.nabble.com/debian-user-french-f1152225.html
>

Répondre à