On Thu, Mar 28, 2013 at 11:32:15PM +0100, ssm2017 wrote: > salut > j'ai un serveur d'assets qui contient env 2 millions d'assets (images, sons > etc...) et le tout pour env 75 gigas. > le fait de faire un tar.gz du tout me prend env 13 heures... > quelqu'un a une idee pour faire une sauvegarde incrementale par jour ? > histoire que si je dois revenir en arriere, ce soit simple ? > sinon, vous feriez quoi comme type de sauvegarde ?
Tu peux gagner du temps en ne compressant pas les données pas/peu compressibles (typiquement les formats non textes). Sur des gros volumes ça joue pas mal. Je suggererais de faire du tar tout seul. Ensuite avoir un seul fichier de 75Go sur le disque c'est pas le plus pratique, les transferts de tes backups seront longues, non fragmentables, etc. À mon boulot ils ont des scripts de backups incrémentaux qui font des copies profondes de la structure des répertoires (plus efficaces sur les gros fichiers, mais très mauvais sur les tous petits), avec un calcul de date de dernière modif+taille; et hardlink vers la version déjà backupé si le fichier a pas bougé au lieu de copie. Un dossier est créé par jour, et le système garde 9 backups (3 derniers jours, 3 dernières semaines, 3 derniers mois). J'ai pas les scripts par contre. -- Cyprien/Fulax
pgpf0If7thXYI.pgp
Description: PGP signature