Un caldo saluto a tutta la lista (dato il clima). Volevo chiedere se eravate a conoscenza di valide soluzioni per il seguente problema:
Un insieme di tanti piccoli file abbastanza contenuto (< 500 GB) del quale fare un backup locale regolare + uno manuale offline su disco usb. Devo controllare l'integrità dei file che vengono backuppati per evitare che un eventuale file corrotto prenda il posto di uno "buono" sul backup. Si parlerà al 99% di probabilità di un sistema debian stabile md+lvm+ext4 (per mia scelta, nessun vincolo). Non ho trovato soluzioni "pronte" al mio scopo e avevo ipotizzato una cosa di questo tipo: - Backup locale con rsnapshot - Un file contenente gli hash dei file al loro ultimo backup, questi hash vengono controllati per i file che hanno un ctime uguale all'ultima versione salvata, gli altri vengono "aggiornati" - Il backup offline lo prendo dall'ultimo di rsnapshot con tar o dar previo controllo hash e salvo offline anche un file di par2. In caso di errori si interviene manualmente a controllare (l'idea è che non dovrebbe accadere). Il problema dei file "in uso" lo potrei risolvere facendo prima il giro di rsnapshot e confrontando l'hash tra i 2 ultimi backup. Sulla carta sembra semplice, in realtà ho riscontrato il problema che rsnapshot non permette una "dry run" dove elenca solo i file che verrebbero aggiornati (in modo da "grepparli" dal file contenente gli hash e controllare gli altri). Avete idee un po' meno contorte? -- Davide -- Per REVOCARE l'iscrizione alla lista, inviare un email a [email protected] con oggetto "unsubscribe". Per problemi inviare un email in INGLESE a [email protected] To UNSUBSCRIBE, email to [email protected] with a subject of "unsubscribe". Trouble? Contact [email protected] Archive: https://lists.debian.org/[email protected]

