Am 14.08.2010 16:40, schrieb Ernst May-Jung: > Hallo, Hi Ernst
> ein Backup ist relativ schnell gemacht. Die Mühe CDs zu brennen mache
> ich mir dabei schon lange nicht mehr, weil die ja sowieso schnell kaputt
> gehen.
>
> Also Festplatte oder USB Stick, dass sind derzeit meine Favoriten. An
> die Gigabank habe ich auch schon gedacht. Da fällt aber die Datenmenge
> nochmal an, wenn die Ordnerstruktur verändert werden soll. Und die
> Qualität hat ja auch so seinen Preis.
>
> Jetzt das Problem:
> Wenn eine Datei lesbar ist, heißt es ja noch lange nicht, dass noch das
> selbe drin steht wie vor 3 Jahren. Dafür gibt es MD5 zum Beispiel. Aber
> von mehreren hundert Dateien MD5 summen per Hand anlegen macht auch kein
> Spaß.
>
> Kennt da jemand ein gutes Tool dafür? Es muss nicht mit MD5 laufen. Mir
> geht es darum, dass ich die Qualität der Daten auf einem alt gewordenen
> Datenträger bewerten kann. Vielleicht mit einer mitgespeicheten Datei,
> die all die MD5s oder ähnliches enthält.
Ich bin nicht 100%ig sicher, ob das in dem Fall das Mittel der Wahl ist,
aber git macht SHA1 hashes von den internen Daten, so dass sich nachher
überprüfen lässt, ob das alles noch OK ist. Das sollte also zumindest
einfacher sein als md5 hashes von Hand zu machen. Wenn man einfach ein
git Repository über die Files, die ins Backup sollen, macht, sollte das
also mit recht wenig zusätzlichem Speicherverbrauch gehen.
> Gruß
> Ernst
cu
Dieter
--
3rd Law of Computing:
Anything that can go wr
fortune: Segmentation violation -- Core dumped
signature.asc
Description: OpenPGP digital signature
-- ---------------------------------------------------------------------------- PUG - Penguin User Group Wiesbaden - http://www.pug.org

