Am 10.05.2010 13:58, schrieb Martin Schmitt:
> slamby schrieb:
> 
>> Mir kommt jedoch bei der Diskussion immer eine Sache, die ich persönlich
>> für etwas bedenklich halte, ein bißchen kurz: Unter Unix ist .tar.gz
>> weit verbreitet. Verwendet man tar und beim Archivieren geht irgendetwas
>> schief, dann meckert tar nicht und man merkt es erst beim Auspacken,
>> dass man eigentlich keine Datensicherung hat. Auf das Archiv kann man
>> dann nämlich nicht mehr zugreifen.
>>
>> Was denken die anderen darüber?
> 
> Ich würde das nicht so unbesehen unterschreiben. Ein Tar, aus dem ich
> die Daten nicht auch wieder rausholen konnte, hatte ich für meinen Teil
> noch nie.

Ich habe solche Probleme schon gesehen, allerdings immer nur in
Verbindung mit dummen Filesystemen. Wenn man ein Backup als .tar.gz auf
eine FAT partition schreibt, und mehr als 4G  geschrieben werden sollen,
dann geht das wirklich ohne fehlermeldung schief und nachher ist alles
im Eimer. Das ist aber ein klarer Benutzerfehler, und ohne FAT habe ich
noch nie Probleme mit Tarballs gehabt.


> 
> Der Vorteil bei einer serverbasierten Variante ist halt, daß man
> praktisch per Default n Generationen bekommt und komfortable Restores
> machen kann. Im Fall von Backuppc hat man im Storage-Pool auch noch
> Deduplizierung dabei, was den Platzbedarf wirklich schmal hält.

jap, +1

> 
> -martin
> 

cu
Dieter

-- 
3rd Law of Computing:
        Anything that can go wr
fortune: Segmentation violation -- Core dumped

Attachment: signature.asc
Description: OpenPGP digital signature

--
----------------------------------------------------------------------------
PUG - Penguin User Group Wiesbaden - http://www.pug.org

Antwort per Email an