Hallo Liste, Ich erstelle hier mit einem cron.daily auf meinem Server ein Backup des Home und anderer wichtiger Dateien. Ich m�chte dieses tar.gz beim aufstarten eines Desktops per scp auf den Desktop kopieren, bis jetzt liegt dieses Skript aber im rc.2d/ da es aber ca. 1.5 GB �ber das Netz kopieren muss, geht das leider ein Weilchen und der Start des ganzen PC wird nat�rlich verz�gert... Jetzt meine Frage, wie kann ich das automatisieren, so dass ich trotzdem schon am PC arbeiten kann? Also den Prozess irgendwie parallel starten. Nat�rlich k�nnte man das �ber eine Verkn�pfung auf dem Desktop oder so realisiern, doch dann vergisst man wieder zu updaten.
Eine zweite Frage: ich habe nur Platz f�r 2-3 Backups auf dem Desktop, also nur �ber 2-3 Tage, somit w�re ich froh dar�ber m�gliche "fehlerhafte" tar.gz's nicht zu kopieren, nicht dass das "gute" Backup �berschrieben wird, hat da jemand einen Vorschlag, oder hilft hier nur regelm�ssiges nachschauen? Vielen Dank und Gr�sse -- Patrick Pletscher http://www.galaxysoft.ch You're bound to be unhappy if you optimize everything. Donald E. Knuth -- Haeufig gestellte Fragen und Antworten (FAQ): http://www.de.debian.org/debian-user-german-FAQ/ Zum AUSTRAGEN schicken Sie eine Mail an [EMAIL PROTECTED] mit dem Subject "unsubscribe". Probleme? Mail an [EMAIL PROTECTED] (engl)

