если нужно бекапить довольно много мелких файлов (в моём случае несколько тысяч сайтов с каждого сервера) - совершенно неудобоваримое. Сьедает почти всю память во время бекапа и помирает. Перешёл на бакулу. Не совсем удобное для меня составление расписания,но хотя бы работает

05.04.2013 14:25, Alexander Kuprin пишет:
Всем привет.

Есть необходимость делать резервные копии сайта. Сам архив тянет на несколько гигабайт. Пока выхожу из положения так: забираю через rsync и обрабатываю данные самописным скриптом, который сохраняет архивные копии за последние несколько дней. Попробовал проект rdiff-backup -- понравилось, что он умеет хранить инкрементальные изменения и позволяет удалять те, которые старше определённого возраста. Или разворачивать копию за конкретный период. А вопрос заключается в следующем -- кто-то из присутствующих работал с ним архивируя большие объёмы данных? Насколько утилита надёжна?


_______________________________________________
Sysadmins mailing list
[email protected]
https://lists.altlinux.org/mailman/listinfo/sysadmins

Ответить