Re: Backup

2018-03-09 Пенетрантность artiom
Выложу своё "исследование" отдельной темой. Может кому пригодится.

28.02.2018 13:21, Sergey Spiridonov пишет:
> Привет
> 
> On Thu, 15 Feb 2018 22:59:07 +0300
> artiom  wrote:
> 
>> Подскажите, чем возможно выполнять резервное копирование нескольких
>> машин по сети, чтобы условия ниже были удовлетворены.
> 
> Под описание полностью подходит backuppc. Единственное чего нет из
> коробки - репликации в облако, но это несложно доделать - просто по
> крону закидывать хранилище в облако.
> 
> Бэкап через Интернет и репликация в Интернет накладывает ограничение на
> объём данных/ширину канала, но это не сильно зависит от приложения.
> 
> Я сам пользуюсь backuppc больше десятка лет для бэкапа до 15 машин.
> 



Re: Backup

2018-02-28 Пенетрантность Sergey Spiridonov
Привет

On Thu, 15 Feb 2018 22:59:07 +0300
artiom  wrote:

> Подскажите, чем возможно выполнять резервное копирование нескольких
> машин по сети, чтобы условия ниже были удовлетворены.

Под описание полностью подходит backuppc. Единственное чего нет из
коробки - репликации в облако, но это несложно доделать - просто по
крону закидывать хранилище в облако.

Бэкап через Интернет и репликация в Интернет накладывает ограничение на
объём данных/ширину канала, но это не сильно зависит от приложения.

Я сам пользуюсь backuppc больше десятка лет для бэкапа до 15 машин.
-- 
С уважением, Сергей Спиридонов




Re: Backup

2018-02-22 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Tue, 20 Feb 2018 21:02:34 +0300:

 >>  >>  >>  >>  >> В общем, анализировать бэкапные решения надо начинать не с 
 >> "где
 >>  >>  >>  >>  >> хранить" и "какой транспорт использовать" а с "как будет 
 >> выглядеть
 >>  >>  >>  >>  >> процедура восстановления". Причем в двух вариантах 
 >>  >>  >>  >>  >>
 >>  >>  >>  >>  > Да, вообще явного анализа восстановления я не провёл.
 >>  >>  >>  >>  > Неявно, подразумеваю, что буду переустанавливать систему и 
 >> накатывать
 >>  >>  >>  >>  > данные, а не образ.
 >>  >>  >>  >>  > Т.е., мне не требуется "полный бэкап", как это делают с 
 >> большим парком
 >>  >>  >>  >>  > машин.
 >>  >>  >>  >> 
 >>  >>  >>  >> Практика восстановления показывает, что если бэкапятся настройки
 >>  >>  >>  >> системы, то лучше бэкапить всю систему. Восстановление 
 >> работоспособного
 >>  >>  >>  >> состояния получится на порядок быстрее. Пользовательские данные 
 >> можно (и
 >>  >>  >>  >> часто полезно) бэкапить отдельно.
 >>  >>  >>  >> 
 >>  >>  >>  > Хорошо, но зачем мне 50+ Гб того, что я и так получу?
 >>  >>  >>  > Мало того, не всегда мне нужно будет восстанавливать ту же самую
 >>  >>  >>  > систему: на том же железе и в точности с той же конфигурацией, 
 >> плюс к
 >>  >>  >>  > этому, у меня ещё не было ни одного случая, чтобы полностью 
 >> загнулся Debian.
 >>  >>  >>  > Падение скорости восстановления здесь для меня терпимо.
 >>  >>  >> 
 >>  >>  >> Системы обычно падают в самый неподходящий момент :) И даже если ты
 >>  >>  >> давно хотел ее обновить, выгоднее сначала тупо, но быстро 
 >> восстановить
 >>  >>  >> прежнюю работоспособную конфигурацию, а потом уже обновлять.
 >>  >>  >> 
 >>  >>  > Ok. С этим я согласен. Но остаётся несколько проблем (наверняка уже
 >>  >>  > кем-то решённых).
 >>  >>  > Бэкап-систему я внедряю не с нуля, а в действующую "инфраструктуру"
 >>  >>  > (пусть и маленькую).
 >>  >> 
 >>  >>  > Отсюда:
 >>  >> 
 >>  >>  > - Если какая-то дрянь сейчас поселилась в системе (а система с 
 >> 2011-го
 >>  >>  > года не переустанавливалась, редко выключалась, кроме последних лет, 
 >> и
 >>  >>  > долго подключена к Интернет), есть риск, что она пойдёт в бэкап, 
 >> будет
 >>  >>  > заботливо сохранена, и воспроизведётся при каждом полном 
 >> восстановлении.
 >>  >> 
 >>  >> Не "есть риск", а "есть гарантия". Однако, в такой ситуации взять только
 >>  >> конфиги из полного бэкапа можно. А вот взять полную систему, чтобы
 >>  >> быстро восстановиться, если есть бэкап только конфигов, не получится.
 >>  >> 
 >>  > В случае же переустановки, из бэкапа ничего не прилетит.
 >> 
 >> Очень не факт. Зараза с легкостью может окопаться и в /etc (в случае
 >> винды - системном реестре).
 >> 
 > Но в /etc бинарник же будет видно,

Ты давно туда заглядывал? /etc чуть не наполовину состоит из исполняемых
файлов. Выполняемых при каждом старте системы или чаще. Да, обычно это
скрипты, но на вполне Тьюринг-полных языках и с удобными средствами
сетевого доступа. Бинарник (они там, кстати, часто тоже есть, хотя
обычно как раз не исполнимые) для внесения заразы не требуется.

 > а в случае системного реестра, ей всё равно файл нужен, который будет
 > запускаться, разве нет?

Нужен. Но это, внезапно, может оказаться вполне легитимная программа
типа Internet Explorer.

 >>  >>  >> Ну, то есть, конторы, где эти или подобные технологии применялись, я
 >>  >>  >> видел, а вот чтобы успешно - нет. К счастью, по мне это не било. 
 >> Один
 >>  >>  >> раз - только потому, что у меня был еще и свой бэкап.
 >>  >>  >> 
 >>  >>  > Но ведь система специально заточена под бэкап, долго живёт и 
 >> развивается.
 >>  >>  > Почему не было успешно её применение?
 >>  >>  > Возможно ли, что это просто было неправильное использование?
 >>  >> 
 >>  >> Да. Вопрос в том, кому по карману правильное. Может быть, 
 >> хостинг-провайдеру.
 >>  >> 
 >>  > В таком случае, по каким причинам они выбирают Bacula-like?
 >> 
 >> Не могу дать гарантированного ответа, но вероятно, купившись на
 >> рекламные слова. Иногда еще, чтобы было чем оправдываться перед
 >> начальством за продолбы. Типа, "мы использовали проверенный бэкапный
 >> софт, и не виноваты, что не смогли восстановить требуемое". Если тот же
 >> самый продолб (он обычно организационного характера) произойдет с
 >> велосипедным решением, оправдываться будет сложнее.
 >> 
 > Разве это единственная причина?

В этом абзаце я привел две :) Так вот сходу могу привести третью (она,
по сути, модификация первой): что первое нагуглилось по запросу типа
"backup software", то и выбрали. Я думаю, при желании можно придумать
еще, но ценность ответа на вопрос ниже, чем ценность 10 минут времени,
которые съест этот процесс.



Re: Backup

2018-02-22 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Tue, 20 Feb 2018 21:07:30 +0300:

 >>  >>  >>  >> Инкрементальный бэкап, который обеспечивает tar и основные
 >>  >>  >>  >> продвинутые инкрементальные средства бэкапа, типа той же 
 >> бакулы, дает
 >>  >>  >>  >> первое и второй ценой невозможности третьего. Обратный 
 >> инкрементальный,
 >>  >>  >>  >> как у rsync, второе и третье ценой невозможности первого. 
 >> Первое и
 >>  >>  >>  >> третье можно делать, гоняя каждый раз полный бэкап.
 >>  >>  >>  >>
 >>  >>  >>  > Вы не вполне верно поняли требование, либо я не точно выразился.
 >>  >>  >>  > Шифровать каналы отправки и шифровать при отправке на внешнее 
 >> хранилище
 >>  >>  >>  > (облако).
 >>  >>  >>  > Шифровать отдельно при хранении в NAS, не требуется.
 >>  >>  >> 
 >>  >>  >> Я понял. Я как бы намекаю, что при бэкапе на NAS и в облако имеет 
 >> смысл,
 >>  >>  >> вообще-то, выбирать разные два из трех. Но, естественно, получатся
 >>  >>  >> разные технологии бэкапа :)
 >>  >>  >> 
 >>  >>  > Да, конечно, так и планировалось изначально.
 >>  >> 
 >>  >> Минус простота настройки.
 >>  >> 
 >>  > В рамках всей системы - терпимо. Не сразу. К тому же, настроить - один 
 >> раз.
 >> 
 >> В изначальной постановке задачи простота настройки была одним из условий :)
 >> 
 > Да нет же.
 > В изначальной постановке задачи было: "Минимум ручной допилки и сложной
 > настройки на сервере".
 > Т.е., не приветствуется, но разумный минимум, меньше которого сделать не
 > получится (или это приведёт к установке неоправданно внутренне сложной
 > системы), принимается.

Простота и есть разумный минимум сложности :)

 >>  >>  >>  >> Но вообще, если уж ты собираешься делать бэкапы как следует, то 
 >> надо
 >>  >>  >>  >> понимать, что первое, что тут требуется - это дисциплина. Не 
 >> такая, как
 >>  >>  >>  >> при работе в архиве, но все же изрядная.
 >>  >>  >>  > Она мне, в принципе, требуется.
 >>  >>  >>  > В плане организации я пытаюсь сейчас всё постепенно 
 >> рассортировать
 >>  >>  >>  > (сейчас закончил только с музыкой и видео, проекты в нормальном
 >>  >>  >>  > состоянии, книги и документы в процессе сортировки).
 >>  >>  >>  > Поэтому, что бэкапить, я могу сказать.
 >>  >>  >> 
 >>  >>  >> Там не просто "что бэкапить". Там еще "как бэкапить" и "как и когда
 >>  >>  >> проверять восстанавливаемость из бэкапа". Два письменных документа, 
 >> ага.
 >>  >>  >> 
 >>  >>  > Ну ok, политика и регламент бэкапа?
 >>  >>  > Если делать на серьёзном уровне, конечно полезно.
 >>  >>  > В принципе, это в любом случае полезно, так что пока ещё NAS не
 >>  >>  > завершён, в рамках этого проекта возможно и системой резервного
 >>  >>  > копирования более серьёзно заняться.
 >>  >> 
 >>  >> Тут ведь как... Даже к домашнему бэкапу нужен регламент, известный всем,
 >>  >> чья техника бэкапится. И, сюрприз, его выполнение. Каждым участником в
 >>  >> касающейся его части.
 >>  >> 
 >>  > Т.е. мной. Кроме того, я почему-то сомневаюсь, что в компаниях все
 >>  > слышали такое понятие, как "регламент бэкапа". Кое-что пользователю
 >>  > знать не нужно.
 >> 
 >> А есть разные регламенты. Для админа, настраивающего бэкап, для админа,
 >> следящего за бэкапами, и для пользователя, желающего, чтобы его данные
 >> и/или систему в случае сбоев можно было восстановить.
 >> 
 >> Мне не попадалось ситуаций, где бы все данные, ценные для пользователя,
 >> удавалось отследить и забэкапить без его осознанного участия. Кроме
 >> конструкций с бездисковыми X-терминалами в конце 90-х - начале 2000-х,
 >> когда все данные, а зачастую и ОС терминала хранились на одном сервере и
 >> только на нем. Повторюсь,
 >> 
 >>  >>  >>  >> "Результатом автоматизации
 >>  >>  >>  >> бардака может быть только автоматизированный бардак."
 > Формально, пользователь должен держать данные в каталоге Documents (и
 > подобном) и на рабочем столе.
 > Ну т.е., есть некоторые умолчания. А если нужна кастомизация, то это уже
 > отдельная задача.

Для того, чтобы данные бэкапились, пользователь должен предоставить
данные бэкапилке не формально, а фактически. Это обеспечивается только
дисциплиной.

 >>  >> Если бэкапится юниксовая машина, то вся конструкция без особых
 >>  >> сложностей скриптуется с сервера, который и следит за расписанием. С
 >>  >> виндовой, как показала практика, удобнее, чтобы сервер делал часть "cp
 >>  >> -al" и по расписанию пинал по почте владельца машины. А часть rsync
 >>  >> запускает уже владелец машины.
 >>  >> 
 >>  > Как понять "скриптуется с сервера"?
 >> 
 >> Скрипт бэкапа выполняется на бэкап-сервере. "Клиент" (та машина, которую
 >> мы бэкапим) с точки зрения rsync является сервером.
 >> 
 > Ясно.
 > Вообще, BackupPC так умеет. Он безагентный, использует rsync для *nix,
 > но почему-то мне кажется, что система с агентами более гибка.

Зато более сложна и, соответственно, более подвержена сбоям. А от бэкапа
требуется надежность. Поэтому чем сложнее система, тем больше внимания
ей придется уделять, чтобы поддерживать ее в работосп

Re: Backup

2018-02-20 Пенетрантность artiom


21.02.2018 08:01, Victor Wagner пишет:
> В Tue, 20 Feb 2018 20:56:03 +0300
> artiom  пишет:
> 
> ю, сбой диска убьет
>>> единственный. 
>> Возможно, при ограниченных ресурсах по аппаратуре это применимо, но в
>> целом, я считаю, подход неправильный.
>> Надёжность хранилища должна нижним уровнем обеспечиваться.
>> Явно не прикладным, на котором работает система резервного
>> копирования.
> 
> Нет, именно на прикладном - единственный способ обеспечить надежность
> за разумные деньги.
> 
> Тем более, что на прикладном уровне мы можем защищаться от таких угроз
> как "разряд высокого напряжения попал в розетки и убил всю включенную
> электронику в здании" (путем хранения бэкапа на физически отключенном
> устройстве) и даже от угроз "пожар" и "падение атомной бомбы на город"
> (путем хранения одной из копий в географически удаленной локации)
> 
Нет, подождите, во-первых Артём Чуприна, как я это понял, имел ввиду
хранение второй копии просто в другом месте того же самого устройства.
Во-вторых, возможно это и относится к прикладному уровню (в принципе,
политику определяет и отвечает за её реализацию, т.е. выгрузку на
отдельное устройство, система резервного копирования), но это всё-таки
не совсем то.

> Очевидно, что борьба с этими угрозами на нижнем уровне с одной стороны
> обходится бессмысленно дорого, а с другой - порождает новые угрозы.
> 
Думаю, что надо разделять: надёжность системы, в целом (в случае пожара
умрёт аппаратура, а вместе с ней ядро системы резервного копирования) и
надёжность устройства хранения, которая обеспечивается аппаратурой.
"Физический уровень" - это условный RAID (некий как-то реализованный
mirror, благодаря которому не требуется делать две копии, т.к. он делает
это сам).
Резервирование системы, в целом, может быть сделано на разных уровнях
(миграция и репликация в кластере гугла - явно не "прикладной"), но это
не тоже самое, что хранение двух копий каталога с фотографиями.



Re: Backup

2018-02-20 Пенетрантность Victor Wagner
В Tue, 20 Feb 2018 20:56:03 +0300
artiom  пишет:

ю, сбой диска убьет
> > единственный. 
> Возможно, при ограниченных ресурсах по аппаратуре это применимо, но в
> целом, я считаю, подход неправильный.
> Надёжность хранилища должна нижним уровнем обеспечиваться.
> Явно не прикладным, на котором работает система резервного
> копирования.

Нет, именно на прикладном - единственный способ обеспечить надежность
за разумные деньги.

Тем более, что на прикладном уровне мы можем защищаться от таких угроз
как "разряд высокого напряжения попал в розетки и убил всю включенную
электронику в здании" (путем хранения бэкапа на физически отключенном
устройстве) и даже от угроз "пожар" и "падение атомной бомбы на город"
(путем хранения одной из копий в географически удаленной локации)

Очевидно, что борьба с этими угрозами на нижнем уровне с одной стороны
обходится бессмысленно дорого, а с другой - порождает новые угрозы.



-- 
   Victor Wagner 



Re: Backup

2018-02-20 Пенетрантность artiom
>  >>  >>  >> Инкрементальный бэкап, который обеспечивает tar и основные
>  >>  >>  >> продвинутые инкрементальные средства бэкапа, типа той же бакулы, 
> дает
>  >>  >>  >> первое и второй ценой невозможности третьего. Обратный 
> инкрементальный,
>  >>  >>  >> как у rsync, второе и третье ценой невозможности первого. Первое и
>  >>  >>  >> третье можно делать, гоняя каждый раз полный бэкап.
>  >>  >>  >>
>  >>  >>  > Вы не вполне верно поняли требование, либо я не точно выразился.
>  >>  >>  > Шифровать каналы отправки и шифровать при отправке на внешнее 
> хранилище
>  >>  >>  > (облако).
>  >>  >>  > Шифровать отдельно при хранении в NAS, не требуется.
>  >>  >> 
>  >>  >> Я понял. Я как бы намекаю, что при бэкапе на NAS и в облако имеет 
> смысл,
>  >>  >> вообще-то, выбирать разные два из трех. Но, естественно, получатся
>  >>  >> разные технологии бэкапа :)
>  >>  >> 
>  >>  > Да, конечно, так и планировалось изначально.
>  >> 
>  >> Минус простота настройки.
>  >> 
>  > В рамках всей системы - терпимо. Не сразу. К тому же, настроить - один раз.
> 
> В изначальной постановке задачи простота настройки была одним из условий :)
> 
Да нет же.
В изначальной постановке задачи было: "Минимум ручной допилки и сложной
настройки на сервере".
Т.е., не приветствуется, но разумный минимум, меньше которого сделать не
получится (или это приведёт к установке неоправданно внутренне сложной
системы), принимается.

> 
>  >>  >>  >> Но вообще, если уж ты собираешься делать бэкапы как следует, то 
> надо
>  >>  >>  >> понимать, что первое, что тут требуется - это дисциплина. Не 
> такая, как
>  >>  >>  >> при работе в архиве, но все же изрядная.
>  >>  >>  > Она мне, в принципе, требуется.
>  >>  >>  > В плане организации я пытаюсь сейчас всё постепенно рассортировать
>  >>  >>  > (сейчас закончил только с музыкой и видео, проекты в нормальном
>  >>  >>  > состоянии, книги и документы в процессе сортировки).
>  >>  >>  > Поэтому, что бэкапить, я могу сказать.
>  >>  >> 
>  >>  >> Там не просто "что бэкапить". Там еще "как бэкапить" и "как и когда
>  >>  >> проверять восстанавливаемость из бэкапа". Два письменных документа, 
> ага.
>  >>  >> 
>  >>  > Ну ok, политика и регламент бэкапа?
>  >>  > Если делать на серьёзном уровне, конечно полезно.
>  >>  > В принципе, это в любом случае полезно, так что пока ещё NAS не
>  >>  > завершён, в рамках этого проекта возможно и системой резервного
>  >>  > копирования более серьёзно заняться.
>  >> 
>  >> Тут ведь как... Даже к домашнему бэкапу нужен регламент, известный всем,
>  >> чья техника бэкапится. И, сюрприз, его выполнение. Каждым участником в
>  >> касающейся его части.
>  >> 
>  > Т.е. мной. Кроме того, я почему-то сомневаюсь, что в компаниях все
>  > слышали такое понятие, как "регламент бэкапа". Кое-что пользователю
>  > знать не нужно.
> 
> А есть разные регламенты. Для админа, настраивающего бэкап, для админа,
> следящего за бэкапами, и для пользователя, желающего, чтобы его данные
> и/или систему в случае сбоев можно было восстановить.
> 
> Мне не попадалось ситуаций, где бы все данные, ценные для пользователя,
> удавалось отследить и забэкапить без его осознанного участия. Кроме
> конструкций с бездисковыми X-терминалами в конце 90-х - начале 2000-х,
> когда все данные, а зачастую и ОС терминала хранились на одном сервере и
> только на нем. Повторюсь,
> 
>  >>  >>  >> "Результатом автоматизации
>  >>  >>  >> бардака может быть только автоматизированный бардак."
Формально, пользователь должен держать данные в каталоге Documents (и
подобном) и на рабочем столе.
Ну т.е., есть некоторые умолчания. А если нужна кастомизация, то это уже
отдельная задача.

>  >> Если бэкапится юниксовая машина, то вся конструкция без особых
>  >> сложностей скриптуется с сервера, который и следит за расписанием. С
>  >> виндовой, как показала практика, удобнее, чтобы сервер делал часть "cp
>  >> -al" и по расписанию пинал по почте владельца машины. А часть rsync
>  >> запускает уже владелец машины.
>  >> 
>  > Как понять "скриптуется с сервера"?
> 
> Скрипт бэкапа выполняется на бэкап-сервере. "Клиент" (та машина, которую
> мы бэкапим) с точки зрения rsync является сервером.
> 
Ясно.
Вообще, BackupPC так умеет. Он безагентный, использует rsync для *nix,
но почему-то мне кажется, что система с агентами более гибка.



Re: Backup

2018-02-20 Пенетрантность artiom
>  >>  >>  >>  >> В общем, анализировать бэкапные решения надо начинать не с 
> "где
>  >>  >>  >>  >> хранить" и "какой транспорт использовать" а с "как будет 
> выглядеть
>  >>  >>  >>  >> процедура восстановления". Причем в двух вариантах 
>  >>  >>  >>  >>
>  >>  >>  >>  > Да, вообще явного анализа восстановления я не провёл.
>  >>  >>  >>  > Неявно, подразумеваю, что буду переустанавливать систему и 
> накатывать
>  >>  >>  >>  > данные, а не образ.
>  >>  >>  >>  > Т.е., мне не требуется "полный бэкап", как это делают с 
> большим парком
>  >>  >>  >>  > машин.
>  >>  >>  >> 
>  >>  >>  >> Практика восстановления показывает, что если бэкапятся настройки
>  >>  >>  >> системы, то лучше бэкапить всю систему. Восстановление 
> работоспособного
>  >>  >>  >> состояния получится на порядок быстрее. Пользовательские данные 
> можно (и
>  >>  >>  >> часто полезно) бэкапить отдельно.
>  >>  >>  >> 
>  >>  >>  > Хорошо, но зачем мне 50+ Гб того, что я и так получу?
>  >>  >>  > Мало того, не всегда мне нужно будет восстанавливать ту же самую
>  >>  >>  > систему: на том же железе и в точности с той же конфигурацией, 
> плюс к
>  >>  >>  > этому, у меня ещё не было ни одного случая, чтобы полностью 
> загнулся Debian.
>  >>  >>  > Падение скорости восстановления здесь для меня терпимо.
>  >>  >> 
>  >>  >> Системы обычно падают в самый неподходящий момент :) И даже если ты
>  >>  >> давно хотел ее обновить, выгоднее сначала тупо, но быстро восстановить
>  >>  >> прежнюю работоспособную конфигурацию, а потом уже обновлять.
>  >>  >> 
>  >>  > Ok. С этим я согласен. Но остаётся несколько проблем (наверняка уже
>  >>  > кем-то решённых).
>  >>  > Бэкап-систему я внедряю не с нуля, а в действующую "инфраструктуру"
>  >>  > (пусть и маленькую).
>  >> 
>  >>  > Отсюда:
>  >> 
>  >>  > - Если какая-то дрянь сейчас поселилась в системе (а система с 2011-го
>  >>  > года не переустанавливалась, редко выключалась, кроме последних лет, и
>  >>  > долго подключена к Интернет), есть риск, что она пойдёт в бэкап, будет
>  >>  > заботливо сохранена, и воспроизведётся при каждом полном 
> восстановлении.
>  >> 
>  >> Не "есть риск", а "есть гарантия". Однако, в такой ситуации взять только
>  >> конфиги из полного бэкапа можно. А вот взять полную систему, чтобы
>  >> быстро восстановиться, если есть бэкап только конфигов, не получится.
>  >> 
>  > В случае же переустановки, из бэкапа ничего не прилетит.
> 
> Очень не факт. Зараза с легкостью может окопаться и в /etc (в случае
> винды - системном реестре).
> 
Но в /etc бинарник же будет видно, а в случае системного реестра, ей всё
равно файл нужен, который будет запускаться, разве нет?

>  >> Ну и думай, что дороже: дополнительное дисковое пространство для
>  >> хранения бэкапа системы, или твои время и нервы на более сложную
>  >> процедуру восстановления.
>  >> 
>  > С одной стороны, жалеть на 10 Тб с избыточностью и с дальнейшим ростом
>  > пространства хранилища, какие-то 50 Гб на машину странно.
>  > С другой, я не вижу, чтобы реально усложнилась процедура восстановления:
>  > накатил свежую ОС, накатил конфигурацию и пакеты, всё.
> 
> Твоих телодвижений больше. "Накатил свежую ОС" - это существенно больше
> одной команды, и внимания оно хочет не единым куском, а урывками.
> 
В общем, мне надо подумать над этим вопросом. Пока однозначного решения,
как сделать, я принять не могу. У обоих подходов есть плюсы и минусы.

>  >>  > - В этой старой системе я хочу многое переделать, например дисковую
>  >>  > организацию, что потребует переустановки при сохранении большинства
>  >>  > конфигов.
>  >> 
>  >> Переустановки-то зачем? Переразметил диск иначе, накатил полный бэкап,
>  >> поправил один-единственный /etc/fstab, и поехали. Ну, может быть, еще
>  >> перегенерировал initrd из чрута до первой перезагрузки, если в разметке
>  >> добавилось что-то новое, драйвера чего в старом initrd отсутствовали.
>  >> 
>  > Там много что надо поменять.
> 
> В моей практике это все же обычно лучше делать по одному блоку
> функциональности за раз.
>>  > Плюс, лишних пакетов море скопилось, со старых версий (это ещё
>  > squeeze) что-то определённо тянется.
> 
> dpkg -l, и вдумчиво apt-get remove --purge. Это проще, чем наоборот.
> 
В любом случае, это уже отдельный вопрос: до того, как с основными
задачами NAS разберусь, я этим заниматься не буду.

>  >>  >> Когда я в свое время разрабатывал регламент бэкапов для своей 
> конторы, я
>  >>  >> на бакулу и рдифф-бэкап тоже глянул. Косой взгляд на документацию 
> бакулы
>  >>  >> и набор пакетов привел меня к выводу, что потребуется специальный
>  >>  >> бэкап-админ как минимум на полставки. Кончилось регламентом на базе
>  >>  >> tar. Там был тот еще зоопарк, включая аппаратный спарк с солярисом и
>  >>  >> виртуалки с виндой.
>  >>  >> 
>  >>  > А форки, которые здесь рекламируют?
>  >>  > http://www.urbackup.org/
>  >>  > https://time404.ru/1776/
>  >> 
>  >> А можно я не буду на них смотреть? Но по идее, если форк, тем более
>  >> более позд

Re: Backup

2018-02-20 Пенетрантность artiom


18.02.2018 23:07, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org  @ Sun, 18 Feb 2018 21:23:52 +0300:
> 
>  >>  >>  >>  >> - rsync поддерживает использование ssh как транспорт, 
> существуют так же
>  >>  >>  >>  >> надстройки разные
>  >>  >>  >>  >> 
>  >>  >>  >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над 
> ним
>  >>  >>  >>  > придётся всё доделывать самостоятельно, а в той же Bacula 
> большинство
>  >>  >>  >>  > функций реализовано и отлажено.
>  >>  >>  >> 
>  >>  >>  >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". 
> Это всё так
>  >>  >>  >>  >> абстрактно...
>  >>  >>  >>  >> 
>  >>  >>  >>  > 1. Шифрование бэкапов.
>  >>  >>  >>  > 2. Репликация в выбранное облако (например, dropbox).
>  >>  >>  >> 
>  >>  >>  >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется 
> надёжное шифрование.
>  >>  >>  >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
>  >>  >>  >>  > репликацию/наличие API спросить не могу.
>  >>  >>  >> 
>  >>  >>  >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять 
> по
>  >>  >>  >> сети", и "восстанавливать за разумное время" - выберите любые два 
> из
>  >>  >>  >> трех.
>  >>  >>  > Первые два, но время именно "разумное", я же не говорю "быстро".
>  >>  >> 
>  >>  >> Я тоже говорю "разумное". Выберите любые два из трех.
>  >>  >> 
>  >>  > В процессе изучения вопроса я обнаружил, что есть такая технология, как
>  >>  > дедупликация на клиенте.
>  >>  > И вообще, как ни странно, в случае с файлопомойками, дедап позволяет
>  >>  > экономить до 98% дискового пространства.
>  >> 
>  >> Это, гм, новость. По моим представлениям, дедупликация на файлопомойке
>  >> (где вообще-то каждый файл в среднем чуть более чем в одном экземпляре)
>  >> дает от силы процентов 10, если она пофайловая, и процентов 20, если
>  >> поблочная. А более вероятно - 3 и 5% соответственно. 98% - это надо
>  >> чтобы каждый файл (или блок) хранился в среднем в 50 экземплярах. Я могу
>  >> себе такое представить на хранилище, откуда работают сотни виртуальных
>  >> машин, но на файлопомойке?
>  >> 
>  > Видимо, там большая файлопомойка с большим числом пользователей.
>  > Пользователи, как правило, не создают контент.
>  > Потому, файлы (и, тем более, блоки) часто дублируются.
> 
> На файлопомойках пользователи как раз обычно создают контент. Если не
> сам контент целиком, то выборка-то у всех разная. И для 50-кратного
> дублирования надо устраивать очень специфический набор пользователей. Я
> бы, пожалуй, взялся только роботами такое обеспечить, причем специально
> криво написанными.
> 
Возможно.

>  >> Вот дедупликация на ее бэкапе - да, в разы. Но опять же, при разумной
>  >> политике хранения бэкапов ну, в 10 раз (если история бэкапов - штук
>  >> 15). Но не в 50.
>  >>
>  > Ещё неплохо, чтобы дедупликация делалась на клиенте.
> 
> Тут, кстати, палка как минимум о двух концах. Я, например, дома
> предпочитаю, чтобы отобранные фотографии из поездок хранились отдельно
> от совпадающих с ними файлов из подборки оригиналов даже в бэкапе. Из
> соображений "в случае сбоя диска будет второй экземпляр". Если сделать
> полную дедупликацию, сбой диска убьет единственный.
> 
Возможно, при ограниченных ресурсах по аппаратуре это применимо, но в
целом, я считаю, подход неправильный.
Надёжность хранилища должна нижним уровнем обеспечиваться.
Явно не прикладным, на котором работает система резервного копирования.



Re: Backup

2018-02-20 Пенетрантность artiom
>  >>  > Касательно проверок: как это делается?
>  >>  > На практике, там где это было, как проводится такая проверка в
>  >>  > существующей инфраструктуре?
>  >> 
>  >> Тупо и цинично. Берется специальная тренировочная машина, типа с пустым
>  >> диском (обычно виртуалка, но по возможности иногда и на железе стоит
>  >> прогнать), и на нее выполняется регламент восстановления. Если не
>  >> сработал - все бросаем, чиним, корректируем регламент.
>  >> 
>  >> Если речь идет о восстановлении пользовательских данных, а не всей
>  >> системы, то машина берется не пустая, а с установленной ОС. В этом
>  >> случае регламент восстановления должен включать установку необходимого
>  >> софта поверх базовой установки ОС (буде он нужен), если он еще не
>  >> установлен. Это тоже надо проверять, а то разное может получиться.
>  >> 
>  > В общем-то я это и хотел услышать. Есть "учебная" машина. Работа
>  > основной инфраструктуры ради проверки восстановления не прерывается.
> 
> Вообще говоря, возможны ситуации, когда приходится прерывать. Потому что
> оценить результат восстановления можно только протестировав, что все
> документированные функции целевой машины работают. А у нее могут быть
> сетевые сервисы, которые надо проверить по тому самому имени. Для чего
> "учебная" машина должна подменить в сети "боевую".
> 
> Тут можно в разных местах проводить границу, и получать разную степень
> уверенности в результате. Если, скажем, восстанавливается какой-нибудь
> трекер (веб-морда плюс база плюс почта), то можно в регламент
> восстановления включить часть "для учебной тревоги", где расписать
> перенастройку на тестовое имя хоста и на тестовый вариант рассылки по
> почте (что утраивает работу по написанию регламента и в полтора-два раза
> увеличивает работу по учебной тревоге). Но, скажем, проверить
> работоспособность восстановленного домен-контроллера виндовой сети без
> замены им настоящего я бы вот так вот сходу не взялся, так что надо
> приходить ночью, когда никого нет, и выключать настоящий.
> 
Это для весьма крупных сетей, а небольшая частна локалка, думаю,
обойдётся без проверки перенастроек после бэкапа (тестовую машину
возможно будет выделить, в принципе).



Re: Backup

2018-02-20 Пенетрантность artiom


20.02.2018 18:10, Коротаев Руслан пишет:
> В сообщении от [Вт 2018-02-20 16:34 +0200]
> Dmitry Nezhevenko  пишет:
> 
>> Нет. Это не Page Cache. Память уходит на внутренние индексы restic и
>> растет с ростом репозитория. Грубо говоря что-то мелкое вродее Raspberry
>> Pi сейчас невозможно забэкапить на терабайтный репозиторий. 
>>
>> Но планы починить это у авторов есть.
> 
>> prune по умолчанию не использует кэш. Он чем-то похож на git repack
>> (пересоздает pack файлы, выкидывая оттуда ненужные blob-ы). Учитывая, что
>> весь индекс сейчас загружается в RAM, я не вижу, чем ему поможет кэш на
>> SSD. 
> 
> Ясно. Тогда остаюсь на Minio, хотел использовать restic для шифрования,
> но видимо придется подождать когда они всё допилят.
> 
Почему вы используете Minio, как хранилище?
Почему вообще объектное хранилище?



Re: Backup

2018-02-20 Пенетрантность artiom


19.02.2018 13:58, Dmitry Nezhevenko пишет:
> On Sat, Feb 17, 2018 at 11:29:16PM +0300, artiom wrote:
>>>
>> Посмотрел про restic: выглядит интересно. Но почему-то я до сих пор о
>> ней не слышал. С ней есть какие-то проблемы?
> 
> Использую сейчас restic для бэкапа пары ноутбуков плюс домашнего NAS.
> Файлы достаточно сильно пересекаются, так что дедупликация очень сильно
> экономит место (репозиторий около 1.5 TB, до этого пользовался
> rdiff-backup и в сумме получалось около 2.5 TB). И это при том что restic
> не умеет сжатие. Вообще никак. 
> 
> Из плюсов что увидел для себя:
> 
> 1. Дедупликация. Это действительно очень удобно. До этого пытался руками
> отслеживать 'общие' каталоги на разных устройствах. Теперь это всё
> происходит автоматом. Экономится и трафик (если большой файл есть на двух
> хостах, то в хранилище его зальет кто-то один). Дедупликация на блочном
> уровне, так что нет никаких проблем с переименованием/перемещением файлов,
> нет проблем с образами виртуалок.
> 
> 2. Нет понятия полного/инкрементального бэкапа. Все они равноценные. По
> сети всегда гоняются только новые блоки.
> 
> 3. Все данные и метаданные у restic с контрольными суммами. 'restic check
> --read-data' может подтвердить, что бэкап полностью целый и с него 100%
> что можно восстановиться. 
> 
> 4. Стореджем может быть что угодно (sftp, webdav, всякие s3, backblaze).
> Сервера, как такового, нет. 
> 
> Минусы:
> 
> 1. Оно очень сильно кушает RAM на клиенте. При чем потребление
> пропорционально общему размеру репозитория. Для моих 1.5TB данных это
> около 4GB RAM при бэкапе.
> 
> 2. Не умеет бэкапить ACL, extended attributes.
> 
> 3 Удаление ненужных бэкапов (точнее prune, освобождение места после них) --
> штука медленная и, опять же, кушающая много RAM. При этом во время prune
> никто не может бэкапиться в этот же репозиторий.
> 
> 4. Ключи шифрования одни на все хосты (в общем случае любой хост может
> прочитать бэкапы 'соседей'). Если сильно нужно и бэкап на 'свой' сервер,
> то решается с помощью rest-server --append-only.
> 
> 5. Восстановление с помощью 'restic restore' очень медленное. Но есть fuse
> mount, который просто показывает бэкапы в виде иерархии host/дата.
> 
> Я для себя решил что мне более важен удобный backup чем restore. 
> 
Ok, спасибо, принял к сведению.
Любопытно, а в составе какого-нибудь BackupPC его возможно использовать?



Re: Backup

2018-02-20 Пенетрантность Коротаев Руслан
В сообщении от [Вт 2018-02-20 17:51 +0200]
Dmitry Nezhevenko  пишет:

> А при чем тут minio? restic -- средство бэкапа, а minio -- просто
> хранилище файлов.

Не только, ещё есть клиент [1], можно легко перемещать данные между
облаками, но нет шифрования и снапшотов как в restic.

[1]: https://docs.minio.io/docs/minio-client-quickstart-guide

-- 
Коротаев Руслан
https://blog.kr.pp.ru


smime.p7s
Description: S/MIME cryptographic signature


Re: Backup

2018-02-20 Пенетрантность Dmitry Nezhevenko
On Tue, Feb 20, 2018 at 08:10:24PM +0500, Коротаев Руслан wrote:
> > prune по умолчанию не использует кэш. Он чем-то похож на git repack
> > (пересоздает pack файлы, выкидывая оттуда ненужные blob-ы). Учитывая, что
> > весь индекс сейчас загружается в RAM, я не вижу, чем ему поможет кэш на
> > SSD. 
> 
> Ясно. Тогда остаюсь на Minio, хотел использовать restic для шифрования,
> но видимо придется подождать когда они всё допилят.
> 

А при чем тут minio? restic -- средство бэкапа, а minio -- просто
хранилище файлов.
 
-- 
WBR, Dmitry


signature.asc
Description: PGP signature


Re: Backup

2018-02-20 Пенетрантность Коротаев Руслан
В сообщении от [Вт 2018-02-20 16:34 +0200]
Dmitry Nezhevenko  пишет:

> Нет. Это не Page Cache. Память уходит на внутренние индексы restic и
> растет с ростом репозитория. Грубо говоря что-то мелкое вродее Raspberry
> Pi сейчас невозможно забэкапить на терабайтный репозиторий. 
> 
> Но планы починить это у авторов есть.

> prune по умолчанию не использует кэш. Он чем-то похож на git repack
> (пересоздает pack файлы, выкидывая оттуда ненужные blob-ы). Учитывая, что
> весь индекс сейчас загружается в RAM, я не вижу, чем ему поможет кэш на
> SSD. 

Ясно. Тогда остаюсь на Minio, хотел использовать restic для шифрования,
но видимо придется подождать когда они всё допилят.

-- 
Коротаев Руслан
https://blog.kr.pp.ru


smime.p7s
Description: S/MIME cryptographic signature


Re: Backup

2018-02-20 Пенетрантность Dmitry Nezhevenko
On Tue, Feb 20, 2018 at 07:10:24PM +0500, Коротаев Руслан wrote:
> Спасибо, хороший обзор. Вопрос: а может это Page Cache? Посмотрите вывод
> команды free, если память потребляется за счет buff/cache, то всё в
> порядке. У меня на виртуалке крутится Minio (прога схожая по
> функциональности с restic и также написана Go), почти вся память уходит
> в Page Cache.

Нет. Это не Page Cache. Память уходит на внутренние индексы restic и
растет с ростом репозитория. Грубо говоря что-то мелкое вродее Raspberry
Pi сейчас невозможно забэкапить на терабайтный репозиторий. 

Но планы починить это у авторов есть.

> > Ключи шифрования одни на все хосты (в общем случае любой хост может
> > прочитать бэкапы 'соседей'). 
> 
> Можно сделать репозиторий под каждый хост, но тогда теряются
> преимущества дедупликации. С точки зрения S3 и Minio, репозиторий это
> просто bucket, мне кажется здесь нужно найти компромисс между
> безопасностью и удобством.

Именно так. В моём случае всё бэкапится на отдельный жесткий диск в
домашнем NAS. При этом хранилище расшарено используя rest-server с
ключиком --append-only ( https://github.com/restic/rest-server ). В таком
случае даже имея ключ/пароль можно только дописывать данные. Прочитать/удалить 
ничего нельзя. 

Все другие операции (prune, восстановление) я делаю на самом NAS, указывая
в качестве репозитория каталог на диске.

Ну а по крону хранилище синхронизируется с облаком (backblaze).

> 
> > Удаление ненужных бэкапов (точнее prune, освобождение места после них)
> > -- штука медленная...  Восстановление с помощью 'restic restore' очень
> > медленное. 
> 
> На сайте restic сказано [1], что он хранит временные файлы и кэш в
> директориях по умолчанию, но их можно переназначить. Было бы интересно
> заменить их на SSD-диск и посмотреть насколько улучшилась
> производительность (конечно если у вас есть такая возможность).

prune по умолчанию не использует кэш. Он чем-то похож на git repack
(пересоздает pack файлы, выкидывая оттуда ненужные blob-ы). Учитывая, что
весь индекс сейчас загружается в RAM, я не вижу, чем ему поможет кэш на
SSD. 

-- 
WBR, Dmitry


signature.asc
Description: PGP signature


Re: Backup

2018-02-20 Пенетрантность Коротаев Руслан
В сообщении от [Пн 2018-02-19 12:58 +0200]
Dmitry Nezhevenko  пишет:

> Оно очень сильно кушает RAM на клиенте. При чем потребление
> пропорционально общему размеру репозитория. Для моих 1.5TB данных это
> около 4GB RAM при бэкапе.

Спасибо, хороший обзор. Вопрос: а может это Page Cache? Посмотрите вывод
команды free, если память потребляется за счет buff/cache, то всё в
порядке. У меня на виртуалке крутится Minio (прога схожая по
функциональности с restic и также написана Go), почти вся память уходит
в Page Cache.

> Ключи шифрования одни на все хосты (в общем случае любой хост может
> прочитать бэкапы 'соседей'). 

Можно сделать репозиторий под каждый хост, но тогда теряются
преимущества дедупликации. С точки зрения S3 и Minio, репозиторий это
просто bucket, мне кажется здесь нужно найти компромисс между
безопасностью и удобством.

> Удаление ненужных бэкапов (точнее prune, освобождение места после них)
> -- штука медленная...  Восстановление с помощью 'restic restore' очень
> медленное. 

На сайте restic сказано [1], что он хранит временные файлы и кэш в
директориях по умолчанию, но их можно переназначить. Было бы интересно
заменить их на SSD-диск и посмотреть насколько улучшилась
производительность (конечно если у вас есть такая возможность).

[1]: https://restic.readthedocs.io/en/stable/manual_rest.html

-- 
Коротаев Руслан
https://blog.kr.pp.ru


smime.p7s
Description: S/MIME cryptographic signature


Re: Backup

2018-02-19 Пенетрантность Artem Chuprina
Victor Wagner -> debian-russian@lists.debian.org  @ Mon, 19 Feb 2018 14:38:14 
+0300:

 >>  > В общем-то я это и хотел услышать. Есть "учебная" машина. Работа
 >>  > основной инфраструктуры ради проверки восстановления не
 >>  > прерывается.  
 >> 
 >> Вообще говоря, возможны ситуации, когда приходится прерывать. Потому
 >> что оценить результат восстановления можно только протестировав, что
 >> все документированные функции целевой машины работают. А у нее могут
 >> быть сетевые сервисы, которые надо проверить по тому самому имени.
 >> Для чего "учебная" машина должна подменить в сети "боевую".

 > А я вот подумал - а не дешевле ли будет подсунуть учебной
 > восстанавливаемой машине учебный интернет с учебными DNS-ами и учебным
 > mx-ом? Ну и парочкой учебных рабочих станций, куда админ после
 > восстановления может зайти и обратиться ко всем сервисам, которые надо.

 > Понятно, что это тоже излишние трудозатраты на учебную тревогу. Зато
 > результаты работы проверяются корректно, а учебная сеть делается один
 > раз на все бэкапимые машины.

Вариант, ага.



Re: Backup

2018-02-19 Пенетрантность Victor Wagner
On Sun, 18 Feb 2018 23:34:56 +0300
Artem Chuprina  wrote:


>  > В общем-то я это и хотел услышать. Есть "учебная" машина. Работа
>  > основной инфраструктуры ради проверки восстановления не
>  > прерывается.  
> 
> Вообще говоря, возможны ситуации, когда приходится прерывать. Потому
> что оценить результат восстановления можно только протестировав, что
> все документированные функции целевой машины работают. А у нее могут
> быть сетевые сервисы, которые надо проверить по тому самому имени.
> Для чего "учебная" машина должна подменить в сети "боевую".

А я вот подумал - а не дешевле ли будет подсунуть учебной
восстанавливаемой машине учебный интернет с учебными DNS-ами и учебным
mx-ом? Ну и парочкой учебных рабочих станций, куда админ после
восстановления может зайти и обратиться ко всем сервисам, которые надо.

Понятно, что это тоже излишние трудозатраты на учебную тревогу. Зато
результаты работы проверяются корректно, а учебная сеть делается один
раз на все бэкапимые машины.

--  



Re: Backup

2018-02-19 Пенетрантность Dmitry Nezhevenko
On Sat, Feb 17, 2018 at 11:29:16PM +0300, artiom wrote:
> > 
> Посмотрел про restic: выглядит интересно. Но почему-то я до сих пор о
> ней не слышал. С ней есть какие-то проблемы?

Использую сейчас restic для бэкапа пары ноутбуков плюс домашнего NAS.
Файлы достаточно сильно пересекаются, так что дедупликация очень сильно
экономит место (репозиторий около 1.5 TB, до этого пользовался
rdiff-backup и в сумме получалось около 2.5 TB). И это при том что restic
не умеет сжатие. Вообще никак. 

Из плюсов что увидел для себя:

1. Дедупликация. Это действительно очень удобно. До этого пытался руками
отслеживать 'общие' каталоги на разных устройствах. Теперь это всё
происходит автоматом. Экономится и трафик (если большой файл есть на двух
хостах, то в хранилище его зальет кто-то один). Дедупликация на блочном
уровне, так что нет никаких проблем с переименованием/перемещением файлов,
нет проблем с образами виртуалок.

2. Нет понятия полного/инкрементального бэкапа. Все они равноценные. По
сети всегда гоняются только новые блоки.

3. Все данные и метаданные у restic с контрольными суммами. 'restic check
--read-data' может подтвердить, что бэкап полностью целый и с него 100%
что можно восстановиться. 

4. Стореджем может быть что угодно (sftp, webdav, всякие s3, backblaze).
Сервера, как такового, нет. 

Минусы:

1. Оно очень сильно кушает RAM на клиенте. При чем потребление
пропорционально общему размеру репозитория. Для моих 1.5TB данных это
около 4GB RAM при бэкапе.

2. Не умеет бэкапить ACL, extended attributes.

3 Удаление ненужных бэкапов (точнее prune, освобождение места после них) --
штука медленная и, опять же, кушающая много RAM. При этом во время prune
никто не может бэкапиться в этот же репозиторий.

4. Ключи шифрования одни на все хосты (в общем случае любой хост может
прочитать бэкапы 'соседей'). Если сильно нужно и бэкап на 'свой' сервер,
то решается с помощью rest-server --append-only.

5. Восстановление с помощью 'restic restore' очень медленное. Но есть fuse
mount, который просто показывает бэкапы в виде иерархии host/дата.

Я для себя решил что мне более важен удобный backup чем restore. 

-- 
WBR, Dmitry


signature.asc
Description: PGP signature


Re: Backup

2018-02-18 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Sun, 18 Feb 2018 21:15:25 +0300:

 >>  >> Синхронизатор не отличает намеренное удаление или порчу от
 >>  >> ненамеренного, и аккуратно его синхронизирует. Из синхронизатора, в
 >>  >> отличие от бэкапа, нельзя достать файлы, которые были испорчены и успели
 >>  >> засинхронизироваться.
 >>  >> 
 >>  > Как отличает система резервного копирования?
 >>  > Или тоже не отличает, но это компенсируется историей бэкапов?
 >> 
 >> Именно. Предыдущий бэкап не изменяется. Либо по мере устаревания
 >> удаляется целиком, либо (если ему повезло оказаться, например, годичным)
 >> хранится "вечно".
 >> 
 > А какова частота полного, декремента и инкремента?

Зависит от характера изменения данных. На работе бэкап делался ежедневно
- восстанавливать работу всей конторы за неделю было сложно, поскольку
задач много, и за неделю тупо успеваешь забыть, что делал, не то что
как. Дома делается раз в неделю. Это, если применяются инкрементные,
частота инкрементных (у меня довольно давно применяются
обратно-инкрементные, там бэкап бывает только одного типа).

Если же говорить о декрементных и полных, то тут вопрос баланса трафика
туда и времени восстановления. Я бы сказал, что полные следует делать
настолько часто, насколько позволяет жаба по трафику. Деление на
декремент и инкремент проводить скорее из соображений "больше десятка
инкрементов за одну операцию восстановления не офигеть как удобно
накатывать". В man tar приводился для прикидки вариант "полные раз в
месяц, декременты раз в неделю, инкременты раз в день". Тогда при
восстановлении накатывается один полный, один декремент (он по
определению один) и не больше 6 инкрементов.

 >>  >>  >> Инкрементальный бэкап, который обеспечивает tar и основные
 >>  >>  >> продвинутые инкрементальные средства бэкапа, типа той же бакулы, 
 >> дает
 >>  >>  >> первое и второй ценой невозможности третьего. Обратный 
 >> инкрементальный,
 >>  >>  >> как у rsync, второе и третье ценой невозможности первого. Первое и
 >>  >>  >> третье можно делать, гоняя каждый раз полный бэкап.
 >>  >>  >>
 >>  >>  > Вы не вполне верно поняли требование, либо я не точно выразился.
 >>  >>  > Шифровать каналы отправки и шифровать при отправке на внешнее 
 >> хранилище
 >>  >>  > (облако).
 >>  >>  > Шифровать отдельно при хранении в NAS, не требуется.
 >>  >> 
 >>  >> Я понял. Я как бы намекаю, что при бэкапе на NAS и в облако имеет смысл,
 >>  >> вообще-то, выбирать разные два из трех. Но, естественно, получатся
 >>  >> разные технологии бэкапа :)
 >>  >> 
 >>  > Да, конечно, так и планировалось изначально.
 >> 
 >> Минус простота настройки.
 >> 
 > В рамках всей системы - терпимо. Не сразу. К тому же, настроить - один раз.

В изначальной постановке задачи простота настройки была одним из условий :)

 >>  >>  >> В многолетней практике (man tar, там эта практика еще со времен 
 >> бэкапов
 >>  >>  >> на магнитные ленты, но "гнать шифрованное в облако" - это примерно 
 >> оно
 >>  >>  >> по временнЫм характеристикам) обычно устраивают комбинированное 
 >> решение:
 >>  >>  >> раз в некоторое время гонят полный бэкап, а между ними
 >>  >>  >> инкрементальный. tar вот даже различает дифференциальный (разница с
 >>  >>  >> предыдущим полным) и инкрементальный (разница с предыдущим, каким 
 >> бы он
 >>  >>  >> ни был). Для разумного времени восстановления характерная частота
 >>  >>  >> полного - раз в месяц, дифференциального - в неделю, 
 >> инкрементального -
 >>  >>  >> ежедневно. В результате получается дорого, но не невменяемо дорого.
 >>  >>  >> 
 >>  >>  > Любопытно, на основе инструментов, которые тут советовали, возможно 
 >> это
 >>  >>  > построить не сильно напрягаясь?
 >>  >> 
 >>  >> Скажем так. Если инструмент, заявленный как инструмент для бэкапа, этого
 >>  >> не позволяет, его нужно выкинуть и посмотреть на другой.
 >>  >> 
 >>  > Согласен.
 >>  > Пока не вполне понятно, что из этого выкинуть.
 >>  > Кроме Bacula, но тут хвалят её форки.
 >> 
 >>  >> На глазок, при использовании собственно tar, gpg и любого способа
 >>  >> копирования такая конструкция собирается за неделю, включая написание
 >>  >> регламента. Но трафика будет изрядно.
 >>  >> 
 >>  > И не вполне портируемо.
 >> 
 >> Вполне портируемо. Ну, нерутованные андроиды и айфоны не осилят. И на
 >> винде не будут забэкаплены открытые в данный момент файлы.
 >> 
 > Всё-таки, не вижу пока чем хуже urbackup: агенты уже реализованы и
 > отлажены, web-интерфейс есть, по фичам всё нормально и статей о нём нет
 > типа "О том, как я неделю вдуплял в BareOS".

Я не имею цели отвратить тебя от urbackup. Которого я в глаза не видел.

 >>  >>  >> Но вообще, если уж ты собираешься делать бэкапы как следует, то надо
 >>  >>  >> понимать, что первое, что тут требуется - это дисциплина. Не такая, 
 >> как
 >>  >>  >> при работе в архиве, но все же изрядная.
 >>  >>  > Она мне, в принципе, требуется.
 >>  >>  > В плане организации я пытаюсь сейчас всё постепенно рассортировать
 >>  >>  > (сейчас закончил толь

Re: Backup

2018-02-18 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Sun, 18 Feb 2018 21:23:52 +0300:

 >>  >>  >>  >> - rsync поддерживает использование ssh как транспорт, 
 >> существуют так же
 >>  >>  >>  >> надстройки разные
 >>  >>  >>  >> 
 >>  >>  >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
 >>  >>  >>  > придётся всё доделывать самостоятельно, а в той же Bacula 
 >> большинство
 >>  >>  >>  > функций реализовано и отлажено.
 >>  >>  >> 
 >>  >>  >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". 
 >> Это всё так
 >>  >>  >>  >> абстрактно...
 >>  >>  >>  >> 
 >>  >>  >>  > 1. Шифрование бэкапов.
 >>  >>  >>  > 2. Репликация в выбранное облако (например, dropbox).
 >>  >>  >> 
 >>  >>  >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное 
 >> шифрование.
 >>  >>  >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
 >>  >>  >>  > репликацию/наличие API спросить не могу.
 >>  >>  >> 
 >>  >>  >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
 >>  >>  >> сети", и "восстанавливать за разумное время" - выберите любые два из
 >>  >>  >> трех.
 >>  >>  > Первые два, но время именно "разумное", я же не говорю "быстро".
 >>  >> 
 >>  >> Я тоже говорю "разумное". Выберите любые два из трех.
 >>  >> 
 >>  > В процессе изучения вопроса я обнаружил, что есть такая технология, как
 >>  > дедупликация на клиенте.
 >>  > И вообще, как ни странно, в случае с файлопомойками, дедап позволяет
 >>  > экономить до 98% дискового пространства.
 >> 
 >> Это, гм, новость. По моим представлениям, дедупликация на файлопомойке
 >> (где вообще-то каждый файл в среднем чуть более чем в одном экземпляре)
 >> дает от силы процентов 10, если она пофайловая, и процентов 20, если
 >> поблочная. А более вероятно - 3 и 5% соответственно. 98% - это надо
 >> чтобы каждый файл (или блок) хранился в среднем в 50 экземплярах. Я могу
 >> себе такое представить на хранилище, откуда работают сотни виртуальных
 >> машин, но на файлопомойке?
 >> 
 > Видимо, там большая файлопомойка с большим числом пользователей.
 > Пользователи, как правило, не создают контент.
 > Потому, файлы (и, тем более, блоки) часто дублируются.

На файлопомойках пользователи как раз обычно создают контент. Если не
сам контент целиком, то выборка-то у всех разная. И для 50-кратного
дублирования надо устраивать очень специфический набор пользователей. Я
бы, пожалуй, взялся только роботами такое обеспечить, причем специально
криво написанными.

 >> Вот дедупликация на ее бэкапе - да, в разы. Но опять же, при разумной
 >> политике хранения бэкапов ну, в 10 раз (если история бэкапов - штук
 >> 15). Но не в 50.
 >>
 > Ещё неплохо, чтобы дедупликация делалась на клиенте.

Тут, кстати, палка как минимум о двух концах. Я, например, дома
предпочитаю, чтобы отобранные фотографии из поездок хранились отдельно
от совпадающих с ними файлов из подборки оригиналов даже в бэкапе. Из
соображений "в случае сбоя диска будет второй экземпляр". Если сделать
полную дедупликацию, сбой диска убьет единственный.



Re: Backup

2018-02-18 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Sun, 18 Feb 2018 21:36:37 +0300:

 >>  >>  >>  >>> На Debian-based машинах хочу резервировать конфигурацию в /etc 
 >> и
 >>  >>  >>  >>> выбранные пользовательские данные.
 >>  >>  >>  >> 
 >>  >>  >>  >> Меня в свое время убедили что не надо экономить те считанные 
 >> гигабайты,
 >>  >>  >>  >> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
 >>  >>  >>  >> восстановления не разбираться если версии конфигурации в /etc 
 >> остались
 >>  >>  >>  >> от чуточку более старых пакетов, чем поставились из 
 >> дистрибутива при
 >>  >>  >>  >> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же 
 >> /usr).
 >>  >>  >>  > Как минимум, две машины (плюс, ещё /opt).
 >>  >>  >>  > В /usr я руками ничего не правлю обычно (за крайне редким 
 >> исключением
 >>  >>  >>  > для Oracle Java на рабочей машине).
 >>  >>  >>  > /var ещё надо бэкапить. Но /usr для чего?
 >>  >>  >> 
 >>  >>  >> Сказали же: если его нет в бэкапе, то восстановиться, раскатав 
 >> бэкап на
 >>  >>  >> чистый диск не получится. Придется ставить систему и накатывать
 >>  >>  >> конфиги. И тут упс... система оказалась поновее, конфиги частично
 >>  >>  >> несовместимы...
 >>  >>  >> 
 >>  >>  > Это не столь серьёзная проблема в моём случае: как правило, система
 >>  >>  > более ли менее новая.
 >>  >> 
 >>  >> Ключевые слова - "более или менее" :)
 >>  > Ok, система достаточно новая. Максимум - месяц без обновлений (это
 >>  > означает, что она не включалась, потому вероятность выхода из строя
 >>  > низка), и как правило, в таком случае я могу себе позволить затратить
 >>  > время на её восстановление. Больше - крайне редкие случаи.
 >> 
 >> Бэкап, с которого восстанавливаемся, может оказаться не офигительно
 >> свежим. Потом, легко забыть забэкапить что-нибудь важное из
 >> /usr/local...
 >> 
 > Если что-то установленное туда я долго не использую, значит оно мне не
 > так и нужно.

У меня там бывают (в /usr/local/sbin) скрипты, которые использую не я, а, 
например, cron...

 >>  >>  >>  >> В общем, анализировать бэкапные решения надо начинать не с "где
 >>  >>  >>  >> хранить" и "какой транспорт использовать" а с "как будет 
 >> выглядеть
 >>  >>  >>  >> процедура восстановления". Причем в двух вариантах 
 >>  >>  >>  >>
 >>  >>  >>  > Да, вообще явного анализа восстановления я не провёл.
 >>  >>  >>  > Неявно, подразумеваю, что буду переустанавливать систему и 
 >> накатывать
 >>  >>  >>  > данные, а не образ.
 >>  >>  >>  > Т.е., мне не требуется "полный бэкап", как это делают с большим 
 >> парком
 >>  >>  >>  > машин.
 >>  >>  >> 
 >>  >>  >> Практика восстановления показывает, что если бэкапятся настройки
 >>  >>  >> системы, то лучше бэкапить всю систему. Восстановление 
 >> работоспособного
 >>  >>  >> состояния получится на порядок быстрее. Пользовательские данные 
 >> можно (и
 >>  >>  >> часто полезно) бэкапить отдельно.
 >>  >>  >> 
 >>  >>  > Хорошо, но зачем мне 50+ Гб того, что я и так получу?
 >>  >>  > Мало того, не всегда мне нужно будет восстанавливать ту же самую
 >>  >>  > систему: на том же железе и в точности с той же конфигурацией, плюс к
 >>  >>  > этому, у меня ещё не было ни одного случая, чтобы полностью загнулся 
 >> Debian.
 >>  >>  > Падение скорости восстановления здесь для меня терпимо.
 >>  >> 
 >>  >> Системы обычно падают в самый неподходящий момент :) И даже если ты
 >>  >> давно хотел ее обновить, выгоднее сначала тупо, но быстро восстановить
 >>  >> прежнюю работоспособную конфигурацию, а потом уже обновлять.
 >>  >> 
 >>  > Ok. С этим я согласен. Но остаётся несколько проблем (наверняка уже
 >>  > кем-то решённых).
 >>  > Бэкап-систему я внедряю не с нуля, а в действующую "инфраструктуру"
 >>  > (пусть и маленькую).
 >> 
 >>  > Отсюда:
 >> 
 >>  > - Если какая-то дрянь сейчас поселилась в системе (а система с 2011-го
 >>  > года не переустанавливалась, редко выключалась, кроме последних лет, и
 >>  > долго подключена к Интернет), есть риск, что она пойдёт в бэкап, будет
 >>  > заботливо сохранена, и воспроизведётся при каждом полном восстановлении.
 >> 
 >> Не "есть риск", а "есть гарантия". Однако, в такой ситуации взять только
 >> конфиги из полного бэкапа можно. А вот взять полную систему, чтобы
 >> быстро восстановиться, если есть бэкап только конфигов, не получится.
 >> 
 > В случае же переустановки, из бэкапа ничего не прилетит.

Очень не факт. Зараза с легкостью может окопаться и в /etc (в случае
винды - системном реестре).

 >> Ну и думай, что дороже: дополнительное дисковое пространство для
 >> хранения бэкапа системы, или твои время и нервы на более сложную
 >> процедуру восстановления.
 >> 
 > С одной стороны, жалеть на 10 Тб с избыточностью и с дальнейшим ростом
 > пространства хранилища, какие-то 50 Гб на машину странно.
 > С другой, я не вижу, чтобы реально усложнилась процедура восстановления:
 > накатил свежую ОС, накатил конфигурацию и пакеты, всё.

Твоих телодвижений больше. "Накатил свежую ОС" - это существенно больше
одн

Re: Backup

2018-02-18 Пенетрантность artiom
>> Посмотрел про restic: выглядит интересно. Но почему-то я до сих пор о
>> ней не слышал. С ней есть какие-то проблемы?
> 
> Я сам его нашел только вчера, но отзывы о нем хорошие, вот например
> известный сервис Backblaze его рекомендует [2].
> 
Любопытно, что рекомендуют, статистику по дискам их я использовал:
сервис серьёзный.

>> Почитал про Minio. Имеет ли смысл? Мне кажется, что в моём случае
>> NextCloud будет лучше?
> 
> Пробуйте всё и выбирайте лучшее, для этого и нужны свободные программы.
> 
> [1]: https://apps.nextcloud.com/apps/audioplayer
> [2]: 
> https://www.backblaze.com/blog/backing-linux-backblaze-b2-duplicity-restic/
> 
Хочется меньше пробовать и сделать, наконец, этот долбаный NAS, чтобы
перейти к другим проектам.



Re: Backup

2018-02-18 Пенетрантность artiom
>  >>  >>  >>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
>  >>  >>  >>> выбранные пользовательские данные.
>  >>  >>  >> 
>  >>  >>  >> Меня в свое время убедили что не надо экономить те считанные 
> гигабайты,
>  >>  >>  >> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
>  >>  >>  >> восстановления не разбираться если версии конфигурации в /etc 
> остались
>  >>  >>  >> от чуточку более старых пакетов, чем поставились из дистрибутива 
> при
>  >>  >>  >> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же 
> /usr).
>  >>  >>  > Как минимум, две машины (плюс, ещё /opt).
>  >>  >>  > В /usr я руками ничего не правлю обычно (за крайне редким 
> исключением
>  >>  >>  > для Oracle Java на рабочей машине).
>  >>  >>  > /var ещё надо бэкапить. Но /usr для чего?
>  >>  >> 
>  >>  >> Сказали же: если его нет в бэкапе, то восстановиться, раскатав бэкап 
> на
>  >>  >> чистый диск не получится. Придется ставить систему и накатывать
>  >>  >> конфиги. И тут упс... система оказалась поновее, конфиги частично
>  >>  >> несовместимы...
>  >>  >> 
>  >>  > Это не столь серьёзная проблема в моём случае: как правило, система
>  >>  > более ли менее новая.
>  >> 
>  >> Ключевые слова - "более или менее" :)
>  > Ok, система достаточно новая. Максимум - месяц без обновлений (это
>  > означает, что она не включалась, потому вероятность выхода из строя
>  > низка), и как правило, в таком случае я могу себе позволить затратить
>  > время на её восстановление. Больше - крайне редкие случаи.
> 
> Бэкап, с которого восстанавливаемся, может оказаться не офигительно
> свежим. Потом, легко забыть забэкапить что-нибудь важное из
> /usr/local...
> 
Если что-то установленное туда я долго не использую, значит оно мне не
так и нужно.

>  >>  >>  >> В общем, анализировать бэкапные решения надо начинать не с "где
>  >>  >>  >> хранить" и "какой транспорт использовать" а с "как будет выглядеть
>  >>  >>  >> процедура восстановления". Причем в двух вариантах 
>  >>  >>  >>
>  >>  >>  > Да, вообще явного анализа восстановления я не провёл.
>  >>  >>  > Неявно, подразумеваю, что буду переустанавливать систему и 
> накатывать
>  >>  >>  > данные, а не образ.
>  >>  >>  > Т.е., мне не требуется "полный бэкап", как это делают с большим 
> парком
>  >>  >>  > машин.
>  >>  >> 
>  >>  >> Практика восстановления показывает, что если бэкапятся настройки
>  >>  >> системы, то лучше бэкапить всю систему. Восстановление 
> работоспособного
>  >>  >> состояния получится на порядок быстрее. Пользовательские данные можно 
> (и
>  >>  >> часто полезно) бэкапить отдельно.
>  >>  >> 
>  >>  > Хорошо, но зачем мне 50+ Гб того, что я и так получу?
>  >>  > Мало того, не всегда мне нужно будет восстанавливать ту же самую
>  >>  > систему: на том же железе и в точности с той же конфигурацией, плюс к
>  >>  > этому, у меня ещё не было ни одного случая, чтобы полностью загнулся 
> Debian.
>  >>  > Падение скорости восстановления здесь для меня терпимо.
>  >> 
>  >> Системы обычно падают в самый неподходящий момент :) И даже если ты
>  >> давно хотел ее обновить, выгоднее сначала тупо, но быстро восстановить
>  >> прежнюю работоспособную конфигурацию, а потом уже обновлять.
>  >> 
>  > Ok. С этим я согласен. Но остаётся несколько проблем (наверняка уже
>  > кем-то решённых).
>  > Бэкап-систему я внедряю не с нуля, а в действующую "инфраструктуру"
>  > (пусть и маленькую).
> 
>  > Отсюда:
> 
>  > - Если какая-то дрянь сейчас поселилась в системе (а система с 2011-го
>  > года не переустанавливалась, редко выключалась, кроме последних лет, и
>  > долго подключена к Интернет), есть риск, что она пойдёт в бэкап, будет
>  > заботливо сохранена, и воспроизведётся при каждом полном восстановлении.
> 
> Не "есть риск", а "есть гарантия". Однако, в такой ситуации взять только
> конфиги из полного бэкапа можно. А вот взять полную систему, чтобы
> быстро восстановиться, если есть бэкап только конфигов, не получится.
> 
В случае же переустановки, из бэкапа ничего не прилетит.
Возможно, конечно, бороться "антивирусными" мерами...

> Ну и думай, что дороже: дополнительное дисковое пространство для
> хранения бэкапа системы, или твои время и нервы на более сложную
> процедуру восстановления.
> 
С одной стороны, жалеть на 10 Тб с избыточностью и с дальнейшим ростом
пространства хранилища, какие-то 50 Гб на машину странно.
С другой, я не вижу, чтобы реально усложнилась процедура восстановления:
накатил свежую ОС, накатил конфигурацию и пакеты, всё.
Кроме того,

>  > - В этой старой системе я хочу многое переделать, например дисковую
>  > организацию, что потребует переустановки при сохранении большинства
>  > конфигов.
> 
> Переустановки-то зачем? Переразметил диск иначе, накатил полный бэкап,
> поправил один-единственный /etc/fstab, и поехали. Ну, может быть, еще
> перегенерировал initrd из чрута до первой перезагрузки, если в разметке
> добавилось что-то новое, драйвера чего в старом initrd отсутствовали.
> 
Там много что надо поменять

Re: Backup

2018-02-18 Пенетрантность artiom


17.02.2018 19:19, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org  @ Sat, 17 Feb 2018 11:56:37 +0300:
> 
>  >>  >>  >> - rsync поддерживает использование ssh как транспорт, существуют 
> так же
>  >>  >>  >> надстройки разные
>  >>  >>  >> 
>  >>  >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
>  >>  >>  > придётся всё доделывать самостоятельно, а в той же Bacula 
> большинство
>  >>  >>  > функций реализовано и отлажено.
>  >>  >> 
>  >>  >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это 
> всё так
>  >>  >>  >> абстрактно...
>  >>  >>  >> 
>  >>  >>  > 1. Шифрование бэкапов.
>  >>  >>  > 2. Репликация в выбранное облако (например, dropbox).
>  >>  >> 
>  >>  >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное 
> шифрование.
>  >>  >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
>  >>  >>  > репликацию/наличие API спросить не могу.
>  >>  >> 
>  >>  >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
>  >>  >> сети", и "восстанавливать за разумное время" - выберите любые два из
>  >>  >> трех.
>  >>  > Первые два, но время именно "разумное", я же не говорю "быстро".
>  >> 
>  >> Я тоже говорю "разумное". Выберите любые два из трех.
>  >> 
>  > В процессе изучения вопроса я обнаружил, что есть такая технология, как
>  > дедупликация на клиенте.
>  > И вообще, как ни странно, в случае с файлопомойками, дедап позволяет
>  > экономить до 98% дискового пространства.
> 
> Это, гм, новость. По моим представлениям, дедупликация на файлопомойке
> (где вообще-то каждый файл в среднем чуть более чем в одном экземпляре)
> дает от силы процентов 10, если она пофайловая, и процентов 20, если
> поблочная. А более вероятно - 3 и 5% соответственно. 98% - это надо
> чтобы каждый файл (или блок) хранился в среднем в 50 экземплярах. Я могу
> себе такое представить на хранилище, откуда работают сотни виртуальных
> машин, но на файлопомойке?
> 
Видимо, там большая файлопомойка с большим числом пользователей.
Пользователи, как правило, не создают контент.
Потому, файлы (и, тем более, блоки) часто дублируются.

> Вот дедупликация на ее бэкапе - да, в разы. Но опять же, при разумной
> политике хранения бэкапов ну, в 10 раз (если история бэкапов - штук
> 15). Но не в 50.
>
Ещё неплохо, чтобы дедупликация делалась на клиенте.



Re: Backup

2018-02-18 Пенетрантность artiom
>  >>  >>  >> - NextCloud
>  >>  >>  > Хотелось бы услышать отзывы, стоит ли его использовать, что оно 
> даёт,
>  >>  >>  > почему называется "облаком", легко ли его интегрировать с той же 
> Bacula
>  >>  >>  > (агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
>  >>  >>  > использовать в составе NAS.
>  >>  >> 
>  >>  >>  >> - SyncThing
>  >>  >>  > Сам уже нашёл.
>  >>  >>  > Хотелось бы о нём услышать отзывы использующих.
>  >>  >>  > По мне: весьма интересная штука.
>  >>  >> 
>  >>  >> Два последних: не путаем бэкап с синхронизацией. Для бэкапа не 
> годится.
>  >>  >> 
>  >>  > По каким причинам?
>  >>  > Тут бы неплохо прояснить разницу.
>  >>  > Если из бэкапа требуется доставать отдельные файлы, то границу мне
>  >>  > сложно провести.
>  >> 
>  >> Синхронизатор не отличает намеренное удаление или порчу от
>  >> ненамеренного, и аккуратно его синхронизирует. Из синхронизатора, в
>  >> отличие от бэкапа, нельзя достать файлы, которые были испорчены и успели
>  >> засинхронизироваться.
>  >> 
>  > Как отличает система резервного копирования?
>  > Или тоже не отличает, но это компенсируется историей бэкапов?
> 
> Именно. Предыдущий бэкап не изменяется. Либо по мере устаревания
> удаляется целиком, либо (если ему повезло оказаться, например, годичным)
> хранится "вечно".
> 
А какова частота полного, декремента и инкремента?

>  >>  >> Инкрементальный бэкап, который обеспечивает tar и основные
>  >>  >> продвинутые инкрементальные средства бэкапа, типа той же бакулы, дает
>  >>  >> первое и второй ценой невозможности третьего. Обратный 
> инкрементальный,
>  >>  >> как у rsync, второе и третье ценой невозможности первого. Первое и
>  >>  >> третье можно делать, гоняя каждый раз полный бэкап.
>  >>  >>
>  >>  > Вы не вполне верно поняли требование, либо я не точно выразился.
>  >>  > Шифровать каналы отправки и шифровать при отправке на внешнее хранилище
>  >>  > (облако).
>  >>  > Шифровать отдельно при хранении в NAS, не требуется.
>  >> 
>  >> Я понял. Я как бы намекаю, что при бэкапе на NAS и в облако имеет смысл,
>  >> вообще-то, выбирать разные два из трех. Но, естественно, получатся
>  >> разные технологии бэкапа :)
>  >> 
>  > Да, конечно, так и планировалось изначально.
> 
> Минус простота настройки.
> 
В рамках всей системы - терпимо. Не сразу. К тому же, настроить - один раз.

>  >>  >> В многолетней практике (man tar, там эта практика еще со времен 
> бэкапов
>  >>  >> на магнитные ленты, но "гнать шифрованное в облако" - это примерно оно
>  >>  >> по временнЫм характеристикам) обычно устраивают комбинированное 
> решение:
>  >>  >> раз в некоторое время гонят полный бэкап, а между ними
>  >>  >> инкрементальный. tar вот даже различает дифференциальный (разница с
>  >>  >> предыдущим полным) и инкрементальный (разница с предыдущим, каким бы 
> он
>  >>  >> ни был). Для разумного времени восстановления характерная частота
>  >>  >> полного - раз в месяц, дифференциального - в неделю, инкрементального 
> -
>  >>  >> ежедневно. В результате получается дорого, но не невменяемо дорого.
>  >>  >> 
>  >>  > Любопытно, на основе инструментов, которые тут советовали, возможно это
>  >>  > построить не сильно напрягаясь?
>  >> 
>  >> Скажем так. Если инструмент, заявленный как инструмент для бэкапа, этого
>  >> не позволяет, его нужно выкинуть и посмотреть на другой.
>  >> 
>  > Согласен.
>  > Пока не вполне понятно, что из этого выкинуть.
>  > Кроме Bacula, но тут хвалят её форки.
> 
>  >> На глазок, при использовании собственно tar, gpg и любого способа
>  >> копирования такая конструкция собирается за неделю, включая написание
>  >> регламента. Но трафика будет изрядно.
>  >> 
>  > И не вполне портируемо.
> 
> Вполне портируемо. Ну, нерутованные андроиды и айфоны не осилят. И на
> винде не будут забэкаплены открытые в данный момент файлы.
> 
Всё-таки, не вижу пока чем хуже urbackup: агенты уже реализованы и
отлажены, web-интерфейс есть, по фичам всё нормально и статей о нём нет
типа "О том, как я неделю вдуплял в BareOS".

>  >>  >> Но вообще, если уж ты собираешься делать бэкапы как следует, то надо
>  >>  >> понимать, что первое, что тут требуется - это дисциплина. Не такая, 
> как
>  >>  >> при работе в архиве, но все же изрядная.
>  >>  > Она мне, в принципе, требуется.
>  >>  > В плане организации я пытаюсь сейчас всё постепенно рассортировать
>  >>  > (сейчас закончил только с музыкой и видео, проекты в нормальном
>  >>  > состоянии, книги и документы в процессе сортировки).
>  >>  > Поэтому, что бэкапить, я могу сказать.
>  >> 
>  >> Там не просто "что бэкапить". Там еще "как бэкапить" и "как и когда
>  >> проверять восстанавливаемость из бэкапа". Два письменных документа, ага.
>  >> 
>  > Ну ok, политика и регламент бэкапа?
>  > Если делать на серьёзном уровне, конечно полезно.
>  > В принципе, это в любом случае полезно, так что пока ещё NAS не
>  > завершён, в рамках этого проекта возможно и системой резервного
>  > копирования более серьёзно заняться.
> 
> Тут ведь как..

Re: Backup

2018-02-18 Пенетрантность Коротаев Руслан
В сообщении от [Сб 2018-02-17 23:29 +0300]
artiom  пишет:

> А вот про плеер возможно подробнее?
> Я mpd хочу впилить.

Обычный плеер [1] только в браузере.

> Посмотрел про restic: выглядит интересно. Но почему-то я до сих пор о
> ней не слышал. С ней есть какие-то проблемы?

Я сам его нашел только вчера, но отзывы о нем хорошие, вот например
известный сервис Backblaze его рекомендует [2].

> Почитал про Minio. Имеет ли смысл? Мне кажется, что в моём случае
> NextCloud будет лучше?

Пробуйте всё и выбирайте лучшее, для этого и нужны свободные программы.

[1]: https://apps.nextcloud.com/apps/audioplayer
[2]: https://www.backblaze.com/blog/backing-linux-backblaze-b2-duplicity-restic/

-- 
Коротаев Руслан
https://blog.kr.pp.ru


smime.p7s
Description: S/MIME cryptographic signature


Re: Backup

2018-02-17 Пенетрантность artiom


17.02.2018 13:29, Коротаев Руслан пишет:
> В сообщении от [Пт 2018-02-16 20:52 +0300]
> artiom  пишет:
> 
>> Ага, отлично. Т.е., имеет смысл ставить его независимо от бэкапилки?
> 
> Nextcloud? Да, конечно. Он всё-в-одном, не нужно носить с собой ноутбук,
> у меня там почта, RSS-читалка, музыкальный плеер, контакты, календарь.
> Для меня это мобильное рабочее место, нужен только браузер
> (двухфакторная аутентификация тоже есть). 
> 
А вот про плеер возможно подробнее?
Я mpd хочу впилить.

> Плюс приватность, когда вы загружаете файлы в публичный сервис, то они
> уже не только ваши, но и чьи-то ещё. Но в Nextcloud есть плагин «внешние
> хранилища», можно дополнительно подключить Dropbox, Amazon S3 …  
> 
Работа с файлами через внешние хранилища даже не обсуждается: они
исключительно для хранения зашифрованного бэкапа.

>> Вопрос по протоколам в том, нужны ли все эти FTPS и прочие в "облаке",
>> когда NAS может предоставить их отдельно (подняв FTP сервер, например)?
> 
> Если у вас NAS специально для бекапов, то наверное нет, всё зависит от
> контекста, здесь сколько людей столько и мнений. Для меня NAS это
> хлопотно (нужно думать какое железо под него купить, RAID или ZFS, а
> вдруг не хватит места и всё такое, да ещё вентилятор шумит), с облаками
> проще, больше вариантов использования [1].
> 
Вентиляторы особо не шумят, место занимает мало, но железо пришлось
выбирать долго и ZFS, тут не о чем думать.
Три основные задачи:

- Git.
- Бэкапы.
- Точка синхронизации.

Дополнительно (железо там мощное, пусть работает):

- Закачки.
- DLNA.
- Облако добавилось.
- Возможно, Mumble поставлю.

> Кстати, в этом треде возникла идея разделять синхронизацию и бекап.
> Бекап в отличии от синхронизации имеет дедупликацию, снапшоты,
> шифрование. Я нашел такую прогу — restic [2], он всё это может плюс
> сразу отправляет в облако.
> 
> [1]: https://habrahabr.ru/post/348542/
> [2]: https://restic.net/
> 
Посмотрел про restic: выглядит интересно. Но почему-то я до сих пор о
ней не слышал. С ней есть какие-то проблемы?

Почитал про Minio. Имеет ли смысл? Мне кажется, что в моём случае
NextCloud будет лучше?



Re: Backup

2018-02-17 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Sat, 17 Feb 2018 10:39:21 +0300:

 >>  >>  >>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
 >>  >>  >>> выбранные пользовательские данные.
 >>  >>  >> 
 >>  >>  >> Меня в свое время убедили что не надо экономить те считанные 
 >> гигабайты,
 >>  >>  >> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
 >>  >>  >> восстановления не разбираться если версии конфигурации в /etc 
 >> остались
 >>  >>  >> от чуточку более старых пакетов, чем поставились из дистрибутива при
 >>  >>  >> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же /usr).
 >>  >>  > Как минимум, две машины (плюс, ещё /opt).
 >>  >>  > В /usr я руками ничего не правлю обычно (за крайне редким исключением
 >>  >>  > для Oracle Java на рабочей машине).
 >>  >>  > /var ещё надо бэкапить. Но /usr для чего?
 >>  >> 
 >>  >> Сказали же: если его нет в бэкапе, то восстановиться, раскатав бэкап на
 >>  >> чистый диск не получится. Придется ставить систему и накатывать
 >>  >> конфиги. И тут упс... система оказалась поновее, конфиги частично
 >>  >> несовместимы...
 >>  >> 
 >>  > Это не столь серьёзная проблема в моём случае: как правило, система
 >>  > более ли менее новая.
 >> 
 >> Ключевые слова - "более или менее" :)
 > Ok, система достаточно новая. Максимум - месяц без обновлений (это
 > означает, что она не включалась, потому вероятность выхода из строя
 > низка), и как правило, в таком случае я могу себе позволить затратить
 > время на её восстановление. Больше - крайне редкие случаи.

Бэкап, с которого восстанавливаемся, может оказаться не офигительно
свежим. Потом, легко забыть забэкапить что-нибудь важное из
/usr/local...

 >>  >>  >> В общем, анализировать бэкапные решения надо начинать не с "где
 >>  >>  >> хранить" и "какой транспорт использовать" а с "как будет выглядеть
 >>  >>  >> процедура восстановления". Причем в двух вариантах 
 >>  >>  >>
 >>  >>  > Да, вообще явного анализа восстановления я не провёл.
 >>  >>  > Неявно, подразумеваю, что буду переустанавливать систему и накатывать
 >>  >>  > данные, а не образ.
 >>  >>  > Т.е., мне не требуется "полный бэкап", как это делают с большим 
 >> парком
 >>  >>  > машин.
 >>  >> 
 >>  >> Практика восстановления показывает, что если бэкапятся настройки
 >>  >> системы, то лучше бэкапить всю систему. Восстановление работоспособного
 >>  >> состояния получится на порядок быстрее. Пользовательские данные можно (и
 >>  >> часто полезно) бэкапить отдельно.
 >>  >> 
 >>  > Хорошо, но зачем мне 50+ Гб того, что я и так получу?
 >>  > Мало того, не всегда мне нужно будет восстанавливать ту же самую
 >>  > систему: на том же железе и в точности с той же конфигурацией, плюс к
 >>  > этому, у меня ещё не было ни одного случая, чтобы полностью загнулся 
 >> Debian.
 >>  > Падение скорости восстановления здесь для меня терпимо.
 >> 
 >> Системы обычно падают в самый неподходящий момент :) И даже если ты
 >> давно хотел ее обновить, выгоднее сначала тупо, но быстро восстановить
 >> прежнюю работоспособную конфигурацию, а потом уже обновлять.
 >> 
 > Ok. С этим я согласен. Но остаётся несколько проблем (наверняка уже
 > кем-то решённых).
 > Бэкап-систему я внедряю не с нуля, а в действующую "инфраструктуру"
 > (пусть и маленькую).

 > Отсюда:

 > - Если какая-то дрянь сейчас поселилась в системе (а система с 2011-го
 > года не переустанавливалась, редко выключалась, кроме последних лет, и
 > долго подключена к Интернет), есть риск, что она пойдёт в бэкап, будет
 > заботливо сохранена, и воспроизведётся при каждом полном восстановлении.

Не "есть риск", а "есть гарантия". Однако, в такой ситуации взять только
конфиги из полного бэкапа можно. А вот взять полную систему, чтобы
быстро восстановиться, если есть бэкап только конфигов, не получится.

Ну и думай, что дороже: дополнительное дисковое пространство для
хранения бэкапа системы, или твои время и нервы на более сложную
процедуру восстановления.

 > - В этой старой системе я хочу многое переделать, например дисковую
 > организацию, что потребует переустановки при сохранении большинства
 > конфигов.

Переустановки-то зачем? Переразметил диск иначе, накатил полный бэкап,
поправил один-единственный /etc/fstab, и поехали. Ну, может быть, еще
перегенерировал initrd из чрута до первой перезагрузки, если в разметке
добавилось что-то новое, драйвера чего в старом initrd отсутствовали.

 >>  >> Средства бэкапа (та же Bacula), по идее, должны давать. Но в свое время
 >>  >> я не стал настраивать ни ее, ни BackupPC именно из соображений сложной
 >>  >> настройки. Они, как я понимаю, хороши, когда у вас толпа разнородных
 >>  >> машин и есть человек, который регулярно подкручивает эту конструкцию. С
 >>  >> квалификацией админа и наличием _регулярно_ времени на эту работу.
 >>  >> 
 >>  > Насколько регулярно и насколько велик объём донастройки?
 >> 
 >> Мне пока не доводилось работать в таком месте, где работодатель считал
 >> бы, что это ему по карману :)
 >> 
 > Если я делаю

Re: Backup

2018-02-17 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Sat, 17 Feb 2018 11:16:16 +0300:

 >>  >>  >> - git-annex - то, что и можно предположить: костыль над гитом.
 >>  >>  > `Git's man page calls it "a stupid content tracker". With git-annex, 
 >> git
 >>  >>  > is instead "a stupid filename and metadata" tracker. The contents of
 >>  >>  > annexed files are not stored in git, only the names of the files and
 >>  >>  > some other metadata remain there.`
 >>  >> 
 >>  >>  > Насколько проще с этим будет работать, чем с Bacula?
 >>  >>  > Насколько переносимо и отлажено?
 >>  >>  > По функционалу вижу, что шифрует, хранит метаданные в гите, остальное
 >>  >>  > пока не ясно (к примеру, централизованного управления и интеграции в
 >>  >>  > web-интерфейс там, пожалуй, нет).
 >>  >> 
 >>  >> Не путаем бэкап с архивом. Для бэкапа не годится.
 >>  >> 
 >>  > По каким причинам?
 >> 
 >> Требует архивной дисциплины. Я использовал его, ага.
 >> 
 > git-annex?

Да. Архивные, т.е. _не изменяющиеся_, здоровенные бинарники, с
отслеживанием, где и сколько их копий, и комментированием, где что за
хрень. Он придуман для этой задачи, и ее выполняет хорошо.

Потом как-то продолбал дисциплину архивной работы, и теперь уже поди
найди хотя бы один репозиторий, где вся эта информация...

 >>  >>  >> - NextCloud
 >>  >>  > Хотелось бы услышать отзывы, стоит ли его использовать, что оно даёт,
 >>  >>  > почему называется "облаком", легко ли его интегрировать с той же 
 >> Bacula
 >>  >>  > (агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
 >>  >>  > использовать в составе NAS.
 >>  >> 
 >>  >>  >> - SyncThing
 >>  >>  > Сам уже нашёл.
 >>  >>  > Хотелось бы о нём услышать отзывы использующих.
 >>  >>  > По мне: весьма интересная штука.
 >>  >> 
 >>  >> Два последних: не путаем бэкап с синхронизацией. Для бэкапа не годится.
 >>  >> 
 >>  > По каким причинам?
 >>  > Тут бы неплохо прояснить разницу.
 >>  > Если из бэкапа требуется доставать отдельные файлы, то границу мне
 >>  > сложно провести.
 >> 
 >> Синхронизатор не отличает намеренное удаление или порчу от
 >> ненамеренного, и аккуратно его синхронизирует. Из синхронизатора, в
 >> отличие от бэкапа, нельзя достать файлы, которые были испорчены и успели
 >> засинхронизироваться.
 >> 
 > Как отличает система резервного копирования?
 > Или тоже не отличает, но это компенсируется историей бэкапов?

Именно. Предыдущий бэкап не изменяется. Либо по мере устаревания
удаляется целиком, либо (если ему повезло оказаться, например, годичным)
хранится "вечно".

 >>  >> Инкрементальный бэкап, который обеспечивает tar и основные
 >>  >> продвинутые инкрементальные средства бэкапа, типа той же бакулы, дает
 >>  >> первое и второй ценой невозможности третьего. Обратный инкрементальный,
 >>  >> как у rsync, второе и третье ценой невозможности первого. Первое и
 >>  >> третье можно делать, гоняя каждый раз полный бэкап.
 >>  >>
 >>  > Вы не вполне верно поняли требование, либо я не точно выразился.
 >>  > Шифровать каналы отправки и шифровать при отправке на внешнее хранилище
 >>  > (облако).
 >>  > Шифровать отдельно при хранении в NAS, не требуется.
 >> 
 >> Я понял. Я как бы намекаю, что при бэкапе на NAS и в облако имеет смысл,
 >> вообще-то, выбирать разные два из трех. Но, естественно, получатся
 >> разные технологии бэкапа :)
 >> 
 > Да, конечно, так и планировалось изначально.

Минус простота настройки.

 >>  >> В многолетней практике (man tar, там эта практика еще со времен бэкапов
 >>  >> на магнитные ленты, но "гнать шифрованное в облако" - это примерно оно
 >>  >> по временнЫм характеристикам) обычно устраивают комбинированное решение:
 >>  >> раз в некоторое время гонят полный бэкап, а между ними
 >>  >> инкрементальный. tar вот даже различает дифференциальный (разница с
 >>  >> предыдущим полным) и инкрементальный (разница с предыдущим, каким бы он
 >>  >> ни был). Для разумного времени восстановления характерная частота
 >>  >> полного - раз в месяц, дифференциального - в неделю, инкрементального -
 >>  >> ежедневно. В результате получается дорого, но не невменяемо дорого.
 >>  >> 
 >>  > Любопытно, на основе инструментов, которые тут советовали, возможно это
 >>  > построить не сильно напрягаясь?
 >> 
 >> Скажем так. Если инструмент, заявленный как инструмент для бэкапа, этого
 >> не позволяет, его нужно выкинуть и посмотреть на другой.
 >> 
 > Согласен.
 > Пока не вполне понятно, что из этого выкинуть.
 > Кроме Bacula, но тут хвалят её форки.

 >> На глазок, при использовании собственно tar, gpg и любого способа
 >> копирования такая конструкция собирается за неделю, включая написание
 >> регламента. Но трафика будет изрядно.
 >> 
 > И не вполне портируемо.

Вполне портируемо. Ну, нерутованные андроиды и айфоны не осилят. И на
винде не будут забэкаплены открытые в данный момент файлы.

 >>  >> Но вообще, если уж ты собираешься делать бэкапы как следует, то надо
 >>  >> понимать, что первое, что тут требуется - это дисциплина. Не такая, как
 >>  >> при работе в архиве, но 

Re: Backup

2018-02-17 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Sat, 17 Feb 2018 11:56:37 +0300:

 >>  >>  >> - rsync поддерживает использование ssh как транспорт, существуют 
 >> так же
 >>  >>  >> надстройки разные
 >>  >>  >> 
 >>  >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
 >>  >>  > придётся всё доделывать самостоятельно, а в той же Bacula большинство
 >>  >>  > функций реализовано и отлажено.
 >>  >> 
 >>  >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это 
 >> всё так
 >>  >>  >> абстрактно...
 >>  >>  >> 
 >>  >>  > 1. Шифрование бэкапов.
 >>  >>  > 2. Репликация в выбранное облако (например, dropbox).
 >>  >> 
 >>  >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное 
 >> шифрование.
 >>  >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
 >>  >>  > репликацию/наличие API спросить не могу.
 >>  >> 
 >>  >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
 >>  >> сети", и "восстанавливать за разумное время" - выберите любые два из
 >>  >> трех.
 >>  > Первые два, но время именно "разумное", я же не говорю "быстро".
 >> 
 >> Я тоже говорю "разумное". Выберите любые два из трех.
 >> 
 > В процессе изучения вопроса я обнаружил, что есть такая технология, как
 > дедупликация на клиенте.
 > И вообще, как ни странно, в случае с файлопомойками, дедап позволяет
 > экономить до 98% дискового пространства.

Это, гм, новость. По моим представлениям, дедупликация на файлопомойке
(где вообще-то каждый файл в среднем чуть более чем в одном экземпляре)
дает от силы процентов 10, если она пофайловая, и процентов 20, если
поблочная. А более вероятно - 3 и 5% соответственно. 98% - это надо
чтобы каждый файл (или блок) хранился в среднем в 50 экземплярах. Я могу
себе такое представить на хранилище, откуда работают сотни виртуальных
машин, но на файлопомойке?

Вот дедупликация на ее бэкапе - да, в разы. Но опять же, при разумной
политике хранения бэкапов ну, в 10 раз (если история бэкапов - штук
15). Но не в 50.

 > В моём случае, даже если 20% я сэкономлю - уже неплохо, но только не
 > средствами ZFS.



Re: Backup

2018-02-17 Пенетрантность artiom
>  >>  >> - rsync поддерживает использование ssh как транспорт, существуют так 
> же
>  >>  >> надстройки разные
>  >>  >> 
>  >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
>  >>  > придётся всё доделывать самостоятельно, а в той же Bacula большинство
>  >>  > функций реализовано и отлажено.
>  >> 
>  >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё 
> так
>  >>  >> абстрактно...
>  >>  >> 
>  >>  > 1. Шифрование бэкапов.
>  >>  > 2. Репликация в выбранное облако (например, dropbox).
>  >> 
>  >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное 
> шифрование.
>  >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
>  >>  > репликацию/наличие API спросить не могу.
>  >> 
>  >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
>  >> сети", и "восстанавливать за разумное время" - выберите любые два из
>  >> трех.
>  > Первые два, но время именно "разумное", я же не говорю "быстро".
> 
> Я тоже говорю "разумное". Выберите любые два из трех.
> 
В процессе изучения вопроса я обнаружил, что есть такая технология, как
дедупликация на клиенте.
И вообще, как ни странно, в случае с файлопомойками, дедап позволяет
экономить до 98% дискового пространства.
В моём случае, даже если 20% я сэкономлю - уже неплохо, но только не
средствами ZFS.



Re: Backup

2018-02-17 Пенетрантность artiom


17.02.2018 00:35, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 22:25:22 +0300:
> 
>  >>  >> - git-annex - то, что и можно предположить: костыль над гитом.
>  >>  > `Git's man page calls it "a stupid content tracker". With git-annex, 
> git
>  >>  > is instead "a stupid filename and metadata" tracker. The contents of
>  >>  > annexed files are not stored in git, only the names of the files and
>  >>  > some other metadata remain there.`
>  >> 
>  >>  > Насколько проще с этим будет работать, чем с Bacula?
>  >>  > Насколько переносимо и отлажено?
>  >>  > По функционалу вижу, что шифрует, хранит метаданные в гите, остальное
>  >>  > пока не ясно (к примеру, централизованного управления и интеграции в
>  >>  > web-интерфейс там, пожалуй, нет).
>  >> 
>  >> Не путаем бэкап с архивом. Для бэкапа не годится.
>  >> 
>  > По каким причинам?
> 
> Требует архивной дисциплины. Я использовал его, ага.
> 
git-annex?

>  >>  >> - SparkleShare - что-то весьма минималистичное
>  >>  > Неслабо минималистичное: свой Dropbox.
>  >>  > Правда, в качестве хранилища по умолчанию - git.
>  >>  > Интересная штука, но у меня пока слабое представление о том, что с ней
>  >>  > возможно сделать,  решит ли это мои задачи.
>  >> 
>  >> Вообще, должен сказать, что существующие системы контроля версий с
>  >> задачами бэкапа довольно плохо совместимы. Поскольку по построению
>  >> хранят _всю_ историю, и в случае хранения изменяющихся бинарников пухнут
>  >> со страшной силой. А на задачах бэкапа требуется хранить ее сравнительно
>  >> небольшую выборку, а промежуточные состояния периодически удалять.
>  >> 
>  > Тут не вполне верно. Гит же достаточно гибкий. Есть git-binary (как-то
>  > так) для внешнего хранения бинарей: они тоже могли реализовать своё
>  > бинарное хранилище, как модуль гита.
> 
> Я поэтому довольно осторожно сказал "плохо", а не "несовместимы". По
> поводу конкретно гита нагуглилось такое:
> 
> https://www.perforce.com/blog/storing-large-binary-files-in-git-repositories
> 
> По косому взгляду, для задач бэкапа одно другого хуже.
> 
Ну да, их много (правда, я думал, что меньше).
И нужны они всё-таки для задач разработки.
Бэкап тут за уши притянут, не спорю.

>  >>  >> - NextCloud
>  >>  > Хотелось бы услышать отзывы, стоит ли его использовать, что оно даёт,
>  >>  > почему называется "облаком", легко ли его интегрировать с той же Bacula
>  >>  > (агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
>  >>  > использовать в составе NAS.
>  >> 
>  >>  >> - SyncThing
>  >>  > Сам уже нашёл.
>  >>  > Хотелось бы о нём услышать отзывы использующих.
>  >>  > По мне: весьма интересная штука.
>  >> 
>  >> Два последних: не путаем бэкап с синхронизацией. Для бэкапа не годится.
>  >> 
>  > По каким причинам?
>  > Тут бы неплохо прояснить разницу.
>  > Если из бэкапа требуется доставать отдельные файлы, то границу мне
>  > сложно провести.
> 
> Синхронизатор не отличает намеренное удаление или порчу от
> ненамеренного, и аккуратно его синхронизирует. Из синхронизатора, в
> отличие от бэкапа, нельзя достать файлы, которые были испорчены и успели
> засинхронизироваться.
> 
Как отличает система резервного копирования?
Или тоже не отличает, но это компенсируется историей бэкапов?

>  >>  >> - rsync поддерживает использование ssh как транспорт, существуют так 
> же
>  >>  >> надстройки разные
>  >>  >> 
>  >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
>  >>  > придётся всё доделывать самостоятельно, а в той же Bacula большинство
>  >>  > функций реализовано и отлажено.
>  >> 
>  >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё 
> так
>  >>  >> абстрактно...
>  >>  >> 
>  >>  > 1. Шифрование бэкапов.
>  >>  > 2. Репликация в выбранное облако (например, dropbox).
>  >> 
>  >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное 
> шифрование.
>  >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
>  >>  > репликацию/наличие API спросить не могу.
>  >> 
>  >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
>  >> сети", и "восстанавливать за разумное время" - выберите любые два из
>  >> трех.
>  > Первые два, но время именно "разумное", я же не говорю "быстро".
> 
> Я тоже говорю "разумное". Выберите любые два из трех.
> 
Все три: "отправлять зашифрованное" я могу параллельно с созданием
бэкапа (места должно хватить, плюс снэпшоты ZFS).

>  >> Инкрементальный бэкап, который обеспечивает tar и основные
>  >> продвинутые инкрементальные средства бэкапа, типа той же бакулы, дает
>  >> первое и второй ценой невозможности третьего. Обратный инкрементальный,
>  >> как у rsync, второе и третье ценой невозможности первого. Первое и
>  >> третье можно делать, гоняя каждый раз полный бэкап.
>  >>
>  > Вы не вполне верно поняли требование, либо я не точно выразился.
>  > Шифровать каналы отправки и шифровать при отправке на внешнее хранилище
>  > (облако).
>  > Шифровать отдельно при хранении в NAS

Re: Backup

2018-02-16 Пенетрантность artiom


17.02.2018 00:50, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 21:54:34 +0300:
> 
>  >>  >>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
>  >>  >>> выбранные пользовательские данные.
>  >>  >> 
>  >>  >> Меня в свое время убедили что не надо экономить те считанные 
> гигабайты,
>  >>  >> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
>  >>  >> восстановления не разбираться если версии конфигурации в /etc остались
>  >>  >> от чуточку более старых пакетов, чем поставились из дистрибутива при
>  >>  >> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же /usr).
>  >>  > Как минимум, две машины (плюс, ещё /opt).
>  >>  > В /usr я руками ничего не правлю обычно (за крайне редким исключением
>  >>  > для Oracle Java на рабочей машине).
>  >>  > /var ещё надо бэкапить. Но /usr для чего?
>  >> 
>  >> Сказали же: если его нет в бэкапе, то восстановиться, раскатав бэкап на
>  >> чистый диск не получится. Придется ставить систему и накатывать
>  >> конфиги. И тут упс... система оказалась поновее, конфиги частично
>  >> несовместимы...
>  >> 
>  > Это не столь серьёзная проблема в моём случае: как правило, система
>  > более ли менее новая.
> 
> Ключевые слова - "более или менее" :)
Ok, система достаточно новая. Максимум - месяц без обновлений (это
означает, что она не включалась, потому вероятность выхода из строя
низка), и как правило, в таком случае я могу себе позволить затратить
время на её восстановление. Больше - крайне редкие случаи.

> 
>  >>  >> В общем, анализировать бэкапные решения надо начинать не с "где
>  >>  >> хранить" и "какой транспорт использовать" а с "как будет выглядеть
>  >>  >> процедура восстановления". Причем в двух вариантах 
>  >>  >>
>  >>  > Да, вообще явного анализа восстановления я не провёл.
>  >>  > Неявно, подразумеваю, что буду переустанавливать систему и накатывать
>  >>  > данные, а не образ.
>  >>  > Т.е., мне не требуется "полный бэкап", как это делают с большим парком
>  >>  > машин.
>  >> 
>  >> Практика восстановления показывает, что если бэкапятся настройки
>  >> системы, то лучше бэкапить всю систему. Восстановление работоспособного
>  >> состояния получится на порядок быстрее. Пользовательские данные можно (и
>  >> часто полезно) бэкапить отдельно.
>  >> 
>  > Хорошо, но зачем мне 50+ Гб того, что я и так получу?
>  > Мало того, не всегда мне нужно будет восстанавливать ту же самую
>  > систему: на том же железе и в точности с той же конфигурацией, плюс к
>  > этому, у меня ещё не было ни одного случая, чтобы полностью загнулся 
> Debian.
>  > Падение скорости восстановления здесь для меня терпимо.
> 
> Системы обычно падают в самый неподходящий момент :) И даже если ты
> давно хотел ее обновить, выгоднее сначала тупо, но быстро восстановить
> прежнюю работоспособную конфигурацию, а потом уже обновлять.
> 
Ok. С этим я согласен. Но остаётся несколько проблем (наверняка уже
кем-то решённых).
Бэкап-систему я внедряю не с нуля, а в действующую "инфраструктуру"
(пусть и маленькую).

Отсюда:

- Если какая-то дрянь сейчас поселилась в системе (а система с 2011-го
года не переустанавливалась, редко выключалась, кроме последних лет, и
долго подключена к Интернет), есть риск, что она пойдёт в бэкап, будет
заботливо сохранена, и воспроизведётся при каждом полном восстановлении.
- В этой старой системе я хочу многое переделать, например дисковую
организацию, что потребует переустановки при сохранении большинства
конфигов.

Как решаются эти проблемы?
Надо ли мне, в таком случае, делать полный бэкап?

>  >> Средства бэкапа (та же Bacula), по идее, должны давать. Но в свое время
>  >> я не стал настраивать ни ее, ни BackupPC именно из соображений сложной
>  >> настройки. Они, как я понимаю, хороши, когда у вас толпа разнородных
>  >> машин и есть человек, который регулярно подкручивает эту конструкцию. С
>  >> квалификацией админа и наличием _регулярно_ времени на эту работу.
>  >> 
>  > Насколько регулярно и насколько велик объём донастройки?
> 
> Мне пока не доводилось работать в таком месте, где работодатель считал
> бы, что это ему по карману :)
> 
Если я делаю для себя, читается, как: "Ты не будешь этим заниматься"?

> Когда я в свое время разрабатывал регламент бэкапов для своей конторы, я
> на бакулу и рдифф-бэкап тоже глянул. Косой взгляд на документацию бакулы
> и набор пакетов привел меня к выводу, что потребуется специальный
> бэкап-админ как минимум на полставки. Кончилось регламентом на базе
> tar. Там был тот еще зоопарк, включая аппаратный спарк с солярисом и
> виртуалки с виндой.
> 
А форки, которые здесь рекламируют?
http://www.urbackup.org/
https://time404.ru/1776/

> Ну, то есть, конторы, где эти или подобные технологии применялись, я
> видел, а вот чтобы успешно - нет. К счастью, по мне это не било. Один
> раз - только потому, что у меня был еще и свой бэкап.
> 
Но ведь система специально заточена под бэкап, долго живёт и развивается.
Почему не было успешно её применение?
Возмож

Re: Backup

2018-02-16 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 21:54:34 +0300:

 >>  >>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
 >>  >>> выбранные пользовательские данные.
 >>  >> 
 >>  >> Меня в свое время убедили что не надо экономить те считанные гигабайты,
 >>  >> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
 >>  >> восстановления не разбираться если версии конфигурации в /etc остались
 >>  >> от чуточку более старых пакетов, чем поставились из дистрибутива при
 >>  >> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же /usr).
 >>  > Как минимум, две машины (плюс, ещё /opt).
 >>  > В /usr я руками ничего не правлю обычно (за крайне редким исключением
 >>  > для Oracle Java на рабочей машине).
 >>  > /var ещё надо бэкапить. Но /usr для чего?
 >> 
 >> Сказали же: если его нет в бэкапе, то восстановиться, раскатав бэкап на
 >> чистый диск не получится. Придется ставить систему и накатывать
 >> конфиги. И тут упс... система оказалась поновее, конфиги частично
 >> несовместимы...
 >> 
 > Это не столь серьёзная проблема в моём случае: как правило, система
 > более ли менее новая.

Ключевые слова - "более или менее" :)

 >>  >> В общем, анализировать бэкапные решения надо начинать не с "где
 >>  >> хранить" и "какой транспорт использовать" а с "как будет выглядеть
 >>  >> процедура восстановления". Причем в двух вариантах 
 >>  >>
 >>  > Да, вообще явного анализа восстановления я не провёл.
 >>  > Неявно, подразумеваю, что буду переустанавливать систему и накатывать
 >>  > данные, а не образ.
 >>  > Т.е., мне не требуется "полный бэкап", как это делают с большим парком
 >>  > машин.
 >> 
 >> Практика восстановления показывает, что если бэкапятся настройки
 >> системы, то лучше бэкапить всю систему. Восстановление работоспособного
 >> состояния получится на порядок быстрее. Пользовательские данные можно (и
 >> часто полезно) бэкапить отдельно.
 >> 
 > Хорошо, но зачем мне 50+ Гб того, что я и так получу?
 > Мало того, не всегда мне нужно будет восстанавливать ту же самую
 > систему: на том же железе и в точности с той же конфигурацией, плюс к
 > этому, у меня ещё не было ни одного случая, чтобы полностью загнулся Debian.
 > Падение скорости восстановления здесь для меня терпимо.

Системы обычно падают в самый неподходящий момент :) И даже если ты
давно хотел ее обновить, выгоднее сначала тупо, но быстро восстановить
прежнюю работоспособную конфигурацию, а потом уже обновлять.

 >> Средства бэкапа (та же Bacula), по идее, должны давать. Но в свое время
 >> я не стал настраивать ни ее, ни BackupPC именно из соображений сложной
 >> настройки. Они, как я понимаю, хороши, когда у вас толпа разнородных
 >> машин и есть человек, который регулярно подкручивает эту конструкцию. С
 >> квалификацией админа и наличием _регулярно_ времени на эту работу.
 >> 
 > Насколько регулярно и насколько велик объём донастройки?

Мне пока не доводилось работать в таком месте, где работодатель считал
бы, что это ему по карману :)

Когда я в свое время разрабатывал регламент бэкапов для своей конторы, я
на бакулу и рдифф-бэкап тоже глянул. Косой взгляд на документацию бакулы
и набор пакетов привел меня к выводу, что потребуется специальный
бэкап-админ как минимум на полставки. Кончилось регламентом на базе
tar. Там был тот еще зоопарк, включая аппаратный спарк с солярисом и
виртуалки с виндой.

Ну, то есть, конторы, где эти или подобные технологии применялись, я
видел, а вот чтобы успешно - нет. К счастью, по мне это не било. Один
раз - только потому, что у меня был еще и свой бэкап.

Со своих "велосипедных" бэкапов восстанавливаться несколько раз
приходилось. Однажды полностью, и несколько раз вытаскивать из прошлых
бэкапов пользовательские файлы.



Re: Backup

2018-02-16 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 22:25:22 +0300:

 >>  >> - git-annex - то, что и можно предположить: костыль над гитом.
 >>  > `Git's man page calls it "a stupid content tracker". With git-annex, git
 >>  > is instead "a stupid filename and metadata" tracker. The contents of
 >>  > annexed files are not stored in git, only the names of the files and
 >>  > some other metadata remain there.`
 >> 
 >>  > Насколько проще с этим будет работать, чем с Bacula?
 >>  > Насколько переносимо и отлажено?
 >>  > По функционалу вижу, что шифрует, хранит метаданные в гите, остальное
 >>  > пока не ясно (к примеру, централизованного управления и интеграции в
 >>  > web-интерфейс там, пожалуй, нет).
 >> 
 >> Не путаем бэкап с архивом. Для бэкапа не годится.
 >> 
 > По каким причинам?

Требует архивной дисциплины. Я использовал его, ага.

 >>  >> - SparkleShare - что-то весьма минималистичное
 >>  > Неслабо минималистичное: свой Dropbox.
 >>  > Правда, в качестве хранилища по умолчанию - git.
 >>  > Интересная штука, но у меня пока слабое представление о том, что с ней
 >>  > возможно сделать,  решит ли это мои задачи.
 >> 
 >> Вообще, должен сказать, что существующие системы контроля версий с
 >> задачами бэкапа довольно плохо совместимы. Поскольку по построению
 >> хранят _всю_ историю, и в случае хранения изменяющихся бинарников пухнут
 >> со страшной силой. А на задачах бэкапа требуется хранить ее сравнительно
 >> небольшую выборку, а промежуточные состояния периодически удалять.
 >> 
 > Тут не вполне верно. Гит же достаточно гибкий. Есть git-binary (как-то
 > так) для внешнего хранения бинарей: они тоже могли реализовать своё
 > бинарное хранилище, как модуль гита.

Я поэтому довольно осторожно сказал "плохо", а не "несовместимы". По
поводу конкретно гита нагуглилось такое:

https://www.perforce.com/blog/storing-large-binary-files-in-git-repositories

По косому взгляду, для задач бэкапа одно другого хуже.

 >>  >> - NextCloud
 >>  > Хотелось бы услышать отзывы, стоит ли его использовать, что оно даёт,
 >>  > почему называется "облаком", легко ли его интегрировать с той же Bacula
 >>  > (агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
 >>  > использовать в составе NAS.
 >> 
 >>  >> - SyncThing
 >>  > Сам уже нашёл.
 >>  > Хотелось бы о нём услышать отзывы использующих.
 >>  > По мне: весьма интересная штука.
 >> 
 >> Два последних: не путаем бэкап с синхронизацией. Для бэкапа не годится.
 >> 
 > По каким причинам?
 > Тут бы неплохо прояснить разницу.
 > Если из бэкапа требуется доставать отдельные файлы, то границу мне
 > сложно провести.

Синхронизатор не отличает намеренное удаление или порчу от
ненамеренного, и аккуратно его синхронизирует. Из синхронизатора, в
отличие от бэкапа, нельзя достать файлы, которые были испорчены и успели
засинхронизироваться.

 >>  >> - rsync поддерживает использование ssh как транспорт, существуют так же
 >>  >> надстройки разные
 >>  >> 
 >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
 >>  > придётся всё доделывать самостоятельно, а в той же Bacula большинство
 >>  > функций реализовано и отлажено.
 >> 
 >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
 >>  >> абстрактно...
 >>  >> 
 >>  > 1. Шифрование бэкапов.
 >>  > 2. Репликация в выбранное облако (например, dropbox).
 >> 
 >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное 
 >> шифрование.
 >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
 >>  > репликацию/наличие API спросить не могу.
 >> 
 >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
 >> сети", и "восстанавливать за разумное время" - выберите любые два из
 >> трех.
 > Первые два, но время именно "разумное", я же не говорю "быстро".

Я тоже говорю "разумное". Выберите любые два из трех.

 >> Инкрементальный бэкап, который обеспечивает tar и основные
 >> продвинутые инкрементальные средства бэкапа, типа той же бакулы, дает
 >> первое и второй ценой невозможности третьего. Обратный инкрементальный,
 >> как у rsync, второе и третье ценой невозможности первого. Первое и
 >> третье можно делать, гоняя каждый раз полный бэкап.
 >>
 > Вы не вполне верно поняли требование, либо я не точно выразился.
 > Шифровать каналы отправки и шифровать при отправке на внешнее хранилище
 > (облако).
 > Шифровать отдельно при хранении в NAS, не требуется.

Я понял. Я как бы намекаю, что при бэкапе на NAS и в облако имеет смысл,
вообще-то, выбирать разные два из трех. Но, естественно, получатся
разные технологии бэкапа :)

 >> В многолетней практике (man tar, там эта практика еще со времен бэкапов
 >> на магнитные ленты, но "гнать шифрованное в облако" - это примерно оно
 >> по временнЫм характеристикам) обычно устраивают комбинированное решение:
 >> раз в некоторое время гонят полный бэкап, а между ними
 >> инкрементальный. tar вот даже различает дифференциальный (разница с
 >> предыдущим полным) и инкрементальный (разница с предыдущим, каким 

Re: Backup

2018-02-16 Пенетрантность artiom


16.02.2018 10:39, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 08:25:39 +0300:
> 
>  >> - git-annex - то, что и можно предположить: костыль над гитом.
>  > `Git's man page calls it "a stupid content tracker". With git-annex, git
>  > is instead "a stupid filename and metadata" tracker. The contents of
>  > annexed files are not stored in git, only the names of the files and
>  > some other metadata remain there.`
> 
>  > Насколько проще с этим будет работать, чем с Bacula?
>  > Насколько переносимо и отлажено?
>  > По функционалу вижу, что шифрует, хранит метаданные в гите, остальное
>  > пока не ясно (к примеру, централизованного управления и интеграции в
>  > web-интерфейс там, пожалуй, нет).
> 
> Не путаем бэкап с архивом. Для бэкапа не годится.
> 
По каким причинам?

>  >> - SparkleShare - что-то весьма минималистичное
>  > Неслабо минималистичное: свой Dropbox.
>  > Правда, в качестве хранилища по умолчанию - git.
>  > Интересная штука, но у меня пока слабое представление о том, что с ней
>  > возможно сделать,  решит ли это мои задачи.
> 
> Вообще, должен сказать, что существующие системы контроля версий с
> задачами бэкапа довольно плохо совместимы. Поскольку по построению
> хранят _всю_ историю, и в случае хранения изменяющихся бинарников пухнут
> со страшной силой. А на задачах бэкапа требуется хранить ее сравнительно
> небольшую выборку, а промежуточные состояния периодически удалять.
> 
Тут не вполне верно. Гит же достаточно гибкий. Есть git-binary (как-то
так) для внешнего хранения бинарей: они тоже могли реализовать своё
бинарное хранилище, как модуль гита.

>  >> - NextCloud
>  > Хотелось бы услышать отзывы, стоит ли его использовать, что оно даёт,
>  > почему называется "облаком", легко ли его интегрировать с той же Bacula
>  > (агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
>  > использовать в составе NAS.
> 
>  >> - SyncThing
>  > Сам уже нашёл.
>  > Хотелось бы о нём услышать отзывы использующих.
>  > По мне: весьма интересная штука.
> 
> Два последних: не путаем бэкап с синхронизацией. Для бэкапа не годится.
> 
По каким причинам?
Тут бы неплохо прояснить разницу.
Если из бэкапа требуется доставать отдельные файлы, то границу мне
сложно провести.

>  >> - rsync поддерживает использование ssh как транспорт, существуют так же
>  >> надстройки разные
>  >> 
>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
>  > придётся всё доделывать самостоятельно, а в той же Bacula большинство
>  > функций реализовано и отлажено.
> 
>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
>  >> абстрактно...
>  >> 
>  > 1. Шифрование бэкапов.
>  > 2. Репликация в выбранное облако (например, dropbox).
> 
>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное 
> шифрование.
>  > Т.к. раньше я ими не пользовался, ничего конкретного про
>  > репликацию/наличие API спросить не могу.
> 
> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
> сети", и "восстанавливать за разумное время" - выберите любые два из
> трех.
Первые два, но время именно "разумное", я же не говорю "быстро".

> Инкрементальный бэкап, который обеспечивает tar и основные
> продвинутые инкрементальные средства бэкапа, типа той же бакулы, дает
> первое и второй ценой невозможности третьего. Обратный инкрементальный,
> как у rsync, второе и третье ценой невозможности первого. Первое и
> третье можно делать, гоняя каждый раз полный бэкап.
>
Вы не вполне верно поняли требование, либо я не точно выразился.
Шифровать каналы отправки и шифровать при отправке на внешнее хранилище
(облако).
Шифровать отдельно при хранении в NAS, не требуется.

> В многолетней практике (man tar, там эта практика еще со времен бэкапов
> на магнитные ленты, но "гнать шифрованное в облако" - это примерно оно
> по временнЫм характеристикам) обычно устраивают комбинированное решение:
> раз в некоторое время гонят полный бэкап, а между ними
> инкрементальный. tar вот даже различает дифференциальный (разница с
> предыдущим полным) и инкрементальный (разница с предыдущим, каким бы он
> ни был). Для разумного времени восстановления характерная частота
> полного - раз в месяц, дифференциального - в неделю, инкрементального -
> ежедневно. В результате получается дорого, но не невменяемо дорого.
> 
Любопытно, на основе инструментов, которые тут советовали, возможно это
построить не сильно напрягаясь?

> Но вообще, если уж ты собираешься делать бэкапы как следует, то надо
> понимать, что первое, что тут требуется - это дисциплина. Не такая, как
> при работе в архиве, но все же изрядная.
Она мне, в принципе, требуется.
В плане организации я пытаюсь сейчас всё постепенно рассортировать
(сейчас закончил только с музыкой и видео, проекты в нормальном
состоянии, книги и документы в процессе сортировки).
Поэтому, что бэкапить, я могу сказать.

> "Результатом автоматизации
> бардака может быть только автоматизированный бардак." В нее, в
> частности, входит

Re: Backup

2018-02-16 Пенетрантность artiom


15.02.2018 23:31, grey.fenrir пишет:
> 02/15/2018 10:59 PM, artiom пишет:
>> Подскажите, чем возможно выполнять резервное копирование нескольких
>> машин по сети, чтобы условия ниже были удовлетворены.
> borgbackup весьма хорош
В Automating backups они предлагают написать bash скрипт.
На скринкасте вижу шифрование, простую работу со снимками архивов и
красивую строку прогресса (в принципе, мне не нужна, я хочу запускать
агенты автоматически и не видеть их работы).
В чём ещё принципиальное отличие от rsync?

>>
>> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
>> возможно Android планшет.
> работает на macos, порты на win и android были, не знаю, в каком они
> сейчас состоянии.
Скорее всего, требуют неслабой допилки руками.

>>
>> - Должна быть потенциальная возможность репликации в облако (куда, пока
>> не знаю, потому должна быть возможность гибко настроить) с шифрованием
>> бэкапов.
> смотря что в облаке. Если в облако есть возможность поставить серверную
> часть - всё просто. Если это облачное хранилище - тоже просто, но
> вероятнее всего медленно.
> 
Считаю, что это облачное хранилище.
Схема такова:

- Постоянный бэкап на NAS.
- Шифрование.
- Периодическая (раз в месяц, например) загрузка избранных участков в
облачное хранилище.

>> - Должно быть простое централизованное управление бэкапами (в идеале,
>> интеграция в web-интерфейс).
> вебморду к этому тоже пилили, но я не проверял, мне в терминале проще.
> 
>> - Минимум ручной допилки и сложной настройки на сервере.
> весьма дружелюбен
> 
> ps: Отзывы по borg'у собираю.
> 
> ---
> Тарас aka L0ki
> 



Re: Backup

2018-02-16 Пенетрантность artiom


16.02.2018 13:38, Михаил Касаджиков пишет:
> artiom  писал(а) в своём письме Thu, 15 Feb 2018
> 22:59:07 +0300:
> 
>> Подскажите, чем возможно выполнять резервное копирование нескольких
>> машин по сети, чтобы условия ниже были удовлетворены.
>>
>> Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
>> Основные машины - PC с Debian и ноут с Debian.
>> Ноут преимущественно подключен через Интернет, PC в локальной сети.
> 
> Я использую backup-manager и скрипт-обвязку для LVN snapshot.
> У меня всё кроме /boot — на LVM. При запуске скрипта происходит следующее:
> 1. создаём lvm snapshot для желаемых разделов;
> 2. монтируем эти снимки в /mnt/root, /mnt/home и тд.;
> 3. монтируем сетевое хранилище в /mnt/backup;
> 4. запускаем backup-manager;
> 5. демонтируем снимки и хранилище;
> 6. убираем снапшоты.
> 
Сразу нет: LVM только на Linux и то не обязательно, а значит я получаю
непортируемое решение.
Кроме того, с двухдисковой конфигурацией LVM всё несколько сложнее.

> Сам backup-manager — обычный bash-скрипт, использующий tar, или dar,
> который делает:
> * добавляет нужные имена архивам;
> * следит за созданием master/increment архивов;
> * удаляет старые архивы:
> * шифрует, при желании, с помощью gpg;
> * заливает архивы на удалённый сервер;
> * …
> 
В итоге, снова я получаю привязку клиента к ОС.
Ладно - сервер. С этим всё ok, но клиента привязывать не хочется.

> На выходе получаем набор архивов, которые нужно последовательно
> распаковать. Если в компе помер винт — нужно его разметить, создать LVM,
> разделы, ФС, смонтировать всё это и последовательно распаковать архивы
> до желаемого момента. Несколько раз уже восстанавливал как отдельные
> файлы, так и машины полностью.
> 
> Пакет в репе так и называется — backup-manager.
> 
> 



Re: Backup

2018-02-16 Пенетрантность artiom


16.02.2018 09:13, Сергей Цаболов пишет:
> Доброе утро!
> 
> Я сказал бы что  есть довольное хорошее решение
> 
> https://serveradmin.ru/backup-linux-servera-s-pomoshhyu-duplicity/
> 
Почитал статью, и не понял, что хотел сказать автор.
В начале он rsync упоминает.
Переехал ли он на duplicity, и в чём основная разница с rsync?

> Но  я считаю  что Bareos это лучшее решение.
> 
> Допустим https://time404.ru/1776/
> 
> Главное не все так как описывают со старыми версиями было по другому.
> 
Да, тут ещё хвалили вот это, как лучшую альтернативу BareOS:
http://www.urbackup.org/
https://blog.kr.pp.ru/post/2017-07-25/


> 
> 15.02.2018 22:59, artiom пишет:
>> Подскажите, чем возможно выполнять резервное копирование нескольких
>> машин по сети, чтобы условия ниже были удовлетворены.
>>
>> Склоняюсь к следующим вариантам:
>>
>> - Bacula.
>> - BackupPC.
>> - Решения на базе rsync.
>>
>> Изо всего работал только с rsync, о Bacula имею представление, а
>> BackupPC мне неизвестен.
>>
>> Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
>> Основные машины - PC с Debian и ноут с Debian.
>> Ноут преимущественно подключен через Интернет, PC в локальной сети.
>> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
>> возможно Android планшет.
>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
>> выбранные пользовательские данные.
>>
>> Резервное копирование хотелось бы выполнять:
>> - По расписанию.
>> - По запросу.
>> - При пропуске предыдущего.
>>
>> Условия:
>>
>> - Все каналы должны быть зашифрованы.
>> - Копирование не должно занимать много времени (используется Интернет).
>> - Должна быть потенциальная возможность репликации в облако (куда, пока
>> не знаю, потому должна быть возможность гибко настроить) с шифрованием
>> бэкапов.
>> - Должно быть простое централизованное управление бэкапами (в идеале,
>> интеграция в web-интерфейс).
>> - Минимум ручной допилки и сложной настройки на сервере.
>>
> 
> -- 
> 
> Сергей Цаболов,
> Системный администратор.
> 
> serg...@art-design.ru
> 
> 125009, г. Москва, М. Гнездниковский пер., д. 9, стр. 1
> 
> +7 (495) 956-34-79 (доб. 226)
> 
> «Арт и Дизайн» - Наш мир ОТКРЫТ Каждому
> 
> www.artd.ru 
> 
> logo 
> 



Re: Backup

2018-02-16 Пенетрантность artiom


16.02.2018 10:55, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 08:43:17 +0300:
> 
>  > Кроме того, rsync использует жёсткие ссылки, не на всех ФС есть.
> 
> Он их использует только на бэкап-сервере. Если же их нет на его ФС, то
> вопрос в непрофильную рассылку :)
> 
Да верно, он же дедупликацию на приёмнике таким образом делает.

>  >>> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
>  >>> возможно Android планшет.
>  >> 
>  >> Вот windows rsync-ом не забэкапишь. Windows я в свое время бэкапил
>  >> ntfsclone способом "перегрузился в linux, создал клон". Но это для
>  >> ситуации когда пользовательские данные в ней не хранятся. 
>  >> 
>  > А может всё-таки Bacula, NextCloud, etc.?
> 
> Этот вопрос надо задавать тем, кто ими пользуется...
> 
Здесь такие есть.

>  >>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
>  >>> выбранные пользовательские данные.
>  >> 
>  >> Меня в свое время убедили что не надо экономить те считанные гигабайты,
>  >> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
>  >> восстановления не разбираться если версии конфигурации в /etc остались
>  >> от чуточку более старых пакетов, чем поставились из дистрибутива при
>  >> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же /usr).
>  > Как минимум, две машины (плюс, ещё /opt).
>  > В /usr я руками ничего не правлю обычно (за крайне редким исключением
>  > для Oracle Java на рабочей машине).
>  > /var ещё надо бэкапить. Но /usr для чего?
> 
> Сказали же: если его нет в бэкапе, то восстановиться, раскатав бэкап на
> чистый диск не получится. Придется ставить систему и накатывать
> конфиги. И тут упс... система оказалась поновее, конфиги частично
> несовместимы...
> 
Это не столь серьёзная проблема в моём случае: как правило, система
более ли менее новая.

>  >> В общем, анализировать бэкапные решения надо начинать не с "где
>  >> хранить" и "какой транспорт использовать" а с "как будет выглядеть
>  >> процедура восстановления". Причем в двух вариантах 
>  >>
>  > Да, вообще явного анализа восстановления я не провёл.
>  > Неявно, подразумеваю, что буду переустанавливать систему и накатывать
>  > данные, а не образ.
>  > Т.е., мне не требуется "полный бэкап", как это делают с большим парком
>  > машин.
> 
> Практика восстановления показывает, что если бэкапятся настройки
> системы, то лучше бэкапить всю систему. Восстановление работоспособного
> состояния получится на порядок быстрее. Пользовательские данные можно (и
> часто полезно) бэкапить отдельно.
> 
Хорошо, но зачем мне 50+ Гб того, что я и так получу?
Мало того, не всегда мне нужно будет восстанавливать ту же самую
систему: на том же железе и в точности с той же конфигурацией, плюс к
этому, у меня ещё не было ни одного случая, чтобы полностью загнулся Debian.
Падение скорости восстановления здесь для меня терпимо.

>  >> 1. Сдох жесткий диск, вставляем новый
>  >> 2. Обнаружилось, что мы случайно стерли/испортили чрезвычайно ценный
>  >> файл, который еще в прошлую субботу точно был.
>  >> 
>  >> Вот по части второго решения на базе rsync вне конкуренции.
>  >> 
>  > А Bacula или OwnCloud чем хуже?
> 
>  > Ещё несколько пунктов для которых процесс восстановления может различаться:
>  > 3. Файл менялся несколько раз, git не было (пусть, это конфиг). Надо
>  > восстановить одно из промежуточных состояний.
>  > 4. Большое количество пользовательских данных оказались повреждены (не
>  > ОС, с ней всё в порядке, а то, на что пользователь имеет права).
>  > 5. Требуется восстановить часть данных с одного устройства на другом (с
>  > целью синхронизации, например).
> 
> При вменяемой системе бэкапа все три пункта - это одно и то же. "Надо
> восстановить такое-то место данных за прошлую субботу, а такое - за
> позапрошлый понедельник. Ой, нет, за понедельник не то, давайте
> попробуем за среду."
> 
Так у меня было на rdiff-backup реализовано, но достаточно медленно
(инкрементальные бэкапы), к тому же, восстановлением таким образом я
пользовался редко.
Хотя, это удобно.
Возможно было заходить в каталоги за день в течение месяца, плюс
использовалось сжатие на базе fuse-compress.
Минус был в несколько сложной настройке. Кроме того, изредка бэкапилка
ломалась, приходилось разбираться (к тому, что не хочется снова делать
своё велосипед, лучше взять промышленно изготовленный).

> Решение с обратно-инкрементальным бэкапом на базе rsync дает этот
> результат бесплатно. Остальные - смотреть надо. Dropbox вот, например
> (если говорить об облачных средствах, которые вообще-то синхронизаторы,
> а не бэкаперы), насколько я вижу интерфейс, дает доступ к версиям
> отдельных файлов, а запросить с него состояние папки на позавчера
> невозможно. Это как бы не его задача.
> 
Хорошо, с этим разобрались: облака - не бэкап, они идут параллельно и
решают другие задачи.

> Средства бэкапа (та же Bacula), по идее, должны давать. Но в свое время
> я не стал настраивать ни ее, ни BackupPC именно из соображени

Re: Backup

2018-02-16 Пенетрантность artiom
> Hexawolf -> debian-russian@lists.debian.org  @ Thu, 15 Feb 2018 23:28:13 
> +0200:
> 
>  > Ещё варианты:
> 
>  > - git-annex - то, что и можно предположить: костыль над гитом.
>  > - SparkleShare - что-то весьма минималистичное
>  > - NextCloud
>  > - SyncThing
>  > - rsync поддерживает использование ssh как транспорт, существуют так же
>  > надстройки разные
> 
> Насколько я понимаю, syncthing (пользуюсь) и *Cloud НЕ являются
> средствами резервного копирования. У syncthing это прямо так, помнится,
> и написано. Это средства _синхронизации_. Они не отличают намеренно
> удаленное от продолбанного.
> 
А разве отличают системы резервного копирования?

> git-annex - не система резервного копирования, а архив с
> резервированием. В смысле, для практической пользы от него к нему нужна
> дисциплина работы в архиве.
> 
>  > Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
>  > абстрактно...
> 
>  > On 15/02/18 21:59, artiom wrote:
>  >> Подскажите, чем возможно выполнять резервное копирование нескольких
>  >> машин по сети, чтобы условия ниже были удовлетворены.
>  >> 
>  >> Склоняюсь к следующим вариантам:
>  >> 
>  >> - Bacula.
>  >> - BackupPC.
>  >> - Решения на базе rsync.
>  >> 
>  >> Изо всего работал только с rsync, о Bacula имею представление, а
>  >> BackupPC мне неизвестен.
>  >> 
>  >> Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
>  >> Основные машины - PC с Debian и ноут с Debian.
>  >> Ноут преимущественно подключен через Интернет, PC в локальной сети.
>  >> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
>  >> возможно Android планшет.
>  >> На Debian-based машинах хочу резервировать конфигурацию в /etc и
>  >> выбранные пользовательские данные.
>  >> 
>  >> Резервное копирование хотелось бы выполнять:
>  >> - По расписанию.
>  >> - По запросу.
>  >> - При пропуске предыдущего.
>  >> 
>  >> Условия:
>  >> 
>  >> - Все каналы должны быть зашифрованы.
>  >> - Копирование не должно занимать много времени (используется Интернет).
>  >> - Должна быть потенциальная возможность репликации в облако (куда, пока
>  >> не знаю, потому должна быть возможность гибко настроить) с шифрованием
>  >> бэкапов.
>  >> - Должно быть простое централизованное управление бэкапами (в идеале,
>  >> интеграция в web-интерфейс).
>  >> - Минимум ручной допилки и сложной настройки на сервере.
>  >> 
>  >> 
> 



Re: Backup

2018-02-16 Пенетрантность artiom


16.02.2018 09:48, kuzminov пишет:
> On 16.02.2018 08:25, artiom wrote:
>>
>>
>>
>>> - SyncThing
>> Сам уже нашёл.
>> Хотелось бы о нём услышать отзывы использующих.
>> По мне: весьма интересная штука.
>>
> Это программа для синхронизации папок, а не резервного копирвания. Очень
> простая и работает как ожидается примерно.
> Версионность неудобная, куча файлов создается с другим именем. Находит
> устройства почти сразу через любое подключение. Постоянно пользуюсь на
> всех компах для синхронизации доков и профиля браузера.
> 
В смысле, как находит устройства?

Но я так понял, для моих целей это неприменимо.

> Есть же urbackup с возможностью работать через интернет (с шифрованием),
> поддержой ZFS И btrfs подтомов, дедупликации, создания образов диска
> (под виндой), восстановления поверх голого железа путем загрузки с 
> лайфсд. И все просто работает сразу, в отличии от бареос, для которой
> надо скрипты писать либо кучу конфигов в ручную для каждого клиента.
Клиент-сервер, неплохо.
Не вполне понятно, в чём заключается поддержка ZFS подтомов?
В смысле, что она взаимодействует с ZFS и бэкапит только необходимое (к
примеру, работает со снэпшотами)?
Восстановление на голом железе у меня пока не планируется, для меня это
лишний функционал, дедап тоже не уверен, что нужен: его может обеспечить
ZFS, хотя я и не буду его включать с целью экономии памяти.



Re: Backup

2018-02-16 Пенетрантность artiom
Ага, отлично. Т.е., имеет смысл ставить его независимо от бэкапилки?
Вопрос по протоколам в том, нужны ли все эти FTPS и прочие в "облаке",
когда NAS может предоставить их отдельно (подняв FTP сервер, например)?

16.02.2018 09:06, Коротаев Руслан пишет:
> В сообщении от [Пт 2018-02-16 08:25 +0300]
> artiom  пишет:
> 
>>> - NextCloud
>> Хотелось бы услышать отзывы, стоит ли его использовать, что оно даёт,
>> почему называется "облаком", легко ли его интегрировать с той же Bacula
>> (агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
>> использовать в составе NAS.
> 
> Nextcloud удобен, но он больше для совместной работы, а не для бекапов,
> а облаком он называется потому, что может заменить публичные сервисы
> типа Google Drive, Dropbox, то есть работа с файлами, календарь,
> веб-почта и так далее. Для файлов у него есть WebDAV и приложения для
> Android и iOS.
> 
> Можно ещё добавить к списку Minio [1], отличная штука для бекапа (HTTPS,
> веб-интерфейс, S3 API), ну и старый добрый FTP(S).
> 
> [1]: https://blog.kr.pp.ru/post/2017-07-25/
> 



Re: Backup

2018-02-16 Пенетрантность artiom
Спасибо. Посмотрю.
В чём основная разница с Бакулой?

16.02.2018 09:19, Павел Марченко пишет:
> Bareos это форк Бакулы, причем довольно успешный
> 
> 
> 
> 15 февр. 2018 г. 23:46 пользователь "artiom"  > написал:
> 
> > Без допилов только проприетарщина.
> Однозначно - нет.
> Про всякие Veeam я в курсе: не хочу использовать, т.к. имею
> представление о том, что там внутри.
> Минимальные допилки и настройку воспринимаю спокойно, главное, чтобы не
> пришлось делать своё "кастомное решение".
> 
> > В остальном Бакула точнее её форк.
> Какой форк?
> 
> >
> > 15 февр. 2018 г. 22:59 пользователь "artiom"  
> > >> написал:
> >
> >     Подскажите, чем возможно выполнять резервное копирование
> нескольких
> >     машин по сети, чтобы условия ниже были удовлетворены.
> >
> >     Склоняюсь к следующим вариантам:
> >
> >     - Bacula.
> >     - BackupPC.
> >     - Решения на базе rsync.
> >
> >     Изо всего работал только с rsync, о Bacula имею представление, а
> >     BackupPC мне неизвестен.
> >
> >     Резервное копирование хочу выполнять на центральное хранилище, с
> >     FreeNAS.
> >     Основные машины - PC с Debian и ноут с Debian.
> >     Ноут преимущественно подключен через Интернет, PC в локальной
> сети.
> >     Также, в перспективе, могут резервироваться машины с Windows и
> MacOS,
> >     возможно Android планшет.
> >     На Debian-based машинах хочу резервировать конфигурацию в /etc и
> >     выбранные пользовательские данные.
> >
> >     Резервное копирование хотелось бы выполнять:
> >     - По расписанию.
> >     - По запросу.
> >     - При пропуске предыдущего.
> >
> >     Условия:
> >
> >     - Все каналы должны быть зашифрованы.
> >     - Копирование не должно занимать много времени (используется
> Интернет).
> >     - Должна быть потенциальная возможность репликации в облако
> (куда, пока
> >     не знаю, потому должна быть возможность гибко настроить) с
> шифрованием
> >     бэкапов.
> >     - Должно быть простое централизованное управление бэкапами (в
> идеале,
> >     интеграция в web-интерфейс).
> >     - Минимум ручной допилки и сложной настройки на сервере.
> >
> 
> 



Re: Backup

2018-02-16 Пенетрантность Михаил Касаджиков

artiom  писал(а) в своём письме Thu, 15 Feb 2018 22:59:07 
+0300:


Подскажите, чем возможно выполнять резервное копирование нескольких
машин по сети, чтобы условия ниже были удовлетворены.

Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
Основные машины - PC с Debian и ноут с Debian.
Ноут преимущественно подключен через Интернет, PC в локальной сети.


Я использую backup-manager и скрипт-обвязку для LVN snapshot.
У меня всё кроме /boot — на LVM. При запуске скрипта происходит следующее:
1. создаём lvm snapshot для желаемых разделов;
2. монтируем эти снимки в /mnt/root, /mnt/home и тд.;
3. монтируем сетевое хранилище в /mnt/backup;
4. запускаем backup-manager;
5. демонтируем снимки и хранилище;
6. убираем снапшоты.

Сам backup-manager — обычный bash-скрипт, использующий tar, или dar, который 
делает:
* добавляет нужные имена архивам;
* следит за созданием master/increment архивов;
* удаляет старые архивы:
* шифрует, при желании, с помощью gpg;
* заливает архивы на удалённый сервер;
* …

На выходе получаем набор архивов, которые нужно последовательно распаковать. 
Если в компе помер винт — нужно его разметить, создать LVM, разделы, ФС, 
смонтировать всё это и последовательно распаковать архивы до желаемого момента. 
Несколько раз уже восстанавливал как отдельные файлы, так и машины полностью.

Пакет в репе так и называется — backup-manager.


--
Написано с помощью почтового клиента Opera: http://www.opera.com/mail/

Re: Backup

2018-02-16 Пенетрантность kuzminov

On 16.02.2018 08:25, artiom wrote:





- SyncThing

Сам уже нашёл.
Хотелось бы о нём услышать отзывы использующих.
По мне: весьма интересная штука.

Это программа для синхронизации папок, а не резервного копирвания. Очень 
простая и работает как ожидается примерно.
Версионность неудобная, куча файлов создается с другим именем. Находит 
устройства почти сразу через любое подключение. Постоянно пользуюсь на 
всех компах для синхронизации доков и профиля браузера.


Есть же urbackup с возможностью работать через интернет (с шифрованием), 
поддержой ZFS И btrfs подтомов, дедупликации, создания образов диска 
(под виндой), восстановления поверх голого железа путем загрузки с  
лайфсд. И все просто работает сразу, в отличии от бареос, для которой 
надо скрипты писать либо кучу конфигов в ручную для каждого клиента.


thunderbird.desktop
Description: application/desktop


Re: Backup

2018-02-16 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 08:43:17 +0300:

 > Кроме того, rsync использует жёсткие ссылки, не на всех ФС есть.

Он их использует только на бэкап-сервере. Если же их нет на его ФС, то
вопрос в непрофильную рассылку :)

 >>> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
 >>> возможно Android планшет.
 >> 
 >> Вот windows rsync-ом не забэкапишь. Windows я в свое время бэкапил
 >> ntfsclone способом "перегрузился в linux, создал клон". Но это для
 >> ситуации когда пользовательские данные в ней не хранятся. 
 >> 
 > А может всё-таки Bacula, NextCloud, etc.?

Этот вопрос надо задавать тем, кто ими пользуется...

 >>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
 >>> выбранные пользовательские данные.
 >> 
 >> Меня в свое время убедили что не надо экономить те считанные гигабайты,
 >> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
 >> восстановления не разбираться если версии конфигурации в /etc остались
 >> от чуточку более старых пакетов, чем поставились из дистрибутива при
 >> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же /usr).
 > Как минимум, две машины (плюс, ещё /opt).
 > В /usr я руками ничего не правлю обычно (за крайне редким исключением
 > для Oracle Java на рабочей машине).
 > /var ещё надо бэкапить. Но /usr для чего?

Сказали же: если его нет в бэкапе, то восстановиться, раскатав бэкап на
чистый диск не получится. Придется ставить систему и накатывать
конфиги. И тут упс... система оказалась поновее, конфиги частично
несовместимы...

 >> В общем, анализировать бэкапные решения надо начинать не с "где
 >> хранить" и "какой транспорт использовать" а с "как будет выглядеть
 >> процедура восстановления". Причем в двух вариантах 
 >>
 > Да, вообще явного анализа восстановления я не провёл.
 > Неявно, подразумеваю, что буду переустанавливать систему и накатывать
 > данные, а не образ.
 > Т.е., мне не требуется "полный бэкап", как это делают с большим парком
 > машин.

Практика восстановления показывает, что если бэкапятся настройки
системы, то лучше бэкапить всю систему. Восстановление работоспособного
состояния получится на порядок быстрее. Пользовательские данные можно (и
часто полезно) бэкапить отдельно.

 >> 1. Сдох жесткий диск, вставляем новый
 >> 2. Обнаружилось, что мы случайно стерли/испортили чрезвычайно ценный
 >> файл, который еще в прошлую субботу точно был.
 >> 
 >> Вот по части второго решения на базе rsync вне конкуренции.
 >> 
 > А Bacula или OwnCloud чем хуже?

 > Ещё несколько пунктов для которых процесс восстановления может различаться:
 > 3. Файл менялся несколько раз, git не было (пусть, это конфиг). Надо
 > восстановить одно из промежуточных состояний.
 > 4. Большое количество пользовательских данных оказались повреждены (не
 > ОС, с ней всё в порядке, а то, на что пользователь имеет права).
 > 5. Требуется восстановить часть данных с одного устройства на другом (с
 > целью синхронизации, например).

При вменяемой системе бэкапа все три пункта - это одно и то же. "Надо
восстановить такое-то место данных за прошлую субботу, а такое - за
позапрошлый понедельник. Ой, нет, за понедельник не то, давайте
попробуем за среду."

Решение с обратно-инкрементальным бэкапом на базе rsync дает этот
результат бесплатно. Остальные - смотреть надо. Dropbox вот, например
(если говорить об облачных средствах, которые вообще-то синхронизаторы,
а не бэкаперы), насколько я вижу интерфейс, дает доступ к версиям
отдельных файлов, а запросить с него состояние папки на позавчера
невозможно. Это как бы не его задача.

Средства бэкапа (та же Bacula), по идее, должны давать. Но в свое время
я не стал настраивать ни ее, ни BackupPC именно из соображений сложной
настройки. Они, как я понимаю, хороши, когда у вас толпа разнородных
машин и есть человек, который регулярно подкручивает эту конструкцию. С
квалификацией админа и наличием _регулярно_ времени на эту работу.



Re: Backup

2018-02-15 Пенетрантность Artem Chuprina
Victor Wagner -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 07:49:34 
+0300:

 >> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
 >> возможно Android планшет.

 > Вот windows rsync-ом не забэкапишь.

Систему нет, а пользовательские данные еще как.

 > Windows я в свое время бэкапил ntfsclone способом "перегрузился в
 > linux, создал клон". Но это для ситуации когда пользовательские
 > данные в ней не хранятся.



Re: Backup

2018-02-15 Пенетрантность Artem Chuprina
artiom -> debian-russian@lists.debian.org  @ Fri, 16 Feb 2018 08:25:39 +0300:

 >> - git-annex - то, что и можно предположить: костыль над гитом.
 > `Git's man page calls it "a stupid content tracker". With git-annex, git
 > is instead "a stupid filename and metadata" tracker. The contents of
 > annexed files are not stored in git, only the names of the files and
 > some other metadata remain there.`

 > Насколько проще с этим будет работать, чем с Bacula?
 > Насколько переносимо и отлажено?
 > По функционалу вижу, что шифрует, хранит метаданные в гите, остальное
 > пока не ясно (к примеру, централизованного управления и интеграции в
 > web-интерфейс там, пожалуй, нет).

Не путаем бэкап с архивом. Для бэкапа не годится.

 >> - SparkleShare - что-то весьма минималистичное
 > Неслабо минималистичное: свой Dropbox.
 > Правда, в качестве хранилища по умолчанию - git.
 > Интересная штука, но у меня пока слабое представление о том, что с ней
 > возможно сделать,  решит ли это мои задачи.

Вообще, должен сказать, что существующие системы контроля версий с
задачами бэкапа довольно плохо совместимы. Поскольку по построению
хранят _всю_ историю, и в случае хранения изменяющихся бинарников пухнут
со страшной силой. А на задачах бэкапа требуется хранить ее сравнительно
небольшую выборку, а промежуточные состояния периодически удалять.

 >> - NextCloud
 > Хотелось бы услышать отзывы, стоит ли его использовать, что оно даёт,
 > почему называется "облаком", легко ли его интегрировать с той же Bacula
 > (агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
 > использовать в составе NAS.

 >> - SyncThing
 > Сам уже нашёл.
 > Хотелось бы о нём услышать отзывы использующих.
 > По мне: весьма интересная штука.

Два последних: не путаем бэкап с синхронизацией. Для бэкапа не годится.

 >> - rsync поддерживает использование ssh как транспорт, существуют так же
 >> надстройки разные
 >> 
 > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
 > придётся всё доделывать самостоятельно, а в той же Bacula большинство
 > функций реализовано и отлажено.

 >> Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
 >> абстрактно...
 >> 
 > 1. Шифрование бэкапов.
 > 2. Репликация в выбранное облако (например, dropbox).

 > Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное шифрование.
 > Т.к. раньше я ими не пользовался, ничего конкретного про
 > репликацию/наличие API спросить не могу.

"Тут ведь как..." "Отправлять зашифрованное", "минимально гонять по
сети", и "восстанавливать за разумное время" - выберите любые два из
трех. Инкрементальный бэкап, который обеспечивает tar и основные
продвинутые инкрементальные средства бэкапа, типа той же бакулы, дает
первое и второй ценой невозможности третьего. Обратный инкрементальный,
как у rsync, второе и третье ценой невозможности первого. Первое и
третье можно делать, гоняя каждый раз полный бэкап.

В многолетней практике (man tar, там эта практика еще со времен бэкапов
на магнитные ленты, но "гнать шифрованное в облако" - это примерно оно
по временнЫм характеристикам) обычно устраивают комбинированное решение:
раз в некоторое время гонят полный бэкап, а между ними
инкрементальный. tar вот даже различает дифференциальный (разница с
предыдущим полным) и инкрементальный (разница с предыдущим, каким бы он
ни был). Для разумного времени восстановления характерная частота
полного - раз в месяц, дифференциального - в неделю, инкрементального -
ежедневно. В результате получается дорого, но не невменяемо дорого.

Но вообще, если уж ты собираешься делать бэкапы как следует, то надо
понимать, что первое, что тут требуется - это дисциплина. Не такая, как
при работе в архиве, но все же изрядная. "Результатом автоматизации
бардака может быть только автоматизированный бардак." В нее, в
частности, входит периодическая тренировка восстановления из
бэкапа. Потому что очень легко настроить бэкап, из которого потом не
получится восстановиться.



Re: Backup

2018-02-15 Пенетрантность Artem Chuprina
Hexawolf -> debian-russian@lists.debian.org  @ Thu, 15 Feb 2018 23:28:13 +0200:

 > Ещё варианты:

 > - git-annex - то, что и можно предположить: костыль над гитом.
 > - SparkleShare - что-то весьма минималистичное
 > - NextCloud
 > - SyncThing
 > - rsync поддерживает использование ssh как транспорт, существуют так же
 > надстройки разные

Насколько я понимаю, syncthing (пользуюсь) и *Cloud НЕ являются
средствами резервного копирования. У syncthing это прямо так, помнится,
и написано. Это средства _синхронизации_. Они не отличают намеренно
удаленное от продолбанного.

git-annex - не система резервного копирования, а архив с
резервированием. В смысле, для практической пользы от него к нему нужна
дисциплина работы в архиве.

 > Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
 > абстрактно...

 > On 15/02/18 21:59, artiom wrote:
 >> Подскажите, чем возможно выполнять резервное копирование нескольких
 >> машин по сети, чтобы условия ниже были удовлетворены.
 >> 
 >> Склоняюсь к следующим вариантам:
 >> 
 >> - Bacula.
 >> - BackupPC.
 >> - Решения на базе rsync.
 >> 
 >> Изо всего работал только с rsync, о Bacula имею представление, а
 >> BackupPC мне неизвестен.
 >> 
 >> Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
 >> Основные машины - PC с Debian и ноут с Debian.
 >> Ноут преимущественно подключен через Интернет, PC в локальной сети.
 >> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
 >> возможно Android планшет.
 >> На Debian-based машинах хочу резервировать конфигурацию в /etc и
 >> выбранные пользовательские данные.
 >> 
 >> Резервное копирование хотелось бы выполнять:
 >> - По расписанию.
 >> - По запросу.
 >> - При пропуске предыдущего.
 >> 
 >> Условия:
 >> 
 >> - Все каналы должны быть зашифрованы.
 >> - Копирование не должно занимать много времени (используется Интернет).
 >> - Должна быть потенциальная возможность репликации в облако (куда, пока
 >> не знаю, потому должна быть возможность гибко настроить) с шифрованием
 >> бэкапов.
 >> - Должно быть простое централизованное управление бэкапами (в идеале,
 >> интеграция в web-интерфейс).
 >> - Минимум ручной допилки и сложной настройки на сервере.
 >> 
 >> 



Re: Backup

2018-02-15 Пенетрантность Павел Марченко
Bareos это форк Бакулы, причем довольно успешный



15 февр. 2018 г. 23:46 пользователь "artiom"  написал:

> Без допилов только проприетарщина.
Однозначно - нет.
Про всякие Veeam я в курсе: не хочу использовать, т.к. имею
представление о том, что там внутри.
Минимальные допилки и настройку воспринимаю спокойно, главное, чтобы не
пришлось делать своё "кастомное решение".

> В остальном Бакула точнее её форк.
Какой форк?

>
> 15 февр. 2018 г. 22:59 пользователь "artiom"  > написал:
>
> Подскажите, чем возможно выполнять резервное копирование нескольких
> машин по сети, чтобы условия ниже были удовлетворены.
>
> Склоняюсь к следующим вариантам:
>
> - Bacula.
> - BackupPC.
> - Решения на базе rsync.
>
> Изо всего работал только с rsync, о Bacula имею представление, а
> BackupPC мне неизвестен.
>
> Резервное копирование хочу выполнять на центральное хранилище, с
> FreeNAS.
> Основные машины - PC с Debian и ноут с Debian.
> Ноут преимущественно подключен через Интернет, PC в локальной сети.
> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
> возможно Android планшет.
> На Debian-based машинах хочу резервировать конфигурацию в /etc и
> выбранные пользовательские данные.
>
> Резервное копирование хотелось бы выполнять:
> - По расписанию.
> - По запросу.
> - При пропуске предыдущего.
>
> Условия:
>
> - Все каналы должны быть зашифрованы.
> - Копирование не должно занимать много времени (используется
Интернет).
> - Должна быть потенциальная возможность репликации в облако (куда,
пока
> не знаю, потому должна быть возможность гибко настроить) с шифрованием
> бэкапов.
> - Должно быть простое централизованное управление бэкапами (в идеале,
> интеграция в web-интерфейс).
> - Минимум ручной допилки и сложной настройки на сервере.
>


Re: Backup

2018-02-15 Пенетрантность Евгений Кабанов
>> Ещё варианты:

luckybackup - надстройка над rsync, при личном использовании -
никаких нареканий; бэкапит, что скажешь.

-- 
Евгений Кабанов 



Re: Backup

2018-02-15 Пенетрантность artiom


16.02.2018 07:49, Victor Wagner пишет:
> В Thu, 15 Feb 2018 22:59:07 +0300
> artiom  пишет:
> 
>> Подскажите, чем возможно выполнять резервное копирование нескольких
>> машин по сети, чтобы условия ниже были удовлетворены.
>>
>> Склоняюсь к следующим вариантам:
>>
>> - Bacula.
>> - BackupPC.
>> - Решения на базе rsync.
>>
>> Изо всего работал только с rsync, о Bacula имею представление, а
>> BackupPC мне неизвестен.
>>
>> Резервное копирование хочу выполнять на центральное хранилище, с
>> FreeNAS. Основные машины - PC с Debian и ноут с Debian.
>> Ноут преимущественно подключен через Интернет, PC в локальной сети.
> 
> Я использую надстройку над rsync, называющуюся rsnapshot.
> Бэкаплю таким образом и домашнюю машину на USB-диск и виртуалку на
> хостинге на домашную машину (по расписанию)
> 
Да, я помню, вы её предлагали, когда я ещё бэкапилку для одной машин делал.
Я тогда rdiff-backup выбрал, но сейчас бы остановился на rsnapshot.
Тем не менее, доделок много придётся сделать. Для чего мне реализовывать
функционал Bacula самому?
Какие плюсы есть у rsnapshot?
Кроме того, rsync использует жёсткие ссылки, не на всех ФС есть.
Да, возможно извратиться, но зачем?

>> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
>> возможно Android планшет.
> 
> Вот windows rsync-ом не забэкапишь. Windows я в свое время бэкапил
> ntfsclone способом "перегрузился в linux, создал клон". Но это для
> ситуации когда пользовательские данные в ней не хранятся. 
> 
А может всё-таки Bacula, NextCloud, etc.?

>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
>> выбранные пользовательские данные.
> 
> Меня в свое время убедили что не надо экономить те считанные гигабайты,
> которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
> восстановления не разбираться если версии конфигурации в /etc остались
> от чуточку более старых пакетов, чем поставились из дистрибутива при
> восстановлении системы.Хм... У меня 50 Гб в / (сейчас там же /usr).
Как минимум, две машины (плюс, ещё /opt).
В /usr я руками ничего не правлю обычно (за крайне редким исключением
для Oracle Java на рабочей машине).
/var ещё надо бэкапить. Но /usr для чего?

> 
> В общем, анализировать бэкапные решения надо начинать не с "где
> хранить" и "какой транспорт использовать" а с "как будет выглядеть
> процедура восстановления". Причем в двух вариантах 
>
Да, вообще явного анализа восстановления я не провёл.
Неявно, подразумеваю, что буду переустанавливать систему и накатывать
данные, а не образ.
Т.е., мне не требуется "полный бэкап", как это делают с большим парком
машин.

> 1. Сдох жесткий диск, вставляем новый
> 2. Обнаружилось, что мы случайно стерли/испортили чрезвычайно ценный
> файл, который еще в прошлую субботу точно был.
> 
> Вот по части второго решения на базе rsync вне конкуренции.
> 
А Bacula или OwnCloud чем хуже?

Ещё несколько пунктов для которых процесс восстановления может различаться:
3. Файл менялся несколько раз, git не было (пусть, это конфиг). Надо
восстановить одно из промежуточных состояний.
4. Большое количество пользовательских данных оказались повреждены (не
ОС, с ней всё в порядке, а то, на что пользователь имеет права).
5. Требуется восстановить часть данных с одного устройства на другом (с
целью синхронизации, например).

>>
>> Резервное копирование хотелось бы выполнять:
>> - По расписанию.
>> - По запросу.
>> - При пропуске предыдущего.
>>
>> Условия:
>>
>> - Все каналы должны быть зашифрованы.
>> - Копирование не должно занимать много времени (используется
>> Интернет).
>> - Должна быть потенциальная возможность репликации в облако (куда,
>> пока не знаю, потому должна быть возможность гибко настроить) с
>> шифрованием бэкапов.
> 
> C шифрованием каналов и репликацией в облако вопрос такой - вот у вас
> сдох жесткий диск со всеми ключами. Вам надо восстановиться из бэкапа.
> Каким образом вы будете восстанавливать доступ к тому месту, где лежит
> бэкап, для того чтобы его достать? Обеспечивает ли применяемый в таком
> случае способ аутентификации надежную защиту ваших данных от сценария
> "кто-то прикинулся вами, сломавшим жесткий диск"?
> 
> Опять же шифрованные бэкапы в облаке обычно не слишком удобны для
> второго из вышеописанных сценариев:
> 
> либо для того, чтобы достать один файл вам нужно скачивать весь бэкап
> (а то и цепочку инкрементальных до последнего полного), либо слишком
> много метаинформации доступно владельцу облака (а также
> правоохранительным органам страны, где расположен этот облачный сервер
> и хакерам, взломавшим облачного провайдера).
> 
> Собственно поэтому я бэкаплюсь на внешний диск, лежащий в тумбочке. Там
> все понятно с авторизацией доступа - она физическая.
> 
> в
> 
> 



Re: Backup

2018-02-15 Пенетрантность artiom


16.02.2018 00:28, Hexawolf пишет:
> Ещё варианты:
> 
> - git-annex - то, что и можно предположить: костыль над гитом.
`Git's man page calls it "a stupid content tracker". With git-annex, git
is instead "a stupid filename and metadata" tracker. The contents of
annexed files are not stored in git, only the names of the files and
some other metadata remain there.`

Насколько проще с этим будет работать, чем с Bacula?
Насколько переносимо и отлажено?
По функционалу вижу, что шифрует, хранит метаданные в гите, остальное
пока не ясно (к примеру, централизованного управления и интеграции в
web-интерфейс там, пожалуй, нет).

> - SparkleShare - что-то весьма минималистичное
Неслабо минималистичное: свой Dropbox.
Правда, в качестве хранилища по умолчанию - git.
Интересная штука, но у меня пока слабое представление о том, что с ней
возможно сделать,  решит ли это мои задачи.

> - NextCloud
Хотелось бы услышать отзывы, стоит ли его использовать, что оно даёт,
почему называется "облаком", легко ли его интегрировать с той же Bacula
(агентов, я так понимаю, у NextCloud нет), а также имеет ли смысл
использовать в составе NAS.

> - SyncThing
Сам уже нашёл.
Хотелось бы о нём услышать отзывы использующих.
По мне: весьма интересная штука.

> - rsync поддерживает использование ssh как транспорт, существуют так же
> надстройки разные
> 
Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над ним
придётся всё доделывать самостоятельно, а в той же Bacula большинство
функций реализовано и отлажено.

> Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
> абстрактно...
> 
1. Шифрование бэкапов.
2. Репликация в выбранное облако (например, dropbox).

Т.к. dropbox и подобные - одна сплошная дыра, требуется надёжное шифрование.
Т.к. раньше я ими не пользовался, ничего конкретного про
репликацию/наличие API спросить не могу.

> On 15/02/18 21:59, artiom wrote:
>> Подскажите, чем возможно выполнять резервное копирование нескольких
>> машин по сети, чтобы условия ниже были удовлетворены.
>>
>> Склоняюсь к следующим вариантам:
>>
>> - Bacula.
>> - BackupPC.
>> - Решения на базе rsync.
>>
>> Изо всего работал только с rsync, о Bacula имею представление, а
>> BackupPC мне неизвестен.
>>
>> Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
>> Основные машины - PC с Debian и ноут с Debian.
>> Ноут преимущественно подключен через Интернет, PC в локальной сети.
>> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
>> возможно Android планшет.
>> На Debian-based машинах хочу резервировать конфигурацию в /etc и
>> выбранные пользовательские данные.
>>
>> Резервное копирование хотелось бы выполнять:
>> - По расписанию.
>> - По запросу.
>> - При пропуске предыдущего.
>>
>> Условия:
>>
>> - Все каналы должны быть зашифрованы.
>> - Копирование не должно занимать много времени (используется Интернет).
>> - Должна быть потенциальная возможность репликации в облако (куда, пока
>> не знаю, потому должна быть возможность гибко настроить) с шифрованием
>> бэкапов.
>> - Должно быть простое централизованное управление бэкапами (в идеале,
>> интеграция в web-интерфейс).
>> - Минимум ручной допилки и сложной настройки на сервере.
>>
>>
> 



Re: Backup

2018-02-15 Пенетрантность Victor Wagner
В Thu, 15 Feb 2018 22:59:07 +0300
artiom  пишет:

> Подскажите, чем возможно выполнять резервное копирование нескольких
> машин по сети, чтобы условия ниже были удовлетворены.
> 
> Склоняюсь к следующим вариантам:
> 
> - Bacula.
> - BackupPC.
> - Решения на базе rsync.
> 
> Изо всего работал только с rsync, о Bacula имею представление, а
> BackupPC мне неизвестен.
> 
> Резервное копирование хочу выполнять на центральное хранилище, с
> FreeNAS. Основные машины - PC с Debian и ноут с Debian.
> Ноут преимущественно подключен через Интернет, PC в локальной сети.

Я использую надстройку над rsync, называющуюся rsnapshot.
Бэкаплю таким образом и домашнюю машину на USB-диск и виртуалку на
хостинге на домашную машину (по расписанию)

> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
> возможно Android планшет.

Вот windows rsync-ом не забэкапишь. Windows я в свое время бэкапил
ntfsclone способом "перегрузился в linux, создал клон". Но это для
ситуации когда пользовательские данные в ней не хранятся. 

> На Debian-based машинах хочу резервировать конфигурацию в /etc и
> выбранные пользовательские данные.

Меня в свое время убедили что не надо экономить те считанные гигабайты,
которые занимает /usr и бэкапить и ее тоже. Чтобы потом после
восстановления не разбираться если версии конфигурации в /etc остались
от чуточку более старых пакетов, чем поставились из дистрибутива при
восстановлении системы.

В общем, анализировать бэкапные решения надо начинать не с "где
хранить" и "какой транспорт использовать" а с "как будет выглядеть
процедура восстановления". Причем в двух вариантах 

1. Сдох жесткий диск, вставляем новый
2. Обнаружилось, что мы случайно стерли/испортили чрезвычайно ценный
файл, который еще в прошлую субботу точно был.

Вот по части второго решения на базе rsync вне конкуренции.

> 
> Резервное копирование хотелось бы выполнять:
> - По расписанию.
> - По запросу.
> - При пропуске предыдущего.
> 
> Условия:
> 
> - Все каналы должны быть зашифрованы.
> - Копирование не должно занимать много времени (используется
> Интернет).
> - Должна быть потенциальная возможность репликации в облако (куда,
> пока не знаю, потому должна быть возможность гибко настроить) с
> шифрованием бэкапов.

C шифрованием каналов и репликацией в облако вопрос такой - вот у вас
сдох жесткий диск со всеми ключами. Вам надо восстановиться из бэкапа.
Каким образом вы будете восстанавливать доступ к тому месту, где лежит
бэкап, для того чтобы его достать? Обеспечивает ли применяемый в таком
случае способ аутентификации надежную защиту ваших данных от сценария
"кто-то прикинулся вами, сломавшим жесткий диск"?

Опять же шифрованные бэкапы в облаке обычно не слишком удобны для
второго из вышеописанных сценариев:

либо для того, чтобы достать один файл вам нужно скачивать весь бэкап
(а то и цепочку инкрементальных до последнего полного), либо слишком
много метаинформации доступно владельцу облака (а также
правоохранительным органам страны, где расположен этот облачный сервер
и хакерам, взломавшим облачного провайдера).

Собственно поэтому я бэкаплюсь на внешний диск, лежащий в тумбочке. Там
все понятно с авторизацией доступа - она физическая.

в


-- 
   Victor Wagner 



Re: Backup

2018-02-15 Пенетрантность Hexawolf
Ещё варианты:

- git-annex - то, что и можно предположить: костыль над гитом.
- SparkleShare - что-то весьма минималистичное
- NextCloud
- SyncThing
- rsync поддерживает использование ssh как транспорт, существуют так же
надстройки разные

Ничего не знаю по поводу "репликации в облко с шифрованием". Это всё так
абстрактно...

On 15/02/18 21:59, artiom wrote:
> Подскажите, чем возможно выполнять резервное копирование нескольких
> машин по сети, чтобы условия ниже были удовлетворены.
> 
> Склоняюсь к следующим вариантам:
> 
> - Bacula.
> - BackupPC.
> - Решения на базе rsync.
> 
> Изо всего работал только с rsync, о Bacula имею представление, а
> BackupPC мне неизвестен.
> 
> Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
> Основные машины - PC с Debian и ноут с Debian.
> Ноут преимущественно подключен через Интернет, PC в локальной сети.
> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
> возможно Android планшет.
> На Debian-based машинах хочу резервировать конфигурацию в /etc и
> выбранные пользовательские данные.
> 
> Резервное копирование хотелось бы выполнять:
> - По расписанию.
> - По запросу.
> - При пропуске предыдущего.
> 
> Условия:
> 
> - Все каналы должны быть зашифрованы.
> - Копирование не должно занимать много времени (используется Интернет).
> - Должна быть потенциальная возможность репликации в облако (куда, пока
> не знаю, потому должна быть возможность гибко настроить) с шифрованием
> бэкапов.
> - Должно быть простое централизованное управление бэкапами (в идеале,
> интеграция в web-интерфейс).
> - Минимум ручной допилки и сложной настройки на сервере.
> 
> 



signature.asc
Description: OpenPGP digital signature


Re: Backup

2018-02-15 Пенетрантность artiom
> Без допилов только проприетарщина.
Однозначно - нет.
Про всякие Veeam я в курсе: не хочу использовать, т.к. имею
представление о том, что там внутри.
Минимальные допилки и настройку воспринимаю спокойно, главное, чтобы не
пришлось делать своё "кастомное решение".

> В остальном Бакула точнее её форк.
Какой форк?

> 
> 15 февр. 2018 г. 22:59 пользователь "artiom"  > написал:
> 
> Подскажите, чем возможно выполнять резервное копирование нескольких
> машин по сети, чтобы условия ниже были удовлетворены.
> 
> Склоняюсь к следующим вариантам:
> 
> - Bacula.
> - BackupPC.
> - Решения на базе rsync.
> 
> Изо всего работал только с rsync, о Bacula имею представление, а
> BackupPC мне неизвестен.
> 
> Резервное копирование хочу выполнять на центральное хранилище, с
> FreeNAS.
> Основные машины - PC с Debian и ноут с Debian.
> Ноут преимущественно подключен через Интернет, PC в локальной сети.
> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
> возможно Android планшет.
> На Debian-based машинах хочу резервировать конфигурацию в /etc и
> выбранные пользовательские данные.
> 
> Резервное копирование хотелось бы выполнять:
> - По расписанию.
> - По запросу.
> - При пропуске предыдущего.
> 
> Условия:
> 
> - Все каналы должны быть зашифрованы.
> - Копирование не должно занимать много времени (используется Интернет).
> - Должна быть потенциальная возможность репликации в облако (куда, пока
> не знаю, потому должна быть возможность гибко настроить) с шифрованием
> бэкапов.
> - Должно быть простое централизованное управление бэкапами (в идеале,
> интеграция в web-интерфейс).
> - Минимум ручной допилки и сложной настройки на сервере.
> 



Re: Backup

2018-02-15 Пенетрантность artiom
Плюсом сюда идут вопросы, по только что узнанному мной OwnCloud/NextCloud.

В чём разница с Bacula? Имеет смысл?



Re: Backup

2018-02-15 Пенетрантность grey.fenrir

02/15/2018 10:59 PM, artiom пишет:

Подскажите, чем возможно выполнять резервное копирование нескольких
машин по сети, чтобы условия ниже были удовлетворены.

borgbackup весьма хорош


Также, в перспективе, могут резервироваться машины с Windows и MacOS,
возможно Android планшет.
работает на macos, порты на win и android были, не знаю, в каком они 
сейчас состоянии.


- Должна быть потенциальная возможность репликации в облако (куда, пока
не знаю, потому должна быть возможность гибко настроить) с шифрованием
бэкапов.
смотря что в облаке. Если в облако есть возможность поставить серверную 
часть - всё просто. Если это облачное хранилище - тоже просто, но 
вероятнее всего медленно.



- Должно быть простое централизованное управление бэкапами (в идеале,
интеграция в web-интерфейс).

вебморду к этому тоже пилили, но я не проверял, мне в терминале проще.


- Минимум ручной допилки и сложной настройки на сервере.

весьма дружелюбен

ps: Отзывы по borg'у собираю.

---
Тарас aka L0ki



Re: Backup

2018-02-15 Пенетрантность Павел Марченко
Без допилов только проприетарщина. В остальном Бакула точнее её форк.

15 февр. 2018 г. 22:59 пользователь "artiom"  написал:

> Подскажите, чем возможно выполнять резервное копирование нескольких
> машин по сети, чтобы условия ниже были удовлетворены.
>
> Склоняюсь к следующим вариантам:
>
> - Bacula.
> - BackupPC.
> - Решения на базе rsync.
>
> Изо всего работал только с rsync, о Bacula имею представление, а
> BackupPC мне неизвестен.
>
> Резервное копирование хочу выполнять на центральное хранилище, с FreeNAS.
> Основные машины - PC с Debian и ноут с Debian.
> Ноут преимущественно подключен через Интернет, PC в локальной сети.
> Также, в перспективе, могут резервироваться машины с Windows и MacOS,
> возможно Android планшет.
> На Debian-based машинах хочу резервировать конфигурацию в /etc и
> выбранные пользовательские данные.
>
> Резервное копирование хотелось бы выполнять:
> - По расписанию.
> - По запросу.
> - При пропуске предыдущего.
>
> Условия:
>
> - Все каналы должны быть зашифрованы.
> - Копирование не должно занимать много времени (используется Интернет).
> - Должна быть потенциальная возможность репликации в облако (куда, пока
> не знаю, потому должна быть возможность гибко настроить) с шифрованием
> бэкапов.
> - Должно быть простое централизованное управление бэкапами (в идеале,
> интеграция в web-интерфейс).
> - Минимум ручной допилки и сложной настройки на сервере.
>
>


Re: backup bike

2016-12-03 Пенетрантность 9211297


11/28/2016 11:49 PM, Dmitri V. Ivanov пишет:

On Sun, Nov 27, 2016 at 05:10:14AM +0300, 9211297 wrote:
> сеть. Файловые системы - строго наитивные (сейчас фактически только
> ext4). Разумеется, через некоторое время (или размер инкремента) ???
> полный бэкап.

На нативных строгий инкремент дает алгоритм, вшитый в GNU tar с
опцией --listed-incremental. Соответственно искать обвязку либо писать
самому.


Именно на этом я велосипед и строил. Но есть ряд нюансов (победимых, но 
имхо дорого).

borg очень понравился, на нем и остановлюсь.
Благодарю всех за помощь.



Re: backup bike

2016-11-28 Пенетрантность Dmitri V. Ivanov
On Sun, Nov 27, 2016 at 05:10:14AM +0300, 9211297 wrote:
> сеть. Файловые системы - строго наитивные (сейчас фактически только
> ext4). Разумеется, через некоторое время (или размер инкремента) ???
> полный бэкап.

На нативных строгий инкремент дает алгоритм, вшитый в GNU tar с 
опцией --listed-incremental. Соответственно искать обвязку либо писать
самому.



Re: backup bike

2016-11-28 Пенетрантность Konstantin Matyukhin
2016-11-27 10:37 GMT+01:00 Михаил Касаджиков :

> 27.11.2016 05:10, 9211297 пишет:
> > Приветствую.
> > Хочу строить велосипед, но думаю, что зря - должно же быть что-то именно
> такое. Прошу подтвердить или опровергнуть.
> > Задача: инкрементальные автоматизированные бэкапы некоторых частей $HOME
> на одном, максимум - двух хостах (соответственно, могут быть не совсем
> автоматизированы, что-то можно свалить на пользователя, то есть меня).
> Инкрементальность - ключевой момент, ибо будет литься в сеть. Файловые
> системы - строго наитивные (сейчас фактически только ext4). Разумеется,
> через некоторое время (или размер инкремента) – полный бэкап.
> > Отдельные уровни резервирования (по частоте, например) для данных разной
> важности/размера (пароли, документы, фотографии, ...).
> > Хранение локально и онлайн, соответственно, под пароль всё, что кидается
> на dropbox/googledisk/etc.
> > Время восстановления - не особо критично, несколько часов вполне
> годится. А вот время бэкапа по возможности хотелось бы сократить.
> > Написать могу, но времени жалко, а главное надежность на себе проверять
> придется.
> > Рассмотрю подсказки в стороны файловых систем тоже, но я с трудом могу
> представить на них инкремент.
>

Мне нравится borg. https://borgbackup.readthedocs.io/en/stable/index.html
Есть в бэкпортах. Вроде бы все вышеперечисленное умеет.

-- 
С уважением,
Константин Матюхин


Re: backup bike

2016-11-27 Пенетрантность Михаил Касаджиков
27.11.2016 05:10, 9211297 пишет:
> Приветствую.
> Хочу строить велосипед, но думаю, что зря - должно же быть что-то именно 
> такое. Прошу подтвердить или опровергнуть.
> Задача: инкрементальные автоматизированные бэкапы некоторых частей $HOME на 
> одном, максимум - двух хостах (соответственно, могут быть не совсем 
> автоматизированы, что-то можно свалить на пользователя, то есть меня). 
> Инкрементальность - ключевой момент, ибо будет литься в сеть. Файловые 
> системы - строго наитивные (сейчас фактически только ext4). Разумеется, через 
> некоторое время (или размер инкремента) – полный бэкап.
> Отдельные уровни резервирования (по частоте, например) для данных разной 
> важности/размера (пароли, документы, фотографии, ...).
> Хранение локально и онлайн, соответственно, под пароль всё, что кидается на 
> dropbox/googledisk/etc.
> Время восстановления - не особо критично, несколько часов вполне годится. А 
> вот время бэкапа по возможности хотелось бы сократить.
> Написать могу, но времени жалко, а главное надежность на себе проверять 
> придется.
> Рассмотрю подсказки в стороны файловых систем тоже, но я с трудом могу 
> представить на них инкремент.
>
>
> -
> Лев Б.
>
backup-manager

Инкрементарные бэкапы, заливка куда-нить, шифрование с помощью pgp. Программа 
простая, на баше. Никаких центральных серверов и прочего ынтерпрайза. Проще 
только сам tar.



RE: backup bike

2016-11-26 Пенетрантность Pavel Marchenko
Bacula. Все перечисленное может. Складывает в девайс или в указанную фс.

-Исходное сообщение-
От: "9211297" <9211...@gmail.com>
Отправлено: ‎27.‎11.‎2016 5:27
Кому: "debian-russian@lists.debian.org" 
Тема: backup bike

Приветствую.
Хочу строить велосипед, но думаю, что зря - должно же быть что-то именно 
такое. Прошу подтвердить или опровергнуть.
Задача: инкрементальные автоматизированные бэкапы некоторых частей $HOME 
на одном, максимум - двух хостах (соответственно, могут быть не совсем 
автоматизированы, что-то можно свалить на пользователя, то есть меня). 
Инкрементальность - ключевой момент, ибо будет литься в сеть. Файловые 
системы - строго наитивные (сейчас фактически только ext4). Разумеется, 
через некоторое время (или размер инкремента) – полный бэкап.
Отдельные уровни резервирования (по частоте, например) для данных разной 
важности/размера (пароли, документы, фотографии, ...).
Хранение локально и онлайн, соответственно, под пароль всё, что кидается 
на dropbox/googledisk/etc.
Время восстановления - не особо критично, несколько часов вполне 
годится. А вот время бэкапа по возможности хотелось бы сократить.
Написать могу, но времени жалко, а главное надежность на себе проверять 
придется.
Рассмотрю подсказки в стороны файловых систем тоже, но я с трудом могу 
представить на них инкремент.


-
Лев Б.



Re: backup bike

2016-11-26 Пенетрантность Дмитрий Подковыркин

Посмотрите на rdiff-backup.
Может инкрементить локально, может по ssh.
Всегда хранится актуальная копия, а прошлые снимки как последовательные 
инктеременты к с самому свежему.

--
Дмитрий
telegram: @dmitryrw

 



9211297 <9211...@gmail.com> 27 ноября 2016 г. 7:27:11 написал:


Приветствую.
Хочу строить велосипед, но думаю, что зря - должно же быть что-то именно
такое. Прошу подтвердить или опровергнуть.
Задача: инкрементальные автоматизированные бэкапы некоторых частей $HOME
на одном, максимум - двух хостах (соответственно, могут быть не совсем
автоматизированы, что-то можно свалить на пользователя, то есть меня).
Инкрементальность - ключевой момент, ибо будет литься в сеть. Файловые
системы - строго наитивные (сейчас фактически только ext4). Разумеется,
через некоторое время (или размер инкремента) – полный бэкап.
Отдельные уровни резервирования (по частоте, например) для данных разной
важности/размера (пароли, документы, фотографии, ...).
Хранение локально и онлайн, соответственно, под пароль всё, что кидается
на dropbox/googledisk/etc.
Время восстановления - не особо критично, несколько часов вполне
годится. А вот время бэкапа по возможности хотелось бы сократить.
Написать могу, но времени жалко, а главное надежность на себе проверять
придется.
Рассмотрю подсказки в стороны файловых систем тоже, но я с трудом могу
представить на них инкремент.


-
Лев Б.






Re: backup по sftp в сложных условиях

2011-10-20 Пенетрантность Dmitry Samsonov

20.10.2011 11:41, Гуща Роман пишет:

Так ведь если анализируются файлы в директории примонтированной через sshfs то 
таймаута как раз быть не должно. Траффик-то будет.


  Возможно, я некорректно выразился.
  Лимит по времени ~30 минут.

--
Dmitry Samsonov


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4ea07557.2070...@gmail.com



Re: backup по sftp в сложных условиях

2011-10-20 Пенетрантность Ivan Shmakov
> "ГР" == Гуща Роман  writes:
> 19.10.2011, 14:57, "Dmitry Samsonov" :

 >> Всё оказалось хуже чем я думал: пока rsync проанализирует эти
 >> десятки тысяч файлов, примонтированных через sshfs, как раз проходит
 >> полчаса и соединение отваливается по тайм-ауту -- почти ничего
 >> забрать не успевает.

 > Так ведь если анализируются файлы в директории примонтированной через
 > sshfs то таймаута как раз быть не должно. Траффик-то будет.

 Я так понял, это не timeout, а limit.  Чтобы abuse не было.

-- 
FSF associate member #7257


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/861uu8t80e@gray.siamics.net



Re: backup по sftp в сложных условиях

2011-10-20 Пенетрантность Гуща Роман
19.10.2011, 14:57, "Dmitry Samsonov" :
>    Всё оказалось хуже чем я думал: пока rsync проанализирует эти десятки
> тысяч файлов, примонтированных через sshfs, как раз проходит полчаса и
> соединение отваливается по тайм-ауту -- почти ничего забрать не успевает.

Так ведь если анализируются файлы в директории примонтированной через sshfs то 
таймаута как раз быть не должно. Траффик-то будет.

-- 
С уважением,
Роман Гуща


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/2591319096...@web143.yandex.ru



Re: backup по sftp в сложных условиях

2011-10-19 Пенетрантность Ivan Shmakov
> Eugene V Samusev  writes:
> 2011/10/19 Dmitry Samsonov 

 >> Всё оказалось хуже чем я думал: пока rsync проанализирует эти
 >> десятки тысяч файлов, примонтированных через sshfs, как раз проходит
 >> полчаса и соединение отваливается по тайм-ауту -- почти ничего
 >> забрать не успевает.

Успевает ли $ rsync -ni (и, разумеется, без -c, AKA --checksum)
выполнится до истечения времени соединения?  Если так, то его
вывод можно использовать для создания списка для последующего
выполнения команды sftp(1).

[…]

 > А зачем монтировать через sshfs ? rsync  -e ssh пробовали  ?

Подозреваю, дело в последнем:

--cut: 4e9cb575.7010...@gmail.com --
  У меня есть доступ по SFTP на сервер, откуда мне надо сбекапить
большой объём данных (хотя бы разово руками, но лучше регулярно и
"само") по узкому каналу. Проблема в том, что там тайм-аут в полчаса
(соответственно, успевается слить от силы несколько процентов) и у меня
отсутствует shell.
--cut: 4e9cb575.7010...@gmail.com --

-- 
FSF associate member #7257


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/86r529tdcb@gray.siamics.net



Re: Re: backup по sftp в сложных условиях

2011-10-19 Пенетрантность Dmitry Fedorov
19 октября 2011 г. 17:57 пользователь Dmitry Samsonov написал:

>  Единственное, что приходит в голову -- скрипт, который сначала составит
> список файлов, а потом будет забирать их поштучно, устанавливая для каждого
> файла отдельное соединение (благо файл большого размера, который за один раз
> из-за тайм-аута не пролезет, там только один и я его уже забрал rsync-ом).
>  Есть ли готовые решения на этот счёт? Или, быть может, есть какой-то более
> нормальный способ?

http://savannah.nongnu.org/projects/offmirror

составляет список файлов, сравнивает списки, разницу tar'ит.
Может сумеете прикрутить к своей задаче.


Re: Re: backup по sftp в сложных условиях

2011-10-19 Пенетрантность Eugene V. Samusev
2011/10/19 Dmitry Samsonov 

>  Всё оказалось хуже чем я думал: пока rsync проанализирует эти десятки
> тысяч файлов, примонтированных через sshfs, как раз проходит полчаса и
> соединение отваливается по тайм-ауту -- почти ничего забрать не успевает.
>  Единственное, что приходит в голову -- скрипт, который сначала составит
> список файлов, а потом будет забирать их поштучно, устанавливая для каждого
> файла отдельное соединение (благо файл большого размера, который за один раз
> из-за тайм-аута не пролезет, там только один и я его уже забрал rsync-ом).
>  Есть ли готовые решения на этот счёт? Или, быть может, есть какой-то более
> нормальный способ?

А зачем монтировать через sshfs ? rsync  -e ssh пробовали  ?



-- 
Евгений Самусев.


Re: Re: backup по sftp в сложных условиях

2011-10-19 Пенетрантность Dmitry Samsonov

Приветствую!


Пока попробовал примонтировать через sshfs с ключом reconnect, и
потом rsync-ом, но после тайм-аута (через полчаса) почему-то всё
равно посыпалось "failed: Input/output error".  Может здесь можно
как-то sshfs в нужную позу поставить? (Хотя мне это решение не
кажется очень "прямым", если честно.)


  Всё оказалось хуже чем я думал: пока rsync проанализирует эти десятки 
тысяч файлов, примонтированных через sshfs, как раз проходит полчаса и 
соединение отваливается по тайм-ауту -- почти ничего забрать не успевает.
  Единственное, что приходит в голову -- скрипт, который сначала 
составит список файлов, а потом будет забирать их поштучно, устанавливая 
для каждого файла отдельное соединение (благо файл большого размера, 
который за один раз из-за тайм-аута не пролезет, там только один и я его 
уже забрал rsync-ом).
  Есть ли готовые решения на этот счёт? Или, быть может, есть какой-то 
более нормальный способ?


--
Dmitry Samsonov


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4e9ead2b.1090...@gmail.com



Re: backup по sftp в сложных условиях

2011-10-18 Пенетрантность Dmitry Samsonov

18.10.2011 05:09, Иван Лох пишет:

#!/usr/bin/lftp -f
open
mirror -с


  Уходит на реконнект после
Getting directory contents (0) [Making data connection...]
  Даже ничего скачать не успевает.

  Пока попробовал примонтировать через sshfs с ключом reconnect, и 
потом rsync-ом, но после тайм-аута (через полчаса) почему-то всё равно 
посыпалось "failed: Input/output error".
  Может здесь можно как-то sshfs в нужную позу поставить? (Хотя мне это 
решение не кажется очень "прямым", если честно.)




Единственно, что потребуется место для зеркала.


  Отзеркаливание вполне подойдёт хотя бы для начала.


--
Dmitry Samsonov


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4e9d8319.7060...@gmail.com



Re: backup по sftp в сложных условиях

2011-10-17 Пенетрантность Иван Лох
On Tue, Oct 18, 2011 at 03:08:37AM +0400, Dmitry Samsonov wrote:
> Приветствую!
> 
>   У меня есть доступ по SFTP на сервер, откуда мне надо сбекапить
> большой объём данных (хотя бы разово руками, но лучше регулярно и
> "само") по узкому каналу. Проблема в том, что там тайм-аут в полчаса
> (соответственно, успевается слить от силы несколько процентов) и у
> меня отсутствует shell.
>   Исправление этих досадных недостатков на стороне сервера
> затруднено причинами административного характера.
> 
>   Что здесь можно посоветовать?

#!/usr/bin/lftp -f
open
mirror -с  

Единственно, что потребуется место для зеркала. 


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20111018010950.gb6...@nano.ioffe.rssi.ru



Re: Backup

2008-07-05 Пенетрантность Anton Tolchanov
> Приветствую. Возможно тема тут поднималась, а существует-ли в природе
> фришный проект централизованного бэкапа
> linux/windows с использованием шифрования с открытым ключем? Из того что
> есть пока самым приемлемым видится
> Backuppc но вот шифрования он не умеет. Как вариант fsbackup на Linux и
> cobian backup на Windows но вот восстановление с них это отдельная головная
> боль.

boxbackup?

-- 
ryzh-ripe


Re: Backup

2008-07-02 Пенетрантность Maxym Kudelya

Oleg Frolkov wrote:
Приветствую. Возможно тема тут поднималась, а существует-ли в природе 
фришный проект централизованного бэкапа
linux/windows с использованием шифрования с открытым ключем? 

rsyncrypto

--
maxym


--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: Backup

2008-07-02 Пенетрантность Dmitriy Sirant

Покотиленко Костик пишет:

В Вто, 01/07/2008 в 22:36 +0300, Dmitriy Sirant пишет:

Oleg Frolkov пишет:
Приветствую. Возможно тема тут поднималась, а существует-ли в природе 
фришный проект централизованного бэкапа
linux/windows с использованием шифрования с открытым ключем? Из того что 
есть пока самым приемлемым видится
Backuppc но вот шифрования он не умеет. Как вариант fsbackup на Linux и 
cobian backup на Windows но вот восстановление с них это отдельная 
головная боль.


Олег.


bacula ?


под этот если не ошибаюсь есть клиент под винду.




И более того он даже работает :)
Но как мне показалось, немного сложновата идеология для понимания, но 
есть русский мануал (перевод) где описываются основные идеи и концепции.


P.S. Стоит полгода работает - полет нормальный. Уже пробовал и поднимать 
даныне из бэкапа. Debian - server, 2 x Win2003 клиенты.



--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: Backup

2008-07-02 Пенетрантность Покотиленко Костик
В Вто, 01/07/2008 в 22:36 +0300, Dmitriy Sirant пишет:
> Oleg Frolkov пишет:
> > Приветствую. Возможно тема тут поднималась, а существует-ли в природе 
> > фришный проект централизованного бэкапа
> > linux/windows с использованием шифрования с открытым ключем? Из того что 
> > есть пока самым приемлемым видится
> > Backuppc но вот шифрования он не умеет. Как вариант fsbackup на Linux и 
> > cobian backup на Windows но вот восстановление с них это отдельная 
> > головная боль.
> > 
> > Олег.
> > 
> 
> bacula ?

под этот если не ошибаюсь есть клиент под винду.

-- 
Покотиленко Костик <[EMAIL PROTECTED]>


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: Backup

2008-07-01 Пенетрантность Andrii Dmytruk

On Tue, 01 Jul 2008 21:22:07 +0300, Oleg Frolkov <[EMAIL PROTECTED]> wrote:

Приветствую. Возможно тема тут поднималась, а существует-ли в природе  
фришный проект централизованного бэкапа
linux/windows с использованием шифрования с открытым ключем? Из того что  
есть пока самым приемлемым видится
Backuppc но вот шифрования он не умеет. Как вариант fsbackup на Linux и  
cobian backup на Windows но вот восстановление с них это отдельная  
головная боль.


Олег.



Здраствуйте.
Возможно подойдет duplicity. Есть в репозитарие.
Андрей.


--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: Backup

2008-07-01 Пенетрантность Dmitriy Sirant

Oleg Frolkov пишет:
Приветствую. Возможно тема тут поднималась, а существует-ли в природе 
фришный проект централизованного бэкапа
linux/windows с использованием шифрования с открытым ключем? Из того что 
есть пока самым приемлемым видится
Backuppc но вот шифрования он не умеет. Как вариант fsbackup на Linux и 
cobian backup на Windows но вот восстановление с них это отдельная 
головная боль.


Олег.



bacula ?


--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-15 Пенетрантность Alexander Kogan
Hi!

В сообщении от Среда 15 августа 2007 19:13 Dmitri V. Ivanov написал(a):
> Вспомнился тост в тему:
> "Мой отец говорил: "Имею желание купить автомобиль - но не имею
> возможности, имею возможность купить козу - но не имею желания". Так
> выпьем же за то, чтобы наши желания всегда совпадали с нашими
> возможностями"(с)

Не, неправильно. Нужно, чтобы возможности совпадали с желаниями ;-)

-- 
Alexander Kogan
Institute of Applied Physics
Russian Academy of Sciences


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Пример скрипта отбора файлов (было Re: backup solution)

2007-08-15 Пенетрантность Dmitri V. Ivanov
Здравствуй, дорогой All! Если ты занят и тебе не интересно - немедленно
сотри это сообщение. Если же нет, то я буду рад с тобой это обсудить.

*

Предположим, что у нас имеется некое поддерево в linux-овой 
файловой системе (ext2,ext3,...). Важно, что на ней имеются inodes
и всякая операция изменяющая атрибуты файла (включая данные) 
приводит к тому, что ctime "помечается для обновления" (в том числе
и при переименовании файла, что жестко posix-ом не устанавливается).

Мы хотим отслеживать файлы, изменившиеся между запусками нашей
программы.

Первая мысль, которая приходит в голову - запустить
find /part/to/subtree -cnewer /path/to/timestamp/file
и делать что-то с этими файлами. find действительно покажет нам
файлы, которые изменялись за период с момента, когда мы создали
/path/to/timestamp/file с точки зрения ядра (то есть в них что-то
писали, меняли права/владельцев и т. п.), но как быть если в список
попадает каталог? Если у него изменились права доступа, то вроде все
нормально, а если его переименовали? С точки зрения пользователя или
пользовательского приложения все файлы в этом каталоге изменились
(приложения получают доступ к файлам по пути к ним), тогда как
timestamp-ы у этих файлов вполне могли остаться "старыми".

Для разрешения этой разницы в точках зрения между ядром и
пользовательским приложением нам нужно установить, что родительский
каталог некоторого файла, не изменившегося с точки зрения файловой
системы тот же, что был при предыдущем прогоне. Делаем мы это основываясь
на том, что каждому файлу соответствует уникальный inode number:

- Если родительский каталог на момент предыдущего прогона существовал, то
  если этот каталог был переименован в то место в иерархии, которое занимал
  другой каталог, то у нас изменится inode number;

- Тот же inode number для другого каталога мы можем получить только одним
  способом: стереть старый каталог (освободить inode), создать по крайне 
  маловероятной случайности пучтой каталог в том же месте, с тем же именем
  и inode number, но поскольку каталог создается пустым, то любой файл, 
  который мы в нем найдем будет обновленным с точки зрения ядра (по 
  значению ctime).

/* К делу не относится: если в каталоге есть хоть один файл, который не
   был изменен с точки зрения файловой системы, то, зная имена и inode
   numbers каталогов на момент предыдущего "прогона" программы, мы можем 
   установить его старое имя
*/

То есть при каждом проходе программы мы сохраняем в snapshoot файл строчки
вида:

путь/к/каталогу/от/корня/обрабатываемого/поддерева/с/именем'/'

и ищем для каждого каталога такую строчку в файле от предыдущего прогона.

На основании результатов сравнения мы устанавливаем флаг, говорящий о том
является ли родительский каталог перемещенным/новым, и на основании этого 
флага считаем файл обновленным безусловно (родительский каталог
переименован) или на основании сравнения ctime с записанным ctime от
прошлого прогона.

/* К делу не относится 2: если ядро не помечает для обновления ctime файла
   при обработке сист. вызова rename (posix поведения не регламентирует и
   это не случай linux), то подобная логика должна применяться ко всем 
   файлам, а не только к каталогам
*/

Вот вроде бы и все о методе отбора изменившихся файлов. Теперь о реализации.

Обходя обрабатываемое дерево программа должна выполнить с каждым файлом
следующие действия:

1. Вызвать по ссылке &$fileproc подпрограмму, выполняющую желаемые действия
   с файлом (или его именем) со следующими параметрами:
   - путь к файлу от корня обрабатываемого поддерева (включая имя) $filename
   - признак того, что программа считает файл "измененным" $fileisnewer.
 Вычисляется на основе того, что либо родительский каталог был
 переименован/заново создан ($curparent->{unknown}), либо ctime файла
 ($ctime) не меньше записанного от предыдущего прогона ($oldtime,
 хранится в первой строчке старого snapshoot-файла)
   - тип файла ($filetype) - символ: f - regular file, l - symlink,
 d - каталог, o - другой.
2. Если файл является каталогом (и у программы есть права на его чтение и
   исполнение):
   2.1 Запомнить информацию в файле $NewSnapshoot (для корня поддерева вместо
   имени выводится время начала прогона).
   2.2 На основании поиска файла по имени в файле $workSnapshoot от 
   предыдущего прогона установить флаг того, что каталог неизвестный
   (переименованный или вновь созданный) $dirunknown
   2.3 Перейти к обработке содержимого каталога.
3. Если все файлы в каталоге обработаны вернуться в родительский каталог.

Для каждого уровня иерархии каталогов процедура getlevel заполняет
структуру, на которую указывает переменная $curparent. Поля:

 name - путь к каталогу от корня обрабатываемого поддерева;
 entries  - отсортированный (про сортировку ниже) массив directory entries
 unknown  - признак переименованности/вновьсозданности каталога
 entnum   - размер массива entries
 entindex - текущая позиция в этом массиве
 parent   - ссылка на такую же стр

Re: backup solution

2007-08-15 Пенетрантность Dmitri V. Ivanov
On Wed, Aug 15, 2007 at 12:27:26AM +0400, Pechnikov Alexey wrote:
> Только остался один немного философский вопрос: вы считаете достаточно 
> надежным решением делать бэкап на соседний комп? Мое мнение такое, что лучше 
> бэкапить по дохленькому каналу, но зато на сервер в другом регионе. Нет, я не 
> параноик, как это может показаться, но зато точно знаю, что жизнь слишком 
> многофакторная штука, чтобы строить какие-то модели. Так что лучше 
> подстраховаться и "не класть все яйца в одну корзину". 

Вспомнился тост в тему:
"Мой отец говорил: "Имею желание купить автомобиль - но не имею
возможности, имею возможность купить козу - но не имею желания". Так
выпьем же за то, чтобы наши желания всегда совпадали с нашими
возможностями"(с)

WBR
Dmitri Ivanov


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-15 Пенетрантность Pechnikov Alexey
В сообщении от Среда 15 августа 2007 17:04 Alexey Lobanov написал(a):
> На практике я лично использую параллельно три очень разные системы
> бэкапа. У которых существенно разные условия для падения, уничтожения и
> пр. И не без оснований надеюсь, что при реальной непредсказуемой в
> деталях жопе хотя бы одна схема из трёх даст хорошее восстановление.

А сколько схем из этих трех уже опробованы на практике? У меня пока все только 
в теории, это с одной стороны хорошо, с другой - непонятна практическая 
применимость.



Re: backup solution

2007-08-15 Пенетрантность Alexey Lobanov
15.08.2007 16:14, Mikhail A Antonov пишет:

> On Wednesday 15 August 2007 14:37, Alexey Lobanov wrote:

>>  Ну, можно, наверное, извратиться с помощью третьей машины-посредника в
>>  третьем месте. Которая имеет права доступа RO на сервер, RW на
>>  веб-архив, а сама хранит только протоколы бэкапов.

> Не думаю что увеличение количества промежуточных узлов есть хорошая идея
> в плане организации бэкапа. Может я не прав, но мне так кажется.

Дык. Но бэкап, который может быть уничтожен злоумышленником вместе с
актуальными данными - это вроде как значительно хуже, чем
рассматриваемое усложнение. А три узла вырастают исключительно из
поставленного условия "запись по ftp на чужой сервер".

На практике я лично использую параллельно три очень разные системы
бэкапа. У которых существенно разные условия для падения, уничтожения и
пр. И не без оснований надеюсь, что при реальной непредсказуемой в
деталях жопе хотя бы одна схема из трёх даст хорошее восстановление.

А.

> 


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-15 Пенетрантность Mikhail A Antonov
On Wednesday 15 August 2007 14:37, Alexey Lobanov wrote:
>  Ну, можно, наверное, извратиться с помощью третьей машины-посредника в
>  третьем месте. Которая имеет права доступа RO на сервер, RW на
>  веб-архив, а сама хранит только протоколы бэкапов.
Не думаю что увеличение количества промежуточных узлов есть хорошая идея
в плане организации бэкапа. Может я не прав, но мне так кажется.

-- 
Best regards,
 Mikhail
Bart-mdv- @ SolarNet
IRC: irc.solarnet.ru
WWW: http://www.solarnet.ru/

--
Человеку надлежит жить с самим собой и постоянно заботиться, чтобы это
была хорошая кампания.
-- С.И. Хьюз


pgpELC9pRmsji.pgp
Description: PGP signature


Re: backup solution

2007-08-15 Пенетрантность Alexey Lobanov
15.08.2007 13:54, Pechnikov Alexey пишет:

>> Обратное направление подключения. Не сервер должен писать данные на
>> архиватор с правами доступа RW, а архиватор должен читать данные с
>> сервера с правами доступа RO.

> Интересно, как это реализовать, если к серверу бэкапа доступ "как минимум 
> ftp" 
> (см. пост выше) ?

Ну, можно, наверное, извратиться с помощью третьей машины-посредника в
третьем месте. Которая имеет права доступа RO на сервер, RW на
веб-архив, а сама хранит только протоколы бэкапов.

А.

> 


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-15 Пенетрантность Pechnikov Alexey
В сообщении от Среда 15 августа 2007 12:58 Alexey Lobanov написал(a):
> 15.08.2007 11:38, Pechnikov Alexey пишет:
> > Если кто-то взломает сервер, а
> > передача идет именно с сервера в архивное хранилище, то что ему мешает
> > подключиться к архиву и стереть его или попортить?
>
> Обратное направление подключения. Не сервер должен писать данные на
> архиватор с правами доступа RW, а архиватор должен читать данные с
> сервера с правами доступа RO.
>
> Тогда взлом одного из хостов не приведёт к потере всех данных. Останется
> либо актуальное состояние (если враги грохнут архив), либо предыдущая
> версия (если грохнут сервер).
>
> Это безотносительно к конкретному протоколу.
>
> А.

Интересно, как это реализовать, если к серверу бэкапа доступ "как минимум ftp" 
(см. пост выше) ?



Re: backup solution

2007-08-15 Пенетрантность Alexey Lobanov
15.08.2007 11:38, Pechnikov Alexey пишет:

> Если кто-то взломает сервер, а 
> передача идет именно с сервера в архивное хранилище, то что ему мешает 
> подключиться к архиву и стереть его или попортить? 

Обратное направление подключения. Не сервер должен писать данные на
архиватор с правами доступа RW, а архиватор должен читать данные с
сервера с правами доступа RO.

Тогда взлом одного из хостов не приведёт к потере всех данных. Останется
либо актуальное состояние (если враги грохнут архив), либо предыдущая
версия (если грохнут сервер).

Это безотносительно к конкретному протоколу.

А.


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-15 Пенетрантность Pechnikov Alexey
В сообщении от Среда 15 августа 2007 09:06 Alexander GQ Gerasiov написал(a):
> > > Вот интересно, а есть коммерческие сервисы, предоставляющие услугу
> > > бэкапа через ssh с определенным местом для хранения данных и
> > > гарантию секьюрности? Ну не в банковский же сейф класть бэкапы,
> > > актуальность аховая получается...
> >
> > да, есть такие службы
>
> Есть много всяких "веб-дисков". Многие из них дают за некоторые
> деньги как минимум ftp. А секьютность - шифруй все pgp.

А как на эти ресурсы данные заливать? Я вижу два вопроса - защита от 
технических проблем и от взлома. С первым ясно - нужно хранить историю, а не 
только последний дамп. Со вторым сложнее. Если кто-то взломает сервер, а 
передача идет именно с сервера в архивное хранилище, то что ему мешает 
подключиться к архиву и стереть его или попортить? 



Re: backup solution

2007-08-14 Пенетрантность Alexander GQ Gerasiov
На Tue, 14 Aug 2007 20:57:02 +
GoR <[EMAIL PROTECTED]> записано:

> В Срд, 15/08/2007 в 00:27 +0400, Pechnikov Alexey пишет:
> > > Просто у меня "канал" лежит не по "интернету", а по "локалке"
> > > можно забивать сколько угодно. У нас получился разговор лунатика с
> > > марсианином... Вроде оба говорим по-русски, а не понимаем друг
> > > друга нихрена... Ну да ладно...
> > 
> > Вот теперь понятно. Действительно, вам и сжатие и шифрование
> > трафика не нужно, только процессорное время потеряете. И канал
> > можно считать надежным.
> > 
> > Только остался один немного философский вопрос: вы считаете
> > достаточно надежным решением делать бэкап на соседний комп? Мое
> > мнение такое, что лучше бэкапить по дохленькому каналу, но зато на
> > сервер в другом регионе. Нет, я не параноик, как это может
> > показаться, но зато точно знаю, что жизнь слишком многофакторная
> > штука, чтобы строить какие-то модели. Так что лучше подстраховаться
> > и "не класть все яйца в одну корзину". 
> > 
> > Вот интересно, а есть коммерческие сервисы, предоставляющие услугу
> > бэкапа через ssh с определенным местом для хранения данных и
> > гарантию секьюрности? Ну не в банковский же сейф класть бэкапы,
> > актуальность аховая получается...
> > 
> > 
> да, есть такие службы
Есть много всяких "веб-дисков". Многие из них дают за некоторые
деньги как минимум ftp. А секьютность - шифруй все pgp.

-- 
Best regards,
 Alexander GQ Gerasiov

 Contacts:
 e-mail: [EMAIL PROTECTED]
 Homepage: http://gq.net.ru


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-14 Пенетрантность GoR
В Срд, 15/08/2007 в 00:27 +0400, Pechnikov Alexey пишет:
> > Просто у меня "канал" лежит не по "интернету", а по "локалке" можно
> > забивать сколько угодно. У нас получился разговор лунатика с
> > марсианином... Вроде оба говорим по-русски, а не понимаем друг друга
> > нихрена... Ну да ладно...
> 
> Вот теперь понятно. Действительно, вам и сжатие и шифрование трафика не 
> нужно, 
> только процессорное время потеряете. И канал можно считать надежным.
> 
> Только остался один немного философский вопрос: вы считаете достаточно 
> надежным решением делать бэкап на соседний комп? Мое мнение такое, что лучше 
> бэкапить по дохленькому каналу, но зато на сервер в другом регионе. Нет, я не 
> параноик, как это может показаться, но зато точно знаю, что жизнь слишком 
> многофакторная штука, чтобы строить какие-то модели. Так что лучше 
> подстраховаться и "не класть все яйца в одну корзину". 
> 
> Вот интересно, а есть коммерческие сервисы, предоставляющие услугу бэкапа 
> через ssh с определенным местом для хранения данных и гарантию секьюрности? 
> Ну не в банковский же сейф класть бэкапы, актуальность аховая получается...
> 
> 
да, есть такие службы
-- 
Хочу анлим :(



-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-14 Пенетрантность Pechnikov Alexey
> Просто у меня "канал" лежит не по "интернету", а по "локалке" можно
> забивать сколько угодно. У нас получился разговор лунатика с
> марсианином... Вроде оба говорим по-русски, а не понимаем друг друга
> нихрена... Ну да ладно...

Вот теперь понятно. Действительно, вам и сжатие и шифрование трафика не нужно, 
только процессорное время потеряете. И канал можно считать надежным.

Только остался один немного философский вопрос: вы считаете достаточно 
надежным решением делать бэкап на соседний комп? Мое мнение такое, что лучше 
бэкапить по дохленькому каналу, но зато на сервер в другом регионе. Нет, я не 
параноик, как это может показаться, но зато точно знаю, что жизнь слишком 
многофакторная штука, чтобы строить какие-то модели. Так что лучше 
подстраховаться и "не класть все яйца в одну корзину". 

Вот интересно, а есть коммерческие сервисы, предоставляющие услугу бэкапа 
через ssh с определенным местом для хранения данных и гарантию секьюрности? 
Ну не в банковский же сейф класть бэкапы, актуальность аховая получается...



Re: backup solution

2007-08-14 Пенетрантность Dmitri V. Ivanov
On Tue, Aug 14, 2007 at 10:13:29PM +0400, Pechnikov Alexey wrote:
> Трафик бесплатный, но канал "медленный". Я нигде не говорил, что трафик 
> платный. Удивляет, что скорость канала вы не считаете существенным фактором. 
> Возможно, вас гигабитный интернет на всех серверах и передачу через netcat вы 
> считаете нормальным решением (ssh по лэмпель-зиву сжимает трафик, а netcat 
> вообще без сжатия шлет). Что ж, рад за вас.

Просто у меня "канал" лежит не по "интернету", а по "локалке" можно
забивать сколько угодно. У нас получился разговор лунатика с
марсианином... Вроде оба говорим по-русски, а не понимаем друг друга
нихрена... Ну да ладно...

WBR
Dmitri Ivanov


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-14 Пенетрантность Pechnikov Alexey
> В конце своего письма вы упрекаете иеня в том, что я не поинтересовался
> постановкой задачи. И ведь вы правы - надо было, поскольку про канал с
> платным трафиком (как вариант просто медленный канал) я в треде слов не
> помню. А вы как-то догадались...

Трафик бесплатный, но канал "медленный". Я нигде не говорил, что трафик 
платный. Удивляет, что скорость канала вы не считаете существенным фактором. 
Возможно, вас гигабитный интернет на всех серверах и передачу через netcat вы 
считаете нормальным решением (ssh по лэмпель-зиву сжимает трафик, а netcat 
вообще без сжатия шлет). Что ж, рад за вас.

> Насчет "упадет канал" кстати вопрос интересный. Понятно, что архив
> придется лить по новой, но вот останется ли в нормальном состоянии
> snapshoot-file я не знаю... По идее запортиться не должен.

rsync этот вопрос решает автоматически. А от технических проблем никто из нас 
не застрахован. Наверно, у вас канал не каждый день падает, отсюда и такая 
забывчивость :-)



Re: backup solution

2007-08-14 Пенетрантность Dmitri V. Ivanov
On Tue, Aug 14, 2007 at 12:41:29PM +0400, Pechnikov Alexey wrote:
> > Давайте разговаривать по существу. Я указал на два глючка. По ним у вас
> > есть возражения?
> По вашей логике, раз у лошади нет горбов, значит, лошадь - недоделанный 
> верблюд. При чем здесь глюки? То, что есть, работает надежно. То, чего нету, 
> не нужно разработчикам. Мне тоже не нужно, понадобится - буду думать, как 
> добавить или искать другое решение.

В конце своего письма вы упрекаете иеня в том, что я не поинтересовался
постановкой задачи. И ведь вы правы - надо было, поскольку про канал с
платным трафиком (как вариант просто медленный канал) я в треде слов не
помню. А вы как-то догадались...

> 
> > На тему сложности - если у Вас на обеих системах есть по GNU tar-у и
> > есть где держать snapshoot файл на машине-источнике, то комбинация из
> > (1)tar на машине-источнике (с выводом архива в stdout),
> > (2)ssh, и (3)tar, читающего архив со stdin локально тоже позволит
> > слить изменения на машину-приемник (и читать каждый файл в дереве-источнике
> 
> И что же, вы будете каждый раз передавать все содержимое? А канал до сервера 
> с 
> бэкапами в 64 килобит вас не смущает? Интернет-канал в любой момент 
> может "упасть", после чего потребуется _продолжить_ синхронизацию, а не 
> начинать сначала - как вы обработаете эту ситуацию вашим способом?
> 
> > просто не придется). Это сложнее чем rsync, который (при наличии файла
> > на обеих машинах) разобьёт его на куски, там и там посчитает хэши,
> > передаст куски с несовпадающими хэшами с машины-источника на
> > машину-приемник, соберет файл?
> 
> Для того и сделано, что место на диске ограничено и канал не резиновый. При 
> наличии неограниченного места и неограниченного канала появляются 
> изобретатели "сферического коня в вакууме". В вашем случае можно просто 
> подмонтировать sshfs на сервер с бэкапами и делать полную копию нужных 
> данных. В принципе, вы это и делаете, но не сказать, что самым простым и 
> прозрачным способом. Но это скорее дело вкуса.

Я использую netcat+tar когда мне нужно перелить кучу мелких файлов по
локалке (с машины на машину). Оказывается много быстрее, чем samba.
Попробуйте, если не верите (gzip или bzip2 естественно не используются). 
В приведенном мной примере я просто заменил netcat на ssh. Насчет полной
копии - опять же мы с вами друг друга не поняли. Я предполагал на
машине-источнике вызывать tar с опцией --listed-incremental. tar на
машине-приемнике запускать в общем-то необязательно :)

Насчет "упадет канал" кстати вопрос интересный. Понятно, что архив
придется лить по новой, но вот останется ли в нормальном состоянии
snapshoot-file я не знаю... По идее запортиться не должен.

> 
> > Если у нас есть маломеняющийся здоровенный файл, который надо
> > синхронизировать по каналу с платным трафиком - я безусловно за rsync,
> > но я полагаю его навороченным транспортом и не более.
> 
> На суть дела это не влияет, назовите транспортом, назовите навороченным, но 
> для меня это необходимость. Файл может быть один, файлов может быть много, не 
> в этом дело. 
> 
> 
> > Как человек, который довольно долго интересовался задачей отбора файлов
> > для инкрементального backup-а я не могу понять почему от метода со
> > snaphoot-файлом народ бегает. Он простой. Я готов отстаивать эту точку
> > зрения.
> 
> Решение задачи начинается с формулировки условия. А вы как раз условием и не 
> поинтересовались. Мало кто имеет абсолютно неограниченные ресурсы и может 
> работать с удаленной машиной как с локальной и притом не экономить дисковое 
> пространство.
> 

WBR
Dmitri Ivanov


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



Re: backup solution

2007-08-14 Пенетрантность Dmitri V. Ivanov
On Tue, Aug 14, 2007 at 09:54:53AM +0300, Maxim Kudelya wrote:

> Как я понимаю, это Вы tar shapshot file имеете ввиду, а не LVM snapshot.
> Так? Было бы интересно посмотреть, в таком случае, пример с backup и 
> restore.

Вообще я интересовался именно задачей отбора файлов, изменившихся с
прошлого прогона. Так что из того, что касается именно backup и restore 
я вряд ли предложу что-то более достойное, чем те скрипты, которые идут в
комплекте GNU tar (вот в deb я их что-то не припоминаю, ну да не об этом
речь). А вот скрипт, создающий список изменившихся файлов я
действительно написал (и применять его можно не только для backup). Он
достаточно прост, хотя метод требует некоторых пояснений. И я пожалуй
хочу обсудить с кем-то эту задачу и ее реализацию.

Что касается LVM snapshoot: какой бы алгоритм обхода дерева каталогов с
файлами мы бы не взяли, нам крайне желательно, чтобы файловая система в
течение работы алгоритма не менялась. Это можно получить либо ночью
(если известно, что с файлами никто не работает), либо с помощью LVM
snapshoot. В противном случае у нас при переименовании некоторого
каталога во время работы программы этот каталог может "пропасть" или
наоборот быть обойденным дважды.

WBR
Dmitri Ivanov


-- 
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



  1   2   3   >