18.02.2018 23:07, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org  @ Sun, 18 Feb 2018 21:23:52 +0300:
> 
>  >>  >>  >>  >> - rsync поддерживает использование ssh как транспорт, 
> существуют так же
>  >>  >>  >>  >> надстройки разные
>  >>  >>  >>  >> 
>  >>  >>  >>  > Да, rsync хорошая штука. Я пользуюсь. Но дело в том, что над 
> ним
>  >>  >>  >>  > придётся всё доделывать самостоятельно, а в той же Bacula 
> большинство
>  >>  >>  >>  > функций реализовано и отлажено.
>  >>  >>  >> 
>  >>  >>  >>  >> Ничего не знаю по поводу "репликации в облко с шифрованием". 
> Это всё так
>  >>  >>  >>  >> абстрактно...
>  >>  >>  >>  >> 
>  >>  >>  >>  > 1. Шифрование бэкапов.
>  >>  >>  >>  > 2. Репликация в выбранное облако (например, dropbox).
>  >>  >>  >> 
>  >>  >>  >>  > Т.к. dropbox и подобные - одна сплошная дыра, требуется 
> надёжное шифрование.
>  >>  >>  >>  > Т.к. раньше я ими не пользовался, ничего конкретного про
>  >>  >>  >>  > репликацию/наличие API спросить не могу.
>  >>  >>  >> 
>  >>  >>  >> "Тут ведь как..." "Отправлять зашифрованное", "минимально гонять 
> по
>  >>  >>  >> сети", и "восстанавливать за разумное время" - выберите любые два 
> из
>  >>  >>  >> трех.
>  >>  >>  > Первые два, но время именно "разумное", я же не говорю "быстро".
>  >>  >> 
>  >>  >> Я тоже говорю "разумное". Выберите любые два из трех.
>  >>  >> 
>  >>  > В процессе изучения вопроса я обнаружил, что есть такая технология, как
>  >>  > дедупликация на клиенте.
>  >>  > И вообще, как ни странно, в случае с файлопомойками, дедап позволяет
>  >>  > экономить до 98% дискового пространства.
>  >> 
>  >> Это, гм, новость. По моим представлениям, дедупликация на файлопомойке
>  >> (где вообще-то каждый файл в среднем чуть более чем в одном экземпляре)
>  >> дает от силы процентов 10, если она пофайловая, и процентов 20, если
>  >> поблочная. А более вероятно - 3 и 5% соответственно. 98% - это надо
>  >> чтобы каждый файл (или блок) хранился в среднем в 50 экземплярах. Я могу
>  >> себе такое представить на хранилище, откуда работают сотни виртуальных
>  >> машин, но на файлопомойке?
>  >> 
>  > Видимо, там большая файлопомойка с большим числом пользователей.
>  > Пользователи, как правило, не создают контент.
>  > Потому, файлы (и, тем более, блоки) часто дублируются.
> 
> На файлопомойках пользователи как раз обычно создают контент. Если не
> сам контент целиком, то выборка-то у всех разная. И для 50-кратного
> дублирования надо устраивать очень специфический набор пользователей. Я
> бы, пожалуй, взялся только роботами такое обеспечить, причем специально
> криво написанными.
> 
Возможно.

>  >> Вот дедупликация на ее бэкапе - да, в разы. Но опять же, при разумной
>  >> политике хранения бэкапов ну, в 10 раз (если история бэкапов - штук
>  >> 15). Но не в 50.
>  >>
>  > Ещё неплохо, чтобы дедупликация делалась на клиенте.
> 
> Тут, кстати, палка как минимум о двух концах. Я, например, дома
> предпочитаю, чтобы отобранные фотографии из поездок хранились отдельно
> от совпадающих с ними файлов из подборки оригиналов даже в бэкапе. Из
> соображений "в случае сбоя диска будет второй экземпляр". Если сделать
> полную дедупликацию, сбой диска убьет единственный.
> 
Возможно, при ограниченных ресурсах по аппаратуре это применимо, но в
целом, я считаю, подход неправильный.
Надёжность хранилища должна нижним уровнем обеспечиваться.
Явно не прикладным, на котором работает система резервного копирования.

Ответить