Sergey Matveev -> debian-russian@lists.debian.org @ Sat, 24 Jun 2017 23:10:40 +0300:
> *** Artem Chuprina <r...@lasgalen.net> [2017-06-24 22:49]: >>Я правильно понимаю, что если я, допустим, хочу хранить >>бэкапы/архивы/файлообменник на zfs, мне стоит систему все-таки ставить >>на нормальный раздел, а не на zfs же? А zfs разворачивать поверх второго >>раздела? >> >>А если я, допустим, хочу рейд на нескольких дисках, то поделить каждый >>так же на два раздела, на первых сделать raid1 с системой, а на вторых >>собирать raidz? >> >>Потому что систему на zfs я если и водружу, то в случае сбоя хрен я к >>файловой системе штатными средствами бутовой флешки доберусь? > Не знаю как в GNU/Linux, но не могу представить в чём может быть > проблема или подстава достучаться до ФС с бутовой флешки? Загрузились на > "LiveCD" с флешки, сделали zpool import mypool и всё. Проблема в том, что на легко добываемом LiveCD или rescue флешке дистрибутива модулей zfs нет. И zfs-fuse тоже нет. Т.е. надо _заранее_ озаботиться наличием live USB с zfs-fuse и zfs-utils. > Ну ok, как правило > оно захочет подмонтировать сразу же и поэтому перед этим надо указать > другую директорию монтирования. Я так делал много раз, просто указывая > какой-нибудь /tmp/mypool. Я не понял в чём проблемы держать систему на > ZFS. Там это очень кстати бы было если например делается какой-нибудь > dist-upgrade и хочется откатиться до начального состояния в случае > проблем. В zfs есть понятие "переключиться на такой-то снапшот" в смысле сделать так, что в качестве основного состояния FS будет подключен он? И оно это запомнит через перезагрузку? Если так, то это интересно... >>И второй вопрос, к тем, кто имеет опыт. Дома у меня 2 терабайта суммой >>из всего этого уже забито, я собираюсь ставить 4-терабайтник, >>вероятно. На работе имеется в виду держать зеркало из пары >>4-терабайтников. >> >>В обоих случаях супербыстрый доступ не требуется, но и суровых тормозов >>быть не должно. >> >>Сколько надо памяти, чтобы zfs чувствовала себя в этих условиях >>более-менее комфортно? А если я захочу дедупликацию включить? (Кстати, >>ее можно включить/выключить на ходу, или это надо делать в момент >>создания FS?) > 8 гигабайт точно хватит, а вот с 4-мя терзают сомнения. А вот если > хочется включить дедупликацию, то, личного опыта нет, но говорят что > нужно примерно 5 гигабайт RAM на каждый терабайт данных. То есть в > случае с 4 TB дисками, лучше бы иметь более 20 гигабайт. Дедупликацию > можно включить на уже работающей системе, когда угодно, как и выключить. > А точно вам нужна дедупликация? Вот например прозрачное сжатие LZ4 штука > я считаю почти всегда не помешающая (zfs set compression=lz4 mypool), а > вот дедупликация... я за несколько лет так и не смог увидеть в домашних > условиях где бы это могло помочь. Хотелось бы понять, точно или нет. У меня, например, одни и те же фотографии в некотором количестве хранятся в архиве оригиналов (на сервере), у жены на виндовом компе, где она их отбирает и обрабатывает (обрабатывает не больше трети), откуда попадают в бэкап на тот же сервер, у меня на ноуте, и тоже в бэкап, и на планшете, откуда, опять же в бэкап. Суммарный объем копий на компе жены измеряется не меньше чем десятками гигабайт. По идее, не очень много, но интересно было бы поэкспериментировать. Если бы много, то от 2 до 4 копий - это уже вполне повод для дедупликации, но вроде на фоне остального не шибко дофига. > Если делаются какие-то "ответвления" типа clone или там snapshot > (например есть chroot какой-нибудь ОС, хочется из него наделать > разных других chroot-ов для контейнеров) -- то там и так только > дельты хранятся. Там поблочные дельты хранятся или пофайловые? Грубо, если файл переименован, снапшот будет отличаться только инодом, или блоки тоже отделит? > Где-то я чуть ли не в официальных мануалах Sun-а (Oracle?) видел что > зачастую правильное использование clone-ов (snapshot и прочего) > решает большинство проблем с избыточностью, где люди думают о > дедупликации. Хотя если это какой-нибудь там хостинг картиночек, где > одни и те же кошечки тысячами пользователей заливаются, то там > поможет. В ZFS есть команда zdb -S mypool которая "эмулирует" > дедупликацию и показывает поможет ли она или нет. Буквально вчера на > одном из разделов её делал у себя (подумал что может пора?): > # zdb -S storage > Simulated DDT histogram: > bucket allocated referenced > ______ ______________________________ ______________________________ > refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE > ------ ------ ----- ----- ----- ------ ----- ----- ----- > 1 8.87M 1.11T 1.10T 1.10T 8.87M 1.11T 1.10T 1.10T > 2 6.31K 807M 782M 782M 13.0K 1.63G 1.57G 1.57G > 4 250 31.2M 27.2M 27.2M 1.08K 138M 120M 120M > 8 11 1.38M 653K 653K 102 12.8M 5.61M 5.61M > 16 7 896K 134K 134K 156 19.5M 2.38M 2.38M > 32 1 128K 20.5K 20.5K 52 6.50M 1.04M 1.04M > Total 8.88M 1.11T 1.10T 1.10T 8.89M 1.11T 1.11T 1.11T > dedup = 1.00, compress = 1.00, copies = 1.00, dedup * compress / copies > = 1.01 > Видно что о ней думать не приходится совершенно. А, вот, кстати, приятно, да... Спросить "а не надо ли дедуплицировать?" и получить ответ... А кстати, раз в ZFS можно на ходу включить и выключить дедупликацию: возможна ли эпизодическая ручная дедупликация? Т.е. чтобы включил, она отработала, выключил (а то памяти мало для ее постоянной работы), а результат остался?