ии.
>
Отвечаю сам себе:
решил попробовать ZFS: вылезла проблема переноса нынешних данных.
Было: LVM из 4 дисков
Стало: 5 дисков в ZFS , raidz
Места в сервере на оба набора не хватит...я надеялся что перенесу все данные со
старого массива на
новый диск (места хватает). Создам raidz на ос
обновить и
все жесткие диски.
Вариантов развития несколько:
1) Восстановить всё как было, просто обновив диски на поновее и побольше и не
париться
2) Сделать софтовый raid5 и ext4/xfs/btrfs поверху
3) Поднять ZFS pool и разрулить всё на его уровне
Исходя из прошлых обсуждений в этой рассылке - тут
й константе битик изменился.
> или просто случайно что-то удалил,
Для этого есть бакап. rsync каждые сутки сделает ваши волосы густыми и
шелковистыми.
Особенно на соседний сервер.
> иметь возможность оперативно и просто покопаться в прошлом.
> Насколько я понял, снапшоты zfs и
ектах совсем злое сделал (большой растянутый по времени
рефакторинг без коммитов)
или просто случайно что-то удалил,
иметь возможность оперативно и просто покопаться в прошлом.
Насколько я понял, снапшоты zfs и btrfs это решают,
а снапшоты lvm2 - ну, такое себе, по отзывам.
сожрет 32 гига памяти и не подавится.
> Сколько же нужно тогда?
> Когда-то слышал про рекомендацию 2xRAM.
Сделай гигов 4-8, при небходимости можно и файлик на диске подмонтировать.
> > > 3) /var - 3TB, zfs или ext4?
> > > 4) /home - 1GB, хочется zfs(а) и впоследствии zfs mi
тогда?
Когда-то слышал про рекомендацию 2xRAM.
> > 3) /var - 3TB, zfs или ext4?
> > 4) /home - 1GB, хочется zfs(а) и впоследствии zfs mirror(б),
> > но проблема в том, что 1TB диска пока нет (его характеристики есть),
> > как правильно (точно высчитать) раз
build.
> 2) делать ли раздел под swap если hibernate/suspend не нужен?
Нужен. hibernate/suspend - это так, побочные эффекты. А какой g++ да в 10
потоков сожрет 32 гига памяти и не подавится.
> 3) /var - 3TB, zfs или ext4?
> 4) /home - 1GB, хочется zfs(а) и впоследствии zfs mirror(б)
что придумал (и сразу вопросы):
1) 256G - root, но что-то жирновато для корня, 128G, кажется, "за глаза",
может ещё под что сгодится?
2) делать ли раздел под swap если hibernate/suspend не нужен?
3) /var - 3TB, zfs или ext4?
4) /home - 1GB, хочется zfs(а) и впоследствии zf
On 1/12/20 3:06 PM, Victor Wagner wrote:
> VirtualBox это разработка Oracle (исходно Sun, но скуплена с потрохами
> Oracle). Надо прочитать что тут недавно Линус Торвальдс писал про
> другую разработку с той же историей - ZFS, после чего выкинуть нахрен
> эту проприетарную поделку и
02.04.2018 14:17, Dmitry Kulagin пишет:
>> Отсюда вывод: всё-таки несмотря на "заверения экспертов" располагать ZFS
>> pool лучше поверх LUKS, а не наоборот.
>> LUKS почти не вносит оверхед.
>> А кэширование записи диска всегда возможно включить вручную (как и
On 02.04.2018 14:17, Dmitry Kulagin wrote:
Отсюда вывод: всё-таки несмотря на "заверения экспертов" располагать ZFS
pool лучше поверх LUKS, а не наоборот.
LUKS почти не вносит оверхед.
А кэширование записи диска всегда возможно включить вручную (как и
подобрать размер блока, которы
Отсюда вывод: всё-таки несмотря на "заверения экспертов" располагать ZFS
pool лучше поверх LUKS, а не наоборот.
LUKS почти не вносит оверхед.
А кэширование записи диска всегда возможно включить вручную (как и
подобрать размер блока, который у ZFS, к тому же, переменный).
А после этого
31.03.2018 11:33, Eugene Berdnikov пишет:
> On Sat, Mar 31, 2018 at 12:07:23AM +0300, artiom wrote:
>>> Теперь вопросы:
>>>
>> Отвечу на свои же вопросы.
>>
>>> - Как желательно располагать ZFS разделы относительно разделов LUKS?
>>> Сейча
On Sat, Mar 31, 2018 at 12:07:23AM +0300, artiom wrote:
> > Теперь вопросы:
> >
> Отвечу на свои же вопросы.
>
> > - Как желательно располагать ZFS разделы относительно разделов LUKS?
> > Сейчас ОС на ZFS, который на LUKS.
> > И это правильно, чтобы н
> Теперь вопросы:
>
Отвечу на свои же вопросы.
> - Как желательно располагать ZFS разделы относительно разделов LUKS?
> Сейчас ОС на ZFS, который на LUKS.
> И это правильно, чтобы не усложнять.
> Но здесь не важна производительность.
> А как располагать swap и
Ура, Debian на с корнем на crypted ZFS, образующем зеркало из двух
разделов, взлетел и запускается без ручного вмешательства.
Предыстория такова:
- Начал делать NAS.
- Убедили, что FreeNAS стабилен, удобен, гибок и вообще хорош.
- Попытался поставить, но вместо FreeBSD bsdinstall, увидел
>> Оптимистично.
>> Я уже целый день пытаюсь настроить шифрованный ZFS root.
>> И на Stretch, оно не очень дружит с cryptsetup (матерится на то, что
>> root определить не может).
>>
> Надеюсь, вы не пытаетесь установить zfs на шифрованные диски,
> рекомендуе
Оптимистично.
Я уже целый день пытаюсь настроить шифрованный ZFS root.
И на Stretch, оно не очень дружит с cryptsetup (матерится на то, что
root определить не может).
Надеюсь, вы не пытаетесь установить zfs на шифрованные диски,
рекомендуется делать только обратную процедуру. Кстати, zfs
) и
один SSD Intel DC S3520 240G для L2ARC и ZIL, не считая диска под систему.
Средствами ZFS?
Да. Эти диски полностью отданы под пул ZFS. Ничего другого там нет.
Планирую добавить ещё один терабайтник и сделать RAIDZ-1 вместо
чередования - будет надёжнее.
Поставленные задачи решены, на мой
один SSD Intel DC S3520 240G для L2ARC и ZIL, не считая диска под систему.
>
Средствами ZFS?
> Планирую добавить ещё один терабайтник и сделать RAIDZ-1 вместо
> чередования - будет надёжнее.
>
> Поставленные задачи решены, на мой взгляд:
>
> - ФС хоть и необычная, но довол
14.03.2018 21:10, artiom пишет:
Меня переубедили, объяснив, что на Linux ZFS ещё не production ready.
- Насколько сыра ZFS в Linux?
Я поставил ZFS на одном файловом сервере на работе в начале этого года.
Сама система (Debian 9) там стоит на ext4, на zfs только
пользовательские файлы
*** Sergey Matveev [2018-01-16 00:15]:
>https://blogs.oracle.com/darren/zfs-encryption-what-is-on-disk
>Не знаю поменялось ли это в ZFS-е, но там говорят что L2ARC недоступен
>для использования зашифрованным dataset-ам.
Статья устарела. В https://youtu.be/frnLiXclAMo где точно а
18.01.2018 22:02, Sergey Matveev пишет:
> *** artiom [2018-01-18 21:53]:
>> А что там за проблема с тем, что зеркало будет обеспечивать GEOM, была?
>
> Ну как минимум зачем это делать когда ZFS это тоже может? Во-первых,
> меньше на одну прослойку из gmirror (или что там).
*** artiom [2018-01-18 21:53]:
>А что там за проблема с тем, что зеркало будет обеспечивать GEOM, была?
Ну как минимум зачем это делать когда ZFS это тоже может? Во-первых,
меньше на одну прослойку из gmirror (или что там). Во-вторых, ZFS сам
это всё будет подхватывать. В-третьих, resilver
Хотя, вроде не так всё плохо. Взял две SSD на 256 ГБ (меньше не было):
- Samsung 850 PRO
(http://www.samsung.com/semiconductor/minisite/ssd/product/consumer/850pro/)
- Micron MTFDDAK256TBN-1AR1ZABYY
(https://market.yandex.ru/product--micron-mtfddak256tbn-1ar1zabyy/1721921626)
Micron - TLC 3D, Sa
>
>>> Это, кстати, очень странное замечание, я думал, что мы уже давно живем
>>> во времена SATA-3 и всеобщей поддержки "WRITE BARRIERS" (ну за
>>> исключением счетного числа сломанных дисков), так что энергонезависимый
>>> кеш на запись для программного рейда давно не нужен...
>>>
>> Так здесь не
16.01.2018 11:25, Sergey Matveev пишет:
> *** artiom [2018-01-16 08:37]:
>> - Либо я использую ZFS шифрование и теряю L2ARC (т.е. часть
>> производительности).
>> - Либо я использую Gely, усложняю систему и теряю часть возможностей и
>> производительности ZFS.
>
On 01/18/18 12:37, Sergey Matveev wrote:
> вытесняют. ZFS может тупить например на секунды, допустим десятки секунд
> -- сбрасывая буферы TXG на диски, но тут нет речи о минутах. Мне кажется
> что это кто-то сторонний что-то начинает делать.
Спасибо. Буду очень внимательно думать в эт
*** Alex Kicelew [2018-01-17 23:13]:
>Поэтому может кто-нибудь (возможно, Sergey Matveev:)
>знает, можно ли как-нибудь понять, за каким чертом он минут 5-15 читает
>диск.
Ух, даже не знаю что тут сказать. Вообще не могу предположить что именно
ZFS мог бы делать. В фоне на долго ZFS обы
*** artiom [2018-01-07 21:18]:
>- Какой ZRAID лучше использовать: ZRAID2 или достаточно ZRAID?
>- Имеет ли смысл использовать stripped mirror или это неоправданно
>(максимум может быть 8 дисков в корзине, но пока будет 4)?
В книге https://www.michaelwlucas.com/os/fmzfs есть хорошие таблицы по
кото
, Sergey Matveev:)
знает, можно ли как-нибудь понять, за каким чертом он минут 5-15 читает
диск. А если понять, то может, получится как-то добиться и уменьшения
тормозов. Хотя бы понять, куда смотреть в это время -- в
/proc/spl/kstat/zfs/* я смотреть пытался (как в обычные, так и в пиковые
моменты), но
16.01.2018 14:43, Dmitry Kulagin пишет:
>
>>> Это, кстати, очень странное замечание, я думал, что мы уже давно живем
>>> во времена SATA-3 и всеобщей поддержки "WRITE BARRIERS" (ну за
>>> исключением счетного числа сломанных дисков), так что энергонезависимый
>>> кеш на запись для программного р
Это, кстати, очень странное замечание, я думал, что мы уже давно живем
во времена SATA-3 и всеобщей поддержки "WRITE BARRIERS" (ну за
исключением счетного числа сломанных дисков), так что энергонезависимый
кеш на запись для программного рейда давно не нужен...
Так здесь не про рэйд, как таково
*** artiom [2018-01-16 08:37]:
>- Либо я использую ZFS шифрование и теряю L2ARC (т.е. часть
>производительности).
>- Либо я использую Gely, усложняю систему и теряю часть возможностей и
>производительности ZFS.
Ну насчёт заметной потери (чтобы об этом можно было думать)
производи
16.01.2018 00:15, Sergey Matveev пишет:
> Есть вот статья про ZFS шифрование:
> https://blogs.oracle.com/darren/zfs-encryption-what-is-on-disk
> Не знаю поменялось ли это в ZFS-е, но там говорят что L2ARC недоступен
> для использования зашифрованным dataset-ам. ZIL точно шифруется. В о
16.01.2018 00:22, Sergey Matveev пишет:
> *** artiom [2018-01-16 00:06]:
>> Я смотрю с другой стороны: есть пространство на SSD. Оно либо будет не
>> использовано, либо использовано под ZIL/L2ARC. Почему бы и нет?
>
> Согласен. Но лучше под кэш :-), лично по мне. Хуже не будет, а профит
> очень
*** artiom [2018-01-16 00:06]:
>Я смотрю с другой стороны: есть пространство на SSD. Оно либо будет не
>использовано, либо использовано под ZIL/L2ARC. Почему бы и нет?
Согласен. Но лучше под кэш :-), лично по мне. Хуже не будет, а профит
очень даже можно получить. А выделенное место под ZIL на сис
Есть вот статья про ZFS шифрование:
https://blogs.oracle.com/darren/zfs-encryption-what-is-on-disk
Не знаю поменялось ли это в ZFS-е, но там говорят что L2ARC недоступен
для использования зашифрованным dataset-ам. ZIL точно шифруется. В общем
лично для себя я отмечаю что GELI/LUKS спокойнее как-то
> *** artiom [2018-01-15 23:25]:
>> SSD на 250 Гб, чем ещё забить? Возможно, конечно, L2ARC организовать. Надо?
>
> Лично я бы точно не ZIL-ом бы его забивал и вряд ли бы вообще (если нет
> нагруженного PostgreSQL или Postfix какого-нибудь) под него выделял
> что-то. ZIL может быть абсолютно беспо
*** artiom [2018-01-15 23:25]:
>SSD на 250 Гб, чем ещё забить? Возможно, конечно, L2ARC организовать. Надо?
Лично я бы точно не ZIL-ом бы его забивал и вряд ли бы вообще (если нет
нагруженного PostgreSQL или Postfix какого-нибудь) под него выделял
что-то. ZIL может быть абсолютно бесполезен и, как
аковых GPT раздела на каждой из SSD.
>> На раздел под систему отвести 100 ГБ, под ZIL 150 ГБ.
>> Оба раздела будут шифроваться стандартным ZFS шифрованием.
>> С первого раздела (миррора) должна грузиться ОС.
>>
>> Эта конфигурация жизнеспособна?
>>
>
>
> Это, кстати, очень странное замечание, я думал, что мы уже давно живем
> во времена SATA-3 и всеобщей поддержки "WRITE BARRIERS" (ну за
> исключением счетного числа сломанных дисков), так что энергонезависимый
> кеш на запись для программного рейда давно не нужен...
>
Так здесь не про рэйд, к
сделать два одинаковых GPT раздела на каждой из SSD.
На раздел под систему отвести 100 ГБ, под ZIL 150 ГБ.
Оба раздела будут шифроваться стандартным ZFS шифрованием.
С первого раздела (миррора) должна грузиться ОС.
Эта конфигурация жизнеспособна?
15.01.2018 00:25, artiom пишет:
Вот это наталкивает на мысли (пусть оно и для ZIL):
"After a crash, ZFS will attempt to replay the ZIL contents. SSDs
themselves have a volatile write cache, so they may lose data during a
bad shutdown. To ensure the ZFS write cache replay has all of
*** artiom [2018-01-15 00:29]:
>Вот это наталкивает на мысли (пусть оно и для ZIL):
>"After a crash, ZFS will attempt to replay the ZIL contents. SSDs
>themselves have a volatile write cache, so they may lose data during a
>bad shutdown. To ensure the ZFS write cache repla
ё как вы сказали: на ZIL точно запишет, на диск позже.
>
Кстати, был вопрос "чем отличается брэндовый L2ARC от обычной SSD?".
Вот это наталкивает на мысли (пусть оно и для ZIL):
"After a crash, ZFS will attempt to replay the ZIL contents. SSDs
themselves have a volatile write
*** artiom [2018-01-14 17:14]:
>А что можете сказать про другие системы (NAS специфичные)?
>В частности, интересует NAS4Free.
Я наслышан только о FreeNAS и то что он активно используется знакомыми.
Он just-works, подвохов не было. Сам руками ничего не трогал.
--
Sergey Matveev (http://www.stargr
*** artiom [2018-01-14 17:14]:
>Т.е., в случае sync=disabled, ZIL запишется сразу (на SSD), но на диск
>данные не будут сброшены?
sync=disabled даже на ZIL не запишет, насколько знаю. С sync=standard
(по-умолчанию) всё как вы сказали: на ZIL точно запишет, на диск позже.
>Вопрос по загрузке возни
10.01.2018 18:29, Sergey Matveev пишет:
> *** artiom [2018-01-10 18:18]:
>> И всё бы хорошо, но про OMV вы молчите.
>> Что скажите насчёт ZFS+Linux?
>> Доводы за и против?
>
> Лично я с GNU/Linux уже давно не работаю (и не хочу) и поэтому ничего не
> могу сказат
>> Т.е., приложение всё-равно запишет, не поняв что была ошибка и данных на
>> диске нет?
>> В чём тогда разница?
>
> Я не понимаю про какую разницу вы спрашиваете.
>
> * zfs set sync=disabled -- означает что "не делать настоящую
> гарантированную за
*** artiom [2018-01-13 21:58]:
>Т.е., приложение всё-равно запишет, не поняв что была ошибка и данных на
>диске нет?
>В чём тогда разница?
Я не понимаю про какую разницу вы спрашиваете.
* zfs set sync=disabled -- означает что "не делать настоящую
гарантированную запись на диск в
L 150 ГБ.
Оба раздела будут шифроваться стандартным ZFS шифрованием.
С первого раздела (миррора) должна грузиться ОС.
Эта конфигурация жизнеспособна?
gt;>
>Но один на все блоки?
Для каждого блока непредсказуемый для злоумышленника. Например вы можете
просто зашифровать номер сектора на ключе неизвестному злоумышленнику --
вот и будет is good enough IV.
>> Как вариант. У меня один гигабайтный диск так и сделан: ZFS поверх GELI
>> повер
*** artiom [2018-01-10 18:18]:
>И всё бы хорошо, но про OMV вы молчите.
>Что скажите насчёт ZFS+Linux?
>Доводы за и против?
Лично я с GNU/Linux уже давно не работаю (и не хочу) и поэтому ничего не
могу сказать, так как опыта нет. Качество падает и подходы к качеству в
GNU/Linux мире м
И всё бы хорошо, но про OMV вы молчите.
Что скажите насчёт ZFS+Linux?
Доводы за и против?
stub для рассылки:
> Родное ZFS шифрование делает не просто какой-нибудь CBC/XTS, а
> аутентифицированное шифрование CCM/GCM -- поэтому там аутентификация
> данных явно проводится и он явно скажет ч
не сложно:
> https://packetstormsecurity.com/files/124571/Practical-Malleability-Attack-Against-CBC-Encrypted-LUKS-Partition.html
> Это для CBC режима конечно же. С XTS сделать *осознанное* изменение
> plaintext-а уже не получится.
>
Статейка любопытная, почитаю.
>> Да, е
ке вообще не сложно:
https://packetstormsecurity.com/files/124571/Practical-Malleability-Attack-Against-CBC-Encrypted-LUKS-Partition.html
Это для CBC режима конечно же. С XTS сделать *осознанное* изменение
plaintext-а уже не получится.
>Да, ещё конечно имеется вариант сделать geli/luks поверх ZFS, но он мне
On 09.01.2018 20:25, Sergey Matveev wrote:
*** Артём Н. [2018-01-09 20:23]:
Только дорого, и начинка у меня получше будет (я так понимаю, там ASRock со
впаянным Avoton).
Если так, то тогда про мать молчу. Только корпус хороший точно получается.
Корпус, да. Проблема матери ASRock в том, что
вылете одного из дисков всё-равно данные есть. Поэтому
если вам так не нужна надёжность fsync-ов и не хочется чтобы проседала
скорость от них, то можно просто zfs set sync=disabled выставить -- и
скорость не просядет и надёжность не зависит от вылета несдублированного
log устройства. Но это моё
Ну предполагается, что журнал пишется синхронно с записью данных.
В ZFS все записи (данных, изменённых метаданных) какое-то время
агрегируются в памяти, а потом сбрасываются одним большим куском на
диски. fsync для ZIL означает что эти данные не ждут когда они
накопятся, а сразу же записываются
*** Артём Н. [2018-01-09 20:23]:
>Только дорого, и начинка у меня получше будет (я так понимаю, там ASRock со
>впаянным Avoton).
Если так, то тогда про мать молчу. Только корпус хороший точно получается.
--
Sergey Matveev (http://www.stargrave.org/)
OpenPGP: CF60 E89A 5923 1E76 E263 6422 AE1A
On 09.01.2018 16:56, Sergey Matveev wrote:
*** Артём Н. [2018-01-09 16:50]:
https://www.amazon.com/FreeNAS-Mini-Cache-L2ARC-Upgrade/dp/B00LVA9E5A
Они продают NAS в сборе, и честно говоря, я бы его может и взял, если бы уже не
собирал свой.
У меня кстати именно буквально в таком же корпусе це
*** Артём Н. [2018-01-09 16:50]:
>> > https://www.amazon.com/FreeNAS-Mini-Cache-L2ARC-Upgrade/dp/B00LVA9E5A
>Они продают NAS в сборе, и честно говоря, я бы его может и взял, если бы уже
>не собирал свой.
У меня кстати именно буквально в таком же корпусе целых два своих
сервера. И начинка наверное
ичении числа дисков
>вдвое?
Я думаю подразумевалось следующее: при записи на RAIDZ ZFS дожидается
пока *все* диски сделают свою запись и только после этого он может
делать что-то дальше. Диски, как правило, более менее одинаковые, но
всё-равно разнятся по скоростям, более того: записываться
On 08.01.2018 11:38, Sergey Matveev wrote:
*** artiom [2018-01-08 04:18]:
Как известно, FreeNAS продаёт свои уже собранные аппаратные конфигурации.
И я заметил у них вот такой интересный девайс:
https://www.amazon.com/FreeNAS-Mini-Cache-L2ARC-Upgrade/dp/B00LVA9E5A
Есть ли отличия от обычной SSD
Xeon, там по-идее не будет: оно не должно мешать.
У меня дома есть очень слабенький Celeron в котором я всюду и везде
упираюсь в скорость SHA2/AES/Skein (вообще во всех задачах, не только
ZFS) и прочей криптографии, но никогда не упирался в compression=lz4
(включай, не включай -- всё-равно упрусь в хэш
*** artiom [2018-01-08 04:28]:
>Да, вспомнил тему: солярис использует снэпшоты для отката обновлений.
>FreeNAS, как я заметил, тоже.
Я и руками это делаю перед обновлением системы -- это очень удобно.
>Ну предполагается, что журнал пишется синхронно с записью данных.
В ZFS все запис
*** artiom [2018-01-08 04:18]:
>Как известно, FreeNAS продаёт свои уже собранные аппаратные конфигурации.
>И я заметил у них вот такой интересный девайс:
>https://www.amazon.com/FreeNAS-Mini-Cache-L2ARC-Upgrade/dp/B00LVA9E5A
>
>Есть ли отличия от обычной SSD и, если да, то какие?
Лично я про FreeN
*** artiom [2018-01-08 04:12]:
>Хотя, я пересмотрел: я же не могу сделать RAIDZ2 менее, чем с 6-ю
>дисками, а у меня их только 4.
Ну вообще можно с 4-мя, так же, как и RAID6. Если что, то с ZFS можно
играться с обычными файлами, чтобы на деле проверить.
# truncate -s +2G disk1
# tr
> *** artiom [2018-01-07 21:09]:
>> А вообще есть ли смысл в ZFS на системном SSD?
>
> Ну а почему нет? Вообще почему ZFS может не иметь смысла :-)?
Избыточность и сложность, там где она не нужна.
> Как минимум, бэкапы удобнее делать (snap/send/recv) и проверка целостности.
&
n, ECC
> RAM 16 Gb, 4x4TB HDD SAS Hitachi/HGST, мать Mini-ITX extended ASRock
> серверный).
>
>
> Вопросы:
>
> - Насколько стабилен ZFS в OMV или всё-таки имеет смысл использовать
> FreeNAS, а от идеи с OMV отказаться?
> - ZFS более оптимально работает с голым диск
07.01.2018 21:58, Sergey Matveev пишет:
> *** artiom [2018-01-07 21:18]:
>> - Какой ZRAID лучше использовать: ZRAID2 или достаточно ZRAID?
>
> Зависит от количества и размера дисков в массиве, режимов
> работы/нагрузки на них, в случае с ZFS ещё и recordsize. Почему появился
&
*** artiom [2018-01-07 21:18]:
>- Какой ZRAID лучше использовать: ZRAID2 или достаточно ZRAID?
Зависит от количества и размера дисков в массиве, режимов
работы/нагрузки на них, в случае с ZFS ещё и recordsize. Почему появился
RAIDZ2 (или RAID6)? Потому-что размеры дисков растут быстрее чем
*** artiom [2018-01-07 21:09]:
>А вообще есть ли смысл в ZFS на системном SSD?
Ну а почему нет? Вообще почему ZFS может не иметь смысла :-)? Как
минимум, бэкапы удобнее делать (snap/send/recv) и проверка целостности.
>Где-то я читал, что выигрыш от переноса журнала на SSD порядка 0.3
Да, и мне говорили, что в OMV (в Linux реализации вообще) есть проблемы
с кэшэм.
Не стоит использовать OMV?
Вопрос не политический, а чисто практический: изначально я был нацелен
на OMV, потому что мне проще иметь везде одну ОС и я относительно знаю
Debian, но по поступившим данным, выяснилось, что
Ещё вопросы:
- Какой ZRAID лучше использовать: ZRAID2 или достаточно ZRAID?
- Имеет ли смысл использовать stripped mirror или это неоправданно
(максимум может быть 8 дисков в корзине, но пока будет 4)?
- Имеет ли смысл включать сжатие (в приведённой выше конфигурации)?
>> Имеет ли смысл? Я планировал установку на SSD. Т.к., SSD достаточно большой,
>> там же хочу держать кэш/журналы ZFS, значит требуется два раздела минимум.
>
> Тогда смысла "чистого" ZFS не имеет конечно же.
А вообще есть ли смысл в ZFS на системном SSD?
&
*** Артём Н. [2018-01-07 20:12]:
>Вопрос был в том, как она работает не с "голым диском"?
А, пардон, всё перепутал. О проблемах с не голым диском не слышал.
>Имеет ли смысл? Я планировал установку на SSD. Т.к., SSD достаточно большой,
>там же хочу держать кэш/журналы ZFS, з
On 07.01.2018 19:22, Sergey Matveev wrote:
*** artiom [2018-01-07 18:51]:
- ZFS более оптимально работает с голым диском (делает ioctl, определяет
диск ли это, если результат вызова положительный, выставляет оптимальные
для себя параметры работы). Будет ли работать ZFS также оптимально через
*** artiom [2018-01-07 18:51]:
>- ZFS более оптимально работает с голым диском (делает ioctl, определяет
>диск ли это, если результат вызова положительный, выставляет оптимальные
>для себя параметры работы). Будет ли работать ZFS также оптимально через
>различные слои, в частности L
extended ASRock
серверный).
Вопросы:
- Насколько стабилен ZFS в OMV или всё-таки имеет смысл использовать
FreeNAS, а от идеи с OMV отказаться?
- ZFS более оптимально работает с голым диском (делает ioctl, определяет
диск ли это, если результат вызова положительный, выставляет оптимальные
для себя
Artem Chuprina writes:
> Как я уже писал, в stretch скриптов для ZFS для sysvinit нет вообще, а юниты
> для systemd, _казалось бы_, написаны правильно, но вот опыт с неудачным
> взлетом (как минимум два раза в процессе установки и настройки конструкции)
> намекает нам, что авотф
Victor Wagner writes:
> On Tue, 08 Aug 2017 09:56:42 +0300
> Artem Chuprina wrote:
>
>> Alex Kicelew writes:
>
>> > Для меня важно то, что в спуле находятся юзерские кронтабы и
>> > at-jobs.
>>
>> Засада... Их как раз нужно восстанавливать. Опять художественное
>> выпиливание...
>
> А у меня
On Tue, 08 Aug 2017 09:56:42 +0300
Artem Chuprina wrote:
> Alex Kicelew writes:
> > Для меня важно то, что в спуле находятся юзерские кронтабы и
> > at-jobs.
>
> Засада... Их как раз нужно восстанавливать. Опять художественное
> выпиливание...
А у меня в спуле еще mlmmj живет, а там - списк
Alex Kicelew writes:
>> - Выделяет из rpool/var rpool/var/tmp, rpool/var/log, rpool/var/spool,
>> rpool/var/cache. Последнему отключает автоматические снапшоты, что
>> логично. Не вполне понятно, забыл он отключить их спулу, или намеренно не
>> отключил. К спулу в гораздо большей степени, ч
On 08/07/17 18:16, Artem Chuprina wrote:
> - Выделяет из rpool/var rpool/var/tmp, rpool/var/log, rpool/var/spool,
> rpool/var/cache. Последнему отключает автоматические снапшоты, что
> логично. Не вполне понятно, забыл он отключить их спулу, или намеренно не
> отключил. К спулу в гораздо боль
Я тут в процессе установки stretch в позу root on ZFS произвел некоторое
переосмысление привычек управления файловой системой, и хочу поделиться. Если
кто-нибудь напишет что-нибудь умное в ответ, как концептуальное, так и
практическое, я как минимум с благодарностью прочитаю, а если будет что
*** Vasiliy P. Melnik [2017-07-16 21:55]:
>далась вам эта фрагментация, сказали держать 20% свободного места и все будет
>хорошо.
В ZFS её легко можно получить просто медленно записывая файл. Да, можно
потом сделать cp file file_ && mv file_ file, но а если файлов много и
мал
*** Alex Kicelew [2017-07-16 22:11]:
>правильно ли я понимаю, что худшее, что я получу при
>превышении количества имеющихся чекпойнтов -- это необходимость снова
>ресилверить 4 часа вместо 5 минут?
Да, всё верно.
--
Sergey Matveev (http://www.stargrave.org/)
OpenPGP: CF60 E89A 5923 1E76 E263 6
On 07/16/17 21:43, Sergey Matveev wrote:
> Тоже всё верно. Но есть засада. Время от времени ZFS делает checkpoint
> -- обновляет überblock ссылающийся на самое свежее дерево метаданных. У
> этого checkpoint есть, грубо говоря, timestamp, который только
> увеличивается. Во время встав
*** Vasiliy P. Melnik [2017-07-16 21:59]:
>> Как минимум, zpool scrub может сообщить какие именно файлы повреждены и
>> из бэкапа их взять можно будет. Один раз у меня, когда внешний жёсткий
>> диск начал сыпаться, как-раз scrub показал что вот такой и такой файлы
>> биты -- взял из прошлого бэкап
>
> Как минимум, zpool scrub может сообщить какие именно файлы повреждены и
> из бэкапа их взять можно будет. Один раз у меня, когда внешний жёсткий
> диск начал сыпаться, как-раз scrub показал что вот такой и такой файлы
> биты -- взял из прошлого бэкапа.
>
У нас наверное просто разный подход к р
gt; был в ситуации, когда очень бы они пригодились
А что имеется в виду под инструментами рекавери? Боюсь, что в случае
одновременной смерти как основного, так и бэкапного дисков я навряд ли
смогу что-либо сделать, даже если они оба будут под extN.
Что касается риска... Я допускаю, что у zfs он в
*** Vasiliy P. Melnik [2017-07-16 21:45]:
>так с данными лучше не поступать - проще использовать рсинк
Как минимум, zpool scrub может сообщить какие именно файлы повреждены и
из бэкапа их взять можно будет. Один раз у меня, когда внешний жёсткий
диск начал сыпаться, как-раз scrub показал что вот
>
> Но похожий хак можно например использовать для дефрагментации диска.
далась вам эта фрагментация, сказали держать 20% свободного места и все
будет хорошо.
ыслушать его подтверждение или опровержение);
Но похожий хак можно например использовать для дефрагментации диска.
Вообще с ней проблем быть не должно если всегда имеется запас
достаточного количества свободного места (которое можно зарезервировать
например как-то так: zfs set reservation=XXXG mypool/r
ет подключен резервный и окажется, что поврежденные данные
>есть в неповрежденном виде на резервном, zfs поправит их на основном,
>как он поступает в случае, если в момент обнаружения ошибки доступны оба
>зеркала.
Тоже всё верно. Но есть засада. Время от времени ZFS делает checkpoint
-- обновля
пользователь Alex Kicelew
написал:
> Hi
>
> Вопрос адресован к тем, кто давно работает с ZFS (наверное, неважно, на
> какой платформе) и хорошо в ней разбирается.
>
> Просьба оценить (не)жизнеспособность такого экстравагантного способа
> бэкапа пула, состоящего из одного диска
Hi
Вопрос адресован к тем, кто давно работает с ZFS (наверное, неважно, на
какой платформе) и хорошо в ней разбирается.
Просьба оценить (не)жизнеспособность такого экстравагантного способа
бэкапа пула, состоящего из одного диска:
1) в первый раз подсоединяем бэкапный диск по USB и говорим zpool
Нормально пул импортируется - и без никакого экспорта. Если проблемы с этим
возникают - значит не полностью портировали функционал
13 июля 2017 г., 22:01 пользователь Alex Kicelew
написал:
> On 07/13/17 12:56, Artem Chuprina wrote:
> > В юзер гайде сказана интересная вещь. Что если не сделать zp
Результаты 1 - 100 из 226 matches
Mail list logo