Re: zfs on linux
Нормально пул импортируется - и без никакого экспорта. Если проблемы с этим возникают - значит не полностью портировали функционал 13 июля 2017 г., 22:01 пользователь Alex Kicelewнаписал: > On 07/13/17 12:56, Artem Chuprina wrote: > > В юзер гайде сказана интересная вещь. Что если не сделать zpool export, > > то пул потом на другой системе не поднимется. Не то чтобы там было > > акцентировано на "вообще никак", но и ни про какие --force при импорте > > тоже не говорилось. > > Не удалось навскидку найти пруф, но где-то я совсем недавно читал, что > без экспорта может (не обязательно, но подчеркивалось, что именно может) > не получиться перенести пул не на другую, а на ИНУЮ систему -- например, > с иной тупоконечностью. Хотя не объяснялось, почему эту > "интернациональную" информацию можно записать только при штатном > переводе пула в офлайн. > >
Re: zfs on linux
On 07/13/17 12:56, Artem Chuprina wrote: > В юзер гайде сказана интересная вещь. Что если не сделать zpool export, > то пул потом на другой системе не поднимется. Не то чтобы там было > акцентировано на "вообще никак", но и ни про какие --force при импорте > тоже не говорилось. Не удалось навскидку найти пруф, но где-то я совсем недавно читал, что без экспорта может (не обязательно, но подчеркивалось, что именно может) не получиться перенести пул не на другую, а на ИНУЮ систему -- например, с иной тупоконечностью. Хотя не объяснялось, почему эту "интернациональную" информацию можно записать только при штатном переводе пула в офлайн.
Re: zfs on linux
*** Artem Chuprina[2017-07-13 12:58]: >Почитал тут подробно Aaron Toponce's ZFS on Linux User Guide >(https://pthree.org/2012/04/17/install-zfs-on-debian-gnulinux/) Спасибо за ссылку. Возможно лучшая документация по ZFS для незнакомых с ним прежде которую я встречал! >И что, вот прямо реально если, допустим, что-то сдохло и система не >грузится, то воткнуть диски в другую машину и импортировать пул >невозможно, привет всем данным, которые там были? Или все-таки -f и -F >(ман гуглится от FreeBSD, а систему с zfs я еще не поставил) у нас тоже >есть и работают? Если pool не был экспортирован, то другая система при импорте действительно скажет что он "занят", но под FreeBSD force опция без проблем его импортирует. Я не знаю даже гипотетически к техническим проблемам каким оно может привести -- я думаю это исключительно чтобы предупредить человека, на всякий пожарный, мол вдруг он нечаянно что-то не то хочет сделать, мол явно не сказали export pool, может он нечаянно хочет и import сделать. -- Sergey Matveev (http://www.stargrave.org/) OpenPGP: CF60 E89A 5923 1E76 E263 6422 AE1A 8109 E498 57EF
Re: zfs on linux
Artem Chuprina -> debian-russian@lists.debian.org @ Thu, 13 Jul 2017 12:56:59 +0300: > Что интересно, вышеупомянутый скрипт не делает zpool export. И его > README не предлагает этого делать. Зато делает такое: # Copy hostid as the target system will otherwise not be able to mount the misleadingly foreign file system cp -va /etc/hostid /target/etc/ Предварительно озаботившись тем, чтобы hostid действительно был уникальным.
Re: zfs on linux
On 07/10/17 12:04, Dmitry Kulagin wrote: > Если вы создавали все фс по хелпу, то ваша проблема закономерна, > в хелпе zpool создается с опцией для файловой системы по умолчанию: > -O canmount=off, а потом zfs c canmount=noauto. Для вашего случая, > когда нужны отдельные фс на /usr и /etc, надо (да и в текущих глюках > systemd для всех) полностью формировать систему (монтировать > /var /usr /etc и т.д.) еще на этапе initrd поэтому все эти фс да и / тоже > желательно создавать с опцией canmount=on, и в /etc/default/zfs с опцией > ZFS_MOUNT='yes'. Отложить монтирование, и как в классике управлять > /home, /opt, /srv и т.п. с помощью /etc/fstab, можно указав при создании фс > опцию mountpoint=legacy. Да, я понимаю. И я уже это исправил, ибо на ноуте мне это не нужно, он использовался только как полигон. А вот за напоминание про legacy и про опции /etc/default/zfs спасибо, ибо на другом компе, который я тоже планирую перевести под zfs, это мне как раз нужно (если, конечно, удастся поставить там более ранний systemd, который еще не слинкован с /usr/lib:).
Re: zfs on linux
Если вы создавали все фс по хелпу, то ваша проблема закономерна, в хелпе zpool создается с опцией для файловой системы по умолчанию: -O canmount=off, а потом zfs c canmount=noauto. Для вашего случая, когда нужны отдельные фс на /usr и /etc, надо (да и в текущих глюках systemd для всех) полностью формировать систему (монтировать /var /usr /etc и т.д.) еще на этапе initrd поэтому все эти фс да и / тоже желательно создавать с опцией canmount=on, и в /etc/default/zfs с опцией ZFS_MOUNT='yes'. Отложить монтирование, и как в классике управлять /home, /opt, /srv и т.п. с помощью /etc/fstab, можно указав при создании фс опцию mountpoint=legacy. 09.07.2017 18:56, Alex Kicelew пишет: On 07/09/17 18:52, Vasiliy P. Melnik wrote: Про то, что отдельный /usr постепенно отламывают, даже в информации о выпуске stretch было упомянуто: Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю бут, потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и var_log по 20 гигов, swap на 2 гига. Если под что-то надо место - создаю с минимальным размером, потом добавляю, если надо. Ресайз на увеличение работает на лету, на уменьшение - проблемно. Проблема в том, что на ноуте-то мне это не важно, но я планировал поставить zfs и на большую машину, где небольшой рейд. Бэкапить zfs, вроде, удобнее всего снапшотами, но снапшоты делаются на fs. Бэкапить /etc мне нужно, а вот полный бэкап всего рута вместе с /usr -- нет.
Re: zfs on linux
*** Alex Kicelew[2017-07-09 19:10]: >Хм. На большом компе я планировал бэкапить только нужные мне вещи, а вот >на ноуте думал сделать копию единственного диска и ежедневно сбрасывать >на нее send-ом наболевшее за день, чтобы при крахе основного винта >просто с нее сразу же загрузиться, а уже потом докупать еще винт. Вы >полагаете, что эта идея (под линухом, фри у меня нет) мертворожденная? Лично я не вижу какое будет отличие GNU/Linux ZFS-а от *BSD-ного. zfs send/recv же будет работать точно так же. Идея делать инкрементальные бэкапы (хоть каждый час по cron) мне нравится. Точно так же делал на ноутбуке где SSD-диску 3.5 года и от него всего можно ожидать. -- Sergey Matveev (http://www.stargrave.org/) OpenPGP: CF60 E89A 5923 1E76 E263 6422 AE1A 8109 E498 57EF
Re: zfs on linux
9 июля 2017 г., 19:27 пользователь Alex Kicelewнаписал: > On 07/09/17 19:26, Vasiliy P. Melnik wrote: > > Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как > > инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не > винт > > самая большая проблема, а перегрев. > > Второй у меня есть. Но данные мне тоже важны. Лично меня полностью устраивает дропбокс - основной документооборот помещается в бесплатные 2 гига, еще и на телефоне можно посмотреть
Re: zfs on linux
On 07/09/17 19:26, Vasiliy P. Melnik wrote: > Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как > инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не винт > самая большая проблема, а перегрев. Второй у меня есть. Но данные мне тоже важны.
Re: zfs on linux
Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не винт самая большая проблема, а перегрев. 9 июля 2017 г., 19:08 пользователь Alex Kicelewнаписал: > On 07/09/17 19:01, Vasiliy P. Melnik wrote: > > Я на фре именно снапшотами и бекаплюсь, но это фря. > > > > Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а > > потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и > работает > > Хм. На большом компе я планировал бэкапить только нужные мне вещи, а вот > на ноуте думал сделать копию единственного диска и ежедневно сбрасывать > на нее send-ом наболевшее за день, чтобы при крахе основного винта > просто с нее сразу же загрузиться, а уже потом докупать еще винт. Вы > полагаете, что эта идея (под линухом, фри у меня нет) мертворожденная? > >
Re: zfs on linux
(прошу прощения за копию в личку; не уследил)
Re: zfs on linux
On 07/09/17 19:01, Vasiliy P. Melnik wrote: > Я на фре именно снапшотами и бекаплюсь, но это фря. > > Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а > потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и работает Хм. На большом компе я планировал бэкапить только нужные мне вещи, а вот на ноуте думал сделать копию единственного диска и ежедневно сбрасывать на нее send-ом наболевшее за день, чтобы при крахе основного винта просто с нее сразу же загрузиться, а уже потом докупать еще винт. Вы полагаете, что эта идея (под линухом, фри у меня нет) мертворожденная?
Re: zfs on linux
Я на фре именно снапшотами и бекаплюсь, но это фря. Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и работает 9 июля 2017 г., 18:56 пользователь Alex Kicelewнаписал: > On 07/09/17 18:52, Vasiliy P. Melnik wrote: > >> Про то, что отдельный /usr постепенно отламывают, даже в информации о > >> выпуске stretch было упомянуто: > > Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю > бут, > > потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и > > var_log по 20 гигов, swap на 2 гига. Если под что-то надо место - создаю > с > > минимальным размером, потом добавляю, если надо. Ресайз на увеличение > > работает на лету, на уменьшение - проблемно. > > Проблема в том, что на ноуте-то мне это не важно, но я планировал > поставить zfs и на большую машину, где небольшой рейд. Бэкапить zfs, > вроде, удобнее всего снапшотами, но снапшоты делаются на fs. Бэкапить > /etc мне нужно, а вот полный бэкап всего рута вместе с /usr -- нет. > >
Re: zfs on linux
On 07/09/17 18:52, Vasiliy P. Melnik wrote: >> Про то, что отдельный /usr постепенно отламывают, даже в информации о >> выпуске stretch было упомянуто: > Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю бут, > потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и > var_log по 20 гигов, swap на 2 гига. Если под что-то надо место - создаю с > минимальным размером, потом добавляю, если надо. Ресайз на увеличение > работает на лету, на уменьшение - проблемно. Проблема в том, что на ноуте-то мне это не важно, но я планировал поставить zfs и на большую машину, где небольшой рейд. Бэкапить zfs, вроде, удобнее всего снапшотами, но снапшоты делаются на fs. Бэкапить /etc мне нужно, а вот полный бэкап всего рута вместе с /usr -- нет.
Re: zfs on linux
> > Про то, что отдельный /usr постепенно отламывают, даже в информации о > выпуске stretch было упомянуто: > Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю бут, потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и var_log по 20 гигов, swap на 2 гига. Если под что-то надо место - создаю с минимальным размером, потом добавляю, если надо. Ресайз на увеличение работает на лету, на уменьшение - проблемно.
Re: zfs on linux
On 07/09/17 18:44, Alexander Galanin wrote: > This means that for stretch all systems where /usr is a separate > partition need to use an initramfs generator that will mount / > usr. All initramfs generators in stretch do so. У меня сейчас не возможности проверить, do ли они это на стандартных fs, но вот в zfs точно don't.
Re: zfs on linux
09.07.2017 17:07, Alex Kicelew пишет: Отдельно стоит отметить, что /sbin/init в лице systemd в настоящее время (версия 233-9) слинкован в числе прочего с одной библиотекой из /usr/lib. Я не смотрел, до инита монтируются некорневые fs на обычных системах, или после, но в zfs -- точно после, в результате чего если /usr расположен на отдельной fs, система при загрузке падает в кернел паник, ибо невозможно стартовать /sbin/init. Про то, что отдельный /usr постепенно отламывают, даже в информации о выпуске stretch было упомянуто: 5.1.1. Late mounting of /usr is no longer supported Note This section only applies to systems using a custom kernel, where /usr is on a separate mount point from /. If you use the kernel packages provided by Debian, you are unaffected by this issue. Mounting of /usr using only tools found in / is no longer supported. This has only worked for a few specific configurations in the past, and now they are explicitly unsupported. This means that for stretch all systems where /usr is a separate partition need to use an initramfs generator that will mount / usr. All initramfs generators in stretch do so. -- Alexander Galanin
Re: zfs on linux
On 07/09/17 18:14, Artem Chuprina wrote: > > 3) systemd запускается раньше, чем монтируются некорневые fs в составе > > zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при > > старте systemd не видны. И если ожидается, что они автостартуют при ... > После. Точно так же. Так что идея линковать сервисы в некорневую fs > относится к плохим. Прочесть конфиг, где написано "давай подождем, пока > вон то смонтируется" надо все же раньше, чем оно смонтируется. С одной стороны, это логично. Но с другой, в systemd есть system services, а есть user services. И если первые официально расположены частично в /etc, частично в /lib, то вторые -- в ~/.config. И то, что у меня они физически расположены в другой директории в том же ~/, которая синхронизируется между разными машинами, а в ~/.config/systemd/user только линки туда, это уже частность. > > но в zfs -- точно после, в результате чего если /usr расположен на > > отдельной fs, система при загрузке падает в кернел паник, ибо > > невозможно стартовать /sbin/init. > Спасибо за еще несколько бит информации про systemd... У Поттеринга всё > работает, ага... Справедливости ради, мне это кажется ляпом скорее мейнтейнера, чем Поттеринга. В более других версиях, которые у меня на других машинах, этого ляпа нет.
Re: zfs on linux
Alex Kicelew -> debian-russian@lists.debian.org @ Sun, 9 Jul 2017 17:07:47 +0300: > 3) systemd запускается раньше, чем монтируются некорневые fs в составе > zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при > старте systemd не видны. И если ожидается, что они автостартуют при > загрузке, то ожидается зря. Они станут видны systemd только после того, > как появится возможность сказать sudo systemctl daemon-reload (и, если > нужно, отдельно systemctl --user daemon-reload), после чего их нужно > будет стартовать руками. > Отдельно стоит отметить, что /sbin/init в лице systemd в настоящее время > (версия 233-9) слинкован в числе прочего с одной библиотекой из > /usr/lib. Я не смотрел, до инита монтируются некорневые fs на обычных > системах, или после, После. Точно так же. Так что идея линковать сервисы в некорневую fs относится к плохим. Прочесть конфиг, где написано "давай подождем, пока вон то смонтируется" надо все же раньше, чем оно смонтируется. > но в zfs -- точно после, в результате чего если /usr расположен на > отдельной fs, система при загрузке падает в кернел паник, ибо > невозможно стартовать /sbin/init. Спасибо за еще несколько бит информации про systemd... У Поттеринга всё работает, ага... > 4) swap внутри zfs работает вполне корректно, но, вероятно, hibernate > работать в таком режиме не будет, ибо насколько я понял, обращение за > сохраненными данными идет до импорта пула. Вообще это вот надо внимательно посмотреть... Насколько я понимаю ситуацию, например, с LVM, то там тома все же должны подниматься до того, начинает отрабатывать hibernate. Чтобы понять, откуда. А файловые системы подхватываться — уже после, на основании поднятых гибернейтом данных. Надо бы потестировать на виртуалке...
Re: zfs on linux
On 07/08/17 13:54, Alex Kicelew wrote: > диск, подключенный по usb. На диск, вставленный в гнездо, все > поставилось нормально. Правда, не работает... :( Вроде бы, все проблемы победились. Но интеграция zfs в дебиан пока еще далеко не полная. Грабли, по которым я прошел: 1) оказалось, что мой usb-переходник врет геометрию дисков (в частности, 512-байтные сектора передает как 4-килобайтные), что, разумеется, не проблема zfs, но время отняло. 2) мой ноут умеет грузиться как с bios boot, так и с uefi, но, как оказалось, с диска, размеченного в gpt (а в хауту описано именно это) он умеет грузиться только с uefi. Bios boot, расположенный на gpt, он не понимает. Это тоже не проблема zfs. 3) systemd запускается раньше, чем монтируются некорневые fs в составе zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при старте systemd не видны. И если ожидается, что они автостартуют при загрузке, то ожидается зря. Они станут видны systemd только после того, как появится возможность сказать sudo systemctl daemon-reload (и, если нужно, отдельно systemctl --user daemon-reload), после чего их нужно будет стартовать руками. Отдельно стоит отметить, что /sbin/init в лице systemd в настоящее время (версия 233-9) слинкован в числе прочего с одной библиотекой из /usr/lib. Я не смотрел, до инита монтируются некорневые fs на обычных системах, или после, но в zfs -- точно после, в результате чего если /usr расположен на отдельной fs, система при загрузке падает в кернел паник, ибо невозможно стартовать /sbin/init. 4) swap внутри zfs работает вполне корректно, но, вероятно, hibernate работать в таком режиме не будет, ибо насколько я понял, обращение за сохраненными данными идет до импорта пула. А так в целом работает. Отличий в скорости на глаз не заметно вообще.
Re: zfs on linux
8 июля 2017 г., 15:23 пользователь Sergey Matveevнаписал: > > Я как-то встречал один USB<->SATA контроллер (внешний контейнер) который > действительно чуть "смещал" данные. То есть диск выглядел как немного > уменьшенный по размеру. Данных вроде туда не писал никаких дополнительных, > но вот почему-то геометрия была чуть другой. > > Надо смотреть как он кластера представляет - я видел переходники которые говорят что на диске 4K кластера (хотя на самом деле они 512)
Re: zfs on linux
*** Alex Kicelew[2017-07-08 13:55]: >Эта проблема решена. Вероятно, дурак -- я, а не zfs (хотя я до конца так >и не понял, в чем именно). Причина была в том, что я устанавливал zfs на >диск, подключенный по usb. На диск, вставленный в гнездо, все >поставилось нормально. Правда, не работает... :( Я как-то встречал один USB<->SATA контроллер (внешний контейнер) который действительно чуть "смещал" данные. То есть диск выглядел как немного уменьшенный по размеру. Данных вроде туда не писал никаких дополнительных, но вот почему-то геометрия была чуть другой. -- Sergey Matveev (http://www.stargrave.org/) OpenPGP: CF60 E89A 5923 1E76 E263 6422 AE1A 8109 E498 57EF
Re: zfs on linux
On 07/06/17 13:19, Alex Kicelew wrote: > у меня же возвращается: > # grub-probe / > grub-probe: error: unknown filesystem. Эта проблема решена. Вероятно, дурак -- я, а не zfs (хотя я до конца так и не понял, в чем именно). Причина была в том, что я устанавливал zfs на диск, подключенный по usb. На диск, вставленный в гнездо, все поставилось нормально. Правда, не работает... :( Прошли все этапы установки. Разбит диск, создана и разбита fs, скопирована система, в нее сделан чрут, корень определяется, как zfs, сделан update-initramfs (прошел корректно), сделан update-grub (прошел корректно), сделан grub-install (прошел корректно), все отмонтировано. При попытке загрузки с этого винта выскакивает биосовская менюшка, предлагающая выбрать устройство загрузки (обычно она не выскакивает). При нажатии на этот диск (он в списке есть, определен корректно) на мгновение мелькает черный экран, и возвращается менюшка. Т.е. диск загрузочный (если попробовать загрузиться с незагрузочного диска, биос об этом говорит прямо), но что-то на нем не так. До груба с включенной консолью не доходит, лопается где-то в районе MBR, точнее я, к сожалению, не понимаю. Груб из стретча (вначале был из тестинга, там он уже более новый) пробовался, то же самое. Можно ли еще куда-то попробовать покопать?
Re: zfs on linux
On 07/06/17 17:31, Dmitry Kulagin wrote: > Может grub-pc из Stretch попробовать?.. Попробовал. Результат почти тот же -- разница только в том, что теперь актуальные чексуммы -- сплошные нули. В принципе, ожидаемо, ибо версия груба та же, только в стейбле бета3.
Re: zfs on linux
06.07.2017 16:31, Alex Kicelew пишет: On 07/06/17 15:41, Dmitry Kulagin wrote: zfs send|receive переносил установку на еще 9, соответственно процедура создания пулов, фс и установка grub прошла 10 раз без проблем, загружался и устанавливал с флешки, на которой был То, что проблема возникает не всегда, радует. Но интересно, как с ней бороться, если она возникла. :) Может grub-pc из Stretch попробовать?..
Re: zfs on linux
On 07/06/17 15:41, Dmitry Kulagin wrote: > zfs send|receive переносил установку на еще 9, соответственно > процедура создания пулов, фс и установка grub прошла 10 раз > без проблем, загружался и устанавливал с флешки, на которой был То, что проблема возникает не всегда, радует. Но интересно, как с ней бороться, если она возникла. :) > А Вы старый диск заного переразбивали или новый, чистый? Для старого > иногда надо перезагружаться, если его какой-нибудь udisk2 или аналог > зацепит? Новый. До перезагрузки пока не дошло -- груб не прописывается.
Re: zfs on linux
2 месяца назад устанавливал по этому хелпу Debian Stretch (на тот момент testing) на первую машину, а потом с помощью zfs send|receive переносил установку на еще 9, соответственно процедура создания пулов, фс и установка grub прошла 10 раз без проблем, загружался и устанавливал с флешки, на которой был установлен все тот же, текущий на тот момент, Stretch. Во время установки столкнулся с единственной проблемой: из-за systemd невозможно было отмонтировать новый корень, он почему-то его не отпускал, поэтому приходилось после перезагрузки, снова загружаться с флешки и делать: zpool import rpool zpool export rpool и перегружаться снова уже в новую систему. Кстати, примерно год назад или больше в тестинге zfs + systemd комбинация была вообще сломана: при перезагрузки системы zfs вообще не отмонтировали, интересно, как оно в Jessie+backports? А Вы старый диск заного переразбивали или новый, чистый? Для старого иногда надо перезагружаться, если его какой-нибудь udisk2 или аналог зацепит? 06.07.2017 13:19, Alex Kicelew пишет: Hi А есть ли кто-нибудь, сидящий на сабже? Попробовал установить по https://github.com/zfsonlinux/zfs/wiki/Debian-Jessie-Root-on-ZFS, столкнулся с проблемой. Отличия моей конфигурации от хаутушки: у меня отродясь на ноуте тестинг, кроме того, сейчас он уже поверх stretch, а не jessy, как в хауту, поэтому не делал никаких танцев с бубном вокруг jessie-backports, взял zfs-dkms и zfs-initramfs из тестинга, груб оттуда же по умолчанию. Кроме того, я не ставил систему с нуля, а полностью скопировал ее рсинком с рабочей. Все остальное по хауту. Проблема: Диск разбился, пул сгенерировался, фс создались, рсинк прошел. Но далее по хауту (после рбайндов живых фс и чрута) должно быть: # grub-probe / zfs у меня же возвращается: # grub-probe / grub-probe: error: unknown filesystem. -vvv выдает: # grub-probe -vvv /new 2>&1 | grep -i zfs grub-core/kern/fs.c:56: Detecting zfs... grub-core/fs/zfs/zfs.c:1192: label ok 0 grub-core/fs/zfs/zfs.c:1007: check 2 passed grub-core/fs/zfs/zfs.c:1018: check 3 passed grub-core/fs/zfs/zfs.c:1025: check 4 passed grub-core/fs/zfs/zfs.c:1035: check 6 passed grub-core/fs/zfs/zfs.c:1043: check 7 passed grub-core/fs/zfs/zfs.c:1054: check 8 passed grub-core/fs/zfs/zfs.c:1064: check 9 passed grub-core/fs/zfs/zfs.c:1086: check 11 passed grub-core/fs/zfs/zfs.c:1112: check 10 passed grub-core/fs/zfs/zfs.c:1128: str=com.delphix:hole_birth grub-core/fs/zfs/zfs.c:1128: str=com.delphix:embedded_data grub-core/fs/zfs/zfs.c:1137: check 12 passed (feature flags) grub-core/fs/zfs/zfs.c:1878: zio_read: E 0: size 2048/2048 grub-core/fs/zfs/zfs.c:1899: endian = -1 grub-core/fs/zfs/zfs.c:595: dva=8, 1908c4f8 grub-core/fs/zfs/zfs.c:442: checksum fletcher4 verification failed grub-core/fs/zfs/zfs.c:447: actual checksum 0082598c98ea 88a0c7f16104 005d0b808f380960 2f51aa5e372675ef grub-core/fs/zfs/zfs.c:452: expected checksum 0004f5f43504 09254c38ba95 00087352d4a8f77f 0537bd0ed13060ad grub-core/fs/zfs/zfs.c:1922: incorrect checksum grub-core/kern/fs.c:78: zfs detection failed. Гугление показало, что проблема известна с 12 года и тогда же запатчена. А потом запатчена в 14. Но вплоть по 16 год встречаются сообщения с той же проблемой и с вопросом: а делать-то че? Насколько я понял, проблема может возникнуть на ровном месте при очередном апдейте, приведшем к перегенерации загрузочной информации. scrub ее не лечит (у меня просто не видит -- диск чистый), от типа чексумм, вроде, тоже не зависит (у меня, правда, по умолчанию тот же флетчер4, но в нагуглившихся репортах народ недоумевает: какой, нафиг, флетчер, если у меня везде sha-256). Вопрос: сталкивался ли кто-нибудь с такой проблемой и известно ли, как ее гарантированно вылечить (кроме встречающихся иногда (причем я не понял, приведших ли к успеху) советов пересоздать пул, что в реальной жизни не вариант)? Или же получается, что zfs на линухе пока что нежизнеспособен? На всякий случай: zfs-dkms 0.6.5.9-5 grub-pc 2.02-1