Artem Chuprina writes:
> Как я уже писал, в stretch скриптов для ZFS для sysvinit нет вообще, а юниты
> для systemd, _казалось бы_, написаны правильно, но вот опыт с неудачным
> взлетом (как минимум два раза в процессе установки и настройки конструкции)
> намекает нам, что
Victor Wagner writes:
> On Tue, 08 Aug 2017 09:56:42 +0300
> Artem Chuprina wrote:
>
>> Alex Kicelew writes:
>
>> > Для меня важно то, что в спуле находятся юзерские кронтабы и
>> > at-jobs.
>>
>> Засада... Их как раз нужно
On Tue, 08 Aug 2017 09:56:42 +0300
Artem Chuprina wrote:
> Alex Kicelew writes:
> > Для меня важно то, что в спуле находятся юзерские кронтабы и
> > at-jobs.
>
> Засада... Их как раз нужно восстанавливать. Опять художественное
> выпиливание...
А у меня
Alex Kicelew writes:
>> - Выделяет из rpool/var rpool/var/tmp, rpool/var/log, rpool/var/spool,
>> rpool/var/cache. Последнему отключает автоматические снапшоты, что
>> логично. Не вполне понятно, забыл он отключить их спулу, или намеренно не
>> отключил. К спулу в
On 08/07/17 18:16, Artem Chuprina wrote:
> - Выделяет из rpool/var rpool/var/tmp, rpool/var/log, rpool/var/spool,
> rpool/var/cache. Последнему отключает автоматические снапшоты, что
> логично. Не вполне понятно, забыл он отключить их спулу, или намеренно не
> отключил. К спулу в гораздо
Нормально пул импортируется - и без никакого экспорта. Если проблемы с этим
возникают - значит не полностью портировали функционал
13 июля 2017 г., 22:01 пользователь Alex Kicelew
написал:
> On 07/13/17 12:56, Artem Chuprina wrote:
> > В юзер гайде сказана интересная вещь.
On 07/13/17 12:56, Artem Chuprina wrote:
> В юзер гайде сказана интересная вещь. Что если не сделать zpool export,
> то пул потом на другой системе не поднимется. Не то чтобы там было
> акцентировано на "вообще никак", но и ни про какие --force при импорте
> тоже не говорилось.
Не удалось
*** Artem Chuprina [2017-07-13 12:58]:
>Почитал тут подробно Aaron Toponce's ZFS on Linux User Guide
>(https://pthree.org/2012/04/17/install-zfs-on-debian-gnulinux/)
Спасибо за ссылку. Возможно лучшая документация по ZFS для незнакомых с
ним прежде которую я встречал!
>И что,
Artem Chuprina -> debian-russian@lists.debian.org @ Thu, 13 Jul 2017 12:56:59
+0300:
> Что интересно, вышеупомянутый скрипт не делает zpool export. И его
> README не предлагает этого делать.
Зато делает такое:
# Copy hostid as the target system will otherwise not be able to mount the
On 07/10/17 12:04, Dmitry Kulagin wrote:
> Если вы создавали все фс по хелпу, то ваша проблема закономерна,
> в хелпе zpool создается с опцией для файловой системы по умолчанию:
> -O canmount=off, а потом zfs c canmount=noauto. Для вашего случая,
> когда нужны отдельные фс на /usr и /etc, надо (да
Если вы создавали все фс по хелпу, то ваша проблема закономерна,
в хелпе zpool создается с опцией для файловой системы по умолчанию:
-O canmount=off, а потом zfs c canmount=noauto. Для вашего случая,
когда нужны отдельные фс на /usr и /etc, надо (да и в текущих глюках
systemd для всех) полностью
Sergey Matveev -> debian-russian@lists.debian.org @ Sun, 9 Jul 2017 22:02:11
+0300:
>>Я косым взглядом вижу в описаниях ZFS фичу проверки контрольных сумм и
>>восстановления при сбоях отдельных блоков. Но вижу ее в контексте RAIDZ,
>>а его, соответственно, в контексте нескольких дисков.
*** Artem Chuprina [2017-07-09 21:57]:
>Я косым взглядом вижу в описаниях ZFS фичу проверки контрольных сумм и
>восстановления при сбоях отдельных блоков. Но вижу ее в контексте RAIDZ,
>а его, соответственно, в контексте нескольких дисков. Вопрос. В
>контексте одного диска
*** Alex Kicelew [2017-07-09 19:10]:
>Хм. На большом компе я планировал бэкапить только нужные мне вещи, а вот
>на ноуте думал сделать копию единственного диска и ежедневно сбрасывать
>на нее send-ом наболевшее за день, чтобы при крахе основного винта
>просто с нее сразу же
9 июля 2017 г., 19:27 пользователь Alex Kicelew написал:
> On 07/09/17 19:26, Vasiliy P. Melnik wrote:
> > Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как
> > инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не
> винт
> > самая большая
On 07/09/17 19:26, Vasiliy P. Melnik wrote:
> Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как
> инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не винт
> самая большая проблема, а перегрев.
Второй у меня есть. Но данные мне тоже важны.
Я полагаю, что Вы не о том думаете - если Вам так ценен ноут как
инструмент, то все же стоит подумать о покупке второго, ибо в ноуте не винт
самая большая проблема, а перегрев.
9 июля 2017 г., 19:08 пользователь Alex Kicelew написал:
> On 07/09/17 19:01, Vasiliy P. Melnik
(прошу прощения за копию в личку; не уследил)
On 07/09/17 19:01, Vasiliy P. Melnik wrote:
> Я на фре именно снапшотами и бекаплюсь, но это фря.
>
> Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а
> потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и работает
Хм. На большом компе я планировал бэкапить
Я на фре именно снапшотами и бекаплюсь, но это фря.
Не надо лезть в в систему, лучше просто рсинком на зфс синхронизируйте, а
потом уже делайте снапшот. Все же для линукса это чужая фс, хоть и работает
9 июля 2017 г., 18:56 пользователь Alex Kicelew написал:
> On 07/09/17
On 07/09/17 18:52, Vasiliy P. Melnik wrote:
>> Про то, что отдельный /usr постепенно отламывают, даже в информации о
>> выпуске stretch было упомянуто:
> Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю бут,
> потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина -
>
> Про то, что отдельный /usr постепенно отламывают, даже в информации о
> выпуске stretch было упомянуто:
>
Та при нынешних объемах дисков оно просто бессмысленно. Я вообще делаю бут,
потом все остальное нарезаю лвм-ом, в лвм-е делаю 3 партишина - root и
var_log по 20 гигов, swap на 2 гига.
On 07/09/17 18:44, Alexander Galanin wrote:
> This means that for stretch all systems where /usr is a separate
> partition need to use an initramfs generator that will mount /
> usr. All initramfs generators in stretch do so.
У меня сейчас не возможности проверить, do ли они это на
09.07.2017 17:07, Alex Kicelew пишет:
Отдельно стоит отметить, что /sbin/init в лице systemd в настоящее время
(версия 233-9) слинкован в числе прочего с одной библиотекой из
/usr/lib. Я не смотрел, до инита монтируются некорневые fs на обычных
системах, или после, но в zfs -- точно после, в
On 07/09/17 18:14, Artem Chuprina wrote:
> > 3) systemd запускается раньше, чем монтируются некорневые fs в составе
> > zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при
> > старте systemd не видны. И если ожидается, что они автостартуют при
...
> После. Точно так же. Так что
Alex Kicelew -> debian-russian@lists.debian.org @ Sun, 9 Jul 2017 17:07:47
+0300:
> 3) systemd запускается раньше, чем монтируются некорневые fs в составе
> zfs, поэтому сервисы, закросслинканные на файлы на некорневых fs при
> старте systemd не видны. И если ожидается, что они автостартуют
On 07/08/17 13:54, Alex Kicelew wrote:
> диск, подключенный по usb. На диск, вставленный в гнездо, все
> поставилось нормально. Правда, не работает... :(
Вроде бы, все проблемы победились. Но интеграция zfs в дебиан пока еще
далеко не полная. Грабли, по которым я прошел:
1) оказалось, что мой
8 июля 2017 г., 15:23 пользователь Sergey Matveev
написал:
>
> Я как-то встречал один USB<->SATA контроллер (внешний контейнер) который
> действительно чуть "смещал" данные. То есть диск выглядел как немного
> уменьшенный по размеру. Данных вроде туда не писал никаких
*** Alex Kicelew [2017-07-08 13:55]:
>Эта проблема решена. Вероятно, дурак -- я, а не zfs (хотя я до конца так
>и не понял, в чем именно). Причина была в том, что я устанавливал zfs на
>диск, подключенный по usb. На диск, вставленный в гнездо, все
>поставилось нормально.
On 07/06/17 13:19, Alex Kicelew wrote:
> у меня же возвращается:
> # grub-probe /
> grub-probe: error: unknown filesystem.
Эта проблема решена. Вероятно, дурак -- я, а не zfs (хотя я до конца так
и не понял, в чем именно). Причина была в том, что я устанавливал zfs на
диск, подключенный по usb.
On 07/06/17 17:31, Dmitry Kulagin wrote:
> Может grub-pc из Stretch попробовать?..
Попробовал. Результат почти тот же -- разница только в том, что теперь
актуальные чексуммы -- сплошные нули. В принципе, ожидаемо, ибо версия
груба та же, только в стейбле бета3.
06.07.2017 16:31, Alex Kicelew пишет:
On 07/06/17 15:41, Dmitry Kulagin wrote:
zfs send|receive переносил установку на еще 9, соответственно
процедура создания пулов, фс и установка grub прошла 10 раз
без проблем, загружался и устанавливал с флешки, на которой был
То, что проблема возникает
On 07/06/17 15:41, Dmitry Kulagin wrote:
> zfs send|receive переносил установку на еще 9, соответственно
> процедура создания пулов, фс и установка grub прошла 10 раз
> без проблем, загружался и устанавливал с флешки, на которой был
То, что проблема возникает не всегда, радует. Но интересно, как
2 месяца назад устанавливал по этому хелпу Debian Stretch
(на тот момент testing) на первую машину, а потом с помощью
zfs send|receive переносил установку на еще 9, соответственно
процедура создания пулов, фс и установка grub прошла 10 раз
без проблем, загружался и устанавливал с флешки, на
Любопытно, что GRUB может загружать ОС с ZFS снапшота:
"On ZFS filesystem the first path component must be volume‘@’[snapshot].
So ‘/rootvol@snap-129/boot/grub/grub.cfg’ refers to file
‘/boot/grub/grub.cfg’ in snapshot of volume ‘rootvol’ with name
‘snap-129’. Trailing ‘@’ after volume name is
On Sun, Jun 25, 2017 at 03:58:54PM +0300, Artem Chuprina wrote:
> Vasiliy P. Melnik -> debian-russian @ Sun, 25 Jun 2017 12:01:00 +0300:
>
> > Если мы говорим о системе из трех дисков и говорим о дебиан 9 - я проверял,
> > граб наконец-то научился бутить кернел из лвм-раздела. Я бы поспуил
>
>
> Внезапного выключения питания не бывает, если не сдохли аккумуляторы в ИБП.
>
Счастливый человек - а я видел как из трубы хлещет вода на сервер и на
бесперебойник, электричество выбило - но упс стойко перешел на
аккумуляторы. Выключение было внезапным - было не до консоли
Artem Chuprina писал(а) в своём письме Sun, 25 Jun 2017
15:56:32 +0300:
artiom -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 13:59:32 +0300:
>> Я бы поспуил следующим образом
>> 1) выделить на каждом диске раздел в начала 80 гигов
>> 2) создать второй раздел
On Sun, Jun 25, 2017 at 12:30:07PM +0300, Sergey Matveev wrote:
> Btrfs не умеет аналогов RAID5/RAID6 (в ZFS RAIDZ1/2/3)
Умеет, но говорят что больно бажное.
On Sun, Jun 25, 2017 at 02:29:29AM +0300, Sergey Matveev wrote:
> Кстати, забыл отметить важное (если не важнейшее) отличие ZFS массивов
> от RAID-ов: проблема write-hole-ов.
Вроде MDRAID от нее таки избавился.
artiom -> debian-russian@lists.debian.org @ Mon, 26 Jun 2017 07:20:11 +0300:
>> > Причём у меня ОС на SSD и тоже ZenBook.
>> > Давно лететь флешка начала?
>>
>> Практически сразу.
>>
>> > И точно ли это флешка?
>>
>> После вывода ее из употребления несколько лет никаких проблем.
25.06.2017 19:29, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 16:27:21 +0300:
>
> > Причём у меня ОС на SSD и тоже ZenBook.
> > Давно лететь флешка начала?
>
> Практически сразу.
>
> > И точно ли это флешка?
>
> После вывода ее из употребления
On 2017-06-25, artiom wrote:
> Так рейд поломан будет, он же собраться не должен.
А что на зеркале чтение идет с 2 дисков и затем сравнивается? По причине
производительности мне казалось что чтение будет ити попеременно с накопителей
но никогда одновременно не читаться...
И если это не
artiom -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 16:27:21 +0300:
> Причём у меня ОС на SSD и тоже ZenBook.
> Давно лететь флешка начала?
Практически сразу.
> И точно ли это флешка?
После вывода ее из употребления несколько лет никаких проблем.
> 25.06.2017 15:56, Artem
*** yuri.nefe...@gmail.com [2017-06-25 18:34]:
> У меня SSD умер сразу в одночасье. Сразу получил нерабочий кирпичик.
> Но я сильно не упорствовал, мне по гарантии его поменяли.
>
> SMART для SSD не внушает доверия.
> Скажем, вот вывод smartctl для ноутбучного SSD
25.06.2017 18:32, yuri.nefe...@gmail.com пишет:
> On Sun, 25 Jun 2017, Sergey Matveev wrote:
>
>> *** Artem Chuprina [2017-06-25 15:57]:
>>> Я вот на ноуте, с которого сейчас пишу (ASUS Zenbook, какой - лень
>>> смотреть), поначалу выделил SSD под ОС... Хватило ума сделать
On Sun, 25 Jun 2017, Sergey Matveev wrote:
*** Artem Chuprina [2017-06-25 15:57]:
Я вот на ноуте, с которого сейчас пишу (ASUS Zenbook, какой - лень
смотреть), поначалу выделил SSD под ОС... Хватило ума сделать на
нормальном винте такой же раздел с копией. После того, как у
25.06.2017 16:29, Sergey Matveev пишет:
> *** artiom [2017-06-25 16:27]:
>> Так рейд поломан будет, он же собраться не должен.
>
> То есть, при внезапной поломке, мы понимаем что данные неконсистенты и
> считает что проще всё восстановить извне, типа как-будто это
*** artiom [2017-06-25 16:27]:
>Так рейд поломан будет, он же собраться не должен.
То есть, при внезапной поломке, мы понимаем что данные неконсистенты и
считает что проще всё восстановить извне, типа как-будто это равносильно
пропаже данных? Ну... как вариант, всё-равно
Причём у меня ОС на SSD и тоже ZenBook.
Давно лететь флешка начала?
И точно ли это флешка?
25.06.2017 15:56, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 13:59:32 +0300:
>
> >> Я бы поспуил следующим образом
> >> 1) выделить на каждом диске раздел в
25.06.2017 16:24, Sergey Matveev пишет:
> *** artiom [2017-06-25 16:22]:
>> В три датацентра данные реплицировались, в одном машина сдохла.
>> Вопросов о консистентности не стоит.
>
> Пропажа данных, недоступность -- это одно. А когда вот у вас лежат
> данные, а вы даже не
*** artiom [2017-06-25 16:22]:
>В три датацентра данные реплицировались, в одном машина сдохла.
>Вопросов о консистентности не стоит.
Пропажа данных, недоступность -- это одно. А когда вот у вас лежат
данные, а вы даже не подозреваете что они испорчены.
--
Sergey Matveev
25.06.2017 14:12, Sergey Matveev пишет:
> *** artiom [2017-06-25 14:06]:
>>> Бывает внезапная поломка backplane, контроллера, блока питания,
>>> материнской платы, итд.
>>>
>> Не поможет тогда контроллер.
>
> Ну в случае выхода контроллера -- да. Если backplane или что-то
>
25.06.2017 15:56, Artem Chuprina пишет:
> artiom -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 13:59:32 +0300:
>
> >> Я бы поспуил следующим образом
> >> 1) выделить на каждом диске раздел в начала 80 гигов
> >> 2) создать второй раздел
> >> 3) создать рейд1 и в него включить этих
Sergey Matveev -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 16:02:18
+0300:
>>Я вот на ноуте, с которого сейчас пишу (ASUS Zenbook, какой - лень
>>смотреть), поначалу выделил SSD под ОС... Хватило ума сделать на
>>нормальном винте такой же раздел с копией. После того, как у меня
*** artiom [2017-06-25 16:05]:
>Короче, под почту и логи он не подходит явно.
Просто выставьте размер записи не по-умолчанию в 128 KiB, а 4 или меньше.
>А, вот оно как...
>Но при создании ФС я задаю размер?
>Просто могу расширить в будущем, если место в пуле есть?
Нет,
>> Он упаковку мелких файлов в один блок, как reiserfs, умеет?
>
> Он может динамически менять размер блока (как конкретно -- не знаю). Но
> нет, в один блок засунуть несколько "данных" не может (как ещё кстати и
> XFS умеет).
>
Короче, под почту и логи он не подходит явно.
>> Ok. Но он его
*** Artem Chuprina [2017-06-25 15:57]:
>Я вот на ноуте, с которого сейчас пишу (ASUS Zenbook, какой - лень
>смотреть), поначалу выделил SSD под ОС... Хватило ума сделать на
>нормальном винте такой же раздел с копией. После того, как у меня пару
>раз на ровном месте побились
Vasiliy P. Melnik -> debian-russian @ Sun, 25 Jun 2017 12:01:00 +0300:
> Если мы говорим о системе из трех дисков и говорим о дебиан 9 - я проверял,
> граб наконец-то научился бутить кернел из лвм-раздела. Я бы поспуил
> следующим образом
> 1) выделить на каждом диске раздел в начала 80
artiom -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 13:59:32 +0300:
>> Я бы поспуил следующим образом
>> 1) выделить на каждом диске раздел в начала 80 гигов
>> 2) создать второй раздел
>> 3) создать рейд1 и в него включить этих три раздела.
> Зачем?
> Ради защиты от падения ОС?
*** Artem Chuprina [2017-06-25 15:40]:
>В zfs есть понятие "переключиться на такой-то снапшот" в смысле сделать
>так, что в качестве основного состояния FS будет подключен он? И оно это
>запомнит через перезагрузку? Если так, то это интересно...
Во-первых, можно просто
artiom -> debian-russian@lists.debian.org @ Sun, 25 Jun 2017 14:04:54 +0300:
>>> Внезапного выключения питания не бывает, если не сдохли аккумуляторы в ИБП.
>>
>> Бывает внезапная поломка backplane, контроллера, блока питания,
>> материнской платы, итд.
>>
> Не поможет тогда контроллер.
Sergey Matveev -> debian-russian@lists.debian.org @ Sat, 24 Jun 2017 23:10:40
+0300:
> *** Artem Chuprina [2017-06-24 22:49]:
>>Я правильно понимаю, что если я, допустим, хочу хранить
>>бэкапы/архивы/файлообменник на zfs, мне стоит систему все-таки ставить
>>на
*** artiom [2017-06-25 14:06]:
>> Бывает внезапная поломка backplane, контроллера, блока питания,
>> материнской платы, итд.
>>
>Не поможет тогда контроллер.
Ну в случае выхода контроллера -- да. Если backplane или что-то
остальное, то поможет -- запустить на работающей
*** artiom [2017-06-25 14:04]:
>/var не на отдельном разделе?
Это вообще отдельная директория (не /var) на зашифрованном разделе.
>Он упаковку мелких файлов в один блок, как reiserfs, умеет?
Он может динамически менять размер блока (как конкретно -- не знаю). Но
нет, в один
25.06.2017 14:00, Sergey Matveev пишет:
> *** artiom [2017-06-25 13:53]:
>> А если я хочу часть памяти под другие нужды?
>> У неё квоты есть?
>
> Через sysctl можно ограничить максимальный размер ARC-а (кэша ZFS).
> Например для PostgreSQL на ZFS как-раз и дают такой совет,
25.06.2017 14:01, Sergey Matveev пишет:
> *** artiom [2017-06-25 13:49]:
>> Внезапного выключения питания не бывает, если не сдохли аккумуляторы в ИБП.
>
> Бывает внезапная поломка backplane, контроллера, блока питания,
> материнской платы, итд.
>
Не поможет тогда
25.06.2017 13:57, Sergey Matveev пишет:
> *** artiom [2017-06-25 13:47]:
>> 68% фрагментации, вы это серьёзно?
>
> Я сам не знаю как это интерпретировать. Возможно это связано как-то и с
> размером записи (recordsize) по-умолчанию. На этом разделе в основном
> только почта
*** artiom [2017-06-25 13:49]:
>Внезапного выключения питания не бывает, если не сдохли аккумуляторы в ИБП.
Бывает внезапная поломка backplane, контроллера, блока питания,
материнской платы, итд.
--
Sergey Matveev (http://www.stargrave.org/)
OpenPGP: CF60 E89A 5923 1E76
*** artiom [2017-06-25 13:53]:
>А если я хочу часть памяти под другие нужды?
>У неё квоты есть?
Через sysctl можно ограничить максимальный размер ARC-а (кэша ZFS).
Например для PostgreSQL на ZFS как-раз и дают такой совет, чтобы ZFS не
отхапал себе лишнего, более полезного
25.06.2017 12:01, Vasiliy P. Melnik пишет:
> Если мы говорим о системе из трех дисков и говорим о дебиан 9 - я
> проверял, граб наконец-то научился бутить кернел из лвм-раздела.
Так уж сколько лет назад...
У меня комп стационарный с 11-го года.
И там всё с LVM грузится.
> Я бы поспуил следующим
*** artiom [2017-06-25 13:47]:
>68% фрагментации, вы это серьёзно?
Я сам не знаю как это интерпретировать. Возможно это связано как-то и с
размером записи (recordsize) по-умолчанию. На этом разделе в основном
только почта в maildir формате. recordsize стоит в 128 KiB. Видимо
25.06.2017 12:30, Sergey Matveev пишет:
> *** Vasiliy P. Melnik [2017-06-25 12:11]:
>> действительно, чем больше - тем лучше, потому как сожрет все, что есть, но
>> мало памяти - просто медленнее работает. Никаких крашей это не вызывает
>
> Тут ещё особенность самой фри очень
25.06.2017 12:09, Vasiliy P. Melnik пишет:
> Чтобы никого не вводить в заблуждение - все мои выкладки по зфс-у из
> фри, пользуюсь уже давно, еще с 8-рки насколько помню. Как диски стал в
> сервер ставить больше 1 ТБ
>
> про память:
> действительно, чем больше - тем лучше, потому как сожрет все,
25.06.2017 02:29, Sergey Matveev пишет:
> *** artiom [2017-06-25 00:21]:
>> У вас прям по ZFS сплошные плюсы.
>
> Кстати, забыл отметить важное (если не важнейшее) отличие ZFS массивов
> от RAID-ов: проблема write-hole-ов. Например у вас RAID5 и чтобы
> консистентность
25.06.2017 01:50, Sergey Matveev пишет:
> *** artiom [2017-06-25 01:36]:
>> Потому и фрагментация низкая: я с 11-го года комп не дефрагментировал,
>> посмотрел e4defrag-ом, меньше двух процентов.
>
> На моём ноутбуке сейчас :-):
>
> # zpool list
> NAME SIZE
> Btrfs не умеет аналогов RAID5/RAID6 (в ZFS RAIDZ1/2/3)
Точно - уже забыл, давно делал.
делал рейд5 на mdadm , а на бтрфс-е включил компрессию.
*** Vasiliy P. Melnik [2017-06-25 12:11]:
>действительно, чем больше - тем лучше, потому как сожрет все, что есть, но
>мало памяти - просто медленнее работает. Никаких крашей это не вызывает
Тут ещё особенность самой фри очень любить память и своп. Linux будет
свопаться
*** Igor Savlook [2017-06-25 11:56]:
>15 минут более чем хватит, следуя твоей логике также может отказать и
>аппаратный raid что тоже повлечет за собой крах массива и упаси чтобы
>этот аппаратный raid был vendor-lock
В дорогих моделях контроллеров я видел что есть SSD и RAM
е знаю правда или нет, но когда появился стандарт сата и первые диски, sun
приехал на выставку и анонсировал свои системы хранения данных, построенные
на solaris-e и zfs, ну и на дисках сата. Стандарт считался сырым, глючным и
ни один нормальный админ не готов был доверять ему диски.
Все были
Чтобы никого не вводить в заблуждение - все мои выкладки по зфс-у из фри,
пользуюсь уже давно, еще с 8-рки насколько помню. Как диски стал в сервер
ставить больше 1 ТБ
про память:
действительно, чем больше - тем лучше, потому как сожрет все, что есть, но
мало памяти - просто медленнее работает.
Если мы говорим о системе из трех дисков и говорим о дебиан 9 - я проверял,
граб наконец-то научился бутить кернел из лвм-раздела. Я бы поспуил
следующим образом
1) выделить на каждом диске раздел в начала 80 гигов
2) создать второй раздел
3) создать рейд1 и в него включить этих три раздела.
4)
On Sun, 2017-06-25 at 11:35 +0300, Sergey Matveev wrote:
> *** Igor Savlook [2017-06-25 03:08]:
> > Вроде как UPS может помочь с этой проблемой.
>
> На сколько-то минут. Кроме того, внезапный отказ может произойти в
> компьютере (мать, контроллер, итд).
>
15 минут более чем
*** Igor Savlook [2017-06-25 03:08]:
>Вроде как UPS может помочь с этой проблемой.
На сколько-то минут. Кроме того, внезапный отказ может произойти в
компьютере (мать, контроллер, итд).
--
Sergey Matveev (http://www.stargrave.org/)
OpenPGP: CF60 E89A 5923 1E76 E263 6422 AE1A
On Sun, 2017-06-25 at 02:29 +0300, Sergey Matveev wrote:
> *** artiom [2017-06-25 00:21]:
> > У вас прям по ZFS сплошные плюсы.
>
> Кстати, забыл отметить важное (если не важнейшее) отличие ZFS
> массивов
> от RAID-ов: проблема write-hole-ов. Например у вас RAID5 и чтобы
>
*** artiom [2017-06-25 00:21]:
>У вас прям по ZFS сплошные плюсы.
Кстати, забыл отметить важное (если не важнейшее) отличие ZFS массивов
от RAID-ов: проблема write-hole-ов. Например у вас RAID5 и чтобы
консистентность данных была в порядке, то при записи вы обязаны сделать
*** artiom [2017-06-25 01:36]:
>Потому и фрагментация низкая: я с 11-го года комп не дефрагментировал,
>посмотрел e4defrag-ом, меньше двух процентов.
На моём ноутбуке сейчас :-):
# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAGCAP DEDUP HEALTH
25.06.2017 01:06, Sergey Matveev пишет:
> *** artiom [2017-06-25 00:54]:
>> Вы хотите сказать, что она жрёт 20% места под метаданные?!
>> Или что она просто начинает сильно фрагментироваться, при заполнении?
>
> Из-за её copy-on-write природы она начинает сильно
*** artiom [2017-06-25 00:54]:
>Вы хотите сказать, что она жрёт 20% места под метаданные?!
>Или что она просто начинает сильно фрагментироваться, при заполнении?
Из-за её copy-on-write природы она начинает сильно фрагментироваться,
верно. Любое изменение данных это создание
> Дорогая она. Например нужно иметь пустого места достаточно, чтобы
> фрагментация не убила производительность в ноль. То есть, вместо 10 TB
> диска вы получите 8 чтобы всё было более менее (хотя если речь про
> хранение последовательно записанных файлов только для чтения, типа
> хранилки
*** artiom [2017-06-25 00:21]:
>Там и сжатие есть?
Я вот тут упомянул:
https://lists.debian.org/debian-russian/2017/06/msg00618.html
что у меня на практике 60 GB MongoDB превратилась в 20 GB занятого места
и соответственно в памяти кэш ФС тоже в три раза меньше жрёт. Это
>> И второй вопрос, к тем, кто имеет опыт. Дома у меня 2 терабайта суммой
>> из всего этого уже забито, я собираюсь ставить 4-терабайтник,
>> вероятно. На работе имеется в виду держать зеркало из пары
>> 4-терабайтников.
>>
>> В обоих случаях супербыстрый доступ не требуется, но и суровых
24.06.2017 19:33, Igor Savlook пишет:
> On Sat, 2017-06-24 at 19:23 +0300, Artem Chuprina wrote:
>> Igor Savlook -> debian-russian@lists.debian.org @ Sat, 24 Jun 2017
>> 18:42:44 +0300:
>>
>> >> Граждане, раз уж пошла такая пьянка.
>> >>
>> >> Я правильно понимаю, что если я, допустим, хочу
*** Artem Chuprina [2017-06-24 22:49]:
>Я правильно понимаю, что если я, допустим, хочу хранить
>бэкапы/архивы/файлообменник на zfs, мне стоит систему все-таки ставить
>на нормальный раздел, а не на zfs же? А zfs разворачивать поверх второго
>раздела?
>
>А если я, допустим,
On Sat, 2017-06-24 at 19:51 +0300, Artem Chuprina wrote:
> Igor Savlook -> debian-russian@lists.debian.org @ Sat, 24 Jun 2017
> 19:33:32 +0300:
>
> >> > Просто технически интересно, а что если, вдруг, раз и поддержу
> zfs
> >> для
> >> > линухи прекратят? Что тогда ты будешь делать? Вроде
Igor Savlook -> debian-russian@lists.debian.org @ Sat, 24 Jun 2017 19:33:32
+0300:
>> > Просто технически интересно, а что если, вдруг, раз и поддержу zfs
>> для
>> > линухи прекратят? Что тогда ты будешь делать? Вроде как на замену
>> zfs
>> > пилят и пилят и пилят btfs но успеха нет а
On Sat, 2017-06-24 at 19:23 +0300, Artem Chuprina wrote:
> Igor Savlook -> debian-russian@lists.debian.org @ Sat, 24 Jun 2017
> 18:42:44 +0300:
>
> >> Граждане, раз уж пошла такая пьянка.
> >>
> >> Я правильно понимаю, что если я, допустим, хочу хранить
> >> бэкапы/архивы/файлообменник на
Igor Savlook -> debian-russian@lists.debian.org @ Sat, 24 Jun 2017 18:42:44
+0300:
>> Граждане, раз уж пошла такая пьянка.
>>
>> Я правильно понимаю, что если я, допустим, хочу хранить
>> бэкапы/архивы/файлообменник на zfs, мне стоит систему все-таки
>> ставить
>> на нормальный раздел, а
On Sat, 2017-06-24 at 15:01 +0300, Artem Chuprina wrote:
> Граждане, раз уж пошла такая пьянка.
>
> Я правильно понимаю, что если я, допустим, хочу хранить
> бэкапы/архивы/файлообменник на zfs, мне стоит систему все-таки
> ставить
> на нормальный раздел, а не на zfs же? А zfs разворачивать поверх
99 matches
Mail list logo