On 2020-11-04 12:09 p.m., Tim Sattarov wrote:
> Приветствую, Debian сообщество
>
> решил обновить железо на домашней файлопомойке/медиасервере.
> Памяти там 32 гига, не ECC, обычной.
> достаточно слотов для дисков и сейчас стоят четыре стареньких WDшки, в LVM
> mirror конфигурации.
>
Отвечаю сам
Приветствую, Debian сообщество
решил обновить железо на домашней файлопомойке/медиасервере.
Памяти там 32 гига, не ECC, обычной.
достаточно слотов для дисков и сейчас стоят четыре стареньких WDшки, в LVM
mirror конфигурации.
Как раз сдох загрузочный SSD, что потребовало замены. решил заодно
ов без мозгов.
>
Замечу, что возможно и на RAID аппаратный ставить ZFS, как я недавно
узнал (то, что это будет плохо работать, пусть не миф, но и далеко не
бесспорное утверждение).
>>>> уступает как именно рэйд контролер. Можно использовать как hba контроллер
>>>> как писал
13 мая 2018 г., 14:00 пользователь artiom <artio...@yandex.ru> написал:
> Понятно. Видимо, в таком случае аппаратный RAID действительно оправдан.
Не совсем так. Сейчас сей рейд используется как обычный контроллер,
т.е. прокидывает диски в ОС, где mdadm и собирает рейд.
Получается зн
artiom wrote:
> >> они дольше живут? Утилита по контролю и настройке да на любителя. Тем не
> >> менее она выполняет все нужные функции. По производительности да 410 уже
> > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ?
> >
> Вот, кстати, SMART
Понятно. Видимо, в таком случае аппаратный RAID действительно оправдан.
10.05.2018 10:26, Stanislav Vlasov пишет:
> 8 мая 2018 г., 23:38 пользователь artiom <artio...@yandex.ru> написал:
>
>> Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ.
>
>
Это сервер бекапа..5 рейд..с батарейкой.
на него скидывает бекапы бакула с кучки тазиков... В пики поток гиг..
упираюсь чисто в сетевую. в рейде.. ща скажу сколько дисков
# ./hpacucli controller slot=1 pd all show
Smart Array P212 in Slot 1
array A
physicaldrive 1I:1:1 (port 1I:box
> 09.05.2018 16:47, Andrey Jr. Melnikov пишет:
> > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с
> > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной
> > фирмварью"? И это - новые, а старые так сразу при втыка
ть HP raid с
не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной
фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI
везде пестрели желтыми треугольникам, воплями про warranty и прочими
светодиодными пугалками.
8 мая 2018 г., 23:38 пользователь artiom написал:
> Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ.
Там массивы порядка 50-60Тб объёмом. К ним надо несколько больше
памяти, особенно, если таки пользоваться zfs не так же, как ext4...
>> zfs не
з общей кучи).
А так - LSI даже и дешевле. Если кончно разобраться в куче HBA гордо
названных RAID/JBOD.
И утили управления за последние 10 лет как были шлаком, так и остались.
В старом megactl приходилось плясать пляски святого Витта чтоб создать
raid 10/50 (ибо делалось там это весьма альтернати
строк --]^M
> >
> > > Не вводите людей в заблуждение. Нормально работают контролеры hp в плане
> > > жёстких дисков. Если вы суете им какую нибудь тошибу которая быстро
> > сыпится
> > > и выходит из строя, контролер не виноват. В плане батареек у вас в
> >
будь тошибу которая быстро
> сыпится
> > и выходит из строя, контролер не виноват. В плане батареек у вас в
> телефоне
> Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с
> не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с H
з строя, контролер не виноват. В плане батареек у вас в телефоне
Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с
не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной
фирмварью"? И это - новые, а старые так сразу при втыкании
:
> Н. Артём <artio...@yandex.ru> wrote:
> > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> > Найденные RAID контроллеры стоили порядка $1000-$1500.
> > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
> батарейкой стоя
Н. Артём <artio...@yandex.ru> wrote:
> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> Найденные RAID контроллеры стоили порядка $1000-$1500.
> Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
> батарейкой стоят на ebay в районе
Ясно, спасибо.
Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ.
08.05.2018 12:01, Stanislav Vlasov пишет:
> 8 мая 2018 г., 13:35 пользователь Н. Артём <artio...@yandex.ru> написал:
>> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAI
ём <artio...@yandex.ru> написал:
> > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> > Найденные RAID контроллеры стоили порядка $1000-$1500.
> > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
> батарейкой стоят на ebay в рай
8 мая 2018 г., 13:35 пользователь Н. Артём <artio...@yandex.ru> написал:
> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
> Найденные RAID контроллеры стоили порядка $1000-$1500.
> Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем
Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID.
Найденные RAID контроллеры стоили порядка $1000-$1500.
Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и
батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250).
Что это и какие у них
25.11.2016 21:57, dimas пишет:
каков должен быть порядок действий?
Создаёшь на новом 1Т диске два раздела. Один на 300-500м под /boot,
второй для всего остального под lvm
Метишь их что они linux raid
Создаёшь два "битых" рейда (можно указать ч
um/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x000cc92b
Device Boot Start End Sectors Size Id Type
/dev/sdb12048 137901959 137899912 65,8G 5 Extended
/dev/sdb2 137901960 976768064 838866105 400G fd Linux raid autodetect
/dev/sdb5
gt; Ну тогда все просто. Больше чем raid5 вы не получите.
> >> >>
> >> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью.
> В
> >> >> смысле, в случае вылета винта.
> >> АЛ> я за raid10 -- погугли &q
yway, тот SSD стоит настолько дороже винчестера, что для целей
>> бэкап-сервера (небыстрая в норме работа, но места надо много), если уж
>> покупать, то покупать не SSD, а винты в разы большей емкости.
OG> Конешно. Я показал пример почему беcсмысленно избегать RAID 5 в свете S
On Thu, Mar 24, 2016 at 12:45:36PM +0200, Oleksandr Gavenko wrote:
> Конешно. Я показал пример почему беcсмысленно избегать RAID 5 в свете SSD. Не
> будете вы ждать дни пока восстановится RAID и скорость работы не деградирует.
Для бэкапного сервера ни время ребилда, ни скорость работы
р почему беcсмысленно избегать RAID 5 в свете SSD. Не
будете вы ждать дни пока восстановится RAID и скорость работы не деградирует.
По ценам на бытовые SSD / HDD разняться в 2-4 раза за GiB по ценникам
ближайшего магазина.
Производители заявляют что enterprise хранилище на SSD уже деше
Oleksandr Gavenko -> debian-russian@lists.debian.org @ Thu, 24 Mar 2016
12:00:20 +0200:
>> АЛ> я за raid10 -- погугли "Why RAID 5 Sucks"
>>
>> Погуглил. Ничего внятного не увидел.
>> Здесь подробнее https://geektimes.ru/post/78311/
OG> От ту
On 2016-03-24, Андрей Любимец wrote:
> 23.03.2016 18:51, Artem Chuprina пишет:
> АЛ> я за raid10 -- погугли "Why RAID 5 Sucks"
>
> Погуглил. Ничего внятного не увидел.
> Здесь подробнее https://geektimes.ru/post/78311/
От туда:
> Когда RAID-5 появился, в 1987
On Wed, Mar 23, 2016 at 10:51:26PM +0300, Artem Chuprina wrote:
> Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
> 20:37:44 +0300:
>
> >> > Интересно, для чего может понадобиться снапшот свежего бэкапа?
> >>
> >> Я понял так, что просто делается синхронизация rsync,
ора?
>> >> >>
>> >> >> SBK> Места-то сколько надо?
>> >> >>
>> >> >> Бэкап-сервер. Лучше больше.
>> >>
>> >> > Ну тогда все просто. Больше чем raid5 вы не получите.
>> >>
рабайта сделает полтора?
> >> >>
> >> >> SBK> Места-то сколько надо?
> >> >>
> >> >> Бэкап-сервер. Лучше больше.
> >>
> >> > Ну тогда все просто. Больше чем raid5 вы не получите.
> >>
>
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
20:37:44 +0300:
>> > Интересно, для чего может понадобиться снапшот свежего бэкапа?
>>
>> Я понял так, что просто делается синхронизация rsync, а потом
>> получившееся состояние запоминается с помощью снапшота.
>>
On Wed, Mar 23, 2016 at 08:06:09PM +0300, Sergey B Kirpichev wrote:
> On Wed, Mar 23, 2016 at 07:52:40PM +0300, Eugene Berdnikov wrote:
> > Интересно, для чего может понадобиться снапшот свежего бэкапа?
>
> Я понял так, что просто делается синхронизация rsync, а потом
> получившееся состояние
On Wed, Mar 23, 2016 at 07:52:40PM +0300, Eugene Berdnikov wrote:
> Интересно, для чего может понадобиться снапшот свежего бэкапа?
Я понял так, что просто делается синхронизация rsync, а потом
получившееся состояние запоминается с помощью снапшота.
А вы что подумали?)
On Wed, Mar 23, 2016 at 07:04:25PM +0300, Artem Chuprina wrote:
> Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
> 17:57:44 +0300:
>
> >> Механизм простой - рсинком сливаешь и делаешь снапшот
>
> EB> Лучше наоборот, меньше вероятность неконсистентности.
>
> EB>
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
17:57:44 +0300:
>> Механизм простой - рсинком сливаешь и делаешь снапшот
EB> Лучше наоборот, меньше вероятность неконсистентности.
EB> Вообще, с rsync'ом снапшот не особо-то нужен. К тому же на той стороне,
EB>
On 23/03/16 15:51, Artem Chuprina wrote:
> Ну, я понимаю, что RAID 5 не переживет вылет любых двух дисков, в то
> время как RAID 10 - только половину вариантов.
Они оба не переживут при вылете двух дисков. 10 это не совсем 1+0.
Разница в том, что при вылете диска на RAID 5 I/O просядет з
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote:
Более 10-ти лет работаю по следующей схеме.
На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys.
Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска -
основные, остальные - spare.
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
17:49:54 +0300:
>> Аналогично для swap (при желании).
EB> Зачем своп на рейде делать? Данные там имеют ценность лишь при хибернейте,
EB> иначе рейд даёт лишь накладные расходы. Не лучше ли подключить несколько
EB>
On Wed, Mar 23, 2016 at 04:00:49PM +0200, Vasiliy P. Melnik wrote:
> Механизм простой - рсинком сливаешь и делаешь снапшот
Лучше наоборот, меньше вероятность неконсистентности.
Вообще, с rsync'ом снапшот не особо-то нужен. К тому же на той стороне,
которую нужно бэкапить, может не быть
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote:
> Более 10-ти лет работаю по следующей схеме.
> На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys.
> Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска -
> основные, остальные - spare.
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote:
> В качестве современной альтернативы данной схемы можно предложить btrfs или
> zfs, в которых и фс,
> и рейд, и lvm в одном флаконе.
btrfs не умеет нормально raid5 в jessie.
Vasiliy P. Melnik -> debian-russian @ Wed, 23 Mar 2016 16:00:49 +0200:
> так модуль есть в кернел для зфса - у меня правда на оракл линукс стоит, но
> не думаю что это принципиально.
А вот зря. Оракл теперь владелец оригинала, у него этот модуль
гарантированно не сломается при апгрейде ядра.
ные на md raid
периодически протухают.
>З.Ы. пробовал btrfs - тормозное оно шибко, но тоже работает как надо
А в каком месте тормозное, в смысле последующей работы со снапшотами?
Более 10-ти лет работаю по следующей схеме.
На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys.
Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска -
основные, остальные - spare.
Аналогично для swap (при желании).
Sys разделы собираются в raid5, поверх
так модуль есть в кернел для зфса - у меня правда на оракл линукс стоит, но
не думаю что это принципиально. Правда больше на фре использую, но тут
вопрос не принципиальный: там модуль из коробки, здесь - из репозитария.
Жалею только, что систему поставил на эти же винты - сложно что-то
23 марта 2016 г., 17:39 пользователь Artem Chuprina написал:
> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
> >> смысле, в случае вылета винта.
> > В случае вылета винта вы получите данные без избыточности
> > и при проблемах с любым
Vasiliy P. Melnik -> debian-russian @ Wed, 23 Mar 2016 15:00:04 +0200:
VPM> А данные какие? я держу бекапы на зфс-е - у меня достаточно мало
изменений,
VPM> ну и плюс снапшоты очень удобная вещь и спасает от удаления данных
Данные разные, но в целом, вероятно, со сравнительно небольшими
> >> >>
> >> >> Бэкап-сервер. Лучше больше.
> >>
> >> > Ну тогда все просто. Больше чем raid5 вы не получите.
> >>
> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью.
> В
> >> смысле, в слу
>> SBK> Места-то сколько надо?
>> >>
>> >> Бэкап-сервер. Лучше больше.
>>
>> > Ну тогда все просто. Больше чем raid5 вы не получите.
>>
>> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
>> смы
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
14:55:27 +0300:
>> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
>> смысле, в случае вылета винта.
> В случае вылета винта вы получите данные без избыточности
> и при проблемах с любым
On Wed, Mar 23, 2016 at 02:24:44PM +0300, Artem Chuprina wrote:
> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
> смысле, в случае вылета винта.
В случае вылета винта вы получите данные без избыточности
и при проблемах с любым оставшимся диском - потерю данных. // КО.
лтора?
> >>
> >> SBK> Места-то сколько надо?
> >>
> >> Бэкап-сервер. Лучше больше.
>
> > Ну тогда все просто. Больше чем raid5 вы не получите.
>
> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В
> смысле,
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
14:07:58 +0300:
>> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
>> >> полтерабайта сделает полтора?
>>
>> SBK> Места-то сколько надо?
>>
>> Бэкап-сервер. Лучше больше.
> Ну тогда
Stanislav Vlasov -> debian-russian @ Wed, 23 Mar 2016 15:35:25 +0500:
>> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
>> >> полтерабайта сделает полтора?
SV> Работал и такой вариант, но нам было медленно...
>> SBK> Места-то сколько надо?
>>
>>
On Wed, Mar 23, 2016 at 01:24:08PM +0300, Artem Chuprina wrote:
> Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
> 13:14:52 +0300:
>
> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
> >> полтерабайта сделает полтора?
>
> SBK> Места-то
23 марта 2016 г., 15:24 пользователь Artem Chuprina написал:
> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
> >> полтерабайта сделает полтора?
Работал и такой вариант, но нам было медленно...
> SBK> Места-то сколько надо?
>
> Бэкап-сервер.
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016
13:14:52 +0300:
>> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
>> полтерабайта сделает полтора?
SBK> Места-то сколько надо?
Бэкап-сервер. Лучше больше.
>> Какие тонкости с загрузкой?
On Wed, Mar 23, 2016 at 01:06:54PM +0300, Artem Chuprina wrote:
> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по
> полтерабайта сделает полтора?
Места-то сколько надо?
> Какие тонкости с загрузкой?
В jessie вроде должно уметь грузиться и с raid5.
Люди местные, сами мы недобрые, поможите умным словом.
Никогда не работал раньше с софтверным рейдом. Ситуация.
Надо сделать на коленке бэкап-сервер. В смысле, чтобы стоял под столом,
его никто не трогал, а он работал. Упса, вообще говоря, нет. Ну, пока
нет, а будет ли - непонятно.
Четыре винта
В Wed, 29 Oct 2014 14:00:44 +0300
Andrey Tataranovich tataranov...@gmail.com пишет:
Можно убрать FD с типа партиции и добавить INITRDSTART='all'
в /etc/default/mdadm. В этом случае md девайсы будут собираться из
initrd, а не ядром.
Реально помогло:
* rootdelay=10
и/или
* quick что-то test
On 11/5/14, Andrey Nikitin andrey.d.niki...@gmail.com wrote:
Можно убрать FD с типа партиции и добавить INITRDSTART='all'
в /etc/default/mdadm. В этом случае md девайсы будут собираться из
initrd, а не ядром.
Реально помогло:
* rootdelay=10
и/или
* quick что-то test или check = off в
В Wed, 5 Nov 2014 21:19:27 +0300
Hleb Valoshka 375...@gmail.com пишет:
Странно, что у вас это вылезло только недавно, так как подобный баг
проявился ещё во времена ядра 3.8.
Проблемы начались примерно после перехода на systemd init.
Я на него грешил тогда. Какое в этот момент было ядро - не
: [8.983711] md/raid1:md0: active with 1 out of 2 mirrors
kernel: [8.983736] md0: detected capacity change from 0 to 98566144
kernel: [8.984272] md0: unknown partition table
Прим:
* На райдовых разделах (/dev/sd{b,c}{1,3}) стоит тип 0xFD (Linux raid
autodetect).
* Норм. загрузка
Здравствуйте, Андрей.
29.10.2014 09:29:12, Andrey Nikitin:
Debian Wheeze 8.0
Вы хотели написать Jessie?
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive:
table
Прим:
* На райдовых разделах (/dev/sd{b,c}{1,3}) стоит тип 0xFD (Linux
raid autodetect).
* Норм. загрузка бывает когда оба диска инициализируются до 1-й
попытки md bind
mdadm.conf
# definitions of existing MD arrays
ARRAY /dev/md0 UUID=8f1d6116:8474f3a0:d417b99e:28a7727f
ARRAY
В Wed, 29 Oct 2014 10:18:26 +0300
Nikolay Kachanov nikolay.kacha...@gmail.com пишет:
Вы хотели написать Jessie?
Да, конечно.
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive:
В Wed, 29 Oct 2014 14:00:44 +0300
Andrey Tataranovich tataranov...@gmail.com пишет:
Можно убрать FD с типа партиции и добавить INITRDSTART='all'
в /etc/default/mdadm. В этом случае md девайсы будут собираться из
initrd, а не ядром.
Переменная установлена, спасибо, попробую.
Да, и если
дисков, членов RAID.
--
WBR, Andrey Tataranovich
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/20141029152939.7551a02b@dragoncore.local
В Wed, 29 Oct 2014 15:29:39 +0300
Andrey Tataranovich tataranov...@gmail.com пишет:
Не важно. Grub грузит свой stage1.5 с чего угодно, если сможет при
установке определить физическое расположение на диске.
Поддержка RAID1 в данном случае - поддержка установки в MBR всех
дисков, членов RAID
On Fri, 6 Dec 2013, Victor Wagner wrote:
On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote:
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET
wrote:
и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd,
Вопрос к fdisc. Как сделать Header, без
Am 06.12.2013 10:20, schrieb yuri.nefe...@gmail.com:
On Fri, 6 Dec 2013, Victor Wagner wrote:
On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote:
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold
WIEDERGOLD.NET wrote:
и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не
Am 06.12.2013 21:30, schrieb Alexander Wiedergold WIEDERGOLD.NET:
Am 06.12.2013 10:20, schrieb yuri.nefe...@gmail.com:
On Fri, 6 Dec 2013, Victor Wagner wrote:
On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote:
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold
WIEDERGOLD.NET
metadata=1.2
Смущает меня эта версия метаданных. Где-то читал, что у ядра проблемы с
автомонтированием, если версия метаданных не 0.9.
--
С уважением,
Константин Матюхин
понимаю...
в бизибоксе:
mdadm --examine --scan
показывает рейд
mdadm --assemble --scan
тишина
вот по этому
mdadm --detail --scan
тишина
странно почему тишина
uuid в mdadm.conf правильный
подскажите куда копать?..
дело в том, что не собирается Raid
лично мне как то маловато информации чтобы
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET
wrote:
и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd,
Вопрос к fdisc. Как сделать Header, без потери данных?
[root@www ~]# fdisk -l /dev/sdb
WARNING: GPT (GUID Partition Table) detected on
Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком
отдано как PV под lvm.
После переименования VG с lvm-томом, содержащим корневой раздел (/boot внутри),
и перезагрузки - на стадии монтирования корня пишется следующее:
assembling all MD arrays ... Failure: faild to
--scan
показывает рейд
mdadm --assemble --scan
тишина
mdadm --detail --scan
тишина
uuid в mdadm.conf правильный
подскажите куда копать?..
еще хотел бы добавить - через rescue live cd md-raid и VG на нем отлично
инициализируются, lvm-том с корнем монтируется, chroot туда работает и внутри
показывает рейд
mdadm --assemble --scan
тишина
вот по этому
mdadm --detail --scan
тишина
странно почему тишина
uuid в mdadm.conf правильный
подскажите куда копать?..
дело в том, что не собирается Raid
лично мне как то маловато информации чтобы догадаться до того где собака
зарыта
но
собирается Raid
лично мне как то маловато информации чтобы догадаться до того где собака
зарыта
но скорее всего то, что дело в не сборке массивов с vg автоматом
нужен mdadm.conf из busybox
и пожалуй еще
#mdadm -Q --detail /dev/md*
из того же busybox'a
ну тогда еще и (вопрос в конце часть
по ходу дела возник вопрос:
есть ли разница между
1. dpkg-reconfigure grub-pc
и
2. grub-install /dev/sda grub-install /dev/sdb grub-install /dev/sdc
и
3. grub-install /dev/sda /dev/sdb /dev/sdc
если используешь mdadm raid 1 ?
так сказать спрошу заранее более опытных )
--
Best regards
27.11.2013, 17:18, Vladimir Skubriev skubr...@cvisionlab.com:
по ходу дела возник вопрос:
есть ли разница между
1. dpkg-reconfigure grub-pc
и
2. grub-install /dev/sda grub-install /dev/sdb grub-install /dev/sdc
и
3. grub-install /dev/sda /dev/sdb /dev/sdc
если используешь mdadm raid
, виртуалка2 и т.д.). Чтобы в случае
проблемы с секторами страдала бы только одна сущность, а не весь массив. Отсюда
возник очевидный вывод - использовать lvm raid и вообще отказаться от md.
Разбил я винты так - один раздел на весь диск под LVM PV, поставил систему на
lvm-том и потом преобразовал его в
On Wed, 04 Sep 2013 14:37:48 +0400
Владимир Скубриев vladi...@skubriev.ru wrote:
On 03.09.2013 21:47, A Bol wrote:
3 диска в зеркале, для снятия копии это нормальная практика, которая
применялась широко пока не появились snapshot'ы.
Вот с этого места - можно поподробнее ?
Чуть
On 05.09.2013 22:41, A Bol wrote:
Был только один такой случай, основной том работал нормально.
--
http://linuxsnippets.net
Вот у меня на днях такой случай тоже был. Причем есть подозрение, на две
вещи
1. Снапошот, хотя опять же, поидее он до фени
2. ФС была смонтирована и в
On 03.09.2013 21:47, A Bol wrote:
3 диска в зеркале, для снятия копии это нормальная практика, которая
применялась широко пока не появились snapshot'ы.
Вот с этого места - можно поподробнее ?
Чуть подробнее про нормальную практику - жутко интересно
Чуть подробнее про снапшоты.
В моей
нужно смотреть в сторону другого RAID LEVEL, MIRROR
TECHNOLOGY, etc ?
Надо это для того, чтобы легко создавать целостную копию всего сервера
при этом не останавливая его, а только например перезапуская. Что не
критично для работающих с ним пользователей.
Есть работающий сервер с массивом из
On 29.08.2013 21:27, Alexander wrote:
не совсем понятна цель всех этих остановок и подключений/отключений
диска. зачем?
чисто теоретически я еще могу понять, если третьим будет внешний винт,
подключенный по e-sata или usb3. в случае чего его можно отключить от
массива и использовать в другой
On 8/30/13, Владимир Скубриев vladi...@skubriev.ru wrote:
Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
вуаля получить рабочую систему.
А этот винт не будет ли помечен как failed, со всеми вытекающими?
On 30.08.2013 12:38, Hleb Valoshka wrote:
On 8/30/13, Владимир Скубриев vladi...@skubriev.ru wrote:
Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
вуаля получить рабочую систему.
А этот винт не будет ли помечен как failed, со всеми вытекающими?
тонкостей я еще не знаю,
30 августа 2013 г., 16:01 пользователь Владимир Скубриев написал:
On 30.08.2013 12:38, Hleb Valoshka wrote:
Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
вуаля получить рабочую систему.
А этот винт не будет ли помечен как failed, со всеми вытекающими?
Если быстро
On Fri, 30 Aug 2013, Владимир Скубриев wrote:
On 30.08.2013 12:38, Hleb Valoshka wrote:
On 8/30/13, Владимир Скубриев vladi...@skubriev.ru wrote:
Чтобы в случае чего взять этот винт из загашника, поставить в сервер и
вуаля получить рабочую систему.
А этот винт не будет ли помечен как
On 30.08.2013 13:24, yuri.nefe...@gmail.com wrote:
Неприменно надо экспериментировать!
Кстати, как вы загрузчик (grub/lilo) планируете настраивать?
Так что воткнул и заработало вряд ли выйдет...
Ю.
без танцев с бубном - не выйдет согласен
а так вообще планировал
chroot, grub-install
ну
30.08.2013 12:28, Владимир Скубриев пишет:
On 30.08.2013 13:24, yuri.nefe...@gmail.com wrote:
Неприменно надо экспериментировать!
Кстати, как вы загрузчик (grub/lilo) планируете настраивать?
Так что воткнул и заработало вряд ли выйдет...
Ю.
без танцев с бубном - не выйдет согласен
а так
Вопрос в теме письма.
Возможно ли создать зеркало с тремя дисками ?
Или может быть нужно смотреть в сторону другого RAID LEVEL, MIRROR
TECHNOLOGY, etc ?
Надо это для того, чтобы легко создавать целостную копию всего сервера
при этом не останавливая его, а только например перезапуская. Что
Владимир Скубриев написал:
Возможно ли создать зеркало с тремя дисками ?
У меня есть две машины с тремя и с четырьмя дисками в зеркале, соответственно.
В обоих вылетало по одному диску.
Soft raid, md, разумеется.
Не вижу в этом никакой проблемы.
А вот всё остальное ...
On 29.08.2013 17:01, Dmitry Fedorov wrote:
Владимир Скубриев написал:
Возможно ли создать зеркало с тремя дисками ?
У меня есть две машины с тремя и с четырьмя дисками в зеркале, соответственно.
В обоих вылетало по одному диску.
Soft raid, md, разумеется.
Не вижу в этом никакой проблемы.
А
29 августа 2013 г., 20:08 пользователь Владимир Скубриев
vladi...@skubriev.ru написал:
On 29.08.2013 17:01, Dmitry Fedorov wrote:
Просто нужно добавить диск/раздел в массив зеркальный и все ? В смысле
начнется ребилд и будут использоваться 3 диска вместо двух для чтения записи
на блочное
20:14 Thu 29 Aug, Dmitry Fedorov wrote:
29 августа 2013 г., 20:08 пользователь Владимир Скубриев
vladi...@skubriev.ru написал:
On 29.08.2013 17:01, Dmitry Fedorov wrote:
Просто нужно добавить диск/раздел в массив зеркальный и все ? В смысле
начнется ребилд и будут использоваться 3
uot; vladi...@skubriev.ru:Вопрос в теме письма. Возможно ли создать "зеркало" с тремя дисками ? Или может быть нужно смотреть в сторону другого RAID LEVEL, MIRROR TECHNOLOGY, etc ? Надо это для того, чтобы легко создавать целостную копию всего сервера при этом не останавливая его, а только например
Результаты 1 - 100 из 746 matches
Mail list logo