Re: Расширение soft-raid5 без потери данных
Mon, 16 Mar 2009 13:39:49 +0300 Alexander Tiurin alexande...@gmail.com wrote: 15 марта 2009 г. 21:57 пользователь Alexander GQ Gerasiov g...@cs.msu.suнаписал: На Sun, 15 Mar 2009 20:03:21 +0300 Alexander Tiurin alexande...@gmail.com записано: Возможен ли сабж? Погуглив, так и не нашел явного ответа. В виртуалке проделал эксперимент - после добавлениия 4го диска данные на рейде потерялись. Делал так sfdisk -d старый_диск| sfdisk новый_диск mdadm --add /dev/md1 /dev/новый_диск_раздел_2 mdadm --grow /dev/md1 --raid-devices=4 Может, я чего-то упустил из вида? Да, возможно. При чем можно даже начать с одного диска (raid5 на 2 диска, с вторым отсутствующим), постепенно добавляя новые и увеличивая размер :) Почему у тебя потерялись - не знаю. У меня на рабочей машине всё было в порядке. RAID-DEVICES CHANGES в mdadm(8) смотрел? Ядро какое? Ядро 2.6.26-1-686 (Debian 2.6.26-13) RAID-DEVICES CHANGES только что посмотрел. Мой скромный английский позволил понять, что используя опцию о которой там говориться, можно служебные данные зарезервировать (для восстановления всех данных с случаи неуспешного завершения добавления новго диска), при условии что нет spare диска. При его наличии этой опцией яко бы можно пренебречь. Можно пренебречь, если у тебя есть 2 spare диска и на один из них ты хочешь растянуть рейд. Если spare один и именно на него ты расширяешь - то лучше использовать, вдруг свет выключат :) Пробовал я все проделать на таких условиях: разбивка дисков: sda -- sda1 -- sda2 sdb -- sdb1 -- sdb2 sdc -- sdc1 -- sdc2 raid и точки монтирования sda1+sdb1=md0(raid1) /boot sda2+sdb2+sdc2 =md1 (raid5) / Новый диск добавлял к md1. После процесса добавления диска данные были все доступны и mdstat показывал наличие 4 х дисков в рэйде. Но размер оставался по прежнему равный сумме sda2, sdb2 и sdc2 Погоди, а он rechunk сделал? Ты /proc/mdstat смотрел? Что именно он там показывал? ну и размер как раз и должен быть (N-1)*size, хотя подозреваю, это ты не правильно мысль выразил. После ребута получил информация, что недоступно устройство /dev/md1 и загрузка невозможна. Подозреваю, что-то неноделал до конца или например /dev надо выносить на md0. Вообще, реальна ли данная затея c raid5 при разбивке: md0 (raid1) /boot md1 (raid5) / ? По идее - да, но я бы update-initramfs еще сказал. Предварительно проверив, что в /etc/mdadm/mdadm.conf новая информация. Даже, если подумать, это обязательное условие. Только я вместо такой конфигурации делал бы: md0 - raid1 /boot md1 - LVM PV /,/home (/usr,/var,/srv не факт, зависит от того, что за комп) уже поверх LVM. Собственно именно так и делаю. -- Best regards, Alexander GQ Gerasiov Contacts: e-mail:g...@cs.msu.su Jabber: g...@jabber.ru Homepage: http://gq.net.ru ICQ: 7272757 PGP fingerprint: 0628 ACC7 291A D4AA 6D7D 79B8 0641 D82A E3E3 CE1D -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Re: Расширение soft-raid5 без потери данных
Mon, 16 Mar 2009 17:58:27 +0300 Alexander Tiurin alexande...@gmail.com wrote: 16 марта 2009 г. 14:51 пользователь Alexander GQ Gerasiov g...@cs.msu.suнаписал: Mon, 16 Mar 2009 13:39:49 +0300 Alexander Tiurin alexande...@gmail.com wrote: 15 марта 2009 г. 21:57 пользователь Alexander GQ Gerasiov g...@cs.msu.suнаписал: На Sun, 15 Mar 2009 20:03:21 +0300 Alexander Tiurin alexande...@gmail.com записано: Возможен ли сабж? Погуглив, так и не нашел явного ответа. В виртуалке проделал эксперимент - после добавлениия 4го диска данные на рейде потерялись. Делал так sfdisk -d старый_диск| sfdisk новый_диск mdadm --add /dev/md1 /dev/новый_диск_раздел_2 mdadm --grow /dev/md1 --raid-devices=4 Может, я чего-то упустил из вида? Да, возможно. При чем можно даже начать с одного диска (raid5 на 2 диска, с вторым отсутствующим), постепенно добавляя новые и увеличивая размер :) Почему у тебя потерялись - не знаю. У меня на рабочей машине всё было в порядке. RAID-DEVICES CHANGES в mdadm(8) смотрел? Ядро какое? Ядро 2.6.26-1-686 (Debian 2.6.26-13) RAID-DEVICES CHANGES только что посмотрел. Мой скромный английский позволил понять, что используя опцию о которой там говориться, можно служебные данные зарезервировать (для восстановления всех данных с случаи неуспешного завершения добавления новго диска), при условии что нет spare диска. При его наличии этой опцией яко бы можно пренебречь. Можно пренебречь, если у тебя есть 2 spare диска и на один из них ты хочешь растянуть рейд. Если spare один и именно на него ты расширяешь - то лучше использовать, вдруг свет выключат :) Вопрос важный. Есть вероятность, что можно остаться без электричества в момент расширения. Например, у меня будет в raid5 2 диска. Со временем придется поставить в рэйд 31 диск. Но покупать для этого 4й такой же диск не хотелось. Если использовать опцию --backup-file, то о каких размерах данных может идти речь? Ну там, в процентах от объема raid5. (Это я к тому, что может можно подсунуть для этого диск намного меньшего объема). 2 сектора, насколько я помню. То есть места на /boot должно хватить. Но на самом деле это только если проблема произойдет в первые несколько секунд. Пробовал я все проделать на таких условиях: разбивка дисков: sda -- sda1 -- sda2 sdb -- sdb1 -- sdb2 sdc -- sdc1 -- sdc2 raid и точки монтирования sda1+sdb1=md0(raid1) /boot sda2+sdb2+sdc2 =md1 (raid5) / Новый диск добавлял к md1. После процесса добавления диска данные были все доступны и mdstat показывал наличие 4 х дисков в рэйде. Но размер оставался по прежнему равный сумме sda2, sdb2 и sdc2 Погоди, а он rechunk сделал? Ты /proc/mdstat смотрел? Что именно он там показывал? ну и размер как раз и должен быть (N-1)*size, хотя подозреваю, это ты не правильно мысль выразил. Да, точно, запутался. После ребута получил информация, что недоступно устройство /dev/md1 и загрузка невозможна. Подозреваю, что-то неноделал до конца или например /dev надо выносить на md0. Вообще, реальна ли данная затея c raid5 при разбивке: md0 (raid1) /boot md1 (raid5) / ? По идее - да, но я бы update-initramfs еще сказал. Предварительно проверив, что в /etc/mdadm/mdadm.conf новая информация. Даже, если подумать, это обязательное условие. Только я вместо такой конфигурации делал бы: md0 - raid1 /boot md1 - LVM PV /,/home (/usr,/var,/srv не факт, зависит от того, что за комп) уже поверх LVM. Я еще в прелести LVM не въехал особо:) Рекомендую. Собственно именно так и делаю. Попробовал еще раз, но + ко всему изменил mdadm.conf (указал в нужном массиве верное число дисков) и выполнил update-initramfs. Все получилось норм. Спасибо за помощь! -- Best regards, Alexander GQ Gerasiov Contacts: e-mail:g...@cs.msu.su Jabber: g...@jabber.ru Homepage: http://gq.net.ru ICQ: 7272757 PGP fingerprint: 0628 ACC7 291A D4AA 6D7D 79B8 0641 D82A E3E3 CE1D -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Расширение soft-raid5 без потери данных
Возможен ли сабж? Погуглив, так и не нашел явного ответа. В виртуалке проделал эксперимент - после добавлениия 4го диска данные на рейде потерялись. Делал так sfdisk -d старый_диск| sfdisk новый_диск mdadm --add /dev/md1 /dev/новый_диск_раздел_2 mdadm --grow /dev/md1 --raid-devices=4 Может, я чего-то упустил из вида?
Re: Расширение soft-raid5 без потери данных
На Sun, 15 Mar 2009 20:03:21 +0300 Alexander Tiurin alexande...@gmail.com записано: Возможен ли сабж? Погуглив, так и не нашел явного ответа. В виртуалке проделал эксперимент - после добавлениия 4го диска данные на рейде потерялись. Делал так sfdisk -d старый_диск| sfdisk новый_диск mdadm --add /dev/md1 /dev/новый_диск_раздел_2 mdadm --grow /dev/md1 --raid-devices=4 Может, я чего-то упустил из вида? Да, возможно. При чем можно даже начать с одного диска (raid5 на 2 диска, с вторым отсутствующим), постепенно добавляя новые и увеличивая размер :) Почему у тебя потерялись - не знаю. У меня на рабочей машине всё было в порядке. RAID-DEVICES CHANGES в mdadm(8) смотрел? Ядро какое? -- Best regards, Alexander GQ Gerasiov Contacts: e-mail:g...@cs.msu.su Jabber: g...@jabber.ru Homepage: http://gq.net.ru ICQ: 7272757 PGP fingerprint: 0628 ACC7 291A D4AA 6D7D 79B8 0641 D82A E3E3 CE1D -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org