Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 23:20 пользователь Mikhail A Antonov b...@solarnet.ru написал:
 01.06.2012 22:51, Dmitry A. Zhiglov пишет:
 Как себя поведет система при выходе из строя одного диска в случае,
 если своп разделы были с одинаковым приоритетом на разных дисках?
 В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и
 тормознёт. В другом - ну представь что у тебя в том куске свопа был
 кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в
 виртуалку, внутри которой крутится терминальный сервер, внутри которого
 бухгалтерская база. Можно инфу похерить сильно.

Замысел мой в том, что swap при одинаковом приоритете может работать
как страйп. Естественно не всем это надо и тем более в то время когда
оперативной памяти должно хватать на всех.

Так как у меня нет под руками железа, попробовал провести эксперимент на kvm+lvm

Сделал виртуальный debian с 64 МБ оперативной памяти и 2 диска с swap
и приоритетом для всех =5. Что бы уж совсем тяжело было, установил gdm
и зашел.

Далее в lvm на одном из swap-разделов установил права на RO и
началось. Ничего не упало, но тормозило. Процессорное время тратилось
на io, который был только на чтение в основном, на запись практически
ничего не видел или это был не swap. В dmesg было много сообщений от
ядра. Мне удалось даже выключить gdm при такой деградации, но все
работало.

Затем, восстановил в lvm права на раздел в RW и как будто ничего и не
было - все тип-топ.

Конечно, это не чистый эксперимент и возможно торможения связаны из-за
того, что система видит swap, но записать на него ничего не может и
вроде есть и вроде нет.

Было бы интересно узнать как все же на физическом, полном отваливании
диска с swap-разделом поведет система, так как  это для меня важно.
Был бы благодарен за проведение и подтверждение эксперимента. Ну или
кто либо подскажет, как можно по-другому сымитировать полное
отключение диска в lvm или как либо иначе.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Stanislav Maslovski
On Sun, Jun 03, 2012 at 12:00:21PM +0400, Dmitry A. Zhiglov wrote:
 Было бы интересно узнать как все же на физическом, полном отваливании
 диска с swap-разделом поведет система, так как  это для меня важно.

Как повезет, так и поведет. Смотря что было в свопе на момент падения
раздела.

-- 
Stanislav


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120603083830.GA26188@kaiba.homelan



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Alexander
03.06.2012, 09:06, Mikhail A Antonov b...@solarnet.ru:
 От себя добавлю что для гостевых linux я на железке выдаю отдельный
 lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз
 оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко
 когда внутрь linux передаю два диска. Например, так было когда
 система была на sas-рейде, а для файлохранилища был проброшен
 отдельный sata-диск.


 Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю:
 --
 # cat /etc/sysctl.d/vmswappiness.conf
 vm.swappiness = 0
 --
 Так своп будет использоваться только когда оперативки реально не
 хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix).


спасибо большое, Михаил! ценная для меня информация


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/432571338713...@web22g.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
 Итак.
 md0 - /boot на 300-500м. (ext2)
 md1 - pv для lvm
 Для каждой виртуалки отдельный lv.
 Всё.
 Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
 страдать. Диски просто так не вылетают.
 Мониторить смартом и mdadm.
 Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
 а хардварный, но бьётся всё так же и сути не меняет.


т.е. не заморачиваться с отдельным md под саму систему-гипервизор? просто 
корень держать на отдельном lv и виртуалки в отдельных lv - но все это в 
пределах одного pv/md? в общем то наверное соглашусь, упрощает схему, тем более 
у вас отработано на практике) спасибо!


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/210291338620...@web1h.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
 Итак.
 md0 - /boot на 300-500м. (ext2)
 md1 - pv для lvm
 Для каждой виртуалки отдельный lv.
 Всё.
 Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
 страдать. Диски просто так не вылетают.
 Мониторить смартом и mdadm.
 Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
 а хардварный, но бьётся всё так же и сути не меняет.


а кстати куда своп то девать?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/303491338620...@web19e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sat, Jun 02, 2012 at 10:57:27AM +0400, Alexander wrote:
 а кстати куда своп то девать?
 

А он нужен? У каждой виртуалки своп свой будет.. Так что туда же. 
Отдельными LV.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
02.06.2012 10:57, Alexander пишет:
 01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
 Итак.
 md0 - /boot на 300-500м. (ext2)
 md1 - pv для lvm
 Для каждой виртуалки отдельный lv.
 Всё.
 Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
 страдать. Диски просто так не вылетают.
 Мониторить смартом и mdadm.
 Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
 а хардварный, но бьётся всё так же и сути не меняет.
 а кстати куда своп то девать?
В отдельный lv, если нужен.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был отдан под 
виртуалку windows server r2 в качестве винта, и при установке создалось 2 
раздела на винте.
fdisk -l /dev/dm-1
показывает их как:
/dev/dm-1p1
/dev/dm-1p2
но вот смаунтить и отформатировать их не могу - нет таких устройств - можно ли 
до них как-то добраться?
пробовал также:
/dev/vg1/lv1p1
/dev/vg1/lv1p2
и
/dev/mapper/vg1-lv1p1
/dev/mapper/vg1-lv1p2
результат отрицательный. при этом помню, что вроде как делал такое раньше


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/279031338649...@web19f.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:
 господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
 отдан под виртуалку windows server r2 в качестве винта, и при установке
 создалось 2 раздела на винте.

Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки
такого бутерброда сильно усложняются... Для виртуалок лучший вариант --
один LV == один раздел. Впрочем венда скорее всего не умеет так...

 но вот смаунтить и отформатировать их не могу - нет таких устройств -
 можно ли до них как-то добраться?

kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не
имеет)
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
02.06.2012, 22:48, Dmitry Nezhevenko d...@inhex.net:
 On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:

  господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
  отдан под виртуалку windows server r2 в качестве винта, и при установке
  создалось 2 раздела на винте.

 Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки
 такого бутерброда сильно усложняются... Для виртуалок лучший вариант --
 один LV == один раздел. Впрочем венда скорее всего не умеет так...

  но вот смаунтить и отформатировать их не могу - нет таких устройств -
  можно ли до них как-то добраться?

 kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не
 имеет)

 --
 WBR, Dmitry

эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно 
разбивает видимый ею физический диск так как привыкла. и мне кажется, что не 
важно винда или линукс - разделы будут в любом случае. вопрос в том, могу ли я 
работать с разделами непосредственно из гипервизора, а не из виртуалки.
собственно говоря я сильно удивился когда не смог сходу сделать озвученное в 
вопросе. ибо LVM это типо блочное устройство, как физический диск или md - с 
которыми подобных проблем нет.
собственно говоря задача тривиальна - скопировать образы акронис на винт 
виртуалки - чтобы развернуть их. ибо проброс usb-винта непосрественно в 
виртуалку хоть и работает, но скорость копирования исчилсяемая десятками часов 
особо не рабудет


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/117051338671...@web13d.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sun, Jun 03, 2012 at 01:08:30AM +0400, Alexander wrote:
 эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно
 разбивает видимый ею физический диск так как привыкла. и мне кажется,
 что не важно винда или линукс - разделы будут в любом случае. вопрос в
 том, могу ли я работать с разделами непосредственно из гипервизора, а не
 из виртуалки.

В случае гостевого linux так делать не нужно. Потому что всегда может
оказаться что места чуть маловато. Если был проброшен один LV, который был
разбит на /, возможно /var и swap, то увеличивать это будет весьма
нетривиально.

В случае, если каждый раздел был проброшен своим LV, увеличение очень
просто (lvresize + resize2fs). 

xen-create-image именно так и делает.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
02.06.2012 19:00, Alexander пишет:
 господа, а как примаунтить раздел в lvm-томе?
kpartx -a /dev/mapper/vg1-lv1
mkdir /mnt/lv1p1
mount /dev/mapper/vg1-lv11 /mnt/lv1p1

Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
...
# монтируем что бэкапим
# делаем снапшот
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
|| true
...

Лучше не создавать больше одного раздела на одном lv - не удобно будет
resize делать, в случае чего.
А ещё не удобно lv называть lvномер. Удобнее называть их именем
виртуальной машины или по целям. lv для свопа логичнее будет назвать swap.
Например есть виртмашина с именем win2k3 внутри которой хочется иметь
два раздела - один поменьше для системы (диск C) и один побольше для
файлов (диск D).
Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки.
У меня такая конфигурация переживала resize в обе стороны. Не на лету,
но переживала.


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
03.06.2012, 02:46, Mikhail A Antonov b...@solarnet.ru:
 02.06.2012 19:00, Alexander пишет:

  господа, а как примаунтить раздел в lvm-томе?

 kpartx -a /dev/mapper/vg1-lv1
 mkdir /mnt/lv1p1
 mount /dev/mapper/vg1-lv11 /mnt/lv1p1

 Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
 ...
 # монтируем что бэкапим
 # делаем снапшот
 lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
 # достаём раздел
 kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
 # потом монтируем
 mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
 || true
 ...

 Лучше не создавать больше одного раздела на одном lv - не удобно будет
 resize делать, в случае чего.
 А ещё не удобно lv называть lvномер. Удобнее называть их именем
 виртуальной машины или по целям. lv для свопа логичнее будет назвать swap.
 Например есть виртмашина с именем win2k3 внутри которой хочется иметь
 два раздела - один поменьше для системы (диск C) и один побольше для
 файлов (диск D).
 Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки.
 У меня такая конфигурация переживала resize в обе стороны. Не на лету,
 но переживала.


спасибо огромное!
имена lv и vg привел вымышленные для удобства :)
подскажите, а как быть с windows7/server2008r2 - они создают маленький 
boot-раздел 100мб при установке

 Dmitry Nezhevenko
 В случае гостевого linux так делать не нужно. Потому что всегда может
 оказаться что места чуть маловато. Если был проброшен один LV,
 который был разбит на /, возможно /var и swap,
 то увеличивать это будет весьма нетривиально.

спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал 
бы один lvm-том на разделы.
теперь так делать не буду :)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/666341338693...@web9e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
03.06.2012 07:19, Alexander пишет:
 спасибо огромное! имена lv и vg привел вымышленные для удобства :)
 подскажите, а как быть с windows7/server2008r2 - они создают маленький
 boot-раздел 100мб при установке 
Никак не быть - он не будет мешать. Его не надо ресайзить.
Ну и монтировать не первый раздел, а второй, если файлы выцепить надо.

 Dmitry Nezhevenko
 В случае гостевого linux так делать не нужно. Потому что всегда может
 оказаться что места чуть маловато. Если был проброшен один LV,
 который был разбит на /, возможно /var и swap,
 то увеличивать это будет весьма нетривиально.
 спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал 
 бы один lvm-том на разделы.
 теперь так делать не буду :)
Я несколько раз пытался перечитать фразу Дмитрия, но так и не смог
понять того, что он хотел этим сказать. Много слов по теме, но ничего
конкретного.
От себя добавлю что для гостевых linux я на железке выдаю отдельный
lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз
оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко
когда внутрь linux передаю два диска. Например, так было когда
система была на sas-рейде, а для файлохранилища был проброшен
отдельный sata-диск.

Вот несколько примеров:
--

(жирная машина)
root@zimbra:~# pvs
  PV VG Fmt  Attr PSize  PFree
  /dev/vda1  zimbra lvm2 --   50,00g0
root@zimbra:~# vgs
  VG #PV #LV #SN Attr   VSize  VFree
  zimbra   1   3   0 wz--n- 50,00g0
root@zimbra:~# lvs
  LV   VG Attr   LSize  Origin Snap%  Move Log Copy%  Convert
  opt  zimbra -wi-ao 43,00g 
  root zimbra -wi-ao  5,00g 
  swap zimbra -wi-ao  2,00g 
root@zimbra:~# df -h
Файловая система  Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/zimbra-root
  5,0G  1,5G  3,3G  31% /
tmpfs 2,0G 0  2,0G   0% /lib/init/rw
udev  2,0G  116K  2,0G   1% /dev
tmpfs 2,0G 0  2,0G   0% /dev/shm
/dev/mapper/zimbra-opt
   43G  4,2G   37G  11% /opt

--

(мелкий шлюз)
root@gw:~# pvs
  PV VG   Fmt  Attr PSize  PFree
  /dev/vda1  gw   lvm2 a-   20,00g 9,75g
root@gw:~# vgs
  VG   #PV #LV #SN Attr   VSize  VFree
  gw 1   2   0 wz--n- 20,00g 9,75g
root@gw:~# lvs
  LV   VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  root gw   -wi-ao   9,31g 
  swap gw   -wi-ao 952,00m 
root@gw:~# df -h
Файловая система  Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/gw-root   9,2G  809M  8,0G  10% /
tmpfs 502M 0  502M   0% /lib/init/rw
udev  497M  164K  497M   1% /dev
tmpfs 502M 0  502M   0% /dev/shm

--

(файлохранилище)
f0:~# df -h
FilesystemSize  Used Avail Use% Mounted on
/dev/vda1 2.8G  1.8G  934M  66% /
tmpfs 252M 0  252M   0% /lib/init/rw
udev  247M  100K  247M   1% /dev
tmpfs 252M 0  252M   0% /dev/shm
/dev/vdb1 696G  410G  286G  59% /data

(здесь нет lvm внутри гостя)

--

Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю:
--
# cat /etc/sysctl.d/vmswappiness.conf
vm.swappiness = 0
--
Так своп будет использоваться только когда оперативки реально не
хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix).


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
 Здраствуйте!
 имеется сервер с 2 винтами
 сейчас продумываю структуру дискового хранилища гипервизора KVM.
 Пока остановился на следующей схеме:

Можно перефразирую задачу?

Есть 2 диска.
Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
Разделы рейдов содержать:
md0 - boot
md1 - swap
md2 - lvm с vg1
md3 - lvm с vg2

vg1 - система и гипервизор
vg2 - нарезка под виртуальные lv

Вопросы:
- Может было бы правильней  делать отдельные рейд-разделы под каждую
виртуалку, т.е. свой md+vg+lv?

Причина так думать: если повредится зеркало md3 то перестраиваться
будет весь большой md (а это долго), а если сделать несколько md
поменьше вместо одного большого, то соответственно только поврежденный
md.

- А возможно ли такое вообще, что повредится отдельный md?

Причина так думать :ведь все md на одних и тех же физических
устройствах - т.е. если уж и повредится что-то, то не по отдельности,
а сразу все md - и получим ситуацию вместо восстановления одного
большого md - одновременное восстановление нескольких маленьких md -
что как я понимаю хуже - ибо они изнасилуют жесткие диски
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
грамотно? т.е. не позволит одновременное восстановление массива на
одних и тех же физ. устройствах?..

Я понимаю, что если выйдет из строя жесткий диск, то естественно
развалятся все md. Но теоретически может же быть например bad-сектор,
попадающий только в один md - соответственно только он и развалится, а
остальные нет - так?


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
dmitry.zhig...@gmail.com написал:
 1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
 Здраствуйте!
 имеется сервер с 2 винтами
 сейчас продумываю структуру дискового хранилища гипервизора KVM.
 Пока остановился на следующей схеме:

 Можно перефразирую задачу?

 Есть 2 диска.
 Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
 Разделы рейдов содержать:
 md0 - boot
 md1 - swap
 md2 - lvm с vg1
 md3 - lvm с vg2

В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
на 2 диска. Приоритеты по swap установить в fstab'e.

 vg1 - система и гипервизор
 vg2 - нарезка под виртуальные lv

 Вопросы:
 - Может было бы правильней  делать отдельные рейд-разделы под каждую
 виртуалку, т.е. свой md+vg+lv?

 Причина так думать: если повредится зеркало md3 то перестраиваться
 будет весь большой md (а это долго), а если сделать несколько md
 поменьше вместо одного большого, то соответственно только поврежденный
 md.

Стоит оставить так, как запланировано сейчас. В вашем случае скорей
всего потеряется прелесть lvm и потенциальные проблемы нарезать
разделы на дисках на живую, перезагрзуки и т.д.


 - А возможно ли такое вообще, что повредится отдельный md?

Такое возможно.


 Причина так думать :ведь все md на одних и тех же физических
 устройствах - т.е. если уж и повредится что-то, то не по отдельности,
 а сразу все md - и получим ситуацию вместо восстановления одного
 большого md - одновременное восстановление нескольких маленьких md -
 что как я понимаю хуже - ибо они изнасилуют жесткие диски
 одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
 грамотно? т.е. не позволит одновременное восстановление массива на
 одних и тех же физ. устройствах?..
 Я понимаю, что если выйдет из строя жесткий диск, то естественно
 развалятся все md. Но теоретически может же быть например bad-сектор,
 попадающий только в один md - соответственно только он и развалится, а
 остальные нет - так?

Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
диск придется, а это само собой  затронет все raid-разделы. При
перестроении разделы перестраиваются последовательно. К тому же с
какой скоростью будет перестроение настраивается и по умолчанию
лимитировано (не буду искать цифру)


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Скубриев Владимир

01.06.2012 16:40, Dmitry A. Zhiglov написал:

1 июня 2012 г., 15:38 пользователь Alexanderag...@yandex.ru  написал:

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:

Можно перефразирую задачу?

Есть 2 диска.
Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
Разделы рейдов содержать:
md0 - boot
md1 - swap
md2 - lvm с vg1
md3 - lvm с vg2

vg1 - система и гипервизор
vg2 - нарезка под виртуальные lv

Вопросы:
- Может было бы правильней  делать отдельные рейд-разделы под каждую
виртуалку, т.е. свой md+vg+lv?

Причина так думать: если повредится зеркало md3 то перестраиваться
будет весь большой md (а это долго), а если сделать несколько md
поменьше вместо одного большого, то соответственно только поврежденный
md.

- А возможно ли такое вообще, что повредится отдельный md?

Причина так думать :ведь все md на одних и тех же физических
устройствах - т.е. если уж и повредится что-то, то не по отдельности,
а сразу все md - и получим ситуацию вместо восстановления одного
большого md - одновременное восстановление нескольких маленьких md -
что как я понимаю хуже - ибо они изнасилуют жесткие диски
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
грамотно? т.е. не позволит одновременное восстановление массива на
одних и тех же физ. устройствах?..

Я понимаю, что если выйдет из строя жесткий диск, то естественно
развалятся все md. Но теоретически может же быть например bad-сектор,
попадающий только в один md - соответственно только он и развалится, а
остальные нет - так?
профессионально +1, сам голову сломал, пока разобрался в том, что же 
человек хочет.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8.3010...@skubriev.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Скубриев Владимир

01.06.2012 15:38, Alexander написал:

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0
2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел 
диска2) - md1
3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. 
раздел диска2) - сама система с гипервизором - vg1/lv1 на md2
4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 
3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все 
пространство и отдельные lvm-тома нужного размера под каждую виртуалку


Собственно говоря смущает пункт №4 - думаю может делать отдельные md 
под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли 
в этом смысл?
Просто если повредится зеркало из п.4 то перестраиваться будет весь 
большой md (а это долго), а если сделать несколько md поменьше вместо 
одного большого, то соответственно только поврежденный md.
Далее у меня возник такой вопрос -  возможно ли такое вообще, что 
повредится отдельный md? ведь все md на одних и тех же физических 
устройствах - т.е. если уж и повредится что-то, то не по отдельности, 
а сразу все md - и получим ситуацию вместо восстановления одного 
большого md - одновременное восстановление нескольких маленьких md - 
что как я понимаю хуже - ибо они изнасилуют жесткие диски 
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает 
грамотно? т.е. не позволит одновременное восстановление массива на 
одних и тех же физ. устройствах?..
Я понимаю, что если выйдет из строя жесткий диск, то естественно 
развалятся все md. Но теоретически может же быть например bad-сектор, 
попадающий только в один md - соответственно только он и развалится, а 
остальные нет - так?


В общем, господа, поделитесь мыслями и опытом :)


После установки системы установите grub, также и на /dev/sdb (# 
grub-install /dev/sdb), дабы в случае, если bios захочет загрузиться с 
другого диска или вы просто перепутаете кабели местами то сервер смог бы 
загрузится.


По поводу bad-секторов и разных md девайсов может быть дело и выгорет - 
но тут думаю скорее важно узнать мнение тех, кто конкретно с таким 
случаем сталкивался.


В остальном дождусь ГУРУ. Самому интересно, т.к. то как вы разместили бы 
разделы и тома даже в голову не приходило - если честно.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8bb25.4050...@skubriev.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander
Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил

насчет маленьких md я задумался когда наблюдал у себя перестройку 
развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а 
перестраивалось естественно все на блочном уровне - т.е. весь 1тб
т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу 
томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку 
продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на 
себе все прелести восстановления терабайтного рейда в течении долгого времени

01.06.2012, 16:51, Dmitry A. Zhiglov dmitry.zhig...@gmail.com:
 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
 dmitry.zhig...@gmail.com написал:

  1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
  Здраствуйте!
  имеется сервер с 2 винтами
  сейчас продумываю структуру дискового хранилища гипервизора KVM.
  Пока остановился на следующей схеме:
  Можно перефразирую задачу?

  Есть 2 диска.
  Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
  Разделы рейдов содержать:
  md0 - boot
  md1 - swap
  md2 - lvm с vg1
  md3 - lvm с vg2

 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.

  vg1 - система и гипервизор
  vg2 - нарезка под виртуальные lv

  Вопросы:
  - Может было бы правильней  делать отдельные рейд-разделы под каждую
  виртуалку, т.е. свой md+vg+lv?

  Причина так думать: если повредится зеркало md3 то перестраиваться
  будет весь большой md (а это долго), а если сделать несколько md
  поменьше вместо одного большого, то соответственно только поврежденный
  md.

 Стоит оставить так, как запланировано сейчас. В вашем случае скорей
 всего потеряется прелесть lvm и потенциальные проблемы нарезать
 разделы на дисках на живую, перезагрзуки и т.д.

  - А возможно ли такое вообще, что повредится отдельный md?

 Такое возможно.

  Причина так думать :ведь все md на одних и тех же физических
  устройствах - т.е. если уж и повредится что-то, то не по отдельности,
  а сразу все md - и получим ситуацию вместо восстановления одного
  большого md - одновременное восстановление нескольких маленьких md -
  что как я понимаю хуже - ибо они изнасилуют жесткие диски
  одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
  грамотно? т.е. не позволит одновременное восстановление массива на
  одних и тех же физ. устройствах?..
  Я понимаю, что если выйдет из строя жесткий диск, то естественно
  развалятся все md. Но теоретически может же быть например bad-сектор,
  попадающий только в один md - соответственно только он и развалится, а
  остальные нет - так?

 Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
 диск придется, а это само собой  затронет все raid-разделы. При
 перестроении разделы перестраиваются последовательно. К тому же с
 какой скоростью будет перестроение настраивается и по умолчанию
 лимитировано (не буду искать цифру)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/25281338559...@web19e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:
 насчет маленьких md я задумался когда наблюдал у себя перестройку
 развалившегося терабайтного рейда. при этом реальных данных было на
 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь
 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в
 группу томов и создать один малюсенький lvm-том на 10гб и в него
 поставить виртуалку продакшн, то в случае развала рейда эта несчастная
 виртуалка будет ощущать на себе все прелести восстановления терабайтного
 рейда в течении долгого времени

Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
неизбежна.

IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 и 
md1 (подкачка и корень) не были развалены - нормально функционировали 
(физические диски те же самые)

01.06.2012, 18:24, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:

  насчет маленьких md я задумался когда наблюдал у себя перестройку
  развалившегося терабайтного рейда. при этом реальных данных было на
  50гб, а перестраивалось естественно все на блочном уровне - т.е. весь
  1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в
  группу томов и создать один малюсенький lvm-том на 10гб и в него
  поставить виртуалку продакшн, то в случае развала рейда эта несчастная
  виртуалка будет ощущать на себе все прелести восстановления терабайтного
  рейда в течении долгого времени

 Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
 скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
 неизбежна.

 IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.

 --
 WBR, Dmitry


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/74301338568...@web29h.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
 в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
 md0 и md1 (подкачка и корень) не были развалены - нормально
 функционировали (физические диски те же самые)

А из-за чего он перестраиваться начал тогда?
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
Можно вас попросить писать ответы внизу, следом по смыслу текста, но
не вверху. Разбираться в таких письмах желания мало.

И еще. Удаляйте лишний текст в ответах, но оставляйте осмысленные
строчки на которые пишите ответ. (квотирование)

1 июня 2012 г., 18:07 пользователь Alexander ag...@yandex.ru написал:
 01.06.2012, 16:51, Dmitry A. Zhiglov dmitry.zhig...@gmail.com:
 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
 dmitry.zhig...@gmail.com написал:

 Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
 диск придется, а это само собой  затронет все raid-разделы. При
 перестроении разделы перестраиваются последовательно. К тому же с
 какой скоростью будет перестроение настраивается и по умолчанию
 лимитировано (не буду искать цифру)

 Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил

 насчет маленьких md я задумался когда наблюдал у себя перестройку 
 развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а 
 перестраивалось естественно все на блочном уровне - т.е. весь 1тб
 т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу 
 томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку 
 продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на 
 себе все прелести восстановления терабайтного рейда в течении долгого времени

Таковы уж издержки и от них скорей всего никуда не деться.
Кроме того, по умолчанию md раз в месяц перепроверяет консистенцию
ваших read-дисков - читайте как перестраивает.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 20:38 пользователь Alexander ag...@yandex.ru написал:
 01.06.2012, 18:24, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:

 Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
 скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
 неизбежна.

 IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.

 в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 
 и md1 (подкачка и корень) не были развалены - нормально функционировали 
 (физические диски те же самые)


Вы точно уверены, что он развалился? Он мог просто проверять свою консистенцию.
Кстати, а мониторинг стоит какой либо? Поставьте если нет.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander


01.06.2012, 21:01, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:

  в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
  md0 и md1 (подкачка и корень) не были развалены - нормально
  функционировали (физические диски те же самые)

 А из-за чего он перестраиваться начал тогда?

 --
 WBR, Dmitry

ошибки в smart, похоже умирает один винт
в качестве мониторинга использую smartd (smartmontools)
чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может 
есть какие то спец. пакеты?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/170481338575...@web6e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:15 пользователь Степан Голосунов
ste...@golosunov.pp.ru написал:
 Dmitry A. Zhiglov dmitry.zhig...@gmail.com writes:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.

 Это для того, чтобы сервер упал когда отвалится один диск?

Спасибо за замечание. Учтено.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:30 пользователь Alexander ag...@yandex.ru написал:

 01.06.2012, 21:01, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:

  в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
  md0 и md1 (подкачка и корень) не были развалены - нормально
  функционировали (физические диски те же самые)

 А из-за чего он перестраиваться начал тогда?

 ошибки в smart, похоже умирает один винт
 в качестве мониторинга использую smartd (smartmontools)
 чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может 
 есть какие то спец. пакеты?

mdadm умеет писать письма см. тут: man mdadm.conf
Использую munin для мониторинга
Статус можно брать из /proc/mdstat, если решите сами что-то пилить.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 16:51, Dmitry A. Zhiglov пишет:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.
Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
раком. НИКОГДА не делай так.
Своп ВСЕГДА должен быть на рейде, если это возможно.



-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:44 пользователь Mikhail A Antonov b...@solarnet.ru написал:
 01.06.2012 16:51, Dmitry A. Zhiglov пишет:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.
 Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
 раком. НИКОГДА не делай так.
 Своп ВСЕГДА должен быть на рейде, если это возможно.

Как себя поведет система при выходе из строя одного диска в случае,
если своп разделы были с одинаковым приоритетом на разных дисках?


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 15:38, Alexander пишет:
 Здраствуйте!
 имеется сервер с 2 винтами
 сейчас продумываю структуру дискового хранилища гипервизора KVM.
 Пока остановился на следующей схеме:
... (Дальше много букаф.)
Итак.
md0 - /boot на 300-500м. (ext2)
md1 - pv для lvm
Для каждой виртуалки отдельный lv.
Всё.
Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
страдать. Диски просто так не вылетают.
Мониторить смартом и mdadm.
Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
а хардварный, но бьётся всё так же и сути не меняет.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 22:51, Dmitry A. Zhiglov пишет:
 1 июня 2012 г., 22:44 пользователь Mikhail A Antonov b...@solarnet.ru 
 написал:
 01.06.2012 16:51, Dmitry A. Zhiglov пишет:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.
 Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
 раком. НИКОГДА не делай так.
 Своп ВСЕГДА должен быть на рейде, если это возможно.
 Как себя поведет система при выходе из строя одного диска в случае,
 если своп разделы были с одинаковым приоритетом на разных дисках?
В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и
тормознёт. В другом - ну представь что у тебя в том куске свопа был
кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в
виртуалку, внутри которой крутится терминальный сервер, внутри которого
бухгалтерская база. Можно инфу похерить сильно.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 10:30:14PM +0400, Alexander wrote:
 ошибки в smart, похоже умирает один винт

Т.е. винт на замену. Значит перестраивать все равно все данные. 
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature