по идее решают проблему. Вот только нет ли другого, чем libvirt, готового?
Вот прямо по запросу socat qemu
http://www.nico.schottelius.org/blog/control-and-shutdown-qemu-kvm-vm-via-unix-socket/
--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe
On 7/13/15, Hleb Valoshka 375...@gmail.com wrote:
На aqemu смотрели?
И не смотрите, во-первых, забаговано, во-вторых, не умеет нужного.
On Tue, Jul 14, 2015 at 07:56:08AM +0300, Aleksandr Sytar wrote:
13 июля 2015 г., 21:25 пользователь Victor Wagner vi...@wagner.pp.ru
написал:
Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
для управления QEMU/KVM, что бы не тащило за собой libvirt.
Даже не знаю
14 июля 2015 г., 9:56 пользователь Aleksandr Sytar
sytar.a...@gmail.com написал:
Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
для управления QEMU/KVM, что бы не тащило за собой libvirt.
Даже не знаю что сказать. А как оно по вашему будет работать, если средства
для
13 июля 2015 г., 21:25 пользователь Victor Wagner vi...@wagner.pp.ru
написал:
Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
для управления QEMU/KVM, что бы не тащило за собой libvirt.
Даже не знаю что сказать. А как оно по вашему будет работать, если средства
для
On 7/13/15, Victor Wagner vi...@wagner.pp.ru wrote:
Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
для управления QEMU/KVM, что бы не тащило за собой libvirt.
На aqemu смотрели?
Требуется в общем-то немного - оперативно подцеплять к виртуальной
машине хостовые
Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
для управления QEMU/KVM, что бы не тащило за собой libvirt.
Требуется в общем-то немного - оперативно подцеплять к виртуальной
машине хостовые устройства. В принципе даже достаточно только USB. Но
чтобы удобно было.
virt
по работе пришлось столкнуться с сабжем.
создал диск qemu-img, поставил систему под qemu
но вот чет ничего не нашел на тему общей инфраструктуры:
- запуск инстансов
- мониторинг (какой запущен/какой нет)
итп
есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка
20 марта 2013 г., 13:31 пользователь Dmitry E. Oboukhov
un...@debian.org написал:
по работе пришлось столкнуться с сабжем.
создал диск qemu-img, поставил систему под qemu
но вот чет ничего не нашел на тему общей инфраструктуры:
kvm - это кирпичик такой... К нему инфраструктура - отдельно
есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка?
На сервере libvirt-bin
Графическая оболочка для удаленного администрирования virt-manager
20.03.2013 11:31, Dmitry E. Oboukhov пишет:
по работе пришлось столкнуться с сабжем.
создал диск qemu-img, поставил систему под qemu
но вот чет ничего не нашел на тему общей инфраструктуры:
- запуск инстансов
- мониторинг (какой запущен/какой нет)
итп
есть ли для KVM (qemu?) аналоги vzctl и
сам спросил, сам ответил:
копать в документацию к едру:
src/kernels/3.8.2/linux-3.8.2/arch/x86/kvm/Kconfig:
if VIRTUALIZATION
config KVM
tristate Kernel-based Virtual Machine (KVM) support
depends on HAVE_KVM
depends on HIGH_RES_TIMERS
-=-=-=-=-=-
как и замечал в
,-[Alexander Sitnik, 3 March 2013 10:23]:
02.03.2013 15:09, -=Devil_InSide=- пишет:
стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
я как бы слегка молчу про отключение нат в нетфильтр и
,-[-=Devil_InSide=-, 3 March 2013 14:58]:
,-[Alexander Sitnik, 3 March 2013 10:23]:
02.03.2013 15:09, -=Devil_InSide=- пишет:
стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
я как бы
03.03.2013 15:03, -=Devil_InSide=- пишет:
соберу 3.8, погляжу.
)
-=-=-=-
.config - Linux/i386 3.8.1 Kernel Configuration
+--- Virtualization |
| | --- Virtualization
| | M Host kernel accelerator for virtio net
стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
я как бы слегка молчу про отключение нат в нетфильтр и переползании (с
отключением) модулей для вебкамеры - их я хотя бы нашел и включил.
а опции
02.03.2013 15:09, -=Devil_InSide=- пишет:
стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
я как бы слегка молчу про отключение нат в нетфильтр и переползании (с
отключением) модулей для вебкамеры - их
Хочу собрать медиацентр на базе debian + xbmc под телевизор.
Основной будет debian. Одним из гостей будет Windows с проброшенной в
него видеокартой с hdmi выходом.
Windows нужен чтобы играть в игры с джойстиком на телевизоре. Проброс
видеокарты нужен, чтобы использовать всего один компьютер.
On Wed, Jan 30, 2013 at 05:01:40PM +0400, Скубриев Владимир wrote:
Хочу собрать медиацентр на базе debian + xbmc под телевизор.
Основной будет debian. Одним из гостей будет Windows с проброшенной
в него видеокартой с hdmi выходом.
Windows нужен чтобы играть в игры с джойстиком на
30.01.2013 17:18, Dmitry Nezhevenko пишет:
On Wed, Jan 30, 2013 at 05:01:40PM +0400, Скубриев Владимир wrote:
Хочу собрать медиацентр на базе debian + xbmc под телевизор.
Основной будет debian. Одним из гостей будет Windows с проброшенной
в него видеокартой с hdmi выходом.
Windows нужен чтобы
Преведя)
Вот ковыряюсь месятс, не могу пробросить PCI устройство в виртуальную
машину(( хнюкся((. В grub'e ввожу в строку linux kernel..
intel_iommu=on вроде запускается intel_iommu. Еще ввожу на всяк случ
pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM еррор Cannot
connect to the monitor
KVM еррор Cannot
connect to the monitor (( А в Xen еррор psi_stub no own pci device
(01:00.0). Хнюкс( Чо за лажа?( Блин.. все перепробовал. Не переносится
PCI устройство(. Чо делать, други мои?( Включайте мегамозг!! а-а-а!
HELP! Чо за лажовые виртуальные машины? А в корпорации такая же лажовая
intel_iommu. Еще ввожу на
всяк случ pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM
еррор Cannot connect to the monitor (( А в Xen еррор psi_stub no
own pci device (01:00.0). Хнюкс( Чо за лажа?( Блин.. все
перепробовал. Не переносится PCI устройство(. Чо делать, други
мои?( Включайте
22 октября 2012 г., 15:53 пользователь alexander toyman...@gmail.com написал:
А в корпорации такая же лажовая
виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!!
Да, возвращайтесь на венду )
Возник вопрос можно ли внедрить VDI не платя при этом за ПО.
Организация 30 ПК.
Предположим нужно перенести в VDI около 15 рабочих мест менеджеров по
работе с клиентами (windows xp, 7), бухгалтеров, директоров и т.д.
Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В
17 октября 2012 г., 12:38 пользователь Скубриев Владимир
vladi...@skubriev.ru написал:
Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В
зависимости от того, есть ли на данный момент возможность использования
linux в качестве системы хоста.
VDI в смысле просто рабочая
17.10.2012 10:47, Stanislav Vlasov пишет:
17 октября 2012 г., 12:38 пользователь Скубриев Владимир
vladi...@skubriev.ru написал:
Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В
зависимости от того, есть ли на данный момент возможность использования
linux в качестве
совместимость связана с
видеочипом nvidia gt 640M
раньше на сайте kvm был список поддерживаемых видео адаптеров
и этот список был очень мал
Хотя погарячился я насчет успешного проброса PCI ( Ща опять ошибки
какие то показываются.. типо устройство занято или что то типо того.
Мож я и не
Привет)
Установил KVM (kernel virtual machine). Модерирую ее через
virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость -
Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить дискретную
видеокарту (PCI устройство) в венду. Но появляется ошибка. Вот текст
ошибки:
Ошибка
В Thu, 20 Sep 2012 18:56:44 +1100
alexander toyman...@gmail.com пишет:
Привет)
Установил KVM (kernel virtual machine). Модерирую ее через
virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость -
Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить
дискретную видеокарту
20.09.2012 12:10, alexander пишет:
No IOMMU found.
проверьте в данный момент поддерживается виртуализация вообще:
cat /proc/cpuinfo | egrep flags.*'svm|vmx'
вывод этой команды должен быть не пустым там должна быть строка с svm
или vmx в зависимости от платформы intel vs amd
проверьте
А твоя система(процессов\материнская плата) точно IOMMU поддерживает?
потому что ругается именно на него.
2012/9/20 alexander toyman...@gmail.com:
В Thu, 20 Sep 2012 18:56:44 +1100
alexander toyman...@gmail.com пишет:
Привет)
Установил KVM (kernel virtual machine). Модерирую ее через
virt
В Thu, 20 Sep 2012 12:31:39 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:
20.09.2012 12:10, alexander пишет:
No IOMMU found.
проверьте в данный момент поддерживается виртуализация вообще:
cat /proc/cpuinfo | egrep flags.*'svm|vmx'
вывод этой команды должен быть не пустым там должна
В Thu, 20 Sep 2012 22:19:14 +1100
alexander toyman...@gmail.com пишет:
В Thu, 20 Sep 2012 12:31:39 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:
20.09.2012 12:10, alexander пишет:
No IOMMU found.
проверьте в данный момент поддерживается виртуализация вообще:
cat
некоторые PCI
устройства. А то устройство которое мне больше всего нужно - это
видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums
(через Bumblebeed).
тогда не знаю даже. может быть не совместимость связана с видеочипом
nvidia gt 640M
раньше на сайте kvm был список поддерживаемых
видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums
(через Bumblebeed).
тогда не знаю даже. может быть не совместимость связана с видеочипом
nvidia gt 640M
раньше на сайте kvm был список поддерживаемых видео адаптеров
и этот список был очень мал
Хотя погарячился я насчет
даже. может быть не совместимость связана с видеочипом
nvidia gt 640M
раньше на сайте kvm был список поддерживаемых видео адаптеров
и этот список был очень мал
Хотя погарячился я насчет успешного проброса PCI ( Ща опять ошибки
какие то показываются.. типо устройство занято или что то типо того
, что swap при одинаковом приоритете может работать
как страйп. Естественно не всем это надо и тем более в то время когда
оперативной памяти должно хватать на всех.
Так как у меня нет под руками железа, попробовал провести эксперимент на kvm+lvm
Сделал виртуальный debian с 64 МБ оперативной памяти
On Sun, Jun 03, 2012 at 12:00:21PM +0400, Dmitry A. Zhiglov wrote:
Было бы интересно узнать как все же на физическом, полном отваливании
диска с swap-разделом поведет система, так как это для меня важно.
Как повезет, так и поведет. Смотря что было в свопе на момент падения
раздела.
--
03.06.2012, 09:06, Mikhail A Antonov b...@solarnet.ru:
От себя добавлю что для гостевых linux я на железке выдаю отдельный
lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз
оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко
когда внутрь linux передаю
01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
Итак.
md0 - /boot на 300-500м. (ext2)
md1 - pv для lvm
Для каждой виртуалки отдельный lv.
Всё.
Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
страдать. Диски просто так не вылетают.
Мониторить смартом и mdadm.
01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
Итак.
md0 - /boot на 300-500м. (ext2)
md1 - pv для lvm
Для каждой виртуалки отдельный lv.
Всё.
Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
страдать. Диски просто так не вылетают.
Мониторить смартом и mdadm.
On Sat, Jun 02, 2012 at 10:57:27AM +0400, Alexander wrote:
а кстати куда своп то девать?
А он нужен? У каждой виртуалки своп свой будет.. Так что туда же.
Отдельными LV.
--
WBR, Dmitry
signature.asc
Description: Digital signature
02.06.2012 10:57, Alexander пишет:
01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
Итак.
md0 - /boot на 300-500м. (ext2)
md1 - pv для lvm
Для каждой виртуалки отдельный lv.
Всё.
Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
страдать. Диски просто так не
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был отдан под
виртуалку windows server r2 в качестве винта, и при установке создалось 2
раздела на винте.
fdisk -l /dev/dm-1
показывает их как:
/dev/dm-1p1
/dev/dm-1p2
но вот смаунтить и отформатировать их не могу - нет таких
On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
отдан под виртуалку windows server r2 в качестве винта, и при установке
создалось 2 раздела на винте.
Правильный ответ -- никогда так не делать.. Ибо resize и прочие
02.06.2012, 22:48, Dmitry Nezhevenko d...@inhex.net:
On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
отдан под виртуалку windows server r2 в качестве винта, и при установке
создалось 2 раздела на винте.
On Sun, Jun 03, 2012 at 01:08:30AM +0400, Alexander wrote:
эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно
разбивает видимый ею физический диск так как привыкла. и мне кажется,
что не важно винда или линукс - разделы будут в любом случае. вопрос в
том, могу ли я
02.06.2012 19:00, Alexander пишет:
господа, а как примаунтить раздел в lvm-томе?
kpartx -a /dev/mapper/vg1-lv1
mkdir /mnt/lv1p1
mount /dev/mapper/vg1-lv11 /mnt/lv1p1
Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
...
# монтируем что бэкапим
# делаем снапшот
lvcreate -L4G -s -n
03.06.2012, 02:46, Mikhail A Antonov b...@solarnet.ru:
02.06.2012 19:00, Alexander пишет:
господа, а как примаунтить раздел в lvm-томе?
kpartx -a /dev/mapper/vg1-lv1
mkdir /mnt/lv1p1
mount /dev/mapper/vg1-lv11 /mnt/lv1p1
Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
03.06.2012 07:19, Alexander пишет:
спасибо огромное! имена lv и vg привел вымышленные для удобства :)
подскажите, а как быть с windows7/server2008r2 - они создают маленький
boot-раздел 100мб при установке
Никак не быть - он не будет мешать. Его не надо ресайзить.
Ну и монтировать не первый
Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0
2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2)
- md1
3) / на
1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
Можно перефразирую задачу?
Есть 2 диска.
Разбиты и собраны все разделы в raid1
1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
dmitry.zhig...@gmail.com написал:
1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей
01.06.2012 16:40, Dmitry A. Zhiglov написал:
1 июня 2012 г., 15:38 пользователь Alexanderag...@yandex.ru написал:
Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
Можно перефразирую задачу?
Есть 2
01.06.2012 15:38, Alexander написал:
Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0
2) swap на md-raid1 (1-ый лог. раздел диска1 + 1
дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
Можно перефразирую задачу?
Есть 2 диска.
Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
Разделы рейдов содержать:
md0 - boot
md1 - swap
md2 - lvm с vg1
md3 - lvm с vg2
В челом
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:
насчет маленьких md я задумался когда наблюдал у себя перестройку
развалившегося терабайтного рейда. при этом реальных данных было на
50гб, а перестраивалось естественно все на блочном уровне - т.е. весь
1тб т.е. вот даже если создать
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 и
md1 (подкачка и корень) не были развалены - нормально функционировали
(физические диски те же самые)
01.06.2012, 18:24, Dmitry Nezhevenko d...@inhex.net:
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
md0 и md1 (подкачка и корень) не были развалены - нормально
функционировали (физические диски те же самые)
А из-за чего он перестраиваться начал тогда?
--
WBR,
Можно вас попросить писать ответы внизу, следом по смыслу текста, но
не вверху. Разбираться в таких письмах желания мало.
И еще. Удаляйте лишний текст в ответах, но оставляйте осмысленные
строчки на которые пишите ответ. (квотирование)
1 июня 2012 г., 18:07 пользователь Alexander ag...@yandex.ru
1 июня 2012 г., 20:38 пользователь Alexander ag...@yandex.ru написал:
01.06.2012, 18:24, Dmitry Nezhevenko d...@inhex.net:
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:
Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
скорее всего прийдется менять как
01.06.2012, 21:01, Dmitry Nezhevenko d...@inhex.net:
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
md0 и md1 (подкачка и корень) не были развалены - нормально
функционировали (физические диски те же
1 июня 2012 г., 22:15 пользователь Степан Голосунов
ste...@golosunov.pp.ru написал:
Dmitry A. Zhiglov dmitry.zhig...@gmail.com writes:
В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
на 2 диска. Приоритеты по swap установить в fstab'e.
Это для того, чтобы сервер упал
1 июня 2012 г., 22:30 пользователь Alexander ag...@yandex.ru написал:
01.06.2012, 21:01, Dmitry Nezhevenko d...@inhex.net:
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
md0 и md1 (подкачка и корень) не
01.06.2012 16:51, Dmitry A. Zhiglov пишет:
В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
на 2 диска. Приоритеты по swap установить в fstab'e.
Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
раком. НИКОГДА не делай так.
Своп ВСЕГДА должен быть на
1 июня 2012 г., 22:44 пользователь Mikhail A Antonov b...@solarnet.ru написал:
01.06.2012 16:51, Dmitry A. Zhiglov пишет:
В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
на 2 диска. Приоритеты по swap установить в fstab'e.
Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором
01.06.2012 15:38, Alexander пишет:
Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
... (Дальше много букаф.)
Итак.
md0 - /boot на 300-500м. (ext2)
md1 - pv для lvm
Для каждой виртуалки отдельный lv
01.06.2012 22:51, Dmitry A. Zhiglov пишет:
1 июня 2012 г., 22:44 пользователь Mikhail A Antonov b...@solarnet.ru
написал:
01.06.2012 16:51, Dmitry A. Zhiglov пишет:
В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
на 2 диска. Приоритеты по swap установить в fstab'e.
On Fri, Jun 01, 2012 at 10:30:14PM +0400, Alexander wrote:
ошибки в smart, похоже умирает один винт
Т.е. винт на замену. Значит перестраивать все равно все данные.
--
WBR, Dmitry
signature.asc
Description: Digital signature
,-[Alexander, 6 March 2012 17:11]:
02.03.2012, 16:32, Alexey Boyko ale...@boyko.km.ua:
Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
подключения.
Проверь, запускает ли libvirtd во время такого
Выяснил следующее - оказывается virt-manager не намертво зависает - если
дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2!
После этого все работает вроде нормально (внутри virt-manager), если его
закрыть и запустить по новой - опять висит 4-5 минут. От системы, с
,-[Alexander, 9 March 2012 17:16]:
Выяснил следующее - оказывается virt-manager не намертво зависает - если
дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2!
После этого все работает вроде нормально (внутри virt-manager), если его
закрыть и запустить по новой - опять
02.03.2012, 16:32, Alexey Boyko ale...@boyko.km.ua:
Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
подключения.
Проверь, запускает ли libvirtd во время такого зависания udevadm.
У меня зависал udevadm.
06.03.2012 17:11, Alexander пишет:
02.03.2012, 16:32, Alexey Boykoale...@boyko.km.ua:
Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
подключения.
Проверь, запускает ли libvirtd во время такого
07.03.2012, 09:44, Скубриев Владимир vladi...@skubriev.ru:
06.03.2012 17:11, Alexander пишет: 02.03.2012, 16:32, Alexey Boyko
ale...@boyko.km.ua:
Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
07.03.2012, 11:03, Скубриев Владимир vladi...@skubriev.ru:
07.03.2012 10:01, Alexander пишет:
07.03.2012, 09:44, Скубриев Владимирvladi...@skubriev.ru:
06.03.2012 17:11, Alexander пишет: 02.03.2012, 16:32, Alexey
Boykoale...@boyko.km.ua:
Подключаюсь через virt-manager с удаленной
07.03.2012 11:13, Alexander пишет:
07.03.2012, 11:03, Скубриев Владимирvladi...@skubriev.ru:
07.03.2012 10:01, Alexander пишет:
07.03.2012, 09:44, Скубриев Владимирvladi...@skubriev.ru:
06.03.2012 17:11, Alexander пишет:02.03.2012, 16:32, Alexey
Boykoale...@boyko.km.ua:
02.03.2012 15:38, Alexander пишет:
Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в
перезагрузку по причине bluescreen.
В логах винды ничего по этому поводу нет.
Ядро Debian Squezze 2.6.32-5-amd64
используется qemu-kvm 0.12.5
Параллельно стоит пара гостей 2008 R2 x64
используется qemu-kvm 0.12.5
Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.
Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не
перезагружалось, то есть проблема ушла. Однако в этом случае не мог
приконнектится virt-manager'ом через ssh-туннель
Debian Squezze 2.6.32-5-amd64
используется qemu-kvm 0.12.5
Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.
Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не
перезагружалось, то есть проблема ушла. Однако в этом случае не мог
приконнектится virt
Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
подключения.
Проверь, запускает ли libvirtd во время такого зависания udevadm.
У меня зависал udevadm. Если после перезагрузки сделать udev restart,
то
bluescreen.
В логах винды ничего по этому поводу нет.
Ядро Debian Squezze 2.6.32-5-amd64
используется qemu-kvm 0.12.5
Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.
Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не
перезагружалось, то
уходит в
перезагрузку по причине bluescreen.
В логах винды ничего по этому поводу нет.
Ядро Debian Squezze 2.6.32-5-amd64
используется qemu-kvm 0.12.5
Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.
Ставил из бэкпортов ядро 3.2.0-0 - все работало
01.03.2012 11:37, Alexander пишет:
еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб
(даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим
файл-образ размером 300гб?... я так понимаю это долгая и неэффективная
процедура((
Это получается
01.03.2012, 11:46, Stanislav Vlasov stanislav@gmail.com:
1 марта 2012 г. 13:37 пользователь Alexander ag...@yandex.ru написал:
Делать снапшот и потом копировать.
dd if=/dev/VG/LVM-snap of=/mnt/backup/virt-`date +%F`.img
Остальные опции по вкусу.
Размер снапшота зависит от того,
ссори отправил в личку(
01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:
01.03.2012 11:37, Alexander пишет:
еще вопрос - я так понимаю при копировании через dd lvm-тома размером
300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы
получим файл-образ
01.03.2012 12:07, Alexander пишет:
ссори отправил в личку(
01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:
01.03.2012 11:37, Alexander пишет:
еще вопрос - я так понимаю при копировании через dd lvm-тома размером
300гб (даже если полезной инфы там 50гб) на сетевую шару (другой
01.03.2012, 12:20, Mikhail A Antonov b...@solarnet.ru:
01.03.2012 12:07, Alexander пишет:
ссори отправил в личку(
01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:
01.03.2012 11:37, Alexander пишет:
еще вопрос - я так понимаю при копировании через dd lvm-тома размером
300гб
Alexander ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 12:24 +0400
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro
01.03.2012 12:24, Alexander пишет:
01.03.2012, 12:20, Mikhail A Antonovb...@solarnet.ru:
01.03.2012 12:07, Alexander пишет:
ссори отправил в личку(
01.03.2012, 11:59, Mikhail A Antonovb...@solarnet.ru:
01.03.2012 11:37, Alexander пишет:
еще вопрос - я так понимаю при
01.03.2012 12:53, Sergey Korobitsin пишет:
Alexander ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 12:24 +0400
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount
Если так, то получается бэкап акронисом (в случае windows-систем)
эффективнее гораздо... :(
# делаем снапшот
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount /dev/mapper/vg0-win2k3dataBACKUP1
01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:
01.03.2012 11:37, Alexander пишет:
еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб
(даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы
получим файл-образ размером 300гб?... я так понимаю
Vladimir Skubriev ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012
13:03 +0400
все равно что ntfsclone, partclone, clonezilla не 100 варианты в
плане надежности.
постоянно придется проверять а что там оно на бэкапило.
восстанавливается или нет
так что, ИМХО, dd лучше в плане
01.03.2012 14:31, Alexander пишет:
опробовал вашу схему - для бэкапа данных вполне подходит.
Вот только пока непонятно что делать с правами ntfs, коллеги, есть что
посоветовать на эту тему - чтобы можно было восстановить данные с
настроенными правами ntfs?
1 - вариант в лоб -
01.03.2012 13:00, Artem Chuprina пишет:
Если так, то получается бэкап акронисом (в случае windows-систем)
эффективнее гораздо... :(
# делаем снапшот
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount
1 марта 2012 г. 22:10 пользователь Mikhail A Antonov b...@solarnet.ru написал:
Ну и таром его.
Диск винды? С виндовыми правами? Таром?
Да. Мне потом из него будет важнее выцепить сами данные, а права я и сам
руками после восстановления выставлю. У меня там не много и _мне_ эта
схема
:09 пользователь Alexander ag...@yandex.ru написал:
1) какую посоветуете оптимальную стратегию бэкапов системы целиком при
использовании под каждую kvm-виртуалку отдельного lvm-тома, расположенного
на raid10 (программного через md). Допустим, рейд состоит из 4х
терабайтников, итого 2 тб
:
28 февраля 2012 г. 23:09 пользователь Alexander ag...@yandex.ru написал:
1) какую посоветуете оптимальную стратегию бэкапов системы целиком при
использовании под каждую kvm-виртуалку отдельного lvm-тома,
расположенного на raid10 (программного через md). Допустим, рейд состоит
из 4х
Результаты 1 - 100 из 332 matches
Mail list logo