Re: Простой интерфейс для QEMU/KVM
On Tue, Jul 14, 2015 at 11:52:35PM +0300, Dmitri V. Ivanov wrote: > > Даже не знаю что сказать. А как оно по вашему будет работать, если средства > > для виртуализации и управления предоставляет библиотека libvirt? > > Ну так все управление там идет через unix/tcp/udp. socat, screen и куча > скриптов > по идее решают проблему. Вот только нет ли другого, чем libvirt, готового? Вот прямо по запросу socat qemu http://www.nico.schottelius.org/blog/control-and-shutdown-qemu-kvm-vm-via-unix-socket/ -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20150715173740.ga14...@intex.spb.ru
Re: Простой интерфейс для QEMU/KVM
On Tue, Jul 14, 2015 at 07:56:08AM +0300, Aleksandr Sytar wrote: > 13 июля 2015 г., 21:25 пользователь Victor Wagner > написал: > > > Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI > > для управления QEMU/KVM, что бы не тащило за собой libvirt. > > > > > Даже не знаю что сказать. А как оно по вашему будет работать, если средства > для виртуализации и управления предоставляет библиотека libvirt? Ну так все управление там идет через unix/tcp/udp. socat, screen и куча скриптов по идее решают проблему. Вот только нет ли другого, чем libvirt, готового? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20150714205235.ga4...@intex.spb.ru
Re: Простой интерфейс для QEMU/KVM
On 7/13/15, Hleb Valoshka <375...@gmail.com> wrote: > На aqemu смотрели? И не смотрите, во-первых, забаговано, во-вторых, не умеет нужного.
Re: Простой интерфейс для QEMU/KVM
14 июля 2015 г., 9:56 пользователь Aleksandr Sytar написал: >> Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI >> для управления QEMU/KVM, что бы не тащило за собой libvirt. >> > > Даже не знаю что сказать. А как оно по вашему будет работать, если средства > для виртуализации и управления предоставляет библиотека libvirt? Ой не надо нам военных песен... Запустить kvm с нужными опциями можно и в командной строке, потом можно подцепляться к сокету и пихать туда команды и подключаться к консоли по vnc или spice. Но это неудобно при неодноразовом запуске. А libvirt - монстр, придуманный для управления десятками виртуалок, который нафиг не нужен, если их пара штук. К тому же, обладает противоестественным интеллектом в тех местах, где это нафиг не надо. К сожалению, до чего-то, аналогичного virtualbox (всё запускается под пользователем только на время, нужное для работы виртуалки без лишних демонов и с управлением из гуя) в приложении к qemu не встречал... -- Stanislav
Re: Простой интерфейс для QEMU/KVM
13 июля 2015 г., 21:25 пользователь Victor Wagner написал: > Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI > для управления QEMU/KVM, что бы не тащило за собой libvirt. > > Даже не знаю что сказать. А как оно по вашему будет работать, если средства для виртуализации и управления предоставляет библиотека libvirt?
Re: Простой интерфейс для QEMU/KVM
On 7/13/15, Victor Wagner wrote: > Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI > для управления QEMU/KVM, что бы не тащило за собой libvirt. На aqemu смотрели? > Требуется в общем-то немного - оперативно подцеплять к виртуальной > машине хостовые устройства. В принципе даже достаточно только USB. Но > чтобы удобно было. Чесно, говоря, не уверен, что оно это умеет, ибо не было нужды.
Простой интерфейс для QEMU/KVM
Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI для управления QEMU/KVM, что бы не тащило за собой libvirt. Требуется в общем-то немного - оперативно подцеплять к виртуальной машине хостовые устройства. В принципе даже достаточно только USB. Но чтобы удобно было. virt-manager этоу задачу решает, но решает криво. Во-перовых, он тащит за собой libvirt и libvirtd, во-вторых, он эти устройства запоминает и потом не стартует виртуальную машину, если устройства не найдет, пока его оттуда не удалишь. Сначала я всё-таки надеялся добиться успеха от virt-manager, надеясь засунуть под его управление не только kvm-ные машины, но и lxc-контейнеры. Сейчас повозился и понял, что lxc-контейнеры лучше управляются средствами собственно lxc, а libvirt с ними работает крайне криво. Держать libvirt (именно libvirt с ее демоном, а не собственно virt-manager) ради одной виртуальной машины, куда нужно периодически цеплять eToken крайне не хочется. Поэтому хочется найти чего попроще. Ориентированное именно на работу в режими workstation и управление removable устройствами. Попробовал qemuctl, он в общем выглядит как то, что надо, но только не работает - не показывает на Connect/USB/Host Device вообще ничего. virtualbricks на первый взгляд - совсем не про то. Менять kvm на более другую систему виртуализации не вижу смысла. На мой взгляд, основным его преимуществом (как и lxc) является то, что там вся ядерная поддержка в дистрибутивном ядре. И в результате security update ядра или установки ядра с бэкпортов у меня внезапно не сломаются виртуальные машины, как не раз бывало с vmware. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20150713212539.20e16...@arkturus.wagner.home
Re: KVM
20.03.2013 11:31, Dmitry E. Oboukhov пишет: по работе пришлось столкнуться с сабжем. создал диск qemu-img, поставил систему под qemu но вот чет ничего не нашел на тему общей инфраструктуры: - запуск инстансов - мониторинг (какой запущен/какой нет) итп есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка? virsh -- WBR, Andrey N. Prokofiev Phone: +7-812-645-3616 ext. 240 -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5149824e.7040...@korona-auto.com
Re: KVM
20 марта 2013 г., 11:31 пользователь Dmitry E. Oboukhov написал: > по работе пришлось столкнуться с сабжем. > создал диск qemu-img, поставил систему под qemu > > но вот чет ничего не нашел на тему общей инфраструктуры: > - запуск инстансов > - мониторинг (какой запущен/какой нет) > > итп > > есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка? На сервере libvirt-bin Графическая оболочка для удаленного администрирования virt-manager
Re: KVM
20 марта 2013 г., 13:31 пользователь Dmitry E. Oboukhov написал: > по работе пришлось столкнуться с сабжем. > создал диск qemu-img, поставил систему под qemu > > но вот чет ничего не нашел на тему общей инфраструктуры: kvm - это кирпичик такой... К нему инфраструктура - отдельно. > - запуск инстансов > - мониторинг (какой запущен/какой нет) > итп > есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка? libvirt вроде как может. Еще рекомендую посмотреть, как сделано в Proxmox VE. -- Stanislav
KVM
по работе пришлось столкнуться с сабжем. создал диск qemu-img, поставил систему под qemu но вот чет ничего не нашел на тему общей инфраструктуры: - запуск инстансов - мониторинг (какой запущен/какой нет) итп есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка? -- . ''`. Dmitry E. Oboukhov : :’ : email: un...@debian.org jabber://un...@uvw.ru `. `~’ GPGKey: 1024D / F8E26537 2006-11-21 `- 1B23 D4F8 8EC0 D902 0555 E438 AB8C 00CF F8E2 6537 signature.asc Description: Digital signature
Re: ванильные ядра 3.7.х и kvm (на debian testing)[solved]
сам спросил, сам ответил: копать в документацию к едру: src/kernels/3.8.2/linux-3.8.2/arch/x86/kvm/Kconfig: if VIRTUALIZATION config KVM tristate "Kernel-based Virtual Machine (KVM) support" depends on HAVE_KVM depends on HIGH_RES_TIMERS -=-=-=-=-=- как и замечал в последних ядрах, опции переползают в другие подменю и при этом оказываюстя выключенными. включил HIGH_RES_TIMERS, опции модулей квм появились. компилю. ) ,-[-=Devil_InSide=-, 3 March 2013 15:03]: > ,-[-=Devil_InSide=-, 3 March 2013 14:58]: > >> ,-[Alexander Sitnik, 3 March 2013 10:23]: >> >>> 02.03.2013 15:09, -=Devil_InSide=- пишет: >>>> стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса. >>>> и, внезапно, куда то делся kvm при сборке первого же ядра из ветки >>>> 3.7.х я как бы слегка молчу про отключение нат в нетфильтр и >>>> переползании (с отключением) модулей для вебкамеры - их я хотя бы нашел >>>> и включил. а опции виртуализации ... >>> | ++ | >>> | |--- Virtualization | | >>> | | Kernel-based Virtual Machine (KVM) support| | >>> | | KVM for Intel processors support| | >>> | | KVM for AMD processors support | | >>> | |[ ] Audit KVM MMU | | >>> | | Host kernel accelerator for virtio net (EXPERI| | >>> | |< > TCM_VHOST fabric module (EXPERIMENTAL)| | >>> | || | >>> | ++ | >>> ++ | >>>< Exit >< Help > | >>> ++ >>> >> >> в моем случае на 3.7.х не было) >> >> > ┌───┐ >> │ >> │ │ --- Virtualization >> │ │ Host kernel accelerator for virtio net >> (EXPERIMENTAL) >> │ │ < > Linux hypervisor example code > >> >> соберу 3.8, погляжу. >> ) > > -=-=-=- > .config - Linux/i386 3.8.1 Kernel Configuration > +--- Virtualization | > | | --- Virtualization > | | Host kernel accelerator for virtio net > (EXPERIMENTAL) > | | < > Linux hypervisor example code > -=-=-=- > смешно > ) > > -- __ mpd status: [stopped] ** * jabber: devil_ins...@jabber.ru * * Registered linux user #450844* ** -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/kh5gj0$des$1...@ger.gmane.org
Re: ванильные ядра 3.7.х и kvm (на debian testing)
03.03.2013 15:03, -=Devil_InSide=- пишет: соберу 3.8, погляжу. ) -=-=-=- .config - Linux/i386 3.8.1 Kernel Configuration +--- Virtualization | | | --- Virtualization | | Host kernel accelerator for virtio net (EXPERIMENTAL) | | < > Linux hypervisor example code -=-=-=- смешно ) вот это да - надо будет учесть сей момент! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51342e21.1050...@skubriev.ru
Re: ванильные ядра 3.7.х и kvm (на debian testing)
,-[-=Devil_InSide=-, 3 March 2013 14:58]: > ,-[Alexander Sitnik, 3 March 2013 10:23]: > >> 02.03.2013 15:09, -=Devil_InSide=- пишет: >>> стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса. >>> и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х >>> я как бы слегка молчу про отключение нат в нетфильтр и переползании (с >>> отключением) модулей для вебкамеры - их я хотя бы нашел и включил. >>> а опции виртуализации ... >> | ++ | >> | |--- Virtualization | | >> | | Kernel-based Virtual Machine (KVM) support| | >> | | KVM for Intel processors support| | >> | | KVM for AMD processors support | | >> | |[ ] Audit KVM MMU | | >> | | Host kernel accelerator for virtio net (EXPERI| | >> | |< > TCM_VHOST fabric module (EXPERIMENTAL)| | >> | || | >> | ++ | >> ++ | >>< Exit >< Help > | >> ++ >> > > в моем случае на 3.7.х не было) > > ┌───┐ > │ > │ │ --- Virtualization > │ │ Host kernel accelerator for virtio net > (EXPERIMENTAL) > │ │ < > Linux hypervisor example code > > соберу 3.8, погляжу. > ) -=-=-=- .config - Linux/i386 3.8.1 Kernel Configuration +--- Virtualization | | | --- Virtualization | | Host kernel accelerator for virtio net (EXPERIMENTAL) | | < > Linux hypervisor example code -=-=-=- смешно ) -- __ mpd status: [stopped] ** * jabber: devil_ins...@jabber.ru * * Registered linux user #450844* ** -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/kgvam9$jvl$1...@ger.gmane.org
Re: ванильные ядра 3.7.х и kvm (на debian testing)
,-[Alexander Sitnik, 3 March 2013 10:23]: > 02.03.2013 15:09, -=Devil_InSide=- пишет: >> стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса. >> и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х >> я как бы слегка молчу про отключение нат в нетфильтр и переползании (с >> отключением) модулей для вебкамеры - их я хотя бы нашел и включил. >> а опции виртуализации ... >> какие то модули в исходниках есть. >> >> linux-3.7.6/arch/x86/kvm >> linux-3.7.6/arch/x86/kvm/kvm_cache_regs.h >> linux-3.7.6/arch/x86/include/asm/kvm_emulate.h >> linux-3.7.6/arch/x86/include/asm/kvm_host.h >> linux-3.7.6/arch/x86/include/asm/kvm_para.h >> linux-3.7.6/arch/x86/include/asm/kvm.h >> linux-3.7.6/arch/x86/kernel/kvmclock.c >> linux-3.7.6/arch/x86/kernel/kvm.c >> === >> правда, называются как то без разделения на kvm_amd и kvm_intel >> и не компилятся. >> >> >> CONFIG_HAVE_KVM=y >> CONFIG_VIRTUALIZATION=y > > Ничего не поменялось, всё осталось на месте. Можете взять из > experimental ядро 3.8 и посмотреть его конфиг. Там есть следующее: > > CONFIG_HAVE_KVM=y > CONFIG_HAVE_KVM_IRQCHIP=y > CONFIG_HAVE_KVM_EVENTFD=y > CONFIG_KVM_APIC_ARCHITECTURE=y > CONFIG_KVM_MMIO=y > CONFIG_KVM_ASYNC_PF=y > CONFIG_HAVE_KVM_MSI=y > CONFIG_HAVE_KVM_CPU_RELAX_INTERCEPT=y > CONFIG_VIRTUALIZATION=y > CONFIG_KVM=m > CONFIG_KVM_INTEL=m > CONFIG_KVM_AMD=m > > Если настраивать ядро через menuconfig, то настройки прямо на первом > уровне, в разделе Virtualization: > > | +--------+ | > | |--- Virtualization | | > | | Kernel-based Virtual Machine (KVM) support| | > | | KVM for Intel processors support| | > | | KVM for AMD processors support | | > | |[ ] Audit KVM MMU | | > | | Host kernel accelerator for virtio net (EXPERI| | > | |< > TCM_VHOST fabric module (EXPERIMENTAL)| | > | || | > | ++ | > ++ | >< Exit >< Help > | > ++ > в моем случае на 3.7.х не было) Arrow keys navigate the menu. selects submenus --->. Highlighted letters are hotkeys. │ │ Pressing includes, excludes, modularizes features. Press to exit, for│ │ Help, for Search. Legend: [*] built-in [ ] excluded module < > module capable ┌───┐ │ │ │ --- Virtualization │ │ Host kernel accelerator for virtio net (EXPERIMENTAL) │ │ < > Linux hypervisor example code ├───┤ │ < Exit >< Help > │ └───────┘ соберу 3.8, погляжу. ) > > > >> ==== >> единственные подходящие опции, которые я нашел. >> >> # find /lib/modules/`uname -r`/ -iname *kvm* >> # > Скобки вокруг имени забыли: > > % find /lib/modules/`uname -r`/ -iname "*kvm*" > /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm > /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-amd.ko > /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm.ko > /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-intel.ko > :~$ find /lib/modules/`uname -r`/ -iname "*kvm*" :~$ скобки сути не меняют ) (кавычки, кстати)) > Это самосборное 3.8.1 с конфигом от дебиановского 3.8-trunk > (http://packages.debian.org/experimental/linux-image-3.8-trunk-amd64) сегодня соберу, погляжу. как бы только чего еще не переползло. на ядрах 3.6.х-3.7.х уже дважды чинил камеру. ) >> >> как то тоже пусто. >> >> не то , чтоб это было для домашенго компа сильно актуально, но - куда >> копать? >> ) >> гугл пока внятного ответа не дал. >> на работе стоит ядро 3.6.х, там kvm работает. >> ) >> -- __ mpd status: [stopped] ** * jabber: devil_ins...@jabber.ru * * Registered linux user #450844* ** -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/kgvabm$iq0$1...@ger.gmane.org
Re: ванильные ядра 3.7.х и kvm (на debian testing)
02.03.2013 15:09, -=Devil_InSide=- пишет: стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса. и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х я как бы слегка молчу про отключение нат в нетфильтр и переползании (с отключением) модулей для вебкамеры - их я хотя бы нашел и включил. а опции виртуализации ... какие то модули в исходниках есть. linux-3.7.6/arch/x86/kvm linux-3.7.6/arch/x86/kvm/kvm_cache_regs.h linux-3.7.6/arch/x86/include/asm/kvm_emulate.h linux-3.7.6/arch/x86/include/asm/kvm_host.h linux-3.7.6/arch/x86/include/asm/kvm_para.h linux-3.7.6/arch/x86/include/asm/kvm.h linux-3.7.6/arch/x86/kernel/kvmclock.c linux-3.7.6/arch/x86/kernel/kvm.c === правда, называются как то без разделения на kvm_amd и kvm_intel и не компилятся. CONFIG_HAVE_KVM=y CONFIG_VIRTUALIZATION=y Ничего не поменялось, всё осталось на месте. Можете взять из experimental ядро 3.8 и посмотреть его конфиг. Там есть следующее: CONFIG_HAVE_KVM=y CONFIG_HAVE_KVM_IRQCHIP=y CONFIG_HAVE_KVM_EVENTFD=y CONFIG_KVM_APIC_ARCHITECTURE=y CONFIG_KVM_MMIO=y CONFIG_KVM_ASYNC_PF=y CONFIG_HAVE_KVM_MSI=y CONFIG_HAVE_KVM_CPU_RELAX_INTERCEPT=y CONFIG_VIRTUALIZATION=y CONFIG_KVM=m CONFIG_KVM_INTEL=m CONFIG_KVM_AMD=m Если настраивать ядро через menuconfig, то настройки прямо на первом уровне, в разделе Virtualization: | ++ | | |--- Virtualization | | | | Kernel-based Virtual Machine (KVM) support| | | | KVM for Intel processors support| | | | KVM for AMD processors support | | | |[ ] Audit KVM MMU | | | | Host kernel accelerator for virtio net (EXPERI| | | |< > TCM_VHOST fabric module (EXPERIMENTAL)| | | || | | ++ | ++ | < Exit >< Help > | ++ единственные подходящие опции, которые я нашел. # find /lib/modules/`uname -r`/ -iname *kvm* # Скобки вокруг имени забыли: % find /lib/modules/`uname -r`/ -iname "*kvm*" /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-amd.ko /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm.ko /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-intel.ko Это самосборное 3.8.1 с конфигом от дебиановского 3.8-trunk (http://packages.debian.org/experimental/linux-image-3.8-trunk-amd64) как то тоже пусто. не то , чтоб это было для домашенго компа сильно актуально, но - куда копать? ) гугл пока внятного ответа не дал. на работе стоит ядро 3.6.х, там kvm работает. ) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5132ec78.8020...@gmail.com
ванильные ядра 3.7.х и kvm (на debian testing)
стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса. и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х я как бы слегка молчу про отключение нат в нетфильтр и переползании (с отключением) модулей для вебкамеры - их я хотя бы нашел и включил. а опции виртуализации ... какие то модули в исходниках есть. linux-3.7.6/arch/x86/kvm linux-3.7.6/arch/x86/kvm/kvm_cache_regs.h linux-3.7.6/arch/x86/include/asm/kvm_emulate.h linux-3.7.6/arch/x86/include/asm/kvm_host.h linux-3.7.6/arch/x86/include/asm/kvm_para.h linux-3.7.6/arch/x86/include/asm/kvm.h linux-3.7.6/arch/x86/kernel/kvmclock.c linux-3.7.6/arch/x86/kernel/kvm.c === правда, называются как то без разделения на kvm_amd и kvm_intel и не компилятся. CONFIG_HAVE_KVM=y CONFIG_VIRTUALIZATION=y единственные подходящие опции, которые я нашел. # find /lib/modules/`uname -r`/ -iname *kvm* # как то тоже пусто. не то , чтоб это было для домашенго компа сильно актуально, но - куда копать? ) гугл пока внятного ответа не дал. на работе стоит ядро 3.6.х, там kvm работает. ) -- __ mpd status: [paused] Ария - Дезертир ** * jabber: devil_ins...@jabber.ru * * Registered linux user #450844* ** -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/kgsmlq$aim$1...@ger.gmane.org
Re: одна мышь и одна клавиатура для хоста и гостя kvm
30.01.2013 17:18, Dmitry Nezhevenko пишет: On Wed, Jan 30, 2013 at 05:01:40PM +0400, Скубриев Владимир wrote: Хочу собрать медиацентр на базе debian + xbmc под телевизор. Основной будет debian. Одним из гостей будет Windows с проброшенной в него видеокартой с hdmi выходом. Windows нужен чтобы играть в игры с джойстиком на телевизоре. Проброс видеокарты нужен, чтобы использовать всего один компьютер. Очень сложно сейчас представить будет ли это работать - ведь планируется в том числе играть на высоком разрешении пусть и в простые игры. Как можно обойтись только одной клавиатурой и мышью для управления и основной ОС и Гостем Windows? А как планируется обходиться одной видеокартой? Еще будет использоваться встроенная в процессор видеокарты, т.е. она будет отдана основной системе. А внешняя в PCI-E будет отдана гостю Windows. Будет ли передаваться звук через HDMI из гостевой машины? Как это реализовать ? (Если можно вкратце что с чем связать) Если будет проброшена видеокарта то будет. В Xen во всяком случае работает. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5109fac9.3020...@skubriev.ru
Re: одна мышь и одна клавиатура для хоста и гостя kvm
On Wed, Jan 30, 2013 at 05:01:40PM +0400, Скубриев Владимир wrote: > Хочу собрать медиацентр на базе debian + xbmc под телевизор. > > Основной будет debian. Одним из гостей будет Windows с проброшенной > в него видеокартой с hdmi выходом. > > Windows нужен чтобы играть в игры с джойстиком на телевизоре. > Проброс видеокарты нужен, чтобы использовать всего один компьютер. > > Очень сложно сейчас представить будет ли это работать - ведь > планируется в том числе играть на высоком разрешении пусть и в > простые игры. > > Как можно обойтись только одной клавиатурой и мышью для управления и > основной ОС и Гостем Windows? А как планируется обходиться одной видеокартой? >Будет ли передаваться звук через HDMI из гостевой машины? >Как это реализовать ? (Если можно вкратце что с чем связать) Если будет проброшена видеокарта то будет. В Xen во всяком случае работает. -- WBR, Dmitry signature.asc Description: Digital signature
одна мышь и одна клавиатура для хоста и гостя kvm
Хочу собрать медиацентр на базе debian + xbmc под телевизор. Основной будет debian. Одним из гостей будет Windows с проброшенной в него видеокартой с hdmi выходом. Windows нужен чтобы играть в игры с джойстиком на телевизоре. Проброс видеокарты нужен, чтобы использовать всего один компьютер. Очень сложно сейчас представить будет ли это работать - ведь планируется в том числе играть на высоком разрешении пусть и в простые игры. Как можно обойтись только одной клавиатурой и мышью для управления и основной ОС и Гостем Windows? Одно из решений которое я себе представляю: 1. Выводить экран гостевой машины на виртуальную консоль linux (например tty2) Будет ли передаваться звук через HDMI из гостевой машины? Как это реализовать ? (Если можно вкратце что с чем связать) Я конечно понимаю, что местами планируемое решение огород еще тот. Но у меня есть оправдания: 1. Я люблю огороды ) 2. Очень интересно как оно будет работать. 3. Данное решение - практично и независимо (т.к. используется linux) 4. Можно сэкономить на железе, электричестве, "шуме" 5. Можно использовать данный компьютер для рабочей виртуальной машины, в которой сосредоточить все свои наработки и рабочие программы Плюсов много. Но есть также как минимум один минус: Всеобщая сложность. Хотел бы услышать ваше мнение ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/510919b4.4060...@skubriev.ru
Re: Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0
22 октября 2012 г., 15:53 пользователь alexander написал: > А в корпорации такая же лажовая > виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!! Да, возвращайтесь на венду )
Re: Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0
В Mon, 22 Oct 2012 16:00:50 +0400 Скубриев Владимир пишет: > 22.10.2012 15:53, alexander пишет: > > Преведя) > > Вот ковыряюсь месятс, не могу пробросить PCI устройство в > > виртуальную машину(( хнюкся((. В grub'e ввожу в строку linux > > kernel.. intel_iommu=on вроде запускается intel_iommu. Еще ввожу на > > всяк случ pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM > > еррор Cannot connect to the monitor (( А в Xen еррор psi_stub no > > own pci device (01:00.0). Хнюкс( Чо за лажа?( Блин.. все > > перепробовал. Не переносится PCI устройство(. Чо делать, други > > мои?( Включайте мегамозг!! а-а-а! HELP! Чо за лажовые виртуальные > > машины? А в корпорации такая же лажовая виртуализация? O_o Хоть > > прям на венду вазвросчайси) хех) HELP!!! > > > > > Ты сам хоть понял что написал ))) > > Ты все таки в официальной рассылке находишься. Уважай её участников и > себе самого. Пиши правильно. > > Уже не в первый раз за тобой замечаю такой странный стиль изложения. > Поэтому делаю замечание. > хех) ланя) Сашога учтет) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20121022231348.39343...@omen.dyndns-ip.com
Re: Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0
22.10.2012 15:53, alexander пишет: Преведя) Вот ковыряюсь месятс, не могу пробросить PCI устройство в виртуальную машину(( хнюкся((. В grub'e ввожу в строку linux kernel.. intel_iommu=on вроде запускается intel_iommu. Еще ввожу на всяк случ pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM еррор Cannot connect to the monitor (( А в Xen еррор psi_stub no own pci device (01:00.0). Хнюкс( Чо за лажа?( Блин.. все перепробовал. Не переносится PCI устройство(. Чо делать, други мои?( Включайте мегамозг!! а-а-а! HELP! Чо за лажовые виртуальные машины? А в корпорации такая же лажовая виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!! Ты сам хоть понял что написал ))) Ты все таки в официальной рассылке находишься. Уважай её участников и себе самого. Пиши правильно. Уже не в первый раз за тобой замечаю такой странный стиль изложения. Поэтому делаю замечание. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50853572.1040...@skubriev.ru
Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0
Преведя) Вот ковыряюсь месятс, не могу пробросить PCI устройство в виртуальную машину(( хнюкся((. В grub'e ввожу в строку linux kernel.. intel_iommu=on вроде запускается intel_iommu. Еще ввожу на всяк случ pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM еррор Cannot connect to the monitor (( А в Xen еррор psi_stub no own pci device (01:00.0). Хнюкс( Чо за лажа?( Блин.. все перепробовал. Не переносится PCI устройство(. Чо делать, други мои?( Включайте мегамозг!! а-а-а! HELP! Чо за лажовые виртуальные машины? А в корпорации такая же лажовая виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!! -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/2012105309.47bc6...@omen.dyndns-ip.com
Re: Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.
17.10.2012 10:47, Stanislav Vlasov пишет: 17 октября 2012 г., 12:38 пользователь Скубриев Владимир написал: Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В зависимости от того, есть ли на данный момент возможность использования linux в качестве системы хоста. VDI в смысле просто рабочая станция в виртуалке или таки полноценная VDI-инфраструктура с возможностью генерации рабочего места с нужной конфигурацией установленного софта без его повторной установки на новую виртуалку? VDI в смысле просто рабочая станция в виртуалке Желательно чтобы как можно больше аппаратного обеспечения можно было пробросить внутрь виртуальной машины. Например используются: кард-ридеры дисконтных магнитных карточек (serial), сканеры штрихкодов(usb, serial), принтеры (usb, serial), кассовые аппараты (serial) Свободные и/или бесплатные: 1. linux-kvm.org 2. xen.org 3. virtualbox.org К сожалению, не помню среди них ничего, что было больше, чем просто система виртуализации. А рабочие станции в виртуалках делались... В моём случае это был Xen + vnc для доступа к рабочему столу. Ну это уж слишком просто. У меня сейчас в виртуалках клиенты банков, электронная отчетность, работы со специфическим по и все по Rdp. Это прекрасно работает, спасибо opensource. А вот VDI, т.е. чтобы можно было заменить кассовый компьютер при сбое настроить пробросы и даже не лезть внутрь виртуальной машины - вот это мечта, ради которой и затевается переход на VDI. Хотя не только ради кассовых компьютеров, но все же. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/507e57db.8060...@skubriev.ru
Re: Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.
17 октября 2012 г., 12:38 пользователь Скубриев Владимир написал: > Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В > зависимости от того, есть ли на данный момент возможность использования > linux в качестве системы хоста. VDI в смысле просто рабочая станция в виртуалке или таки полноценная VDI-инфраструктура с возможностью генерации рабочего места с нужной конфигурацией установленного софта без его повторной установки на новую виртуалку? > Свободные и/или бесплатные: > 1. linux-kvm.org > 2. xen.org > 3. virtualbox.org К сожалению, не помню среди них ничего, что было больше, чем просто система виртуализации. А рабочие станции в виртуалках делались... В моём случае это был Xen + vnc для доступа к рабочему столу. -- Stanislav
Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.
Возник вопрос можно ли внедрить VDI не платя при этом за ПО. Организация 30 ПК. Предположим нужно перенести в VDI около 15 рабочих мест менеджеров по работе с клиентами (windows xp, 7), бухгалтеров, директоров и т.д. Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В зависимости от того, есть ли на данный момент возможность использования linux в качестве системы хоста. Насколько мне известно существуют как свободные и/или бесплатные так и платные решения. Из них: Свободные и/или бесплатные: 1. linux-kvm.org 2. xen.org 3. virtualbox.org остальные по идее платные: 1. Citrix XenDesktop, 3. Vmware View 3. Инфраструктура виртуальных настольных ПК Майкрософт 4. Oracle Virtual Desktop Infrastructure Конечно предпочтение я отдаю связке kvm+libvirt+debian+SPICE. Так как наиболее хорошо с ней знаком, оно opensource и уже используется мной на нескольких серверах. Но не для VDI. Поделитесь пожалуйста опытом использования свободных технологий для организации VDI. Особенно интересен KVM и SPICE. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/507e5266.6020...@skubriev.ru
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
1:0 cap c9008020660262 ecap f0105a [0.027362] > > > DMAR: RMRR base: 0x00a6e8f000 end: 0x00a6eaefff > > > [0.027364] DMAR: RMRR base: 0x00a780 end: > > > 0x00af9f [0.027437] IOAPIC id 0 under DRHD base > > > 0xfed91000 IOMMU 1 > > > > > > > > >> т.е. у вас может не поддерживаться проброс устройств, даже если > > >> поддерживается виртуализация в целом как процессором так и > > >> платой. > > >> > > >> > > >> > > > да вроде все поддерживается. Удалось пробросить некоторые PCI > > > устройства. А то устройство которое мне больше всего нужно - это > > > видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums > > > (через Bumblebeed). > > > > > > > > тогда не знаю даже. может быть не совместимость связана с > > видеочипом nvidia gt 640M > > раньше на сайте kvm был список поддерживаемых видео адаптеров > > > > и этот список был очень мал > > > > Хотя погарячился я насчет успешного проброса PCI ( Ща опять ошибки > какие то показываются.. типо устройство занято или что то типо того. > Мож я и не успешно пробросил хз) хех) Но вот ща нашол статью на гугле, > там написано что проброс PCI плохо реализован в KVM, лучше пробовать > Xen. Ну не знаю, помучаю еще несколько дней KVM, если не получится - > буду Xen пробовать) еще раз попробовал KVM'шку( Вот чо в логах пишется: [ 118.490577] pci-stub :01:00.0: claimed by stub [ 119.607857] pci-stub :01:00.0: BAR 0: can't reserve [mem 0xca00-0xcaff] [ 119.607860] kvm_vm_ioctl_assign_device: Could not get access to device regions [ 120.236328] NVRM: request_mem_region failed for 16M @ 0xca00. This can [ 120.236332] NVRM: occur when a driver such as rivatv is loaded and claims [ 120.236334] NVRM: ownership of the device's registers. [ 120.236346] nvidia: probe of :01:00.0 failed with error -1 чо ему надо? Как починить? HELP!!( -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120926225240.45e07...@omen.dyndns-ip.com
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
20.09.2012 16:02, alexander пишет: В Thu, 20 Sep 2012 15:47:34 +0400 Скубриев Владимир пишет: 20.09.2012 15:19, alexander пишет: В Thu, 20 Sep 2012 12:31:39 +0400 Скубриев Владимир пишет: 20.09.2012 12:10, alexander пишет: No IOMMU found. проверьте в данный момент поддерживается виртуализация вообще: cat /proc/cpuinfo | egrep flags.*'svm|vmx' вывод этой команды должен быть не пустым там должна быть строка с svm или vmx в зависимости от платформы intel vs amd alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep flags.*'svm|vmx' flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ поддержка виртуализации есть и она от intel, т.к. vmx это видно из того, что нашел grep проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d (если платформа Intel) в BIOS. Он включается отдельно зачастую. IOMMU в BIOS'e не нашел. его и не должно быть, т.к. так технология проброса устройств и и.п. называется у amd тебе надо искать vt-d хотя иногда даже слова vt-d нету в bios, но сама опция есть, только по другому называется. и самый неприятный момент поддержка iommu или vt-d может отсутствовать у процессора (может быть и системной платы). в этом случае пробросить устройство не получится. alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0 [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap c020e60262 ecap f0101a [0.027353] DMAR: DRHD base: 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR: RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR: RMRR base: 0x00a780 end: 0x00af9f [0.027437] IOAPIC id 0 under DRHD base 0xfed91000 IOMMU 1 т.е. у вас может не поддерживаться проброс устройств, даже если поддерживается виртуализация в целом как процессором так и платой. да вроде все поддерживается. Удалось пробросить некоторые PCI устройства. А то устройство которое мне больше всего нужно - это видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums (через Bumblebeed). тогда не знаю даже. может быть не совместимость связана с видеочипом nvidia gt 640M раньше на сайте kvm был список поддерживаемых видео адаптеров и этот список был очень мал Хотя погарячился я насчет успешного проброса PCI ( Ща опять ошибки какие то показываются.. типо устройство занято или что то типо того. Мож я и не успешно пробросил хз) хех) Но вот ща нашол статью на гугле, там написано что проброс PCI плохо реализован в KVM, лучше пробовать Xen. Ну не знаю, помучаю еще несколько дней KVM, если не получится - буду Xe
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
В Thu, 20 Sep 2012 15:47:34 +0400 Скубриев Владимир пишет: > 20.09.2012 15:19, alexander пишет: > > В Thu, 20 Sep 2012 12:31:39 +0400 > > Скубриев Владимир пишет: > > > >> 20.09.2012 12:10, alexander пишет: > >>> No IOMMU found. > >> проверьте в данный момент поддерживается виртуализация вообще: > >> > >> cat /proc/cpuinfo | egrep flags.*'svm|vmx' > >> вывод этой команды должен быть не пустым там должна быть строка с > >> svm или vmx в зависимости от платформы intel vs amd > > alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers > > Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep > > flags.*'svm|vmx' > > flags : fpu vme de pse tsc msr pae mce > > cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr > > sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc > > arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc > > aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 > > cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer > > aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts > > dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms > > flags : fpu vme de pse tsc msr pae mce cx8 apic sep > > mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss > > ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts > > rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 > > monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 > > x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm > > ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority > > ept vpid fsgsbase smep erms flags : fpu vme de pse > > tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush > > dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm > > constant_tsc arch_perfmon pebs bts rep_good nopl xtopology > > nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est > > tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt > > tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb > > xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid > > fsgsbase smep erms flags: fpu vme de pse tsc msr > > pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi > > mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc > > arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc > > aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 > > cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer > > aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts > > dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms > > alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers > > Civilization 5.Deluxe Edition.v 1.0.0.20$ > > > поддержка виртуализации есть и она от intel, т.к. vmx > это видно из того, что нашел grep > >> проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d > >> (если платформа Intel) в BIOS. Он включается отдельно зачастую. > > IOMMU в BIOS'e не нашел. > его и не должно быть, т.к. так технология проброса устройств и и.п. > называется у amd > тебе надо искать vt-d > > хотя иногда даже слова vt-d нету в bios, но сама опция есть, только > по другому называется. > >> и самый неприятный момент поддержка iommu или vt-d может > >> отсутствовать у процессора (может быть и системной платы). в этом > >> случае пробросить устройство не получится. > >> > > alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers > > Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e > > IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS > > ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address > > width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0 > > [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap > > c020e60262 ecap f0101a [0.027353] DMAR: DRHD base: > > 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr > > fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR: > > RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] > > DMAR: RMRR base: 0x00a780 end: 0x00af9f > > [0.027437] IOAPIC id 0 under DRHD base 0xfed91000 IOMMU 1 > > > > > >> т.е. у вас может не поддерживаться проброс устройств, даже если > >> поддерживается виртуализация в целом как процессором так и пл
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
20.09.2012 15:19, alexander пишет: В Thu, 20 Sep 2012 12:31:39 +0400 Скубриев Владимир пишет: 20.09.2012 12:10, alexander пишет: No IOMMU found. проверьте в данный момент поддерживается виртуализация вообще: cat /proc/cpuinfo | egrep flags.*'svm|vmx' вывод этой команды должен быть не пустым там должна быть строка с svm или vmx в зависимости от платформы intel vs amd alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep flags.*'svm|vmx' flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ поддержка виртуализации есть и она от intel, т.к. vmx это видно из того, что нашел grep проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d (если платформа Intel) в BIOS. Он включается отдельно зачастую. IOMMU в BIOS'e не нашел. его и не должно быть, т.к. так технология проброса устройств и и.п. называется у amd тебе надо искать vt-d хотя иногда даже слова vt-d нету в bios, но сама опция есть, только по другому называется. и самый неприятный момент поддержка iommu или vt-d может отсутствовать у процессора (может быть и системной платы). в этом случае пробросить устройство не получится. alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0 [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap c020e60262 ecap f0101a [0.027353] DMAR: DRHD base: 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR: RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR: RMRR base: 0x00a780 end: 0x00af9f [0.027437] IOAPIC id 0 under DRHD base 0xfed91000 IOMMU 1 т.е. у вас может не поддерживаться проброс устройств, даже если поддерживается виртуализация в целом как процессором так и платой. да вроде все поддерживается. Удалось пробросить некоторые PCI устройства. А то устройство которое мне больше всего нужно - это видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums (через Bumblebeed). тогда не знаю даже. может быть не совместимость связана с видеочипом nvidia gt 640M раньше на сайте kvm был список поддерживаемых видео адаптеров и этот список был очень мал -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.o
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
В Thu, 20 Sep 2012 22:19:14 +1100 alexander пишет: > В Thu, 20 Sep 2012 12:31:39 +0400 > Скубриев Владимир пишет: > > > 20.09.2012 12:10, alexander пишет: > > > No IOMMU found. > > проверьте в данный момент поддерживается виртуализация вообще: > > > > cat /proc/cpuinfo | egrep flags.*'svm|vmx' > > вывод этой команды должен быть не пустым там должна быть строка с > > svm или vmx в зависимости от платформы intel vs amd > > alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers > Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep > flags.*'svm|vmx' > flags : fpu vme de pse tsc msr pae mce > cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse > sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs > bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq > dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 > sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand > lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi > flexpriority ept vpid fsgsbase smep erms flags: fpu > vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 > clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm > constant_tsc arch_perfmon pebs bts rep_good nopl xtopology > nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est > tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt > tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb > xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid > fsgsbase smep erms flags : fpu vme de pse tsc msr pae > mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx > fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc > arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf > pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm > pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx > f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow > vnmi flexpriority ept vpid fsgsbase smep erms flags : > fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat > pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx > rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology > nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est > tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt > tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb > xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid > fsgsbase smep erms alexander@alexander:~/Gamez/Civ5/drive_c/Program > Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ > > > > > > проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d > > (если платформа Intel) в BIOS. Он включается отдельно зачастую. > > IOMMU в BIOS'e не нашел. > > > > > и самый неприятный момент поддержка iommu или vt-d может > > отсутствовать у процессора (может быть и системной платы). в этом > > случае пробросить устройство не получится. > > > > alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers > Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e > IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS > ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address > width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0 > [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap > c020e60262 ecap f0101a [0.027353] DMAR: DRHD base: > 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr > fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR: > RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR: > RMRR base: 0x00a780 end: 0x00af9f [0.027437] > IOAPIC id 0 under DRHD base 0xfed91000 IOMMU 1 > > > > т.е. у вас может не поддерживаться проброс устройств, даже если > > поддерживается виртуализация в целом как процессором так и платой. > > > > > > > да вроде все поддерживается. Удалось пробросить некоторые PCI > устройства. А то устройство которое мне больше всего нужно - это > видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой >>>Optirums > (через Bumblebeed). Optimus то есть -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120920222340.0331a...@omen.dyndns-ip.com
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
В Thu, 20 Sep 2012 12:31:39 +0400 Скубриев Владимир пишет: > 20.09.2012 12:10, alexander пишет: > > No IOMMU found. > проверьте в данный момент поддерживается виртуализация вообще: > > cat /proc/cpuinfo | egrep flags.*'svm|vmx' > вывод этой команды должен быть не пустым там должна быть строка с svm > или vmx в зависимости от платформы intel vs amd alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep flags.*'svm|vmx' flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ > > проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d (если > платформа Intel) в BIOS. Он включается отдельно зачастую. IOMMU в BIOS'e не нашел. > > и самый неприятный момент поддержка iommu или vt-d может > отсутствовать у процессора (может быть и системной платы). в этом > случае пробросить устройство не получится. > alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0 [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap c020e60262 ecap f0101a [0.027353] DMAR: DRHD base: 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR: RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR: RMRR base: 0x00a780 end: 0x00af9f [0.027437] IOAPIC id 0 under DRHD base 0xfed91000 IOMMU 1 > т.е. у вас может не поддерживаться проброс устройств, даже если > поддерживается виртуализация в целом как процессором так и платой. > > > да вроде все поддерживается. Удалось пробросить некоторые PCI устройства. А то устройство которое мне больше всего нужно - это видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums (через Bumblebeed). -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120920221914.3b81e...@omen.dyndns-ip.com
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
А твоя система(процессов\материнская плата) точно IOMMU поддерживает? потому что ругается именно на него. 2012/9/20 alexander : > В Thu, 20 Sep 2012 18:56:44 +1100 > alexander пишет: > >> Привет) >> Установил KVM (kernel virtual machine). Модерирую ее через >> virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость - >> Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить >> дискретную видеокарту (PCI устройство) в венду. Но появляется ошибка. >> Вот текст ошибки: >> >> Ошибка запуска : Unable to read from monitor: Connection reset by peer >> >> Traceback (most recent call last): >> File "/usr/share/virt-manager/virtManager/asyncjob.py", line 45, in >> cb_wrapper callback(asyncjob, *args, **kwargs) >> File "/usr/share/virt-manager/virtManager/asyncjob.py", line 66, in >> tmpcb callback(*args, **kwargs) >> File "/usr/share/virt-manager/virtManager/domain.py", line 1114, in >> startup self._backend.create() >> File "/usr/lib/python2.7/dist-packages/libvirt.py", line 620, in >> create if ret == -1: raise libvirtError ('virDomainCreate() failed', >> dom=self) libvirtError: Unable to read from monitor: Connection reset >> by peer >> >> Но я знаю, что такого быть не должно!( Что за баг такой? Как починить? >> Ничо не нагуглил( HELP! > > а это появилось после того как я выполнил: > #virsh managedsave-remove MyDomain > > > шибка запуска : internal error process exited while connecting to > monitor: char device redirected to /dev/pts/3 No IOMMU found. Unable > to assign device "hostdev0" kvm: -device > pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3: > Device 'pci-assign' could not be initialized > > > Traceback (most recent call last): > File "/usr/share/virt-manager/virtManager/asyncjob.py", line 45, in > cb_wrapper callback(asyncjob, *args, **kwargs) > File "/usr/share/virt-manager/virtManager/asyncjob.py", line 66, in > tmpcb callback(*args, **kwargs) > File "/usr/share/virt-manager/virtManager/domain.py", line 1114, in > startup self._backend.create() > File "/usr/lib/python2.7/dist-packages/libvirt.py", line 620, in > create if ret == -1: raise libvirtError ('virDomainCreate() failed', > dom=self) libvirtError: internal error process exited while connecting > to monitor: char device redirected to /dev/pts/3 No IOMMU found. > Unable to assign device "hostdev0" kvm: -device > pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3: > Device 'pci-assign' could not be initialized > > > -- > To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org > with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org > Archive: http://lists.debian.org/20120920191023.17763...@omen.dyndns-ip.com > -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/CAGWE0TBabnBkCW=-u2ADBY_VnYKk+ZnYxXdXnM5sZ5sF=cj...@mail.gmail.com
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
20.09.2012 12:10, alexander пишет: No IOMMU found. проверьте в данный момент поддерживается виртуализация вообще: cat /proc/cpuinfo | egrep flags.*'svm|vmx' вывод этой команды должен быть не пустым там должна быть строка с svm или vmx в зависимости от платформы intel vs amd проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d (если платформа Intel) в BIOS. Он включается отдельно зачастую. и самый неприятный момент поддержка iommu или vt-d может отсутствовать у процессора (может быть и системной платы). в этом случае пробросить устройство не получится. т.е. у вас может не поддерживаться проброс устройств, даже если поддерживается виртуализация в целом как процессором так и платой. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/505ad46b.6030...@skubriev.ru
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
В Thu, 20 Sep 2012 18:56:44 +1100 alexander пишет: > Привет) > Установил KVM (kernel virtual machine). Модерирую ее через > virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость - > Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить > дискретную видеокарту (PCI устройство) в венду. Но появляется ошибка. > Вот текст ошибки: > > Ошибка запуска : Unable to read from monitor: Connection reset by peer > > Traceback (most recent call last): > File "/usr/share/virt-manager/virtManager/asyncjob.py", line 45, in > cb_wrapper callback(asyncjob, *args, **kwargs) > File "/usr/share/virt-manager/virtManager/asyncjob.py", line 66, in > tmpcb callback(*args, **kwargs) > File "/usr/share/virt-manager/virtManager/domain.py", line 1114, in > startup self._backend.create() > File "/usr/lib/python2.7/dist-packages/libvirt.py", line 620, in > create if ret == -1: raise libvirtError ('virDomainCreate() failed', > dom=self) libvirtError: Unable to read from monitor: Connection reset > by peer > > Но я знаю, что такого быть не должно!( Что за баг такой? Как починить? > Ничо не нагуглил( HELP! а это появилось после того как я выполнил: #virsh managedsave-remove MyDomain шибка запуска : internal error process exited while connecting to monitor: char device redirected to /dev/pts/3 No IOMMU found. Unable to assign device "hostdev0" kvm: -device pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3: Device 'pci-assign' could not be initialized Traceback (most recent call last): File "/usr/share/virt-manager/virtManager/asyncjob.py", line 45, in cb_wrapper callback(asyncjob, *args, **kwargs) File "/usr/share/virt-manager/virtManager/asyncjob.py", line 66, in tmpcb callback(*args, **kwargs) File "/usr/share/virt-manager/virtManager/domain.py", line 1114, in startup self._backend.create() File "/usr/lib/python2.7/dist-packages/libvirt.py", line 620, in create if ret == -1: raise libvirtError ('virDomainCreate() failed', dom=self) libvirtError: internal error process exited while connecting to monitor: char device redirected to /dev/pts/3 No IOMMU found. Unable to assign device "hostdev0" kvm: -device pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3: Device 'pci-assign' could not be initialized -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120920191023.17763...@omen.dyndns-ip.com
KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
Привет) Установил KVM (kernel virtual machine). Модерирую ее через virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость - Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить дискретную видеокарту (PCI устройство) в венду. Но появляется ошибка. Вот текст ошибки: Ошибка запуска : Unable to read from monitor: Connection reset by peer Traceback (most recent call last): File "/usr/share/virt-manager/virtManager/asyncjob.py", line 45, in cb_wrapper callback(asyncjob, *args, **kwargs) File "/usr/share/virt-manager/virtManager/asyncjob.py", line 66, in tmpcb callback(*args, **kwargs) File "/usr/share/virt-manager/virtManager/domain.py", line 1114, in startup self._backend.create() File "/usr/lib/python2.7/dist-packages/libvirt.py", line 620, in create if ret == -1: raise libvirtError ('virDomainCreate() failed', dom=self) libvirtError: Unable to read from monitor: Connection reset by peer Но я знаю, что такого быть не должно!( Что за баг такой? Как починить? Ничо не нагуглил( HELP! -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120920185644.2ccee...@omen.dyndns-ip.com
Re: RAID + гостевые системы KVM на отдельных LVM-томах
03.06.2012, 09:06, "Mikhail A Antonov" : > От себя добавлю что для гостевых linux я на "железке" выдаю отдельный > lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз > оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко > когда внутрь linux передаю два "диска". Например, так было когда > "система" была на sas-рейде, а для файлохранилища был проброшен > отдельный sata-диск. > > > Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю: > -- > # cat /etc/sysctl.d/vmswappiness.conf > vm.swappiness = 0 > -- > Так своп будет использоваться только когда оперативки реально не > хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix). > спасибо большое, Михаил! ценная для меня информация -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/432571338713...@web22g.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sun, Jun 03, 2012 at 12:00:21PM +0400, Dmitry A. Zhiglov wrote: > Было бы интересно узнать как все же на физическом, полном отваливании > диска с swap-разделом поведет система, так как это для меня важно. Как повезет, так и поведет. Смотря что было в свопе на момент падения раздела. -- Stanislav -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120603083830.GA26188@kaiba.homelan
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 23:20 пользователь Mikhail A Antonov написал: > 01.06.2012 22:51, Dmitry A. Zhiglov пишет: >> Как себя поведет система при выходе из строя одного диска в случае, >> если своп разделы были с одинаковым приоритетом на разных дисках? > В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и > тормознёт. В другом - ну представь что у тебя в том куске свопа был > кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в > виртуалку, внутри которой крутится терминальный сервер, внутри которого > бухгалтерская база. Можно инфу похерить сильно. Замысел мой в том, что swap при одинаковом приоритете может работать как страйп. Естественно не всем это надо и тем более в то время когда оперативной памяти должно хватать на всех. Так как у меня нет под руками железа, попробовал провести эксперимент на kvm+lvm Сделал виртуальный debian с 64 МБ оперативной памяти и 2 диска с swap и приоритетом для всех =5. Что бы уж совсем тяжело было, установил gdm и зашел. Далее в lvm на одном из swap-разделов установил права на RO и началось. Ничего не упало, но тормозило. Процессорное время тратилось на io, который был только на чтение в основном, на запись практически ничего не видел или это был не swap. В dmesg было много сообщений от ядра. Мне удалось даже выключить gdm при такой деградации, но все работало. Затем, восстановил в lvm права на раздел в RW и как будто ничего и не было - все тип-топ. Конечно, это не чистый эксперимент и возможно торможения связаны из-за того, что система видит swap, но записать на него ничего не может и вроде есть и вроде нет. Было бы интересно узнать как все же на физическом, полном отваливании диска с swap-разделом поведет система, так как это для меня важно. Был бы благодарен за проведение и подтверждение эксперимента. Ну или кто либо подскажет, как можно по-другому сымитировать полное отключение диска в lvm или как либо иначе.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
03.06.2012 07:19, Alexander пишет: > спасибо огромное! имена lv и vg привел вымышленные для удобства :) > подскажите, а как быть с windows7/server2008r2 - они создают маленький > boot-раздел 100мб при установке Никак не быть - он не будет мешать. Его не надо ресайзить. Ну и монтировать не первый раздел, а второй, если файлы выцепить надо. >> Dmitry Nezhevenko >> В случае гостевого linux так делать не нужно. Потому что всегда может >> оказаться что места чуть маловато. Если был проброшен один LV, >> который был разбит на /, возможно /var и swap, >> то увеличивать это будет весьма нетривиально. > спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал > бы один lvm-том на разделы. > теперь так делать не буду :) Я несколько раз пытался перечитать фразу Дмитрия, но так и не смог понять того, что он хотел этим сказать. Много слов "по теме", но ничего конкретного. От себя добавлю что для гостевых linux я на "железке" выдаю отдельный lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко когда внутрь linux передаю два "диска". Например, так было когда "система" была на sas-рейде, а для файлохранилища был проброшен отдельный sata-диск. Вот несколько примеров: -- (жирная машина) root@zimbra:~# pvs PV VG Fmt Attr PSize PFree /dev/vda1 zimbra lvm2 -- 50,00g0 root@zimbra:~# vgs VG #PV #LV #SN Attr VSize VFree zimbra 1 3 0 wz--n- 50,00g0 root@zimbra:~# lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert opt zimbra -wi-ao 43,00g root zimbra -wi-ao 5,00g swap zimbra -wi-ao 2,00g root@zimbra:~# df -h Файловая система Разм Исп Дост Исп% смонтирована на /dev/mapper/zimbra-root 5,0G 1,5G 3,3G 31% / tmpfs 2,0G 0 2,0G 0% /lib/init/rw udev 2,0G 116K 2,0G 1% /dev tmpfs 2,0G 0 2,0G 0% /dev/shm /dev/mapper/zimbra-opt 43G 4,2G 37G 11% /opt -- (мелкий шлюз) root@gw:~# pvs PV VG Fmt Attr PSize PFree /dev/vda1 gw lvm2 a- 20,00g 9,75g root@gw:~# vgs VG #PV #LV #SN Attr VSize VFree gw 1 2 0 wz--n- 20,00g 9,75g root@gw:~# lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert root gw -wi-ao 9,31g swap gw -wi-ao 952,00m root@gw:~# df -h Файловая система Разм Исп Дост Исп% смонтирована на /dev/mapper/gw-root 9,2G 809M 8,0G 10% / tmpfs 502M 0 502M 0% /lib/init/rw udev 497M 164K 497M 1% /dev tmpfs 502M 0 502M 0% /dev/shm -- (файлохранилище) f0:~# df -h FilesystemSize Used Avail Use% Mounted on /dev/vda1 2.8G 1.8G 934M 66% / tmpfs 252M 0 252M 0% /lib/init/rw udev 247M 100K 247M 1% /dev tmpfs 252M 0 252M 0% /dev/shm /dev/vdb1 696G 410G 286G 59% /data (здесь нет lvm внутри гостя) -- Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю: -- # cat /etc/sysctl.d/vmswappiness.conf vm.swappiness = 0 -- Так своп будет использоваться только когда оперативки реально не хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix). -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
03.06.2012, 02:46, "Mikhail A Antonov" : > 02.06.2012 19:00, Alexander пишет: > >> господа, а как примаунтить раздел в lvm-томе? > > kpartx -a /dev/mapper/vg1-lv1 > mkdir /mnt/lv1p1 > mount /dev/mapper/vg1-lv11 /mnt/lv1p1 > > Я так монтирую когда бэкапы делаю. Остановка машины не требуется. > <...> > # монтируем что бэкапим > # делаем снапшот > lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data > # достаём раздел > kpartx -a /dev/mapper/vg0-win2k3dataBACKUP > # потом монтируем > mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g > || true > <...> > > Лучше не создавать больше одного раздела на одном lv - не удобно будет > resize делать, в случае чего. > А ещё не удобно lv называть lv<номер>. Удобнее называть их именем > виртуальной машины или по целям. lv для свопа логичнее будет назвать swap. > Например есть виртмашина с именем win2k3 внутри которой хочется иметь > два раздела - один поменьше для системы (диск "C") и один побольше для > файлов (диск "D"). > Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки. > У меня такая конфигурация переживала resize в обе стороны. Не "на лету", > но переживала. > спасибо огромное! имена lv и vg привел вымышленные для удобства :) подскажите, а как быть с windows7/server2008r2 - они создают маленький boot-раздел 100мб при установке > Dmitry Nezhevenko > В случае гостевого linux так делать не нужно. Потому что всегда может > оказаться что места чуть маловато. Если был проброшен один LV, > который был разбит на /, возможно /var и swap, > то увеличивать это будет весьма нетривиально. спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал бы один lvm-том на разделы. теперь так делать не буду :) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/666341338693...@web9e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
02.06.2012 19:00, Alexander пишет: > господа, а как примаунтить раздел в lvm-томе? kpartx -a /dev/mapper/vg1-lv1 mkdir /mnt/lv1p1 mount /dev/mapper/vg1-lv11 /mnt/lv1p1 Я так монтирую когда бэкапы делаю. Остановка машины не требуется. <...> # монтируем что бэкапим # делаем снапшот lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data # достаём раздел kpartx -a /dev/mapper/vg0-win2k3dataBACKUP # потом монтируем mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g || true <...> Лучше не создавать больше одного раздела на одном lv - не удобно будет resize делать, в случае чего. А ещё не удобно lv называть lv<номер>. Удобнее называть их именем виртуальной машины или по целям. lv для свопа логичнее будет назвать swap. Например есть виртмашина с именем win2k3 внутри которой хочется иметь два раздела - один поменьше для системы (диск "C") и один побольше для файлов (диск "D"). Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки. У меня такая конфигурация переживала resize в обе стороны. Не "на лету", но переживала. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sun, Jun 03, 2012 at 01:08:30AM +0400, Alexander wrote: > эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно > разбивает видимый ею "физический" диск так как привыкла. и мне кажется, > что не важно винда или линукс - разделы будут в любом случае. вопрос в > том, могу ли я работать с разделами непосредственно из гипервизора, а не > из виртуалки. В случае гостевого linux так делать не нужно. Потому что всегда может оказаться что места чуть маловато. Если был проброшен один LV, который был разбит на /, возможно /var и swap, то увеличивать это будет весьма нетривиально. В случае, если каждый раздел был проброшен своим LV, увеличение очень просто (lvresize + resize2fs). xen-create-image именно так и делает. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
02.06.2012, 22:48, "Dmitry Nezhevenko" : > On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote: > >> господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был >> отдан под виртуалку windows server r2 в качестве винта, и при установке >> создалось 2 раздела на винте. > > Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки > такого бутерброда сильно усложняются... Для виртуалок лучший вариант -- > один LV == один раздел. Впрочем венда скорее всего не умеет так... > >> но вот смаунтить и отформатировать их не могу - нет таких устройств - >> можно ли до них как-то добраться? > > kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не > имеет) > > -- > WBR, Dmitry эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно разбивает видимый ею "физический" диск так как привыкла. и мне кажется, что не важно винда или линукс - разделы будут в любом случае. вопрос в том, могу ли я работать с разделами непосредственно из гипервизора, а не из виртуалки. собственно говоря я сильно удивился когда не смог сходу сделать озвученное в вопросе. ибо LVM это типо блочное устройство, как физический диск или md - с которыми подобных проблем нет. собственно говоря задача тривиальна - скопировать образы акронис на винт виртуалки - чтобы развернуть их. ибо проброс usb-винта непосрественно в виртуалку хоть и работает, но скорость копирования исчилсяемая десятками часов особо не рабудет -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/117051338671...@web13d.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote: > господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был > отдан под виртуалку windows server r2 в качестве винта, и при установке > создалось 2 раздела на винте. Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки такого бутерброда сильно усложняются... Для виртуалок лучший вариант -- один LV == один раздел. Впрочем венда скорее всего не умеет так... > но вот смаунтить и отформатировать их не могу - нет таких устройств - > можно ли до них как-то добраться? kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не имеет) -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был отдан под виртуалку windows server r2 в качестве винта, и при установке создалось 2 раздела на винте. fdisk -l /dev/dm-1 показывает их как: /dev/dm-1p1 /dev/dm-1p2 но вот смаунтить и отформатировать их не могу - нет таких устройств - можно ли до них как-то добраться? пробовал также: /dev/vg1/lv1p1 /dev/vg1/lv1p2 и /dev/mapper/vg1-lv1p1 /dev/mapper/vg1-lv1p2 результат отрицательный. при этом помню, что вроде как делал такое раньше -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/279031338649...@web19f.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
02.06.2012 10:57, Alexander пишет: > 01.06.2012, 23:04, "Mikhail A Antonov" : >> Итак. >> md0 - /boot на 300-500м. (ext2) >> md1 - pv для lvm >> Для каждой виртуалки отдельный lv. >> Всё. >> Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй >> страдать. Диски просто так не вылетают. >> Мониторить смартом и mdadm. >> Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, >> а хардварный, но бьётся всё так же и сути не меняет. > а кстати куда своп то девать? В отдельный lv, если нужен. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sat, Jun 02, 2012 at 10:57:27AM +0400, Alexander wrote: > а кстати куда своп то девать? > А он нужен? У каждой виртуалки своп свой будет.. Так что туда же. Отдельными LV. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012, 23:04, "Mikhail A Antonov" : > Итак. > md0 - /boot на 300-500м. (ext2) > md1 - pv для lvm > Для каждой виртуалки отдельный lv. > Всё. > Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй > страдать. Диски просто так не вылетают. > Мониторить смартом и mdadm. > Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, > а хардварный, но бьётся всё так же и сути не меняет. > а кстати куда своп то девать? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/303491338620...@web19e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012, 23:04, "Mikhail A Antonov" : > Итак. > md0 - /boot на 300-500м. (ext2) > md1 - pv для lvm > Для каждой виртуалки отдельный lv. > Всё. > Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй > страдать. Диски просто так не вылетают. > Мониторить смартом и mdadm. > Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, > а хардварный, но бьётся всё так же и сути не меняет. > т.е. не заморачиваться с отдельным md под саму систему-гипервизор? просто корень держать на отдельном lv и виртуалки в отдельных lv - но все это в пределах одного pv/md? в общем то наверное соглашусь, упрощает схему, тем более у вас отработано на практике) спасибо! -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/210291338620...@web1h.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Fri, Jun 01, 2012 at 10:30:14PM +0400, Alexander wrote: > ошибки в smart, похоже умирает один винт Т.е. винт на замену. Значит перестраивать все равно все данные. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 22:51, Dmitry A. Zhiglov пишет: > 1 июня 2012 г., 22:44 пользователь Mikhail A Antonov > написал: >> 01.06.2012 16:51, Dmitry A. Zhiglov пишет: >>> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела >>> на 2 диска. Приоритеты по swap установить в fstab'e. >> Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет >> раком. НИКОГДА не делай так. >> Своп ВСЕГДА должен быть на рейде, если это возможно. > Как себя поведет система при выходе из строя одного диска в случае, > если своп разделы были с одинаковым приоритетом на разных дисках? В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и тормознёт. В другом - ну представь что у тебя в том куске свопа был кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в виртуалку, внутри которой крутится терминальный сервер, внутри которого бухгалтерская база. Можно инфу похерить сильно. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 15:38, Alexander пишет: > Здраствуйте! > имеется сервер с 2 винтами > сейчас продумываю структуру дискового хранилища гипервизора KVM. > Пока остановился на следующей схеме: <...> (Дальше много букаф.) Итак. md0 - /boot на 300-500м. (ext2) md1 - pv для lvm Для каждой виртуалки отдельный lv. Всё. Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй страдать. Диски просто так не вылетают. Мониторить смартом и mdadm. Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, а хардварный, но бьётся всё так же и сути не меняет. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 22:44 пользователь Mikhail A Antonov написал: > 01.06.2012 16:51, Dmitry A. Zhiglov пишет: >> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела >> на 2 диска. Приоритеты по swap установить в fstab'e. > Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет > раком. НИКОГДА не делай так. > Своп ВСЕГДА должен быть на рейде, если это возможно. Как себя поведет система при выходе из строя одного диска в случае, если своп разделы были с одинаковым приоритетом на разных дисках?
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 16:51, Dmitry A. Zhiglov пишет: > В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела > на 2 диска. Приоритеты по swap установить в fstab'e. Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет раком. НИКОГДА не делай так. Своп ВСЕГДА должен быть на рейде, если это возможно. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 22:30 пользователь Alexander написал: > > 01.06.2012, 21:01, "Dmitry Nezhevenko" : >> On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote: >> >>> в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, >>> md0 и md1 (подкачка и корень) не были развалены - нормально >>> функционировали (физические диски те же самые) >> >> А из-за чего он перестраиваться начал тогда? > > ошибки в smart, похоже умирает один винт > в качестве мониторинга использую smartd (smartmontools) > чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может > есть какие то спец. пакеты? mdadm умеет писать письма см. тут: man mdadm.conf Использую munin для мониторинга Статус можно брать из /proc/mdstat, если решите сами что-то пилить.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 22:15 пользователь Степан Голосунов написал: > "Dmitry A. Zhiglov" writes: >> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела >> на 2 диска. Приоритеты по swap установить в fstab'e. > > Это для того, чтобы сервер упал когда отвалится один диск? Спасибо за замечание. Учтено.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012, 21:01, "Dmitry Nezhevenko" : > On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote: > >> в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, >> md0 и md1 (подкачка и корень) не были развалены - нормально >> функционировали (физические диски те же самые) > > А из-за чего он перестраиваться начал тогда? > > -- > WBR, Dmitry ошибки в smart, похоже умирает один винт в качестве мониторинга использую smartd (smartmontools) чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может есть какие то спец. пакеты? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/170481338575...@web6e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 20:38 пользователь Alexander написал: > 01.06.2012, 18:24, "Dmitry Nezhevenko" : >> On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote: >> Рейды просто так не разваливаются, если отвалился, то что-то произошло. И >> скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка >> неизбежна. >> >> IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость. > в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 > и md1 (подкачка и корень) не были развалены - нормально функционировали > (физические диски те же самые) > Вы точно уверены, что он развалился? Он мог просто проверять свою консистенцию. Кстати, а мониторинг стоит какой либо? Поставьте если нет.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
Можно вас попросить писать ответы внизу, следом по смыслу текста, но не вверху. Разбираться в таких письмах желания мало. И еще. Удаляйте лишний текст в ответах, но оставляйте осмысленные строчки на которые пишите ответ. (квотирование) 1 июня 2012 г., 18:07 пользователь Alexander написал: > 01.06.2012, 16:51, "Dmitry A. Zhiglov" : >> 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov >> написал: >> >> Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь >> диск придется, а это само собой затронет все raid-разделы. При >> перестроении разделы перестраиваются последовательно. К тому же с >> какой скоростью будет перестроение настраивается и по умолчанию >> лимитировано (не буду искать цифру) > Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил > > насчет маленьких md я задумался когда наблюдал у себя перестройку > развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а > перестраивалось естественно все на блочном уровне - т.е. весь 1тб > т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу > томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку > продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на > себе все прелести восстановления терабайтного рейда в течении долгого времени Таковы уж издержки и от них скорей всего никуда не деться. Кроме того, по умолчанию md раз в месяц перепроверяет консистенцию ваших read-дисков - читайте как "перестраивает".
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote: > в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, > md0 и md1 (подкачка и корень) не были развалены - нормально > функционировали (физические диски те же самые) А из-за чего он перестраиваться начал тогда? -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 и md1 (подкачка и корень) не были развалены - нормально функционировали (физические диски те же самые) 01.06.2012, 18:24, "Dmitry Nezhevenko" : > On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote: > >> насчет маленьких md я задумался когда наблюдал у себя перестройку >> развалившегося терабайтного рейда. при этом реальных данных было на >> 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь >> 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в >> группу томов и создать один малюсенький lvm-том на 10гб и в него >> поставить виртуалку продакшн, то в случае развала рейда эта несчастная >> виртуалка будет ощущать на себе все прелести восстановления терабайтного >> рейда в течении долгого времени > > Рейды просто так не разваливаются, если отвалился, то что-то произошло. И > скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка > неизбежна. > > IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость. > > -- > WBR, Dmitry -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/74301338568...@web29h.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote: > насчет маленьких md я задумался когда наблюдал у себя перестройку > развалившегося терабайтного рейда. при этом реальных данных было на > 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь > 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в > группу томов и создать один малюсенький lvm-том на 10гб и в него > поставить виртуалку продакшн, то в случае развала рейда эта несчастная > виртуалка будет ощущать на себе все прелести восстановления терабайтного > рейда в течении долгого времени Рейды просто так не разваливаются, если отвалился, то что-то произошло. И скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка неизбежна. IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил насчет маленьких md я задумался когда наблюдал у себя перестройку развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на себе все прелести восстановления терабайтного рейда в течении долгого времени 01.06.2012, 16:51, "Dmitry A. Zhiglov" : > 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov > написал: > >> 1 июня 2012 г., 15:38 пользователь Alexander написал: >>> Здраствуйте! >>> имеется сервер с 2 винтами >>> сейчас продумываю структуру дискового хранилища гипервизора KVM. >>> Пока остановился на следующей схеме: >> Можно перефразирую задачу? >> >> Есть 2 диска. >> Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 >> Разделы рейдов содержать: >> md0 - boot >> md1 - swap >> md2 - lvm с vg1 >> md3 - lvm с vg2 > > В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела > на 2 диска. Приоритеты по swap установить в fstab'e. > >> vg1 - система и гипервизор >> vg2 - нарезка под виртуальные lv >> >> Вопросы: >> - Может было бы правильней делать отдельные рейд-разделы под каждую >> виртуалку, т.е. свой md+vg+lv? >> >> Причина так думать: если повредится зеркало md3 то перестраиваться >> будет весь большой md (а это долго), а если сделать несколько md >> поменьше вместо одного большого, то соответственно только поврежденный >> md. > > Стоит оставить так, как запланировано сейчас. В вашем случае скорей > всего потеряется прелесть lvm и потенциальные проблемы нарезать > разделы на дисках на живую, перезагрзуки и т.д. > >> - А возможно ли такое вообще, что повредится отдельный md? > > Такое возможно. > >> Причина так думать :ведь все md на одних и тех же физических >> устройствах - т.е. если уж и повредится что-то, то не по отдельности, >> а сразу все md - и получим ситуацию вместо восстановления одного >> большого md - одновременное восстановление нескольких маленьких md - >> что как я понимаю хуже - ибо они изнасилуют жесткие диски >> одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает >> грамотно? т.е. не позволит одновременное восстановление массива на >> одних и тех же физ. устройствах?.. >> Я понимаю, что если выйдет из строя жесткий диск, то естественно >> развалятся все md. Но теоретически может же быть например bad-сектор, >> попадающий только в один md - соответственно только он и развалится, а >> остальные нет - так? > > Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь > диск придется, а это само собой затронет все raid-разделы. При > перестроении разделы перестраиваются последовательно. К тому же с > какой скоростью будет перестроение настраивается и по умолчанию > лимитировано (не буду искать цифру) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/25281338559...@web19e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 15:38, Alexander написал: Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: 1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0 2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2) - md1 3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. раздел диска2) - сама система с гипервизором - vg1/lv1 на md2 4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все пространство и отдельные lvm-тома нужного размера под каждую виртуалку Собственно говоря смущает пункт №4 - думаю может делать отдельные md под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли в этом смысл? Просто если повредится зеркало из п.4 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. Далее у меня возник такой вопрос - возможно ли такое вообще, что повредится отдельный md? ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? В общем, господа, поделитесь мыслями и опытом :) После установки системы установите grub, также и на /dev/sdb (#> grub-install /dev/sdb), дабы в случае, если bios захочет загрузиться с другого диска или вы просто перепутаете кабели местами то сервер смог бы загрузится. По поводу bad-секторов и разных md девайсов может быть дело и выгорет - но тут думаю скорее важно узнать мнение тех, кто конкретно с таким случаем сталкивался. В остальном дождусь ГУРУ. Самому интересно, т.к. то как вы разместили бы разделы и тома даже в голову не приходило - если честно. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8bb25.4050...@skubriev.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 16:40, Dmitry A. Zhiglov написал: 1 июня 2012 г., 15:38 пользователь Alexander написал: Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: Можно перефразирую задачу? Есть 2 диска. Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 Разделы рейдов содержать: md0 - boot md1 - swap md2 - lvm с vg1 md3 - lvm с vg2 vg1 - система и гипервизор vg2 - нарезка под виртуальные lv Вопросы: - Может было бы правильней делать отдельные рейд-разделы под каждую виртуалку, т.е. свой md+vg+lv? Причина так думать: если повредится зеркало md3 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. - А возможно ли такое вообще, что повредится отдельный md? Причина так думать :ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? профессионально +1, сам голову сломал, пока разобрался в том, что же человек хочет. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8.3010...@skubriev.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov написал: > 1 июня 2012 г., 15:38 пользователь Alexander написал: >> Здраствуйте! >> имеется сервер с 2 винтами >> сейчас продумываю структуру дискового хранилища гипервизора KVM. >> Пока остановился на следующей схеме: > > Можно перефразирую задачу? > > Есть 2 диска. > Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 > Разделы рейдов содержать: > md0 - boot > md1 - swap > md2 - lvm с vg1 > md3 - lvm с vg2 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела на 2 диска. Приоритеты по swap установить в fstab'e. > vg1 - система и гипервизор > vg2 - нарезка под виртуальные lv > > Вопросы: > - Может было бы правильней делать отдельные рейд-разделы под каждую > виртуалку, т.е. свой md+vg+lv? > > Причина так думать: если повредится зеркало md3 то перестраиваться > будет весь большой md (а это долго), а если сделать несколько md > поменьше вместо одного большого, то соответственно только поврежденный > md. Стоит оставить так, как запланировано сейчас. В вашем случае скорей всего потеряется прелесть lvm и потенциальные проблемы нарезать разделы на дисках на живую, перезагрзуки и т.д. > > - А возможно ли такое вообще, что повредится отдельный md? Такое возможно. > > Причина так думать :ведь все md на одних и тех же физических > устройствах - т.е. если уж и повредится что-то, то не по отдельности, > а сразу все md - и получим ситуацию вместо восстановления одного > большого md - одновременное восстановление нескольких маленьких md - > что как я понимаю хуже - ибо они изнасилуют жесткие диски > одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает > грамотно? т.е. не позволит одновременное восстановление массива на > одних и тех же физ. устройствах?.. > Я понимаю, что если выйдет из строя жесткий диск, то естественно > развалятся все md. Но теоретически может же быть например bad-сектор, > попадающий только в один md - соответственно только он и развалится, а > остальные нет - так? Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь диск придется, а это само собой затронет все raid-разделы. При перестроении разделы перестраиваются последовательно. К тому же с какой скоростью будет перестроение настраивается и по умолчанию лимитировано (не буду искать цифру)
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 15:38 пользователь Alexander написал: > Здраствуйте! > имеется сервер с 2 винтами > сейчас продумываю структуру дискового хранилища гипервизора KVM. > Пока остановился на следующей схеме: Можно перефразирую задачу? Есть 2 диска. Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 Разделы рейдов содержать: md0 - boot md1 - swap md2 - lvm с vg1 md3 - lvm с vg2 vg1 - система и гипервизор vg2 - нарезка под виртуальные lv Вопросы: - Может было бы правильней делать отдельные рейд-разделы под каждую виртуалку, т.е. свой md+vg+lv? Причина так думать: если повредится зеркало md3 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. - А возможно ли такое вообще, что повредится отдельный md? Причина так думать :ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так?
RAID + гостевые системы KVM на отдельных LVM-томах
Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: 1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0 2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2) - md1 3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. раздел диска2) - сама система с гипервизором - vg1/lv1 на md2 4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все пространство и отдельные lvm-тома нужного размера под каждую виртуалку Собственно говоря смущает пункт №4 - думаю может делать отдельные md под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли в этом смысл? Просто если повредится зеркало из п.4 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. Далее у меня возник такой вопрос - возможно ли такое вообще, что повредится отдельный md? ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? В общем, господа, поделитесь мыслями и опытом :) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8a9d0.9050...@yandex.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
,-[Alexander, 9 March 2012 17:16]: >>> Выяснил следующее - оказывается virt-manager не намертво зависает - если >>> дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! >>> После этого все работает вроде нормально (внутри virt-manager), если его >>> закрыть и запустить по новой - опять висит 4-5 минут. От системы, с >>> которой запускается virt-manager это не зависит - на 32 и 64 битных >>> системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит >>> 4-5 минут на стадии коннекта через ssh-туннель к гипервизору >> >> попробуйте выкинуть прослойку в виде говнолибсов каких то там из конфига >> клиента. >> GSSAPIAuthentication. и прочее гссапи. >> дикое странное говно, которое перебирает двеститыщпицот вариантов >> шифрования и пытается всегда запустить неподдерживаемый. >> как раз минут почти пять у него и уходит обычно. >> > расскажите, если можно, поподробнее - как выкинуть говнолибсы? :) > > man ssh_config man vim vim /blabla/blabla/blabla/bla.config /GSSAPI :wq ы? ) -- __ mpd status: [paused] Psycho Motel - Excuse Me ** * jabber: devil_ins...@jabber.ru * * Registered linux user #450844* ** -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/jjdc3h$uvt$1...@dough.gmane.org
Re: KVM - гостевой windows server 2008 периодически перезагружается
>> Выяснил следующее - оказывается virt-manager не намертво зависает - если >> дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! >> После этого все работает вроде нормально (внутри virt-manager), если его >> закрыть и запустить по новой - опять висит 4-5 минут. От системы, с >> которой запускается virt-manager это не зависит - на 32 и 64 битных >> системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит >> 4-5 минут на стадии коннекта через ssh-туннель к гипервизору > > попробуйте выкинуть прослойку в виде говнолибсов каких то там из конфига > клиента. > GSSAPIAuthentication. и прочее гссапи. > дикое странное говно, которое перебирает двеститыщпицот вариантов шифрования > и пытается всегда запустить неподдерживаемый. > как раз минут почти пять у него и уходит обычно. > расскажите, если можно, поподробнее - как выкинуть говнолибсы? :) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/409081331298...@web67.yandex.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
,-[Alexander, 6 March 2012 17:11]: > 02.03.2012, 16:32, "Alexey Boyko" : >>> Подключаюсь через virt-manager с удаленной машины через ssh-туннель. >>> Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе >>> подключения. >> >> Проверь, запускает ли libvirtd во время такого зависания udevadm. >> У меня зависал udevadm. Если после перезагрузки сделать udev restart, >> то udevadm не зависал, и virt-manager конектился. >> > service udev restart после перезагрузки не помогает. > > Выяснил следующее - оказывается virt-manager не намертво зависает - если > дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! > После этого все работает вроде нормально (внутри virt-manager), если его > закрыть и запустить по новой - опять висит 4-5 минут. От системы, с > которой запускается virt-manager это не зависит - на 32 и 64 битных > системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит > 4-5 минут на стадии коннекта через ssh-туннель к гипервизору попробуйте выкинуть прослойку в виде говнолибсов каких то там из конфига клиента. GSSAPIAuthentication. и прочее гссапи. ) дикое странное говно, которое перебирает двеститыщпицот вариантов шифрования и пытается всегда запустить неподдерживаемый. ) как раз минут почти пять у него и уходит обычно. ) -- __ mpd status: [playing] Psycho Motel - Rage ** * jabber: devil_ins...@jabber.ru * * Registered linux user #450844* ** -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/jjcj9c$pce$1...@dough.gmane.org
Re: KVM - гостевой windows server 2008 периодически перезагружается
07.03.2012 11:13, Alexander пишет: 07.03.2012, 11:03, "Скубриев Владимир": 07.03.2012 10:01, Alexander пишет: 07.03.2012, 09:44, "Скубриев Владимир": 06.03.2012 17:11, Alexander пишет:>02.03.2012, 16:32, "Alexey Boyko": Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm не зависал, и virt-manager конектился. service udev restart после перезагрузки не помогает. Выяснил следующее - оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого все работает вроде нормально (внутри virt-manager), если его закрыть и запустить по новой - опять висит 4-5 минут. От системы, с которой запускается virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель к гипервизору кстати у меня также везде. очень долго virt-manager подключается к libvirt'у. Минуты 3-4 а то и все пять. От чего это зависит я так и не понял. Но могу сказать, что использовал последние версии libvirt из sid'a и fedora 16 с её последним virt-manager'ом а, ну так вот это ненормальное поведение, ибо если на debian 6.0.4 оставить все как есть по умолчанию без использования дополнительных репозиториев (т.е. ядро 2.6.32 и пакеты из stable), то virt-manager подключается к гипервизору за 3-4 секунды хорошее замечание! только вот я ведь не просто так использую пакеты из sid'a )) Вот кстати интересно для чего? У меня все ванильное, кроме вот ядра - 3.2 из backports поставил, но это тоже как бы официальный стабильный репозиторий. Особенно если учитывать, что 3.2 это lts релиз и поддержка 2.6.32 уже официально прекратилась. Все работает стабильно сейчас на уровне возможностей железа по ощущениям. Использую несколько Windows 2008 и Windows 2008 R2 в продакшене. Скажите в чем смысл использовать что-то из sid - стоит ли оно того? Спрашиваю абсолютно искренне безо всяких подоплек) верю про искренность, ну не могу я щас вспомнить уже (( -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f570d8a.20...@skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
07.03.2012, 11:03, "Скубриев Владимир" : > 07.03.2012 10:01, Alexander пишет: > >> 07.03.2012, 09:44, "Скубриев Владимир": >>> 06.03.2012 17:11, Alexander пишет:> 02.03.2012, 16:32, "Alexey >>> Boyko": >> Подключаюсь через virt-manager с удаленной машины через ssh-туннель. >> Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе >> подключения. > Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня > зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm > не зависал, и virt-manager конектился. service udev restart после перезагрузки не помогает. Выяснил следующее - оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого все работает вроде нормально (внутри virt-manager), если его закрыть и запустить по новой - опять висит 4-5 минут. От системы, с которой запускается virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель к гипервизору >>> кстати у меня также везде. очень долго virt-manager подключается к >>> libvirt'у. Минуты 3-4 а то и все пять. От чего это зависит я так и не >>> понял. Но могу сказать, что использовал последние версии libvirt из sid'a и >>> fedora 16 с её последним virt-manager'ом >> а, ну так вот это ненормальное поведение, ибо если на debian 6.0.4 оставить >> все как есть по умолчанию без использования дополнительных репозиториев >> (т.е. ядро 2.6.32 и пакеты из stable), то virt-manager подключается к >> гипервизору за 3-4 секунды > > хорошее замечание! только вот я ведь не просто так использую пакеты из > sid'a )) > Вот кстати интересно для чего? У меня все ванильное, кроме вот ядра - 3.2 из backports поставил, но это тоже как бы официальный стабильный репозиторий. Особенно если учитывать, что 3.2 это lts релиз и поддержка 2.6.32 уже официально прекратилась. Все работает стабильно сейчас на уровне возможностей железа по ощущениям. Использую несколько Windows 2008 и Windows 2008 R2 в продакшене. Скажите в чем смысл использовать что-то из sid - стоит ли оно того? Спрашиваю абсолютно искренне безо всяких подоплек) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/345991331104...@web16.yandex.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
07.03.2012, 09:44, "Скубриев Владимир" : > 06.03.2012 17:11, Alexander пишет:> 02.03.2012, 16:32, "Alexey Boyko" > : Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. >>> >>> Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня >>> зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm >>> не зависал, и virt-manager конектился. >> >> service udev restart после перезагрузки не помогает. Выяснил следующее - >> оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то >> он таки подключится к гипервизору с ядром 3.2! После этого все работает >> вроде нормально (внутри virt-manager), если его закрыть и запустить по новой >> - опять висит 4-5 минут. От системы, с которой запускается virt-manager это >> не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) >> одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель >> к гипервизору > кстати у меня также везде. очень долго virt-manager подключается к libvirt'у. > Минуты 3-4 а то и все пять. От чего это зависит я так и не понял. Но могу > сказать, что использовал последние версии libvirt из sid'a и fedora 16 с её > последним virt-manager'ом > а, ну так вот это ненормальное поведение, ибо если на debian 6.0.4 оставить все как есть по умолчанию без использования дополнительных репозиториев (т.е. ядро 2.6.32 и пакеты из stable), то virt-manager подключается к гипервизору за 3-4 секунды -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/92391331100...@web83.yandex.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
06.03.2012 17:11, Alexander пишет: 02.03.2012, 16:32, "Alexey Boyko": Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm не зависал, и virt-manager конектился. service udev restart после перезагрузки не помогает. Выяснил следующее - оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого все работает вроде нормально (внутри virt-manager), если его закрыть и запустить по новой - опять висит 4-5 минут. От системы, с которой запускается virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель к гипервизору кстати у меня также везде. очень долго virt-manager подключается к libvirt'у. Минуты 3-4 а то и все пять. От чего это зависит я так и не понял. Но могу сказать, что использовал последние версии libvirt из sid'a и fedora 16 с её последним virt-manager'ом -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012, 16:32, "Alexey Boyko" : >> Подключаюсь через virt-manager с удаленной машины через ssh-туннель. >> Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе >> подключения. > > Проверь, запускает ли libvirtd во время такого зависания udevadm. > У меня зависал udevadm. Если после перезагрузки сделать udev restart, > то udevadm не зависал, и virt-manager конектился. > service udev restart после перезагрузки не помогает. Выяснил следующее - оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого все работает вроде нормально (внутри virt-manager), если его закрыть и запустить по новой - опять висит 4-5 минут. От системы, с которой запускается virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель к гипервизору -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/150161331039...@web82.yandex.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012 16:37, Alexander пишет: 02.03.2012, 16:25, "Скубриев Владимир": 02.03.2012 16:06, Alexander пишет: 02.03.2012, 15:54, "Скубриев Владимир": 02.03.2012 15:38, Alexander пишет: Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в перезагрузку по причине bluescreen. В логах винды ничего по этому поводу нет. Ядро Debian Squezze 2.6.32-5-amd64 используется qemu-kvm 0.12.5 Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не перезагружалось, то есть проблема ушла. Однако в этом случае не мог приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 2.6.32-5-amd64 - проблема вернулась. Кто-нибудь сталкивался? по моему проще решить проблему с virt-manager и забыть о проблеме а что за проблема с ним ? Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто забыть и юзать 3.2 у меня стоит debian squeeze и ядро 3.0.0-1-amd64 все работает нормально на двух серверах. попробуйте поставить его. вот более подробно о нем root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64 Пакет: linux-image-3.0.0-1-amd64 Новый: да Состояние: установлен Автоматически установлен: нет Версия: 3.0.0-4 Приоритет: необязательный Раздел: kernel Сопровождающий: Debian Kernel Team Размер в распакованном виде: 109 M Зависимости: module-init-tools, linux-base (>= 3~), initramfs-tools (>= 0.99~) | linux-initramfs-tool Предварительные зависимости: debconf | debconf-2.0 Рекомендуются: firmware-linux-free (>= 3~) Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (>= 22.8-8.2~) Ломают: initramfs-tools (< 0.99~), lilo (< 22.8-8.2~) Предоставляют: linux-image, linux-modules-3.0.0-1-amd64 Описание: Linux 3.0.0 for 64-bit PCs The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel 64 processors. This kernel also runs on a Xen hypervisor. It supports both privileged (dom0) and unprivileged (domU) operation. Это ядро из sid-а И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ? А как поставить подскажу если надо. Просто 3.2 в backports, ну и посвежее, ну и LTS :) по-моему причин более чем достаточно чем 3.0 из sid ;) из sid ставить как то боязно. Сейчас попробую подключиться удаленно с абсолютно аналогичного дистра (debian6 x64) с тем же самым ядром 3.2 из бэкпортс. Ибо сейчас подключаюсь с debian6 x32 и ядро 2.6.32. Может не будет виснуть О сути использования пакетов из sid. Нужно это для того, чтобы можно было использовать не только свежее ядро. Но и новый kvm, qemu, libvirt и т.д. libvirt так вообще лучше использовать самый последний всегда. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f50c55e.7050...@skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012, 16:25, "Скубриев Владимир" : > 02.03.2012 16:06, Alexander пишет: > >> 02.03.2012, 15:54, "Скубриев Владимир": >>> 02.03.2012 15:38, Alexander пишет: >>>> Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в >>>> перезагрузку по причине bluescreen. >>>> В логах винды ничего по этому поводу нет. >>>> Ядро Debian Squezze 2.6.32-5-amd64 >>>> используется qemu-kvm 0.12.5 >>>> >>>> Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. >>>> >>>> Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не >>>> перезагружалось, то есть проблема ушла. Однако в этом случае не мог >>>> приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на >>>> ядро 2.6.32-5-amd64 - проблема вернулась. >>>> >>>> Кто-нибудь сталкивался? >>> по моему проще решить проблему с virt-manager и забыть о проблеме >>> а что за проблема с ним ? >> Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если >> ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я >> согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто >> забыть и юзать 3.2 > > у меня стоит debian squeeze и ядро 3.0.0-1-amd64 все работает нормально > на двух серверах. > > попробуйте поставить его. вот более подробно о нем > > root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64 > Пакет: linux-image-3.0.0-1-amd64 > Новый: да > Состояние: установлен > Автоматически установлен: нет > Версия: 3.0.0-4 > Приоритет: необязательный > Раздел: kernel > Сопровождающий: Debian Kernel Team > Размер в распакованном виде: 109 M > Зависимости: module-init-tools, linux-base (>= 3~), initramfs-tools (>= > 0.99~) | linux-initramfs-tool > Предварительные зависимости: debconf | debconf-2.0 > Рекомендуются: firmware-linux-free (>= 3~) > Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (>= 22.8-8.2~) > Ломают: initramfs-tools (< 0.99~), lilo (< 22.8-8.2~) > Предоставляют: linux-image, linux-modules-3.0.0-1-amd64 > Описание: Linux 3.0.0 for 64-bit PCs > The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel > 64 processors. > > This kernel also runs on a Xen hypervisor. It supports both > privileged (dom0) and unprivileged (domU) operation. > > Это ядро из sid-а > > И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ? > А как поставить подскажу если надо. > Просто 3.2 в backports, ну и посвежее, ну и LTS :) по-моему причин более чем достаточно чем 3.0 из sid ;) из sid ставить как то боязно. Сейчас попробую подключиться удаленно с абсолютно аналогичного дистра (debian6 x64) с тем же самым ядром 3.2 из бэкпортс. Ибо сейчас подключаюсь с debian6 x32 и ядро 2.6.32. Может не будет виснуть -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/362371330691...@web16.yandex.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm не зависал, и virt-manager конектился. -- xmpp:ale...@boyko.km.ua
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012 16:06, Alexander пишет: 02.03.2012, 15:54, "Скубриев Владимир": 02.03.2012 15:38, Alexander пишет: Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в перезагрузку по причине bluescreen. В логах винды ничего по этому поводу нет. Ядро Debian Squezze 2.6.32-5-amd64 используется qemu-kvm 0.12.5 Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не перезагружалось, то есть проблема ушла. Однако в этом случае не мог приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 2.6.32-5-amd64 - проблема вернулась. Кто-нибудь сталкивался? по моему проще решить проблему с virt-manager и забыть о проблеме а что за проблема с ним ? Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто забыть и юзать 3.2 у меня стоит debian squeeze и ядро 3.0.0-1-amd64 все работает нормально на двух серверах. попробуйте поставить его. вот более подробно о нем root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64 Пакет: linux-image-3.0.0-1-amd64 Новый: да Состояние: установлен Автоматически установлен: нет Версия: 3.0.0-4 Приоритет: необязательный Раздел: kernel Сопровождающий: Debian Kernel Team Размер в распакованном виде: 109 M Зависимости: module-init-tools, linux-base (>= 3~), initramfs-tools (>= 0.99~) | linux-initramfs-tool Предварительные зависимости: debconf | debconf-2.0 Рекомендуются: firmware-linux-free (>= 3~) Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (>= 22.8-8.2~) Ломают: initramfs-tools (< 0.99~), lilo (< 22.8-8.2~) Предоставляют: linux-image, linux-modules-3.0.0-1-amd64 Описание: Linux 3.0.0 for 64-bit PCs The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel 64 processors. This kernel also runs on a Xen hypervisor. It supports both privileged (dom0) and unprivileged (domU) operation. Это ядро из sid-а И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ? А как поставить подскажу если надо. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f50bc47.4020...@skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012, 15:54, "Скубриев Владимир" : > 02.03.2012 15:38, Alexander пишет: > >> Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в >> перезагрузку по причине bluescreen. >> В логах винды ничего по этому поводу нет. >> Ядро Debian Squezze 2.6.32-5-amd64 >> используется qemu-kvm 0.12.5 >> >> Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. >> >> Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не >> перезагружалось, то есть проблема ушла. Однако в этом случае не мог >> приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро >> 2.6.32-5-amd64 - проблема вернулась. >> >> Кто-нибудь сталкивался? > > по моему проще решить проблему с virt-manager и забыть о проблеме > а что за проблема с ним ? > Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто забыть и юзать 3.2 -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/153941330689...@web76.yandex.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012 15:38, Alexander пишет: Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в перезагрузку по причине bluescreen. В логах винды ничего по этому поводу нет. Ядро Debian Squezze 2.6.32-5-amd64 используется qemu-kvm 0.12.5 Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не перезагружалось, то есть проблема ушла. Однако в этом случае не мог приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 2.6.32-5-amd64 - проблема вернулась. Кто-нибудь сталкивался? по моему проще решить проблему с virt-manager и забыть о проблеме а что за проблема с ним ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f50b50b.1030...@skubriev.ru
Re: Производительность KVM на LVM
1 марта 2012 г. 22:10 пользователь Mikhail A Antonov написал: >>> Ну и таром его. >> >> Диск винды? С виндовыми правами? Таром? >> > Да. Мне потом из него будет важнее выцепить сами данные, а права я и сам > руками после восстановления выставлю. У меня там не много и _мне_ эта > схема подходит. Я понимаю что если у меня там будет стопицот > пользователей и хитро накрученные права - там эта схема не подойдёт. > Сейчас же всё это используется ввиде "ой, мы случайно на сетевой шаре > прибили/испортили файлик. Восстанови а?" и планировалось что это будет > использоваться при поломках железа вплоть до полного сгорания серверной > потому что далее этот самый тар пишется на nas, который стоит в соседнем > здании. В моём случае винду со всем софтом (оофис, фф, 1С) дешевле > выйдет поставить заново, чем снимать образ и где-то его хранить. Там и > так условно полезной информации на ~70гб в пожатом виде. Видится противоречие и бесполезность создания полного образа в вашем случае. Похоже будет проще остановить сервисы, а затем скопировать важные данные в надежное место.
Re: Производительность KVM на LVM
01.03.2012 13:00, Artem Chuprina пишет: >>> Если так, то получается бэкап акронисом (в случае windows-систем) >>> эффективнее гораздо... :( >> # делаем снапшот >> lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data >> # достаём раздел >> kpartx -a /dev/mapper/vg0-win2k3dataBACKUP >> # потом монтируем >> mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g >> >> Ну и таром его. > > Диск винды? С виндовыми правами? Таром? > Да. Мне потом из него будет важнее выцепить сами данные, а права я и сам руками после восстановления выставлю. У меня там не много и _мне_ эта схема подходит. Я понимаю что если у меня там будет стопицот пользователей и хитро накрученные права - там эта схема не подойдёт. Сейчас же всё это используется ввиде "ой, мы случайно на сетевой шаре прибили/испортили файлик. Восстанови а?" и планировалось что это будет использоваться при поломках железа вплоть до полного сгорания серверной потому что далее этот самый тар пишется на nas, который стоит в соседнем здании. В моём случае винду со всем софтом (оофис, фф, 1С) дешевле выйдет поставить заново, чем снимать образ и где-то его хранить. Там и так условно полезной информации на ~70гб в пожатом виде. 01.03.2012 14:31, Alexander пишет: >> /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP >> > > может вы имели ввиду в конце: > /usr/bin/yes | /sbin/lvremove /dev/vg0/win2k3dataBACKUP > или без разницы?.. Без разницы. -- Best regards, Mikhail. - XMPP: ant...@stopicq.ru WWW: http://www.antmix.pp.ru/ signature.asc Description: OpenPGP digital signature
Re: Производительность KVM на LVM
01.03.2012 14:31, Alexander пишет: > > > опробовал вашу схему - для бэкапа данных вполне подходит. > Вот только пока непонятно что делать с правами ntfs, коллеги, есть что > посоветовать на эту тему - чтобы можно было восстановить данные с > настроенными правами ntfs? > 1 - вариант в лоб - ntfsclone/partclone -скопирует только занятые блоки из ntfs раздела. 2 - модификация варианта с tar - дамп acl внешней утилитой (вспоминается secaudit из того же ntfs-3g) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f4f5cdf.4020...@tcen.ru
Re: Производительность KVM на LVM
Vladimir Skubriev ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 13:03 +0400 > все равно что ntfsclone, partclone, clonezilla не 100 варианты в > плане надежности. > > постоянно придется проверять а что там оно на бэкапило. > > восстанавливается или нет > > так что, ИМХО, dd лучше в плане надежности сохранения и > восстановления данных. > > чем проще алгоритм - тем надежнее. It depends. В случае с пустым разделом ntfsclone, например, вполне себе выиграет место. P.S. Clonezilla - комбайн, использующий перечисленные утилиты, и много других. -- Bright regards, Sergey Korobitsin, Chief Research Officer Arta Software, http://arta.kz/ xmpp:underta...@jabber.arta.kz -- Спектакль - это не совокупность образов; нет, Спектакль это общественные отношения, обусловленные образами. -- Ги-Эрнст Дебор, "Общество Спектакля" -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120301105643.ga17...@undertaker.dev.lan.arta.kz
Re: Производительность KVM на LVM
01.03.2012, 11:59, "Mikhail A Antonov" : > 01.03.2012 11:37, Alexander пишет: > >> еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб >> (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы >> получим файл-образ размером 300гб?... я так понимаю это долгая и >> неэффективная процедура(( >> Это получается единственный вариант бэкапа системы целиком в случае >> использования lvm?.. или может еще есть какие то варианты? Мне еще приходит >> в голову только сжатие этого образа при копировании, что еще более увеличит >> время создания образа и непонятно насколько уменьшит его размер( >> Если так, то получается бэкап акронисом (в случае windows-систем) >> эффективнее гораздо... :( > > # делаем снапшот > lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data > # достаём раздел > kpartx -a /dev/mapper/vg0-win2k3dataBACKUP > # потом монтируем > mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g > > Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск > можно раз в месяц и образом. > После того как бэкап закончился - снапшот не нужен больше. > > # отмонтируем что бэкапили > umount /mnt/win2k3data > /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP > /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP > может вы имели ввиду в конце: /usr/bin/yes | /sbin/lvremove /dev/vg0/win2k3dataBACKUP или без разницы?.. опробовал вашу схему - для бэкапа данных вполне подходит. Вот только пока непонятно что делать с правами ntfs, коллеги, есть что посоветовать на эту тему - чтобы можно было восстановить данные с настроенными правами ntfs? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/216261330597...@web132.yandex.ru
Re: Производительность KVM на LVM
> > Если так, то получается бэкап акронисом (в случае windows-систем) > > эффективнее гораздо... :( > # делаем снапшот > lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data > # достаём раздел > kpartx -a /dev/mapper/vg0-win2k3dataBACKUP > # потом монтируем > mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g > > Ну и таром его. Диск винды? С виндовыми правами? Таром? -- Обновление Windows изменило интуитивно ясный интерфейс Вашего компьютера. Загрузите обновление интуиции с сайта Microsoft. (С)энта -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/878vjklmqq.wl%...@ran.pp.ru
Re: Производительность KVM на LVM
01.03.2012 12:53, Sergey Korobitsin пишет: Alexander ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 12:24 +0400 lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data # достаём раздел kpartx -a /dev/mapper/vg0-win2k3dataBACKUP # потом монтируем mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск можно раз в месяц и образом. После того как бэкап закончился - снапшот не нужен больше. # отмонтируем что бэкапили umount /mnt/win2k3data /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все файлы на винт и через восстановление системы восстановить загрузчик винды - в итоге имеем практически образ системы - так ведь? nfs права могут побиться. И скорее всего побьются. Если к рецепту, указанному выше, добавить способы создания образов (ntfsclone, partclone ...), которые используются в clonezilla, можно получить какой угодно результат. все равно что ntfsclone, partclone, clonezilla не 100 варианты в плане надежности. постоянно придется проверять а что там оно на бэкапило. восстанавливается или нет так что, ИМХО, dd лучше в плане надежности сохранения и восстановления данных. чем проще алгоритм - тем надежнее. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: Производительность KVM на LVM
01.03.2012 12:24, Alexander пишет: 01.03.2012, 12:20, "Mikhail A Antonov": 01.03.2012 12:07, Alexander пишет: ссори отправил в личку( 01.03.2012, 11:59, "Mikhail A Antonov": 01.03.2012 11:37, Alexander пишет: еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим файл-образ размером 300гб?... я так понимаю это долгая и неэффективная процедура(( Это получается единственный вариант бэкапа системы целиком в случае использования lvm?.. или может еще есть какие то варианты? Мне еще приходит в голову только сжатие этого образа при копировании, что еще более увеличит время создания образа и непонятно насколько уменьшит его размер( Если так, то получается бэкап акронисом (в случае windows-систем) эффективнее гораздо... :( # делаем снапшот lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data # достаём раздел kpartx -a /dev/mapper/vg0-win2k3dataBACKUP # потом монтируем mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск можно раз в месяц и образом. После того как бэкап закончился - снапшот не нужен больше. # отмонтируем что бэкапили umount /mnt/win2k3data /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все файлы на винт и через восстановление системы восстановить загрузчик винды - в итоге имеем практически образ системы - так ведь? nfs права могут побиться. И скорее всего побьются. - P.S.: Да я в личку и ответил уже, но для истории пусть и тут повисит. ах, ну да ntfs-права... :( все таки в итоге получается dd со сжатием образа на другую машину единственный проверенный вариант. а, ну или если можно отдать виртуалке снапшот в качестве винта, то можно уже из нее снимать образ акронисом. проверю, напишу проверите, получиться ? обязательно отпишитесь. очень буду ждать ))) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: Производительность KVM на LVM
Alexander ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 12:24 +0400 > >>> lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data > >>> # достаём раздел > >>> kpartx -a /dev/mapper/vg0-win2k3dataBACKUP > >>> # потом монтируем > >>> mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g > >>> > >>> Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск > >>> можно раз в месяц и образом. > >>> После того как бэкап закончился - снапшот не нужен больше. > >>> > >>> # отмонтируем что бэкапили > >>> umount /mnt/win2k3data > >>> /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP > >>> /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP > >> о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно > >> только сами данные. Я так думаю потом не проблема будет развернуть из > >> tar-архива все файлы на винт и через восстановление системы восстановить > >> загрузчик винды - в итоге имеем практически образ системы - так ведь? > > > > nfs права могут побиться. И скорее всего побьются. Если к рецепту, указанному выше, добавить способы создания образов (ntfsclone, partclone ...), которые используются в clonezilla, можно получить какой угодно результат. -- Bright regards, Sergey Korobitsin, Chief Research Officer Arta Software, http://arta.kz/ xmpp:underta...@jabber.arta.kz -- Современные условия бытия оставляют человека один на один с бесконечным монологом масс-медиа и культуры; монологом масс-медиа и культуры о самих себе. Хуже того, реальность, с которой имеет дело субъект культуры - продукт этого самого монолога. Человек остается безвольным и безвластным червяком в колоссальной кафкианской машине само-воспроизводящейся культуры. Культуры, язык которой защищен копирайтом - чтобы произнести в этом смысловом поле нечто осмысленное, вообще что-то произнести, требуется добыть разрешение владельца копирайта. Копирайт обозначает тиранию гораздо более жестокую и окончательную, чем все прежде известные формы тирании - прежде никому не приходило в голову кодифицировать все формы экспрессии и требовать получения отдельного разрешения на каждую. -- Миша Вербицкий, "Антикопирайт" -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120301085303.ga17...@undertaker.dev.lan.arta.kz
Re: Производительность KVM на LVM
01.03.2012, 12:20, "Mikhail A Antonov" : > 01.03.2012 12:07, Alexander пишет: > >> ссори отправил в личку( >> >> 01.03.2012, 11:59, "Mikhail A Antonov" : >>> 01.03.2012 11:37, Alexander пишет: еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим файл-образ размером 300гб?... я так понимаю это долгая и неэффективная процедура(( Это получается единственный вариант бэкапа системы целиком в случае использования lvm?.. или может еще есть какие то варианты? Мне еще приходит в голову только сжатие этого образа при копировании, что еще более увеличит время создания образа и непонятно насколько уменьшит его размер( Если так, то получается бэкап акронисом (в случае windows-систем) эффективнее гораздо... :( >>> # делаем снапшот >>> lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data >>> # достаём раздел >>> kpartx -a /dev/mapper/vg0-win2k3dataBACKUP >>> # потом монтируем >>> mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g >>> >>> Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск >>> можно раз в месяц и образом. >>> После того как бэкап закончился - снапшот не нужен больше. >>> >>> # отмонтируем что бэкапили >>> umount /mnt/win2k3data >>> /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP >>> /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP >> о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно >> только сами данные. Я так думаю потом не проблема будет развернуть из >> tar-архива все файлы на винт и через восстановление системы восстановить >> загрузчик винды - в итоге имеем практически образ системы - так ведь? > > nfs права могут побиться. И скорее всего побьются. > > - > P.S.: Да я в личку и ответил уже, но для истории пусть и тут повисит. > ах, ну да ntfs-права... :( все таки в итоге получается dd со сжатием образа на другую машину единственный проверенный вариант. а, ну или если можно отдать виртуалке снапшот в качестве винта, то можно уже из нее снимать образ акронисом. проверю, напишу -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/3291330590...@web64.yandex.ru
Re: Fwd: Производительность KVM на LVM
01.03.2012 12:07, Alexander пишет: > > ссори отправил в личку( > > 01.03.2012, 11:59, "Mikhail A Antonov" : > >> 01.03.2012 11:37, Alexander пишет: >>> еще вопрос - я так понимаю при копировании через dd lvm-тома размером >>> 300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы >>> получим файл-образ размером 300гб?... я так понимаю это долгая и >>> неэффективная процедура(( >>> Это получается единственный вариант бэкапа системы целиком в случае >>> использования lvm?.. или может еще есть какие то варианты? Мне еще приходит >>> в голову только сжатие этого образа при копировании, что еще более увеличит >>> время создания образа и непонятно насколько уменьшит его размер( >>> Если так, то получается бэкап акронисом (в случае windows-систем) >>> эффективнее гораздо... :( >> # делаем снапшот >> lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data >> # достаём раздел >> kpartx -a /dev/mapper/vg0-win2k3dataBACKUP >> # потом монтируем >> mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g >> >> Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск >> можно раз в месяц и образом. >> После того как бэкап закончился - снапшот не нужен больше. >> >> # отмонтируем что бэкапили >> umount /mnt/win2k3data >> /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP >> /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP >> > > о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только > сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все > файлы на винт и через восстановление системы восстановить загрузчик винды - > в итоге имеем практически образ системы - так ведь? nfs права могут побиться. И скорее всего побьются. - P.S.: Да я в личку и ответил уже, но для истории пусть и тут повисит. -- Best regards, Mikhail. - XMPP: ant...@stopicq.ru WWW: http://www.antmix.pp.ru/ signature.asc Description: OpenPGP digital signature
Fwd: Производительность KVM на LVM
ссори отправил в личку( 01.03.2012, 11:59, "Mikhail A Antonov" : > 01.03.2012 11:37, Alexander пишет: >> еще вопрос - я так понимаю при копировании через dd lvm-тома размером >> 300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы >> получим файл-образ размером 300гб?... я так понимаю это долгая и >> неэффективная процедура(( >> Это получается единственный вариант бэкапа системы целиком в случае >> использования lvm?.. или может еще есть какие то варианты? Мне еще приходит >> в голову только сжатие этого образа при копировании, что еще более увеличит >> время создания образа и непонятно насколько уменьшит его размер( >> Если так, то получается бэкап акронисом (в случае windows-систем) >> эффективнее гораздо... :( > # делаем снапшот > lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data > # достаём раздел > kpartx -a /dev/mapper/vg0-win2k3dataBACKUP > # потом монтируем > mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g > > Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск > можно раз в месяц и образом. > После того как бэкап закончился - снапшот не нужен больше. > > # отмонтируем что бэкапили > umount /mnt/win2k3data > /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP > /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP > > -- > Best regards, > Mikhail. > - > XMPP: ant...@stopicq.ru > WWW: http://www.antmix.pp.ru/ о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все файлы на винт и через восстановление системы восстановить загрузчик винды - в итоге имеем практически образ системы - так ведь? Завершение пересылаемого сообщения -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/348331330589...@web36.yandex.ru
Re: Производительность KVM на LVM
01.03.2012, 11:46, "Stanislav Vlasov" : > 1 марта 2012 г. 13:37 пользователь Alexander написал: > >>> Делать снапшот и потом копировать. >>> dd if=/dev/VG/LVM-snap of=/mnt/backup/virt-`date +%F`.img >>> Остальные опции по вкусу. >>> >>> Размер снапшота зависит от того, сколько данных понапишет виртуалка, >>> пока ты его копируешь. Но бекапы так не делаются, ибо при накрывании >>> системы медным тазом фиг чего восстановишь обычно. Бекапы делаются >>> через копирование снапшота в другое место. >>> >>> Остановить виртуалку и записать в lvm-том старое содержимое >>> практически также, как копировал его. >> т.е. опять через dd влить напрямую в lvm-том? > > Да. > >> еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб >> (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы >> получим файл-образ размером 300гб?... я так понимаю это долгая и >> неэффективная процедура(( > > Ну... Сжимать по дороге. Можно с малой степенью сжатия. > Собственно, так и делал - dd if=... | gzip | ssh user@backup "cat >dd.img.gz" спасибо за то, что делитесь опытом > >> Это получается единственный вариант бэкапа системы целиком в случае >> использования lvm?.. или может еще есть какие то варианты? Мне еще приходит >> в голову только сжатие этого образа при копировании, что еще более увеличит >> время создания образа и непонятно насколько уменьшит его размер( > > Если сжимается хорошо, то в разы быстрее, чем передавать его полностью. > Правда, при большой степени сжатия в опциях архиватора может упереться > в процессор и тогда не факт, что быстрее. > Особенно, если сеть гигабитная и выше. > >> Если так, то получается бэкап акронисом (в случае windows-систем) >> эффективнее гораздо... :( > > Естественно. Но его нельзя проводить, когда виртуалки в работе. > Тут время простоя - выкл/вкл фактически, в отличие от. > Разве что отдавать снапшот виртуалке с акронисом и дальше уже им делать. а вот это кстати мысль! использовать дополнительную виртуалку без системы установленной вообще, в которой подключен один винт (на него будет писать образ акронис), а вторым винтом подключать сделанный снапшот (так точно можно? ведь снапшот read-only??), в качестве виртуального CD воткнуть исошку с акронисом и... profit?.. >>> Во-первых, для _бекапов_ достаточно одного снапшота на время бекапа. >>> Во-вторых, как-то проверял - скорость при одном снапшоте и при >>> нескольких одинакова. >> а без снапшотов вообще и с одним снапшотом? на XGU именно такой тест был - >> скорость отличается в разы :( > > Собственно так и есть. Потому снапшоты - только для бекапов. > На вмвари, при полностью выделяемых дисках - аналогично. печально :( zfs в этом смысле рулит, в ней еще и снапшоты можно маунтить в режиме записи -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/342701330588...@web36.yandex.ru
Re: Производительность KVM на LVM
01.03.2012 11:37, Alexander пишет: > еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб > (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим > файл-образ размером 300гб?... я так понимаю это долгая и неэффективная > процедура(( > Это получается единственный вариант бэкапа системы целиком в случае > использования lvm?.. или может еще есть какие то варианты? Мне еще приходит в > голову только сжатие этого образа при копировании, что еще более увеличит > время создания образа и непонятно насколько уменьшит его размер( > Если так, то получается бэкап акронисом (в случае windows-систем) эффективнее > гораздо... :( # делаем снапшот lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data # достаём раздел kpartx -a /dev/mapper/vg0-win2k3dataBACKUP # потом монтируем mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск можно раз в месяц и образом. После того как бэкап закончился - снапшот не нужен больше. # отмонтируем что бэкапили umount /mnt/win2k3data /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP -- Best regards, Mikhail. - XMPP: ant...@stopicq.ru WWW: http://www.antmix.pp.ru/ signature.asc Description: OpenPGP digital signature
Re: Производительность KVM на LVM
01.03.2012 11:37, Alexander пишет: > еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб > (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим > файл-образ размером 300гб?... я так понимаю это долгая и неэффективная > процедура(( > Это получается единственный вариант бэкапа системы целиком в случае > использования lvm?.. или может еще есть какие то варианты? Мне еще приходит в > голову только сжатие этого образа при копировании, что еще более увеличит > время создания образа и непонятно насколько уменьшит его размер( > Если так, то получается бэкап акронисом (в случае windows-систем) эффективнее > гораздо... :( # делаем снапшот lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data # достаём раздел kpartx -a /dev/mapper/vg0-win2k3dataBACKUP # потом монтируем mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск можно раз в месяц и образом, но я не делаю - -- Best regards, Mikhail. - XMPP: ant...@stopicq.ru WWW: http://www.antmix.pp.ru/ signature.asc Description: OpenPGP digital signature
Re: Производительность KVM на LVM
1 марта 2012 г. 13:37 пользователь Alexander написал: >> Делать снапшот и потом копировать. >> dd if=/dev/VG/LVM-snap of=/mnt/backup/virt-`date +%F`.img >> Остальные опции по вкусу. >> >> Размер снапшота зависит от того, сколько данных понапишет виртуалка, >> пока ты его копируешь. Но бекапы так не делаются, ибо при накрывании >> системы медным тазом фиг чего восстановишь обычно. Бекапы делаются >> через копирование снапшота в другое место. >> >> Остановить виртуалку и записать в lvm-том старое содержимое >> практически также, как копировал его. >> > т.е. опять через dd влить напрямую в lvm-том? Да. > еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб > (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим > файл-образ размером 300гб?... я так понимаю это долгая и неэффективная > процедура(( Ну... Сжимать по дороге. Можно с малой степенью сжатия. Собственно, так и делал - dd if=... | gzip | ssh user@backup "cat >dd.img.gz" > Это получается единственный вариант бэкапа системы целиком в случае > использования lvm?.. или может еще есть какие то варианты? Мне еще приходит в > голову только сжатие этого образа при копировании, что еще более увеличит > время создания образа и непонятно насколько уменьшит его размер( Если сжимается хорошо, то в разы быстрее, чем передавать его полностью. Правда, при большой степени сжатия в опциях архиватора может упереться в процессор и тогда не факт, что быстрее. Особенно, если сеть гигабитная и выше. > Если так, то получается бэкап акронисом (в случае windows-систем) эффективнее > гораздо... :( Естественно. Но его нельзя проводить, когда виртуалки в работе. Тут время простоя - выкл/вкл фактически, в отличие от. Разве что отдавать снапшот виртуалке с акронисом и дальше уже им делать. >> >> Во-первых, для _бекапов_ достаточно одного снапшота на время бекапа. >> Во-вторых, как-то проверял - скорость при одном снапшоте и при >> нескольких одинакова. >> > а без снапшотов вообще и с одним снапшотом? на XGU именно такой тест был - > скорость отличается в разы :( Собственно так и есть. Потому снапшоты - только для бекапов. На вмвари, при полностью выделяемых дисках - аналогично. -- Stanislav