несколько провайдеров, локальная сеть и доступ к веб сайту из Интернет
Подскажите пожалуйста как быть. С несколькими провайдерами еще не разу не сталкивался. Суть проблемы гораздо шире. Но я на примере попытаюсь спросить конкретную вещь. Предположим есть сервер, к которому подключены несколько провайдеров. Назовем их интерфейсы ppp50 и ppp60. За сервером ЛВС, которой нужен доступ в Интернет только через одного провайдера. Я переключаю шлюз по умолчанию на этом сервере и клиенты соответственно выходят в сеть через разных провайдеров. С доступом в Интернет у клиентов ЛВС проблем нет: Эти два правила для маршрута по умолчанию решают все мои проблемы, но только для провайдера по умолчанию: iptables -t nat -A POSTROUTING -o $INETNAME -j MASQUERADE iptables -I FORWARD -p tcp --tcp-flags SYN,RST SYN -j TCPMSS --clamp-mss-to-pmtu Т.е. INETNAME=pppX, где pppX - интерфейс из таблицы маршрутов. ip route default via 75.78.55.56 dev pppX ... Но я не понимаю, что я должен сделать, чтобы работающий на сервере сайт был доступен из Интернет через всех подключенных провайдеров. Причем iptables здесь не причем, в том смысле что все разрешающие правила у меня прописаны для всех внешних интерфейсов. Я понимаю что дело в маршрутизации или NAT, но не более того. Причину проблемы я не понимаю. Спасибо. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/218831388080...@web14g.yandex.ru
debian + lamp для заказчика - как лучше сделать?
Есть человек, который хочет получить диск, установив с которого систему он бы получил нужное рабочее окружение(LAMP). В моём представлении это может выглядеть так: Человеку выдается инструкция: а. создайте виртуальную машину с двумя дисками, один системный, второй для данных б. вставьте диск с custom debian, система установится автоматически. В связи с чем возникают следующие вопросы: 1. Как создать custom debian cd с preseed файлом ответов, который бы автоматически подхватывался инсталятором и лежал бы на самом iso-ке 2. Где он должен лежать на iso чтобы инсталятор сам его нашёл или он(d-i) так не умеет(dhcp(не вариант), init.rd - не самый простой вариант, хотя на без рыбье и рак рыба)? 3. Как заранее правильно сохранить определенные пакеты в кэше устанавливаемой системы, для последующей их установки с помощью отдельного сценария автономно без Интернет? 3.1. LAMP по идее всегда можно было поставить из-коробки. Но при начальной установке. А как при последующей быть? 4. Как добавить нужные мне пакеты которые понадобятся при preseed, но которых нет в default iso ? 5. Как этот самый сценарий(deploy.sh)(с custom debian iso) положить в систему (через preseed) можно. Хочется чтобы он выполнялся сразу после установки? 6. Чем можно автоматизировать сборку этого iso ? Смотрел https://wiki.debian.org/Simple-CDD, но он по всей видимости устарел. В идеале - файл манифест, который бы описывал все и вся. И одной командой делал бы iso. Может есть скрипты общепринятые для этого ? 7. Существуют ли онлайн системы для сборки таких custom образов ? За интересные ссылки с хорошими инструкциями буду благодарен. Спасибо. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/13091387821...@web13m.yandex.ru
после перезапуска lxc контейнера он не запускается, сервер перезапускал
Здравствуйте! После перезапуска lxc контейнера он не запускается, сервер пере запускал. Скажу честно на этом сервере установлен не debian. Используется ubuntu server 12.04 Но все же может кто нибудь подскажет куда копать, если это не противоречит правилам рассылки ? Вот кусок лога tail -f /var/log/lxc/redmine.log lxc-start 1380778101.754 ERRORlxc_conf - failed to setup the console for 'redmine' lxc-start 1380778101.754 ERRORlxc_start - failed to setup the container lxc-start 1380778101.755 ERRORlxc_sync - invalid sequence number 1. expected 2 lxc-start 1380778101.790 ERRORlxc_start - failed to spawn 'redmine' lxc-start 1380778107.825 ERRORlxc_conf - Read-only file system - error unlinking /usr/lib/x86_64-linux-gnu/lxc/dev/console Система обновленная. Куда копать ? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/176301380782...@web5g.yandex.ru
Re: после перезапуска lxc контейнера он не запускается, сервер перезапускал
lxc-start 1380778107.825 ERROR lxc_conf - Read-only file system - error Написано ж на чистом English: файловая система только для чтения... в том то все и дело, что ФС в rw mode я имею в виду rootfs контейнера, она монтируется в fstab на сервере. надо копать глубже ) щас попробую обновить lxc p.s. по поводу ubuntu-я думаю торг здесь не уместен ))... хорош влево-вправо, only Debian-way! это не мой сервер ) на моих серверах only debian -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/26151380789...@web26j.yandex.ru
помогите настроить X на домашнем сервере
Я если четно дуб-дубом в X-ах Вообще тема эта для меня темная. Предистория: Стоит sid, я делаю dist-upgrade с целью тестирования новых libvirt, qemu. Очень уж нравиться мне эта система виртуализации. По началу апгрейдил до сида только нужные пакеты, после стал апгрейдить все пакеты и ни чего так жилось. Очень хотелось мне настроить проброс видеокарты 5450 в гостя с Windows. Уже почти пришел - купил памяти, i3 с поддержкой всего необходимого и оказалось что в матери не реализованы DMAR таблицы без которых ни чего не заведется. Вообщем оставил я эту эпопею до лучших времен. Но тут на днях позволил себе два новых диска в рейд и решил перенести без иксовый сервер под телевизор, ну чтоб зря в кладовке не пылился. Поставил назад 5450, установил kde-full и тишина. Вообщем с fglrx грузится но разрешение экрана в консоли минимальное. С Radeon разрешение в порядке. Ни как не получается завести X через kdm или lightdm Получаю черный экран с курсором в высоком разрешении при запуске lightdm в 7-ой консоли. Кстати в ps видно что X стартовал, но по факту толку от этого никакого. При запуске kdm нуглухо виснет север. В BIOS я сейчас остановился на PEG/IGD для параметра инициализации адаптера. Насколько я понимаю только того который стоит в PCI Express 16x Насколько я понял современный Xorg не нужно в ручную конфигурировать, Она при старте делает Xorg -configure и далее все по накатанной грузит. Вроде как есть скрипты /usr/share/.../xorg.conf.d - но там что то совсем не густо по моим меркам, только правила для систем ввода/вывода. Вообщем то я в этом вопросе дилетант. Подскажите пожалуйста куда копать, что делать? Как например после всех экспериментов избавиться от графических пакетов, может есть рецепты на этот случай. Ну чтобы откатиться как говориться - всегда интересно было как графику выпилять простым способом (если сущ-ет)? Вообщем подскажите пожалуйста как готовить. Готов предоставить необходимую информацию. Вот лог Xorg -configure, насколько я понял надо отталкиваться от него. Хотя кто знает ? root@mars:~# Xorg -configure X.Org X Server 1.12.4 Release Date: 2012-08-27 X Protocol Version 11, Revision 0 Build Operating System: Linux 3.2.0-4-amd64 x86_64 Debian Current Operating System: Linux mars 3.10-2-amd64 #1 SMP Debian 3.10.7-1 (2013-08-17) x86_64 Kernel command line: BOOT_IMAGE=/vmlinuz-3.10-2-amd64 root=/dev/mapper/raid1-rootfs ro quiet Build Date: 29 August 2013 11:20:48AM xorg-server 2:1.12.4-6.2+b2 (amd64 Build Daemon (brahms) buildd_amd64-bra...@buildd.debian.org) Current version of pixman: 0.30.2 Before reporting problems, check http://wiki.x.org to make sure that you have the latest version. Markers: (--) probed, (**) from config file, (==) default setting, (++) from command line, (!!) notice, (II) informational, (WW) warning, (EE) error, (NI) not implemented, (??) unknown. (==) Log file: /var/log/Xorg.0.log, Time: Mon Sep 9 22:22:42 2013 List of video drivers: radeon savage openchrome s3virge i128 rendition ark apm tdfx ati sis vmware siliconmotion sisusb intel chips mga cirrus voodoo neomagic s3 trident mach64 nouveau tseng r128 fbdev vesa (++) Using config file: /root/xorg.conf.new (==) Using system config directory /usr/share/X11/xorg.conf.d (II) [KMS] No DRICreatePCIBusID symbol, no kernel modesetting. Number of created screens does not match number of detected devices. Configuration failed. Server terminated with error (2). Closing log file. Есть еще вопрос как соотносятся дрова X-сервер с дровами из lspci -k ? Огромное спасибо всем откликнувшимся. Владимир Скубриев. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/2431378752...@web20h.yandex.ru
Re: блокирование dhcp серверов из сети провайдера
11.03.2013, 22:33, Mikhail A Antonov b...@solarnet.ru: 1. ppp не использует dhcp. Там ppp-сервер выдаёт адреса. да действительно вы правы. это очень хорошо 2. бродкасты (коими являются dhcp-запросы) не маршрутизируются. остается подозревать бриджы по идее Единственный вариант - бриджевание интерфейсов. ну поидее да Через eth1 у тебя идёт только ppp до сервера? Я надеюсь у тебя там нет бриджа с eth0? точно сказать не могу, могу показать выводы dhcp-сервер у тебя точно _сервер_? Нет ли там dhcp-relay? ничего подозрительного в dhcpd.conf нету, на предмет dhcpd relay искал - ни чего не нашел /home/srvadm/sbin# aptitude show dhcp3-relay Package: dhcp3-relay New: yes State: not installed кстати я отключал dhcpd - никакого эффекта, так что скорее дело не в нем Покажи: iptables-save (если там реально дофига - можешь в gz пожать) ip a l 1: lo: LOOPBACK,UP,LOWER_UP mtu 16436 qdisc noqueue state UNKNOWN link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: BROADCAST,MULTICAST,UP,LOWER_UP mtu 1500 qdisc pfifo_fast state UNKNOWN qlen 1000 link/ether f4:6d:04:3c:72:90 brd ff:ff:ff:ff:ff:ff inet 192.168.0.5/24 brd 192.168.0.255 scope global eth0 inet6 fe80::f66d:4ff:fe3c:7290/64 scope link valid_lft forever preferred_lft forever 3: eth1: BROADCAST,MULTICAST,UP,LOWER_UP mtu 1500 qdisc pfifo_fast state UNKNOWN qlen 1000 link/ether 00:21:91:ef:88:cf brd ff:ff:ff:ff:ff:ff inet6 fe80::221:91ff:feef:88cf/64 scope link valid_lft forever preferred_lft forever 5: virbr0: BROADCAST,MULTICAST,UP,LOWER_UP mtu 1500 qdisc noqueue state UNKNOWN link/ether 8a:60:9e:c5:49:a8 brd ff:ff:ff:ff:ff:ff inet 192.168.122.1/24 brd 192.168.122.255 scope global virbr0 inet6 fe80::8860:9eff:fec5:49a8/64 scope link valid_lft forever preferred_lft forever 7: tap1: BROADCAST,MULTICAST,UP,LOWER_UP mtu 1500 qdisc pfifo_fast state UNKNOWN qlen 100 link/ether 7a:e0:3a:35:0e:3d brd ff:ff:ff:ff:ff:ff inet 192.168.160.1/24 brd 192.168.160.255 scope global tap1 inet6 fe80::78e0:3aff:fe35:e3d/64 scope link valid_lft forever preferred_lft forever 8: tap0: BROADCAST,MULTICAST,UP,LOWER_UP mtu 1500 qdisc pfifo_fast state UNKNOWN qlen 100 link/ether a6:49:f5:91:d2:91 brd ff:ff:ff:ff:ff:ff inet 10.202.1.141/20 brd 10.202.15.255 scope global tap0 inet6 fe80::a449:f5ff:fe91:d291/64 scope link valid_lft forever preferred_lft forever 1066: ppp0: POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP mtu 1492 qdisc pfifo_fast state UNKNOWN qlen 3 link/ppp inet 85.52.196.228 peer 80.68.8.17/32 scope global ppp0 brctl show /home/srvadm/sbin# brctl show bridge name bridge id STP enabled interfaces virbr0 8000. yes с мостами тоже как то все грусто, по крайней мере рабочих в данной конфигурации нет, точнее он есть один, но без интерфейсов. спасибо за помощь и намеки, но в связи с выводов brctl куда копать ? -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/555021363067...@web15f.yandex.ru
Re: ванильные ядра 3.7.х и kvm (на debian testing)
03.03.2013 15:03, -=Devil_InSide=- пишет: соберу 3.8, погляжу. ) -=-=-=- .config - Linux/i386 3.8.1 Kernel Configuration +--- Virtualization | | | --- Virtualization | | M Host kernel accelerator for virtio net (EXPERIMENTAL) | | Linux hypervisor example code -=-=-=- смешно ) вот это да - надо будет учесть сей момент! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51342e21.1050...@skubriev.ru
Re: принудительная проверка некорневых разделов по старту системы
20.02.2013 9:51, Andrey Nikitin пишет: Привет. * D6, * раздел xfs, * монтируется через fstab. Есть ли штатный способ или придётся удалять из fstab и монтировать вручную(rc.local, например)? Есть еще такой файл /etc/default/rcS FSCKFIX=yes Тоже нужный параметр. Я его использую, там, где необходимо чтобы сервер запустился - и не важно на небольшой процент потерянных данных в случае проблем с ФС. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51246cd0.2070...@skubriev.ru
Re: samba create umask directory umask как правильно вычислить
13.02.2013 3:54, Andrey Rahmatullin пишет: On Wed, Feb 13, 2013 at 12:25:46AM +0400, Artem Chuprina wrote: В самбе почему-то (вернее, это не в самбе почему-то, это в umask почему-то не так) AR Вернее, это в самбе в параметрах umask почему-то не так. Да? В смысле, я считаю, что у umask контринтуитивный интерфейс. А так да, у самбы логика прямая (что поставим), а не обратная (что снимем), как у umask. А, понял. Спасибо всем - странно что я не додумался сам. Просто меня это слово mask сбило с ног. Ни как не мог понять ну как же она получается ))) Странно, что до сих пор параметр называется mask а не rigths ) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/511b1cff.3090...@skubriev.ru
одна мышь и одна клавиатура для хоста и гостя kvm
Хочу собрать медиацентр на базе debian + xbmc под телевизор. Основной будет debian. Одним из гостей будет Windows с проброшенной в него видеокартой с hdmi выходом. Windows нужен чтобы играть в игры с джойстиком на телевизоре. Проброс видеокарты нужен, чтобы использовать всего один компьютер. Очень сложно сейчас представить будет ли это работать - ведь планируется в том числе играть на высоком разрешении пусть и в простые игры. Как можно обойтись только одной клавиатурой и мышью для управления и основной ОС и Гостем Windows? Одно из решений которое я себе представляю: 1. Выводить экран гостевой машины на виртуальную консоль linux (например tty2) Будет ли передаваться звук через HDMI из гостевой машины? Как это реализовать ? (Если можно вкратце что с чем связать) Я конечно понимаю, что местами планируемое решение огород еще тот. Но у меня есть оправдания: 1. Я люблю огороды ) 2. Очень интересно как оно будет работать. 3. Данное решение - практично и независимо (т.к. используется linux) 4. Можно сэкономить на железе, электричестве, шуме 5. Можно использовать данный компьютер для рабочей виртуальной машины, в которой сосредоточить все свои наработки и рабочие программы Плюсов много. Но есть также как минимум один минус: Всеобщая сложность. Хотел бы услышать ваше мнение ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/510919b4.4060...@skubriev.ru
Re: одна мышь и одна клавиатура для хоста и гостя kvm
30.01.2013 17:18, Dmitry Nezhevenko пишет: On Wed, Jan 30, 2013 at 05:01:40PM +0400, Скубриев Владимир wrote: Хочу собрать медиацентр на базе debian + xbmc под телевизор. Основной будет debian. Одним из гостей будет Windows с проброшенной в него видеокартой с hdmi выходом. Windows нужен чтобы играть в игры с джойстиком на телевизоре. Проброс видеокарты нужен, чтобы использовать всего один компьютер. Очень сложно сейчас представить будет ли это работать - ведь планируется в том числе играть на высоком разрешении пусть и в простые игры. Как можно обойтись только одной клавиатурой и мышью для управления и основной ОС и Гостем Windows? А как планируется обходиться одной видеокартой? Еще будет использоваться встроенная в процессор видеокарты, т.е. она будет отдана основной системе. А внешняя в PCI-E будет отдана гостю Windows. Будет ли передаваться звук через HDMI из гостевой машины? Как это реализовать ? (Если можно вкратце что с чем связать) Если будет проброшена видеокарта то будет. В Xen во всяком случае работает. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5109fac9.3020...@skubriev.ru
Re: Поломался LVM на гостевой системе
22.01.2013 10:13, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: День добрый. Была машинка в формате qcow (внутри debian с LVM). Крутилась на сквизи с kvm. В процессе было необходимо сделать копию qcow файла (реальный размер 200Гб). Копирование производилось на программный iscsi (была точка монтирования). Все удачно скопировалось, однако, в процессе оказалось, что файл побился. Машина не грузится, ругается, что не может примонтировать root и swap. Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm внутри, но ничего не получилось. Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные? Я бы сделал так. 1. Проверил выключена ли виртуальная машина 2. Установил бы kpartx (aptitude install kpartx) 3. Просканировал бы таблицу разделов (MBR) образа (блочного девайса) kpartx -l /путь/к/образу 4. Представил бы их системе kpartx -av /путь/к/образу 5. Проверил бы что вышло: ls -l /dev/mapper/имя_образа/ 6. Можно еще проверить что изменилось в blkid - показывает только обычные файловые системы на обычных разделах, т.е. то что найдет в MBR LVM тома естественно не покажет, будет выдано предупреждение /dev/mapper/bigraid-bacula5: UUID=njCvkV-CumA-gNnF-gzDd-jOFH-ILfS-LijXjg*TYPE=LVM2_member* Например: root@vsp:~# kpartx -av /dev/mapper/bigraid-bacula add map bigraid-bacula1 (253:14): 0 497664 linear /dev/mapper/bigraid-bacula 2048 add map bigraid-bacula2 (253:15): 0 13832194 linear /dev/mapper/bigraid-bacula 501758 add map bigraid-bacula5 : 0 13832192 linear 253:15 2 А вот теперь можно глянуть что из физических томов LVM найдется: root@vsp:~# pvdisplay Нашлась еще одна pv, такая: --- Physical volume --- PV Name /dev/dm-16 VG Name bacula PV Size 6,60 GiB / not usable 2,00 MiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 1688 Free PE 0 Allocated PE 1688 PV UUID njCvkV-CumA-gNnF-gzDd-jOFH-ILfS-LijXjg Далее сканируем физические тома root@vsp:~# pvs PV VG Fmt Attr PSize PFree /dev/dm-16 bacula lvm2 a- 6,59g 0 /dev/md0 bigraid lvm2 a- 149,05g 22,21g /dev/sda3 salt191 lvm2 a- 178,39g 113,39g Видим, что в хостовой системе появился новый lvm2 member - /dev/dm-16 Теперь можем пере сканировать логические тома: root@vsp:~# lvs У меня добавились логические тома из гостя, вот они сверху: root@vsp:~# lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert homebacula -wi--- 2,29g rootbacula -wi--- 332,00m swap_1 bacula -wi--- 380,00m tmp bacula -wi--- 192,00m usr bacula -wi--- 2,29g var bacula -wi--- 1,13g bacula bigraid -wi-ao 6,84g glavbuh-old bigraid -wi-ao 15,00g kontur bigraid -wi-ao 9,77g monitor bigraid -wi-a- 14,65g rootbigraid -wi-ao 14,90g russlavbank bigraid -wi-ao 9,77g spicetest bigraid -wi-a- 9,77g tcbuh-old bigraid -wi-ao 11,00g tcscworkbigraid -wi-ao 19,53g tmp bigraid -wi-a- 4,00m unlim bigraid -wi-ao 9,77g unlim-hdb bigraid -wi-ao 5,86g isossalt191 -wi-ao 15,00g salt50 salt191 -wi-ao 50,00g Далее необходимо пересканировать логические тома: root@vsp:~# vgchange -ay И вот теперь с легкостью можно увидеть, смонтировать, проверить и т.д. файловые системы гостя. root@vsp:~# blkid 6. Далее Я бы Попробывал сделать fsck /dev/mapper/мойЛВМтомИЗгостевогоОБРАЗА. fsck по умолчанию не делает изменений в ФС, а только проверяет что с ней Если все нормально, можно монтировать и копировать данные. Желательно монтировать тома в режиме ro Т.е. так mount -o ro /dev/mapper/bigraid-bacula5 /mnt/bacula5 Надеюсь, что эта информация окажется для Вас полезной. Я бы сделал так, а далее бы уже думал. Пишите - что получится очень интересно. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe6d91.5010...@skubriev.ru
Re: Поломался LVM на гостевой системе
22.01.2013 15:19, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: 22.01.2013 14:44, Скубриев Владимир пишет: Я бы сделал так. Спасибо за отклик. Только я не понял как натравить для kpartx qcow образ. Он у меня просто ничего не выводил. Видимо такое только для raw возможно. Согласен, но я надеялся что вы в курсе про гугл google.ru - kpartx qcow первый же результат ))) и у вас появится диск nbd0 он и будет ваш образ Прицепил qcow к другому гостю и сделал: 1) root@webserver-test01:/home/stas# kpartx -av /dev/vdb add map vdb1 (253:0): 0 209716416 linear /dev/vdb 251656272 add map vdb2 (253:1): 0 20971440 linear /dev/vdb 461372688 2) root@webserver-test01:/home/stas# ls -l /dev/mapper/ control vdb1 vdb2 3) root@webserver-test01:/home/stas# blkid skipped /dev/vdb1: UUID=3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2 TYPE=LVM2_member /dev/vdb2: UUID=uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2 TYPE=LVM2_member /dev/mapper/vdb1: UUID=3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2 TYPE=LVM2_member /dev/mapper/vdb2: UUID=uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2 TYPE=LVM2_member получается у вас два физических тома pv на том диске, первый в первом разделе, второй во втором - поидее. 4) root@webserver-test01:/home/stas# pvdisplay root@webserver-test01:/home/stas# pvdisplay Couldn't find device with uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf. --- Physical volume --- PV Name unknown device VG Name mailserver PV Size 119,76 GiB / not usable 2,00 MiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 30658 Free PE 0 Allocated PE 30658 PV UUID In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf --- Physical volume --- PV Name /dev/dm-0 VG Name mailserver PV Size 100,00 GiB / not usable 608,00 KiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 25600 Free PE 0 Allocated PE 25600 PV UUID 3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2 Как дальше быть? --- Physical volume --- PV Name /dev/dm-1 VG Name mailserver PV Size 10,00 GiB / not usable 3,96 MiB Allocatable yes PE Size 4,00 MiB Total PE 2559 Free PE 1 Allocated PE 2558 PV UUID uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2 странно, что у вас один из трех разделов потерялся куда он собака мог деться - вот вопрос в чем где по вашему должен быть раздел с uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf и типом LVM2_member как вообще был разбит диск виртуальной машины и почему такие разные по размеру физические тома входят в одну группу VGmailserver не совсем понятно как и что у вас работало. осмелюсь предположить: вам не хватало места и вы просто расширяли группу томов за счет других(тогда куда они делись)? сделайте pvs, vgs, vgdisplay, lvs и покажите вывод еще нужно наверное понимать что было в MBR виртуального диска и что там на данный момент modprobe nbd max_part=63 qemu-nbd -c /dev/nbd0 image.img далее покажите fdisk -l /dev/nbd0 только сделайте перед этим kpartx -d /dev/vdb на всякий случай. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe8083.2090...@skubriev.ru
Re: Уменьшить qcow2
18.01.2013 8:54, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: День добрый. Есть гостевая система с прицепленным диском в формате qcow2. Сейчас реальный размер файла qcow около 200Гб. Как его (файл qcow) правильно сжать/уменьшить после удаления данных на гостевой системе не меняя при этом доступное пространство в самой гостевой системе? Заранее спасибо. man qemu-img почитайте пока ни кто более точного ответа не дал. или вы знаете об этой утилите ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50f8dcc5.8050...@skubriev.ru
Re: Уменьшить qcow2
18.01.2013 9:52, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: 18.01.2013 9:25, Скубриев Владимир пишет: man qemu-img почитайте пока ни кто более точного ответа не дал. или вы знаете об этой утилите ? Не очень понял. Вы намекаете на commit? нет не на коммит. я вообще показал куда смотреть. ну если по точнее, то необходим вам resize только учтите, что сначала надо, уменьшить разделы и файловые системы расположенные на виртуальном диске, а уже после приступать к операции resize методами qemu-img. т.е. например внутри линукс: 1. уменьшаете файловые системы resize2fs 2. уменьшаете разделы, соответствующие этим уменьшенным файловым системам 3. уменьшаете размер виртуального диска qemu-img resize или 1 и 2 пункты можно заменить программами parted, gparted, acronis и т.д. если внутри windows vista и выше: 1. уменьшаете файловые системы diskpart 2. уменьшаете размер виртуального диска qemu-img resize т.к. поидее diskpart сразу уменьшает размер раздела - хотя это желательно перепроверить. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50f8e9dc.8090...@skubriev.ru
Re: Уменьшить qcow2
18.01.2013 11:24, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: 18.01.2013 10:48, Stanislav Vlasov пишет: Хм... А откуда виртуалка снаружи узнает, что файлы, записанные изнутри - удалены? По-хорошему надо а) заполнить свободное место нулями, б) воспользоваться qemu-img convert для того, чтоб превратить нули в дырки. Т.е., как я понял, прокатит следующий порядок действий: 1) Конвертирование исходного qcow в raw 2) Конвертирование raw в qcow ? да это прокатит, но нужно много свободного места -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50f8fb1b.70...@skubriev.ru
Re: восстановление загрузки системы
11.01.2013 13:03, Sohin Vyacheslaw пишет: День добрый, по ошибке при обновлении ядра удалил 2 ядра-предыдущее и текущее, теперь не грузится система (wheezy)- соообщение ошибка: file not found ошибка: you need to load kernel first. Можно ли теперь исправить положения загрузившись с debian-livecd, rescue или еще как-то? -- BW, Сохин Вячеслав конечно можно по идее можно загрузится с livecd далее сделать chroot в корень сломаной системы и с настроенным интернетом переустановить ядра через команду aptitude reinstall linux-image-2.6.32-5-amd64 и т.д. я бы попробовал именно так для начала. хотя могут существовать способы короче и/или правильнее. если точка монтирования умершей системы была вынесена на отдельную файловую систему от той в которой стоял корень / то необходимо будет еще смонтировать в /boot файловую систему с содержанием boot вообщем дальнейшие инструкции думаю можно будет давать, когда опишите ситуацию подробнее. что и как стояло (mdadm,lvm,fstab,blkid) если сами конечно не разберетесь -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50efd951.6050...@skubriev.ru
Re: МФУ от HP
27.12.2012 19:50, Руслан Зиганшин пишет: Отца привлекла цена рассрочки на МФУ HP Deskjet 2050A (CQ199C), которая составляет 90 рублей в месяц в местном магазине. Мне же не нравится, что на сайте HP нет linux-драйвера под этот принтер (есть под HP Deskjet 2050), и что сайт местного магазина не работает. А также цена на картриджи (в других магазинах) - продолжать ксерокопировать документы и печатать лабы в соседнем магазине выходит примерно столько же по стоимости, или даже дешевле. А ваше мнение? удастся ли его хотя бы завести под Debian Wheezy? я купил и использую сетевой hp 1214nf для дома очень подходит, при небольших объемах печати (1000-1500 страниц одна заправка) стартового картриджа хватило на 500 страниц, потом сразу заправил его вот слова о поддержке это принтера: http://hplipopensource.com/hplip-web/models/laserjet/hp_laserjet_professional_m1214nfh_mfp.html думаю стоит обратить внимание именно на него, т.к. если не хотите проблем в Linux то лучше брать HP по крайней мере для дома (в данном ценовом сегменте) на мой взгляд HP очень хорошо поддерживается в Linux, да за исключением некоторых уж совсем бытовых моделей, как та про которую вы спросили. опять же струйник - печать дороговата, поэтому в сад его. и еще: я бы брал только сетевой - универсальность во всем! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50dd2bf4.8080...@skubriev.ru
сетевая карта tp-link tf-3200 и проблемы с производительностью
Перед установкой сетевой карты tp-link tf-3200: В машине использовалась встроенная сеть. Она до определенной поры работала нормально. Вскоре машина стала пропадать из сети. Т.е. сеть на ней пропадала. Помогал только сценарий /etc/init.d/networking restart и то только на некоторое время(1-2 часа - когда как). И не всегда. Что происходило на самом деле на машине я не выяснял тогда - просто нет навыка. Решил поменять сетевую карту. И купил туда tp-link tf-3200 Сейчас обнаружил, что копирование файлов по сети с этой машины/на неё через smb, sftp очень низкая примерно 1700 КБайт/сек. Проверил поверхность винтов - там все отлично. Копирование локально тоже идет на ура - скорость высокая. Соединяет две машины ту на которой установлена новая карта и та с которой я проверял обычный 5 портовый коммутатор. Еще я заметил подозрительную активность в сообщениях ядра: [Срд Ноя 7 16:48:55 2012] eth0: Link down [Срд Ноя 7 16:48:55 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 16:48:56 2012] eth0: Link up [Срд Ноя 7 16:48:57 2012] eth0: Link changed: 100Mbps, full duplex [Срд Ноя 7 16:48:57 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 16:48:57 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 16:56:22 2012] eth0: Link down [Срд Ноя 7 16:56:22 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 16:56:24 2012] eth0: Link up [Срд Ноя 7 16:56:24 2012] eth0: Link changed: 100Mbps, full duplex [Срд Ноя 7 16:56:24 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 16:56:24 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 17:20:54 2012] eth0: Link down [Срд Ноя 7 17:20:54 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 17:20:55 2012] eth0: Link up [Срд Ноя 7 17:20:55 2012] eth0: Link changed: 100Mbps, full duplex [Срд Ноя 7 17:20:55 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 17:20:55 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 17:29:10 2012] eth0: Link down [Срд Ноя 7 17:29:10 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 17:30:02 2012] eth0: Link up [Срд Ноя 7 17:30:02 2012] eth0: Link changed: 100Mbps, full duplex [Срд Ноя 7 17:30:02 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 17:30:02 2012] br-eth0: port 1(eth0) entering forwarding state В чем может быть проблема ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/509a654d.4080...@skubriev.ru
Re: сетевая карта tp-link tf-3200 и проблемы с производительностью
07.11.2012 17:47, alex kuklin пишет: On 7.11.2012 15:42, Скубриев Владимир wrote: Перед установкой сетевой карты tp-link tf-3200: В машине использовалась встроенная сеть. Она до определенной поры работала нормально. Вскоре машина стала пропадать из сети. Т.е. сеть на ней пропадала. Помогал только сценарий /etc/init.d/networking restart и то только на некоторое время(1-2 часа - когда как). И не всегда. Что происходило на самом деле на машине я не выяснял тогда - просто нет навыка. Решил поменять сетевую карту. И купил туда tp-link tf-3200 Сейчас обнаружил, что копирование файлов по сети с этой машины/на неё через smb, sftp очень низкая примерно 1700 КБайт/сек. Проверил поверхность винтов - там все отлично. Копирование локально тоже идет на ура - скорость высокая. Соединяет две машины ту на которой установлена новая карта и та с которой я проверял обычный 5 портовый коммутатор. Еще я заметил подозрительную активность в сообщениях ядра: [Срд Ноя 7 16:48:55 2012] eth0: Link down [Срд Ноя 7 16:48:55 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 16:48:56 2012] eth0: Link up [Срд Ноя 7 16:48:57 2012] eth0: Link changed: 100Mbps, full duplex [Срд Ноя 7 16:48:57 2012] br-eth0: port 1(eth0) entering forwarding state [Срд Ноя 7 16:48:57 2012] br-eth0: port 1(eth0) entering forwarding state Переобожмите кабель и проверьте порт на свитче (переткните в другой). Кроме того, у меня - без диагностики с пропаданием линка - примерно такая картина на домашнем сервере с прямым патчем в роутер. Втыкание pci-сетевки и замена кабеля не помогли, буду списывать в утиль материнку скорее всего, т.к. диагностики вообще никакой нет. замена кабеля на заводской патчкорд и смена порта не помогает скорость по прежнему 1,6 Мб в сек -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/509a68d9.30...@skubriev.ru
Re: сетевая карта tp-link tf-3200 и проблемы с производительностью
07.11.2012 18:21, Mikhail A Antonov пишет: А зря. Посмотри dmesg, ethtool, tcpdump в момент отсутствия сети. gmesg | tail -n50 (покажет последние 50 сообщений от ядра) Если видны огрызки - посмотри -n100 ethtool eth0 (покажет состояние карты) ip a l (не пропал ли адрес с интерфейса) tcpdump -ni eth0 (если интерфейс поднят - посмотри что там с трафиком) спасибо, посмотрю Опять же покажи lspci и ethtool 03:05.0 Ethernet controller: Sundance Technology Inc / IC Plus Corp IC Plus IP100A Integrated 10/100 Ethernet MAC + PHY (rev 31 какая то совсем китайская )) Сейчас обнаружил, что копирование файлов по сети с этой машины/на неё через smb, sftp очень низкая примерно 1700 КБайт/сек. atop посмотри. Оно в покажет что как. Иногда там видны интересные затыки. Удобнее всего atop 3 (имхо) br? Мост? Мост кого с кем? Виртуалки там? Не с виртуалки ли качать пробуешь? Винда внутри? Встречался с тем, что надо внутри виртуалки с виндой отключать проверку чексумм и ещё всякой дребедени иначе скорость совсем низкая. да виртуалки используются, но в данном случае на хосте стоит самба и как раз она и проверялась. кстати виртуалки были выключены - так что повлиять на производительность не могли -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/509b4abd.2010...@skubriev.ru
Re: сетевая карта tp-link tf-3200 и проблемы с производительностью
08.11.2012 11:23, Mikhail A Antonov пишет: 08.11.2012 10:01, Скубриев Владимир пишет: Опять же покажи lspci и ethtool 03:05.0 Ethernet controller: Sundance Technology Inc / IC Plus Corp IC Plus IP100A Integrated 10/100 Ethernet MAC + PHY (rev 31 какая то совсем китайская )) Могу лишь посоветовать выкинуть и купить что-нибудь типа реалтека (обычно работает без жалоб) или интела (если финансы позволяют). так и сделаю ) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/509b60f2.7060...@skubriev.ru
Re: кто использует SPICE отзовитесь!
22.10.2012 13:17, Скубриев Владимир пишет: Настроил работу по протоколу SPICE Хост машина: Core i5 с debian sid и установленной libvirt-bin Гостевых машин две: 1. Windows XP SP3 + spice guest drivers 0.1 2. Windows 7 + all updates + spice guest drivers 0.1 В обоих машинах: а) добавлен channel spicevmc, для нормально работы с мышью б) в качестве видеоадаптера используется qxl в) в качестве удаленного экрана SPICE сервер г) системный диск на шине virtio с включенным кэшем все настроено поидее на максимальную производительность. с i/o проблем нет подключаюсь к виртуальной машине двумя способами: 1. через virt-viewer собранный под win32 версии 0.5.3 2. через локально открытый virt-manager на хосте. Проблемы такие в вне зависимости от того, как подключатся: 1. тормозит передвижение мыши. 2. тормозит видео в youtube Вопрос: О полноценном Virtual Desktop Infrastructure можно забыть ? В целом SPICE конечно работает - но до реального использования еще далеко ... А что скажете Вы? Это - http://www.spice-space.org/features.html Я читал. Но все же. Кто нибудь может сказать сколько примерно ждать future features ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50850fcd.7090...@skubriev.ru
Re: кто использует SPICE отзовитесь!
22.10.2012 13:38, Dmitry A. Zhiglov пишет: 22 октября 2012 г., 13:20 пользователь Скубриев Владимир vladi...@skubriev.ru написал: 22.10.2012 13:17, Скубриев Владимир пишет: В целом SPICE конечно работает - но до реального использования еще далеко ... А что скажете Вы? Это - http://www.spice-space.org/features.html Я читал. Но все же. Кто нибудь может сказать сколько примерно ждать future features ? С тех пор как впервые увидел работу spice и как далеко она продвинулась, можно предположить, что полная реализация желаемого займет еще несколько лет. Ну, допустим, реальная цифра начинается от 2-3 лет при тех же условиях, ресурсах и скорости разработки. очень жаль. ((( спасибо за ответ. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/508519c4.7050...@skubriev.ru
Re: Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0
22.10.2012 15:53, alexander пишет: Преведя) Вот ковыряюсь месятс, не могу пробросить PCI устройство в виртуальную машину(( хнюкся((. В grub'e ввожу в строку linux kernel.. intel_iommu=on вроде запускается intel_iommu. Еще ввожу на всяк случ pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM еррор Cannot connect to the monitor (( А в Xen еррор psi_stub no own pci device (01:00.0). Хнюкс( Чо за лажа?( Блин.. все перепробовал. Не переносится PCI устройство(. Чо делать, други мои?( Включайте мегамозг!! а-а-а! HELP! Чо за лажовые виртуальные машины? А в корпорации такая же лажовая виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!! Ты сам хоть понял что написал ))) Ты все таки в официальной рассылке находишься. Уважай её участников и себе самого. Пиши правильно. Уже не в первый раз за тобой замечаю такой странный стиль изложения. Поэтому делаю замечание. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50853572.1040...@skubriev.ru
Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.
Возник вопрос можно ли внедрить VDI не платя при этом за ПО. Организация 30 ПК. Предположим нужно перенести в VDI около 15 рабочих мест менеджеров по работе с клиентами (windows xp, 7), бухгалтеров, директоров и т.д. Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В зависимости от того, есть ли на данный момент возможность использования linux в качестве системы хоста. Насколько мне известно существуют как свободные и/или бесплатные так и платные решения. Из них: Свободные и/или бесплатные: 1. linux-kvm.org 2. xen.org 3. virtualbox.org остальные по идее платные: 1. Citrix XenDesktop, 3. Vmware View 3. Инфраструктура виртуальных настольных ПК Майкрософт 4. Oracle Virtual Desktop Infrastructure Конечно предпочтение я отдаю связке kvm+libvirt+debian+SPICE. Так как наиболее хорошо с ней знаком, оно opensource и уже используется мной на нескольких серверах. Но не для VDI. Поделитесь пожалуйста опытом использования свободных технологий для организации VDI. Особенно интересен KVM и SPICE. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/507e5266.6020...@skubriev.ru
Re: Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.
17.10.2012 10:47, Stanislav Vlasov пишет: 17 октября 2012 г., 12:38 пользователь Скубриев Владимир vladi...@skubriev.ru написал: Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В зависимости от того, есть ли на данный момент возможность использования linux в качестве системы хоста. VDI в смысле просто рабочая станция в виртуалке или таки полноценная VDI-инфраструктура с возможностью генерации рабочего места с нужной конфигурацией установленного софта без его повторной установки на новую виртуалку? VDI в смысле просто рабочая станция в виртуалке Желательно чтобы как можно больше аппаратного обеспечения можно было пробросить внутрь виртуальной машины. Например используются: кард-ридеры дисконтных магнитных карточек (serial), сканеры штрихкодов(usb, serial), принтеры (usb, serial), кассовые аппараты (serial) Свободные и/или бесплатные: 1. linux-kvm.org 2. xen.org 3. virtualbox.org К сожалению, не помню среди них ничего, что было больше, чем просто система виртуализации. А рабочие станции в виртуалках делались... В моём случае это был Xen + vnc для доступа к рабочему столу. Ну это уж слишком просто. У меня сейчас в виртуалках клиенты банков, электронная отчетность, работы со специфическим по и все по Rdp. Это прекрасно работает, спасибо opensource. А вот VDI, т.е. чтобы можно было заменить кассовый компьютер при сбое настроить пробросы и даже не лезть внутрь виртуальной машины - вот это мечта, ради которой и затевается переход на VDI. Хотя не только ради кассовых компьютеров, но все же. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/507e57db.8060...@skubriev.ru
как правильно использовать kernel samepage merging (KSM) и другие вопросы по использованию этой технологии в debian 6
В общем понадобилось добавить еще одну виртуальную машину, а памяти свободной почти не осталось на сервере. Вспомнил про технологию KSM. Заставить заработать её получилось. Так: echo 5000 /sys/kernel/mm/ksm/pages_to_scan echo 1 /sys/kernel/mm/ksm/run Освободил около 400 мегабайт на машине с 4 Гб ОЗУ, 3 запущенными windows xp + плюс еще 2 debian 6 установленных из netinst. 1. Насколько я понимаю - в моём случае это в принципе нормальный результат. Не так ли ? Сейчас свободно около 580 Мб ОЗУ. 2. Как лучше прописать эти команды а автозагрузку в debian ? в /etc/rc.local или как-то иначе ? 3. Нашел описание параметров из /sys/kernel/mm/ksm/* на ангельском. увы не до конца понимаю что они означают за не совсем хорошим знанием иностранного. The effectiveness of KSM and MADV_MERGEABLE is shown in /sys/kernel/mm/ksm/: pages_shared - how many shared unswappable kernel pages KSM is using Результат работы механизма - сколько в данным момент страниц памяти дедуплицировано ? pages_sharing- how many more sites are sharing them i.e. how much saved Непонимаю доконца pages_unshared - how many pages unique but repeatedly checked for merging Сколько страниц не может быть расшарено, но будет проверятся все равно pages_volatile - how many pages changing too fast to be placed in a tree Какая-то скорость изменения страниц. Вот только какая ? full_scans - how many times all mergeable areas have been scanned Сколько раз механизм проверил память на содержание повторяющихся страниц A high ratio of pages_sharing to pages_shared indicates good sharing, but a high ratio of pages_unshared to pages_sharing indicates wasted effort. Чем больше pages_sharing по отношению к pages_shared тем лучше работает механизм ? Каковы критерии их отношения на практике? У меня на момент через 20 минут после включения значения параметров следующие: root@vsp:~# cat /sys/kernel/mm/ksm/pages_shared 19029 root@vsp:~# cat /sys/kernel/mm/ksm/pages_sharing 97065 pages_sharing / pages_shared ~ 5.1 4. Как этот результат(5.1) на просто языке называется ? Далее по тексту из статьи на wiki archlinux ... pages_volatile embraces several different kinds of activity, but a high proportion there would also indicate poor use of madvise MADV_MERGEABLE. 5. Что означает параметр MADV_MERGEABLE? 6. Нужен ли он вообще ? 7. Как проверить значение параметра MADV_MERGEABLE в debian если версии ПО на данный момент: glibc-2.13-1, qemu 1.1.2+dfsg-2, linux-image-3.2.0-4-amd64 8. Как его правильно установить? Вот мое значение на момент работы через 30 минут после включения cat /sys/kernel/mm/ksm/pages_volatile 8088 Вот мое значение на момент работы через 32 минуты после включения cat /sys/kernel/mm/ksm/pages_volatile 9006 9. Может быть уже есть штатный механизм включения данной технологии сбережения ОЗУ в debian ? Заранее спасибо всем. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5077b99d.6060...@skubriev.ru
Re: как правильно использовать kernel samepage merging (KSM) и другие вопросы по использованию этой технологии в debian 6
12.10.2012 11:25, Иван Лох пишет: Количество расшареных страниц после дедупликации Количество дедуплицированных страниц А это не одно и тоже ? Просто звучит это равнозначно. И мне все равно не понятно в чем разница (( Увы. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5077e290.9040...@skubriev.ru
Re: как правильно использовать kernel samepage merging (KSM) и другие вопросы по использованию этой технологии в debian 6
12.10.2012 13:30, Иван Лох пишет: On Fri, Oct 12, 2012 at 01:27:44PM +0400, Скубриев Владимир wrote: 12.10.2012 11:25, Иван Лох пишет: Количество расшареных страниц после дедупликации Количество дедуплицированных страниц А это не одно и тоже ? Нет. Это сколько стало после дедупликации и сколько было до нее, соответственно я так понимаю, эти значения пересчитываются с каждой итерацией сравнения одной или пачки страниц было вообще страниц памяти pages_sharing из них стало - дедуплицированных pages_shared т.е. грубо говоря на pages_shared страниц сократилось использование памяти в системе вот более правильная формула вычисления эффективности работы механизма (в прошлом письме я не правильно написал): pages_shared / pages_sharing = 19496 / 96747 ~ 0,2 ( коэффициент эффективности ) всего памяти 3861 3861 * 0,2 ~ 772 Мб одинаковых страниц памяти для всех виртуальных машин. По идее неплохо. Я Извиняюсь, но у меня возник еще один вопрос, спустя пару тройку часов команда free опять выдает столько свободной памяти, сколько было до включения сабжа. Вот: root@vsp:~# free -m total used free sharedbuffers cached Mem: 3861 3612248 0 1717202 -/+ buffers/cache: 1692 2168 Swap: 7628183 7445 Я так понимаю вся освободившееся память (ячейка Mem: free) ушла в буферы и кэш, даже в большинстве своем в буферы ? Следовательно, чтобы выяснить реальную пользу обсуждаемого механизма остается только отношение pages_shared к pages_sharing ? Чтобы наступила окончательная ясность происходящего. Кстати посмотрел вывод free на файл сервере - он значительно отличается. Буферы не в цене у ядра. А вот кэш ! root@storhost:/mnt/# free -m total used free shared buffers cached Mem: 3022 2925 96 0 435 1887 -/+ buffers/cache:602 2419 Swap: 9343 0 9343 Я правильно мыслю ? Спасибо. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5077ee14.7060...@skubriev.ru
наиболее подходящие параметры pages_to_scan и sleep_millisecs при настройке KSM
По сути продолжение моего предыдущего топика. pages_to_scan- how many present pages to scan before ksmd goes to sleep e.g. echo 100 /sys/kernel/mm/ksm/pages_to_scan Default: 100 (chosen for demonstration purposes) sleep_millisecs - how many milliseconds ksmd should sleep before next scan e.g. echo 20 /sys/kernel/mm/ksm/sleep_millisecs Default: 20 (chosen for demonstration purposes) Насколько часто нужно включать ksmd (параметр sleep_millisecs) ? Сколько страниц памяти желательно проходить за раз (параметр pages_to_scan) если у меня всего страниц около 100 000 (параметр pages_sharing) ? Сколько ресурсов (память, процессор, io) потребляет ksmd ? В принципе при pages_to_scan = 100 000 и sleep_millisecs = 300 все работает, но может быть я слишком расточителен ? В виртуальных машинах мало что меняется, время от времени пользователи заходят на них и работают в своих программах. Где-то раз 5 в день по 15-20 минут в каждой машине. Поделитесь практическим советом пожалуйста. Заранее благодарю. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5077f73c.1080...@skubriev.ru
Re: наиболее подходящие параметры pages_to_scan и sleep_millisecs при настройке KSM
12.10.2012 14:55, Скубриев Владимир пишет: По сути продолжение моего предыдущего топика. pages_to_scan- how many present pages to scan before ksmd goes to sleep e.g. echo 100 /sys/kernel/mm/ksm/pages_to_scan Default: 100 (chosen for demonstration purposes) sleep_millisecs - how many milliseconds ksmd should sleep before next scan e.g. echo 20 /sys/kernel/mm/ksm/sleep_millisecs Default: 20 (chosen for demonstration purposes) Насколько часто нужно включать ksmd (параметр sleep_millisecs) ? Сколько страниц памяти желательно проходить за раз (параметр pages_to_scan) если у меня всего страниц около 100 000 (параметр pages_sharing) ? Сколько ресурсов (память, процессор, io) потребляет ksmd ? В принципе при pages_to_scan = 100 000 и sleep_millisecs = 300 все работает, но может быть я слишком расточителен ? В виртуальных машинах мало что меняется, время от времени пользователи заходят на них и работают в своих программах. Где-то раз 5 в день по 15-20 минут в каждой машине. Поделитесь практическим советом пожалуйста. Заранее благодарю. из ходя из последний наблюдений временами процесс ksmd отжирал почти все ядро пришлось уменьшить следующие параметры, пока полет нормальный. pages_to_scan = 10 000 и sleep_millisecs = 6 6 мс = 1 минута -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50780f7a.4020...@skubriev.ru
Re: Продублировать флэшку
11.10.2012 7:20, Евгений Золотов пишет: Коллеги, 1) объём А больше объёма Б (я не специально, так уж получилось) 2) карта разделов на А: /dev/sda один загрузочный раздел на весь объём флэшки в корне, без номера 3) пробовал просто скопировать файлы, а потом перезаписать бутлоадер - но grub отказывается ставиться в корень флэшки (/dev/sda) С уважением, Евгений. сделай один нормальный (msdos) раздел на второй флэшке, создай там ФС, скопируй туда все файлы cp -pR /mnt/a/* /mnt/b/ далее сделай chroot в новый раздел, т.е. chroot /mnt/b и установи груб на /dev/sdb, т.е. grub2-install /dev/sdb ну и надо будет fstab подправить в новой системе -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5076a0a8.4090...@skubriev.ru
Re: Загрузить линух не с /dev/sda а с /dev/sdb ? howto
09.10.2012 17:04, alexander пишет: В Tue, 09 Oct 2012 16:39:41 +0400 Скубриев Владимир vladi...@skubriev.ru пишет: 09.10.2012 15:42, alexander пишет: В Tue, 09 Oct 2012 15:22:22 +0400 Скубриев Владимир vladi...@skubriev.ru пишет: 09.10.2012 13:59, alexander пишет: Привет) У мя есть 2 жеских диска /dev/sda и /dev/sdb А как мне сделать так, чтобы линух с другого жеского диска грузился? У мя /boot находится в / (то есть это одно и то же устройство для корневого раздела или root хз). Вот мои маунты: root@alexander:/home/alexander# mount sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime) proc on /proc type proc (rw,nosuid,nodev,noexec,relatime) udev on /dev type devtmpfs (rw,relatime,size=10240k,nr_inodes=743818,mode=755) devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000) tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=596324k,mode=755) /dev/disk/by-uuid/6b60d17a-f56a-4d3b-a48d-6b64e74cb323 on / type ext4 (rw,relatime,errors=remount-ro,user_xattr,barrier=1,data=ordered) tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k) tmpfs on /tmp type tmpfs (rw,nosuid,nodev,relatime,size=1192648k) tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,relatime,size=1192648k) /dev/sda6 on /home type ext4 (rw,relatime,user_xattr,barrier=1,data=ordered) /dev/sdb1 on /mnt/sdb1 type ext4 (rw,relatime,user_xattr,barrier=1,data=ordered) rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime) Как скопировать boot на /dev/sdb и т.д. (а мож root хз) и сделать так, чобы линух, который грузился с /dev/sda стал грузиться с /dev/sdb ? вывод вашего /etc/fstab не очень читаем - перешлите в нормальном виде. root@alexander:/home/alexander# cat /etc/fstab # /etc/fstab: static file system information. # # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= as a more robust way to name devices # that works even if disks are added and removed. See fstab(5). # # file system mount point type options dump pass # / was on /dev/sda1 during installation UUID=6060d171-756a-4d3b-a48d-6b64e74cb769 / ext4 errors=remount-ro 0 1 # /home was on /dev/sda6 during installation UUID=4b7012d1-14a1-43c1-8c39-f2ed0d82be5b /home ext4 defaults0 2 # swap was on /dev/sda5 during installation UUID=7ddcef56-496c-4c4d-a690-addd7e8929a6 noneswap sw 0 0 /dev/sr0/media/cdrom0 udf,iso9660 user,noauto 0 0 #My SSD1 disk UUID=16317e21-3632-4d7a-8d8e-baa851e81d55 /mnt/ssd1 ext4 defaults Иными словами я хочу, чобы загрузиться не с HDD /dev/sda, а с SSD /dev/sdb (чобы грузилось быстрее). Но вот как это сделаь нинаю( раздел /boot тут не при чем, точнее пользы в скорости загрузки с раздела /boot находящегося на /dev/sdb (ssd-диске) не будет особой. чтобы увеличить скорость загрузки нужно перенести всё, что используется при загрузке системы т.е. почти все от /bin до var/ на ssd диск судя по вашему fstab задача упрощается, т.к. почти все лежит у вас в одной файловой системе (UUID=6060d171-756a-4d3b-a48d-6b64e74cb769 ) если ваш ssd разбит одним разделом с файловой системой ext4 для переноса туда старого корня, то нужно 1. скопировать все файлы из UUID=6060d171-756a-4d3b-a48d-6b64e74cb769 в UUID=16317e21-3632-4d7a-8d8e-baa851e81d55 лучше всего командой cp -Rp /* /mnt/ssd1/ * - копируйте все по отдельности, кроме служебных ФС, например /sys /dev/ /proc -pСохраняет исходные параметры файла, такие как владелец, группа, права доступа (включая suid и sgid биты), время последней модификации и время последнего доступа к файлу. В случае, если установка владельца или группы приводит к ошибке, suid и sgid биты сбрасываются. (Заметим, что впоследствии исходный файл и его копия могут иметь разное время последнего доступа, так как операция копирования является доступом к исходному файлу). после смонтировать в новый корень служебные ФС: mount --bind /dev /mnt/ssd1/dev mount --bind /sys /mnt/ssd1/sys mount --bind /proc /mnt/ssd1/proc далее сделать chroot chroot /mnt/ssd1 grub2-mkconfig /boot/grub/grub.cfg проверить, что там получилось: какие системы и откуда загружаются grub2-install /dev/sdb exit umount /mnt/ssd1/dev umount /mnt/ssd1/proc umount /mnt/ssd1/sys umount /mnt/ssd1 reboot установит загрузку в bios с /dev/sdb примерно так 2. хотя конечно в вашем случае самым простым и лучшим решением будет: а. попытаться сделать так, чтобы ваш SSD диск был единственным на время установки системы. б. переустановить систему на SSD в. подключить ваш старый диск, пере разбить его, т.к. его роль по сути поменяется с системного диска на диск для хранения г. пересоздать если необходимо файловые системы д. использовать команду и /etc/fstab для того, чтобы
Re: Продублировать флэшку
10.10.2012 12:51, Евгений Золотов пишет: Коллеги, вот простая вроде задачка, а не могу решить. Дано: флэшка А с записанным на ней загрузочным Debian testing, и флэшка Б, на которую содержимое А надо переписать полностью (включая флаг bootable). Проблема в том, что ёмкости флэшек разные. Как это сделать? Заранее спасибо! С уважением, Евгений. во первых кто кого больше ? (всмысле флэшек) во вторых покажите разделы например тем же sfdisk'ом первой флэшки -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/507540ee.6010...@skubriev.ru
Re: Загрузить линух не с /dev/sda а с /dev/sdb ? howto
09.10.2012 13:59, alexander пишет: Привет) У мя есть 2 жеских диска /dev/sda и /dev/sdb А как мне сделать так, чтобы линух с другого жеского диска грузился? У мя /boot находится в / (то есть это одно и то же устройство для корневого раздела или root хз). Вот мои маунты: root@alexander:/home/alexander# mount sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime) proc on /proc type proc (rw,nosuid,nodev,noexec,relatime) udev on /dev type devtmpfs (rw,relatime,size=10240k,nr_inodes=743818,mode=755) devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000) tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=596324k,mode=755) /dev/disk/by-uuid/6b60d17a-f56a-4d3b-a48d-6b64e74cb323 on / type ext4 (rw,relatime,errors=remount-ro,user_xattr,barrier=1,data=ordered) tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k) tmpfs on /tmp type tmpfs (rw,nosuid,nodev,relatime,size=1192648k) tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,relatime,size=1192648k) /dev/sda6 on /home type ext4 (rw,relatime,user_xattr,barrier=1,data=ordered) /dev/sdb1 on /mnt/sdb1 type ext4 (rw,relatime,user_xattr,barrier=1,data=ordered) rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime) Как скопировать boot на /dev/sdb и т.д. (а мож root хз) и сделать так, чобы линух, который грузился с /dev/sda стал грузиться с /dev/sdb ? понял, но только примерно. у вас есть два диска и есть одна система установленная на /dev/sda вы хотите, чтобы вне зависимости от того, с какого диска вы выберите загрузку в bios у вас загружалось одно и то же меню. в котором вы уже выбираете свой установленный на /dev/sda линукс и система загружается. иными словами вы не хотите зависеть от того, с какого диска грузится ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5073fd30.7020...@skubriev.ru
Re: Загрузить линух не с /dev/sda а с /dev/sdb ? howto
09.10.2012 15:42, alexander пишет: В Tue, 09 Oct 2012 15:22:22 +0400 Скубриев Владимир vladi...@skubriev.ru пишет: 09.10.2012 13:59, alexander пишет: Привет) У мя есть 2 жеских диска /dev/sda и /dev/sdb А как мне сделать так, чтобы линух с другого жеского диска грузился? У мя /boot находится в / (то есть это одно и то же устройство для корневого раздела или root хз). Вот мои маунты: root@alexander:/home/alexander# mount sysfs on /sys type sysfs (rw,nosuid,nodev,noexec,relatime) proc on /proc type proc (rw,nosuid,nodev,noexec,relatime) udev on /dev type devtmpfs (rw,relatime,size=10240k,nr_inodes=743818,mode=755) devpts on /dev/pts type devpts (rw,nosuid,noexec,relatime,gid=5,mode=620,ptmxmode=000) tmpfs on /run type tmpfs (rw,nosuid,noexec,relatime,size=596324k,mode=755) /dev/disk/by-uuid/6b60d17a-f56a-4d3b-a48d-6b64e74cb323 on / type ext4 (rw,relatime,errors=remount-ro,user_xattr,barrier=1,data=ordered) tmpfs on /run/lock type tmpfs (rw,nosuid,nodev,noexec,relatime,size=5120k) tmpfs on /tmp type tmpfs (rw,nosuid,nodev,relatime,size=1192648k) tmpfs on /run/shm type tmpfs (rw,nosuid,nodev,relatime,size=1192648k) /dev/sda6 on /home type ext4 (rw,relatime,user_xattr,barrier=1,data=ordered) /dev/sdb1 on /mnt/sdb1 type ext4 (rw,relatime,user_xattr,barrier=1,data=ordered) rpc_pipefs on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw,relatime) Как скопировать boot на /dev/sdb и т.д. (а мож root хз) и сделать так, чобы линух, который грузился с /dev/sda стал грузиться с /dev/sdb ? вывод вашего /etc/fstab не очень читаем - перешлите в нормальном виде. root@alexander:/home/alexander# cat /etc/fstab # /etc/fstab: static file system information. # # Use 'blkid' to print the universally unique identifier for a # device; this may be used with UUID= as a more robust way to name devices # that works even if disks are added and removed. See fstab(5). # # file system mount point type options dump pass # / was on /dev/sda1 during installation UUID=6060d171-756a-4d3b-a48d-6b64e74cb769 / ext4 errors=remount-ro 0 1 # /home was on /dev/sda6 during installation UUID=4b7012d1-14a1-43c1-8c39-f2ed0d82be5b /home ext4 defaults 0 2 # swap was on /dev/sda5 during installation UUID=7ddcef56-496c-4c4d-a690-addd7e8929a6 noneswap sw 0 0 /dev/sr0/media/cdrom0 udf,iso9660 user,noauto 0 0 #My SSD1 disk UUID=16317e21-3632-4d7a-8d8e-baa851e81d55 /mnt/ssd1 ext4 defaults Иными словами я хочу, чобы загрузиться не с HDD /dev/sda, а с SSD /dev/sdb (чобы грузилось быстрее). Но вот как это сделаь нинаю( раздел /boot тут не при чем, точнее пользы в скорости загрузки с раздела /boot находящегося на /dev/sdb (ssd-диске) не будет особой. чтобы увеличить скорость загрузки нужно перенести всё, что используется при загрузке системы т.е. почти все от /bin до var/ на ssd диск судя по вашему fstab задача упрощается, т.к. почти все лежит у вас в одной файловой системе (UUID=6060d171-756a-4d3b-a48d-6b64e74cb769 ) если ваш ssd разбит одним разделом с файловой системой ext4 для переноса туда старого корня, то нужно 1. скопировать все файлы из UUID=6060d171-756a-4d3b-a48d-6b64e74cb769 в UUID=16317e21-3632-4d7a-8d8e-baa851e81d55 лучше всего командой cp -Rp /* /mnt/ssd1/ * - копируйте все по отдельности, кроме служебных ФС, например /sys /dev/ /proc -pСохраняет исходные параметры файла, такие как владелец, группа, права доступа (включая suid и sgid биты), время последней модификации и время последнего доступа к файлу. В случае, если установка владельца или группы приводит к ошибке, suid и sgid биты сбрасываются. (Заметим, что впоследствии исходный файл и его копия могут иметь разное время последнего доступа, так как операция копирования является доступом к исходному файлу). после смонтировать в новый корень служебные ФС: mount --bind /dev /mnt/ssd1/dev mount --bind /sys /mnt/ssd1/sys mount --bind /proc /mnt/ssd1/proc далее сделать chroot chroot /mnt/ssd1 grub2-mkconfig /boot/grub/grub.cfg проверить, что там получилось: какие системы и откуда загружаются grub2-install /dev/sdb exit umount /mnt/ssd1/dev umount /mnt/ssd1/proc umount /mnt/ssd1/sys umount /mnt/ssd1 reboot установит загрузку в bios с /dev/sdb примерно так 2. хотя конечно в вашем случае самым простым и лучшим решением будет: а. попытаться сделать так, чтобы ваш SSD диск был единственным на время установки системы. б. переустановить систему на SSD в. подключить ваш старый диск, пере разбить его, т.к. его роль по сути поменяется с системного диска на диск для хранения г. пересоздать если необходимо файловые системы д. использовать команду blkid и /etc/fstab для того, чтобы автоматически монтировались необходимые вам системы при загрузке компьютера. переносить вашу систему с
Re: А чо вы предпочитаете: HDD или SSD? O_o
01.10.2012 12:23, alexander пишет: Привет.) Ну собственно может это вопрос не в деьбьян, но хочется просто узнать, кто пользуется HDD, еси уже есть SSD? SSD же быстрее работают, не вращаются, но правда на них тыщ 30 раз максимум можно записать инфу. А есть SSD с бесконечным циклом записи (сроком жизни time to live))? Чото долго винт вращается.. Скажите чо вы предпочитаете? Действительно ли SSD таков волшебн?) В последнее время стараюсь ставить клиентам именно SSD, в основном ocz vertex 3,4, ocz agility. Как правило по 60 Гб. Только одному клиенту ставил 120Гб SSD, потому, что много игр использует. Первая причина - быстродействие. Скорость загрузки компьютера и общая отзывчивость приложений с которыми работает пользователь. Некоторые пользователи просто прыгают от счастья. Со слов пользователей становиться ясно, что им стало гораздо более приятно работать с компьютером. Исчезли тормоза, зависания и т.д. Вторая причина - низкое качество современных HDD. Берешь новый диск серии для десктопа - работает месяц два и начинает тормозить все. Проверяешь поверхность - видишь то, что обычно бывает у дисков работающих несколько лет или неисправных дисках. В общем дал себе обещание: Отдавать предпочтение и предлагать к покупке SSD, вместо HDD. Конечно не всегда SSD - панацея. Например на примерно pentium 4 - celeron - установка SSD особо не оправданна . Вообще старое железо - эта большая проблема для SSD, т.к. не всегда оно умеет его определить и позволить работать с ним. Например однажды я заказал одному клиенту SSD с IDE интерфейсом для ноутбука. В итоге пришлось положить его на полочку, т.к. его старый ibm T40 не захотел его определять. Почему ? 1. Все начинает упираться в скорость памяти, процессора, шины и т.д. 2. Старая архитектура всего железа - в принципе тупиковая цель. Лучше сделать апгрейд. Хотя иногда и спасает установка SSD. 3. Есть вероятность, что SSD не определится контроллером на системной плате - значит не судьба. Такое часто случается на старых системных платах у меня. Стандартно я делаю так: ставлю на новый диск две системы (windows + linux), а второй диск оставляю для информации пользователей. Потому, что как правило старый жесткий диск пользователя - рабочий. Но его поверхность не совсем хороша с точки зрения использования под систему. Есть еще один очень важный минус: все умершие SSD с которыми я встречался умирали резко и навсегда. Думаю специалисты смогли бы их восстановить. Но увы это дорого. Все таки жесткие диски как правило умирали медленно и пользователь успевал почувствовать, что следует обратиться за помощью к специалисту. Хотя справедливо и обратное. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/506a836b.6010...@skubriev.ru
Re: А чо вы предпочитаете: HDD или SSD? O_o
02.10.2012 10:27, Nikolay Panov пишет: Предпочитаю SSD. Ну, потому что они тише. По скорости разницы не заметил (по hdparm SSD в 5 раз быстрее, но в обычной работе это мне практически не заметно). Реальный прирост производительности ощутил когда перешел с c2d/4Gb RAM на i3/8Gb RAM. При переходе с HDD на SSD разницы в производительности не вижу (всё и так работает достаточно быстро). Have a nice day, Nikolay. 2012/10/1 alexander toyman...@gmail.com: Привет.) Ну собственно может это вопрос не в деьбьян, но хочется просто узнать, кто пользуется HDD, еси уже есть SSD? SSD же быстрее работают, не вращаются, но правда на них тыщ 30 раз максимум можно записать инфу. А есть SSD с бесконечным циклом записи (сроком жизни time to live))? Чото долго винт вращается.. Скажите чо вы предпочитаете? Действительно ли SSD таков волшебн?) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20121001192331.6eb83...@omen.dyndns-ip.com Да часто в процессор (память, интерфейс) упирается. Согласен. Но все таки я придерживаюсь мнения, что все таки лучше SSD сейчас покупать, если есть на то основания. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/506a8eb6.5000...@skubriev.ru
Re: Виртуализация
27.09.2012 10:25, Damir Hakimov пишет: 27 сентября 2012 г., 9:47 пользователь Скубриев Владимир vladi...@skubriev.ru написал: А какие сетевые карты и коммутаторы вы используете ? У меня, например, 3com. Кстати есть еще один + от виртуализации win серверов: помещая win на виртуальную машину получаем беспроблемную интеграцию с VLAN, который, как известно, под офтопиком реализуется в драйвере сетевой карты и далеко на всякая умеет. Даже на железных настоящих серверах. -- DamirX А можно более конкретно какое оборудование ? Чтобы можно было ориентироваться на будущее. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5063f679.7060...@skubriev.ru
Re: Виртуализация
27.09.2012 14:55, Anatoly Molchanov пишет: +100 ))) Действительно хороший пример получился. А какие сетевые карты и коммутаторы вы используете ? Самые бюджетные. Почти все плюшки разумных коммутаторов создают точки отказа, поэтому беру самые простые, сетевухи - соответственно тоже. Несколько Asus P8B-C/4L, четыре коммутатора с 16 портами 1Gb(FD) - серверы общаются на каналах с 8Gb (причем это Ethernet), стоило копейки. Коммутаторы 1U по высоте и 8,5 в ширину (т.е. два коммутатора в один юнит). Корпусы беру 2хюнитовые под ATX блоки питания, бюджетные SSD. Спасибо, думаю очень ценная информация. И альтернативное решение: Свитч оптический (стоимость моих коммутаторов и одного сервера) + дисковая полка HP (стоимость оставшихся серверов), сервера сложно сравнивать, но в результате решение в 6 раз дороже (не считая софта). Естественно настал день, когда оптику поломал дежурный админ, естественно не было инструмента для обжима под рукой именно в этот день. Через полгода использования выяснили, что оптика готова была бы пропустить больше инфы, но узким местом стала полка. Недавно вышел из строя блок питания сервера, вендор сообщил что машина не поддерживается и блоков таких уже нет, месяца два искали - купили б/у на eBay ))) У самого 2 сервера hp ml150g6. Два потому, что изначально планировалось отказоустойчивость решения. Вышел из строя один базы sql подняли на другом. Второй конечно используется - но опять же из-за того, что нет денег на третий. А так планировалось, что второй будет на случай выхода из строя первого. Шеф говорил так - раз мы покупаем такие дорогие железки = значит вряд ли они поломаются т.к. очень качественные. Наивный он - но с ним спорить бесполезно -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/506532ad.9040...@skubriev.ru
Re: Виртуализация
26.09.2012 23:49, Anatoly Molchanov пишет: Функции; Удобство использования; Производительность; Надежность; Безопасность; Масштабируемость; Требования по поддержке развитию; Стоимость и удобство обслуживания; Требования к документированию; Совместимость; Переносимость; Подготовка персонала; Требования к оборудованию и смежному ПО; Вы не представляете компанию-интегратора? Это основной печень для навязывания VmWare/Xen :) Смоделировать процесс работы это обязательно (с этого нужно начинать, но автор не сообщил к сожалению условия) Под означенные пункты и без заморочек: поставить несколько гипервизоров, нагрузить 50% vm'ами и настроить ha-правила для восстановления работы vm на другом свободном гипере в случае потери физической ноды позволит любое решение. Но возможность иметь 50%ный запас позволит только свободное решение, т.к. вместо лицензии на VmWare можно физический сервер взять той же производительности Может быть в отрыве от темы, но хотелось бы услышать мнение админов небольших предприятий. Брендовый сервер имеет спаренный блок питания, память с ECC, raid-массив, стоит X рублей, все же имея точки отказа. Я за эти Х рублей беру 2-3 небрендовые машины той же производительности что и рассматриваемый сервер. Отказоустойчивость реализую для группы, а не для машины (нет специфичных блоков, raid'ы были 0, теперь просто ssd). Многие коллеги осуждают мою политику, но периодически сидят-курят в ожидании спецов из IBM, которые должны поменять в течении двух рабочих дней глючную материнку на важном инстансе. Мне же природная лень и отказоустойчивый кластер не позволяют идти чинить машину, если у нее downtime меньше недели. Но IBM+VmWare, по их мнению, круче моих поделок. Мне застрелиться или допилить уже балансировщики нагрузки? +100 ))) Действительно хороший пример получился. А какие сетевые карты и коммутаторы вы используете ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5063e87a.3050...@skubriev.ru
Re: Виртуализация
24.09.2012 12:50, Павел Марченко пишет: P.S. 50+ гипервизоров 400+ виртуалок это же сколько денег ))) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5063e8e8.9070...@skubriev.ru
Re: Виртуализация
нет. я выбрал kvm за универсальность, открытость и экономичность. у кого какие комментарии будут? буду очень признателен - так как считаю, что kvm наше всё. даже не смотря на отсутствие удобных и проверенных инструментов для управления. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/505c5dc0.6020...@skubriev.ru
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
20.09.2012 12:10, alexander пишет: No IOMMU found. проверьте в данный момент поддерживается виртуализация вообще: cat /proc/cpuinfo | egrep flags.*'svm|vmx' вывод этой команды должен быть не пустым там должна быть строка с svm или vmx в зависимости от платформы intel vs amd проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d (если платформа Intel) в BIOS. Он включается отдельно зачастую. и самый неприятный момент поддержка iommu или vt-d может отсутствовать у процессора (может быть и системной платы). в этом случае пробросить устройство не получится. т.е. у вас может не поддерживаться проброс устройств, даже если поддерживается виртуализация в целом как процессором так и платой. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/505ad46b.6030...@skubriev.ru
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
20.09.2012 15:19, alexander пишет: В Thu, 20 Sep 2012 12:31:39 +0400 Скубриев Владимир vladi...@skubriev.ru пишет: 20.09.2012 12:10, alexander пишет: No IOMMU found. проверьте в данный момент поддерживается виртуализация вообще: cat /proc/cpuinfo | egrep flags.*'svm|vmx' вывод этой команды должен быть не пустым там должна быть строка с svm или vmx в зависимости от платформы intel vs amd alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep flags.*'svm|vmx' flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ поддержка виртуализации есть и она от intel, т.к. vmx это видно из того, что нашел grep проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d (если платформа Intel) в BIOS. Он включается отдельно зачастую. IOMMU в BIOS'e не нашел. его и не должно быть, т.к. так технология проброса устройств и и.п. называется у amd тебе надо искать vt-d хотя иногда даже слова vt-d нету в bios, но сама опция есть, только по другому называется. и самый неприятный момент поддержка iommu или vt-d может отсутствовать у процессора (может быть и системной платы). в этом случае пробросить устройство не получится. alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0 [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap c020e60262 ecap f0101a [0.027353] DMAR: DRHD base: 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR: RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR: RMRR base: 0x00a780 end: 0x00af9f [0.027437] IOAPIC id 0 under DRHD base 0xfed91000 IOMMU 1 т.е. у вас может не поддерживаться проброс устройств, даже если поддерживается виртуализация в целом как процессором так и платой. да вроде все поддерживается. Удалось пробросить некоторые PCI устройства. А то устройство которое мне больше всего нужно - это видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums (через Bumblebeed). тогда не знаю даже. может быть не совместимость связана с видеочипом nvidia gt 640M раньше на сайте kvm был список поддерживаемых видео адаптеров и этот список был очень мал -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http
Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error
20.09.2012 16:02, alexander пишет: В Thu, 20 Sep 2012 15:47:34 +0400 Скубриев Владимир vladi...@skubriev.ru пишет: 20.09.2012 15:19, alexander пишет: В Thu, 20 Sep 2012 12:31:39 +0400 Скубриев Владимир vladi...@skubriev.ru пишет: 20.09.2012 12:10, alexander пишет: No IOMMU found. проверьте в данный момент поддерживается виртуализация вообще: cat /proc/cpuinfo | egrep flags.*'svm|vmx' вывод этой команды должен быть не пустым там должна быть строка с svm или vmx в зависимости от платформы intel vs amd alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep flags.*'svm|vmx' flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms flags: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ поддержка виртуализации есть и она от intel, т.к. vmx это видно из того, что нашел grep проверьте включен ли у вас IOMMU (если платформа AMD) или VT-d (если платформа Intel) в BIOS. Он включается отдельно зачастую. IOMMU в BIOS'e не нашел. его и не должно быть, т.к. так технология проброса устройств и и.п. называется у amd тебе надо искать vt-d хотя иногда даже слова vt-d нету в bios, но сама опция есть, только по другому называется. и самый неприятный момент поддержка iommu или vt-d может отсутствовать у процессора (может быть и системной платы). в этом случае пробросить устройство не получится. alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0 [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap c020e60262 ecap f0101a [0.027353] DMAR: DRHD base: 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR: RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR: RMRR base: 0x00a780 end: 0x00af9f [0.027437] IOAPIC id 0 under DRHD base 0xfed91000 IOMMU 1 т.е. у вас может не поддерживаться проброс устройств, даже если поддерживается виртуализация в целом как процессором так и платой. да вроде все поддерживается. Удалось пробросить некоторые PCI устройства. А то устройство которое мне больше всего нужно - это видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums (через Bumblebeed). тогда не знаю даже. может быть не совместимость связана с видеочипом nvidia gt 640M раньше на сайте kvm был список поддерживаемых видео адаптеров и этот список был очень мал Хотя погарячился я насчет успешного проброса PCI ( Ща опять ошибки какие то показываются.. типо устройство занято или что то типо того. Мож я и не успешно пробросил хз) хех) Но вот ща нашол статью на гугле, там написано что проброс PCI плохо реализован в KVM, лучше пробовать Xen. Ну не знаю, помучаю еще несколько дней KVM, если не
Re: Установил debian 6.0 squeeze на современный ноутбук. Но ничего не работает. Траблы видеокарты nvidia, нету звука, аппаратура не поддерживается.
23.08.2012 11:30, Mikhail A Antonov пишет: 23.08.2012 08:54, Скубриев Владимир пишет: 4 сервера на sid'е три уже года 2, четвертый 1-й год идет. - полет нормальный. обновляю раз в месяц или чуть реже все их по очереди - больших неприятностей не помню. Вот так лучше не делать, но каждый сам себе злобный Буратино. Стоимость простоя личного десктопа сильно разнится со стоимостью простоя сервера. согласен - страшно. а как иначе использовать debian + последние ядра + последние пакеты для виртуализации ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5035f6a4.7080...@skubriev.ru
Re: Установил debian 6.0 squeeze на современный ноутбук. Но ничего не работает. Траблы видеокарты nvidia, нету звука, аппаратура не поддерживается.
23.08.2012 13:31, Mikhail A Antonov пишет: 23.08.2012 13:23, Скубриев Владимир пишет: 23.08.2012 11:30, Mikhail A Antonov пишет: 23.08.2012 08:54, Скубриев Владимир пишет: 4 сервера на sid'е три уже года 2, четвертый 1-й год идет. - полет нормальный. обновляю раз в месяц или чуть реже все их по очереди - больших неприятностей не помню. Вот так лучше не делать, но каждый сам себе злобный Буратино. Стоимость простоя личного десктопа сильно разнится со стоимостью простоя сервера. согласен - страшно. а как иначе использовать debian + последние ядра + последние пакеты для виртуализации ? Последнее не значит лучшее. И вообще. Не сломалось - не чини. А не чего и не ломалось - просто не работало. Есть вещи которые не работают в старых версиях пакетов для виртуализации, поэтому используются пакеты из sid. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5035fa44.7030...@skubriev.ru
Re: Debian Wheezy testing. Посоветуйте виртуальную машину для Windows 7.
23.08.2012 11:57, alexander пишет: Привет други мои). Я раньше пользовался виртуальной машиной VirtualBox. Но она медлительная какая-то. Хочу более быструю виртуальную машину, чтобы запустить на ней Windows 7 (в игрухи виндовские играть). Я знаю есть еще Xen, KVM, OpenVZ.. но не знаю какую выбрать. Что посоветуете? openvz - не подходит, т.к. не поддерживает windows (http://wiki.openvz.org/Introduction_to_virtualization) kvm - не уверен, что там будет работать проброс, хотя предпосылки должны быть на данный момент. попробуйте - расскажите - интересно. Мой совет: остановитесь на xen, по крайней мере именно в нем сейчас присутствует самая лучшая поддержка проброса видео карт ИМХО. Компания CITRIX, которая на его основе делает коммерческий продукт заявила о поддержке такого способам использования гипервизора еще наверное год или даже более назад. в сети много информации по этому поводу, особенно на официальном сайте xen, где вы можете найти как официальные инструкции по настройке того, что хотите, так и список поддерживаемых видеоадаптеров. вот интересные ссылки: http://habrahabr.ru/post/149416/ http://habrahabr.ru/post/137327/ http://umvirt.ru/node/84 Имейте в виду, что на данный момент поддерживаются только некоторые видеоадаптеры. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5035fbc0.4030...@skubriev.ru
Re: Установил debian 6.0 squeeze на современный ноутбук. Но ничего не работает. Траблы видеокарты nvidia, нету звука, аппаратура не поддерживается.
23.08.2012 13:30, Yuriy Vidineev пишет: Добрый день Просто интересно, а для каких задач нужны именно последние ядра+последние версии утилит для виртуализации? On Thursday, August 23, 2012 01:23:48 PM Скубриев Владимир wrote: 23.08.2012 11:30, Mikhail A Antonov пишет: 23.08.2012 08:54, Скубриев Владимир пишет: 4 сервера на sid'е три уже года 2, четвертый 1-й год идет. - полет нормальный. обновляю раз в месяц или чуть реже все их по очереди - больших неприятностей не помню. Вот так лучше не делать, но каждый сам себе злобный Буратино. Стоимость простоя личного десктопа сильно разнится со стоимостью простоя сервера. согласен - страшно. а как иначе использовать debian + последние ядра + последние пакеты для виртуализации ? Сейчас уже не вспомню - память избирательна. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5035fc2e.4060...@skubriev.ru
Re: Debian Wheezy testing. Посоветуйте виртуальную машину для Windows 7.
23.08.2012 13:57, Andrey Rahmatullin пишет: On Thu, Aug 23, 2012 at 01:45:36PM +0400, Скубриев Владимир wrote: kvm - не уверен, что там будет работать проброс, хотя предпосылки должны быть на данный момент. попробуйте - расскажите - интересно. Не вижу, с чего бы kvm был лучше VBox. А и не говорил: что kvm лучше vbox. Я лишь сказал, что работать поидее должно, но на мой взгляд запустить то, что хочет человек спрашивающий будет легче под xen чем kvm Мой совет: остановитесь на xen, по крайней мере именно в нем сейчас присутствует самая лучшая поддержка проброса видео карт ИМХО. Компания CITRIX, которая на его основе делает коммерческий продукт заявила о поддержке такого способам использования гипервизора еще наверное год или даже более назад. в сети много информации по этому поводу, особенно на официальном сайте xen, где вы можете найти как официальные инструкции по настройке того, что хотите, так и список поддерживаемых видеоадаптеров. вот интересные ссылки: http://habrahabr.ru/post/149416/ http://habrahabr.ru/post/137327/ http://umvirt.ru/node/84 Имейте в виду, что на данный момент поддерживаются только некоторые видеоадаптеры. Вы точно понимаете что это, как оно работает и чего требует? Да я понимаю, что нужно для работы проброса - поддержка оборудованием технологий VT-d или IOMMU, но опять же очень многое также зависит от производителя(разработчика) гипервизора и драйверов пробрасываемого видеоадаптера. Хотя думаю это не полный список, в процессе изучения могут всплыть и другие моменты. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50360a44.4070...@skubriev.ru
Re: Debian Wheezy testing. Посоветуйте виртуальную машину для Windows 7.
23.08.2012 15:43, Andrey Rahmatullin пишет: On Thu, Aug 23, 2012 at 05:40:48PM +0600, Konstantin Fadeyev wrote: kvm - не уверен, что там будет работать проброс, хотя предпосылки должны быть на данный момент. попробуйте - расскажите - интересно. Не вижу, с чего бы kvm был лучше VBox. А и не говорил: что kvm лучше vbox. Вы посоветовали kvm человеку, который пробовал VBox. Вы точно понимаете что это, как оно работает и чего требует? Да я понимаю, что нужно для работы проброса - поддержка оборудованием технологий VT-d или IOMMU, но опять же очень многое также зависит от производителя(разработчика) гипервизора и драйверов пробрасываемого видеоадаптера. Хорошо что вы в курсе про VT-d, но вы могли бы и упомянуть об этом, учитывая что он почти нигде не поддерживается. А вот не в курсе вы (видимо) про то, что видяха отдаётся целиком. Точняк, их надо две :-) И мониторов два, если я правильно понимаю. Короче я бы не мучал моск и попробовал вайн. Я, например, просто мечтаю реализовать такое. Я конечно понимаю, что это : 1. нагромождение, как и любая другая виртуализация 2. требует много времени на настройку, разбор принципов работы, дальнейшую поддержку 3. нужна хорошая память, чтобы не забыть что и как ты делал год назад 4. и самое главное нужно терпение, прямые руки, и опыт работы с linux. Применений такой настройке я уже давно нашел множество. Часть из которых, имеет коммерческую ценность. Поэтому я не вижу ни чего плохого, в том, чтобы взять и попробовать это сделать, получив при этом дополнительный опыт. Кто знает что нас ждет в будущем? Может быть виртуализация станет неотъемлемой частью современных компьютеров. А проброс устройств будет функцией - по умолчанию. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50361bb4.3000...@skubriev.ru
Re: Установил debian 6.0 squeeze на современный ноутбук. Но ничего не работает. Траблы видеокарты nvidia, нету звука, аппаратура не поддерживается.
22.08.2012 23:36, -=Devil_InSide=- пишет: ,-[alexander, 22 August 2012 12:13]: В Wed, 22 Aug 2012 03:53:06 +0400 Evgeny M. Zubok evgeny.zu...@tochka.ru пишет: alexander toyman...@gmail.com writes: Привет. Установил debian 6.0 squeeze на ультрасовременный ноутбук. Но почти ничего не работает из аппаратуры. Там стоит видеокарта Nvidia - у тебя очень новое железо, которое, скорее всего, плохо поддерживается ядром из Squeeze. понял) качаю Debian Wheezy testing.. а есть ли смысл вообще сидеть на стейбле? за последние четыре года сюрпризов на тестинге не встретил на десктопе. ) 4 сервера на sid'е три уже года 2, четвертый 1-й год идет. - полет нормальный. обновляю раз в месяц или чуть реже все их по очереди - больших неприятностей не помню. сервера в основном для целей (если можно так напишу): kvm, libvirt-bin, samba, ftp, iptables, winbind, mdadm -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5035b79e.3000...@skubriev.ru
Re: автоматизация деятельности компаний занимающихся ИТ-аутсорсингом ?
18.06.2012 14:36, Mikhail A Antonov пишет: 15.06.2012 12:19, Скубриев Владимир пишет: Добрый день! Я занимаюсь ИТ-аутсорсингом. Я тоже. Я рад, что нашел единомышленника. И если честно, то с ростом количества клиентов стал задумываться о автоматизации своей деятельности. На мне на одном висело порядка 15 контор среднего и не очень размера. Всё уже до автоматизма :-) 15 контор - это очень круто. У меня пока всего 3 + частники. Под словом автоматизация я подразумеваю использование/создание системы состоящей из клиентской и серверной частей. На мой взгляд система должна быть ориентирована на использование в предприятиях напрямую не связанных с ИТ, предприятиями являющимися представителями малого бизнеса. Клиентская часть будет устанавливаться на обслуживаемые компьютеры/сервера. Функции клиентской части: 1. Общение с пользователями. jabber. Свой локальный сервер. Очень удобно. Даже пользователям нравится psi+ и они его принимают без отбрыкиваний. а какой jabber сервер ты используешь ? openfire, ejabberd, etc ? ты ставишь psi на все компьютеры пользователей? работают ли пользователи в других im-клиентах? есть ли какая то автоматизация в отношении подготовки к установке и установке psi на компьютеры клиентов ? 2. Уведомления пользователей. Почта, джаббер. 3. Управление резервным копированием данных. Это только через меня и ручками. Требуется крайне редко и меня не парит. 4. Удаленная поддержка пользователей. VNC. скажу честно я просто проброс портов radmin'а(пока не перешел на vnc, хотя в планах) настроил и ограничение по соединениям с определенных ip на шлюзах. но не совсем удобно другое. например ip поменялся, нужно править конфиг фаерволла, конфиг lightsquid - файл realname, книги rpb radmin'оа на всех компьютерах с которых я подключаюсь к клиентам. это рабочий и домашний компьютер. понятное дело, что при желании можно держать все в порядке, но напрягает все по отдельности проверять(менять), хочется одного веб интерфейса для этого. по этому собственно и завел данное обсуждение. 5. Удаленное обслуживанием ПО установленного у пользователей. В частности откат рабочей операционной системы - удаленно. Всё тот же VNC или RDP. Просишь оставить на выходные компы включёнными, за вечер пятницы всё что надо делаешь, все довольны. Можно в AD политики настроить, но не везде есть AD - местами просто самба. знакомая ситуация 5. Инвентаризация оборудования. Пока в wiki в redmine пишу. а для чего еще используешь redmine а клиенты(пользователи) у тебя используют твой redmine сервер 6. Мониторинг. Zabbix Не всегда возможно использование тонких клиентов. Тонкие клиенты в 90% случаев ущербное говно, которым промыли мозг маркетоиды, заставившие это купить. Оно может и всё такое модное и крутое, но не для наших реалий. отчасти соглашусь. у меня на основной работе они используются в торговых залах продавцами. очень удобно. Поэтому хочу поделится своим виденьем того, как можно устанавливать ОС на рабочие станции в обслуживаемых организациях. На каждый рабочий компьютер будет устанавливаться несколько операционных систем: 1. Рабочая система Windows, в которой пользователь будет работать. (Только не надо разводить холивар.) 2. Система GNU/Linux для безопасной работы в Интернет и не только. Операционная система №2 никогда не будет загружаться - не удобно, не привычно и пользователь не видит опасностей там, где их видишь ты. Лучше сделать упор на защиту системы №1, чем возиться с поддержкой двух. здесь я не совсем согласен. я согласен с тем, что упор на безопасности нужно делать в системе №1 не согласен с тем, что пользователи не будут пользоваться системой Линукс. 3. Система GNU/Linux для обслуживания. Откат и ремонт рабочей системы. А ты уже что-то пробовал из линуксового чтобы восстановить винду? Я честно говоря ничего кроме DrWeb-а на liveusb ничего не смотрел. Теоретически можно запускать любой линукс, внутри которого есть kvm и запускать мёртвую винду как виртуалку и чинить, но я не уверен что винда одобрит такое. Наример драйвера для всяких там контроллеров, мостов и прочей дряни придётся подпихивать. Этот вариант возможен только если железо более-менее современное и умеет аппаратно виртуализацию. Если не умеет - будет тормоз жуткий. я планировал делать архив настроенной системы с помощью clonezilla и потом в случае если необходимо удаленно откатывать. Профили пользователей переносятся на отдельный раздел, например диск D. Лучше уносить их на отдельный сервер - сломался комп - пользователь сел за соседний, залогинился под собой и доволен. ты так много компьютеров настроил ? В случае если рабочая ОС не загружается пользователя просят выбрать СИСТЕМУ ВОССТАНОВЛЕНИЯ при загрузке, которая соединяется с серверной частью самостоятельно и инженер технической поддержки делает свою работу не вставая с рабочего кресла. В случае если рабочая ОС не загружается - значит настал какой-то здец, который нельзя предусмотреть. Например сдох диск /или просто забыли включить
Re: автоматизация деятельности компаний занимающихся ИТ-аутсорсингом ?
18.06.2012 10:57, Dmitry A. Zhiglov пишет: 15 июня 2012 г., 12:19 пользователь Скубриев Владимир vladi...@skubriev.ru написал: Добрый день! Я занимаюсь ИТ-аутсорсингом. И если честно, то с ростом количества клиентов стал задумываться о автоматизации своей деятельности. Может уже существует что нибудь подобное ? Наткнулся на статью [1] об упрощении доступа к рабочему столу пользователя. В комментариях вагон и маленькая тележка предложений по улучшайзингу. Некоторые интересные. -- [1] http://habrahabr.ru/post/137723/ спасибо! я как раз также и хочу все сделать собрав воедино несколько статей в том числе и с хабра. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fded326.7020...@skubriev.ru
автоматизация деятельности компаний занимающихся ИТ-аутсорсингом ?
Добрый день! Я занимаюсь ИТ-аутсорсингом. И если честно, то с ростом количества клиентов стал задумываться о автоматизации своей деятельности. Под словом автоматизация я подразумеваю использование/создание системы состоящей из клиентской и серверной частей. На мой взгляд система должна быть ориентирована на использование в предприятиях напрямую не связанных с ИТ, предприятиями являющимися представителями малого бизнеса. Клиентская часть будет устанавливаться на обслуживаемые компьютеры/сервера. Функции клиентской части: 1. Общение с пользователями. 2. Уведомления пользователей. 3. Управление резервным копированием данных. 4. Удаленная поддержка пользователей. 5. Удаленное обслуживанием ПО установленного у пользователей. В частности откат рабочей операционной системы - удаленно. 5. Инвентаризация оборудования. 6. Мониторинг. Не всегда возможно использование тонких клиентов. Поэтому хочу поделится своим виденьем того, как можно устанавливать ОС на рабочие станции в обслуживаемых организациях. На каждый рабочий компьютер будет устанавливаться несколько операционных систем: 1. Рабочая система Windows, в которой пользователь будет работать. (Только не надо разводить холивар.) 2. Система GNU/Linux для безопасной работы в Интернет и не только. 3. Система GNU/Linux для обслуживания. Откат и ремонт рабочей системы. Профили пользователей переносятся на отдельный раздел, например диск D. В случае если рабочая ОС не загружается пользователя просят выбрать СИСТЕМУ ВОССТАНОВЛЕНИЯ при загрузке, которая соединяется с серверной частью самостоятельно и инженер технической поддержки делает свою работу не вставая с рабочего кресла. Функции серверной части: 1. Предоставление удобного и простого интерфейса для обработки обращений клиентов с привязкой к оборудованию имеющемуся в организации. 2. Составление отчетов о проделанной работе, количестве обращений, сеансов удаленной поддержки и т.д. 3. Реализация сервера удаленной поддержки, может быть запись сеансов. 4. Управление пользователями и компьютерами организации. 5. Мониторинг оборудования. 6. Корпоративный сайт обслуживающей организации. 7. Учет расходных материалов. 8. Отчеты о использовании Интернет для руководителя. 9. Отчеты и использовании Интернет для обслуживающих специалистов. Я задумываюсь о создания (постепенной разработке) такой системы, которая бы позволила реализовать описанные мной функциональные возможности(пусть не все) и в дальнейшем бы развивалась независимым сообществом. Конечно это должна получится не просто система - а система + набор рекомендаций. Так сказать BEST PRACTIC. Этот набор рекомендаций будет постоянно усовершенствоваться и обсуждаться сообществом. Есть также общие требования, которые бы я предъявил к такой системе: 1. Должна быть настолько проста в настройке и обслуживании насколько это вообще возможно. 2. Должна быть бесплатна. Может уже существует что нибудь подобное ? Вы задумывался о чем то подобном ? Может такая система ни когда не сможет приносить пользу ит-аутсорсерам, отвлекая лишней волокитой: внесения изменений, работа с веб-интерфейсом системы, отчетами, настройкой самой системы и её обслуживанием ? Есть ли те, кто свято верит в то, что такая система ему нужна и если бы она была, то он бы обязательно её использовал? Я понимаю одно - сам все это сделать, так, как хотелось бы - у меня не получится! Есть ли те, кто готов присоединится к разработке такой системы и продолжить обсуждение? Всем спасибо! Жду Ваших отзывов и конкретных предложений! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fdaf029.8020...@skubriev.ru
Re: В чем разница между установкой grub в /dev/sda и /dev/sda1 ?
09.06.2012 9:37, Artem Tuchinsky пишет: 1. дело в том, что BIOS передает управление загрузчику в MBR. Если поставишь grub в Boot Record какого нибудь раздела, то его придется еще предварительно загружать другим загрузчиком установленным в MBR 2. думаю что нет 3. установить можно, но ничего загружаться не будет 9 июня 2012 г., 9:24 пользователь Скубриев Владимир vladi...@skubriev.ru написал: Помогите разобраться пожалуйста. При установке debian-installer спрашивает куда устанавливать grub. На выбор предлагается установка grub в /dev/sda, /dev/sda1 и другие имеющиеся основные разделы. Насколько я понимаю /dev/sda - это Master Boot Record а /dev/sda1 - это Boot Record первого основного раздела. 1. В чем разница между установкой grub в /dev/sda и /dev/sda1 ? 2. Отличается ли код записываемый в /dev/sda (Master Boot Record) от кода записываемого в /dev/sda1 (Boot Record) 3. Можно ли устанавливать grub в /dev/sda1 если мы устанавливаем систему на абсолютно новый диск, только что распакованный и не содержащий ни какой информации в MBR ? Насколько я понимаю. Если у нас есть /dev/sda1 - значит у нас есть таблица разделов. Когда debian создает таблицу разделов что он при этом записывает на место загрузчика в этом MBR ? Только таблицу разделов или Таблицу разделов + generic mbr Благодарю за советы. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru Следовательно я правильно понял, что: /dev/sda - установка в MBR /dev/sda1 - установка в Boot Record -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fd2e44d.1040...@skubriev.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 16:40, Dmitry A. Zhiglov написал: 1 июня 2012 г., 15:38 пользователь Alexanderag...@yandex.ru написал: Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: Можно перефразирую задачу? Есть 2 диска. Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 Разделы рейдов содержать: md0 - boot md1 - swap md2 - lvm с vg1 md3 - lvm с vg2 vg1 - система и гипервизор vg2 - нарезка под виртуальные lv Вопросы: - Может было бы правильней делать отдельные рейд-разделы под каждую виртуалку, т.е. свой md+vg+lv? Причина так думать: если повредится зеркало md3 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. - А возможно ли такое вообще, что повредится отдельный md? Причина так думать :ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? профессионально +1, сам голову сломал, пока разобрался в том, что же человек хочет. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8.3010...@skubriev.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 15:38, Alexander написал: Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: 1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0 2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2) - md1 3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. раздел диска2) - сама система с гипервизором - vg1/lv1 на md2 4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все пространство и отдельные lvm-тома нужного размера под каждую виртуалку Собственно говоря смущает пункт №4 - думаю может делать отдельные md под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли в этом смысл? Просто если повредится зеркало из п.4 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. Далее у меня возник такой вопрос - возможно ли такое вообще, что повредится отдельный md? ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? В общем, господа, поделитесь мыслями и опытом :) После установки системы установите grub, также и на /dev/sdb (# grub-install /dev/sdb), дабы в случае, если bios захочет загрузиться с другого диска или вы просто перепутаете кабели местами то сервер смог бы загрузится. По поводу bad-секторов и разных md девайсов может быть дело и выгорет - но тут думаю скорее важно узнать мнение тех, кто конкретно с таким случаем сталкивался. В остальном дождусь ГУРУ. Самому интересно, т.к. то как вы разместили бы разделы и тома даже в голову не приходило - если честно. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8bb25.4050...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
31.03.2012 23:38, Sohin Vyacheslaw написал: 28.03.2012 11:20, Andrey Rahmatullin написал: сервер не загрузится из-за не достаточности данных или не доступности /etc ну дык а какая разница недоступен будет /etc, который на отдельном разделе или в корне...? -- BW Сохин Вячеслав изначально предполагалось, что /etc будет вынесен в отдельную файловую систему, в которую будет как можно меньше вноситься изменений. дабы в случае непредвиденной остановки сервера ее проверка проходила нормально и сервер запускался до стадии, при которой можно было бы удаленно до него достучатся и починить остальные файловые системы. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f7970e5.4090...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
28.03.2012 14:02, Mikhail A Antonov написал: 28.03.2012 13:59, Скубриев Владимир пишет: Спасибо за участие в треде. Вот ведь как иногда бывает полезно обсудить давно понятное! Скажи, ты знаешь что такое оверквотинг? неа, только слышал, щас почитаю -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f745846.1040...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
29.03.2012 1:16, Michael Shigorin написал: Можно не пилить так, а сделать квотами, но _мне_ так удобнее. Аналогично -- один раздел (не считая /home или /var, соответственно) делаю только на ноутах и hardware node серверов виртуализации. вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел установщик не дал. сказал, что /etc должна находится в root fs и его по всей видимости не переубедить. ни кто случайно не подскажет более точно почему debian-installer не дает так поступить ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f754063.2090...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
29.03.2012 1:20, Michael Shigorin написал: On Tue, Mar 27, 2012 at 07:16:46PM +0400, Igor Savinykh wrote: Причем были случаи когда диски начинали сыпаться с областей в var. Диски менять надо через три года более-менее любые, см. тж. http://research.google.com/archive/disk_failures.pdf +1 после того, как я стал применять инструмент проверки поверхности victoria (а есть opensource аналог ?) и стал более пристально приглядываться к тому, что хранит SMART я стал более разборчив с выбором дисков для серверов (часто приходится использовать и перемещать уже б.у. диски) огромную роль играет собираемая в голове статистика, после таких проверок стало ясно что диски бывают разные. выбирая для важных задач менее убитые. откладывая убитые в дальний ящик. не знающим на заметку. не сочтите за оверквотинг -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f754469.4080...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
28.03.2012 13:51, Mikhail A Antonov написал: 28.03.2012 09:45, Скубриев Владимир пишет: Вы ведь в списке рассылке, которая по сути своей существует с целью помощи одних - другим. Расскажите пожалуйста как вы делаете разбивку на серверах ? Предположим что это сервер с двумя/четырьмя дисками. Вставлю свои 5 копеек. В общем случае если возможно сделать рейд - делаю рейд. Уровень зависит от задач и количества дисков. Чаще всего это 1 и 10. И чаще всего аппаратно. Если софтово - то первые 300M - отдельный рейд для /boot с ext2 без lvm, остальное - pv для lvm. По разнесению фс по томам - сильно зависит от задач, но в общем так: /boot (без lvm, остальное на lvm) - 300M / - 5G swap - == объём RAM, но не более 4G. Опять же зависит от железа и задач. На сервер с sas-винтами на аппаратном raid10 с 32Gb RAM, использующийся в качестве машины с виртуалками будет совершенно бестолково делать swap даже на 2Гб. Местами вообще и 1Гб будет бестолково и много - слишком неповоротливый будет сервер, если он ВНЕЗАПНО решит достать много свопа. Рекомендации вида RAM*2 остались во временах, когда полгига RAM это было много. Далее делаем lv для того, что реально нужно. Файлопомойка? - сделаем мелкий lv где-нибудь в /samba/ внутри кторого будут более крупные, в которых и будут лежать файлы. Пример файлопомойки мелкой конторы: /dev/mapper/brain-data 1008M 35M 923M 4% /data /dev/mapper/brain-samba 9,9G 7,9G 1,6G 84% /data/samba /dev/mapper/brain-backup 69G 29G 37G 45% /data/backup /dev/mapper/brain-common 51G 28G 21G 58% /data/samba/common /dev/mapper/brain-home 15G 734M 14G 6% /home /dev/mapper/brain-profiles 14G 1,4G 12G 11% /data/samba/profiles Ну или вот домашняя файлопомойка моя: /dev/mapper/vg1-audiobooks 23G 14G 9,8G 58% /shared-files/audiobooks /dev/mapper/vg1-books 1,0G 151M 874M 15% /shared-files/books /dev/mapper/vg1-games 109G 101G 9,0G 92% /shared-files/games /dev/mapper/vg1-music 120G 112G 8,7G 93% /shared-files/music /dev/mapper/vg1-soft 245G 238G 7,1G 98% /shared-files/soft /dev/mapper/vg1-video 1,2T 1,1T 30G 98% /shared-files/video /dev/mapper/vg1-downloads 20G 17G 3,2G 85% /shared-files/0-downloads /dev/mapper/vg1-upload 20G 12G 8,5G 58% /shared-files/upload Можно не пилить так, а сделать квотами, но _мне_ так удобнее. Мускуль - сделаем нужного размера lv и примонтируем куда надо - либо туда, где мускуль подефолту хранит свои базы, либо в удобное (ну мало ли у кого какие привычки) для нас место типа /data/mysql/. Примеров думаю не надо - всё и так ясно. Ещё что-то? - сделаем аналогично. Не скажу что это всё 100% правильно и является последней инстанцией. Вся эта возня всё на одном разделе или всё на разных - это как война тупоконечников с остроконечниками. Например программа писала в /var который по сути у вас находится на одной файловой системе с /etc и т.д. произошла ошибка, например выключение питания. Очень велика вероятность того, что сервер не загрузится из-за не достаточности данных или не доступности /etc. о_О я часто с таким встречался За более чем 10 лет не встречался ни разу чтобы ext3 крошилась от такого. С недавнего времени использую ext4, но и она себя так не ведёт. 4. lvm 5 - var Херасе. Для примера ради. Помогаю чем могу. Все таки участник рассылки. Чем могу это всмысле нормальной цифры придумать не смог, так хоть такую дам? да Дурацкий подход. Говорят же - промолчи - за умного сойдёшь. Лучше ничего не говорить, чем глупости. 5. lvm 1000 - tmp tmp на tmpfs не всегда оправдано. В моем случае он используется часто как временный диск пользователями сети Там всё равно всего гигабайт, какая разница? ИМХО, /tmp на tmpfs самое место, но опять же зависит от задач. Некоторые очень хотят много писать в /tmp - например mc. 28.03.2012 12:43, Скубриев Владимир пишет: вот цитата с tldp с которой я все таки соглашусь: http://tldp.org/HOWTO/Software-RAID-HOWTO.html#toc2.3 ... But if the system has been swapping on the now faulty device, you will for sure be going down. Swapping on a RAID-1 device would solve this problem. О чём и речь. Спасибо за участие в треде. Вот ведь как иногда бывает полезно обсудить давно понятное! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f72e115.7020
Re: Надежность LVM (ext3 vs lvm и ext3)
26.03.2012 19:48, Igor Savinykh написал: Всем привет! Давно присматриваюсь к LVM, прочитал различную документацию, обсуждения в форумах. Хочу спросить у тех кто имеет опыт работы с LVM. Рассмотрим ситуацию установки небольшого сервера на 1 винчестер. 1) Стандартный вариант - диск разбить на разделы со swap и ext3 и установить Debian. 2) Вариант с LVM - настроить LVM, диск разбить на разделы со swap и ext3 и установить Debian. /boot можно вынести за LVM. Вариант 2 более гибкий. Меня интересует надежность варианта 2 в плане реакции на мелкие сбои: сбой питания (конечно сервер будет на UPS, но все же), зависания системы в сравнении с вариантом 1. В варианте 1 при запуске системы после мелкого сбоя идет проверка диска, автоматический откат ext3 и система снова работает. Конечно будут делаться резервные копии, но хочется понять насколько капризнее в эксплуатации будет вариант 2. С уважением, Игорь Рассказываю. Уж слава богу опыт имею. Между представленными вариантами разницы почти нет. Выносить раздел boot за lvm имеет смысл, для совместимости с grub. По крайней мере иначе поставить будет сложно, но по идее варианты существуют. Вариант 1 - совершенно не правилен с точки зрения надежности. Как в принципе и вариант 2. Причина этому - все в одной файловой системе - большая вероятность проблем загрузки сервера в случае ошибок на файловых системах. Например программа писала в /var который по сути у вас находится на одной файловой системе с /etc и т.д. произошла ошибка, например выключение питания. Очень велика вероятность того, что сервер не загрузится из-за не достаточности данных или не доступности /etc. Т.к. файловая система не будет смонтирована. Конечно есть альтернативные варианты решения проблемы. Например: FSCKFIX=yes в /etc/default/rcS что по сути заставляет debian каждый раз проверят и исправлять файловую систему при загрузке, в случае проблем. Я например var, tmp, home разношу по разным разделам, кстати если еще по разным lvm томам разносить, то появляется гибкость lvm. У меня конечно чаще всего все всё пишут в /var и все хорошо, если он вынесен в отдельный раздел. Получаеться sda или md0 , бьется так: 1. sda1 512 /boot желательно ext3 опять же с точки зрения совместимости. я например использую acronis, чтобы сохранять разделы 2. sda2 8192 swap с точки зрения сервера с 4 Гигами оперативы 3. sda3 lvm 4. lvm 5 - var 5. lvm 1000 - tmp 6. lvm 1000 - etc 7 lvm 2 - / как то так еще лучше если ваш sda это md0 с raid1 ;))) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f71684f.2070...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
27.03.2012 11:18, Andrey Rahmatullin написал: On Tue, Mar 27, 2012 at 11:12:15AM +0400, Скубриев Владимир wrote: Вариант 1 - совершенно не правилен с точки зрения надежности. Как в принципе и вариант 2. Причина этому - все в одной файловой системе - большая вероятность проблем загрузки сервера в случае ошибок на файловых системах. о_О вы не согласны с тем, что желательно разносить разделы ? Например программа писала в /var который по сути у вас находится на одной файловой системе с /etc и т.д. произошла ошибка, например выключение питания. Очень велика вероятность того, что сервер не загрузится из-за не достаточности данных или не доступности /etc. о_О я часто с таким встречался Т.к. файловая система не будет смонтирована. Конечно есть альтернативные варианты решения проблемы. Например: FSCKFIX=yes в /etc/default/rcS По условию задачи /etc недоступен. Я например var, tmp, home разношу по разным разделам, кстати если еще по разным lvm томам разносить, то появляется гибкость lvm. А как можно на одном lv два раздела держать? извиняюсь - неправильно выразился, я имел в виду по разным томам конечно разные каталоги 1. sda1 512 /boot желательно ext3 опять же с точки зрения совместимости. я например использую acronis, чтобы сохранять разделы Уууу. по крайней мере это одна из причин, другие не могу вспомнить, но то что они были - это точно. для себя взял за правило ext2/ext3 по boot 2. sda2 8192 swap с точки зрения сервера с 4 Гигами оперативы Обоснуйте. чё тут обосновывать ??? его можно вообще не делать, по крайней мере на нормальном сервере он должен быть не менее 200 Мб, т.к. использование swap-а в пределах 200 мегабайт считается нормой. а 8192 - с запасом, хотя конечно да с большим перебором. ну хорошо пусть по усмотрению сис.админа. 3. sda3 lvm 4. lvm 5 - var Херасе. Для примера ради. Помогаю чем могу. Все таки участник рассылки. 5. lvm 1000 - tmp tmp на tmpfs не всегда оправдано. В моем случае он используется часто как временный диск пользователями сети 6. lvm 1000 - etc 7 lvm 2 - / Отдельный /etc/ это круто. Оно точно так умеет? ладно - расскаиваюсь, но я хотел донести общий смысл, пусть и не совсем в правильной форме это сделал. похвастайтесь тем, как вы решаете эту задачу ? всё в одном разделе небось держите, дабы не замарачиваться ? ))) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f717439.5050...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
27.03.2012 11:18, Andrey Rahmatullin написал: On Tue, Mar 27, 2012 at 11:12:15AM +0400, Скубриев Владимир wrote: Вариант 1 - совершенно не правилен с точки зрения надежности. Как в принципе и вариант 2. Причина этому - все в одной файловой системе - большая вероятность проблем загрузки сервера в случае ошибок на файловых системах. о_О о_О, может быть вы мне похвастаетесь своими мыслями по этому поводу? Например программа писала в /var который по сути у вас находится на одной файловой системе с /etc и т.д. произошла ошибка, например выключение питания. Очень велика вероятность того, что сервер не загрузится из-за не достаточности данных или не доступности /etc. о_О о_О, лично несколько раз с этим встречался Т.к. файловая система не будет смонтирована. Конечно есть альтернативные варианты решения проблемы. Например: FSCKFIX=yes в /etc/default/rcS По условию задачи /etc недоступен. когда не доступен ? 1. во время загрузки, потому, что ошибка где нибудь в /var, так это исправляется FSCKFIX=yes либо прийдется ехать лично. 2. после проверки вызываемой в результате использования параметра FSCKFIX=yes ? Я например var, tmp, home разношу по разным разделам, кстати если еще по разным lvm томам разносить, то появляется гибкость lvm. А как можно на одном lv два раздела держать? не придирайтесь к словам, кому надо, тот понял. разносить каталоги по разным томам - естественно. 1. sda1 512 /boot желательно ext3 опять же с точки зрения совместимости. я например использую acronis, чтобы сохранять разделы Уууу. есть и другие причины, называть не буду - уже не помню, но для себя сделал выбор. 2. sda2 8192 swap с точки зрения сервера с 4 Гигами оперативы Обоснуйте. для примера. хотя можно конечно и меньше. ну блин пусть будет запас не пойму только вам что жалко ? я понимаю, что у нормально работающего сервера своп должен быть в районе 100-200 Мб. но ведь все возможно. или я не прав ? 3. sda3 lvm 4. lvm 5 - var Херасе. для примера ради 5. lvm 1000 - tmp tmp на tmpfs согласен, но ведь для примера - часто меняются данные выноси! меньше исправлять потом. 6. lvm 1000 - etc 7 lvm 2 - / Отдельный /etc/ это круто. Оно точно так умеет? попробуйте и узнаете ! извиняюсь что так поздно отписался, вчера имап яндекса не работал целый день ((( -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f7299f4.10...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
27.03.2012 12:01, Mikhail A Antonov написал: 27.03.2012 11:18, Andrey Rahmatullin пишет: On Tue, Mar 27, 2012 at 11:12:15AM +0400, Скубриев Владимир wrote: 2. sda2 8192 swap с точки зрения сервера с 4 Гигами оперативы Обоснуйте. захотелось так А заодно расскажи зачем swap не на lvm. потому что на самом деле у меня sda1 boot sda2 swap sda3 mdadm raid 1 with pv bigraid with logical volumes var,tmp,etc,etc ... + sda1 boot sda2 swap sda3 mdadm raid 1 with pv bigraid with logical volumes var,tmp,etc,etc ... И ещё маленькое дополнение - используя lvm не обязательно забивать всё доступное место. да очень правильно дополнение -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f729fe7.9060...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
27.03.2012 12:15, Andrey Rahmatullin написал: On Tue, Mar 27, 2012 at 12:03:05PM +0400, Скубриев Владимир wrote: Вариант 1 - совершенно не правилен с точки зрения надежности. Как в принципе и вариант 2. Причина этому - все в одной файловой системе - большая вероятность проблем загрузки сервера в случае ошибок на файловых системах. о_О вы не согласны с тем, что желательно разносить разделы ? С такой аргументацией - нет. Вы ведь в списке рассылке, которая по сути своей существует с целью помощи одних - другим. Расскажите пожалуйста как вы делаете разбивку на серверах ? Предположим что это сервер с двумя/четырьмя дисками. Например программа писала в /var который по сути у вас находится на одной файловой системе с /etc и т.д. произошла ошибка, например выключение питания. Очень велика вероятность того, что сервер не загрузится из-за не достаточности данных или не доступности /etc. о_О я часто с таким встречался Вы не двойник freehck или как его? нет. а что похож ? Т.к. файловая система не будет смонтирована. Конечно есть альтернативные варианты решения проблемы. Например: FSCKFIX=yes в /etc/default/rcS По условию задачи /etc недоступен. Я например var, tmp, home разношу по разным разделам, кстати если еще по разным lvm томам разносить, то появляется гибкость lvm. А как можно на одном lv два раздела держать? извиняюсь - неправильно выразился, я имел в виду по разным томам конечно разные каталоги Поясните, чем отличается разношу по разным разделам от по разным lvm томам разносить тем, что в случае использования lv томов мы получаем гибкость за счет изменения размеров файловых систем, в случае необходимости. но это и так всем понятно - это плюс от использования lvm 1. sda1 512 /boot желательно ext3 опять же с точки зрения совместимости. я например использую acronis, чтобы сохранять разделы Уууу. по крайней мере это одна из причин, другие не могу вспомнить, но то что они были - это точно. для себя взял за правило ext2/ext3 по boot Бывает. 2. sda2 8192 swap с точки зрения сервера с 4 Гигами оперативы Обоснуйте. чё тут обосновывать ??? Объём. Не кричите. я много раз встречал в интернете рекомендации по поводу размера своп разделов, там говорилось о размере ОЗУ умноженном на 2 пусть это и не обоснование как таковое, но все же это то почему я выбираю такой размер разделов своп на своих серверах и десктопах его можно вообще не делать, по крайней мере на нормальном сервере он должен быть не менее 200 Мб, т.к. использование swap-а в пределах 200 мегабайт считается нормой. Кем считается? как то я смотрел лекции от компании яндекс, там инженер компании рассказывал о устройстве линукс и не только. им было отмечено, что в принципе 100-200 мегабайт используемого размера от всех разделов подкачки является нормой. наверное это стоит понимать в том смысле, что более 200 Мб используемой памяти из раздела подкачки - есть повод о том, чтобы пересмотреть конфигурацию сервера и/или программное обеспечение на нем. потому, что это может привезти к замедлению работы по работающего на сервере. 3. sda3 lvm 4. lvm 5 - var Херасе. Для примера ради. Помогаю чем могу. Все таки участник рассылки. Чем могу это всмысле нормальной цифры придумать не смог, так хоть такую дам? да 5. lvm 1000 - tmp tmp на tmpfs не всегда оправдано. В моем случае он используется часто как временный диск пользователями сети Там всё равно всего гигабайт, какая разница? похвастайтесь тем, как вы решаете эту задачу ? всё в одном разделе небось держите, дабы не замарачиваться ? ))) Задачу установить небольшой сервер на 1 винчестер? Никак не решаю, не стояла пока. Как стал бы решать - да, всё в одном разделе кроме, возможно, /var и/или /var/log (в зависимости от назначения сервера). очень за вас рад! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f72a576.4080...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
27.03.2012 19:33, Igor Savinykh написал: 27.03.2012 12:01, Mikhail A Antonov написал: А заодно расскажи зачем swap не на lvm. Для универсальности я думаю swap можно разместить на LVM. Но в случае сервера если сразу под swap выделить 1-2 Gb, то вряд ли потребуется в обозримом будущем увеличивать этот раздел. У меня на сервере при RAM - 2Gb, swap - 2 Gb и он используется на 1%. С уважением, Игорь swap - можно и даже нужно если есть возможность держать на lvm. Но я не рассказал о своей ситуации более подробно. за что каюсь. У меня lvm весь на raid1 md разделе. и я опять же интересовался этим вопросом в гугле. и сделал для себя вывод, что swap на mdadm разделе не надо делать. опять же точные причины я назвать не могу. т.к. банально не помню уже. есть проблемы с памятью она последнее время очень избирательна - увы. поэтому swap раздел я вынес за пределы mdadm и lvm на самом деле у меня sda1 boot sda2 swap sda3 mdadm raid 1 with pv bigraid with logical volumes var,tmp,etc,etc ... + sda1 boot sda2 swap sda3 mdadm raid 1 with pv bigraid with logical volumes var,tmp,etc,etc ... -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f72a757.4010...@skubriev.ru
Re: testing + аудио
26.03.2012 14:23, Ivan Petrov написал: На ядре testing заработал линейный вход встроенной аудиокарточки. Как можно: а) узнать какой модуль в testing работает с аудиокарточкой и пропатчить стандартное ядро squeeze ? б) поставить ядро testing с headers не снося squeeze + gnome ? в) как корректно обновиться до testing не снося gnome и его настройки ? 1. вообще то в тестинге не одно ядро... с каким конкретно у вас заработало ? 2. поставте нужное вам ядро из backports a. http://backports-master.debian.org/ b. http://wiki.debian.org/ru/Backports в) как корректно обновиться до testing не снося gnome и его настройки могут быть плачевные последствия с зависимостями. хотя смотря как подготовиться. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f7046b1.5000...@skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
06.03.2012 17:11, Alexander пишет: 02.03.2012, 16:32, Alexey Boykoale...@boyko.km.ua: Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm не зависал, и virt-manager конектился. service udev restart после перезагрузки не помогает. Выяснил следующее - оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого все работает вроде нормально (внутри virt-manager), если его закрыть и запустить по новой - опять висит 4-5 минут. От системы, с которой запускается virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель к гипервизору кстати у меня также везде. очень долго virt-manager подключается к libvirt'у. Минуты 3-4 а то и все пять. От чего это зависит я так и не понял. Но могу сказать, что использовал последние версии libvirt из sid'a и fedora 16 с её последним virt-manager'ом -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: как убить transmission-da ?
07.03.2012 11:01, Dmitry A. Zhiglov пишет: 7 марта 2012 г. 10:01 пользователь Скубриев Владимир vladi...@skubriev.ru написал: есть сервер, пере запускать его нет возможности. на нем крутится transmission-daemon. invoke-rc.d transmission-daemon stop Stopping bittorrent daemon: transmission-daemon не останавливает его и не выгружает из памяти процессы демона: ps -A | grep trans 749 ?00:00:01 transmission-dadefunct 1300 ?01:42:49 transmission-da 32103 ?00:00:00 transmission-dadefunct 32200 ?00:00:01 transmission-dadefunct killall transmission-da - не помогает kill -TERM 1300 kill -SIGTERM 1300 kill -15 1300 тоже не помогают. конфиг transmission: http://pastebin.com/PirTTfD0 pkill -KILL transmission-da root@storhost:/mnt# pkill -KILL transmission-da root@storhost:/mnt# ps -A | grep trans 749 ?00:00:01 transmission-da defunct 1300 ?01:42:49 transmission-da 32103 ?00:00:00 transmission-da defunct 32200 ?00:00:01 transmission-da defunct -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f570d30.2060...@skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
07.03.2012 11:13, Alexander пишет: 07.03.2012, 11:03, Скубриев Владимирvladi...@skubriev.ru: 07.03.2012 10:01, Alexander пишет: 07.03.2012, 09:44, Скубриев Владимирvladi...@skubriev.ru: 06.03.2012 17:11, Alexander пишет:02.03.2012, 16:32, Alexey Boykoale...@boyko.km.ua: Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm не зависал, и virt-manager конектился. service udev restart после перезагрузки не помогает. Выяснил следующее - оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого все работает вроде нормально (внутри virt-manager), если его закрыть и запустить по новой - опять висит 4-5 минут. От системы, с которой запускается virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель к гипервизору кстати у меня также везде. очень долго virt-manager подключается к libvirt'у. Минуты 3-4 а то и все пять. От чего это зависит я так и не понял. Но могу сказать, что использовал последние версии libvirt из sid'a и fedora 16 с её последним virt-manager'ом а, ну так вот это ненормальное поведение, ибо если на debian 6.0.4 оставить все как есть по умолчанию без использования дополнительных репозиториев (т.е. ядро 2.6.32 и пакеты из stable), то virt-manager подключается к гипервизору за 3-4 секунды хорошее замечание! только вот я ведь не просто так использую пакеты из sid'a )) Вот кстати интересно для чего? У меня все ванильное, кроме вот ядра - 3.2 из backports поставил, но это тоже как бы официальный стабильный репозиторий. Особенно если учитывать, что 3.2 это lts релиз и поддержка 2.6.32 уже официально прекратилась. Все работает стабильно сейчас на уровне возможностей железа по ощущениям. Использую несколько Windows 2008 и Windows 2008 R2 в продакшене. Скажите в чем смысл использовать что-то из sid - стоит ли оно того? Спрашиваю абсолютно искренне безо всяких подоплек) верю про искренность, ну не могу я щас вспомнить уже (( -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f570d8a.20...@skubriev.ru
а что использовать для контентной фильтрации на шлюзах ?
Есть некоторое количество шлюзов на debian 6. На всех стоит squid, почти все юзеры работают через него. Везде требуется разный уровень контентной фильтрации для разных групп пользователей. Одним нужно порезать только просмотр видео-онлайн и порно. Другим вообще все не связанное с работой. Третьим только социальные сети и их зеркала. И т.д. Я знаю, что существуют squidguard, dansguardian. Кто их использует - хватает ? А есть что то еще ? Пусть даже платное! Например в виде icap сервера к squid или чего то еще. Главное чтобы очень функциональное и гибкое в настройке в плане контентной фильтрации. Еще очень интересно, что используют уважаемые участники рассылки в своих целях ? Заранее огромное спасибо, всем кто откликнется! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: а что использовать для контентной фильтрации на шлюзах ?
05.03.2012 16:50, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: 05.03.2012 16:43, Скубриев Владимир пишет: Есть некоторое количество шлюзов на debian 6. На всех стоит squid, почти все юзеры работают через него. Везде требуется разный уровень контентной фильтрации для разных групп пользователей. Одним нужно порезать только просмотр видео-онлайн и порно. Другим вообще все не связанное с работой. Третьим только социальные сети и их зеркала. И т.д. Я знаю, что существуют squidguard, dansguardian. Кто их использует - хватает ? А есть что то еще ? Пусть даже платное! Например в виде icap сервера к squid или чего то еще. Главное чтобы очень функциональное и гибкое в настройке в плане контентной фильтрации. Еще очень интересно, что используют уважаемые участники рассылки в своих целях ? Заранее огромное спасибо, всем кто откликнется! ммм... acl BANNERS url_regex /etc/squid3/txt/banners.txt cat /etc/squid3/txt/banners.txt -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: а что использовать для контентной фильтрации на шлюзах ?
05.03.2012 16:55, Ilya Sapytsky пишет: 5 марта 2012 г. 16:50 пользователь Korona Auto Ltd.\ Andrey N. Prokofieva...@korona-auto.com написал: 05.03.2012 16:43, Скубриев Владимир пишет: Есть некоторое количество шлюзов на debian 6. На всех стоит squid, почти все юзеры работают через него. Везде требуется разный уровень контентной фильтрации для разных групп пользователей. Одним нужно порезать только просмотр видео-онлайн и порно. Другим вообще все не связанное с работой. Третьим только социальные сети и их зеркала. И т.д. Я знаю, что существуют squidguard, dansguardian. Кто их использует - хватает ? А есть что то еще ? Пусть даже платное! Например в виде icap сервера к squid или чего то еще. Главное чтобы очень функциональное и гибкое в настройке в плане контентной фильтрации. Еще очень интересно, что используют уважаемые участники рассылки в своих целях ? Заранее огромное спасибо, всем кто откликнется! ммм... acl BANNERS url_regex /etc/squid3/txt/banners.txt не, всё хорошо, но TC вроде как про разный уровень фильтрации говорит, а значит и авторизация какая-никакая есть... rejik, но на него со squirm так пока не не дошли руки перейти... в разных местах разная авторизация: где-то AD где то по ip -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f55a47a.2090...@skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012 15:38, Alexander пишет: Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в перезагрузку по причине bluescreen. В логах винды ничего по этому поводу нет. Ядро Debian Squezze 2.6.32-5-amd64 используется qemu-kvm 0.12.5 Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не перезагружалось, то есть проблема ушла. Однако в этом случае не мог приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 2.6.32-5-amd64 - проблема вернулась. Кто-нибудь сталкивался? по моему проще решить проблему с virt-manager и забыть о проблеме а что за проблема с ним ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f50b50b.1030...@skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012 16:06, Alexander пишет: 02.03.2012, 15:54, Скубриев Владимирvladi...@skubriev.ru: 02.03.2012 15:38, Alexander пишет: Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в перезагрузку по причине bluescreen. В логах винды ничего по этому поводу нет. Ядро Debian Squezze 2.6.32-5-amd64 используется qemu-kvm 0.12.5 Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не перезагружалось, то есть проблема ушла. Однако в этом случае не мог приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 2.6.32-5-amd64 - проблема вернулась. Кто-нибудь сталкивался? по моему проще решить проблему с virt-manager и забыть о проблеме а что за проблема с ним ? Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто забыть и юзать 3.2 у меня стоит debian squeeze и ядро 3.0.0-1-amd64 все работает нормально на двух серверах. попробуйте поставить его. вот более подробно о нем root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64 Пакет: linux-image-3.0.0-1-amd64 Новый: да Состояние: установлен Автоматически установлен: нет Версия: 3.0.0-4 Приоритет: необязательный Раздел: kernel Сопровождающий: Debian Kernel Team debian-ker...@lists.debian.org Размер в распакованном виде: 109 M Зависимости: module-init-tools, linux-base (= 3~), initramfs-tools (= 0.99~) | linux-initramfs-tool Предварительные зависимости: debconf | debconf-2.0 Рекомендуются: firmware-linux-free (= 3~) Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (= 22.8-8.2~) Ломают: initramfs-tools ( 0.99~), lilo ( 22.8-8.2~) Предоставляют: linux-image, linux-modules-3.0.0-1-amd64 Описание: Linux 3.0.0 for 64-bit PCs The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel 64 processors. This kernel also runs on a Xen hypervisor. It supports both privileged (dom0) and unprivileged (domU) operation. Это ядро из sid-а И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ? А как поставить подскажу если надо. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f50bc47.4020...@skubriev.ru
Re: Хозяйке на заметку...
02.03.2012 16:25, Alexander Danilov пишет: Поставил debtorrent, подивился лаконичной инструкции в /usr/share/doc/debtorrent/README.txt и ... Это только у меня сегодня провайдер такой добрый, что скорость скачивания минимум раза в 2 возросла (на больших объёмах), или кто ещё может подтвердить? хоть бы написали сюда что там такого. не у всех есть желание ставить ваш debtorrent ))) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: KVM - гостевой windows server 2008 периодически перезагружается
02.03.2012 16:37, Alexander пишет: 02.03.2012, 16:25, Скубриев Владимирvladi...@skubriev.ru: 02.03.2012 16:06, Alexander пишет: 02.03.2012, 15:54, Скубриев Владимирvladi...@skubriev.ru: 02.03.2012 15:38, Alexander пишет: Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в перезагрузку по причине bluescreen. В логах винды ничего по этому поводу нет. Ядро Debian Squezze 2.6.32-5-amd64 используется qemu-kvm 0.12.5 Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют. Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не перезагружалось, то есть проблема ушла. Однако в этом случае не мог приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 2.6.32-5-amd64 - проблема вернулась. Кто-нибудь сталкивался? по моему проще решить проблему с virt-manager и забыть о проблеме а что за проблема с ним ? Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто забыть и юзать 3.2 у меня стоит debian squeeze и ядро 3.0.0-1-amd64 все работает нормально на двух серверах. попробуйте поставить его. вот более подробно о нем root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64 Пакет: linux-image-3.0.0-1-amd64 Новый: да Состояние: установлен Автоматически установлен: нет Версия: 3.0.0-4 Приоритет: необязательный Раздел: kernel Сопровождающий: Debian Kernel Teamdebian-ker...@lists.debian.org Размер в распакованном виде: 109 M Зависимости: module-init-tools, linux-base (= 3~), initramfs-tools (= 0.99~) | linux-initramfs-tool Предварительные зависимости: debconf | debconf-2.0 Рекомендуются: firmware-linux-free (= 3~) Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (= 22.8-8.2~) Ломают: initramfs-tools ( 0.99~), lilo ( 22.8-8.2~) Предоставляют: linux-image, linux-modules-3.0.0-1-amd64 Описание: Linux 3.0.0 for 64-bit PCs The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel 64 processors. This kernel also runs on a Xen hypervisor. It supports both privileged (dom0) and unprivileged (domU) operation. Это ядро из sid-а И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ? А как поставить подскажу если надо. Просто 3.2 в backports, ну и посвежее, ну и LTS :) по-моему причин более чем достаточно чем 3.0 из sid ;) из sid ставить как то боязно. Сейчас попробую подключиться удаленно с абсолютно аналогичного дистра (debian6 x64) с тем же самым ядром 3.2 из бэкпортс. Ибо сейчас подключаюсь с debian6 x32 и ядро 2.6.32. Может не будет виснуть О сути использования пакетов из sid. Нужно это для того, чтобы можно было использовать не только свежее ядро. Но и новый kvm, qemu, libvirt и т.д. libvirt так вообще лучше использовать самый последний всегда. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f50c55e.7050...@skubriev.ru
исчезает виртуальная машина после live миграции в kvm
Добрый день! Есть два хоста: storhost и vsp Оба с squezze + некоторые пакеты из sid, experimental. Кстати это не одно и тоже ли ? Использую kvm и libvirt для работы с виртуальными машинами. Хочу сделать миграцию виртуальной машины с storhost на vsp. Предварительно создаю такой же lvm том на vsp по размеру и имени как и на storhost'е На обоих машинах диск - lvm том(точнее на storhost он уже есть и на нем стоит система monitor'а): /dev/bigraid/monitor Софт на обоих: 1. linux-image-3.0.0-1-amd64 2. libvirt-bin 0.8.3-5+squeeze2 3. qemu 0.12.5+dfsg-5+squeeze6 Заходим на storhost в virsh и делаем: virsh# virsh # migrate --verbose --copy-storage-all --live monitor qemu+ssh://vsp/system Migration: [100 %] Вот что в /var/log/libvirt/libvirtd.log на storhost 09:42:58.530: 427: error : qemuMonitorIO:577 : internal error End of file from monitor 09:42:58.587: 431: error : qemudDomainBlockStats:6766 : Requested operation is not valid: domain is not running 09:42:58.592: 429: error : qemudDomainBlockStats:6766 : Requested operation is not valid: domain is not running 09:42:58.596: 430: error : qemudDomainInterfaceStats:6844 : Requested operation is not valid: domain is not running 09:46:30.918: 430: error : qemuDomainMigrateBegin3:7584 : Requested operation is not valid: domain is not running 09:56:31.101: 431: error : qemuDomainGetJobInfo:8057 : Requested operation is not valid: domain is not running Но по моему это не имеет отношение к миграции , т.е. по сути это пустая информацию. Будем считать что в лог ни чего не записалось. Вот что в /var/log/libvirt/libvirtd.log на vsp 09:52:14.000: 16427: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:52:45.000: 16430: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:53:16.000: 16428: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:53:47.000: 16429: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:54:18.000: 16426: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:54:49.000: 16427: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:55:20.000: 16430: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:55:51.000: 16428: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:56:21.000: 16429: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:56:52.000: 16426: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:57:22.001: 16427: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:57:52.001: 16430: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:58:23.000: 16428: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:58:54.000: 16429: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 09:59:25.000: 16426: error : qemuDomainObjBeginJobInternal:763 : Timed out during operation: cannot acquire state change lock 10:03:17.616: 16425: error : qemuMonitorIOWrite:447 : Unable to write to monitor: Обрыв канала Здесь по моему это тоже не имеет отношение к миграции. Может только последняя строчка. Опять же! Я не знаю когда она появилась: во время миграции, после нее или когда я выключил успешно про мигрировавшую машину. Так вот после миграции машина нормально работает на vsp. А на storhost остается выключенная. Но! Как только я выключаю её на vsp машина просто исчезает из virt-manager и выводе root@vsp# virsh list --all тоже она осутствует Почему это происходит ? После этого я создаю новую виртуалку на vsp и указываю её жесткий диск /dev/bigraid/monitor. Стартую её и вижу с мигрировавшую monitor. Она работает и все хорошо. Но почему исчезает блин после выключения. Зачем эти пляски по созданию новой ВМ и потом пляски с /udev/rules.d дабы удалить там инфу о старом mac адресе - Я не понимаю. И еще момент что такое transient domain и какие у него особенности (простыми словами если можно)? Всем спасибо за уделенное время! -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru