2 апреля 2013 г., 23:27 пользователь "Артём Н." <[email protected]>написал:
> 02.04.2013 08:13, Stanislav Vlasov пишет: > > >> 4. Коммутатор (говорят, что возможно найти лишний). > > > Для надёжности лучше два. > > Там, в принципе, несколько сетевых интерфейсов. Может, вообще, не > нужен > > коммутатор. > > Хм... Разве что сумеете обеспечить связь "каждый с каждым" без него, > причём с > > двойным резервированием. > Мда, проще найти коммутатор. Просто раньше они, говорят, валялись кучкой, а > сейчас найти не получается. > shop.nag.ru в помощь. Правда, не знаю, насколько быстро. > > Мда... > Так а что делать? Там кластера особо никто не ждёт. Даже наоборот. Нужны > бэкапы > и мониторилка (двух машин, которые под это выделили, достаточно за глаза). > Кластер я для себя хочу, ради обучения. И мне даже плюс, что ресурс сильно > ограничен, - думать заставляет и выбирать. Кстати, потому хотелось бы, чтобы кластер был виден, как одна машина, с > одним > IP: экран на виртуалке и проброс портов на внутренние виртуалки. > Э... Накой, собственно, один ип на всё? Можно и так, конечно. Но смысл в локалке-то? Там адреса не ограничены. > > Я могу убрать два диска из Lustre и создать из них DRBD? > > Можно и так. Но опять же - в оффлайне. > Т.е., убрать с них данные (без особых мучений, естественно), перекинув на > остальные. Затем, убрать из LustreFS. После чего сделать из них том DRDB. > Ну да, вывести из эксплуатации и делать что хошь. > > > 3 - может быть clvm (clustered lvm). Возможно, будет на несколько > > > процентов быстрее. > > В смысле? Ведь cLVM тоже нужна кластерная ФС? Или вы про замену DRBD > на cLVM? > > Нет, clvm не требуется кластерная фс. И оно не заменяет drbd, а живёт > поверх. > > Просто это lvm, работающий в кластере, когда тома лвм доступны всем > узлам кластера. > А управление блокировками на файлы/участки файлов чем реализуется? Там нет файлов, это LVM. Блокировки - через кластерную инфраструктуру типа corosync или что-то подобное. > > > AoE пробовал - были проблемы с объединением сетевых карт. iscsi в > этом > > > плане менее капризен. > > Какие проблемы? > > При бондинге двух сетевых карт и на клиенте и на сервере скрость передачи > > упёрлась в одну сетевую карту. > В смысле? Не очень понял. Работали обе сетевые карты, но максимальная > скорость > каждой была ограничена скоростью самой низкоскоростной? Там были две по гигабиту. Пробовались два варианта - только средствами AoE и бондинг. В обоих случаях получался гигабит максимум. Дальше не разбирались. > > Угу, я тестировал как-то... Для текущих задач с iops порядка полутора > тысяч на > > один сервер - не подойдёт. > > В тестах на таком же железе и 2x1Гб сети выходило порядка нескольких > сотен в > > пределе. > > iscsi на этом же стенде упёрся в диски по iops. > > Скорость чтения/записи отличалась на несколько процентов (оба явно > упирались в > > сеть), так что тут разночтений нет. > Всё ясно. DRDB+iSCSI и не мудрить. Ну да, если на сторадже не будет виртуалок. > > >> С другой стороны, я ведь могу использовать > > >> паравиртуализованные ОС без потери производительности? > > > Как обычно, вобщем-то. > > Т.е., вполне нормальный вариант (тогда сервера виртуализации будут > на старых HP > > Proliant)? > > Только для линуксов. > Хм... А гипервизор только Xen? Помнится, на старых компах, на которых собирался поднимать виртуалки, нет аппаратной виртуализации. Так что - таки да, только Xen. Можно lxc или openvz, но там уже не совсем виртуалки. > > Довели, наверное... Для чего тогда была новость, если в публичном > доступе > > этого нет? > > Судя по той ссылке - это было приглашение на работу программиста, > который должен > > будет переделывать заббикс. > Мне показалось, что это презентация системы. :-) Ещё PDF-ка с похожим > содержанием где-то валялась. > Типа этого: > http://download.yandex.ru/company/experience/rit2008/highload_lapan.pdf Хм... Значит, ту ссылку я пропустил. Тем не менее, в публичном доступе нет - воспользоваться нельзя. Разве что уговорить продать. > >>>> 2. rsnapshot всё-таки не распределённая система. Хотя, он и > использует > > rsync с > > >>>> бэкапом на сервер, я не помню возможно ли делать > > инкрементальные/декрементальные > > >>>> бэкапы таким образом (напрямую на сервер). > > >>> Не совсем понял вопроса. Накой делать копии сервера на сам > сервер? > > >> Инкрементальную копию удалённой машины на сервер. Возможно? > > >> Или нет? > > >> Или не стоит? > > > Гм... rsnapshot - средство создания копии дерева каталогов. > > > Организация хранения дерева каталогов такова, что можно увидеть > копии > > > дерева на предыдущие моменты времени. > > > А то, как именно сделано копирование - уже другой вопрос. > > Так тот же самый, с точки зрения преимуществ перед другими системами. > > Хм... man rsync. > Почти 2000 строчек наводят уныние... :-) Это разве много? :-) > > У rsnapshot можно и опции позадавать, хотя и по-умолчанию будет > > копироваться только изменившееся. Не помню, правда, будут ли по-умолчанию > > считаться контрольные суммы остальных файлов или всё по размеру/времени > > изменения определяется. > Будет копироваться изменившийся файл, а не участок, так? > Не помню, как оно по-умолчанию. С опцией -c по сети однозначно будут передаваться только изменившиеся блоки. > > > Тогда - таки да, amanda. Но, насколько я помню, агента под винды > надо > > > скачивать отдельно. > > Так а почему Amanda, а не Bacula? > > Я не имею против неё ничего, кроме того, что я про неё почти ничего > не знаю (о > > Bacula хотя бы общее представление есть) и того, что, кажется, она не > > поддерживается. > > Хм... The most recent stable release is version 3.3.3, released on > January 10, 2013. > Понятно. В чём основные отличия от Bacula? Почему вы Amanda так > рекомендуете? > Видимо, потому, что на предыдущей работе до покупки бекапа от Symantec было довольно серьёзное рассмотрение доступных систем бекапов и аманда таки шла наравне с симантеком, который выиграл только из-за требований от стороннего софта про что-то там сертифицированное. К сожалению, не помню, чем там не понравилась бакула, это было почти три года назад. Но осадочек остался :-) > > > Я имел ввиду это: > > > http://www.percona.com/software/percona-xtrabackup/downloads > > Да я понял. Но, кажется, InnoDB бэкапить она не умеет во время > работы? > > It supports completely non-blocking backups of InnoDB, XtraDB, and HailDB > > storage engines. In addition, it can back up the following storage > engines by > > briefly pausing writes at the end of the backup: MyISAM, Merge, and > Archive, > > including partitioned tables, triggers, and database options. > > Раз бекап non-blocking - таки он онлайн! :-) > В чём тогда основная разница между платной и бесплатной (я смотрел, вроде > бы, у > бесплатного не стояла галочка в графе "горячий бэкап")? > Э... http://www.percona.com/software/percona-xtrabackup Еще раз табличку пересмотрите. Там разницы - параллельный бекап и т.п. Оно, конечно, полезно, но далеко не всем надо. Кстати, есть некая "Zmanda Recovery Manager for MySQL". > Вообще, Amanda со товарищи - штука интересная. > Почему же Bacula больше "на слуху"? > Кому как ;-) > > Примерно так. Хотя под бекапы можно и не сетевую фс. Сделать два бекапных > > сервера и всё. > И прямо на них крутить бэкапилку? > Охота её в ВМ засунуть... Но смысл? По-хорошему, её надо вообще на отдельный сервер. > > Вопросы: > > 1. Крутить СУБД на тех же машинах, на которых реализована СХД - > глупо? > > Может быть медленно. Хотя можно и приоритеты дискового ио расставить, > конечно. > > > 3. Лучше ли использовать RAID6, чем RAID0, в случае с RAID1 по > DRDB? > > Или это лишено смысла? > > Если параноик - достаточно raid5 под drbdb > А если параноик, но проблемы будут не моими, то RAID-0 с DRDB тоже вполне > надёжен? > > В принципе, на сложность уровень RAID не влияет, так что... > Зато влияет на объём и скорость. Правда, raid5 влияет не настолько, как raid1 -- Stanislav

