почитал.

если Вы не поняли, то все обсуждаемые здесь вопросы касаются постройки
софтового рейда - а у Вас рейд хардварный. Вот пусть этот вот самый рейд и
занимается обсчетами-подсчетами.

только не понятно зачем здесь zfs - ufs-а с головой как-бы и не надо на
продакшин ставить бурно развивающуюся вещь

On Tue, Sep 27, 2011 at 12:31:26AM +0400, Владимир Друзенко wrote:
> 
> Доброго времени суток, коллеги!
> 
> По мотивам активно обсуждаемой в данный момент темы "zfs" возникло
> несколько вопросов.
> Занимаюсь сейчас в фоновом режиме поднятием файл сервера
> (высоконагруженным он не будет, но несколько десятков одновременных
> пользователей с не большими файлами по SMB/NFS на нём точно будут +
> в среднем не более одного качающего/заливающего что-то тяжёлое типа
> дистрибутивов или образов CD/DVD).
> 
> Железо следующее (куплено было относительно давно и сейчас
> дополнительный бюджет очень ограничен - читай 0$, и только при
> крайней необходимости):
> мама: Intel® Server Board S5000PSLSATAR (2xLGA771)
> http://ark.intel.com/products/46546/Intel-Server-Board-S5000PSLSATAR;
> проц (один): Intel® Xeon® Processor 5030 (4M Cache, 2.66 GHz, 667
> MHz FSB) 
> http://ark.intel.com/products/27208/Intel-Xeon-Processor-5030-%284M-Cache-2_66-GHz-667-MHz-FSB%29
> - последняя линейка нетбёрстов (видимо аналог P4 CedarMill 65нм) 2
> ядра + гипертрединг;
> память: 2x1Gb DDR2 FB-DIMM 667MHz;
> 3Ware PCI-X SATA RAID (модель не вспомню, но если будет критично, то
> обязательно напишу) 4xSATA;
> 4x500Gb SATA Samsung + ещё несколько различных SATA дисков разных
> объёмов, которые буду подключать к маме напрямую.
> 
> Для тестов поставил лежавшую под рукой 8.1. Тестировал dd иdiskinfo
> -t (цель не повторить реальную нагрузку, а хотя бы примерно оценить
> на что можно рассчитывать).
> Аппаратный RAID10 (на контроллере 3Ware)из 4x500Gb Sumsungдаёт свыше
> 150Mb/s на чтение! Но это несколько расточительно в плане объёма при
> ограниченном бюджете.
> Сделал аппаратный RAID5 (на контроллере 3Ware) - скорость чтения
> примерно равно скорости чтения одиночного винта - ~80-90Mb/s.
> Все RAID с Chunk Size 256Kb. Постараюсь в ближайшее время провести
> повторные измерения, но с Chunk Size 64Kb (128Kb контроллер
> выставить не позволяет).
> 
> 
> Начал смотреть в сторону ZFS, а именно raid-z. Литературы перечитал
> прилично, но просветление так полностью и не пришло. :-]
> 
> Вот мы и добрались до вопросов:
> 1. 2Gb памяти для zfs:
> 1.1. Совсем мало или жить можно? FBDIMM не дешёвая, поэтому с
> запасом покупать не получится - 2Gb планка ~50$ (это дороже чем 4Gb
> DDR3 Reg ECC).
> 1.2. Будет ли толк для ZFS, если установить amd64 (проц и мама
> поддерживают), но памяти оставить 2Gb? Или для amd64 тем более надо
> памяти 4+Gb? Что на счёт 6Gb?
> 2. Посмотрел на compression и deduplication, но сразу возникли вопросы:
> 2.1. Хватит ли проца для этого?
> 2.2. Не окажется ли, что RAID10 (zfs или 3Ware) + compress + dedup
> медленней, чем RAID5 (3Ware), а raid-z + compress + dedup так и
> подавно?
> Нагуглил много упоминаний, что современные процы вполне себе быстро
> справляются с подобными задачами и не являются узким местом, но в
> моём случае процессор не такой и современный. Покупать такой же
> второй за 200$, IMHO, деньги на ветер. Более современные на замену
> этому тоже уже устаревшие - серия Xeon E5400 (цены на них от
> 200-300$). Да и вообще экономическую целесообразность имеет смысл
> обсуждать, когда известно, на сколько это поможет.
> 2.3. Если сильно не хватит текущего проца, то на сколько поможет
> докупка второго или замена на Xeon E54xx?
> 
> 
> Идеальным будет вариант оставить 2Gb, получить 1500Gb из 4x500Gb (с
> возможностью вылета одного из дисков), неважно i386 или amd64, и это
> всё даёт на чтение не ниже 150Mb/s и что-то в том же духе на запись.
> 
> 
> Если есть какие реальные тесты - с удовольствием почитаю. Личный
> опыт - ещё лучше.
> 
> 
> За ранее спасибо за любую помощь!
> И прошу прощения за простыню. [-:
> 

-- 
-------------------------------------------------------------------------------
Vasiliy P. Melnik                                                    VPM-UANIC

Ответить