На сервере четыре сетевых интерфейса? Можете примерно оценить производительность массивов?
25 октября 2012 г., 10:21 пользователь [email protected] < [email protected]> написал: > Ну давай конкретизируем, так проще: > 1. Есть 1 NFS-расшара на 500 Gb. Используется круглосуточно. > 2. Есть 300 постоянных подключений (проекты программистские и связь с > серверами работающими, соответственно файлов открыто уйма) > 3. Сейчас используется 1 HP G7, рядом стоит второй такой же. > 4. Сеть - 1 гигабит витой, на комутаторе Прокурва, в каждом серваке RAID10 > по 600 гиг. > > 25.10.2012 00:44, Anatoly Molchanov пишет: > > Сначала нужно сформулировать условие задачи: > 1. Описание ресурсов и характер их использования > 2. Описание клиентов и степень их активности > 3. Имеющееся железо (с учетом того, которое можно купить) > - Сеть (оптика/витуха/инфинибэнд) > - Диски/массивы > и т.д. > > 24 октября 2012 г., 23:14 пользователь [email protected] < > [email protected]> написал: > >> Хорошо, тогда дурацкий вопрос: как кластеризовать NFS? >> >> >> 24.10.2012 22:49, Anatoly Molchanov пишет: >> >> Довольно давно я наблюдал подобную картину, проблема была в недостатке >> моих знаний и опыта. Много нагрузки было от сетевой активности, сетевая >> карта с собственным мозгом решила проблему. Сейчас для 100+ пользователей я >> бы сразу использовал кластер из двух (минимум) серверов. >> >> 24 октября 2012 г., 22:21 пользователь [email protected] < >> [email protected]> написал: >> >>> Доброго времени суток! >>> >>> Рассказали мне тут знакомые любопытную историю. Столкнулись они с >>> проблемой такого плана: если к NFS-ресурсу прицепляется сотня >>> пользователей, то сервер выедает 100% ядра и на этом жалобно попискивая, >>> умирает. Кто-нибудь сталкивался с таким поведением? Они, не найдя причин и >>> решений, перешли на SMB и GlusterFS. >>> >>> >>> -- >>> To UNSUBSCRIBE, email to [email protected] >>> with a subject of "unsubscribe". Trouble? Contact >>> [email protected] >>> Archive: http://lists.debian.org/[email protected] >>> >>> >> >> > >

