Hello Dmitry, Tuesday, September 14, 2004, 5:11:14 PM, you wrote:
>> Кто нибудь юзал стораджи >50 гигов ? DA> использовали 70Г И как? Стабильно рабоатет? >> Спрашиваю потому как сейчас запускаю нового прова, юзеров будет >> более двухсот плюс adsl клиенты и пара удаленных офисов. >> Конфигурация проксёвого сервера такова: Р4-2,4ггц/1GB памяти/HDD SATA >> 2x120Gb установлен программный Raid0 на ОС-ке FC1. Оазмер массива 238 >> Гигов. Как эффективно рассчитать размер стораджа? DA> imho лучше вместо raid0 определить 2 хранилища на двух винтах. DA> нагрузка при этом будет равномерная и в случае вылета одного из винтов ты DA> потеряешь только половину кеша (если саму базу бекапить :) Да я за кэш потерянный не трясусь :) Наполнится снова, если что.. :) Интересно, а как Вы смотрите на аткую схему которую я сейчас сделал. Сделал я ради эксперимента, посмотреть что получится.. В общем я сделал райд0, но решил опсу под сторадж выделить личный раздел md2 состоящий из sda3 и sdb3 по 25 гигов, итого сторадж = 50 гигов. Filesystem Size Used Avail Use% Mounted on /dev/md0 140G 785M 132G 1% / /dev/sda1 76M 6.3M 66M 9% /boot /dev/md2 50G 34M 47G 1% /opt none 504M 0 504M 0% /dev/shm /dev/md1 30G 51M 28G 1% /var или эта схема изврат? может лучше сделать единым разделом md0, отдать все место на растерзание и фиг с ним? з.ы. И почему сейчас показывает что только использовано 34 метра если я сторадж создал под 45 гигов? >> И что будет эффективней для такой конфигурации - гигабейз или берклей? DA> гигабейз быстрее, но беркли стабильнее Значит будем юзать берклей. Мне тут друг сказал что у него упс валился при коннекте >150 юзеров. может он гигабейз юзал... Ладно, останусь на беркли. Да, и еще такой вопрос который меня очень интересует: стоит ли держать сторадж на райд1 ? Или будет всё тормознуто??? -- Best regards, Roman mailto:[EMAIL PROTECTED] ===================================================================== If you would like to unsubscribe from this list send message to [EMAIL PROTECTED] with "unsubscribe oops" in message body. Archive is accessible on http://lists.paco.net/oops-rus/
