Здравейте, On Wed, 24 Nov 2004 21:54:37 +0200 Doncho N. Gunchev wrote:
> > Въпрос - имаш ли опит с гръмнали дискове на software raid? Т.е. как се > > държи, как се добавят и т.н.? Мен това ме притеснява, като ползвам > > софтуерен RAID. > > > > Не мога да кажа какво се случва при гръмнал диск, но мога да дам > информация за производителността на две системи. Два диска на един IDE > канал (hda и hdb при втората) определено свалят производителността и > дават възможност за отпадане и на двата едновременно, но за момента не > мога да намеря допълнителен IDE контролер за PCI. Ако някой знае фирма, > която продава нормални IDE контролери, а не се опитва да пробута за > 300 USD някакъв със RAID неработещ под Linux, моля нека каже. www.asbis.bg продават PCI SATA контролери на поносими цени, които ти предлагат и една PATA шина . Когато аз си взимах имаха Silicon Image 3114 и Promise TX2. > Правих пълни тестове (всичко което ми хрумна) - разкачане (студено) > на всеки диск и размяна на произволни два - зарежда без проблем и в > работен режим "възстановява" диск за около 2.5 часа(160G диск). Този > сценарий не предпазва само от лош сектор в зареждащата част (с което > хардуерен RAID би се справил). Повреди/лоши сектори за момента няма, Ако говорим за изчезване на сектора където ти живее MBR, можеш да кажеш на BIOS да зарежда от дискове hda и hdc, така че машината да boot-не без проблем. Ако се появи проблем в сектор, заеман от ядрото и то се oops-не, май няма много какво да направиш. Аз търсих информация в мрежата, какво се случва когато се появят лоши сектори по един от дисковете в RAID1 масив, но така и нищо не намерих. Някой има ли представа как се избягват проблемите при репликацията в този случай? -- Best Regards, Hristo Erinin Spectrum Net Jsc. +35929657615 ============================================================================ A mail-list of Linux Users Group - Bulgaria (bulgarian linuxers). http://www.linux-bulgaria.org - Hosted by Internet Group Ltd. - Stara Zagora To unsubscribe: http://www.linux-bulgaria.org/public/mail_list.html ============================================================================