On 2/9/06, Silviu Marin-Caea <[EMAIL PROTECTED]> wrote: > On Thursday 09 February 2006 12:18, Ratiu Petru wrote: > > > Been there, done that. Nu ma intereseaza o solutie gen "totul sau > > nimic". > > Dar RAID5 nu este o solutie de tip totul sau nimic. Este o solutie in care: > > 1. pica un disk > 2. nu ai definit spare > 3. nu stie nimeni, pentru ca nu ai definit alarme > 4. mai pica un disk > 5. nimic >
Stiiu, in toate cartile zice asta. Ce mai scria acolo mic e ca "probabilitatea sa pice simultan SPARE_NO+2 discuri se considera a fi foarte mica". Numai ca viata e complexa si are multe aspecte, femeile nu e oameni si baietii buni n-are noroc. Cu alte cuvinte mi s-a intamplat de cateva ori ca timpul dintre 1 si 4 sa fie f. mic, 2 sa nu fie (din motive tehnico-economice) si cu 3 sa ma plang la curtea de la Haga sa-mi recupereze macar o parte din date. > > Datele respective sunt multe fisiere din care in caz de > > doamne-fereste, as vrea sa am cat mai multe. Si sa pot beneficia de > > fsck si fratii lui. > > Pai si daca ai un sistem care distribuie automat fisiere pe un manunchi de > discuri, si unul dintre ele cade, vei avea niste date care vor fi mai mult > decat nimic, dar mai putin decat ceva util. > > Tu n-ai cumparat oua cand erai mic ? Daca veneai cu cateva sparte, te tragea mama de urechi sa fii mai atent data viitoare si primeai o portie de omleta mai mica. Daca veneai fara, ramaneai si nemancat si cu bataia luata. Capisci? Solutiile ar fi: 1. raid5 cu mai multe spare-uri. Ramane problema cu failure de N+1, incepe sa se ridice problema daca nu costa prea mult (bani, spatiu, curent) hardurile respective. 2. solutia lui vang cu un layer de baza de date. Pe langa overheadul indus de respectiva databaza, sunt fortat sa rescriu toate sculele care accesau storage-ul cu pricina. This sucks, preferam unix tools 3. unionfs parea salvarea, dar din nefericire nu stie sa faca balansare, sau macar sa gaseasca o solutie cand unul din discuri e plin si pe celelalte e spatiu. 4. add your own. Petre. _______________________________________________ RLUG mailing list [email protected] http://lists.lug.ro/mailman/listinfo/rlug
