On 16.04.2012 19:30, Vadim S. Goncharov wrote:
Ну а вопросы, понятно, классические: кто виноват (что это вообще такое с
ним происходит) и что делать (чтобы починить это, вернуть raidz2 в
нормальное состояние) ?

На текущий момент, то есть спустя сутки пока машинка стояла без вмешательства, картина стала вот такая, еще более весёлая:

backup:~# zpool status
  pool: backup0
 state: DEGRADED
status: The pool is formatted using an older on-disk format.  The pool can
        still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'.  Once this is done, the
        pool will no longer be accessible on older software versions.
scrub: scrub stopped after 60047995040927h17m with 16077287723452203008 errors on Sun Jan 0 00:00:00 1900
config:

        NAME           STATE     READ WRITE CKSUM
        backup0        DEGRADED     0     0     0
          raidz2       DEGRADED     0     0     0
            mfid0      ONLINE       0     0     0  6,69E repaired
            mfid1      ONLINE       0     0     0  10,3E repaired
            mfid10     ONLINE       0     0     0  13,8E repaired
            mfid7      ONLINE       0     0     0  449P repaired
            mfid9      ONLINE       0     0     0  3,13E repaired
            mfid2      ONLINE       0     0     0  12,1E repaired
            mfid3      ONLINE       0     0     0  15,1E repaired
            mfid4      ONLINE       0     0     0  8,00E repaired
            replacing  DEGRADED     0     0     0
              mfid5    FAULTED      0     0     0  corrupted data
              mfid11   ONLINE       0     0     0  14,1E repaired
            mfid5      ONLINE       0     0     0  2,69E repaired
            mfid8      ONLINE       0     0     0  5,32E repaired
            mfid6      ONLINE       0     0     0  7,88E repaired

errors: No known data errors

Далее, по треду. Отвечу всем разом.

On 17.04.2012 12:53, Slawa Olhovchenkov wrote:

>> Оказалось, нумерация дисков сбилась, и случилось два одинаковых
>> устройства mfid5:
>
>> Причем ребуты, которые с 1 апреля случались несколько раз, это не
>> лечили. С железной стороны свежий диск выглядел как mfid11, но что с
>
>> этим дублированием имен делать, было непонятно - не утащит ли оно еще
>> один диск. Просто zpool attach backup0 mfid11 работать отказался,
>> радостно заявив, что это не зеркало.
>
> гм. я не очень понял:
>
> до сдыхания этот диск каким именнем был? mfid5?
> после вынимания mfid5 стал другой диск и вообще нумерация изменилась?
> а после втыкания он mfid11, а под mfid5 другой, хороший диск, который
> раньше был какой?

Ты думаешь, я помню? Меня позвали "ты спец, разберись, что такое с машиной", я посмотрел на её маты, говорю, "диск подох". Прошло время, пока диск доставили (нет, на этом месте смеяться еще рано, еще внизу будет), мальчик диск заменил, я полез в это окошко снова, и вот на тебе. Потом я промотал xterm назад, по счастью остававшийся открытым с 1 апреля, и обнаружил, что такая смена нумерация была еще ДО замены диска, пока его еще не вытащили. Когда именно она случилась до того, понятия не имею. Главное, что под mfid5 был некий хороший диск, и под этим же именем дохлый диск, под каковым именем его и знает ZFS. А mfid11 возник только вчера после вставки нового диска и его конфигурации в MegaCli.

On 17.04.2012 12:51, Vasiliy P. Melnik wrote:

> а с лайв-сиди пробовали?

Хех, если бы это сходу доступно. Машина используется в том числе как коллектор Netflow, и клиенту приспичило получить детализацию. Оно уже весь день считает и еще часов 20 её считать будет, наверное.

On 17.04.2012 13:32, Владислав Продан wrote:

> Я, думаю, надо:
> 1) переползти на ZFS v28

На полуразвалившемся рейде этого делать совсем не хочется. К тому же баг здесь скорее в коде в ядре, а не дисковых структурах.

On 17.04.2012 13:32, Владислав Продан wrote:
On 17.04.2012 13:15, Lystopad Aleksandr wrote:

> 2) сменить метод нумерации дисков. Использовать в массиве не родные названия mfid[0-9], а через GPART label > 3) подумать над сменой типа массива, как советовали выше в одном пуле не более 3-5 дисков. Погуглите и найдете тесты производительности одного массива с 10-ком дисков и двух массивов по 3-5 дисков.

[...]

>>> Imho, я думаю, что ошибка в том, что изначально больше 9 дисков в
>>> пул вставили, я бы делал бы пул из нескольких raidz1 в кажом из
>>> которых по 3-4 диска.
>>
>> где написано что нельзя?
>> http://ru.wikipedia.org/wiki/ZFS
>
> А я не говорил "нельзя" ;) , я лично (imho) считаю, что это плохо, негативно на
> скорости отразится, хотя сам не пробовал.
>
> Вот тут пишут об этом:
>
> http://www.solarisinternals.com/wiki/index.php/ZFS_Best_Practices_Guide
>
>       ....
>
> The recommended number of disks per group is between 3 and 9. If you
>       have more disks, use multiple groups.

Спасибо, как оно по уму делается, я и сам в курсе, и которые тазики сам сетапил, те, разумеется, делались на метках GPT. Только этот тазик засетаплен за полтора года до моего прихода в контору, и здесь:

1) производительность не так важна, потому что машина для backup
2) надежность у решения на двух raidz1 ниже - а если 2 диска в
   одном raidz1 вылетят сразу, тогда что? 12 дисков - таки не 40.
3) это опять-таки backup-машина (хоть там и лежат сырые netflow тоже),
   и на ней, понятно, самый большой пул в конторе, собранный из дисков
   по 1 Тб. Куда я для переразбивки несколько Тб дену? Необходимо что-то
   сделать на месте. Тем более, эта ситуация вообще-то в принципе
   штатная, и должна решаться штатными же средствами - такой подляны от
   ZFS не должно было быть, сама по себе такая конфигурация пула
   вполне приемлема.

--
WBR, Vadim Goncharov, NUCL1-RIPE

Ответить