On Sat, Mar 08, 2014 at 03:16:43PM +0200, Anton Sayetsky wrote:

> 8 марта 2014 г., 15:06 пользователь Slawa Olhovchenkov <[email protected]> 
> написал:
> > On Sat, Mar 08, 2014 at 03:03:24PM +0200, Anton Sayetsky wrote:
> >
> >> 19 января 2014 г., 21:23 пользователь Mykola Dzham <[email protected]> 
> >> написал:
> >> > 19 с?ч. 2014 о 00:27 Vladislav V. Prodan <[email protected]> 
> >> > написав(ла):
> >> >
> >> >> >> 4. Стоит ли с учётом предыдущего включать autoreplace?
> >> >> >
> >> >> >
> >> >> > нет.
> >> >> > Лучше ручками менять диски.
> >> >> Вот это уже хуже... хотелось бы вмешательство админа свести к
> >> >> минимуму, в иделе - только физическая замена диска в случае вылета.
> >> >>
> >> >> Ну, поставите их в hotspare. ZFS сама должна подхватить и начать 
> >> >> замену/перенос данных.
> >> >>
> >> >
> >> > По моему функциональность hotspare во фре не реализована - если хочется 
> >> > автоматики,
> >> > то нужно самому рисовать что-то, которое по событию из devd выполнит 
> >> > zpool replace
> >> И autoexpand тоже не работает, кстати.
> >
> > откуда дровишки?
> Script started on Sat Mar  8 15:12:40 2014
> root@jnb:~# truncate -s 20g /home/jason/test.fil
> root@jnb:~# mdconfig -a -t vnode -f /home/jason/test.fil
> md0
> root@jnb:~# gpart create -s gpt md0
> md0 created
> root@jnb:~# gpart add -a 4k -t freebsd-zfs -s 10g md0
> md0p1 added
> root@jnb:~# gpart show md0
> =>      34  41942973  md0  GPT  (20G)
>         34         6       - free -  (3.0k)
>         40  20971520    1  freebsd-zfs  (10G)
>   20971560  20971447       - free -  (10G)
> 
> root@jnb:~# zpool create -o cachefile=none -o autoexpand=on -O
> canmount=off ztest /dev/md0p1
> root@jnb:~# zpool list ztest
> NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
> ztest  9.94G   137K  9.94G     0%  1.00x  ONLINE  -
> root@jnb:~# zpool export ztest
> root@jnb:~# gpart resize -i1 -a 4k -s 15g md0
> md0p1 resized
> root@jnb:~# gpart show md0
> =>      34  41942973  md0  GPT  (20G)
>         34         6       - free -  (3.0k)
>         40  31457280    1  freebsd-zfs  (15G)
>   31457320  10485687       - free -  (5G)
> 
> root@jnb:~# zpool import -o cachefile=none ztest
> root@jnb:~# zpool list ztest
> NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
> ztest  9.94G   204K  9.94G     0%  1.00x  ONLINE  -
> root@jnb:~# zpool online -e ztest md0p1
> root@jnb:~# zpool list ztest
> NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
> ztest  14.9G   208K  14.9G     0%  1.00x  ONLINE  -
> root@jnb:~# exit
> 
> Script done on Sat Mar  8 15:13:52 2014

а откуда идея, что именно такая последовательность действий хотя бы в
оригинале обрабатывается? из документации
http://docs.oracle.com/cd/E19253-01/819-5461/githb/index.html [неявно]
создается впечетление, что евентом для ресайза являтся либо zpool
online -e либо zpool replace, но про просто измение размера на ходу
ничего не говорится (это у меня навык чтения вендорской документации)

root@slw:/home/slw # truncate -s 10g s1.img
root@slw:/home/slw # truncate -s 20g s2.img
root@slw:/home/slw # mdconfig -a -t vnode -f s1.img
md1
root@slw:/home/slw # mdconfig -a -t vnode -f s2.img
md2
root@slw:/home/slw # zpool create -o cachefile=none -o autoexpand=on
-O canmount=off ztest /dev/md1
root@slw:/home/slw # zpool list ztest
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
ztest  9.94G   181K  9.94G     0%  1.00x  ONLINE  -
root@slw:/home/slw # zpool replace ztest md1 md2
root@slw:/home/slw # zpool list ztest
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
ztest  19.9G   234K  19.9G     0%  1.00x  ONLINE  -

Ответить