[FreeBSD-users-jp 92264] Re: xorg-server after 09/1/23

2009-04-23 スレッド表示 Kazumaro Aoki
From: NAKAJI Hiroyuki nak...@jp.freebsd.org
Subject: [FreeBSD-users-jp 92259] Re: xorg-server after 09/1/23
Date: Tue, 21 Apr 2009 21:35:45 +0900

 In 20090421.124759.31731987.m...@flu.if0.org 
  Kazumaro Aoki k...@flu.if0.org wrote:
 
 こういう質問は本家の方の
   freebsd-...@freebsd.org
 で、アリな話題なのでしょうか?
 
 じゅうぶんアリだと思います。
 
 英語の読み書きが苦でなければ、そっちの方が話が早そうです。
 http://lists.freebsd.org/pipermail/freebsd-x11/

アドバイスありがとうございます。
「苦」には違いないのですが、全部をざっと見るとかではなく、自分に関係す
るのを読み書きするぐらいなら何とかなるので、早速聞いてみました。
結果が出ればこちらのMLにも報告したいと思います。

#もう、twmとか使っているひとはいないのかなぁ。

青木和麻呂@国分寺市在住


[FreeBSD-users-jp 92265] Re: FreeBSD7.x で RocketRAID1740 を使っている人はいますか?

2009-04-23 スレッド表示 Katsurajima Naoto
On Wed, 22 Apr 2009 21:34:27 +0900
tamagotoka tamagot...@yahoo.co.jp wrote:

 表題の件ですが、使っている人はいますか?
 安価にRAID5環境を使いたいのでRocketRAID1740をねらっています。

i386環境(AthlonMP 1900+)で使っています. 当初はRAID1で使っていたのですが,
現在は1TB*4台構成のRAID5とし, bootもここから行っています.

カーネル設定については私はカスタマイズしたKERNCONFを使っていますが,
GENERICでもhptrrは組み込まれていますので, 特にloader.confをいじくる必要は
ありません.

実際に使う際には起動時のRocketRAIDのbios画面でRAID構成を行い, 以降
FreeBSD上で作業を行うことになります. FreeBSDからは構成したRAIDが単体のSCSI
ディスク(/dev/da?)として見えるようになります. このとき1TB*4台のRAID5とした
場合には, FreeBSDからは単体の3TBディスクとして見えるため, fdisk等の領域確
保には注意が必要です. fdiskでは単体のパーティションは2TB以内にする必要があ
ります. また, bsdlabelは2TB以上のパーティションは扱えませんのでgptあるいは
zfsを使うことになるかと思います.(私はzfsを使っていますが)

また, 実際に使う際にはHighPointのサイトからFreeBSD用のCLI(コマンドラインイ
ンターフェイス)ツールのパッケージを落としてきてインストールしておくことを
勧めます. このツールはbiosで設定する各種のパラメータを稼働中のFreeBSD上か
ら設定・モニタすることができるようになります. 例えば活線挿抜ができるRAIDフ
レームと組み合わせて使っている場合, 交換したディスクの同期指示やその状況モ
ニタを稼働中に行うことができるようになります. CLIパッケージは現在のところ
7.0用までしか用意されていませんが, 7.1-STABLE上でも使用出来ました. ちなみ
に1TB*4台構成のRAID5を構築した場合, 全体の初期化・同期に3日ほどかかりまし
たので, このCLIツール無しでは進行状況が分からず, 精神的につらかったでしょ
う.

なお, zfsの様にちょっと不安定な環境で使用する場合にはRAID5の書き込みモード
をWrite Through(同期書き込み)にしておくことを勧めます. RAID5のデフォルト
モードはWrite Back(非同期書き込み)で, これにしておくと書き込み性能が大幅に
向上するのですが, その半面異常時などにリセットや電源断が起きた場合, ファイ
ルシステムが予想しない致命的な障害となる場合があります. 私もzfsへの移行
中, デッドロック状態になって電源断したおりpoolをふっとばすということをやり
ました. システムが安定したらWrite Backにすればよいので, そういう時にも前述
したCLIツールが使えます.

-- 
Katsurajima Raven Naoto(桂島 直人)
Family Emblem: Circle and Left 3 Clove-TOMOE(丸に左三つ丁子巴)
e-mail: ra...@katsurajima.jp


[FreeBSD-users-jp 92266] Re: ZFS pool を含んだ |HDD の移動

2009-04-23 スレッド表示 Norikatsu Shigemura
重村法克です。

On Thu, 23 Apr 2009 00:32:24 +0900
TOGAWA Satoshi t...@puyo.org wrote:
 ZFSのpoolが入ったHDDを,マシン上の別のインターフェースに
 移動する際には,どうすればいいのでしょうか?

一般には zpool export, zpool import かな。

詳しくはこの辺。
http://docs.sun.com/app/docs/doc/819-6260/gbchy?l=jaa=view

 現在VMWare上で ZFS on Root で動かしている練習用マシンがあります.
 このマシンには,ad0s1dとad1s1dにミラーリングしたZFS pool (tank)があります.
 やりたいことは
 「ad0, ad1, ad2に新しいディスクを取り付け,RAIDZでpool(tank2)を作りたい.
   tank2にtankの内容をコピーし,tank2をZFS on Root (とGPT)で運用したい」
 ということです.

ごめんなさい。物理的な(仮想マシンも物理的に見たとして)構成がイメージでき
ないので簡単に図にしていただけるとありがたいです。あと練習マシン→ad0,1,2
マシンと何を共有してるのか(ad0, ad1 は共有? RAID 構成変えてるので別
物ですよね?)。

 ad0を空けなければいけないと思ったので,ad0につながっているディスクを
 ad3に取り付け,ブートしました.すると
 「mountroot」
 というプロンプトが出てきたので,ZFSのpoolを指定する意味で
 「zfs:tank/root」
 と入力しましたが,ブートしませんでした.また,プロンプトに「?」を
 入力した場合,デバイスの一覧にtankは出てきませんでした.
 import/exportまわりでなにか手続きが必要なのかな,と思いましたが,
 分からないのでお手上げ状態になっています.

途中がわからないので, どういう構成になってるのかわかりませんが,
結論的構成というのは下記のような状態?

  ad0 ad1 ad2
  +-+ +-+ +-+
  |ad0p1| |ad1p1| |ad2p1|
+=+=+=+=+=+=+=+
| |ad0p2| |ad1p2| |ad2p2| | RAIDZ
+=+=+=+=+=+=+=+

この仮定が正しいとしたら,

1. RAIDZ/RAIDZ2 構成の ZFS をブートする技は current でも
   入っていません。やるなら下記のパッチを検証してください。
http://lists.freebsd.org/pipermail/freebsd-fs/2008-December/005498.html

   私も試したいとは思ってるのですが, たくさん HDD を持ってない
   ので試してません:-(。

   ちなみに single, mirror, mirror+striping 構成でしか
   ブートしません(現時点では)。

2. zpool set bootfs=tank2 tank2 を実行していますか?
   まぁ実行していても起動しませんが。。

3. 「mountroot」の段階では GEOM プロバイダで提供されている
   ものしか見えないので ZFS は見えないです。

以上よろしくお願いいたします。

-- 
Norikatsu Shigemura n...@ninth-nine.com


[FreeBSD-users-jp 92267] Re: FreeBSD7.x で RocketRAID1740 を使 っている人はいますか?

2009-04-23 スレッド表示 tamagotoka
たまごとかです。

 カーネル設定については私はカスタマイズしたKERNCONFを使っていますが,
 GENERICでもhptrrは組み込まれていますので, 特にloader.confをいじくる必要は
 ありません.

それはよかったです^^
勝手にGENERICで無効と思い込んで、loader.confに
hptrr_load=YES
とかしてエラーでるなーとあせってました。

 
 実際に使う際には起動時のRocketRAIDのbios画面でRAID構成を行い, 以降
 FreeBSD上で作業を行うことになります. FreeBSDからは構成したRAIDが単体のSCSI
 ディスク(/dev/da?)として見えるようになります. このとき1TB*4台のRAID5とした
 場合には, FreeBSDからは単体の3TBディスクとして見えるため, fdisk等の領域確
 保には注意が必要です. fdiskでは単体のパーティションは2TB以内にする必要があ
 ります. また, bsdlabelは2TB以上のパーティションは扱えませんのでgptあるいは
 zfsを使うことになるかと思います.(私はzfsを使っていますが)

ということは、お手軽なsysinstallが使えないんですね。
いつもはそれでディスク追加していたのですが…。
勉強がてら私もzfsを使ってみようと思います。

 また, 実際に使う際にはHighPointのサイトからFreeBSD用のCLI(コマンドラインイ
 ンターフェイス)ツールのパッケージを落としてきてインストールしておくことを
 勧めます. このツールはbiosで設定する各種のパラメータを稼働中のFreeBSD上か
 ら設定・モニタすることができるようになります. 例えば活線挿抜ができるRAIDフ
 レームと組み合わせて使っている場合, 交換したディスクの同期指示やその状況モ
 ニタを稼働中に行うことができるようになります. CLIパッケージは現在のところ
 7.0用までしか用意されていませんが, 7.1-STABLE上でも使用出来ました. ちなみ
 に1TB*4台構成のRAID5を構築した場合, 全体の初期化・同期に3日ほどかかりまし
 たので, このCLIツール無しでは進行状況が分からず, 精神的につらかったでしょ
 う.

3日!!
恐ろしく遅いですね。進行状況がわからなければ、「止まってるんじゃね?」と
か思ってしまいますね。
私もCLIを入れてみたいと思います。

 なお, zfsの様にちょっと不安定な環境で使用する場合にはRAID5の書き込みモード
 をWrite Through(同期書き込み)にしておくことを勧めます. RAID5のデフォルト
 モードはWrite Back(非同期書き込み)で, これにしておくと書き込み性能が大幅に
 向上するのですが, その半面異常時などにリセットや電源断が起きた場合, ファイ
 ルシステムが予想しない致命的な障害となる場合があります. 私もzfsへの移行
 中, デッドロック状態になって電源断したおりpoolをふっとばすということをやり
 ました. システムが安定したらWrite Backにすればよいので, そういう時にも前述
 したCLIツールが使えます.

Through/Write Backの切り替えは必ずCLIから行わなければならないのですね?
分かりました。

丁寧な解説ありがとうございました。
明日か明後日にでもボードが手元に届くと思うので、さっそく試してみたいと思
います。