この章では,TruCluster Server 製品の概要,および基本的なクラスタ・ハードウェア構成の概念について説明します。
この章で説明している項目は次のとおりです。
TruCluster Server 製品の概要 (1.1 節)
TruCluster Server メモリ要件 (1.2 節)
TruCluster Server 最小ディスク要件 (1.3 節)
最小ディスク構成の汎用 2 ノード・クラスタの説明 (1.4 節)
クラスタを NSPOF (no-single-point-of-failure) クラスタに拡張する方法 (1.5 節)
8 メンバ・クラスタの概要 (1.6 節)
TruCluster Server ハードウェア構成のセットアップの概要 (1.7 節)
第 2 章以降では,TruCluster Server のハードウェア構成のセットアップと保守について説明しています。ソフトウェア・インストールについてはTruCluster Server『クラスタ・インストレーション・ガイド』を,メンバ・システムのセットアップについては『クラスタ管理ガイド』を,高可用性アプリケーションのセットアップの詳細については『クラスタ高可用性アプリケーション・ガイド』をそれぞれ参照してください。
1.1 TruCluster Server
TruCluster Server は,単一システムの管理機能をクラスタ全体に拡張します。TruCluster Server では,すべてのクラスタ・メンバが共用する単一のルート・ファイル・システムをはじめ,ファイルおよびディレクトリがクラスタ単位のネームスペースで管理されます。さらに,クラスタがそのネットワーク・クライアントに単一のシステムとして認識されるように,インターネット・プロトコル群 (TCP/IP) に対してクラスタ別名を割り当てます。
TruCluster Server では,次に示すように,従来の TruCluster 製品にあった可用性および性能を引き継いでいます。
TruCluster Available Server Software および TruCluster Production Server 製品と同様,TruCluster Server でも高可用性アプリケーションを実行できます。これらのアプリケーションには,クラスタ上で実行されていることについての情報が埋め込まれず,クラスタの任意のメンバのディスク・データにアクセスできます。
TruCluster Production Server Software 製品と同様,TruCluster Server でも分散型アプリケーションの構成要素を並列に実行でき,クラスタ固有の同期メカニズムと性能の最適化機能を利用して高い可用性を実現できます。
TruCluster Server では,すべてのクラスタ・メンバがその存在場所に制約されることなく,クラスタ内のすべてのファイル・システムとすべてのストレージにアクセスできるようにすることにより,従来の製品の機能セットが増強されています。クライアントからは,TruCluster Server クラスタは単一のシステムに見えます。システム管理者は,TruCluster Server クラスタを単一のシステムであるかのように管理できます。TruCluster Server のプライベートなクラスタ・インターコネクトと共用ストレージ・インターコネクトに,アーキテクチャまたはプロトコル上の組み込み依存関係はありません。したがって,技術の進歩と高速化に合わせたクラスタ・ハードウェア構成の変更/拡張がいっそう簡単にできるようになりました。
1.2 メモリ要件
Tru64 UNIX をインストールする場合,最低でもベース・オペレーティング・システムを置けるだけのメモリ量が必要です。クラスタでは,これに加えて,64 MB が各メンバに必要です。たとえば,ベース・オペレーティング・システムが 128 MB のメモリを必要とすれば,クラスタで使うシステムには 192 MB 必要です。
1.3 最小ディスク要件
ここでは,2 つのノードからなるクラスタの最小ファイル・システム要件,つまりディスク要件の概要を説明します。必須の各クラスタ・ファイル・システムに必要な容量についての詳細は,『クラスタ・インストレーション・ガイド』を参照してください。
1.3.1 インストールに必要なディスク
以下の目的に使用されるディスクを割り当てる必要があります。
最初のメンバ上に,Tru64 UNIX オペレーティング・システムを格納するためのディスク (1 つ以上)。最初のクラスタ・メンバになるシステム上のプライベート・ディスクまたはそのシステムがアクセスできる共用バスに接続されているディスクのいずれか。
共用バス上に,クラスタ単位のルート (/
),/usr
,および
/var
の各 AdvFS (Advanced File System) ファイル・システムを格納するためのディスク (1 つ以上)。
通常は共用バス上に,メンバのブート・パーティションを格納するためのディスク (メンバごとに 1 つ)。
共用バス上に,クォーラム・ディスクとして機能するディスクを 1 つ (オプション) (1.3.1.4 項を参照)。クォーラム・ディスクの詳細については,『クラスタ管理ガイド』を参照。
以降の各項でこれらのディスクについて詳しく説明します。図 1-1
には,汎用の 2 メンバ・クラスタとそれに必要なファイル・システムが示されています。
1.3.1.1 Tru64 UNIX オペレーティング・システム・ディスク
Tru64 UNIX オペレーティング・システムは,次の例に示すように,最初のクラスタ・メンバとなるシステムからアクセスできる 1 つ以上のディスク上に AdvFS ファイル・システムを使用してインストールされます。
dsk0a root_domain#root dsk0g usr_domain#usr dsk0h var_domain#var
オペレーティング・システム・ディスク (Tru64 UNIX ディスク) をクラスタ単位のディスク,メンバ・ブート・ディスク,およびクォーラム・ディスクとして使用することはできません。
Tru64 UNIX オペレーティング・システムを最初のクラスタ・メンバ上で利用できるので,緊急時には,クラスタをシャットダウンした後,Tru64 UNIX オペレーティング・システムをブートして,問題の解決を試みることが可能です。詳細については,『クラスタ管理ガイド』を参照してください。
1.3.1.2 クラスタ単位のディスク
クラスタ作成時にインストレーション・スクリプトは,Tru64 UNIX のルート (/
),/usr
,および
/var
の各ファイル・システムを Tru64 UNIX ディスクから,指定された 1 つ以上のディスクにコピーします。
クラスタ単位のファイル・システムに使用するディスクは,すべてのクラスタ・メンバからアクセスできるようにするため,共用バスに接続することをお勧めします。
インストール時に,クラスタ単位のルート (/
),/usr
,および
/var
の各ファイル・システムを格納するディスクのデバイス名とパーティションを指定します。たとえば,dsk3b
,dsk4c
,および
dsk3g
を使用する場合は,次のようになります。
dsk3b cluster_root#root dsk4c cluster_usr#usr dsk3g cluster_var#var
/var
ファイル・システムは,cluster_usr
ドメインを共用することができないため,別個のドメイン
cluster_var
にする必要があります。各 AdvFS ファイル・システムは別々のパーティションにする必要がありますが,それらのパーティションを同じディスク上に置く必要はありません。
クラスタ単位のファイル・システムが格納されるディスクは,メンバ・ブート・ディスクとしても,クォーラム・ディスクとしても使用できません。
1.3.1.3 メンバ・ブート・ディスク
各メンバにはブート・ディスクがあります。ブート・ディスクには,そのメンバのブート・パーティション,スワップ・パーティション,およびクラスタ状態パーティションが含まれています。たとえば,dsk1
が最初のメンバのブート・ディスク,dsk2
が 2 番目のメンバのブート・ディスクとすると,次のようになります。
dsk1 first member's boot disk [pepicelli] dsk2 second member's boot disk [polishham]
インストレーション・スクリプトは,各メンバのブート・ディスクを再フォーマットして,3 つのパーティション,つまりそのメンバのルート (/
)・ファイル・システム用の
a
パーティション,スワップ用の
b
パーティション,クラスタ状態情報用の
h
パーティションを作成します。/usr
および
/var
ファイル・システムはメンバのブート・ディスク上には存在しません。
メンバ・ブート・ディスクには,クラスタ単位のルート (/
),/usr
,/var
ファイル・システムのいずれも格納することはできません。また,メンバ・ブート・ディスクはクォーラム・ディスクとして使用することもできません。ただし,メンバ・ディスクには,上記の 3 つの必須パーティション以外のパーティションも作成できます。スワップ・パーティションはメンバ・ブート・ディスクから移動できます。詳細については,『クラスタ管理ガイド』を参照してください。
1.3.1.4 クォーラム・ディスク
クォーラム・ディスクを使用すると,2 つのメンバからなるクラスタの可用性を高めることができます。このディスクの
h
パーティションには,クラスタ状態情報とクォーラム情報が格納されます。クォーラム・ディスクの使用方法と用途の詳細については,『クラスタ管理ガイド』を参照してください。
クォーラム・ディスクの使用に関しては,以下の制約事項があります。
1 つのクラスタに設定できるクォーラム・ディスクは 1 つだけです。
クォーラム・ディスクは,全クラスタ・メンバが直接接続される共用バス上につなぐようにしてください。そうしなければ,クォーラム・ディスクに直接接続されていないメンバが,直接接続されているメンバより前にクォーラムを失うことがあります。
クォーラム・ディスクにはどんなデータも格納しないでください。
既存のデータは,クォーラム・ディスクの初期化時に
clu_quorum
コマンドによって上書きされます。実行中のクラスタからクォーラム・ディスクに書き込まれたデータ (ファイル・システム・メタデータ) の整合性は,メンバの障害間にわたっては保証されません。
メンバ・ブート・ディスクおよびクラスタ単位のルート (/) が格納されているディスクは,クォーラム・ディスクとして使用できません。
クォーラム・ディスクは小さなディスクでかまいません。クラスタ・サブシステムが使用するクォーラム・ディスク・スペースは 1 MB だけです。
クォーラム・ディスクには 1 つのボートを割り当てることも,ボートをまったく割り当てないこともできます。通常は,クォーラム・ディスクに常に 1 つのボートを割り当てるようにしてください。クォーラム・ディスクへのボートの割り当てを行わないことで単一機器の故障の原因となる 1 メンバ・クラスタなど,特定のテスト用または一時的な構成では,既存のクォーラム・ディスクにボートを割り当てないこともあります。
ここでは,最小のディスク・レイアウトである 4 つのディスクで構成された汎用の 2 ノード・クラスタについて説明します。ただし,高可用性アプリケーションを利用するには,ディスクの追加が必要になる場合もあります。以降に説明する構成では,PCI (peripheral component interconnect) SCSI バス・アダプタの種類は重要ではありません。また,Y ケーブル,トライリンク・コネクタ,終端,UltraSCSI ハブの使用,Fibre Channel の使用など,SCSI バスのケーブル接続に関連する事項は重要ですが,ここでは考慮しません。
図 1-1 に,以下の最小ディスク数で構成された汎用 2 ノード・クラスタを示します。
Tru64 UNIX ディスク
クラスタ単位のルート (/
),/usr
,および
/var
メンバ 1 のブート・ディスク
メンバ 2 のブート・ディスク
最小構成のクラスタにはクォーラム・ディスクがないため,可用性が低下する場合があります。図からわかるように,メンバ・システムが 2 つだけの場合は,クォーラムに達し,クラスタを形成するためには両方のシステムが稼働する必要があります。1 つのシステムしか稼働していない場合には,クラスタが形成される前に,2 番目のシステムのブートを待つループ状態に陥ります。1 つのシステムがクラッシュすると,クラスタは失われます。
図 1-1: 最小ディスク構成,クォーラム・ディスクなしの 2 ノード・クラスタ
図 1-2
に示すのは,図 1-1
と同じく汎用の 2 ノード・クラスタですが,クォーラム・ディスクが追加されています。クォーラム・ディスクを追加すると,両方のシステムが稼働している場合,またはいずれかのシステムとクォーラム・ディスクが稼働している場合に,クラスタが形成可能になります。このクラスタは,図 1-1
のクラスタより可用性が高くなります。クォーラム・ディスクの使用方法と用途の詳細については,『クラスタ管理ガイド』を参照してください。
図 1-2: 最小ディスク構成,クォーラム・ディスク付きの汎用 2 ノード・クラスタ
1.5 最小ストレージ・クラスタから NSPOF クラスタへの拡張
ここでは,最小ストレージのクラスタから NSPOF (no-single-point-of-failure) クラスタ,つまり単一のハードウェア障害によってクラスタの動作が中断されないクラスタへの拡張について,次の段階順に説明します。
最初のクラスタは,高可用性アプリケーションをサポートする最小ストレージのクラスタ (1.5.1 項を参照)。
2 次ストレージ・シェルフを追加することで,さらに多くのアプリケーション用ストレージを備えるが,シングル SCSI バスが,システムダウンの原因となる単一の障害ポイントとなるクラスタ (1.5.2 項を参照)。
2 次 SCSI バスの追加により,LSM を使って クラスタ単位のルート (/
),/usr
,/var
ファイル・システム,メンバ・システムのスワップ・パーティション,およびデータ・ディスクをミラー化できるクラスタ。ただし,LSM では,メンバ・システムのブート・ディスクとクォーラム・ディスクのミラー化はできないので,完全冗長化には到達しません (1.5.3 項を参照)。
RAID (redundant array of independent disks) アレイ・コントローラを透過フェイルオーバ・モードで使用することにより,ハードウェア RAID によってディスクをミラー化できるクラスタ。ただし,2 次 SCSI バス,2 次クラスタ・インターコネクト,および冗長ネットワークがないため,この構成でもまだ NSPOF クラスタとはいえません (1.5.4 項を参照)。
多重バス・フェイルオーバ機能を備えた HSZ80,HSG60,HSG80,または Enterprise Virtual Array の使用により,2 つの共用バスを使用してストレージにアクセスできるクラスタ。ハードウェア RAID は,ルート (/
),/usr
,/var
の各ファイル・システム,メンバ・システムのブート・ディスク,データ・ディスク,およびクォーラム・ディスク (使用している場合) のミラー化に使用されます。NSPOF クラスタ (1.5.5 項を参照) を構築するには,2 次クラスタ・インターコネクト,冗長ネットワーク,および冗長電源もインストールする必要があります。
注意
ここでの説明で使われている図は概略を示すもので,共用バスの終端,ケーブル名などは省略されています。
1.5.1 UltraSCSI BA356 ストレージ・シェルフを使用する最小ディスク構成の 2 ノード・クラスタ
ここでは,必要に応じてストレージをストレージ・シェルフに追加することにより,例として使用する汎用クラスタを 1 段階拡張します。ストレージ・シェルフには,非 UltraSCSI BA350,BA356,または UltraSCSI BA356 を使用できます。BA350 は最も旧型のモデルで,SCSI ID 0〜6 のみに対応できます。非 Ultra BA356 は SCSI ID 0〜6 または 8〜14 に対応できます (3.2 節を参照)。UltraSCSI BA356 も SCSI ID 0〜6 または 8〜14 に対応しますが,UltraSCSI 速度で動作することが可能です (3.2 節を参照)。
図 1-3
に,UltraSCSI BA356 ストレージを使用した TruCluster Server 構成を示します。UltraSCSI BA356 ストレージで使用される DS-BA35X-DA パーソナリティ・モジュールは,ディファレンシャル・シングルエンド・シグナル変換器で,ディファレンシャル入力を受け付けます。
図 1-3: UltraSCSI BA356 ストレージを使用した最小構成の 2 ノード・クラスタ
図 1-3 に示す構成は,TruCluster Server バージョン 5.1B の必須ディスクを使用する,一般的な小規模またはトレーニング用のクラスタに用いられることがあります。
TruCluster Server バージョン 5.1B のディスク要件上,この構成で高可用性アプリケーションに使用できるディスクは 2 つだけです。
注意
UltraSCSI BA356 のスロット 6 は使えません。SCSI ID 6 は,通常,メンバ・システムの SCSI アダプタに使用されるからです。ただし,ストレージ・シェルフに完全な冗長電源を備えるために,このスロットを 2 次電源装置に使用することはできます。
クラスタ・ファイル・システム (詳細については『クラスタ管理ガイド』を参照) を使用すれば,クラスタ単位のルート (/
),/usr
,および
/var
ファイル・システムを物理的にいずれかのメンバ・システムのプライベート・バスに接続することは可能です。ただし,そのメンバ・システムが利用できなくなると,残りのメンバ・システムからクラスタ単位のファイル・システムにアクセスすることができません。したがって,クラスタ単位のルート (/
),/usr
,および
/var
ファイル・システムをプライベート・バスに接続することはお勧めしません。
同様に,クォーラム・ディスクをいずれかのメンバ・システムのローカル・バスに接続することも可能ですが,そのメンバが利用できなくなると,2 ノード・クラスタのクォーラムに到達することができません。メンバ・システムのローカル・バスにクォーラム・ディスクを接続するのは,システムダウンの原因となる単一の障害ポイントを作ることになるので,お勧めしません。
個々のメンバのブートおよびスワップ・パーティションも,いずれかのメンバ・システムのローカル・バスに接続することが可能です。メンバ・システム 1 のブート・ディスクがメンバ 1 内部の SCSI バスに接続されている場合,ブート・ディスク障害のためにそのシステムが利用できなくなると,クラスタ内の他のシステムからそのディスクにアクセスして可能な限りの修復を行うことができません。そのメンバ・システムのブート・ディスクが共用バスに接続されていれば,共用バスに接続されている他のシステムからそのディスクにアクセスして,可能な限りの修復を行うことができます。
スワップ・パーティションをシステムの内部 SCSI バスに接続すると,共用バス上の総トラフィックをシステムのスワップ・ボリュームに等しい量だけ減らすことができます。
TruCluster Server バージョン 5.1B の構成では,Tru64 UNIX オペレーティング・システムを格納するための 1 つ以上のディスクが必要です。ディスクは,最初のクラスタ・メンバになるシステム上のディスクか,そのシステムがアクセスできる共用バスに接続されているディスクのいずれかです。
クラスタ単位のルート (/
) ファイル・システム,/usr
ファイル・システム,/var
ファイル・システム,メンバ・ブート・ディスク,およびクォーラム・ディスクは,全メンバ・システムに接続される共用バスに接続することをお勧めします。インストール後,必要に応じてスワップを再構成し,スワップ・ディスクを内部 SCSI バス上に接続して,性能を改善することができます。詳細については,『クラスタ管理ガイド』を参照してください。
1.5.2 UltraSCSI BA356 ストレージを使用し,ディスク構成を増強した 2 ノード・クラスタ
図 1-3 は最小の構成であり,高可用性アプリケーション用のディスク・スペースがありません。Tru64 UNIX バージョン 5.0 からは,1 つの SCSI バスで 16 個のデバイスがサポートされます。1 つの SCSI バスで複数の BA356 ストレージを使用すれば,そのバスにさらに多くのデバイスを接続することができます。
図 1-4
は,図 1-3
の構成にもう 1 つの UltraSCSI BA356 ストレージを追加した構成で,高可用性アプリケーション用に 7 個のディスクが提供されます。
図 1-4: 2 つの UltraSCSI DS-BA356 ストレージを持つ 2 ノード・クラスタ
ストレージが追加されているものの,この構成には,システムダウンの原因となる単一の障害ポイントとなるシングル SCSI バスがあります。これに 2 次 SCSI バスを追加すれば,LSM (Logical Storage Manager) を使用して,クラスタ単位のルート (/
) ファイル・システム,/usr
ファイル・システム,/var
ファイル・システム,および SCSI バス間にわたるデータ・ディスクをミラー化することができ,これらのファイル・システムの単一の障害ポイントとなるシングル SCSI バスはなくなります。
1.5.3 UltraSCSI BA356 ストレージとデュアル SCSI バスを使用する 2 ノード構成
2 次共用 SCSI バスを追加すると,LSM を使って,SCSI バス間にわたるデータ・ディスク,クラスタ単位のルート (/
) ファイル・システム,/usr
ファイル・システム,および
/var
ファイル・システムをミラー化できるようになります。
注意
LSM は,メンバ・システムのブート・ディスクとクォーラム・ディスクのミラー化には使えません。これらのミラー化にはハードウェア RAID を使用します。
図 1-5
に,LSM を使用してクラスタ単位のルート (/
) ファイル・システム,/usr
ファイル・システム,/var
ファイル・システム,およびデータ・ディスクをミラー化できる,デュアル SCSI バス付きの小規模クラスタ構成を示します。
図 1-5: UltraSCSI BA356 ストレージとデュアル SCSI バスを持つ 2 ノード構成
この構成では,LSM を使用して,クラスタ単位のルート (/
) ファイル・システム,/usr
ファイル・システム,/var
ファイル・システム,およびデータ・ディスクをミラー化することにより,高可用性を実現しています。ただし,2 次クラスタ・インターコネクトと冗長ネットワークを備えていても,LSM では,クォーラム・ディスクとメンバ・システムのブート・ディスクをミラー化できないので,まだ,単一機器の障害によるシステムダウンを回避できる NSPOF クラスタとはいえません。
1.5.4 ハードウェア RAID を使用したクォーラム・ディスクおよびメンバ・システムのブート・ディスクのミラー化
サポートされている任意の RAID アレイ・コントローラを使うことにより,クォーラム・ディスクとメンバ・システムのブート・ディスクをハードウェア RAID でミラー化することが可能です。図 1-6
に,HSZ80 RAID アレイ・コントローラを使用したクラスタ構成を示します。HSZ80 の代わりに HSG60,HSG80,HSZ22 コントローラを持つ RAID アレイ 3000,またはHSV110コントローラを持つ Enterprise Virtual Array を使用することも可能です。2 つのアレイ・コントローラはデュアル冗長ペアとして構成できます。1 つのコントローラから別のコントローラへのフェイルオーバ機能を実現するには,2 台目のコントローラをインストールし,フェイルオーバ・モードを設定する必要があります。
図 1-6: 透過フェイルオーバ・モードの HSZ80 コントローラを使用したクラスタ構成
図 1-6
の HSZ80,HSG60,または HSG80 では,透過フェイルオーバ・モードが有効になっている必要があります (SET FAILOVER COPY = THIS_CONTROLLER
)。
透過フェイルオーバ・モードを有効にすると,両方のコントローラが同一の共用バスおよびデバイス・バスに接続されます。両方のコントローラとも,ストレージセット,シングル・ディスク・ユニット,または他のストレージ・デバイスのグループ全体にサービスを提供します。いずれのコントローラも,もう一方のコントローラに障害が発生した場合に,すべてのユニットへのサービス提供を続行できます。
注意
コントローラ間で HSZ/HSG ターゲット ID の割り当てを均等化すると,システム性能を改善できます。ストレージセットのセットアップについては,RAID アレイ・コントローラのマニュアルを参照してください。
図 1-6
の構成には,共用バスは 1 つしかありません。クラスタ単位のルート,およびメンバ・ブート・ディスクのミラー化によっても,なおシングル共用バスが,システムダウンの原因となる単一の障害ポイントとして残ります。
1.5.5 NSPOF クラスタの作成
NSPOF (no-single-point-of-failure) クラスタを作成する場合は,次のようにします。
2 本の共用バスとハードウェア RAID を使って,クラスタ・ファイル・システムをミラー化します。
ストレージ・シェルフを接続している複数の共用バスを使って,LSM でミラー化できるファイル・システムをミラー化し,LSM でミラー化できないファイル・システムは適切に配置します。
ストレージ・シェルフを接続している共用 SCSI バスとハードウェア RAID または LSM で NSPOF クラスタを作成する場合は,次の手順が必要です。
冗長化のために 2 次クラスタ・インターコネクトをインストールします。
冗長電源をインストールします。
冗長ネットワークをインストールします。
システムとストレージを無停電電源装置 (UPS) に接続します。
また,ハードウェア RAID を使う場合は,以下の手順も必要です。
ハードウェア RAID を使用して,クラスタ単位のルート (/
),/usr
,/var
の各ファイル・システム,メンバ・ブート・ディスク,クォーラム・ディスク (存在する場合),およびデータ・ディスクをミラー化します。
少なくとも 2 つの共用バスを使用して,多重バス・フェイルオーバ・モードにセットアップされたデュアル冗長 RAID アレイ・コントローラ (HSZ80,HSG60,HSG80,または Enterprise Virtual Array ) にアクセスします。
Tru64 UNIX のマルチパス・サポートにより,多重バス・フェイルオーバがサポートされます。
注意
多重バス・フェイルオーバをサポートできるのは,HSZ80,HSG60,HSG80,および Enterprise Virtual Array (HSZ80,HSG60,HSG80 では,
SET MULTIBUS_FAILOVER COPY = THIS_CONTROLLER
を使用) だけです。パーティション化ストレージセット,およびパーティション化シングル・ディスク・ユニットは,HSZ80 を使用する多重バス・フェイルオーバ・デュアル冗長構成では動作しません。これらのコントローラを多重バス・フェイルオーバ用に構成するには,事前にすべてのパーティションを削除する必要があります。
パーティション化ストレージセット,およびパーティション化シングル・ディスク・ユニットは,HSG60 と HSG80 および ACS V8.5 以降でサポートされています。
図 1-7
に,デュアル共用バスとデュアル冗長 HSZ80 によるストレージ・アレイを使用したクラスタ構成を示します。この構成により各メンバ・システムは,1 つの SCSI バスに障害が発生しても,もう一方の SCSI バス経由でディスクにアクセスできます。
図 1-7: 多重バス・フェイルオーバ・モードの HSZ80 群を使用した NSPOF クラスタ
図 1-8
に,デュアル共用 Fibre Channel バス,および多重バス・フェイルオーバ用に構成されたデュアル冗長 HSG80 によるストレージ・アレイを使用したクラスタ構成を示します。
図 1-8: 多重バス・フェイルオーバ・モードの HSG80 群を使用した NSPOF Fibre Channel クラスタ
LSM とストレージ・シェルフを接続した複数の共用バスを使う場合には,以下の手順が必要です。
2 本の共用バス間にわたってクラスタ単位のルート (/
),/usr
,および
/var
ファイル・システムをミラー化します。
各メンバ・システムのブート・ディスクをそれぞれ別の共用バスに配置します。
クォーラム・ディスクはさらに別の共用バスに配置します。
図 1-9
に,3 本の共用バスを持った 2 メンバ・クラスタ構成を示します。クラスタ単位のルート (/
),/usr
,および
/var
ファイル・システムは,最初の 2 本の共用バスにまたがってミラー化されています。メンバ・システム 1 のブート・ディスクは,1 本目の共用バスにあります。メンバ・システム 2 のブート・ディスクは,2 本目の共用バスにあります。クォーラム・ディスクは,3 本目の共用バスにあります。1 つのシステムがダウンするか,どれか 1 本の共用バスがダウンしても,クラスタは動作し続けます。
図 1-9: LSM と UltraSCSI BA356 を使った NSPOF クラスタ
TruCluster Server バージョン 5.1B では,以下のような 8 メンバ・クラスタ構成が可能です。
Fibre Channel: 8 個のメンバ・システムを Fibre Channel を介してファブリック (スイッチ) 構成内で共通ストレージに接続する。
パラレル SCSI: どの SCSI バスにも,メンバ・システムのうちの 4 システムしか接続できないが,複数の SCSI バスを使用することにより,ノードをさまざまに組み合わせて接続することができる。この場合,それぞれのノードの組み合わせが相互に重なり合っていてもよい。4 個のメンバ・システムを RAID アレイ・コントローラを使った共通 SCSI バスに接続する場合は,フェア・アービトレーションを有効にした DS-DWZZH-05 UltraSCSI ハブの使用を推奨する。
Fibre Channel を使った 8 メンバ・クラスタは,第 7 章の説明で簡単にわかると思います。システムとストレージをファブリックに接続するだけです。
共用 SCSI ストレージを使った 8 メンバ・クラスタは,Fibre Channel の場合より複雑なので,構成に注意が必要です。外部終端を使って 8 メンバ・クラスタを構成する 1 つの方法を,第 12 章で説明しています。
1.7 TruCluster Server ハードウェア構成のセットアップの概要
TruCluster Server ハードウェア構成をセットアップするには,次の手順に従います。
使用するハードウェア構成のプランニングを行います (第 3 章,第 4 章,第 7 章,第 10 章,第 11 章,第 12 章を参照)。
構成ダイアグラムを作成します。
ダイアグラムを使用して,すべてのデバイス,ケーブル,SCSI アダプタなどを確認します。
ディスクをインストールし,すべての RAID コントローラ・サブシステムを構成することにより,共用ストレージを準備します (第 3 章,第 7 章,第 11 章,および StorageWorks 筐体または RAID コントローラのマニュアルを参照)。
必要に応じて,StorageWorks 筐体内のシグナル変換器をインストールします (第 3 章および第 11 章を参照)。
ストレージを共用バスに接続します。各バスを終端します。必要に応じて,Y ケーブルまたはトライリンク・コネクタを使います (第 3 章および第 11 章を参照)。
Fibre Channel 構成では,HSG60,HSG80,または Enterprise Virtual Array コントローラをスイッチに接続します。システムの電源を投入すると,HSG60,HSG80,または Enterprise Virtual Array はシステムへの接続を認識します。
次の作業を行って,メンバ・システムを準備します。
クライアント・ネットワーク用にイーサネットまたは非同期転送モード (ATM) のネットワーク・アダプタを追加します。
SCSI バス・アダプタをインストールします。アダプタ・ターミネータが正しく設定されていることを確認してください。システムを共用 SCSI バスに接続します (第 4 章または第 10 章を参照)。
Fibre Channel 構成では,Fibre Channel アダプタをインストールします。Fibre Channel アダプタが正しいモード (FABRIC
または
LOOP
) で動作していることを確認してください。Fibre Channel アダプタをスイッチまたはハブに接続します (第 7 章を参照)。
クラスタ・インターコネクトのアダプタをインストールします。これらのアダプタには Memory Channel アダプタまたはプライベート LAN のイーサネット・アダプタ (追加) があります。Memory Channel ジャンパが正しく設定されていることを確認してください(第 5 章,または第 6 章を参照)。
構成に応じてクラスタ・インターコネクトに使用するアダプタを,相互に接続するか,Memory Channel イーサネットのハブまたはイーサネット・スイッチに接続します (第 5 章 または 第 6 章を参照)。
ストレージ・シェルフ,Memory Channel またはイーサネット・ハブ,イーサネット・スイッチ,RAID アレイ筐体,Fibre Channel スイッチの電源を投入してから,各メンバ・システムの電源を投入します。
ファームウェアをインストールし,SCSI ID を設定して,必要に応じて高速バス転送を有効にします (第 4 章および第 10 章参照)。
各メンバ・システムの構成情報を表示し,すべての共用ディスクが同じデバイス番号で認識されていることを確認します (第 4 章,第 7 章,または第 10 章を参照)。