1    概要

この章では,TruCluster Server 製品の概要,および基本的なクラスタ・ハードウェア構成の概念について説明します。

この章で説明している項目は次のとおりです。

第 2 章以降では,TruCluster Server のハードウェア構成のセットアップと保守について説明しています。ソフトウェア・インストールについてはTruCluster Server『クラスタ・インストレーション・ガイド』を,メンバ・システムのセットアップについては『クラスタ管理ガイド』を,高可用性アプリケーションのセットアップの詳細については『クラスタ高可用性アプリケーション・ガイド』をそれぞれ参照してください。

1.1    TruCluster Server

TruCluster Server は,単一システムの管理機能をクラスタ全体に拡張します。TruCluster Server では,すべてのクラスタ・メンバが共用する単一のルート・ファイル・システムをはじめ,ファイルおよびディレクトリがクラスタ単位のネームスペースで管理されます。さらに,クラスタがそのネットワーク・クライアントに単一のシステムとして認識されるように,インターネット・プロトコル群 (TCP/IP) に対してクラスタ別名を割り当てます。

TruCluster Server では,次に示すように,従来の TruCluster 製品にあった可用性および性能を引き継いでいます。

TruCluster Server では,すべてのクラスタ・メンバがその存在場所に制約されることなく,クラスタ内のすべてのファイル・システムとすべてのストレージにアクセスできるようにすることにより,従来の製品の機能セットが増強されています。クライアントからは,TruCluster Server クラスタは単一のシステムに見えます。システム管理者は,TruCluster Server クラスタを単一のシステムであるかのように管理できます。TruCluster Server のプライベートなクラスタ・インターコネクトと共用ストレージ・インターコネクトに,アーキテクチャまたはプロトコル上の組み込み依存関係はありません。したがって,技術の進歩と高速化に合わせたクラスタ・ハードウェア構成の変更/拡張がいっそう簡単にできるようになりました。

1.2    メモリ要件

Tru64 UNIX をインストールする場合,最低でもベース・オペレーティング・システムを置けるだけのメモリ量が必要です。クラスタでは,これに加えて,64 MB が各メンバに必要です。たとえば,ベース・オペレーティング・システムが 128 MB のメモリを必要とすれば,クラスタで使うシステムには 192 MB 必要です。

1.3    最小ディスク要件

ここでは,2 つのノードからなるクラスタの最小ファイル・システム要件,つまりディスク要件の概要を説明します。必須の各クラスタ・ファイル・システムに必要な容量についての詳細は,『クラスタ・インストレーション・ガイド』を参照してください。

1.3.1    インストールに必要なディスク

以下の目的に使用されるディスクを割り当てる必要があります。

以降の各項でこれらのディスクについて詳しく説明します。図 1-1 には,汎用の 2 メンバ・クラスタとそれに必要なファイル・システムが示されています。

1.3.1.1    Tru64 UNIX オペレーティング・システム・ディスク

Tru64 UNIX オペレーティング・システムは,次の例に示すように,最初のクラスタ・メンバとなるシステムからアクセスできる 1 つ以上のディスク上に AdvFS ファイル・システムを使用してインストールされます。

dsk0a       root_domain#root
dsk0g       usr_domain#usr
dsk0h       var_domain#var

オペレーティング・システム・ディスク (Tru64 UNIX ディスク) をクラスタ単位のディスク,メンバ・ブート・ディスク,およびクォーラム・ディスクとして使用することはできません。

Tru64 UNIX オペレーティング・システムを最初のクラスタ・メンバ上で利用できるので,緊急時には,クラスタをシャットダウンした後,Tru64 UNIX オペレーティング・システムをブートして,問題の解決を試みることが可能です。詳細については,『クラスタ管理ガイド』を参照してください。

1.3.1.2    クラスタ単位のディスク

クラスタ作成時にインストレーション・スクリプトは,Tru64 UNIX のルート (/),/usr,および /var の各ファイル・システムを Tru64 UNIX ディスクから,指定された 1 つ以上のディスクにコピーします。

クラスタ単位のファイル・システムに使用するディスクは,すべてのクラスタ・メンバからアクセスできるようにするため,共用バスに接続することをお勧めします。

インストール時に,クラスタ単位のルート (/),/usr,および /var の各ファイル・システムを格納するディスクのデバイス名とパーティションを指定します。たとえば,dsk3bdsk4c,および dsk3g を使用する場合は,次のようになります。

dsk3b       cluster_root#root
dsk4c       cluster_usr#usr
dsk3g       cluster_var#var

/var ファイル・システムは,cluster_usr ドメインを共用することができないため,別個のドメイン cluster_var にする必要があります。各 AdvFS ファイル・システムは別々のパーティションにする必要がありますが,それらのパーティションを同じディスク上に置く必要はありません。

クラスタ単位のファイル・システムが格納されるディスクは,メンバ・ブート・ディスクとしても,クォーラム・ディスクとしても使用できません。

1.3.1.3    メンバ・ブート・ディスク

各メンバにはブート・ディスクがあります。ブート・ディスクには,そのメンバのブート・パーティション,スワップ・パーティション,およびクラスタ状態パーティションが含まれています。たとえば,dsk1 が最初のメンバのブート・ディスク,dsk2 が 2 番目のメンバのブート・ディスクとすると,次のようになります。

dsk1        first  member's boot disk  [pepicelli]
dsk2        second member's boot disk  [polishham]

インストレーション・スクリプトは,各メンバのブート・ディスクを再フォーマットして,3 つのパーティション,つまりそのメンバのルート (/)・ファイル・システム用の a パーティション,スワップ用の b パーティション,クラスタ状態情報用の h パーティションを作成します。/usr および /var ファイル・システムはメンバのブート・ディスク上には存在しません。

メンバ・ブート・ディスクには,クラスタ単位のルート (/),/usr/var ファイル・システムのいずれも格納することはできません。また,メンバ・ブート・ディスクはクォーラム・ディスクとして使用することもできません。ただし,メンバ・ディスクには,上記の 3 つの必須パーティション以外のパーティションも作成できます。スワップ・パーティションはメンバ・ブート・ディスクから移動できます。詳細については,『クラスタ管理ガイド』を参照してください。

1.3.1.4    クォーラム・ディスク

クォーラム・ディスクを使用すると,2 つのメンバからなるクラスタの可用性を高めることができます。このディスクの h パーティションには,クラスタ状態情報とクォーラム情報が格納されます。クォーラム・ディスクの使用方法と用途の詳細については,『クラスタ管理ガイド』を参照してください。

クォーラム・ディスクの使用に関しては,以下の制約事項があります。

1.4    汎用 2 ノード・クラスタ

ここでは,最小のディスク・レイアウトである 4 つのディスクで構成された汎用の 2 ノード・クラスタについて説明します。ただし,高可用性アプリケーションを利用するには,ディスクの追加が必要になる場合もあります。以降に説明する構成では,PCI (peripheral component interconnect) SCSI バス・アダプタの種類は重要ではありません。また,Y ケーブル,トライリンク・コネクタ,終端,UltraSCSI ハブの使用,Fibre Channel の使用など,SCSI バスのケーブル接続に関連する事項は重要ですが,ここでは考慮しません。

図 1-1 に,以下の最小ディスク数で構成された汎用 2 ノード・クラスタを示します。

最小構成のクラスタにはクォーラム・ディスクがないため,可用性が低下する場合があります。図からわかるように,メンバ・システムが 2 つだけの場合は,クォーラムに達し,クラスタを形成するためには両方のシステムが稼働する必要があります。1 つのシステムしか稼働していない場合には,クラスタが形成される前に,2 番目のシステムのブートを待つループ状態に陥ります。1 つのシステムがクラッシュすると,クラスタは失われます。

図 1-1:  最小ディスク構成,クォーラム・ディスクなしの 2 ノード・クラスタ

図 1-2 に示すのは,図 1-1 と同じく汎用の 2 ノード・クラスタですが,クォーラム・ディスクが追加されています。クォーラム・ディスクを追加すると,両方のシステムが稼働している場合,またはいずれかのシステムとクォーラム・ディスクが稼働している場合に,クラスタが形成可能になります。このクラスタは,図 1-1 のクラスタより可用性が高くなります。クォーラム・ディスクの使用方法と用途の詳細については,『クラスタ管理ガイド』を参照してください。

図 1-2:  最小ディスク構成,クォーラム・ディスク付きの汎用 2 ノード・クラスタ

1.5    最小ストレージ・クラスタから NSPOF クラスタへの拡張

ここでは,最小ストレージのクラスタから NSPOF (no-single-point-of-failure) クラスタ,つまり単一のハードウェア障害によってクラスタの動作が中断されないクラスタへの拡張について,次の段階順に説明します。

注意

ここでの説明で使われている図は概略を示すもので,共用バスの終端,ケーブル名などは省略されています。

1.5.1    UltraSCSI BA356 ストレージ・シェルフを使用する最小ディスク構成の 2 ノード・クラスタ

ここでは,必要に応じてストレージをストレージ・シェルフに追加することにより,例として使用する汎用クラスタを 1 段階拡張します。ストレージ・シェルフには,非 UltraSCSI BA350,BA356,または UltraSCSI BA356 を使用できます。BA350 は最も旧型のモデルで,SCSI ID 0〜6 のみに対応できます。非 Ultra BA356 は SCSI ID 0〜6 または 8〜14 に対応できます (3.2 節を参照)。UltraSCSI BA356 も SCSI ID 0〜6 または 8〜14 に対応しますが,UltraSCSI 速度で動作することが可能です (3.2 節を参照)。

図 1-3 に,UltraSCSI BA356 ストレージを使用した TruCluster Server 構成を示します。UltraSCSI BA356 ストレージで使用される DS-BA35X-DA パーソナリティ・モジュールは,ディファレンシャル・シングルエンド・シグナル変換器で,ディファレンシャル入力を受け付けます。

図 1-3:  UltraSCSI BA356 ストレージを使用した最小構成の 2 ノード・クラスタ

図 1-3 に示す構成は,TruCluster Server バージョン 5.1B の必須ディスクを使用する,一般的な小規模またはトレーニング用のクラスタに用いられることがあります。

TruCluster Server バージョン 5.1B のディスク要件上,この構成で高可用性アプリケーションに使用できるディスクは 2 つだけです。

注意

UltraSCSI BA356 のスロット 6 は使えません。SCSI ID 6 は,通常,メンバ・システムの SCSI アダプタに使用されるからです。ただし,ストレージ・シェルフに完全な冗長電源を備えるために,このスロットを 2 次電源装置に使用することはできます。

クラスタ・ファイル・システム (詳細については『クラスタ管理ガイド』を参照) を使用すれば,クラスタ単位のルート (/),/usr,および /var ファイル・システムを物理的にいずれかのメンバ・システムのプライベート・バスに接続することは可能です。ただし,そのメンバ・システムが利用できなくなると,残りのメンバ・システムからクラスタ単位のファイル・システムにアクセスすることができません。したがって,クラスタ単位のルート (/),/usr,および /var ファイル・システムをプライベート・バスに接続することはお勧めしません。

同様に,クォーラム・ディスクをいずれかのメンバ・システムのローカル・バスに接続することも可能ですが,そのメンバが利用できなくなると,2 ノード・クラスタのクォーラムに到達することができません。メンバ・システムのローカル・バスにクォーラム・ディスクを接続するのは,システムダウンの原因となる単一の障害ポイントを作ることになるので,お勧めしません。

個々のメンバのブートおよびスワップ・パーティションも,いずれかのメンバ・システムのローカル・バスに接続することが可能です。メンバ・システム 1 のブート・ディスクがメンバ 1 内部の SCSI バスに接続されている場合,ブート・ディスク障害のためにそのシステムが利用できなくなると,クラスタ内の他のシステムからそのディスクにアクセスして可能な限りの修復を行うことができません。そのメンバ・システムのブート・ディスクが共用バスに接続されていれば,共用バスに接続されている他のシステムからそのディスクにアクセスして,可能な限りの修復を行うことができます。

スワップ・パーティションをシステムの内部 SCSI バスに接続すると,共用バス上の総トラフィックをシステムのスワップ・ボリュームに等しい量だけ減らすことができます。

TruCluster Server バージョン 5.1B の構成では,Tru64 UNIX オペレーティング・システムを格納するための 1 つ以上のディスクが必要です。ディスクは,最初のクラスタ・メンバになるシステム上のディスクか,そのシステムがアクセスできる共用バスに接続されているディスクのいずれかです。

クラスタ単位のルート (/) ファイル・システム,/usr ファイル・システム,/var ファイル・システム,メンバ・ブート・ディスク,およびクォーラム・ディスクは,全メンバ・システムに接続される共用バスに接続することをお勧めします。インストール後,必要に応じてスワップを再構成し,スワップ・ディスクを内部 SCSI バス上に接続して,性能を改善することができます。詳細については,『クラスタ管理ガイド』を参照してください。

1.5.2    UltraSCSI BA356 ストレージを使用し,ディスク構成を増強した 2 ノード・クラスタ

図 1-3 は最小の構成であり,高可用性アプリケーション用のディスク・スペースがありません。Tru64 UNIX バージョン 5.0 からは,1 つの SCSI バスで 16 個のデバイスがサポートされます。1 つの SCSI バスで複数の BA356 ストレージを使用すれば,そのバスにさらに多くのデバイスを接続することができます。

図 1-4 は,図 1-3 の構成にもう 1 つの UltraSCSI BA356 ストレージを追加した構成で,高可用性アプリケーション用に 7 個のディスクが提供されます。

図 1-4:  2 つの UltraSCSI DS-BA356 ストレージを持つ 2 ノード・クラスタ

ストレージが追加されているものの,この構成には,システムダウンの原因となる単一の障害ポイントとなるシングル SCSI バスがあります。これに 2 次 SCSI バスを追加すれば,LSM (Logical Storage Manager) を使用して,クラスタ単位のルート (/) ファイル・システム,/usr ファイル・システム,/var ファイル・システム,および SCSI バス間にわたるデータ・ディスクをミラー化することができ,これらのファイル・システムの単一の障害ポイントとなるシングル SCSI バスはなくなります。

1.5.3    UltraSCSI BA356 ストレージとデュアル SCSI バスを使用する 2 ノード構成

2 次共用 SCSI バスを追加すると,LSM を使って,SCSI バス間にわたるデータ・ディスク,クラスタ単位のルート (/) ファイル・システム,/usr ファイル・システム,および /var ファイル・システムをミラー化できるようになります。

注意

LSM は,メンバ・システムのブート・ディスクとクォーラム・ディスクのミラー化には使えません。これらのミラー化にはハードウェア RAID を使用します。

図 1-5 に,LSM を使用してクラスタ単位のルート (/) ファイル・システム,/usr ファイル・システム,/var ファイル・システム,およびデータ・ディスクをミラー化できる,デュアル SCSI バス付きの小規模クラスタ構成を示します。

図 1-5:  UltraSCSI BA356 ストレージとデュアル SCSI バスを持つ 2 ノード構成

この構成では,LSM を使用して,クラスタ単位のルート (/) ファイル・システム,/usr ファイル・システム,/var ファイル・システム,およびデータ・ディスクをミラー化することにより,高可用性を実現しています。ただし,2 次クラスタ・インターコネクトと冗長ネットワークを備えていても,LSM では,クォーラム・ディスクとメンバ・システムのブート・ディスクをミラー化できないので,まだ,単一機器の障害によるシステムダウンを回避できる NSPOF クラスタとはいえません。

1.5.4    ハードウェア RAID を使用したクォーラム・ディスクおよびメンバ・システムのブート・ディスクのミラー化

サポートされている任意の RAID アレイ・コントローラを使うことにより,クォーラム・ディスクとメンバ・システムのブート・ディスクをハードウェア RAID でミラー化することが可能です。図 1-6 に,HSZ80 RAID アレイ・コントローラを使用したクラスタ構成を示します。HSZ80 の代わりに HSG60,HSG80,HSZ22 コントローラを持つ RAID アレイ 3000,またはHSV110コントローラを持つ Enterprise Virtual Array を使用することも可能です。2 つのアレイ・コントローラはデュアル冗長ペアとして構成できます。1 つのコントローラから別のコントローラへのフェイルオーバ機能を実現するには,2 台目のコントローラをインストールし,フェイルオーバ・モードを設定する必要があります。

図 1-6:  透過フェイルオーバ・モードの HSZ80 コントローラを使用したクラスタ構成

図 1-6 の HSZ80,HSG60,または HSG80 では,透過フェイルオーバ・モードが有効になっている必要があります (SET FAILOVER COPY = THIS_CONTROLLER)。 透過フェイルオーバ・モードを有効にすると,両方のコントローラが同一の共用バスおよびデバイス・バスに接続されます。両方のコントローラとも,ストレージセット,シングル・ディスク・ユニット,または他のストレージ・デバイスのグループ全体にサービスを提供します。いずれのコントローラも,もう一方のコントローラに障害が発生した場合に,すべてのユニットへのサービス提供を続行できます。

注意

コントローラ間で HSZ/HSG ターゲット ID の割り当てを均等化すると,システム性能を改善できます。ストレージセットのセットアップについては,RAID アレイ・コントローラのマニュアルを参照してください。

図 1-6 の構成には,共用バスは 1 つしかありません。クラスタ単位のルート,およびメンバ・ブート・ディスクのミラー化によっても,なおシングル共用バスが,システムダウンの原因となる単一の障害ポイントとして残ります。

1.5.5    NSPOF クラスタの作成

NSPOF (no-single-point-of-failure) クラスタを作成する場合は,次のようにします。

ストレージ・シェルフを接続している共用 SCSI バスとハードウェア RAID または LSM で NSPOF クラスタを作成する場合は,次の手順が必要です。

また,ハードウェア RAID を使う場合は,以下の手順も必要です。

図 1-7 に,デュアル共用バスとデュアル冗長 HSZ80 によるストレージ・アレイを使用したクラスタ構成を示します。この構成により各メンバ・システムは,1 つの SCSI バスに障害が発生しても,もう一方の SCSI バス経由でディスクにアクセスできます。

図 1-7:  多重バス・フェイルオーバ・モードの HSZ80 群を使用した NSPOF クラスタ

図 1-8 に,デュアル共用 Fibre Channel バス,および多重バス・フェイルオーバ用に構成されたデュアル冗長 HSG80 によるストレージ・アレイを使用したクラスタ構成を示します。

図 1-8:  多重バス・フェイルオーバ・モードの HSG80 群を使用した NSPOF Fibre Channel クラスタ

LSM とストレージ・シェルフを接続した複数の共用バスを使う場合には,以下の手順が必要です。

図 1-9 に,3 本の共用バスを持った 2 メンバ・クラスタ構成を示します。クラスタ単位のルート (/),/usr,および /var ファイル・システムは,最初の 2 本の共用バスにまたがってミラー化されています。メンバ・システム 1 のブート・ディスクは,1 本目の共用バスにあります。メンバ・システム 2 のブート・ディスクは,2 本目の共用バスにあります。クォーラム・ディスクは,3 本目の共用バスにあります。1 つのシステムがダウンするか,どれか 1 本の共用バスがダウンしても,クラスタは動作し続けます。

図 1-9:  LSM と UltraSCSI BA356 を使った NSPOF クラスタ

1.6    8 メンバ・クラスタ

TruCluster Server バージョン 5.1B では,以下のような 8 メンバ・クラスタ構成が可能です。

1.7    TruCluster Server ハードウェア構成のセットアップの概要

TruCluster Server ハードウェア構成をセットアップするには,次の手順に従います。

  1. 使用するハードウェア構成のプランニングを行います (第 3 章第 4 章第 7 章第 10 章第 11 章第 12 章を参照)。

  2. 構成ダイアグラムを作成します。

  3. 作成したダイアグラムを第 3 章第 7 章第 11 章,および第 12 章にある例と比較します。

  4. ダイアグラムを使用して,すべてのデバイス,ケーブル,SCSI アダプタなどを確認します。

  5. ディスクをインストールし,すべての RAID コントローラ・サブシステムを構成することにより,共用ストレージを準備します (第 3 章第 7 章第 11 章,および StorageWorks 筐体または RAID コントローラのマニュアルを参照)。

  6. 必要に応じて,StorageWorks 筐体内のシグナル変換器をインストールします (第 3 章および第 11 章を参照)。

  7. ストレージを共用バスに接続します。各バスを終端します。必要に応じて,Y ケーブルまたはトライリンク・コネクタを使います (第 3 章および第 11 章を参照)。

    Fibre Channel 構成では,HSG60,HSG80,または Enterprise Virtual Array コントローラをスイッチに接続します。システムの電源を投入すると,HSG60,HSG80,または Enterprise Virtual Array はシステムへの接続を認識します。

  8. 次の作業を行って,メンバ・システムを準備します。

  9. 構成に応じてクラスタ・インターコネクトに使用するアダプタを,相互に接続するか,Memory Channel イーサネットのハブまたはイーサネット・スイッチに接続します (第 5 章 または 第 6 章を参照)。

  10. ストレージ・シェルフ,Memory Channel またはイーサネット・ハブ,イーサネット・スイッチ,RAID アレイ筐体,Fibre Channel スイッチの電源を投入してから,各メンバ・システムの電源を投入します。

  11. ファームウェアをインストールし,SCSI ID を設定して,必要に応じて高速バス転送を有効にします (第 4 章および第 10 章参照)。

  12. 各メンバ・システムの構成情報を表示し,すべての共用ディスクが同じデバイス番号で認識されていることを確認します (第 4 章第 7 章,または第 10 章を参照)。