日本-日本語
日本HPホーム 製品 & サービス OpenVMS製品情報
≫  お問い合わせ


OpenVMS マニュアル


 

OpenVMSドキュメント
ライブラリ

タイトルページ
目次
まえがき
第1章:システム構成の概要
第2章:ビジネス要件とアプリケーション要件の決定
第3章:システムの選択
第4章:インターコネクトの選択
第5章:ストレージ・サブシステムの選択
第6章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第7章:ストレージ・インターコネクトとしての Fibre Channel の構成
第8章:可用性を目的とした OpenVMS Cluster の構成
第9章:スケーラビリティを目的とした OpenVMS Cluster の構成
第10章:システム管理の手法
付録A :インターコネクトとしての SCSI
付録B :MEMORY CHANNEL 技術概要
付録C :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引



図 8-1 は,スモール・キャパシティで可用性の高い LAN OpenVMS Cluster システムの最適な構成です。 図 8-1 の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と欠点

  • 可用性の主な強化手法の実装

図 8-1 LAN OpenVMS Cluster システム




8.5.1 構成要素

図 8-1 に示す LAN OpenVMS Cluster 構成の構成要素は以下のとおりです。

構成要素 説明
1 2 本の Ethernet インターコネクト。ネットワーク・キャパシティを強化するには, Gigabit Ethernet あるいは 10 Gigabit Ethernet を使用します。

解説: 冗長化のためには,最低 2 本の LAN インターコネクトを使用し,全ノードを全 LAN インターコネクトに接続します。

インターコネクトが 1 本だけでは,単一点障害 (Single point of failure (単一機器の障害がシステム全体の障害になる)) の要因になります。

2 3 個から 8 個の Ethernet 対応の OpenVMS ノード

各ノードには,別のディスクに依存しないよう専用のシステム・ディスクが備えられます。

解説: 少なくとも 3 個のノードを使用し,定足数を維持します。 8 つのシステム・ディスクを管理するのは大変なので,ノード数は 8 個未満にしてください。

代替法 1: サテライト・ノードが必要な場合は,1 個または 2 個のノードをブート・サーバとして構成します。ただし,サテライト・ノードの可用性は,サーバ・ノードの可用性に依存します。

代替法 2: 第 8.9 節 にあるように,8 ノードを超える場合,LAN OpenVMS Cluster 構成を使用します。

3 システム・ディスク

ブート順序の制約上,システム・ディスクは,通常は LAN OpenVMS Clusterではシャドウイングしません。

代替法 1: 2 つのローカル・コントローラ間でシステム・ディスクをシャドウイングします。

代替法 2: 2 個のノード間でシステム・ディスクをシャドウイングします。2 番めのノードでは,ディスクは非システム・ディスクとしてマウントされます。

関連項目: ブート順序とサテライトの依存内容については, 第 10.2.4 項 を参照してください。

4 重要データ・ディスク

すべての重要データ・ディスクには,ボリューム・シャドウイングでコピーを複数作成しておきます。シャドウ・セット・メンバは,少なくとも 2 個のノードに配置して,単一点障害の要因にならないようにします。



8.5.2 長所

この構成には,以下のような長所があります。

  • この章で紹介するどの例よりもコストがかからない。

  • サイズとパフォーマンスを拡張できる,いくらかの余裕がある。

  • LAN インターコネクトにおけるノードの選択肢が最も広い。



8.5.3 短所

この構成には,以下のような短所があります。

  • ストレージ領域までの共用の直接アクセスがない。ノードから共用ストレージ領域にアクセスするには, MSCP サーバが必要である。

  • LAN ノード間でディスク・シャドウイングをすると,ノード・ブート時にコピーがシャドウされる。

  • ブート順序に依存するため,システム・ディスクをシャドウイングしても実利的ではない。



8.5.4 可用性の主な強化手法

図 8-1 の構成では,以下の手法により可用性を強化しています。

  • 単一点障害の要因を構成から排除している。

  • ボリューム・シャドウイングにより,重要なデータ・ディスクの複数のコピーが別々のノードに用意される。

  • 定足数を満たすため,最低 3 ノードを使用しており,ノードのどれかに障害が発生しても,OpenVMS Cluster は処理を続行できる。

  • 各ノードに専用のシステム・ディスクを割り当てている。サテライトに依存しない。



8.6 マルチ LAN の構成

高い可用性を備えたマルチ LAN クラスタを構成するには,以下のガイドラインに従ってください。

  • LAN セグメントをブリッジし,シングル拡張 LAN を構成する。

  • フェールオーバ・サポートとして冗長 LAN セグメント・ブリッジを設定する。

  • LAN と MOP のマルチキャスト・メッセージを伝達できる LAN ブリッジを構成する。

  • Local Area OpenVMS Cluster Network Failure Analysis Program を利用してネットワークの可用性を監視し,管理する (詳細については,『OpenVMS Cluster システム』を参照)。

  • SCS レイヤと NISCA 伝送プロトコルに関するパフォーマンス問題の診断については,『OpenVMS Cluster システム』のトラブルシューティングを参照してください。

  • LAN の平均利用率を 50% 未満とする。

関連項目: 拡張 LAN (ELAN) の詳細については, 第 9.4.8 項 を参照してください。 Alpha サテライトと Integrity サテライトの違いについては『OpenVMS Cluster システム』を参照してください。

8.6.1 MOP サーバの選択

マルチ LAN アダプタとマルチ LAN セグメントを併用するときは,MOP サービスを提供する LAN セグメントまでの接続を分散してください。分散することで,ネットワーク構成要素に障害が発生しても,MOP サーバからサテライトにダウンライン・ロードをすることができます。

サテライトをブートするためのダウンライン・ロードをサポートするには, Integrity ノードと Alpha ノードに十分なキャパシティの MOP サーバが必要です。ネットワーク上で,各 MOP サーバに適した LAN 接続 (必要に応じて Alpha または VAX) を選択すれば,ネットワーク障害が発生しても MOP サービスを続行できます。

8.6.2 2 つの LAN セグメントの構成

図 8-2 は,異なる 2 つの LAN セグメントに接続した OpenVMS Cluster システムの構成例です。この構成には,Alpha ノードと Integrity ノード,サテライト,2 個のブリッジがあります。

図 8-2 2 LAN セグメントの OpenVMS Cluster構成


この図では,以下の点に着目してください。

  • 重要なノードはマルチ LAN セグメントに接続すると,セグメントやアダプタに障害が発生したときの可用性を強化できます。こうして追加されたネットワーク接続により増加したネットワーク帯域幅の一部は,ディスク・サーバとテープ・サーバに振り向けることができます。LAN アダプタのどれかに障害が発生しても,重要なサテライトは他の LAN アダプタでブートできます。

  • 重要度の低いサテライトをシングル LAN セグメントに接続すれば,LAN セグメント間にシステムを均等に分散することでネットワーク負荷のつりあいをとることができます。このようなシステムでは,ブリッジのどれかを通じて他の LAN セグメント上のサテライトと通信します。

  • DECnet と MOP サービスでは,LAN アドレスの重複を避けるために,LAN アダプタは 1 つしか使用できません。

  • LAN 障害でサテライトのブートが不可能になるのを防ぐため,MOP サービスを提供する LAN アダプタ (Alpha) は,LAN セグメント間に分散します。

  • 冗長 LAN ブリッジを使用すると,ブリッジによる単一点障害を防げます。



8.6.3 3 つの LAN セグメントの構成

図 8-3 は,異なる 3 つの LAN セグメントに接続した OpenVMS Cluster システムの構成例です。この構成には,Alpha ノードと Integrity ノード,サテライト,複数のブリッジがあります。

図 8-3 3 LAN セグメントの OpenVMS Cluster構成


この図では,以下の点に着目してください。

  • ディスク・サーバとテープ・サーバを 2 つまたは 3 つの LAN セグメントに結合して,可用性と I/O スループットを強化しています。

  • 重要なサテライトをマルチ LAN セグメントに接続したことも可用性を強化しています。ネットワーク構成要素のどれかに障害が発生すると,これらのサテライトは,他の LAN アダプタを使用してブートし,重要なディスク・サーバとのアクセスを維持します。

  • LAN セグメント内に重要度の低いサテライトを分散することで,ネットワーク負荷のバランスを維持しています。

  • 各 LAN セグメントには,MOP サーバ (Alpha) が提供されています。

関連項目: LAN におけるブート順序とサテライト依存の詳細については, 第 10.2.4 項 を参照してください。LAN ブリッジ・フェールオーバの詳細については,『OpenVMS Cluster システム』を参照してください。

8.7 Cluster over IP における可用性

図 8-4 は,中程度のキャパシティで,高い可用性を備えたロジカル LANフェールオーバ IP OpenVMS Cluster システムです。図の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と短所

  • 可用性の主な強化手法の実装

図 8-4 ロジカル LAN フェールオーバ IP OpenVMS Cluster システム




8.7.1 構成要素

図 8-4 の IP OpenVMS Cluster 構成には以下の構成要素があります。

パート 説明
1 EIA と EIB の 2 つの IP インタフェースでノードに接続されている

解説: 可用性のため両方のインタフェースを使用してノードに接続します。 EIA と EIB がノードに接続する 2 つの LAN インタフェースです。この 2 つの LAN インタフェースはロジカル LAN フェールオーバ・セットを作成するのに使用できます。以下のコマンドを実行して,ロジカル LAN フェールオーバ・セットを作成します。

$ MC LANCP

LANCP> DEFINE DEVICE LLB/ENABLE/FAILOVER=(EIA0, EIB0)

ロジカル LAN フェールオーバ・デバイスでは IP アドレスを構成でき,クラスタ通信に使用できます。

2 サイト間リンク

解説: 同一ベンダーあるいは 2 つの異なるベンダーのどちらであっても,複数のサイト間リンクを取得してサイト間の高い可用性を確保できます。



8.7.2 長所

図 8-4 の構成には以下のような長所があります。

  • 複数のサイト間リンクにより,サイト間で高い可用性が期待できる。

  • コンポーネントの 1 つで障害が発生しても他のノードで処理を引き継ぐことができるよう LLA を使用する。他のノードが利用できるので LAN アダプタで障害が発生してもユーザに意識させない。



8.7.3 可用性と性能の主な強化手法

図 8-4 の構成では以下のような手法で可用性を強化してます。

  • ロジカル LAN フェールオーバを可能にするデバイスを定義することで,ローカル LAN カードで障害が発生してもノードはそのまま動作し続け,ロジカル LAN フェールオーバ・セットで構成されている他のインタフェースに切り替えられます。

  • すべてのノードが他のノードからアクセスを受けることができます。ロジカル LAN フェールオーバ・セットを構成するには次のコマンドを実行します。

    $ MC LANCP 
    LANCP> DEFINE DEVICE LLB/ENABLE/FAILOVER=(EIA0, EIB0) 
    


    『OpenVMS Cluster システム』の第 8 章で, JASMIN および TULIP の 2 つのノードを持つクラスタにノード ORCHID を追加する方法について説明しています。この例ではロジカル LAN フェールオーバ・セットは ORCHID で作成および構成されます。ローカルの LAN カードが故障しても ORCHID は動作し続け,ロジカル LAN フェールオーバ・セットに構成されている他のインタフェースに切り替えられます。



8.8 MEMORY CHANNEL OpenVMS Cluster における可用性

図 8-5 は,高い可用性を備えた MEMORY CHANNEL (MC) クラスタ構成です。 図 8-5 の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と短所

  • 可用性の主な強化手法の実装

図 8-5 MEMORY CHANNEL クラスタ




図 8-5 に示す MEMORY CHANNEL 構成には,以下の構成要素があります。

パート 説明
1 2 個の MEMORY CHANNEL ハブ

解説: 2 個のハブとノードとの複数の接続により,単一点障害の要因を排除しています。

2 3 個から 8 個の MEMORY CHANNEL ノード

解説: 定足数を満たすには,3 ノードを推奨します。1 本の MEMORY CHANNEL インターコネクトで,最高 8 個の OpenVMS Alpha ノードをサポートします。

代替法: 2 ノード構成では,ノードに障害が発生したときの定足数を満たすために,クォーラム・ディスクが必要です。

3 FWD (Fast-wide differential) SCSI バス

解説: データ転送速度を強化し (20 百万/秒),2 つの HSZ コントローラをサポートするため FWD SCSI バスを使用します。

4 2 つの HSZ コントローラ

解説: 2 つの HSZ コントローラでコントローラ障害時の冗長性を確保しています。2 つのコントローラにより,2 本のシングル・エンド SCSI バスの接続が実装され,さらに多くのストレージ領域を利用できます。

5 重要なシステム・ディスクとデータ・ディスク

解説: 重要なディスクはシャドウ化し,シャドウ・セット・メンバは異なる SCSI バスに配置して,単一点障害の要因を排除します。



8.8.2 長所

この構成には,以下のような長所があります。

  • 全ノードが全ストレージ領域に直接アクセスできる。

  • SCSI ストレージ領域では,経済的でパフォーマンスの高い商品ハードウェアを提供できる。

  • MEMORY CHANNEL インターコネクトが,経済的で高いパフォーマンスのノード間通信を提供する。SCSI インターコネクトは,経済的な商品ストレージ領域通信の提供により, MEMORY CHANNEL を補完する。



8.8.3 短所

この構成には,以下のような短所があります。

  • FWD (Fast-wide differential) SCSI バスが,単一点障害の要因になる。これを防ぐには,1 本に障害が発生しても他のバスにフェールオーバできるよう第 2 の FWD (Fast-wide differential) SCSI バスを追加する。この機能を使用するには,システムで OpenVMS バージョン 7.2 またはそれ以上を実行しておき,マルチパス・サポートを有効にしておく。



8.8.4 可用性の主な強化手法

図 8-5 の構成では,以下の手法により可用性を強化しています。

  • 冗長 MEMORY CHANNEL ハブと HSZ コントローラで,ハブが単一点障害の要因になったり,コントローラ障害が発生するのを防ぐ。

  • ボリューム・シャドウイングにより,重要なデータ・ディスクの複数のコピーが,別々の HSZ コントローラに用意される。

  • 全ノードが全ストレージ領域に対する共用の直接アクセスを備える。

  • 定足数を満たすため,最低 3 ノードを使用しており,ノードのどれかに障害が発生しても,OpenVMS Cluster は処理を続行できる。



8.9 サテライトを持つ OpenVMS Clusterにおける可用性

サテライトとは,システム・ディスクや他の OpenVMS Cluster ストレージ領域に直接アクセスできないシステムです。サテライトは通常,ワークステーションですが,クラスタ内の他のノードによっては,ストレージ領域のサービスを受ける OpenVMS Cluster ノードもサテライトとして使用できます。

サテライト・ノードの可用性はサーバ・ノードによって大きく異なるので,この章の始めに紹介した構成例ではサテライト・ノードを使用していません。ただし,サテライト/サーバ構成には大きな長所があり,サテライト・ノードを構成に組み込むことで多少の可用性を犠牲にする場合もあります。

図 8-6 は,サテライトを持つ OpenVMS Cluster システムの最適な構成です。 図 8-6 の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と短所

  • 可用性の主な強化手法の実装

図 8-6 サテライトを持つ OpenVMS Cluster




図 8-6 に示すこのサテライト/サーバ構成には,以下の構成要素があります。

パート 説明
1 ベース構成

ベース構成は,サテライトのサーバ機能を実行します。

2 3 個から 16 個の OpenVMS サーバ・ノード

解説: 定足数を満たすには,少なくとも 3 ノードを推奨します。 16 ノードを超えると管理がたいへん煩雑になります。

3 ベース・サーバ・ノードとサテライト間の 2 つの Ethernet セグメント

解説: 高い可用性を提供します。

4 2 つの Ethernet アダプタで重要な各サテライトを接続している 2 つの Ethernet セグメント。これら重要なサテライトには,それぞれ専用のシステム・ディスクがあります。

解説: 専用のブート・ディスクを備えることで,重要なサテライトの可用性を強化しています。

5 重要度の低いサテライトの場合,ブート・サーバは Ethernet セグメントに配置します。

解説: 重要度の低いサテライトに,専用のブート・ディスクは不要です。

6 サテライト数は 1 セグメント当たり 15 に制限。

解説: 1 セグメント上のサテライト数が 15 を超えると I/O の輻輳が発生することがあります。


目次 索引

© 2012 Hewlett-Packard Development Company, L.P.