日本-日本語 |
|
|
|
OpenVMS マニュアル |
|
HP OpenVMS
|
目次 | 索引 |
第 9 章
スケーラビリティを目的とした OpenVMS Cluster の構成
この章では,さまざまな OpenVMS Cluster でスケーラビリティを最大限に活かす方法を説明します。
スケーラビリティは,初期の構成機器をフルに活用しながら,任意のシステム,ストレージ,インターコネクトの各次元で, OpenVMS Cluster システムを拡張できる能力をいいます。
図 9-1 にも示すように OpenVMS Clusterシステムの拡張はさまざまな次元に見られます。また,各次元ではユーザ・アプリケーションの拡張も可能です。
図 9-1 OpenVMS Cluster 拡張次元
表 9-1 は,OpenVMS Cluster におけるシステム,ストレージ,インターコネクトの拡張次元を図示したものです。 9.1 スケーラビリティとは?
9.1.1 スケーラブルな次元
対象次元 | 拡張要因 |
---|---|
システム | |
CPU | システム内に SMP を実装。
クラスタにシステムを追加。 クラスタに各種プロセッサ・サイズを格納。 クラスタに大きなシステムを追加。 Alpha システムから Integrity システムに移行。 |
メモリ | システムにメモリを追加。 |
I/O | インターコネクトとアダプタをシステムに追加。
MEMORY CHANNEL をクラスタに追加して I/O インターコネクトのロードを抑制。 |
OpenVMS | システム・パラメータの調整。
OpenVMS Integrity へ移行。 |
アダプタ | ストレージ・アダプタをシステムに追加。
LAN アダプタをシステムに追加。 |
ストレージ | |
媒体 | ディスクをクラスタに追加。
テープと CD-ROM をクラスタに追加。 |
ボリューム・シャドウイング | ディスクのシャドウイングによる可用性の強化。
各コントローラのディスクのシャドウイング。 各システムのディスクのシャドウイング。 |
I/O | 半導体ディスクまたは DECram ディスクをクラスタに追加。
キャッシュ付きディスクとコントローラをクラスタに追加。 RAID ディスクをクラスタに追加。 |
コントローラとアレイ | ディスクとテープをシステムからコントローラに移動。
ディスクとテープをアレイに組み合わせ。 コントローラとアレイをクラスタに追加。 |
インターコネクト | |
LAN | Ethernet セグメントの追加。
Ethernet から Fast Etherne,Gigabit Ethernet,10 Gigabit Ethernet へのアップグレード。 冗長セグメントの追加とセグメントのブリッジ化。 |
Fibre Channel,SCSI,SAS,MEMORY CHANNEL | Fibre Channel,SCSI,SAS,MEMORY CHANNEL インターコネクトをクラスタに追加,または冗長インターコネクトをクラスタに追加。 |
I/O | キャパシティを目的とした高速インターコネクトの追加。
キャパシティと可用性を目的とした冗長インターコネクトの追加。 |
距離 | 室内または建物内でクラスタを展開。
都市内または数軒のビル間でクラスタを展開。 2 個所のサイト間でクラスタを展開 (距離 40 km)。 |
表 9-1 に掲載した構成要素を,ユーザが選択した任意の方法で追加する機能は, OpenVMS Cluster における重要な機能に位置づけられます。この章や,製品のマニュアルの説明やガイドラインに従って,ハードウェアとソフトウェアはさまざまな方法の組み合わせで追加することができます。特定の次元における OpenVMS Cluster の拡張をする場合は,他の次元との関係で長所や短所を検討してください。 表 9-2 は, OpenVMS Cluster のスケーラビリティを強化するための手法をまとめたものです。これらのスケーラビリティ手法を理解すれば,高いレベルのパフォーマンスと可用性を維持しながら OpenVMS Cluster の拡張に対応することができます。
9.2 スケーラビリティの高い OpenVMS Cluster の構成手法
選択するハードウェアと,その構成に適用する手法は, OpenVMS Cluster のスケーラビリティと重要な関係があります。この項では,スケーラビリティの高い OpenVMS Cluster の構成方法を説明します。
表 9-2 は,スケーラビリティについて重要度の高い順に手法を並べています。この章では,この手法の実装方法を多くの図を使って説明します。 9.2.1 スケーラビリティの手法
手法 | 説明 |
---|---|
キャパシティの計画 | キャパシティの 80% ( ほぼパフォーマンスとしては飽和状態 ) を超えてシステムを実行している状態では,それ以上の拡張性は望めません。
ビジネスやアプリケーションが拡大するかどうかを見極める必要があります。プロセッサ,メモリ,I/O に将来,どのような仕様が必要になるかを見積もることも大切です。 |
全ストレージへの共用の直接アクセス | コンピュータと I/O のパフォーマンスのスケーラビリティは,全システムから全ストレージまで共用の直接アクセスが設定されているかどうかで大きく異なります。
以下に示す FC と LAN OpenVMS Cluster の図では,MSCP のオーバヘッドなしでストレージへの共用直接アクセスを実装したさまざまな例を示します。 関連項目: MSCP のオーバヘッドの詳細については, 第 9.6.1 項 を参照してください。 |
ノード・カウントの範囲を,3 から 16 に制限 | OpenVMS Cluster が小さければパフォーマンスの管理や調整がしやすく,大きな OpenVMS Cluster よりも OpenVMS Cluster 通信のオーバヘッドが少なくて済みます。ノード・カウントを抑制するには,強力なプロセッサにアップグレードし,OpenVMS SMP の能力を活かします。
サーバに負荷がかかり過ぎてコンピューティングのボトルネックになっている場合,アプリケーションをノード間に分散できないか検討します。可能であれば,ノードを追加します。 不可能な場合は,プロセッサ (SMP) を追加します。 |
システム・ボトルネックを取り除く | OpenVMS Cluster 機能のキャパシティを最大化するにあたっては,その機能を実装するハードウェアとソフトウェアの構成要素を検討します。ボトルネックになっている構成要素があると,他の構成要素のポテンシャルをフルに活せなくなります。ボトルネックを探し出し,その要因を削減すれば,OpenVMS Cluster のキャパシティを強化できます。 |
MSCP サーバを使用可能にする | MSCP サーバを利用すれば,OpenVMS Cluster にサテライトを追加でき,すべてのストレージへのアクセスをノード間で共用できます。また,MSCP サーバには,インターコネクトに障害が発生すると共用ストレージに対するフェールオーバを実行する機能があります。 |
相互依存の緩和と単純な構成 | システム・ディスクが 1 つだけの OpenVMS Cluster システムは,そのディスクだけに OpenVMS Cluster の実行を依存します。ディスクや,そのディスクのサービスをしているノード,あるいはノード間のインターコネクトに障害が発生すると, OpenVMS Cluster システム全体が使用できなくなります。 |
サービス用リソースの確保 | 容量の小さいディスク・サーバで多くのディスクをサテライトに提供する場合, OpenVMS Cluster 全体のキャパシティが制約されます。サーバが過剰負荷になるとボトルネックになり,フェールオーバによる回復操作を効果的に処理できなくなるので注意してください。 |
リソースとコンシューマを近づける | サーバ ( リソース ) とサテライト ( コンシューマ ) の間を近づけます。 OpenVMS Cluster のノード数を追加する場合は,まず分割することを検討してください。詳細については, 第 10.2.4 項 を参照してください。 |
適切なシステム・パラメータの設定 | OpenVMS Cluster の拡張度合いがめざましい場合,重要なシステム・パラメータが現状に合わなくなることがあります。このようなときは,重要なシステム・パラメータを自動的に計算し,ページ,スワップ,ダンプの各ファイルのサイズ調整ができる AUTOGEN を実行してください。 |
9.3 SCSI OpenVMS Cluster におけるスケーラビリティ (Alpha のみ)
SCSI 方式の OpenVMS Cluster では,市販のストレージ・レベルのストレージを OpenVMS Cluster に直接使用できます。OpenVMS Cluster で SCSI インターコネクトを使用することで,距離,価格,パフォーマンスの各キャパシティの選択肢が広がります。この SCSI クラスタリング機能は,ローエンドの手ごろなクラスタ・ソリューションを構成すれば,理想的な出発点になります。SCSI クラスタは,デスクトップからデスクサイド,あるいは部門別の大規模な構成まで適用できます。
SCSI インターコネクトの使用にあたっては,以下の一般的な制約に注意してください。
この節の図では,比較的小容量のストレージを備えた 2 ノード SCSI 構成からストレージ容量を最大とし,スケーラビリティにも余裕のある 4 ノード SCSI ハブまで段階を追って紹介します。
9.3.1 3 ノード Fast Wide SCSI Cluster
図 9-2 では,25-m の Fast Wide (FWD) SCSI インターコネクトで 3 ノードが接続されています。HSZ コントローラ内に複数のストレージ・シェルフがあり,図の上部の BA356 にはさらに多くのストレージが格納されています。
図 9-2 3 ノード Fast Wide SCSI Cluster
図 9-2 に示すこの構成の長所と短所は次のとおりです。
図 9-3 では,SCSI ハブで 4 ノードが接続されています。 SCSI ハブの電源と冷却は,BA356 などのストレージ・キャビネットから供給します。 SCSI ハブは,ストレージ・キャビネットの SCSI バスに接続されていません。
図 9-3 4 ノード Ultra SCSI ハブ構成
図 9-3 に示すこの構成の長所と短所は次のとおりです。
9.4 サテライトを備えた OpenVMS Cluster のスケーラビリティ (Alpha,VAX,および Integrity)
OpenVMS Cluster におけるサテライト数と MSCP でサービスを受けるストレージの容量により,サーバ数とキャパシティが決まります。 サテライトは,システム・ディスクや他の OpenVMS Cluster ストレージに直接アクセスしないシステムです。サテライトは,通常はワークステーションですが, OpenVMS Cluster 内の他のノードのサービスを受ける OpenVMS Cluster ノードでもサテライトとして使用できます。
Ethernet LAN セグメント 1 つにつき,10 から 20 のサテライト・ノードを接続できます。
図 9-4 , 図 9-5 , 図 9-6 ,
図 9-7 は,6 サテライト LAN から 45 サテライト LAN まで段階的に拡張した構成例です。
9.4.1 6 サテライト OpenVMS Cluster
図 9-4 では,6 つのサテライトとブート・サーバが Ethernet で接続されています。
図 9-4 6 サテライト LAN OpenVMS Cluster
図 9-4 に示すこの構成の長所と短所は次のとおりです。
図 9-4 に示すブート・サーバがボトルネックになる場合, 図 9-5 に示すような構成が必要になることもあります。
9.4.2 2 ブート・ノードを備えた 6 サテライト OpenVMS Cluster
図 9-5 は,Ethernet で接続された 6 つのサテライトと 2 つのブート・サーバです。ブート・サーバ 1 とブート・サーバ 2 は MSCP サーバの動的負荷バランス調整を実行します。各ノードは,ノード間の負荷を調整,共用します。どれかのノードの機能が停止すると,他のノードがその処理を引き受けます。 MSCP 動的負荷調整には,ストレージまでの共用アクセスが必要です。
図 9-5 2 ブート・ノードを備えた 6 サテライト LAN OpenVMS Cluster
図 9-5 に示すこの構成の長所と短所は次のとおりです。
図 9-5 に示す LAN が OpenVMS Cluster ボトルネックになる場合,この構成は 図 9-6 のようになります。
目次 | 索引 |
|