前へ | 次へ | 目次 | 索引 |
DSSI インターコネクトごとに,最高で 8 ノードを接続できます。その内,4 ノードはシステムとすることができ,残りをストレージ・デバイスに割り当てることができます。 図 10_8
, 図 10_9
と 図 10-10
は, 2 ノード DSSI OpenVMS Cluster から 4 ノード DSSI OpenVMS Cluster までの拡張の様子を示したものです。
10.4.1 2 ノード DSSI OpenVMS Cluster
図 10-8 で,2 つのノードは,共通 DSSI インターコネクトで 4 つのディスクに接続されています。
図 10-8 2 ノード DSSI OpenVMS Cluster
図 10-8 に示すこの構成の長所と短所は次のとおりです。
図 10_8 内の OpenVMS Cluster により強力な処理能力,記憶容量,冗長性が必要な場合,この構成は, 図 10-9 のようになります。
10.4.2 共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster
図 10-9 では,4 つのノードは,8 つのディスクへの直接アクセスを 2 本の DSSI インターコネクトで共用しています。内 2 つのディスクは,すべての DSSI インターコネクト上でシャドウ化されています。
図 10-9 共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster
図 10-9 に示すこの構成の長所と短所は次のとおりです。
図 10_9 で示した構成でさらに多くのストレージの容量が必要な場合,この構成は, 図 10-10 のようになります。
10.4.3 非共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster
図 10-10 は,4 ノード,10 ディスクの OpenVMS Cluster です。このモデルは,ノードの一部が一部のディスクへの直接アクセスを共用せず,これらのディスクを MSCP サービスの対象にする必要があるという点で, 図 10_8 や 図 10-9 とは異なります。優先順位が最も高いデータは,共通 DSSI インターコネクトでノードに結合されているディスクに保存すれば,最高のパフォーマンスを発揮できます。すべての共通 DSSI インターコネクト間のボリューム・シャドウイングでは,最高の可用性が得られるだけでなく,読み取りパフォーマンスが強化されます。
図 10-10 10 ディスクを備えた DSSI OpenVMS Cluster
図 10-10 に示すこの構成の長所と短所は次のとおりです。
10.5 MEMORY CHANNEL OpenVMS Cluster におけるスケーラビリティ
各 MEMORY CHANNEL (MC) インターコネクトでは,MEMORY CHANNEL ハブに最高で 4 つのノードを接続できます。2 ハブ構成の場合,ノードごとに PCI アダプタが 2 つ必要で,それぞれのアダプタは,別々のハブに接続するものとします。2 ノード構成では, PCI アダプタの 1 つが仮想ハブになるので,ハブは不要です。
図 10_11 , 図 10_12 , 図 10-13 は, 2 ノード MEMORY CHANNEL クラスタから 4 ノード MEMORY CHANNEL クラスタへの拡張の様子を示しています。
関連項目: その他の構成情報と,MEMORY CHANNEL の働きの技術的な説明については,
付録 B を参照してください。
10.5.1 2 ノード MEMORY CHANNEL Cluster
図 10-11 で,MEMORY CHANNEL インターコネクト,LAN (Ethernet, FDDI,または ATM) インターコネクト,および Fibre Channel インターコネクトで 2 ノードが接続されています。
図 10-11 2 ノード MEMORY CHANNEL OpenVMS Cluster
図 10-11 に示すこの構成の長所と短所は次のとおりです。
図 10_11 に示す OpenVMS Cluster でより強力な処理能力や冗長性が必要になると,この構成は 図 10-12 のようになります。
10.5.2 3 ノード MEMORY CHANNEL Cluster
図 10-12 では,LAN (Ethernet,FDDI,または ATM) インターコネクトの他,高速 MEMORY CHANNEL インターコネクトで 3 ノードが接続されています。これらのノードは,Fibre Channel インターコネクトによりストレージへの直接アクセスも共用しています。
図 10-12 3 ノード MEMORY CHANNEL OpenVMS Cluster
図 10-12 に示すこの構成の長所と短所は次のとおりです。
図 10_12 で示す構成にさらに多くのストレージの容量が必要になると,この構成は 図 10-13 のようになります。
10.5.3 4 ノード MEMORY CHANNEL OpenVMS Cluster
図 10-13 ,CI インターコネクトの他,MEMORY CHANNELインターコネクトで各ノードが接続されています。
図 10-13 CI クラスタを備えた MEMORY CHANNEL Cluster
図 10-13 に示すこの構成の長所と短所は次のとおりです。
10.6 SCSI OpenVMS Cluster におけるスケーラビリティ
SCSI 方式の OpenVMS Cluster では,市販のストレージ・レベルのストレージを OpenVMS Cluster に直接使用できます。OpenVMS Cluster で SCSI インターコネクトを使用することで,距離,価格,パフォーマンスの各キャパシティの選択肢が広がります。この SCSI クラスタリング機能は,ローエンドの手ごろなクラスタ・ソリューションを構成すれば,理想的な出発点になります。SCSI クラスタは,デスクトップからデスクサイド,あるいは部門別の大規模な構成まで適用できます。
SCSI インターコネクトの使用にあたっては,以下の一般的な制約に注意してください。
関連項目: 内部 SCSI ケーブルの長さや,SCSI デバイスのクラスタリングの詳細については, 付録 A を参照してください。
この節の図では,比較的小容量のストレージを備えた 2 ノード SCSI 構成からストレージ容量を最大とし,スケーラビリティにも余裕のある 4 ノード SCSI ハブまで段階を追って紹介します。
10.6.1 2 ノード Fast Wide SCSI Cluster
図 10-14 では,25-m の Fast Wide Differential (FWD) SCSI バスで 2 ノードが接続され,さらにノード間トラフィック用に MEMORY CHANNEL (または任意の) インターコネクトが接続されています。BA356 ストレージ・キャビネットには,電源, DWZZB シングル・エンド対ディファレンシャル・コンバータ, 6 つのディスク・ドライブが格納されています。この構成には,Narrow ディスクと Wide ディスクのどちらでも使用できます。
図 10-14 2 ノード Fast Wide SCSI Cluster
図 10-14 に示すこの構成の長所と短所は次のとおりです。
図 10_14 で示す構成にさらに多くのストレージの容量が必要になると,この構成は 図 10-15 のようになります。
10.6.2 HSZ ストレージを備えた 2 ノード Fast Wide SCSI Cluster
図 10-15 では,25-m の Fast Wide Differential (FWD) SCSI バスで 2 ノードが接続され,さらにノード間トラフィック用に MEMORY CHANNEL (または任意の) インターコネクトが接続されています。複数のストレージ・シェルフが HSZ コントローラ内にあります。
図 10-15 HSZ ストレージを備えた 2 ノード Fast Wide SCSI Cluster
図 10-15 に示すこの構成の長所と短所は次のとおりです。
10.6.3 3 ノード Fast Wide SCSI Cluster
図 10-16 ,では,25-m の Fast Wide (FWD) SCSI インターコネクトで 3 ノードが接続されています。HSZ コントローラ内に複数のストレージ・シェルフがあり,図の上部の BA356 にはさらに多くのストレージが格納されています。
図 10-16 3 ノード Fast Wide SCSI Cluster
図 10-16 に示すこの構成の長所と短所は次のとおりです。
図 10-17 では,SCSI ハブで 4 ノードが接続されています。 SCSI ハブの電源と冷却は,BA356 などのストレージ・キャビネットから供給します。 SCSI ハブは,ストレージ・キャビネットの SCSI バスに接続されていません。
図 10-17 4 ノード Ultra SCSI ハブ構成
図 10-17 に示すこの構成の長所と短所は次のとおりです。
10.7 サテライトを備えた OpenVMS Cluster のスケーラビリティ
OpenVMS Cluster におけるサテライト数と MSCP でサービスを受けるストレージの容量により,サーバー数とキャパシティが決まります。 サテライトは,システム・ディスクや他の OpenVMS Cluster ストレージに直接アクセスしないシステムです。サテライトは,通常はワークステーションですが, OpenVMS Cluster Cluster 内の他のノードのサービスを受ける OpenVMS Cluster ノードでもサテライトとして使用できます。
Ethernet LAN セグメント 1 つにつき,10 から 20 のサテライト・ノードを接続できます。
図 10_18 , 図 10_19 , 図 10-20 ,
図 10-21 は,6 サテライト LAN から 45 サテライト LAN まで段階的に拡張した構成例です。
10.7.1 6 サテライト OpenVMS Cluster
図 10-18 では,6 つのサテライトとブート・サーバーが Ethernet で接続されています。
図 10-18 6 サテライト LAN OpenVMS Cluster
図 10-18 に示すこの構成の長所と短所は次のとおりです。
関連項目: システム・ディスクの管理方法については, 第 11.2 節 を参照してください。
図 10_18 に示すブート・サーバがボトルネックになる場合, 図 10-19 に示すような構成が必要になることもあります。
前へ | 次へ | 目次 | 索引 |