日本-日本語
日本HPホーム 製品 & サービス OpenVMS製品情報
≫  お問い合わせ


OpenVMS マニュアル


 

OpenVMS ドキュメント
ライブラリ

タイトルページ
目次
まえがき
第1章:OpenVMS Cluster システムの管理の概要
第2章:OpenVMS Cluster の概念
第3章:OpenVMS Cluster インターコネクト構成
第4章:OpenVMS Cluster オペレーティング環境
第5章:共用環境の準備
第6章:クラスタ・ストレージ・デバイス
第7章:クラスタ・キューの設定と管理
第8章:OpenVMS Cluster システムの構成
第9章:大規模な OpenVMS Cluster システムの構築
第10章:OpenVMS Cluster システムの保守
付録A :クラスタ・システム・パラメータ
付録B :共通ファイルの作成
付録C :クラスタのトラブルシューティング
付録D :LAN 制御のためのサンプル・プログラム
付録E :LAN 制御のためのサブルーチン
付録F :NISCA プロトコルのトラブルシューティング
付録G :NISCA トランスポート・プロトコル輻輳制御
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster システム


目次 索引



MEMORY CHANNEL は,PCI ベースの Alpha システム用の高性能のクラスタ・インターコネクト・テクノロジです。 MEMORY CHANNEL には,遅延時間が非常に短い,帯域幅が広い,ダイレクト・メモリ・アクセスが可能であるなどの利点があり, OpenVMS Cluster が 1 つの仮想システムとして動作できる機能を補足および強化します。MEMORY CHANNEL はノード間クラスタ通信のためにだけ使用されます。 Fibre Channel,SCSI,CI, DSSI など,ストレージ・トラフィック専用に使用される他のインターコネクトと組み合わせて使用します。

3.4.1 設計

MEMORY CHANNEL 接続をサポートするには,各ノードに次の 3 つのハードウェア・コンポーネントが必要です。

  • PCI-to MEMORY CHANNEL アダプタ

  • リンク・ケーブル (3 m または 10 フィートの長さ)

  • MEMORY CHANNEL ハブ内のポート (ケーブルで 2 つの PCI アダプタを接続する 2 ノード構成の場合は不要)



3.4.2 例

図 3-6 には,Fibre Channel ストレージへの共用アクセスが可能で,フェールオーバのために LAN でインターコネクトされた 2 ノード MEMORY CHANNEL クラスタが示されています。

図 3-6 2 ノード MEMORY CHANNEL OpenVMS Cluster 構成


図 3-7 には, MEMORY CHANNEL ハブと LAN インターコネクトで接続された 3 ノード MEMORY CHANNEL クラスタが示されています。3 台のノードは Fibre Channel ストレージに共用アクセスできます。LAN インターコネクトがあるため, MEMORY CHANNEL インターコネクトで障害が発生しても,フェールオーバが可能です。

図 3-7 3 ノード MEMORY CHANNEL OpenVMS Cluster 構成




混成インターコネクト OpenVMS Cluster とは, SCS 通信に複数のインターコネクトを使用した OpenVMS Cluster システムのことです。それぞれのタイプのインターコネクトの利点を組み合わせて OpenVMS Cluster システムを拡張することができます。たとえば,Ethernet クラスタでより多くのストレージが必要な場合に, Fibre Channel,SCSI,あるいは SAS 接続を追加して拡張することができます。

  注意
クラスタ内のいずれかのノードでクラスタ通信に IP が必要な場合,そのクラスタ内のすべてのメンバで IP クラスタ通信を有効にしておく必要があります。



インターコネクトが混在する OpenVMS Cluster システムでは, CPU,ストレージ,ワークステーションの組み合わせに関して柔軟性が高まり,可用性の高い構成が可能です。

3.5.2 例

図 3-8 に示すのは,インターコネクトとして FC および Ethernet を使用した混成インターコネクト OpenVMS Cluster システムです。

FC ベースのコンピュータは,MSCP サーバ・ソフトウェアとドライバにより HSG あるいは HSV ディスクをサテライト・ノードに提供します。これにより,サテライトノードは, HSG および HSV サブシステムにより提供される大容量のストレージにアクセスできます。

図 3-8 FC と Ethernet をインターコネクトとして使用した OpenVMS Cluster システム




OpenVMS Cluster システムでは,ストレージ・インターコネクトとして SCSI (Small Computer Systems Interface) がサポートされます。 SCSI インターコネクトは SCSI バスとも呼ばれ,1 台以上のコンピュータ,周辺デバイス,インターコネクト・コンポーネントをサポートする業界標準のインターコネクトです。

OpenVMS Alpha バージョン 6.2 以降,複数の Alpha コンピュータが KZPBA SCSI ホストベース・アダプタを使用して同時に SCSI インターコネクトを介して SCSI ディスクにアクセスできるようになりました。 OpenVMS Cluster のホスト間通信のために,ローカル・エリア・ネットワークなどの別のインターコネクトが必要です。なお,Alpha システムでは KZPBA でのサポートに限定されます。 Alpha 用のより新しい SCSI ホストベース・アダプタは,直接接続の SCSI ストレージのみをサポートします。

OpenVMS Version 8.2-1 以降,MSA30-MI ストレージ・シェルフを使用した 2 ノードの OpenVMS Integrity サーバ・システム構成で共有 SCSI ストレージがサポートされています。

OpenVMS Cluster システムでの共有 SCSI ストレージにより, 1 つの SCSI バスに接続されたシステムから SCSI ストレージ・デバイスに対する直接アクセスが可能になります。これにより,SCSI ストレージへの共有アクセスを使用する可用性の高いサーバ環境を構築することができます。

3.6.1 OpenVMS Alpha 構成の設計

OpenVMS Alpha バージョン 6.2-1H3 以降,OpenVMS Alpha ではストレージ・インターコネクトとして,共用 SCSI バス上で最大 3 台のノードがサポートされるようになりました。クォーラム・ディスクを SCSI バスで使用すると,2 ノード構成の可用性を向上できます。ホスト・ベースの RAID (ホスト・ベースのシャドウイングを含む) と MSCP サーバが共用 SCSI ストレージ・デバイスに対してサポートされます。

SCSI ハブ DWZZH-05 が提供されるようになったため, SCSI マルチホスト OpenVMS Cluster システムで 4 台のノードをサポートできるようになりました。4 台のノードをサポートするには,ハブの公平なアービトレーション機能を有効にしなければなりません。

これらの構成の詳細については,『OpenVMS Cluster 構成ガイド』を参照してください。

3.6.2 OpenVMS Integrity 構成の設計

OpenVMS Integrity クラスタ・システムでの共有 SCSI ストレージでは以下の制限事項があります。

  • 1 つの SCSI バスに接続されるのは最大 2 つの OpenVMS Integrity システム

  • 各システムに接続されるのは最大 4 つの共有 SCSI バス

  • rx1600 および rx2600 シリーズがサポートされる

  • サポートされる HBA は A7173A HBA のみ

  • サポートされる SCSI ストレージ・タイプは MSA30-MI ストレージ・エンクロージャのみ

  • サポートされるディスクは Ultra320 SCSI ディスク・シリーズのみ

この構成では, 図 3-10 の SCSI ID 6 および 7 が必要になります。いずれか 1 つのシステムは,共有 SCSI バスに接続されている各 A7173A アダプタ・ポートに対して工場出荷時のデフォルトの 7 の変りに 6 の SCSI ID を持っていなけれななりません。 SCSI ID の変更には,「IPF Offline Diagnostics and Utilities」CD に含まれている U320_SCSI pscsi.efi ユーティリティが使用できます。手順については,下記の URL にある『HP A7173A PCI-X Dual Channel Ultra320 SCSI Host Bus Adapter Installation Guide』を参照してください。

http://docs.hp.com/en/netcom.html 



3.6.3 例

図 3-9 では,SCSI デバイスに共用アクセスするために SCSI インターコネクトを使用している OpenVMS Cluster 構成を示しています。ホスト間通信のために,別のインターコネクト (この例では LAN) が使用されることに注意してください。

図 3-9 共用 SCSI インターコネクトを使用する 3 ノード OpenVMS Cluster 構成


図 3-10 は 2 ノードの OpenVMS Integrity サーバ構成を示しています。ホスト間の OpenVMS Cluster 通信には 2 つ目のインターコネクトとして LAN が必要なことに注意してください。 OpenVMS Cluster 通信は SCA (System Communications Architecture) 通信とも呼ばれます。

図 3-10 2 ノード OpenVMS Integrity Cluster システム




OpenVMS Cluster システムはストレージ・インターコネクトとして SAS をサポートします。 SAS は,シリアル通信 (一度に 1 ビット) を使用して SCSI ストレージ・デバイスとの間でデータを伝送するための 2 地点間アーキテクチャです。 SAS は,SAS デバイスと差分信号方式を使用して信頼性が高く高速なシリアル通信を実現します。

SAS はファイバーチャネルのハイエンド機能 (マルチイニシエータのサポートや全二重通信など) と SATA の物理インタフェース (優れた互換性と投資保護) を組み合わせて,性能と信頼性と従来の SCSI 技術の使い勝手をすべて合わせ持っています。

3.8 マルチホスト Fibre Channel OpenVMS Cluster システム

OpenVMS Cluster システムでは,ストレージ・インターコネクトとして FC インターコネクトがサポートされます。Fibre Channel は ANSI 標準のネットワーク/ストレージ・インターコネクトであり,高速伝送機能や,長距離のインターコネクトなど,他のインターコネクトより優れた数多くの機能を備えています。ノード間通信のために第 2 のインターコネクトが必要です。

3.8.1 設計

OpenVMS Alpha では,最新の『HP StorageWorks Heterogeneous Open SAN Design Reference Guide』および Data Replication Manager (DRM) のユーザ・マニュアルに説明があるように, Fibre Channel SAN 構成がサポートされるようになりました。この構成では,最大 500 メートルのマルチモード・ファイバと,最大 100 キロメートルのシングルモード・ファイバのマルチスイッチ Fibre Channel ファブリックをサポートします。さらに,DRM 構成では,Open Systems Gateway および波長分割多重化装置を使って,長距離のサイト間リンク (ISL) が可能となります。 OpenVMS は,非 OpenVMS システムに対し,ファブリックと HSG ストレージの共用をサポートします。

OpenVMS は,StorageWorks のマニュアルに記述されている数のホスト,スイッチ,およびストレージ・コントローラをサポートしています。一般に,ホストおよびストレージ・コントローラの上限は,使用できるファブリック接続の数によります。

ホスト・ベースの RAID (ホスト・ベースのシャドウイングを含む) と MSCP サーバが共用 Fibre Channel ストレージ・デバイスに対してサポートされます。これらの構成では,マルチパス・サポートが提供されます。

これらの構成の詳細については,『OpenVMS Cluster 構成ガイド』を参照してください。


目次 索引

© 2012 Hewlett-Packard Development Company, L.P.