Compaq OpenVMS
OpenVMS Cluster 構成ガイド


前へ 次へ 目次 索引


B.2.3 MEMORY CHANNEL アドレス指定

MEMORY CHANNEL 構成では,全ノードがシステムの物理アドレス領域の 1 セクションを共用します。あるシステムがこのアドレス領域にデータを書き込むと,MEMORY CHANNEL ハードウェアもグローバル書き込みを実行し,これによって他のシステムのメモリにもデータが保存されます。つまり,MEMORY CHANNEL アダプタが占有する PCI アドレス領域にノード CPU がデータを書き込むと,データは MEMORY CHANNEL インターコネクトを通じて他のノードにも送信されます。他のノードの PCI アダプタは,このデータをそれぞれのメモリにマップします。このインフラストラクチャでは,あるシステム上の I/O アドレスに書き込むと,他のシステムの物理アドレスにも書き込むことができます。以下の 2 つの図は,これをさらに詳しく説明したものです。

図 B-8 は,物理メモリにおける MEMORY CHANNEL グローバル・アドレス領域のアドレス指定です。

図 B-8 物理メモリと I/O アドレス領域


図 B-8 は,システムの典型的なアドレス領域の例であり,物理メモリと I/O アドレス領域に分かれています。PCI I/O アドレス領域で,MEMORY CHANNEL は, 128 MB から 512 MB のアドレス領域を消費します。そのため,MEMORY CHANNEL PCI アダプタをこの領域内でアドレス指定でき,この範囲に CPU はデータを書き込むことができます。

MEMORY CHANNEL クラスタの全システムは,このアドレス領域を MEMORY CHANNEL データと通信に割り当ています。このアドレス領域を利用して,CPU は他のノードのメモリにグローバル書き込みを実行します。

グローバル書き込みの例として, 図 B-9 では,ノード A とノード B による 2 ノード内部バス・アーキテクチャを示します。

図 B-9 MEMORY CHANNEL バス・アーキテクチャ


図 B-9 に示す図では,以下の順序でノード A がノード B のメモリにグローバル書き込みを実行します。

  1. ノード A の CPU は,MEMORY CHANNEL アドレス領域に書き込みを実行します。 MEMORY CHANNEL アドレス領域は,PCI アドレス領域の一部です。書き込みは, PCI バスから PCI/MEMORY CHANNEL アダプタに送られ,MEMORY CHANNEL インターコネクトから出力します。

  2. ノード B の PCI アダプタはデータを受信します。受信したデータは PCI バスによって取り上げられ,メモリに DMA マップされます。

同様にクラスタ内の全ノードを MEMORY CHANNEL グローバル・アドレス領域にアドレス指定すると,同じアドレス領域と同じデータを仮想的に"共用"できます。このため,MEMORY CHANNEL アドレス領域は 図 B-9 で中央アドレス領域として表現されます。 .

MEMORY CHANNEL グローバル・アドレス領域は,8 KB (8,192 バイト) のページに分割されています。これらを MC ページといいます。この 8 KB ページは,システム間で同じようにマップできます。

MEMORY CHANNEL グローバル・アドレス領域の"共用"機能は,PCI アダプタに,ページ制御テーブルか PCT でセットアップします。PCT には,MC ページごとに設定できる属性があります。これらの属性については, 表 B-3 を参照してください。

表 B-3 MEMORY CHANNEL ページ属性
属性 説明
ブロードキャスト すべてのシステムにデータが送信されます。ノード ID を指定すると,そのシステムにだけデータが送信されます。
ループバック クラスタ内の他のノードに送信されたデータは,送信ノードの PCI アダプタによってメモリにも書き込まれます。これにより,メッセージの順序が維持されるとともに,すぐれたエラー検出機能を確保できます。
割り込み 現在の MC ページに場所を書き込むと,CPU に割り込みを生成します。これは,他のノードに対する通知に使用できます。
エラー後の送受信機能の停止 現在のページにエラーが発生すると,エラー条件が解消されるまで送受信処理ができなくなることを指定します。
ACK ページに書き込むと,各受信システムのアダプタが ACK (肯定応答) で応答し,それぞれのホストを割り込むことなくリモート・ノードに書き込み (または他の処理) が発生します。これはエラー・チェックとエラー回復に使用します。

B.2.4 MEMORY CHANNEL の実装

MEMORY CHANNEL ソフトウェアは,OpenVMS Cluster ソフトウェアにバンドルされています。ハードウェアをセットアップした場合は,CLUSTER_CONFIG.COM プロシージャのプロンプトに従って, MEMORY CHANNEL ソフトウェアを構成します。ローカル・コンピュータのノード間通信で MEMORY CHANNEL を有効にするかどうかを確認するプロンプトが表示されたら, "Yes" と応答します。MEMORY CHANNEL が有効かどうかを示すシステム・パラメータの MC_SERVICES_P2 が 1 に設定されます。この設定でドライバ PMDRIVER がロードされ,他の MEMORY CHANNEL システム・パラメータのデフォルト値が有効になります。

MEMORY CHANNEL システム・パラメータの意味については,『Compaq OpenVMS Cluster システム』マニュアルを参照してください。

MEMORY CHANNEL ハブ,リンク・ケーブル,PCI アダプタのセットアップの詳細については,『MEMORY CHANNEL User's Guide』(EK-PCIMC-UG.A01) を参照してください。


付録 C
CI-to-PCI アダプタ (CIPCA) サポート

ここでは,CI-to-PCI アダプタ (CIPCA) について解説します。これは, OpenVMS Alpha バージョン 6.2-1H2 で導入されたものであり,OpenVMS バージョン 7.0 を除き,以後のバージョンではすべてサポートされています。CIPCA アダプタは,Alpha サーバと OpenVMS Cluster の一定の構成をサポートしています。

この付録は,以下のように分かれています。

C.1 CIPCA の概要

CMD Technologies との協力で開発した CIPCA アダプタは,PCI バス付きの Alpha サーバや PCI バスおよび EISA バス付きの Alpha サーバを CI と接続するためのアダプタです。CIPCA アダプタには以下の特長と利点があります。

特長 利点
初期費用が少なくてすみ,構成の選択肢が多い 中程度のコンピューティング・パワーが必要なビジネス・ニーズであれば,CIPCA を利用してミッドレンジ Alpha サーバを既存の CI クラスタに組み込むことができます。
ハイエンド Alpha の速度とパワー 最高のコンピューティング・パワーが必要な場合は,PCI サブシステムと EISA I/O サブシステムを備えた AlphaServer 8200 システムと AlphaServer 8400 システムのどちらにも CIPCA を利用できます。
経済的な Alpha 移行パス 既存の CI VAXcluster に Alpha サーバを追加する場合,CIPCA を利用すれば,経費とパフォーマンスの関係を自由に設定して,複合アーキテクチャ・クラスタに移行できます。
CI の利点 CIPCA は,CI に接続します。CI には以下の利点があります。

  • 大規模プロセッサや I/O 集中型のアプリケーションに対応できる高速処理。

  • 大容量ストレージ領域の効率的な直接アクセス。

  • 通信時の最小限の CPU オーバヘッド。CI アダプタは,OpenVMS Cluster システムにおける通信タスクの大半を処理するインテリジェント・インタフェースである。

  • 各 CI アダプタを 2 組の CI ケーブルで接続し,冗長性と独立性を備えたデータ・パスによる高可用性。

  • ディスクとテープまでの複数のアクセス・パス。

図 C-1 は,Alpha と VAX の 2 つのサーバを備えた複合アーキテクチャ CI OpenVMS Cluster の例です。

図 C-1 複合アーキテクチャ OpenVMS Cluster における CIPCA


図 C-1 は,CIXCD (または CIBCA-B) アダプタ付きの VAX サーバを備えた CI OpenVMS Cluster に,CIPCA アダプタで Alpha サーバを接続できることを示しています。これにより,ハイエンド VAX システムだけで構成されていたクラスタに Alpha サーバを無理なく統合できます。

図 C-2 は,CIPCA でシステムを CI と接続したもう 1 つの構成例です。この例では,各 Alpha に 2 つの CIPCA アダプタがあり,これらのアダプタにより複数の CI スター・カプラと HSJ ストレージ・コントローラに接続や, I/O 負荷のバランス調整や OpenVMS シャドウ・セット・メンバの分離が可能になりました。また,Alpha システムは,PC クライアントと OpenVMS サテライトとの追加接続に必要な高速 FDDI インターコネクトにも接続できます。

図 C-2 Alpha OpenVMS Cluster における CIPCA


図 C_1図 C-2 は,CIPCA によって,CI のパフォーマンス,可用性,大規模ストレージ領域アクセスをさまざまなユーザが利用できるようになる様子を示しています。CI は高い最大スループットを備えています。 PCI 方式の CIPCA と XMI 方式の CIXCD のどちらも高度にインテリジェントなマイクロプロセッサ制御のアダプタであり,最小限の CPU オーバヘッドで済みます。

CI バスの高い有効スループットのおかげで,CI インターコネクトがボトルネックになることはまずありません。 図 C-2 に示すような大規模構成では,複数のアダプタと CI 接続により,すぐれた可用性とスループットを実現します。

図 C_1図 C-2 には示していませんが, SCSI インターコネクトで HSJ コントローラのペアの間にディスクを配置し,各 HSJ を CI に接続すれば可用性を強化できます。

C.2 技術仕様

CIPCA は,2 スロットのオプション・アダプタです。CIPCA モデルには,CIPCA-AA と CIPCA-BA の 2 機種があります。

CIPCA-AA が最初の機種です。PCI バックプレーン・スロットが 1 つ,そして EISA バックプレーン・スロットが 1 つ必要です。EISA スロットは,電源だけ (バス・シグナルを除く) を CIPCA に供給します。CIPCA-AA は PCI スロットの数が少ない旧システムに最適です。

CIPCA-BA には,PCI スロットが 2 つ必要であり,EISA スロットの数が少ない新システムが対象です。

CIPCA ドライバの名前は SYS$PCAdriver です。OpenVMS オペレーティング・システム・ソフトウェアに組み込まれています。

表 C-1 は,CIPCA のパフォーマンスを CIXCD アダプタと対比させて示したものです。

表 C-1 CIPCA と CIXCD のパフォーマンス
パフォーマンスの測定基準 CIPCA CIXCD
読み取り要求率 (I/Os) 4900 5500
読み取りデータ率 (MB/s) 10.6 10.5
書き込み要求率 (I/Os) 4900 4500
データ書き込み率 (MB/s) 9.8 5.8
複合要求率 (I/Os) 4800 5400
複合データ率 (MB/s) 10.8 9.2

CIPCA のインストールと操作については,CIPCA アダプタに添付されているハードウェア・マニュアル『CIPCA PCI-CI Adaoter User's Guide』を参照してください。

C.3 構成のサポートと制限事項

CIPCA アダプタは,PCI バス付きの AlphaServer,CI 接続の VAX ホスト・システム,ストレージ・コントローラ,CI スター・カプラ拡張機能によってサポートされています。

C.3.1 AlphaServer サポート

表 C-2 は,PCI バス付きの AlphaServer システムにおける CIPCA サポートを,各システムにサポートされている CIPCA 数の上限とともに示したものです。

表 C-2 CIPCA の AlphaServer サポート
システム 最大 CIPCA 数 備考
AlphaServer 8400 26 CIPCA アダプタと CIXCD アダプタを複合的に使用可能。上限は 26。OpenVMS バージョン 7.1 より前のバージョンでは,上限は 10。
AlphaServer 8200 26 OpenVMS バージョン 7.1 より前のバージョンでは,上限は 10。
AlphaServer 4000,4100 3 3 つの CIPCA を使用するとき,うち 1 つは CIPCA-AA とし,2 つを CIPCA-BA とすること。
AlphaServer 4000 と I/O 拡張モジュール 6 6 つの CIPCA を使用するとき,CIPCA-AA は上限 3。
AlphaServer 1200 2 OpenVMS バージョン 7.1-1H1 で最初にサポート。
AlphaServer 2100A 3  
AlphaServer 2000,2100 2 CIPCA-BA は 1 つのみ。

C.3.2 CI 接続のホスト・システムの互換性

CI 接続のホスト・システムの場合,CIXCD や CIBCA-B を使用する OpenVMS VAX ホストは, CIPCA や CIXCD を使用する OpenVMS Alpha サーバ・ホストと同じく, CIPCA をサポートしています。つまり,CIPCA アダプタを使用する Alpha サーバが,CIXCD アダプタや CIBCA-B CI アダプタを使用する VAX システムと同じ CI バス上に共存できることを表します。

OpenVMS Cluster システムでサポートされているシステムの最大数は 96 であり,この値は CIPCA を 1 つ以上使用しても影響を受けません。ただし,CI ノード数の上限は 16 です ( 付録 C.3.4 項 参照)。

C.3.3 ストレージ・コントローラのサポート

CIPCA アダプタは,HSC50 を除くすべての HSC/HSJ コントローラと同じ CI バス上で使用できます。 表 C-3 にあるように,コントローラによっては,特定のファームウェアとハードウェアが必要なことがあります。

表 C-3 CIPCA をサポートするためのコントローラの要件
コントローラ 要件
HSJ30,HSJ40 HSOF バージョン 2.5 (またはそれ以降) ファームウェア
HSC40,HSC70 リビジョン F (またはそれ以降) L109 モジュール
HSJ80 ACS V8.5J (またはそれ以降) ファームウェア

C.3.4 スター・カプラ拡張機能のサポート

どのスター・カプラにも CI スター・カプラ拡張機能 (CISCE) を接続でき,これによって接続キャパシティを 32 ポートまで増強できます。スター・カプラには CPU を最大 16 まで接続できます。これはポート数とは関係ありません。

C.3.5 構成上の制限事項

構成時には以下の制限事項があります。

EISA スロット・リンク・モジュール・リビジョン A01 付きの CIPCA-AA

EISA スロット・リンク・モジュール・リビジョン A01 付きの CIPCA-AA の場合,アービトレーション・タイムアウト・エラーを避けるため,以下に示す DIP スイッチ設定を使用してください。CI 負荷が高い場合,アービトレーション・タイムアウト・エラーにより,CI パス・エラーと CI 仮想回路閉鎖が発生することがあります。

CIPCA-AA リンク・モジュールにおけるDIP スイッチ設定では,クラスタ・サイズとノード・アドレスを指定します。以下の設定は,リンク・モジュール・リビジョン A01 の DIP スイッチの設定だけに適用します。

以上の制限事項は,EISA スロット・リンク・モジュール・リビジョン B01 以上と, CIPCA-BA の PCI スロット・リンク・モジュールには適用しません。

4K CI パケットを使用するときの HSJ50 ファームウェアの要件

HSJ50 ファームウェアがバージョン 5.0J-3 以降でない限り,HSJ50 コントローラによる 4K CI パケットの使用を有効にしないでください。HSJ50 ファームウェアのバージョンがバージョン 5.0J-3 より前のままで,4K CI パケットを有効にすると,データが壊れることがあります。HSJ50 ファームウェアがこの要件に合わない場合は,弊社のサポート担当者にお問い合わせください。


前へ 次へ 目次 索引