日本-日本語
日本HPホーム 製品 & サービス OpenVMS製品情報
≫  お問い合わせ


OpenVMS マニュアル


 

OpenVMSドキュメント
ライブラリ

タイトルページ
目次
まえがき
第1章:システム構成の概要
第2章:ビジネス要件とアプリケーション要件の決定
第3章:システムの選択
第4章:インターコネクトの選択
第5章:ストレージ・サブシステムの選択
第6章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第7章:ストレージ・インターコネクトとしての Fibre Channel の構成
第8章:可用性を目的とした OpenVMS Cluster の構成
第9章:スケーラビリティを目的とした OpenVMS Cluster の構成
第10章:システム管理の手法
付録A :インターコネクトとしての SCSI
付録B :MEMORY CHANNEL 技術概要
付録C :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引

第 4 章
OpenVMS Cluster インターコネクトの選択

インターコネクトは,コンピュータ同士,およびコンピュータとストレージ・サブシステムを接続する物理パスです。 OpenVMS Cluster システムは,最も適切で効率的な方法を使用して,メンバが相互におよびストレージと通信できるように,多様なインターコネクト (バスとも呼ぶ) をサポートしています。

OpenVMS Cluster システムでインターコネクト経由の通信を行うためのソフトウェアを SCS (System Communications Services) と呼びます。ノード間 SCS 通信をサポートするインターコネクトを クラスタ・インターコネクト と呼びます。1 つのクラスタ内でのノードとストレージ間の接続を可能にするインターコネクトを 共用ストレージ・インターコネクト と呼びます。

OpenVMS は,以下のタイプのインターコネクトをサポートします。

  • クラスタ・インターコネクト (ノード間専用)

    • Ethernet

    • Fast Ethernet

    • Gigabit Ethernet

    • 10 Gigabit Ethernet (Integrity のみ)

  • 共用ストレージ・インターコネクト (ノード・ストレージ間専用)

    • Fibre Channel (Alpha のみ)

    • SCSI (Small Computer Systems Interface) (Integrity あるいは Alpha。 Integrity は特定の構成に限定)

    • SAS (Serial Attached SCSI) (Integrity のみ)

  • ノード間インターコネクトおよびノード・ストレージ間インターコネクト

    • Ethernet, Fast Ethernet, Gigabit Ethernet

    • 10 Gigabit Ethernet (Integrity のみ)

  注意
Cluster over IP は Ethernet,Fast Ethernet,Gigabit Ethernet および 10 Gigabit Ethernet でサポートされます。

  注意
CI,DSSI および FDDI インターコネクトは Alpha および VAX システムでサポートされます。 Memory Channel および ATM インターコネクトは Alpha システムでのみサポートされます。これらのインターコネクトについての説明は,本書の以前のバージョンを参照してください。



この章で説明するインターコネクトにはいくつか共通の特徴があります。 表 4-1 に,これらの特徴をまとめました。

表 4-1 インターコネクトの特徴
特徴 説明
スループット インターコネクトを経由して転送されるデータ量。

インターコネクトによっては,より多くのプロセッサ・オーバヘッドが必要になります。たとえば,Ethernet インターコネクトと FDDI インターコネクトには, CI や DSSI よりも多くのプロセッサ・オーバヘッドが必要です。

パケット・サイズが大きければ,小さい場合よりも高いデータ転送速度 (スループット) が可能になります。

ケーブル範囲 3 m から 40 km の範囲で相互接続します。
最大ノード数 1 つのインターコネクトに接続できるノード数は,インターコネクトのタイプによって異なります。OpenVMS Cluster システムの設定時には,このことを忘れないでください。
サポートされるシステムとストレージ 各 OpenVMS Cluster ノードとストレージのサブシステムごとに,内部システム・バスとインターコネクトを結ぶアダプタが必要です。インターコネクト・タイプの選択時には,まずストレージとプロセッサの I/O パフォーマンスを考え,次にアダプタ・パフォーマンスを考えてください。



4.2 インターコネクト・タイプの比較

表 4-2 は,各種インターコネクトの主な仕様です。

表 4-2 インターコネクト・タイプの比較
インターコネクト 最大スループット (Mb/s) ハードウェア支援データ・リンク1 ストレージへの接続 トポロジ クラスタあたりの最大ノード数 最大長
汎用
Ethernet
Fast
Gigabit
10 Gigabit
10/100/1000 No MSCP 対応 ハブやスイッチに対しリニアまたはラジアル 96 2 100 m 4/
100 m 4/
550 m 3
共用ストレージ専用
Fibre Channel 1000 No 直結 5 スイッチに対しラジアル 96 2 10 km 6
/100 km 7
SCSI 160 No 直結 5 バスまたはハブに対しラジアル 8-12 8 25 m
SAS 6000 No 直結 ポイント・ツー・ポイント, スイッチに対してラジアル 96 2 6 m

1ハードウェア支援データ・リンクを利用すればプロセッサ・オーバヘッドを節約できます。
2OpenVMS Cluster コンピュータ。
3マルチモード・ファイバ (MMF) を基準とします。ATM,DS3 などの共通キャリアを使用して,このインターコネクトと WAN インタースイッチ・リンク (ISL) 間をブリッジすることによって,より長距離に対応できます。
4シールドなしツイスト・ペア・ケーブル (UTP) を基準とします。 ATM,DS3 などの共通キャリアを使用して,このインターコネクトと WAN インタースイッチ・リンク (ISL) 間をブリッジすることによって,より長距離に対応できます。
5直接接続されている SCSI および Fibre Channel ストレージは,汎用のクラスタ・インターコネクトのいずれかを介して MSCP に対応させることができます。
6シングル・モード・ファイバ,ポイント・ツー・ポイント・リンクを基準とします。
7シングル・モード・ファイバを使用した,インタースイッチ・リンク (ISL) を基準とする長距離 (最大 100 km) のサポートです。さらに,DRM 構成では,Open Systems Gateway および Wave Division Multiplexor を使用した長距離 ISL を提供します。
8最大 3 台の OpenVMS Cluster コンピュータ。DWZZH-05 および適切なアービトレーションにより最大 4 台,最大 15 台のストレージ・デバイス。



複数のインターコネクトを使用すると,以下の利点があります。

  • フェールオーバ
    インターコネクトやアダプタの 1 つにでも障害が発生すると,別のインターコネクトにノード通信が自動的に移行します。

  • MSCP サーバ負荷分散
    複数の MSCP サーバ構成では,OpenVMS Cluster は負荷分散により最適なパスを自動的に選択します。そのため,1 か所のアダプタで I/O ボトルネックが発生することが少なくなります。構成によっては,1 つのノード間に複数のパスがあると,パスが 1 つだけの場合よりも多くの情報を転送できます。
    関連項目: 動的 MSCP 負荷分散の例については, 第 9.4.3 項 を参照してください。



4.4 混成インターコネクト

1 つの OpenVMS Cluster システムで,2 種類以上のタイプのインターコネクトを使用することができます。異なるタイプのインターコネクトでは,それぞれのタイプの利点を組み合わせて OpenVMS Cluster システムを拡張します。

  注意
クラスタ内のいずれかのノードでクラスタ通信に IP を必要とする場合は,すべてのメンバ・システムで IP クラスタ通信を有効にする必要があります。



サポートするインターコネクトの最新情報は, OpenVMS Cluster の最新のソフトウェア仕様書を参照してください。

関連項目: 各 Integrity サーバおよび AlphaServer システムでサポートするインターコネクトとアダプタについての詳細は,下記の OpenVMS の Web サイトを参照してください。

http://www.hp.com/go/openvms 

左ナビゲーション・パネルの関連リンクから「HP Integrity servers」を選択してください。その後,確認したい Integrity システムを選択し QuickSpecs を選択します。 QuickSpecs には,そのシステムでサポートされるアダプタなど,すべてのオプションが簡単に紹介されています。

Alpha の場合は,左ナビゲーション・パネルから「AlphaSystems」を選択してください。その後,知りたい AlphaServer システムを選択し QuickSpecs を選択します。各 AlphaServer の QuickSpecs には,そのシステムでサポートされるアダプタなど,すべてのオプションが簡単に紹介されています。

4.6 Fibre Channel インターコネクト

Fibre Channel は,PCI ベースの Alpha システム用の高性能 ANSI 標準ネットワーク・ストレージ・インターコネクトです。全二重シリアル・インターコネクトとして,毎秒 100 MB で送受信できます。 Fibre Channel は,Fibre Channel スイッチへの複数ノード接続により SCSI ストレージの同時アクセスをサポートします。ノード間通信には, 2 番めのタイプのインターコネクトが必要です。

4.6.1 利点

Fibre Channel インターコネクトには,以下の利点があります。

  • 2 Gb/s,4 Gb/s,8 Gb/s の高速伝送速度 (速度は使用するアダプタに依存)。

  • 部門構成から企業構成までサポートするスケーラブルな構成。

  • 長距離インターコネクト
    Fibre Channel では,1 リンク当たり 500 m のマルチモード・ファイバをサポートしています。 Fibre Channel では,長距離インタースイッチ・リンク (ISL) をサポートしています (シングル・モード・ファイバを使用した場合は 1 リンク当たり最大 100 km,FC/ATM リンクの場合は 1 リンク当たり最大 600 km)。
    さらに,SANworks の Data Replication Manager (DRM) 構成では, Open Systems Gateway および Wave Division Multiplexor を使用した長距離 ISL を提供します。

  • 高可用性
    マルチパス・サポートにより,単一点障害(single point of failure)の発生しない構成が可能です。



4.6.2 スループット

Fibre Channel インターコネクトは,最大 2 Gb/s,4 Gb/s,あるいは 8 Gb/s で伝送できます (速度は使用するアダプタに依存)。 100 MB/s で同時送受信が可能な全二重シリアル・インターコネクトです。

4.7 MEMORY CHANNEL インターコネクト (Alpha のみ)

MEMORY CHANNEL は,PCI ベースの Alpha システム用の高性能クラスタ・インターコネクト・テクノロジです。少ない待ち時間,高い帯域幅,直接メモリ・アクセスにより,MEMORY CHANNEL は OpenVMS Cluster 固有の能力を 1 つの仮想システムへと拡張します。

MEMORY CHANNEL 接続のサポートには,3 つのハードウェア・コンポーネントが必要です。

  • PCI MEMORY CHANNEL 間アダプタ

  • リンク・ケーブル (延長 3 m または 10 フィート)

  • MEMORY CHANNEL ハブのポート (ケーブルで 2 つの PCI アダプタを接続する 2 ノード構成を除く)

MEMORY CHANNEL ハブは,システム間の接続を提供する PC サイズのユニットです。 MEMORY CHANNEL ハブは最大 8 つの Alpha ノードをサポートできます。システムは,2 つの MEMORY CHANNEL アダプタで構成してアダプタ障害時のフェールオーバにすることができます。各アダプタは別々のハブに接続する必要があります。

ノードが 2 つだけのクラスタに MEMORY CHANNEL ハブは必要ありません。 2 ノード構成では,モジュール・ジャンパを使用して 1 つの PCI アダプタを仮想ハブに構成します。

4.7.1 利点

MEMORY CHANNEL テクノロジには以下の特徴があります。

  • 価格/パフォーマンス比がすぐれている。
    MEMORY CHANNEL は,CI 帯域幅の数倍である,最小限の待ち時間による 100 MB/s インターコネクトを提供します。MEMORY CHANNEL アーキテクチャは,業界標準 PCI バスとして設計されています。

  • 既存のアプリケーションを変更する必要がない。
    MEMORY CHANNEL は既存のクラスタ・ソフトウェアとシームレスに運用でき,既存のアプリケーションを変更する必要がありません。新しい MEMORY CHANNEL ドライバ,PMDRIVER,MCDRIVER は,既存のポート・ドライバと同様に OpenVMS Cluster のレイヤと統合します。クラスタ・ソフトウェアの上位レイヤには影響がありません。

  • SCSI クラスタの CI,DSSI,LAN の負荷を解消。
    MEMORY CHANNEL にストレージを直接接続することはできませんが,各インターコネクトのパワーを最大限に活用することができます。
    MEMORY CHANNEL は,CI や DSSI に代わるものではありませんが,これらのインターコネクトと併用することで,ノード間のトラフィックの負荷が解消されます。すなわち MEMORY CHANNEL をストレージ・トラフィック専用としてクラスタ全体の通信を最適化します。
    SCSI インターコネクトと LAN インターコネクトと併用すれば,MEMORY CHANNEL によって LAN からノード間のトラフィックの負荷が取り除かれ,さらに多くの TCP/IP トラフィックや DECnet トラフィックの処理ができるようになります。

  • フェール隔離処理を提供する。
    システム障害が発生すると,MEMORY CHANNEL ノードは OpenVMS Cluster のノードと同様に対応します。すなわち,障害が発生したノードがクラスタに復帰するまで,障害が発生しなかった他のノードが引き続き処理を続行するわけです。



4.7.2 スループット

MEMORY CHANNEL インターコネクトの最大スループットは 100 MB/s という高い値を備えています。1 つの MEMORY CHANNEL で不十分な場合は,最大 2 つのインターコネクト (および 2 つの MEMORY CHANNEL ハブ) にスループットを振り分けることができます。

4.7.3 サポートされているアダプタ

MEMORY CHANNEL アダプタは PCI バスに接続します。MEMORY CHANNEL アダプタの CCMAA--BA は,以前のアダプタに比べ,パフォーマンスが改善されました。

関連項目: 各 AlphaServer システムでサポートされる CCMAA-BA アダプタの詳細については,次の OpenVMS の Web サイトにアクセスしてください。

http://www.hp.com/go/openvms 

左ナビゲーション・パネルから「AlphaSystems」を選択してください。その後,知りたい AlphaServer システムを選択し QuickSpecs を選択します。各 AlphaServer の QuickSpecs には,そのシステムでサポートされるアダプタなど,すべてのオプションが簡単に紹介されています。

4.8 SCSI インターコネクト

SCSI インターコネクトは,業界標準のインターコネクトであり,1 つ以上のコンピュータ,周辺機器,インターコネクト・コンポーネントをサポートしています。SCSI は,シングル・パス,デイジー・チェーンのマルチドロップ・バスです。また,SCSI は,シングル 8 ビットまたは 16 ビットのデータ・パスであり,エラー検出用のバイト・パリティを備えています。長距離通信用には,安価なシングル・エンド・シグナル通知と作動シグナル通知の両方を利用できます。

OpenVMS Cluster では,1 つの SCSI インターコネクト上の複数のコンピュータが同時に SCSI ディスクにアクセスできます。この種の構成をマルチホスト SCSI 接続あるいは共有 SCSI ストレージと呼び,特定のアダプタと限られた構成に制限されます。ノード間通信には,別のタイプのインターコネクトが必要です。

OpenVMS Cluster システムで共有 SCSI ストレージを使用すると,単一の SCSI バスに接続された複数のコンピュータが, SCSI ストレージ・デバイスへのアクセスを共用することが可能になります。この機能により SCSI ストレージへの共有アクセスを使用して,より可用性の高いサーバ環境を構築することが可能になります。

4.8.1 OpenVMS Alpha の構成

SCSI ストレージに対するマルチホスト・アクセスでは,以下のコンポーネントが必要です。

  • マルチホスト構成でサポートされている SCSI ホスト・アダプタ ( 表 4-5 を参照してください。)

  • SCSI インターコネクト

  • SCSI インターコネクトの端点ごとに 1 つのターミネータ

  • マルチホスト構成でサポートされているストレージ・デバイス (RZnn; OpenVMS Cluster SPD [29.78.nn] を参照してください。)

さらに大きな構成規模では,以下のコンポーネントを利用できます。

  • ストレージ・コントローラ (HSZnn)

  • シングル・エンドをディファレンシャル・シグナル通知に変換し SCSI インターコネクト長を倍増するためのバス・アイソレータ (DWZZA,DWZZB,または DWZZC)。

  注意
このサポートは一部のアダプタに限定されます。 OpenVMS では,Ultra SCSI アダプタ KZPEA,KZPDC,A6828A,A6829A,および A7173A などの最新の SCSI アダプタに対してはサポートしません

関連項目: SCSI 構成の接続方法の詳細については, 付録 A を参照してください。


目次 索引

© 2012 Hewlett-Packard Development Company, L.P.