5    Memory Channel クラスタ・インターコネクトのセットアップ

この章では,Memory Channel 構成の制約事項,および Memory Channel ハブ,Memory Channel 光変換器 (MC2 のみ) のセットアップやリンク・ケーブルの接続など,Memory Channel クラスタ・インターコネクトのセットアップ方法について説明します。

使用できる Memory Channel PCI (peripheral component interconnect) アダプタには,CCMAA と CCMAB (MC2) の 2 つのバージョンがあります。

使用できる CCMAA PCI アダプタには,CCMAA-AA (MC1) と CCMAA-AB (MC1.5) の 2 種類があります。これら 2 種類の PCI アダプタに使用されるハードウェアは同じなので,本書では,いずれかの種類に言及している多くの箇所で MC1 だけを使って表記しています。

サポートされる Memory Channel のハードウェアの一覧については,TruCluster Server の『QuickSpecs』を参照してください。ジャンパ,Memory Channel アダプタ,およびハブのインストールに関する図解と詳細な情報については,Memory Channel の『ユーザーズ・ガイド』を参照してください。

Memory Channel の制約事項については,2.2.2 項を参照してください。

TruCluster Server では 2 つの Memory Channel アダプタを使用できますが,アクティブなレールは 1 つだけです。これらのアダプタ群をフェイルオーバ・ペアといいます。アクティブ・レールに障害が発生すると,クラスタ通信は以前非アクティブだったレールにフェイルオーバされます。

Memory Channel 上でデータを高性能で配信するために Memory Channel API で多重 Memory Channel アダプタを使用する場合,rm_rail_style 構成変数を 0 (rm_rail_style = 0) に設定すると,マルチ・アクティブ・レールがシングルレール方式になります。省略時の設定は 1 で,フェイルオーバ・ペアが選択されます。

Memory Channel フェイルオーバ・ペア・モデルの詳細は,『クラスタ高可用性アプリケーション・ガイド』 を参照してください。

Memory Channel インターコネクトをセットアップするには,次の手順に従います。必要に応じて該当する本文箇所と Memory Channel の『ユーザーズ・ガイド』を参照してください。

  1. Memory Channel のジャンパを設定します (5.1 節)。

  2. 各システムの PCI スロットに Memory Channel アダプタをインストールします (5.2 節)。

  3. MC2 に光ファイバを使用する場合は,CCMFB 光ファイバ・モジュールをインストールします (5.3 節)。

  4. クラスタにシステムが 3 台以上ある場合は,Memory Channel ハブをインストールします (5.4 節)。

  5. Memory Channel ケーブルを接続します (5.5 節)。

  6. クラスタ内のすべてのシステムについて手順 1〜5 を完了した後,システムの電源を投入し,Memory Channel 診断を実行します (5.6 節)。

    注意

    SCSI アダプタ,Fibre Channel アダプタまたはネットワーク・アダプタをインストールする場合は,システムの電源を投入して Memory Channel 診断を実行する前に,すべてのハードウェア・インストールを完了することをお勧めします。

5.7.2 項では,冗長 MC1 インターコネクトから MC2 インターコネクトにアップグレードする方法について説明します。

5.1    Memory Channel アダプタのジャンパ設定

Memory Channel アダプタ・モジュールのジャンパの意味は,Memory Channel モジュールのバージョンによって異なります。

5.1.1    MC1 および MC1.5 のハブ・モード・ジャンパ

MC1 および MC1.5 モジュール (CCMAA-AA および CCMAA-AB) には,構成で標準ハブ・モードまたは仮想ハブ・モードのいずれを使用するかを指定するアダプタ・ジャンパ (J4) があります。仮想ハブ・モードを使用すると,存在可能なシステムは 2 つだけ,つまり仮想ハブ 0 (VH0) と仮想ハブ 1 (VH1) になります。

Memory Channel アダプタの出荷時には,(ピン 1-2 にジャンパが設定された) J4 ジャンパの標準ハブ・モードになっています。実際に使用する構成に合ったジャンパ設定になっていることを確認してください。以下のジャンパ構成の説明では,モジュールのエンド・プレートを左手に持ち,J4 ジャンパと向き合うようにモジュールを保持した場合を想定しています。ジャンパは,ファクトリ/保守ケーブル・コネクタの隣にあります。表 5-1 に各ジャンパ構成を示します。

表 5-1:  MC1 および MC1.5 の J4 ジャンパ構成

ハブ・モード ジャンパ
標準 J4 ピン 1-2

仮想: VH0 J4 ピン 2-3

仮想: VH1 不要。 ジャンパを J4 のピン 1 または 3 に差しておく。

仮想ハブ・モードから標準ハブ・モードへ,または標準ハブ・モードから仮想ハブ・モードへアップグレードする場合は,必ず,レール上のすべての Memory Channel アダプタの J4 ジャンパを変更してください。

5.1.2    MC2 のジャンパ

MC2 モジュール (CCMAB) には複数のジャンパがあります。それらには右から左へ番号が付けられ,モジュールのエンド・プレートを左手に持ち,ジャンパと向き合うようにモジュールを保持した場合に右上隅に来るジャンパが J1 になります。左端のジャンパ群は J11 と J10 で,上が J11,下が J10 です。

ほとんどのジャンパ設定は単純ですが,window size ジャンパの J3 には説明が必要です。

CCMAA アダプタ (MC1 または MC1.5) をインストールした場合,Memory Channel 用に 128 MB のアドレス空間が割り当てられます。CCMAB アダプタ (MC2) PCI アダプタをインストールした場合は,J3 ジャンパの設定によって,Memory Channel 用のメモリ空間として 128 MB または 512 MB を割り当てることができます。

2 つの Memory Channel アダプタを冗長目的のフェイルオーバ・ペアとして使用する場合,論理レールに割り当てられるアドレス空間は,2 つの物理アダプタのうちの小さい方のウィンドウ・サイズによって決まります。

MC1 フェイルオーバ・ペアから MC2 フェイルオーバ・ペアにローリング・アップグレードする場合 (5.7.2 項) は,MC2 モジュールのジャンパを 128 MB または 512 MB に設定できます。512 MB にジャンパ設定した場合,増大したアドレス空間は,すべての MC PCI アダプタのアップグレードが完了して,512 MB が使用可能になるまで利用できません。1 つのメンバ・システムで,sysconfig コマンドを使用して Memory Channel カーネル・サブシステムを再構成し,512 MB のアドレス空間の使用を開始します。次のコマンドを入力すると,構成の変更が他のクラスタ・メンバ・システムに伝えられます。

# /sbin/sysconfig -r rm rm_use_512=1

フェイルオーバ・ペアの詳細については,『クラスタ管理ガイド』を参照してください。

表 5-2 に,MC2 のジャンパ構成を示します。

表 5-2:  MC2 のジャンパ構成

ジャンパ 説明
J1: ハブ・モード 標準: ピン 1-2

  VH0: ピン 2-3

  VH1: 不要。 ジャンパはピン 1 またはピン 3 に差しておく。

J3: ウィンドウ・サイズ 512MB: ピン 2-3

  128MB: ピン 1-2

J4: ページ・サイズ 8KB ページ・サイズ (UNIX): ピン 1-2

  4KB ページ・サイズ (不使用): ピン 2-3

J5: AlphaServer 8x00 モード 8x00 モード選択時: ピン 1-2 [脚注 27]

  8x00 モード非選択時: ピン 2-3

J10 および J11: 光ファイバ・モード有効 ファイバ・オフ: ピン 1-2

  ファイバ・オン: ピン 2-3

MC2 ラインカード (CCMLB) には,光ファイバ・モードを有効にするための 2 つのジャンパ,J2 および J3 があります。これらのジャンパは,モジュールのエンド・プレートを左手に持ち,ジャンパと向き合うようにモジュールを保持した場合,モジュールの中央付近に来ます。ジャンパ J2 の方が右です。表 5-3 に,MC2 ラインカードのジャンパ構成を示します。

表 5-3:  MC2 ラインカードのジャンパ構成

ジャンパ 説明
J2 および J3: ファイバ・モード ファイバ・オフ: ピン 2-3

  ファイバ・オン: ピン 1-2

5.2    Memory Channel アダプタのインストール

Memory Channel アダプタを適切な PCI (Peripheral Component Interconnect) スロットにインストールします (制約に関しては2.2.2 項を参照)。このモジュールはバックプレーンに固定します。適切な接地を維持できるようネジを固く締めてください。

Memory Channel アダプタにはまっすぐな拡張プレートが付いています。これはほとんどのシステムに適合しますが,AlphaServer 2100A などでは,拡張部分を曲がった拡張プレートと交換しなければならない場合もあります。さらに,AlphaServer 8200/8400,GS60,GS60E,および GS140 では,拡張部分を完全に取り外すことが必要です。

冗長 Memory Channel 構成をセットアップする場合,最初の Memory Channel アダプタのインストールの直後に,2 つ目の Memory Channel アダプタをインストールします。ジャンパ設定が適切で,両方のモジュールで同じになっていることを確認してください。

Memory Channel アダプタのインストール後,さらにインストールするハードウェアがなければ,システム・パネルを交換します。

5.3    メンバ・システムへの MC2 光変換器のインストール

MC2 PCI アダプタとともに CCMFB 光変換器を使用する場合は,MC2 CCMAB のインストールと同時に光交換器をインストールします。メンバ・システムに MC2 CCMFB 光変換器をインストールするには,次の手順に従います。MC2 ハブに光変換器をインストールする場合は5.5.2.4 項を参照してください。

  1. 目的の PCI スロットの防護用封鎖プレートを取り外します。

  2. 光ファイバ・ケーブル (BN34R) の一方の端を PCI 防護用スロットに通します。

  3. そのケーブルを光変換器モジュール (CCMFB) のエンド・プレートの最上部にあるスロットに通します。

  4. ケーブル・チップ・プロテクタを取り外し,光変換器モジュールのコネクタにキー式プラグを取り付けます。ケーブルをモジュールに巻き付けて結びます。

  5. 光変換器モジュールを PCI バックプレーンにしっかり取り付け,PCI カード・ケージ・マウント用ネジで固定します。

  6. 1 m (3.3 フィート) の BN39B-01 ケーブルで CCMAB MC2 PCI アダプタと CCMFB 光変換器を接続します。

  7. 光ファイバ・ケーブルをリモート・システムまたはハブに接続します。

  8. 2 つ目以降のシステム上の光変換器について手順 1〜7 を繰り返します。MC2 ハブに光変換器をインストールする場合は,5.5.2.4 項を参照してください。

5.4    Memory Channel ハブのインストール

2 ノード TruCluster Server クラスタでもハブを使うことができますが,ハブは必須ではありません。クラスタに 3 つ以上のシステムが存在する場合は,次のように Memory Channel ハブを使用する必要があります。

5.5    Memory Channel ケーブルのインストール

Memory Channel ケーブルのインストールは,Memory Channel モジュールのリビジョン,および光ファイバを使用するかどうかで異なります。以降の各項で,Memory Channel ケーブルを MC1 および MC2 にインストールする方法を説明します。

警告

リンク・ケーブルのインストールは慎重に行ってください。ケーブルはまっすぐに挿入してください。

ケーブルのコネクタはリセプタクルに静かに押し込み,次にネジを使ってコネクタを固定します。グラウンドが確実に接続されるように,コネクタはしっかり固定する必要があります。

5.5.1    MC1 または MC1.5 のケーブルのインストール

MC1 または MC1.5 のインターコネクトをセットアップするには,BC12N-10 3 m (9.8 フィート) リンク・ケーブルを使って Memory Channel アダプタ間を接続し,必要な場合はさらに,Memory Channel ハブ間を接続します。

注意

MC1 または MC1.5 リンク・ケーブルを MC2 モジュールに接続しないでください。

5.5.1.1    仮想ハブ・モードでの MC1 または MC1.5 リンク・ケーブルの接続

MC1 の仮想ハブ構成 (2 ノード・クラスタ) では,BC12N-10 リンク・ケーブルを使用して,各システムにインストールされた Memory Channel アダプタ間を接続します。

冗長インターコネクトをセットアップする場合は,1 つのシステムのすべての Memory Channel アダプタのジャンパ設定 (VH0 または VH1) を同じにする必要があります。

注意

TruCluster Server バージョン 5.1A 製品からは仮想ハブ・モードでは,一方のシステムの mca0 をもう一方のシステムの mca0 に接続しなければならないという制約はなくなりました。

5.5.1.2    標準ハブ・モードでの MC1 リンク・ケーブルの接続

クラスタに 3 台以上のシステムが存在する場合は,標準ハブ構成を使用します。BC12N-10 リンク・ケーブルを使用して,Memory Channel アダプタと,CCMHA ハブのラインカード間を接続します。番号の最も小さいハブ・スロットから,順に番号の大きいハブ・スロットへと作業を進めてください。

冗長インターコネクトをセットアップする場合は,以下の制約事項が適用されます。

図 5-1 に,Memory Channel ハブの同じスロット位置にあるラインカードに接続された Memory Channel アダプタを示します。

図 5-1:  Memory Channel アダプタのハブへの接続

5.5.2    MC2 のケーブルのインストール

MC2 のインターコネクトをセットアップする場合,光変換器のない仮想ハブまたは標準ハブ構成では BN39B-04 (4 m; 13.1 フィート) または BN39B-10 (10 m; 32.8 フィート) リンク・ケーブルを使います。

光変換器を使用する構成では,BN39B-01 (1 m; 3.3 フィート) リンク・ケーブル,および BN34R-10 (10 m; 32.8 フィート) または BN34R-31 (31 m; 101.7 フィート) 光ファイバ・ケーブルを使います。

5.5.2.1    光変換器なしの仮想ハブ・モードでの MC2 ケーブルのインストール

仮想ハブ・モードの MC2 構成をセットアップするには,BN39B-04 (4 m; 13.1 フィート) または BN39B-10 (10 m; 32.8 フィート) Memory Channel リンク・ケーブルを使用して,Memory Channel アダプタ間を相互接続します。

注意

MC2 リンク・ケーブル (BN39B) は黒いケーブルです。

MC2 ケーブルを MC1 または MC1.5 CCMAA モジュールに接続しないでください。

冗長インターコネクトをセットアップする場合は,1 つのシステムのすべての Memory Channel アダプタのジャンパ設定 (VH0 または VH1) を同じにする必要があります。

5.5.2.2    光変換器を使用する仮想ハブ・モードでの MC2 ケーブルのインストール

MC2 構成で光変換器を使用する場合は,仮想ハブ構成の各システムに CCMAB Memory Channel PCI アダプタをインストールする時点で,光変換器モジュール (CCMFB) をインストールします。BN39B-01 ケーブルを使って,CCMAB Memory Channel アダプタと光変換器を接続する必要もあります。2 つ目のシステムに CCMFB 光変換器モジュールをインストールする場合は,2 台のシステムを BN34R 光ファイバ・ケーブルで接続します。お客様が用意するケーブルの最大長は,2 km (1.24 マイル) です (5.3 節を参照)。

5.5.2.3    光ファイバなしの標準ハブ・モードでの MC2 リンク・ケーブルの接続

クラスタに 3 台以上のシステムが存在する場合は,Memory Channel の標準ハブ構成を使用します。BN39B-04 (4 m; 13.1 フィート) または BN39B-10 (10 m; 32.8 フィート) リンク・ケーブルを使用して,Memory Channel アダプタと,CCMHB ハブのラインカード間を接続します。番号の最も小さいハブ・スロットから,順に番号の大きいハブ・スロットへと作業を進めてください。

冗長インターコネクトをセットアップする場合は,以下の制約事項が適用されます。

5.5.2.4    光変換器を使用する標準ハブ・モードでの MC2 ケーブルの接続

MC2 構成で光変換器を使用する場合は,標準ハブ構成の各システムに CCMAB Memory Channel PCI アダプタをインストールする時点で,付属の BN34R 光ファイバ・ケーブルを使って光変換器モジュール (CCMFB) をインストールします。また,BN39B-01 ケーブルを使って,CCMAB Memory Channel アダプタと光変換器も接続します。

注意

Memory Channel 光ファイバ・ケーブルの最大長については,2.2.2 項を参照してください。

この時点で以下の作業が必要です。

注意

5 つ以上の光ファイバ・リンクがある場合は,2 台以上のハブが必要です。CCMHB-BA ハブにはラインカードはありません。

CCMLB のジャンパを設定し,MC2 ハブに CCMFB 光変換器モジュールをインストールするには,次の手順に従います。

  1. 適切な CCMLB ラインカードを取り外し,ラインカードのジャンパを Fiber On (ジャンパ・ピン 1-2) に設定して,光ファイバをサポートするようにします。表 5-3 を参照してください。

  2. CCMLB のエンド・プレートを取り外し,最下部にスロットのある代わりのエンド・プレートをインストールします。

  3. 目的のハブ・スロットのハブ防護用封鎖プレートを取り外します。光変換器モジュールのスロットの制約事項に,必ず従ってください。1 つの Memory Channel インターコネクト用のラインカードはすべて同じハブになければならないことにも注意してください (5.4 節を参照)。

  4. BN34R 光ファイバ・ケーブルをハブ防護用スロットに通します。もう一方の端は,メンバ・システムの CCMFB 光変換器に取り付ける必要があります。

  5. BN34R 光ファイバ・ケーブルをエンド・プレートの最下部付近のスロットに通します。ケーブル・チップ・プロテクタを取り外し,コネクタをトランシーバにカチッと音がして固定されるまで押し込みます。ケーブルをモジュールに巻き付けて固定します。

  6. CCMFB 光ファイバ変換器を opto only0/opto1/opto2/opto3/opto のうちの適切なスロットにインストールします。

  7. BN39B-01 1 m (3.3 フィート) リンク・ケーブルを CCMFB 光変換器と CCMLB ラインカード間にインストールします。

  8. インストールする CCMFB モジュールごとに手順 1〜7 を繰り返します。

5.6    Memory Channel 診断の実行

Memory Channel アダプタ,ハブ,リンク・ケーブル,光ファイバ変換器,および光ファイバ・ケーブルのインストールが完了したら,システムの電源を投入して Memory Channel 診断を実行します。

Memory Channel 診断には,mc_diagmc_cable の 2 種類のコンソール・レベルがあります。

テスト対象の他のすべてのシステムからコンソールに正常な応答が返されれば,Memory Channel ハードウェア経由のデータの流れは完了しています。テスト対象の各システムで Ctrl/C キーを押下してテストを終了してください。

例 5-1 に,標準ハブ構成のノード 1 からの出力例を示します。この例では,テストはノード 1 から開始され,次にノード 0 で実行されています。テストは各システムで終了する必要があります。

例 5-1:  mc_cable テストの実行

>>> mc_cable  [1]
To exit MC_CABLE, type <Ctrl/C>
mca0 node id 1 is online  [2]
No response from node 0 on mca0  [2]
mcb0 node id 1 is online  [3]
No response from node 0 on mcb0  [3]
Response from node 0 on mca0  [4]
Response from node 0 on mcb0  [5]
mcb0 is offline  [6]
mca0 is offline  [6]
[Ctrl/C]  [7]
>>>

  1. mc_cable 診断がノード 1 で開始されます。 [例に戻る]

  2. ノード 1 から,mca0 はオンラインだが,ノード 0 の Memory Channel アダプタとまだ通信していないことがレポートされます。 [例に戻る]

  3. ノード 1 から,mcb0 はオンラインだが,ノード 0 の Memory Channel アダプタとまだ通信していないことがレポートされます。 [例に戻る]

  4. Memory Channel アダプタ mca0 が,もう一方のノードのアダプタと通信しました。 [例に戻る]

  5. Memory Channel アダプタ mcb0 が,もう一方のノードのアダプタと通信しました。 [例に戻る]

  6. ノード 0 で Ctrl/C が入力され,そのノードでのテストが終了します。 ノード 1 の Memory Channel アダプタからオフラインがレポートされます。 [例に戻る]

  7. ノード 1 で Ctrl/C が入力され,テストが終了します。 [例に戻る]

5.7    Memory Channel インターコネクトの保守

以降の各項で,Memory Channel インターコネクトの保守について説明します。Memory Channel ハードウェアの保守については,この章の別の節や,Memory Channel の『ユーザーズ・ガイド』を参照してください。この節では,以下の事項について説明します。

5.7.1    Memory Channel インターコネクトの追加

単一 Memory Channel インターコネクトを,シャットダウンせずに冗長 Memory Channel インターコネクトに変更したい場合には,表 5-4 の手順に従ってください。この表では,Memory Channel インターコネクトの追加と,デュアル MC1 からデュアル MC2 インターコネクトへのローリング・アップグレードが説明されています。ほとんどの手順は同一です。

5.7.2    Memory Channel アダプタのアップグレード

冗長 MC1 インターコネクトで TruCluster Server を構成し,MC2 インターコネクトにアップグレードする場合は,すべてのクラスタをシャットダウンしなくてもアップグレードすることができます。

128 MB の Memory Channel アドレス空間を使用する MC1 インターコネクトから,128 MB または 512 MB の Memory Channel アドレス空間を使用する MC2 インターコネクトにアップグレードする場合は,最後のアダプタが変更されるまで,すべての Memory Channel アダプタを 128 MB の Memory Channel アドレス空間 (省略時の設定) で操作する必要があります。すべての MC2 アダプタが 512 MB にジャンパ設定されていれば,アドレス空間を 512 MB に増やすことができます。

この項では,Memory Channel インターコネクトの追加,および以下のローリング・アップグレード状況について説明します。

表 5-4 に対応する図では,表 5-4 の手順の 2 つの流れの概略を示します。図 5-2 には,MC1 ハードウェアを使ったデュアル冗長仮想ハブ構成を MC2 へアップグレードする流れを示します。図 5-3 から図 5-8 では,3 ノードの標準ハブ構成を MC1 から MC2 へアップグレードする流れを示します。

注意

デュアル冗長 MC1 ハードウェアからデュアル冗長 MC2 ハードウェアにアップグレードする場合,1 つのインターコネクト上のすべての MC1 ハードウェアを交換してから,2 つ目のインターコネクト上の装置のアップグレードを開始してください (表 5-4 の手順 4 は除く)。

512 MB にジャンパ設定した Memory Channel アダプタには,少なくとも 512 MB の物理 RAM メモリが必要です。アップグレード用に十分な物理メモリがあるかどうかを確認してください。MC2 Memory Channel アダプタ 2 台の場合,1 GB 以上の物理メモリが必要です。

表 5-4:  Memory Channel インターコネクトの追加,またはデュアル冗長 MC1 インターコネクトから MC2 インターコネクトへのアップグレード

手順 作業 参照先
1 必要であれば,CAA (Cluster Application Availability) の caa_relocate コマンドを用いて,シャットダウンするクラスタ・メンバからすべてのアプリケーションを手動で再配置します。 TruCluster Server 『クラスタ管理ガイド
2 Memory Channel アダプタをインストール (または交換) したシステムで,ルート・ユーザとしてログインし,shutdown -h ユーティリティを実行してシステムを停止します。 Tru64 UNIX 『システム管理ガイド

注意

システムでコンソール・プロンプトが表示された後,コンソールの set コマンドを使用して,auto_action コンソール環境変数を halt に設定します。これにより,電源投入時にコンソール・プロンプトでシステムを停止できるので,Memory Channel 診断を実行できるようになります。

>>> set auto_action halt
 

3 システムの電源を切ります。 --
4 ジャンパをインストールする新しい Memory Channel モジュールに設定します。 5.1 節 および Memory Channel の『ユーザーズ・ガイド
  MC1:  
  ハブ・モード &mdash: 標準ハブ・モードまたは仮想ハブ・モード (VH0 または VH1)  
 

  • 仮想ハブ・モード,VH0: ジャンパ・ピン 2-3

  • 仮想ハブ・モード,VH1: ジャンパ不要

  • 標準ハブ・モード: ジャンパ・ピン 1-2

 
  MC2:  
  ハブ・モード &mdash: 標準ハブ・モードまたは仮想ハブ・モード (VH0 または VH1)  
 

  • 仮想ハブ・モード,VH0: ジャンパ・ピン 2-3

  • 仮想ハブ・モード,VH1: ジャンパ不要

  • 標準ハブ・モード: ジャンパ・ピン 1-2

 
  J3 -- Memory Channel アドレス空間: 構成に合わせて,128 MB (ジャンパ・ピン 1-2) または 512 MB (ジャンパ・ピン 2-3) を選択します。  

注意

他のインターコネクトが MC1 であるために,128 MB の J3 ジャンパを設定し,MC2 ハードウェアにアップグレードした後 512 MB のアドレス空間を使う場合,ジャンパをリセットする必要があります。ジャンパを現在 512 MB に設定している場合は,混在レール・クラスタ (1 つのレールに MC1,もう 1 つのレールに MC2) 用に使用できるアドレス空間は 128 MB です。

  J4 -- ページ・サイズ: 8 KB の選択にはジャンパ・ピン 1-3  
  J5 -- AlphaServer 8x00 モード: AlphaServer 8200,8400,GS60,GS60E,および GS140 システムにはジャンパ・ピン 1-2。その他すべての AlphaServer システムにはジャンパ・ピン 2-3。  
  J10 -- 光ファイバ・モード使用可能: 光ファイバ・モジュールを使用可能にするにはジャンパ・ピン 2-3。光ファイバを使用不可とするにはジャンパ・ピン 1-2。  
5 Memory Channel インターコネクトを追加する場合: Memory Channel アダプタ・モジュールをインストールします。 5.2 節および Memory Channel の『ユーザーズ・ガイド
  これが仮想ハブ構成の 2 番目のシステムである場合,MC1 または MC2 モジュールの間に MC1 または MC2 リンク・ケーブルを接続します。  
  標準ハブ構成の場合,リンク・ケーブルを使って,アダプタと他のハブにある既存の Memory Channel ラインカードに対応する,ハブ・スロットの Memory Channel ハブ・ラインカードとを接続します。  
  デュアル冗長 MC1 インターコネクトから MC2 インターコネクトにアップグレードする場合: MC1 アダプタを取り外し,MC2 アダプタを取り付けます。  
     
  仮想ハブ:  
  仮想ハブ構成の 1 番目のシステムである場合,1 つのMC1 アダプタを 1 つのMC2 アダプタと交換します。 図 5-2 (B)
  仮想ハブ構成の 2 番目のシステムである場合,両方の MC1 アダプタを MC2 アダプタと交換します。1 つ目の MC2 インターコネクトを形成するように,BN39B-10 リンク・ケーブルを使って Memory Channel アダプタをシステム間で接続します。 図 5-2 (C)
  仮想ハブ構成の 1 番目のシステム上の 2 番目のアダプタである場合,1 つの MC1 アダプタを 1 つの MC2 アダプタと交換します。2 つ目の Memory Channel インターコネクトを形成するように,BN39B-10 リンク・ケーブルを使って 2 つ目の MC2 アダプタを接続します。 図 5-2 (D)
     
  標準ハブ構成:  
  一度に 1 つのレール上のシステムから MC1 アダプタを取り外し,MC2 アダプタを取り付けます。BN39B-10 リンク・ケーブルを使って,新しい MC2 アダプタを MC1 ハブで MC1 モジュールを接続したラインカードに対応する,MC2 ハブにあるラインカードに接続します。 図 5-4 および 図 5-5
  MC2 アダプタを格納するこのレールの最後のシステムである (つまり,このレールでその他すべてのメンバ・システムにそれぞれ 1 つの MC2 アダプタがある) 場合,同時に両方の MC1 アダプタを交換することができます。BN39B-10 リンク・ケーブルを使って,新しい MC2 アダプタを,MC1 ハブで MC1 モジュールを接続したラインカードに対応する,それぞれの MC2 ハブにあるラインカードに接続します。 図 5-6
6 システムの電源を入れ,mc_diag Memory Channel 診断を実行します。 この時点では,クラスタのただ 1 つのシステムであるため,mc_cable は実行できません。 5.6 節
7 システムをブートします。  
8 クラスタ内のその他すべてのシステムで,手順 1 〜 7 を繰り返します。最後のシステムで MC1 アダプタの交換が終わったら,他のインターコネクト上の MC1 アダプタを手順 1 〜 7 を使用して,交換します。 図 5-7 および図 5-8
9 必要であれば,以下の条件を満たした後,アドレス空間を 512 MB に増やすことができます。 sysconfig(8)
 

  • 最後のメンバ・システムは,2 番目の MC1 アダプタが MC2 アダプタに置き換わっている。

  • クラスタは操作可能。

  • すべての MC2 アダプタは,512 MB にジャンパ設定されている (512 MB のアドレス空間が必要)。

 
  1 つのメンバ・システム上で,sysconfig コマンドを使用して Memory Channel カーネル・サブシステムを再構成し,512 MB のアドレス空間を使用できるようにします。構成変更を他のクラスタ・メンバ・システムにも実行します。 /sbin/sysconfig -r rm rm_use_512=1  

注意

他のメンバ・システムに対して構成変更を行った後は,どのメンバ・システムをリブートしても 512 MB のアドレス空間は有効となります。

アドレス空間を 512 MB に増やすために sysconfig コマンドを使用したが,不注意で 128 MB にジャンパ設定した MC2 アダプタを残してしまった場合,システムをリブートしても,クラスタは再結合されません。128 MB にジャンパ設定した Memory Channel アダプタのシステムがシャットダウンし,残りのクラスタ・メンバ・システムで実行している TruCluster ソフトウェアが稼働中の Memory Channel アダプタすべてで 512 MB にジャンパ設定されていることを検出した場合には,アドレス空間が 512 MB に増えているため,稼働中のレールでは 512 MB のアドレス空間を使用できます。128 MB にジャンパ設定されたシステムは,クラスタに結合できません。128 MB にジャンパ設定されたシステムでは,次のような起動時のエラー・メッセージが表示されます。 panic: MC2 adapter has too little memory

sysconfig コマンドを使って Memory Channel アドレス空間を 512 MB に増やした場合,論理レールで使用されている実際のアドレス空間を知っておく必要があります。dbx デバッガ・ユーティリティを使用して,次のことを調べます。

# dbx -k /vmunix
(dbx) p rm_log_rail_to_ctx[0]->mgmt_page_va->size  [1]
16384  [2]
(dbx)  p rm_adapters[0]->rmp_prail_va->rmc_size  [3]
{
        [0] 65536  [4]
        [1] 0
        [2] 65536  [4]
        [3] 0
        [4] 65536  [4]
        [5] 0
        [6] 0
        [7] 0
}
(dbx)  p rm_adapters[1]->rmp_prail_va->rmc_size  [5]
{
        [0] 16384  [6]
        [1] 0
        [2] 16384  [6]
        [3] 0
        [4] 16384  [6]
        [5] 0
        [6] 0
        [7] 0
} 
 

  1. 論理レールのサイズを検出します。 [例に戻る]

  2. 論理レールは 128 MB (16384 8-KB ページ) で稼働中です。 [例に戻る]

  3. 最初の物理レールでメンバ・システムのジャンパ設定を調べます。 [例に戻る]

  4. J3 ジャンパは,最初の物理レールのノード 0,2,および 4 で 512 MB に設定されています (65536 8-KB ページ)。 [例に戻る]

  5. 2 つ目の物理レールでメンバ・システムのジャンパ設定を調べます。 [例に戻る]

  6. J3 ジャンパは,2 つ目の物理レールのノード 0,2,および 4 で 128 MB に設定されています (16384 8 KB ページ)。 [例に戻る]

図 5-2 に,MC2 へアップグレードする MC1 ハードウェアを使用した,デュアル冗長仮想ハブの構成を示します。

図 5-2:  MC1 から MC2 への仮想ハブのアップグレード

図 5-3 から 図 5-8 に,MC1 から MC2 へアップグレードする 3 ノードの標準ハブの構成を示します。

図 5-3:  MC1 から MC2 への標準ハブのアップグレード: 初期構成

図 5-4:  MC1 から MC2 への標準ハブのアップグレード: 1 番目の MC1 モジュール交換

図 5-5:  MC1 から MC2 への標準ハブのアップグレード: 2 番目のシステムにおける 1 つ目の MC1 アダプタの交換

図 5-6:  MC1 から MC2 への標準ハブのアップグレード: 3 番目のシステムの Memory Channel アダプタの交換

図 5-7:  MC1 から MC2 への標準ハブのアップグレード: 2 番目のシステムにおける 2 つ目の MC1 の交換

図 5-8:  MC1 から MC2 への標準ハブのアップグレード: 最終構成

5.7.3    仮想ハブ構成から標準ハブ構成へのアップグレード

クラスタが仮想ハブ・モード (Memory Channel ハブを持たない 2 つのメンバ・システム) で構成されている場合,次の操作を行う際には,標準ハブ・モードに変換しなければなりません。

この作業中,2 番目のシステムをシャットダウンし,1 番目のシステムを単一ノード・クラスタとしてブートする時以外は,クラスタの運用は継続できます。

注意

クォーラム・ディスクを使用していない場合に,1 番目のメンバがシャットダウンしてもクラスタの運用を継続するには,シャットダウン対象の1 番目のメンバはボートを持っていてはなりません。クォーラム・ボートを調整するには,clu_quorum コマンドを使用してください。詳細は, clu_quorum(8) および『クラスタ管理ガイド』を参照してください。

仮想ハブ構成から標準ハブ構成にアップグレードするには,表 5-5 の手順に従ってください。この手順では,system1 を最初にシャットダウンするメンバ・システムとします。メンバ・システム system2 は,最後にシャットダウンします。この手順では,デュアル・レール・フェイルオーバ・ペア Memory Channel アダプタ・モジュールを使用できることが前提です。

表 5-5:  仮想ハブ構成から標準ハブ構成へのアップグレード

手順 作業 参照先
1 メンバ・システムから適当な距離をおいて,Memory Channel をインストールします。 5.4 節
  光ファイバを追加する場合,クラスタ内の各システムで以下の作業が必要です。 --
  ハブ・ラインカードのジャンパ J2 と J3 を,光ファイバが有効になるように設定します。 5.1.2 項
  ハブに光変換器をインストールします。確実に光ケーブルを光変換器に接続してください。 5.5.2.4 項
 

ハブ内の光ファイバ・モジュールを,1 m (3.3 フィート) の BN39B-01 リンク・ケーブルでラインカードに接続します。

5.5.2.4 項
2 すべてのアプリケーションを手作業で system1 から system2 に再割り当てします。これを行うには,CAA (Cluster Application Availability) caa_relocate コマンドを使用してください。 caa_relocate(8) および 『クラスタ管理ガイド
3 system1 にルート・ユーザとしてログインし,shutdown -h コマンドを実行してシステムを停止します。 Tru64 UNIX 『システム管理ガイド

注意

system1 をコンソール・プロンプトにして,auto_action のコンソール環境変数を書き留め,set コマンドを使用して,auto_action コンソール環境変数を halt に設定します。これにより,電源投入時にコンソール・プロンプトでシステムを停止できるので,Memory Channel 診断を実行できるようになります。

P00>>> show auto_action
       
.
.
.
P00>>> set auto_action halt  

4 system1 の電源を切断します。 --
5 system1 から Memory Channel ケーブルを外します。 --
6 静電気防止用リスト・ストラップを装着し,Memory Channel アダプタ・モジュールを取り外して,接地された作業台に置きます。 --
7 それぞれの Memory Channel アダプタ・モジュールを標準ハブ・モードにするため,ハブ・モード・ジャンパ (MC1 と MC1.5 の場合は J4,MC2 の場合は J1) をピン 1 と 2 に移します。 5.1 節および Memory Channel の『ユーザーズ・ガイド

注意

Memory Channel 光ファイバ機能も追加する場合は,Memory Channel アダプタ・モジュールの J10 と J11 ジャンパを,光ファイバが有効になるように設定してください。

8 Memory Channel モジュールを再インストールします。 5.2 節
9 光ファイバを追加する場合,メンバ・システムに光変換器をインストールします。 5.3 節

注意

光ファイバ・ケーブルを,ハブとメンバ・システム間のケーブル通路に通します。光ファイバ・ケーブルをシステムの変換器に接続します。

光ファイバ・モジュールを 1 m (3.3 フィート) の FN39B-01 リンク・ケーブルで Memory Channel アダプタ・モジュールに接続します。

10 Memory Channel アダプタ・モジュールと Memory Channel ハブ間を Memory Channel ケーブルで接続し,ハブの電源を投入します。多重アダプタの場合は,各々のアダプタを異なるハブに接続し,そのラインカードが入っているラインカード・スロット位置は,どのハブでも同じでなければなりません。 5.5 節

注意

Memory Channel で光ファイバを使用する場合,光ファイバ・ケーブルを接続しておかなければなりません。それからハブの電源を投入します。

11 system1 システムの電源を投入し,mc_diag Memory Channel 診断を実行します (これがクラスタ内で,コンソール・プロンプト状態にある唯一のシステムであり,他のシステムはハブに接続されていないので,mc_cable を実行してはなりません)。 5.6 節

注意

auto_action コンソール環境変数を元の値,restart または boot に設定します。たとえば次のようになります。

>>> set auto_action restart
 

12 クラスタ・メンバ system2 をシャットダウンするために,shutdown -h コマンドか shutdown -c コマンドを実行します。 --

注意

クラスタは,system2 のシャットダウンと system1 のブートに要する時間の間,ダウンします。

13 system2 がコンソール・プロンプト状態のとき,Memory Channel ハブに接続されているシステムである system1 をブートします。 --
14 system2 に対して手順 4 〜 9 を繰り返します。 --
15 Memory Channel アダプタ・モジュールと Memory Channel ハブ間を Memory Channel ケーブルで接続します。多重アダプタの場合は,各々のアダプタを異なるハブに接続し,各々のハブでのラインカード・スロット位置は同一でなければなりません。 5.5 節
16 system2 システムの電源を投入し,mc_diag Memory Channel 診断を実行します (他のシステムはマルチ・ユーザ・モードなので,mc_cable を実行してはなりません)。 5.6 節

注意

auto_action コンソール環境変数を元の値,restart または boot に設定します。 たとえば次のようになります。

>>> set auto_action restart
 

17 system2 をブートします。 --

これで新しいシステムを Memory Channel ハブに接続できました。ハードウェアを構成後,新しいシステムをクラスタに追加するには,clu_add_member コマンドを使用してください (詳細は, clu_add_member(8) および 『クラスタ・インストレーション・ガイド』を参照してください)。