日本-日本語
日本HPホーム 製品 & サービス OpenVMS製品情報
≫  お問い合わせ


OpenVMS マニュアル


 

OpenVMS ドキュメント
ライブラリ

タイトルページ
目次
まえがき
第1章:OpenVMS Cluster システムの管理の概要
第2章:OpenVMS Cluster の概念
第3章:OpenVMS Cluster インターコネクト構成
第4章:OpenVMS Cluster オペレーティング環境
第5章:共用環境の準備
第6章:クラスタ・ストレージ・デバイス
第7章:クラスタ・キューの設定と管理
第8章:OpenVMS Cluster システムの構成
第9章:大規模な OpenVMS Cluster システムの構築
第10章:OpenVMS Cluster システムの保守
付録A :クラスタ・システム・パラメータ
付録B :共通ファイルの作成
付録C :クラスタのトラブルシューティング
付録D :LAN 制御のためのサンプル・プログラム
付録E :LAN 制御のためのサブルーチン
付録F :NISCA プロトコルのトラブルシューティング
付録G :NISCA トランスポート・プロトコル輻輳制御
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster システム


目次 索引



ここでは, JASMIN および TULIP で構成される既存の 2 ノード・クラスタにノード ORCHID を追加する方法について説明します。ロジカル LAN フェールオーバ・セットは ORCHID に作成および構成されてます。ローカル LAN カードで障害が発生してもロジカル LAN フェールオーバ・セットで構成されている他のインタフェースに切り替えられ, ORCHID は動作し続けます。

手順 1: ロジカル LAN フェールオーバ・セットの構成

ロジカル LAN フェールオーバ・セットを作成するために以下のコマンドを実行します。

$ MC LANCP                                          
LANCP>DEFINE DEVICE LLB/ENABLE/FAILOVER=(EIA0, EIB0)) 

システムをリブートします。リブート中,以下のようなコンソール・メッセージが表示されます。

%LLB0, Logical LAN event at  2-SEP-2008 14:52:50.06 
%LLB0, Logical LAN failset device created 

手順 2: CLUSTER_CONFIG_LAN の実行

ノード ORCHID で CLUSTER_CONFIG_LAN.COM を実行し,以下のように適切なオプションを選択します。

ORCHID$@SYS$MANAGER:CLUSTER_CONFIG_LAN
                 Cluster/IPCI Configuration Procedure 
                   CLUSTER_CONFIG_LAN Version V2.84 
                     Executing on an IA64 System  
 
    DECnet-Plus is installed on this node. 
    IA64 satellites will use TCP/IP BOOTP and TFTP services for downline loading. 
    TCP/IP is installed and running on this node. 
 
        Enter a "?" for help at any prompt.  If you are familiar with 
        the execution of this procedure, you may want to mute extra notes 
        and explanations by invoking it with "@CLUSTER_CONFIG_LAN BRIEF". 
 
    This IA64 node is not currently a cluster member. 
 
MAIN Menu 
 
   1. ADD ORCHID to existing cluster, or form a new cluster. 
   2. MAKE a directory structure for a new root on a system disk. 
   3. DELETE a root from a system disk. 
   4. EXIT from this procedure. 
 
Enter choice [4]: 1 
Is the node to be a clustered node with a shared SCSI/FIBRE-CHANNEL bus (Y/N)? n 
What is the node's SCS node name? orchid 
    IA64 node, using LAN/IP for cluster communications.  PEDRIVER will be loaded. 
   No other cluster interconnects are supported for IA64 nodes. 
Enter this cluster's group number: 1985 
Enter this cluster's password: 
Re-enter this cluster's password for verification: 
 
ENABLE IP for cluster communications (Y/N)? Y 
UDP port number to be used for Cluster Communication over IP[49152]? [Return]
Enable IP multicast for cluster communication(Y/N)[Y]? [Return]
What is IP the multicast address[239.242.7.193]? 239.242.7.193 
What is the TTL (time to live) value for IP multicast packets [32]? [Return]
Do you want to enter unicast address(es)(Y/N)[Y]? [Return]
What is the unicast address[Press [RETURN] to end the list]? 10.0.1.2 
What is the unicast address[Press [RETURN] to end the list]? 10.0.2.3 
What is the unicast address[Press [RETURN] to end the list]? 10.0.2.2    
What is the unicast address[Press [RETURN] to end the list]? [Return]
 
   ***************************************************************** 
        Cluster Communications  over IP  has  been  enabled.  Now 
        CLUSTER_CONFIG_LAN will run the  SYS$MANAGER:TCPIP$CONFIG 
        procedure. Please select the IP interfaces to be used for 
        Cluster Communications  over IP  (IPCI). This can be done 
        selecting "Core Environment"  option from the main menu 
        followed by the "Interfaces"  option.  You may also use 
        this opportunity to configure other aspects. 
   **************************************************************** 
Press Return to continue ... 
 
                TCP/IP Network Configuration Procedure 
 
        This procedure helps you define the parameters required 
        to run HP TCP/IP Services for OpenVMS on this system. 
 
%TCPIP-I-IPCI, TCP/IP Configuration is limited to IPCI. 
-TCPIP-I-IPCI, Rerun TCPIP$CONFIG after joining the cluster. 
 
 
 
    HP TCP/IP Services for OpenVMS Interface & Address Configuration Menu 
 
 Hostname Details: Configured=Not Configured, Active=nodeg 
 
 Configuration options: 
 
   0  -  Set The Target Node (Current Node: ORCHID) 
   1  -  LE0 Menu (LLA0: TwistedPair 100mbps) 
   2  -  IE1 Menu (EIB0: TwistedPair 100mbps) 
  [E] -  Exit menu 
 
Enter configuration option: 1 
 
* IPCI Address Configuration * 
 
Only IPCI addresses can be configured in the current environment. 
After configuring your IPCI address(es) it will be necessary to 
run TCPIP$CONFIG once your node has joined the cluster. 
 
 
    IPv4 Address may be entered with CIDR bits suffix. 
    E.g. For a 16-bit netmask enter 10.0.1.1/16 
 
Enter IPv4 Address []:10.0.1.2 
Default netmask calculated from class of IP address: 255.0.0.0 
 
    IPv4 Netmask may be entered in dotted decimal notation, 
    (e.g. 255.255.0.0), or as number of CIDR bits (e.g. 16) 
 
Enter Netmask or CIDR bits [255.0.0.0]: 255.255.255.0 
 
Requested configuration: 
 
      Node     : ORCHID 
      Interface: IE0 
      IPCI     : Yes 
      Address  : 10.0.1.2/24 
      Netmask  : 255.255.254.0 (CIDR bits: 23) 
 
* Is this correct [YES]: 
Updated Interface in IPCI configuration file: SYS$SYSROOT:[SYSEXE]TCPIP$CLUSTER. 
DAT; 
 
 
   HP TCP/IP Services for OpenVMS Interface & Address Configuration Menu 
 
 Hostname Details: Configured=Not Configured, Active=nodeg 
 
 Configuration options: 
 
 0  -  Set The Target Node (Current Node: ORCHID) 
 1  -  LE0 Menu (LLA0: TwistedPair 100mbps) 
 2  -  10.0.1.2/24  ORCHID  IPCI 
 3  -  IE1 Menu (EIB0: TwistedPair 100mbps) 
[E] -  Exit menu 
 
Enter configuration option: E 
Enter your Default Gateway address []: 10.0.1.1 
* The default gateway will be: 10.0.1.1  Correct [NO]: YES 
Updated Default Route in IPCI configuration file: SYS$SYSROOT:[SYSEXE]TCPIP$CLUSTER.DAT; 
TCPIP-I-IPCIDONE, Finished configuring IPCI address information. 
 
 
SYS$SYSTEM:PE$IP_CONFIG.DAT file generated in node ORCHID's root shown below 
 
! CLUSTER_CONFIG_LAN creating for CHANGE operation on 15-JUL-2008 15:23:56.05 
multicast_address=239.242.7.193 
ttl=32 
udp_port=49152 
unicast=10.0.2.3 
unicast=10.0.2.2 
unicast=10.0.1.2 
 
SYS$SYSTEM:TCPIP$CLUSTER.DAT file generated in node ORCHID's root shown below 
 
interface=LE1,LLB0,10.0.1.2,255.0.0.0 
default_route=10.0.1.1 

手順 3: 構成手順の完了

CLUSTER_CONFIG_LAN.COM の実行を続け,クラスタ構成処理を完了させます。詳細は 第 8.2.3.1 項 を参照してください。

手順 4: PE$IP_CONFIG.DAT ファイルの更新

ノードがクラスタに参加するには,そのクラスタのすべてのメンバで一貫した PE$IP_CONFIG.DAT を持つことが必要です。ノード JASMIN で作成した SYS$SYSTEM:PE$IP_CONFIG.DAT ファイルを他のノード,すなわち ORCHID および TULIP へコピーしてください。

手順 5: ユニキャスト・リストのリフレッシュ

ORCHID および TULIP の両方で, PE$IP_CONFIG.DAT ファイルのユニキャスト・リストを更新するために PEDRIVER に対して次のコマンドを実行してください。

$MC SCACP RELOAD 

SYSMAN を使用してクラスタ・ワイドでコマンドを実行することもできます。

手順 6: AUTOGEN の実行とノードのリブート

この後 ORCHID を最初にリブートすると AUTOGEN.COM が自動的に実行されます。これで,ORCHID は,ノード JASMIN および LOTUS で構成される既存のクラスタに参加できるようになります。

ORCHID$ @SYS$UPDATE:AUTOGEN GETDATA REBOOT 



8.2.4 クォーラム・ディスクの追加

1 つ以上のノードでクォーラム・ディスクを有効にするには, 表 8-5 の説明に従ってクラスタ構成プロシージャを使用します。

表 8-5 クォーラム・ディスク・ウォッチャを追加するための準備
状況 操作
他のクラスタ・ノードがすでにクォーラム・ディスク・ウォッチャとして有効に設定されている場合 以下の操作を実行する。

  1. クォーラム・ディスク・ウォッチャとして有効に設定されるコンピュータにログインし, CLUSTER_CONFIG_LAN.COM または CLUSTER_CONFIG.COM を実行する。

  2. CHANGE 機能を実行し,メニュー項目 7 を選択してクォーラム・ディスクを有効にする ( 第 8.4 節 を参照)。

  3. 現在のシステム・パラメータを更新し,ノードをリブートする ( 第 8.6.1 項 を参照)。

クラスタにクォーラム・ディスク・ウォッチャが含まれていない場合 以下の操作を実行する。

  1. クォーラム・ディスク・ウォッチャとして有効にする各ノードに対して,上記の手順 1 と 2 を実行する。

  2. 第 8.6 節 の説明に従ってクラスタを再構成する。



8.3 コンピュータの削除

コンピュータを OpenVMS Cluster メンバとして無効に設定するには,以下の操作を実行します。

  1. メンバを削除した結果,クォーラムに達しなくなるかどうかを判断します。 SHOW CLUSTER コマンドを使用して,CL_QUORUM と CL_VOTES の値を表示します。

    メンバを削除した結果 操作
    クォーラムが不足する場合 以下の操作を実行する。

    注意: OpenVMS Cluster システム全体をリブートできる状態になるまで,これらの操作を実行してはならない。この操作では,クラスタのクォーラムが削減されるため,削除されるノードが行うボーツによって,クラスタ・パーティションが作成される可能性がある。

    • AUTOGEN パラメータ・ファイルと現在のシステム・パラメータ・ファイルの EXPECTED_VOTES パラメータをリセットする ( 第 8.6.1 項 を参照)。

    • クラスタをシャットダウンし ( 第 8.6.2 項 を参照),削除するノードを除いてリブートする。

      注意: 削除するノードで自動リブートを指定していないことを確認する。

    クォーラムが不足しない場合 以下の操作を実行する。

    • SYS$SYSTEM:SHUTDOWN.COM コマンド・プロシージャを起動して,削除するノードで通常のシャットダウンを実行する ( 第 8.6.3 項 を参照)。

    • ノードがボーツ・メンバの場合は,DCL コマンド SET CLUSTER/EXPECTED_VOTES を使用してクォーラムの値を削減する。


    関連項目: 期待されるボーツの調整については, 第 10.11 節 も参照してください。

  2. アクティブな OpenVMS Cluster コンピュータで CLUSTER_CONFIG_LAN.COM または CLUSTER_CONFIG.COM を起動して, REMOVE オプションを選択します。

  3. 追加操作が必要であるかどうかについては, 表 8-6 の説明を参照して判断してください。

    表 8-6 OpenVMS Cluster からコンピュータを削除するための準備
    状況 操作
    ボーツ・メンバを削除する場合 REMOVE 機能が完了した後, 第 8.6 節 の説明に従ってクラスタを再構成しなければならない。
    削除されるコンピュータのページ・ファイルとスワップ・ファイルがコンピュータのルート・ディレクトリ階層構造と同じディスクに存在しない場合 REMOVE 機能はこれらのファイルを削除しない。 例 8-6 に示すように,ファイルが削除されないことを警告するメッセージが表示される。ファイルを削除する場合は,REMOVE 機能が完了した後,削除しなければならない。
    DECdtm サービスを使用するクラスタからコンピュータを削除する場合 『OpenVMS システム管理者マニュアル』の DECdtm サービスに関する章の説明に従って操作を実行する。その説明には,コンピュータをクラスタから安全に削除して,データの整合性を維持する方法が示されている。

注意: REMOVE 機能でコンピュータのルート・ディレクトリ構造全体が削除される場合は,ディレクトリ・ファイルを削除しているときに, OpenVMS RMS 情報メッセージが作成されます。これらのメッセージは無視してもかまいません。

8.3.1 例

例 8-6 は,BHAGAT で CLUSTER_CONFIG_LAN.COM を使用して,サテライト GOMTHI をクラスタから削除する方法を示しています。

例 8-6 ローカル・ページ・ファイルとスワップ・ファイルを保有するサテライトを削除するための会話型 CLUSTER_CONFIG_LAN.COM セッションの例
$ @CLUSTER_CONFIG_LAN.COM                                                 
               Cluster/IPCI Configuration Procedure
                   CLUSTER_CONFIG_LAN Version V2.84 
                     Executing on an IA64 System 
 
    DECnet-Plus is installed on this node. 
    IA64 satellites will use TCP/IP BOOTP and TFTP services for downline loading. 
    TCP/IP is installed and running on this node. 
 
        Enter a "?" for help at any prompt.  If you are familiar with 
        the execution of this procedure, you may want to mute extra notes 
        and explanations by invoking it with "@CLUSTER_CONFIG_LAN BRIEF". 
 
    BHAGAT is an IA64 system and currently a member of a cluster 
    so the following functions can be performed: 
 
MAIN Menu 
 
   1. ADD an IA64 node to the cluster. 
   2. REMOVE a node from the cluster. 
   3. CHANGE a cluster member's characteristics. 
   4. CREATE a duplicate system disk for BHAGAT. 
   5. MAKE a directory structure for a new root on a system disk. 
   6. DELETE a root from a system disk. 
   7. EXIT from this procedure. 
 
Enter choice [7]: 2 
 
    The REMOVE command disables a node as a cluster member. 
 
        o It deletes the node's root directory tree. 
        o If the node has entries in SYS$DEVICES.DAT, any port allocation 
          class for shared SCSI bus access on the node must be re-assigned. 
 
    If the node being removed is a voting member, EXPECTED_VOTES 
    in each remaining cluster member's MODPARAMS.DAT must be adjusted. 
    The cluster must then be rebooted. 
 
    For instructions, see the "OpenVMS Cluster Systems" manual. 
 
    CAUTION: The REMOVE command does not remove the node name from any 
    network databases. Also, if a satellite has been set up for booting 
    with multiple hardware addresses, the satellite's aliases are not 
    cleared from the LANACP boot database. 
 
What is the node's SCS node name? GOMTHI 
    Verifying BOOTP satellite node database... 
    Verifying that $1$DKA0:[SYS10] is GOMTHI's root... 
Are you sure you want to remove node GOMTHI (Y/N)? Y 
 
  WARNING: GOMTHI's page and swap files will not be deleted. 
           They do not reside on $1$DKA0:. 
 
 
    Deleting directory tree $1$DKA0:<SYS10...> 
 
%DELETE-I-FILDEL, $1$DKA0:<SYS10.SYS$I18N.LOCALES>SYSTEM.DIR;1 deleted (16 blocks) 
. 
. 
. 
. 
%DELETE-I-FILDEL, $1$DKA0:<SYS10>VPM$SERVER.DIR;1 deleted (16 blocks) 
%DELETE-I-TOTAL, 21 files deleted (336 blocks) 
%DELETE-I-FILDEL, $1$DKA0:<0,0>SYS10.DIR;1 deleted (16 blocks) 
 
    System root $1$DKA0:<SYS10> deleted. 
    Updating BOOTP database... 
    Removing rights identifier for GOMTHI... 
    The configuration procedure has completed successfully. 



8.3.2 クォーラム・ディスクの削除

1 つ以上のノードでクォーラム・ディスクを無効にするには, 表 8-7 の説明に従ってクラスタ構成コマンド・プロシージャを使用します。

表 8-7 クォーラム・ディスク・ウォッチャを削除するための準備
場合 操作
他のクラスタ・ノードがクォーラム・ディスク・ウォッチャとしてまだ有効に設定されている場合。 以下の操作を実行する。

  1. クォーラム・ディスク・ウォッチャの設定を無効にするコンピュータにログインし, CLUSTER_CONFIG_LAN.COM または CLUSTER_CONFIG.COM を実行する。

  2. CHANGE 機能を実行し,メニュー項目 7 を選択してクォーラム・ディスクを無効にする ( 第 8.4 節 を参照)。

  3. ノードをリブートする ( 第 8.6.7 項 を参照)。

すべてのクォーラム・ディスク・ウォッチャが無効に設定される場合。 以下の操作を実行する。

  1. クォーラム・ディスクが有効に設定されているすべてのコンピュータに対して,上記手順 1 と 2 を実行する。

  2. 第 8.6 節 の説明に従ってクラスタを再構成する。



8.4 コンピュータの属性の変更

処理要件が変化すると,既存の OpenVMS Cluster にサテライトを追加したり,1 つのインターコネクト (たとえば CI インターコネクトや DSSI インターコネクト,あるいは HSC サブシステム) だけを利用している OpenVMS Cluster を,複数のインターコネクトを利用するように変更しなければならないことがあります。

表 8-8 では,クラスタ構成コマンド・プロシージャのメイン・メニューから CHANGE オプションを選択して実行できる操作について説明しています。

注意: サテライトの LAN (イーサネットまたは FDDI) ハードウェア・アドレスを変更する操作以外のすべての操作は,属性を変更する対象となるコンピュータで実行しなければません。

表 8-8 クラスタ構成プロシージャの CHANGE オプション
オプション 実行される操作
ローカル・コンピュータをディスク・サーバとして有効にする。 MODPARAMS.DAT で MSCP_LOAD パラメータの値を 1 に設定し, MSCP_SERVE_ALL パラメータの値を 1 または 2 に設定することにより,MSCP サーバをロードする。
ディスク・サーバとして設定されているローカル・コンピュータを無効にする。 MSCP_LOAD を 0 に設定する。
ローカル・コンピュータをブート・サーバとして有効にする。 サテライトを含む OpenVMS Cluster を設定している場合は,サテライトをクラスタに追加する前に,この操作を 1 回だけ実行する必要がある。この操作を実行すると,コンピュータがサテライトからのオペレーティング・システム・ロード要求をサービスするために使用する LAN アダプタ・サーキットに対して,MOP サービスが有効になる。コンピュータをブート・サーバとして有効にすると,そのコンピュータはサテライトに対してシステム・ディスクをサービスしなければならないため,自動的にディスク・サーバになる (まだディスク・サーバになっていない場合)。
ブート・サーバとして設定されているローカル・コンピュータを無効にする。 コンピュータのアダプタ・サーキットに対して, DECnet MOP サービスを無効にする。
ローカル・コンピュータで IP によるクラスタ通信を有効にする。 MODPARAMS.DAT で NISCS_LOAD_PEA0 の値を 1 に設定することによりポート・ドライバ PEDRIVER をロードする。また,MODPARAMS.DAT で NISCS_USE_UDP を 1 に設定して IP 構成ファイルのロードを有効にする。ローカル・コンピュータのシステム・ディスクでにクラスタ・セキュリティ・データベース・ファイル SYS$SYSTEM:[SYSEXE]CLUSTER_AUTHORIZE.DAT を作成する。
ローカル・コンピュータで IP によるクラスタ通信を無効にする。 NISCS_USE_UDP を 0 に設定する。
ローカル・コンピュータでクラスタ通信のために LAN を有効にする。 MODPARAMS.DAT で NISCS_LOAD_PEA0 パラメータを 1 に設定することにより,ポート・ドライバ PEDRIVER をロードする。ローカル・コンピュータのシステム・ディスクにクラスタ・セキュリティ・データベース・ファイル SYS$SYSTEM:[SYSEXE]CLUSTER_AUTHORIZE.DAT を作成する。

注意: NISCS_LOAD_PEA0 パラメータが 1 に設定される場合, VAXCLUSTER システム・パラメータは 2 に設定しなければならない。このようにすると,クラスタ内で共用リソースへのアクセスが調整され,誤ってデータが破壊されるのを防止できる。

ローカル・コンピュータでクラスタ通信のために有効に設定されている LAN を無効にする。 NISCS_LOAD_PEA0 を 0 に設定する。
ローカル・コンピュータでクォーラム・ディスクを有効にする。 MODPARAMS.DAT で,DISK_QUORUM システム・パラメータをデバイス名に設定し,QDSKVOTES の値を 1 (デフォルト値) に設定する。
ローカル・コンピュータでクォーラム・ディスクを無効に設定する。 MODPARAMS.DAT で,DISK_QUORUM システム・パラメータを空白値に設定する。QDSKVOTES の値を 1 に設定する。
サテライトの LAN ハードウェア・アドレスを変更する。 LAN デバイスの交換が必要な場合は,サテライトのハードウェア・アドレスを変更する。パーマネントおよび運用時ネットワーク・データベースと NETNODE_UPDATE.COM がローカル・コンピュータで更新される。

規則: この操作は,サテライトのブート・サーバとして有効に設定される各コンピュータで実行しなければならない。

ローカル・コンピュータをテープ・サーバとして有効にする。 MODPARAMS.DAT で,TMSCP_LOAD パラメータの値を 1 に,TMSCP_SERVE_ALL パラメータの値を 1 または 2 に設定することにより,TMSCP サーバをロードする。
テープ・サーバとして設定されているローカル・コンピュータを無効にする。 TMSCP_LOAD を 0 に設定する。
ローカル・コンピュータのノード割り当てクラス値を変更する。 MODPARAMS.DAT でコンピュータの ALLOCLASS パラメータの値を設定する。
ローカル・コンピュータのテープ割り当てクラス値を変更する。 MODPARAMS.DAT でコンピュータの TAPE_ALLOCLASS パラメータの値を 1〜255 に設定する。デフォルト値は 0 である。このノードがデュアル・ポート・テープにローカル接続されている場合や,他のクラスタ・メンバに対してマルチホスト・テープ (たとえば TF nn または HSC で接続されたテープ) をサービスする場合は,テープ割り当てクラス・パラメータを 0 以外の値に指定しなければならない。サテライトの TAPE_ALLOCLASS の値は通常,0 に設定される。
ローカル・コンピュータのポート割り当てクラス値を変更する。 コンピュータに接続されているすべてのデバイスに対して, MODPARAMS.DAT でコンピュータの ALLOCLASS パラメータの値を設定する。
MEMORY CHANNEL を有効にする。 MC_SERVICES_P2 を 1 に設定して, PMDRIVER (PMA0) クラスタ・ドライバをロードする。このシステム・パラメータを設定すると,ノード間クラスタ通信のためにローカル・コンピュータで MEMORY CHANNEL が有効になる。
MEMORY CHANNEL を無効にする。 MC_SERVICES_P2 を 0 に設定して, PMDRIVER (PMA0) クラスタ・ドライバがロードされないようにする。0 に設定すると,ノード間クラスタ通信インターコネクトとしてローカル・コンピュータで MEMORY CHANNEL が無効になる。


目次 索引

© 2012 Hewlett-Packard Development Company, L.P.