日本-日本語
日本HPホーム 製品 & サービス OpenVMS製品情報
≫  お問い合わせ


OpenVMS マニュアル


 

OpenVMSドキュメント
ライブラリ

タイトルページ
目次
まえがき
第1章:システム構成の概要
第2章:ビジネス要件とアプリケーション要件の決定
第3章:システムの選択
第4章:インターコネクトの選択
第5章:ストレージ・サブシステムの選択
第6章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第7章:ストレージ・インターコネクトとしての Fibre Channel の構成
第8章:可用性を目的とした OpenVMS Cluster の構成
第9章:スケーラビリティを目的とした OpenVMS Cluster の構成
第10章:システム管理の手法
付録A :インターコネクトとしての SCSI
付録B :MEMORY CHANNEL 技術概要
付録C :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引



インストールされているファームウェアのバージョンを確認する方法は,システム初期化時のコンソールからチェックする方法と, efiutil ユーティリティを使用する方法の 2 通りがあります。

  • ファームウェアのバージョンは,次の例のように,システム初期化時に表示されるブート・コンソール・メッセージ内に示されます。

    HP 2 Port 2Gb Fibre Channel Adapter (driver 1.40, firmware 3.03.001) 
    

  • ファームウェアのバージョン番号は, efiutil info コマンドでも表示されます。

    fs0:\efi\hp\tools\io_cards\fc2p2g\efiutil info 
     
    Fibre Channel Card Efi Utility  1.20  (1/30/2003) 
     
     2 Fibre Channel Adapters found: 
     
     Adapter        Path                  WWN           Driver (Firmware) 
      A0  Acpi(000222F0,200)/Pci(1|0)  50060B00001CF2DC  1.40  (3.03.001) 
      A1  Acpi(000222F0,200)/Pci(1|1)  50060B00001CF2DE  1.40  (3.03.001) 
     
    



7.7.3 FC 上のブート・デバイス・パスの構成

Fibre Channel ストレージ・デバイスでブートするための構成には, HP OpenVMS のインストレーションの後に OpenVMS I64 Boot Manager (BOOT_OPTIONS.COM) を使用することをお勧めします。以下に手順を示します。

  1. OpenVMS Installation Menu からオプション 7 "Execute DCL commands and procedures" を選択して DCL プロンプトを表示させます。

  2. DCL プロンプトで次のコマンドを入力して OpenVMS I64 Boot Manager ユーティリティを起動します。

    $$$ @SYS$MANAGER:BOOT_OPTIONS 
    

  3. ユーティリティが起動されたら,メイン・メニューが表示されます。ブート・オプションとしてシステム・ディスクを追加するには,次の例のようにプロンプトで 1 を入力します。

    OpenVMS I64 Boot Manager Boot Options List Management Utility 
     
    (1) ADD an entry to the Boot Options list 
    (2) DISPLAY the Boot Options list 
    (3) REMOVE an entry from the Boot Options list 
    (4) MOVE the position of an entry in the Boot Options list 
    (5) VALIDATE boot options and fix them as necessary 
    (6) Modify Boot Options TIMEOUT setting 
     
    (B) Set to operate on the Boot Device Options list 
    (D) Set to operate on the Dump Device Options list 
    (G) Set to operate on the Debug Device Options list 
     
    (E) EXIT from the Boot Manager utility 
     
    You can also enter Ctrl-Y at any time to abort this utility 
     
    Enter your choice: 1
    

      注意
    このユーティリティの使用中は,必要な回数だけ "^" 文字をタイプすることにより,それまでに行った応答に変更することができます。 DCL プロンプトに戻る場合は Ctrl/Y と入力してください。

  4. ユーティリティはデバイス名の入力プロンプトを表示します。このインストレーションで使用しているシステム・ディスク・デバイスを入力してください。次の例では,マルチパス Fibre Channel デバイス $1$DGA1 です。

    Enter the device name (enter "?" for a list of devices): $1$DGA1:
    

  5. ユーティリティは, EFI ブート・オプション・リストにエントリを入れたい場所に関する確認プロンプトを表示します。次の例では 1 を入力します。

    Enter the desired position number (1,2,3,,,) of the entry. 
    To display the Boot Options list, enter "?" and press Return. 
    Position [1]: 1
    

  6. ユーティリティは, OpenVMS ブート・フラグに関するプロンプトを表示します。デフォルトではフラグは設定されません。 OpenVMS フラグ (0,1 など) をタイプしリターン・キーを押すか,次の例のようにフラグを指定しないでリターン・キーを押します。

    Enter the value for VMS_FLAGS in the form n,n. 
    VMS_FLAGS [NONE]: 
    

  7. ユーティリティは,ブート・オプション・エントリに記述される説明の入力プロンプトを表示します。デフォルトでは,デバイス名が使用されます。次の例のようにさらに詳しい情報を入力することもできます。

    Enter a short description (do not include quotation marks). 
    Description ["$1$DGA1"]: $1$DGA1 OpenVMS V8.2 System
     
    efi$bcfg: $1$dga1 (Boot0001) Option successfully added 
     
    efi$bcfg: $1$dga1 (Boot0002) Option successfully added 
     
    efi$bcfg: $1$dga1 (Boot0003) Option successfully added 
    

  8. ブート・オプションが正しく追加できたら,プロンプトで E と入力してユーティリティを終了します。

    Enter your choice: E
    

  9. DCL プロンプトからログアウトして Integrity システムをシャットダウンしてください。

このユーティリティの詳細については,『OpenVMS システム管理者マニュアル (上巻)』を参照してください。

7.8 OpenVMS で使用するためのストレージ・コントローラのセットアップ (Alpha のみ)

HP ストレージ・アレイ・コントローラと,そのコントローラを OpenVMS で使用できるように構成するための情報が記載してあるマニュアルは以下のとおりです。

  • HSG60/80
    HSG80 ACS Solution Software Version 8.6 for OpenVMS Installation and Configuration Guide』(AA-RH4BD-TE)
    このマニュアルは,次の FTP サイトで入手できます。

                    ftp://ftp.compaq.com/pub/products/storageworks/techdoc/raidstorage/AA-RH4BD-TE.pdf 
    

  • Enterprise Virtual Array
    OpenVMS Kit V2.0 for Enterprise Virtual Array Installation and Configuration Guide』(AA-RR03B-TE)
    このマニュアルは,次の FTP サイトで入手できます。

     
                    ftp://ftp.compaq.com/pub/products/storageworks/techdoc/enterprise/AA-RR03B-TE.pdf 
    

  • HP StorageWorks Modular Smart Array 1000
    MSA1000 のドキュメントは次の場所にあります。

    ftp://ftp.compaq.com/pub/products/storageworks/techdoc/msa1000/ 
    

  • HP StorageWorks XP Disk Array
    HP StorageWorks XP Arrays の製品情報は次の場所にあります。

    http://h18006.www1.hp.com/storage/xparrays.html 
    



7.8.1 デバイス識別子を CCL 用に設定

OpenVMS では,HSG および HSV のコマンド・コンソール LUN (CCL) に対して一意のデバイス識別子を定義する必要はありませんが,一部の管理ツールでは必要な場合があります。この識別子を定義すると,SHOW DEVICE コマンドを使用して表示可能な CCL デバイスを作成できるため,OpenVMS では,常に一意のデバイス識別子を定義するように指示されます。対象のデバイスが OpenVMS で直接制御できない場合でも, SHOW DEVICE/FULL コマンドを使用して,ストレージ・コントローラへの複数のパスを表示したり,以下の例で $1$GGA3 に示すように,障害が発生したパスを診断できます。以下の例では,2 つのパスのうち 1 つに障害が発生しています。

Paver> sh dev gg /mul 
Device                  Device           Error         Current 
 Name                   Status           Count  Paths    path 
$1$GGA1:                Online               0   2/ 2  PGA0.5000-1FE1-0011-AF08 
$1$GGA3:                Online               0   1/ 2  PGA0.5000-1FE1-0011-B158 
$1$GGA4:                Online               0   2/ 2  PGA0.5000-1FE1-0015-2C58 
$1$GGA5:                Online               0   2/ 2  PGA0.5000-1FE1-0015-22A8 
$1$GGA6:                Online               0   2/ 2  PGA0.5000-1FE1-0015-2D18 
$1$GGA7:                Online               0   2/ 2  PGA0.5000-1FE1-0015-2D08 
$1$GGA9:                Online               0   2/ 2  PGA0.5000-1FE1-0007-04E3 
 
Paver> show dev /full $1$gga9: 
 
Device $1$GGA9:, device type Generic SCSI device, is online, shareable, device 
    has multiple I/O paths. 
 
    Error count                    0    Operations completed                  0 
    Owner process                 ""    Owner UIC                      [SYSTEM] 
    Owner process ID        00000000    Dev Prot    S:RWPL,O:RWPL,G:RWPL,W:RWPL 
    Reference count                0    Default buffer size                   0 
    WWID   02000008:5000-1FE1-0007-04E0 
 
  I/O paths to device              2 
  Path PGA0.5000-1FE1-0007-04E3  (PAVER), primary path, current path. 
    Error count                    0    Operations completed                  0 
  Path PGA0.5000-1FE1-0007-04E1  (PAVER). 
    Error count                    0    Operations completed                  0 



7.8.2 デバイス識別子をディスク・デバイス用に設定

完全なデバイス名を作成するには,ディスク用のデバイス識別子を文字列 $1$DGA の後に付けます。すべてのディスクにクラスタ内で一意のデバイス識別子を割り当てる必要があります。デバイス識別子として 0 〜 32767 の数値を指定できますが, HSV ではデバイス識別子 0 は無効です。

7.9 共用 FC システム・ディスクを備えたクラスタの作成

OpenVMS Cluster システムにノードを構成するには, CLUSTER_CONFIG.COM( または CLUSTER_CONFIG_LAN.COM) コマンド・プロシージャを実行します。(ほとんどのプロンプトで詳細な情報が提供されるフル・バージョンと,簡易バージョンの 2 通りが用意されています。)

割り当てクラス・パラメータが FC に適用されない点を除き,共用 Fibre Channel (FC) バスは CLUSTER_CONFIG の目的に従って共用 SCSI バスと類似した扱いを受けます。 FC ストレージ・デバイスを組み込んだ構成にパラレル SCSI ストレージ・デバイスがあれば,ノード割り当てクラス値とポート割り当てクラス値の設定規則は有効です。

新しい OpenVMS Cluster システムを構成するには,まずシングル・システムかスタンドアロン・システムでクラスタリングを有効にします。これで,そのクラスタにノードを追加できます。

例 7-5 は, CLUSTER_CONFIG_LAN.COM の簡易バージョンを FCNOD1 というスタンドアロン・ノードでクラスタリングを有効にする方法を示したものです。このプロシージャの最後に, FCNOD1 はリブートして 1 ノード・クラスタを構成します。

例 7-6 は, FCNOD1 で CLUSTER_CONFIG_LAN.COM の簡易バージョンを実行して, FCNOD2 という第 2 のノードを追加する方法を示しています。このプロシージャの最後に,クラスタは, FCNOD2 が FCNOD1 と同じ FC システム・ディスクからブートできる構成になります。

以下の手順は,両方の例に共通です。

  1. ADD のデフォルト・オプション [1] を選択します。

  2. CLUSTER_CONFIG_LAN.COM から共用 SCSI バスを使用するかどうかを確認するプロンプトが表示されたら,YES と応えます。この場合,SCSI には,パラレル SCSI だけでなく FC も含みます。
    FC があっても,割り当てクラス・パラメータには関係ありません。

  3. ノードをサテライトにするかどうかを確認するプロンプトが表示されたら, NO と応えます。

例 7-5 スタンドアロン FC ノードにおけるクラスタリングの有効化
$ @CLUSTER_CONFIG_LAN BRIEF 
 
                   Cluster Configuration Procedure 
                    Executing on an Alpha System 
 
    DECnet Phase IV is installed on this node. 
 
    The LAN,not DECnet,will be used for MOP downline loading. 
    This Alpha node is not currently a cluster member 
    
 
MAIN MENU 
 
   1. ADD FCNOD1 to existing cluster,or form a new cluster. 
   2. MAKE a directory structure for a new root on a system disk. 
   3. DELETE a root from a system disk. 
   4. EXIT from this procedure. 
 
Enter choice [1]: 1 
Is the node to be a clustered node with a shared SCSI or Fibre Channel bus (Y/N)? Y 
 
    Note: 
        Every cluster node must have a direct connection to every other 
        node in the cluster.  Since FCNOD1 will be a clustered node with 
        a shared SCSI or FC bus,and Memory Channel,CI,and DSSI are not 
        present, the LAN will be used for cluster communication. 
 
Enter this cluster's group number: 511 
Enter this cluster's password: 
Re-enter this cluster's password for verification: 
 
Will FCNOD1 be a boot server [Y]? Y 
    Verifying LAN adapters in LANACP database... 
    Updating LANACP LAN server process volatile and permanent databases... 
    Note: The LANACP LAN server process will be used by FCNOD1 for boot 
          serving satellites. The following LAN devices have been found: 
    Verifying LAN adapters in LANACP database... 
 
    LAN TYPE    ADAPTER NAME    SERVICE STATUS 
    ========    ============    ============== 
    Ethernet    EWA0            ENABLED 
 
 
  CAUTION: If you do not define port allocation classes later in this 
           procedure for shared SCSI bus,all nodes sharing a SCSI bus 
           must have the same non-zero ALLOCLASS value. If multiple 
           nodes connect to a shared SCSI bus without the same allocation 
           class for the bus,system booting will halt due to the error or 
           IO AUTOCONFIGURE after boot will keep the bus offline. 
 
Enter a value for FCNOD1's ALLOCLASS parameter [0]: 5 
Does this cluster contain a quorum disk [N]? N 
    Each shared SCSI bus must have a positive allocation class value. A shared 
    bus uses a PK adapter. A private bus may use: PK,DR,DV. 
 
    When adding a node with SCSI-based cluster communications,the shared 
    SCSI port allocation classes may be established in SYS$DEVICES.DAT. 
    Otherwise,the system's disk allocation class will apply. 
 
    A private SCSI bus need not have an entry in SYS$DEVICES.DAT. If it has an 
    entry,its entry may assign any legitimate port allocation class value: 
 
       n   where n = a positive integer,1 to 32767 inclusive 
       0   no port allocation class and disk allocation class does not apply 
      -1   system's disk allocation class applies (system parameter ALLOCLASS) 
 
    When modifying port allocation classes,SYS$DEVICES.DAT must be updated 
    for all affected nodes,and then all affected nodes must be rebooted. 
    The following dialog will update SYS$DEVICES.DAT on FCNOD1. 
 
    There are currently no entries in SYS$DEVICES.DAT for FCNOD1. 
    After the next boot,any SCSI controller on FCNOD1 will use 
    FCNOD1's disk allocation class. 
 
 
Assign port allocation class to which adapter [RETURN for none]: PKA 
Port allocation class for PKA0: 10 
 
        Port Alloclass   10    Adapter FCNOD1$PKA 
 
Assign port allocation class to which adapter [RETURN for none]: PKB 
Port allocation class for PKB0: 20 
 
        Port Alloclass   10    Adapter FCNOD1$PKA 
        Port Alloclass   20    Adapter FCNOD1$PKB 
 
  WARNING: FCNOD1 will be a voting cluster member. EXPECTED_VOTES for 
           this and every other cluster member should be adjusted at 
           a convenient time before a reboot. For complete instructions, 
           check the section on configuring a cluster in the "OpenVMS 
           Cluster Systems" manual. 
 
    Execute AUTOGEN to compute the SYSGEN parameters for your configuration 
    and reboot FCNOD1 with the new parameters. This is necessary before 
    FCNOD1 can become a cluster member. 
 
Do you want to run AUTOGEN now [Y]? Y 
 
    Running AUTOGEN -- Please wait. 
 
The system is shutting down to allow the system to boot with the 
generated site-specific parameters and installed images. 
 
The system will automatically reboot after the shutdown and the 
upgrade will be complete. 

例 7-6 共用 FC システム・ディスクがあるクラスタへノードを追加する
$ @CLUSTER_CONFIG_LAN BRIEF 
 
                   Cluster Configuration Procedure 
                    Executing on an Alpha System 
 
    DECnet Phase IV is installed on this node. 
 
    The LAN,not DECnet,will be used for MOP downline loading. 
    FCNOD1 is an Alpha system and currently a member of a cluster 
    so the following functions can be performed: 
 
MAIN MENU 
 
   1. ADD an Alpha node to the cluster. 
   2. REMOVE a node from the cluster. 
   3. CHANGE a cluster member's characteristics. 
   4. CREATE a duplicate system disk for FCNOD1. 
   5. MAKE a directory structure for a new root on a system disk. 
   6. DELETE a root from a system disk. 
   7. EXIT from this procedure. 
 
Enter choice [1]: 1 
 
    This ADD function will add a new Alpha node to the cluster. 
 
  WARNING: If the node being added is a voting member,EXPECTED_VOTES for 
           every cluster member must be adjusted.  For complete instructions 
           check the section on configuring a cluster in the "OpenVMS Cluster 
           Systems" manual. 
 
  CAUTION: If this cluster is running with multiple system disks and 
           common system files will be used,please,do not proceed 
           unless appropriate logical names are defined for cluster 
           common files in SYLOGICALS.COM. For instructions,refer to 
           the "OpenVMS Cluster Systems" manual. 
 
Is the node to be a clustered node with a shared SCSI or Fibre Channel bus (Y/N)? Y 
Will the node be a satellite [Y]? N 
What is the node's SCS node name? FCNOD2 
What is the node's SCSSYSTEMID number? 19.111 
    NOTE: 19.111 equates to an SCSSYSTEMID of 19567 
Will FCNOD2 be a boot server [Y]? Y 
What is the device name for FCNOD2's system root 
[default DISK$V72_SSB:]? Y 
What is the name of FCNOD2's system root [SYS10]? 
    Creating directory tree SYS10 ... 
    System root SYS10 created 
 
  CAUTION: If you do not define port allocation classes later in this 
           procedure for shared SCSI bus,all nodes sharing a SCSI bus 
           must have the same non-zero ALLOCLASS value. If multiple 
           nodes connect to a shared SCSI bus without the same allocation 
           class for the bus,system booting will halt due to the error or 
           IO AUTOCONFIGURE after boot will keep the bus offline. 
 
Enter a value for FCNOD2's ALLOCLASS parameter [5]: 
Does this cluster contain a quorum disk [N]? N 
Size of pagefile for FCNOD2 [RETURN for AUTOGEN sizing]? 
 
    A temporary pagefile will be created until resizing by AUTOGEN. The 
    default size below is arbitrary and may or may not be appropriate. 
 
Size of temporary pagefile [10000]? 
Size of swap file for FCNOD2 [RETURN for AUTOGEN sizing]? 
 
    A temporary swap file will be created until resizing by AUTOGEN. The 
    default size below is arbitrary and may or may not be appropriate. 
 
Size of temporary swap file [8000]? 
    Each shared SCSI bus must have a positive allocation class value. A shared 
    bus uses a PK adapter. A private bus may use: PK,DR,DV. 
 
    When adding a node with SCSI-based cluster communications,the shared 
    SCSI port allocation classes may be established in SYS$DEVICES.DAT. 
    Otherwise,the system's disk allocation class will apply. 
 
    A private SCSI bus need not have an entry in SYS$DEVICES.DAT. If it has an 
    entry,its entry may assign any legitimate port allocation class value: 
 
       n   where n = a positive integer,1 to 32767 inclusive 
       0   no port allocation class and disk allocation class does not apply 
      -1   system's disk allocation class applies (system parameter ALLOCLASS) 
 
    When modifying port allocation classes,SYS$DEVICES.DAT must be updated 
    for all affected nodes,and then all affected nodes must be rebooted. 
    The following dialog will update SYS$DEVICES.DAT on FCNOD2. 
 
Enter [RETURN] to continue: 
 
    $20$DKA400:<VMS$COMMON.SYSEXE>SYS$DEVICES.DAT;1 contains port 
    allocation classes for FCNOD2. After the next boot,any SCSI 
    controller not assigned in SYS$DEVICES.DAT will use FCNOD2's 
    disk allocation class. 
 
 
Assign port allocation class to which adapter [RETURN for none]: PKA 
Port allocation class for PKA0: 11 
 
        Port Alloclass   11    Adapter FCNOD2$PKA 
 
Assign port allocation class to which adapter [RETURN for none]: PKB 
Port allocation class for PKB0: 20 
 
        Port Alloclass   11    Adapter FCNOD2$PKA 
        Port Alloclass   20    Adapter FCNOD2$PKB 
 
Assign port allocation class to which adapter [RETURN for none]: 
 
  WARNING: FCNOD2 must be rebooted to make port allocation class 
           specifications in SYS$DEVICES.DAT take effect. 
Will a disk local only to FCNOD2 (and not accessible at this time to FCNOD1) 
be used for paging and swapping (Y/N)? N 
 
    If you specify a device other than DISK$V72_SSB: for FCNOD2's 
    page and swap files,this procedure will create PAGEFILE_FCNOD2.SYS 
    and SWAPFILE_FCNOD2.SYS in the [SYSEXE] directory on the device you 
    specify. 
 
What is the device name for the page and swap files [DISK$V72_SSB:]? 
%SYSGEN-I-CREATED,$20$DKA400:[SYS10.SYSEXE]PAGEFILE.SYS;1 created 
%SYSGEN-I-CREATED,$20$DKA400:[SYS10.SYSEXE]SWAPFILE.SYS;1 created 
    The configuration procedure has completed successfully. 
 
    FCNOD2 has been configured to join the cluster. 
 
    The first time FCNOD2 boots,NETCONFIG.COM and 
    AUTOGEN.COM will run automatically. 


目次 索引

© 2012 Hewlett-Packard Development Company, L.P.