日本-日本語
日本HPホーム 製品 & サービス OpenVMS製品情報
≫  お問い合わせ


OpenVMS マニュアル


 

OpenVMSドキュメント
ライブラリ

タイトルページ
目次
まえがき
第1章:システム構成の概要
第2章:ビジネス要件とアプリケーション要件の決定
第3章:システムの選択
第4章:インターコネクトの選択
第5章:ストレージ・サブシステムの選択
第6章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第7章:ストレージ・インターコネクトとしての Fibre Channel の構成
第8章:可用性を目的とした OpenVMS Cluster の構成
第9章:スケーラビリティを目的とした OpenVMS Cluster の構成
第10章:システム管理の手法
付録A :インターコネクトとしての SCSI
付録B :MEMORY CHANNEL 技術概要
付録C :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引

第 10 章
OpenVMS Cluster システム管理の手法

この章では,OpenVMS Cluster をフルに活用するための主なシステム管理の手法について説明します。OpenVMS Cluster の一般的なシステム管理の実践については,『OpenVMS Cluster システム』を参照してください。

この章では,システム・ディスク,クォーラム・ディスク,OpenVMS Cluster 遷移など,システム管理の基本的な概念を理解していることを前提としています。

この章の構成は,以下のとおりです。

  • システム・ディスクの手法

  • 共通のマルチ環境

  • クォーラムの手法

  • 状態遷移の手法

  • 同じ OpenVMS Cluster に複数の OpenVMS のバージョン

  • 1 つの OpenVMS Cluster に複数のプラットフォーム (Integrity システムおよび Alpha システム)



10.1 シンプルな構成と複雑な構成

OpenVMS Cluster ソフトウェアは,大半のシステム管理のタスクが 1 回ですむため,システム管理者の仕事が軽減されます。このことは,OpenVMS Cluster の全機能を必要とせず,シンプルな構成で対応できるビジネス要件において特にはっきりとした効果が出ます。シンプルな構成は,新しくシステム管理者になった人だけでなく,経験豊かなシステム管理者にとっても魅力的であり,ノードが 3 個から 7 個,ユーザが 20 人から 30 人,ストレージが 100 GB 程度の小規模な OpenVMS Clusterに最適です。

複雑な OpenVMS Cluster 構成の場合で,可用性,スケーラビリティ,パフォーマンスを実現するには,高度なシステム管理方法が必要です。

関連項目: 複雑な OpenVMS Cluster 構成の例については, 図 10-2 を参照してください。

システム管理の選択にあたっては,簡潔性と,複雑な OpenVMS Clusterで要求されるその他の管理タスクとの調和を考慮したシステム管理方法を選択してください。

10.2 システム・ディスクの手法

システム・ディスクには,システム・ファイルと環境ファイルが含まれています。

システム・ファイルは,ランタイム・ライブラリなど主に読み込み専用のイメージとコマンド・プロシージャであり,クラスタ規模でアクセスします。

環境ファイルは,個々のユーザに合った環境を作成するためのファイルです。すべての環境ファイルをクラスタ規模でアクセスできるようにすれば共通環境ができます。また,特定の環境ファイルについてアクセスできるユーザやシステムを限定すればマルチ環境になります。

10.2.1 シングル・システム・ディスク

シングル・システム・ディスクと共通環境という簡潔な構成の場合は,システム管理も簡単です。必要なほとんどの作業は 1 回で済みます。また,システム・ファイルと環境ファイルは同じディスクに常駐します。 ページ・ファイルとスワップ・ファイルもシステム・ディスクに常駐します。

図 10-1 は,共通環境を備えたシンプルな OpenVMS Cluster の別の例です。

図 10-1 シングル・システム・ディスクのシンプルな LAN OpenVMS Cluster


図 10-1 では,6 つのサテライトと 1 つのブート・サーバを Ethernet で接続しています。各サテライトには,専用のページ・ディスクとスワップ・ディスクがあり,これでシステム・ディスクの領域を節約するとともに, Ethernet からのページ・ファイルとスワップ・ファイルの I/O 処理を取り除きます。システム・ディスクからページ・ファイルとスワップ・ファイルを取り除いたことで, OpenVMS Cluster のパフォーマンスが強化できます。

シングル・システム・ディスクの構成で,多くの OpenVMS Cluster 要件に対応できますが,マルチ・システム・ディスクにもいくつかの長所があります。

10.2.2 マルチ・システム・ディスク

Integrity システムと Alpha システムの両方を組み込んだ OpenVMS Clusterには,複数のシステム・ディスクすなわち OpenVMS Integrity のシステム・ディスクと Alpha システム・ディスクが必要です。 表 10-1 で,(アーキテクチャに関係なく) システム管理者が OpenVMS Cluster で複数のシステム・ディスクを必要とする理由を補足説明します。

表 10-1 マルチ・システム・ディスクの長所
長所 説明
短縮されたブート時間 3 つ以上のシステムを同時にブートしようとすると,シングル・システム・ディスクでは,ボトルネックになる可能性があります。

ブート時間は以下の要素によって大きく異なります。

  • LAN の利用率

  • システム・ディスクの処理速度

  • マウントされているディスクの数

  • インストールされているアプリケーションの数

  • ブート・ノードとサテライトの距離

  • ブート・ノードの処理能力

  • システム・ディスクに環境ファイルがあるか

  • システム・ディスクがシャドウ化されているか

書き込み処理の負荷が高い環境ファイル (SYSUAF.DAT など) がシステム・ディスクにない場合,Volume Shadowing for OpenVMS ソフトウェアは,ディスクの読み込みパフォーマンスの強化に有効です。

強化されたシステムとアプリケーションのパフォーマンス 一定以上の使用頻度の各種アプリケーションを搭載した OpenVMS Cluster では,ノードごとにローカル・システム・ディスクを設けるか,システム・ディスクが担当するシステムを少数に限定するとパフォーマンス面で効果的です。長所は,イメージ起動時間が短く,LAN のサービス対象になるファイルが少ない点です。

Alpha ワークステーションは,ローカル・システム・ディスクに適しています。強力な Alpha プロセッサでは,システム・ディスク・アクセス程待たなくてもすむためです。

関連項目: 詳細については, 第 9.4.5 項 を参照してください。

LAN の利用率の削減 システム・ディスクによる LAN の利用率が下がれば, LAN によるサービス対象のファイルも減ります。LAN セグメントとそのブート・サーバを,セグメント外の不要なトラフィックから分離すれば,LAN パス接続も少なくて済みます。

関連項目: 詳細については, 第 10.2.4 項 を参照してください。

OpenVMS Cluster 可用性の増加 シングル・システム・ディスクは,単一点障害の要因になる可能性があります。ブート・サーバとシステム・ディスクを増加すれば,シングル・リソースにおける OpenVMS Cluster に対する依存度が下がり,可用性が高くなります。



10.2.3 マルチ・システム・ディスク OpenVMS Cluster

図 10-2 のようにシステム・ディスクを配置すると,ブート時間と LAN の利用率を下げることができます。

図 10-2 共通環境におけるマルチ・システム・ディスク


図 10-2 は,マルチ・システム・ディスクの OpenVMS Cluster です。

  • Alpha 1,Alpha 2,Alpha 3 に各 1 つずつのページおよびスワップ・ファイル・ディスク

  • LAN セグメント上のブート・サーバに各 1 つずつのシステム・ディスク

この構成におけるマルチ・システム・ディスクと,LAN セグメントの分割使用形態は,効率的でタイミングの良いブート・シーケンスを可能にします。

10.2.4 OpenVMS Cluster システムの分割

第 9.4 節 に示すワークステーション・サーバの例で,障害後の OpenVMS Cluster のリブートは比較的簡潔です。これはサーバ当たりのサテライト数が少ないためです。ただし, 図 10-2 に示す大規模な OpenVMS Cluster 構成のリブートは慎重に計画する必要があります。この項で説明する OpenVMS Cluster の分割とシステム・ディスクの配置により,ブート時間を大幅に節約できます。OpenVMS Cluster を分割すると,LAN セグメントのサテライトの利用率も低下し,サテライト・パフォーマンスが向上します。

この OpenVMS Cluster のディスクには, 表 10-2 に示すように決められた機能があります。

表 10-2 マルチ・システム・ディスクの使用方法
ディスク 内容 目的
共通ディスク OpenVMS Cluster 全体のすべての環境ファイル SYSUAF.DAT,NETPROXY.DAT,QMAN$MASTER.DAT などの環境ファイルは,ブート時に,サテライトを始めすべてのノードがアクセスできます。これにより,サテライト・ブート・サーバは,システム・ファイルとサテライトまでのルート情報だけを扱うことですむようになります。

共通環境を作成し,すべてのシステム・ディスクのパフォーマンスを強化する方法については, 第 10.3 節 を参照してください。

システム・ディスク Alpha 1,Alpha 2,Alpha 3 のシステム・ルート サーバ・システムのパフォーマンスの強化。書き込み処理をする環境ファイルをこのシステム・ディスクから取り除き,このディスクをできるだけ読み込み専用にします。ディスクは,スタートアップ時に,SYLOGICALS.COM にクラスタ規模でマウントできます。
サテライト・ブート・サーバのシステム・ディスク サテライト用のシステム・ファイルまたはルート Alpha 1,Alpha 2,Alpha 3 に関連付けられたシステム・ディスクを解放し,サテライトのサービス専用とし,各 Ethernet セグメントの全 LAN トラフィックを分割します。
ページ・ディスクとスワップ・ディスク 1 つ以上のシステムのページ・ファイルとスワップ・ファイル システム・ディスクの I/O 処理を削減し,システム・ディスクの領域をアプリケーションとシステム・ルートに開放します。

図 10-2 に示す構成用のブート・シーケンスでは,共通ディスクのファイルをサテライトがアクセスできるよう,LAN Ethernet セグメントをブートする前に,ノード Alpha 1,Alpha 2,Alpha 3 がすべてブートされているか確認してください。 FDDI 構成の場合は,サテライトが Alpha 1,Alpha 2,Alpha 3 のシステム・ディスクからブートしないよう, Ethernet-to-FDDI (10/100) ブリッジで MOP(Maintenance Operations Protocol) のフィルタリングを可能にしておきます。この OpenVMS Cluster をブートする順序は,次のとおりです。

  1. Alpha 1,Alpha 2,Alpha 3 をブートする。

  2. サテライトブート・サーバをブートする。

  3. すべてのサテライトをブートする。

関連項目: 拡張 LAN については, 第 9.4.7 項 を参照してください。

10.2.5 まとめ:シングル・システム・ディスク対マルチ・システム・ディスク

表 10-3 を参考に,OpenVMS Cluster 全体で 1 つのシステム・ディスクとするかマルチ・システム・ディスクを使用するか決定してください。

表 10-3 シングル・システム・ディスクとマルチ・システム・ディスクの比較
シングル・システム・ディスク マルチ・システム・ディスク
システム・ディスクのファイルにアクセスするまでの待機時間が長くなることがある。 長く待たなくてもシステム・ディスクのファイルにアクセスでき,プロセッサ・パフォーマンスが高速である。
シングル・リソースの競合が多い。 シングル・リソースの競合が少ない。
サテライトのブート時間が長い。 サテライトのブート時間が短い。
管理するシステム・ディスクは 1 つだけである。 複数のシステム・ディスクを管理しなければならない。
システム管理がシンプルである。 システム・パラメータやファイルのクラスタ規模での調整など,システム管理が複雑である。
ハードウェアとソフトウェアのコストが経済的である。 ハードウェアとソフトウェアにより多くのコストがかかる。特にディスクをシャドウ化した場合。
シングル・システム・ディスクの管理には時間と経験があまり要求されないためシステム管理のコストが経済的である。 マルチ・システム・ディスクの管理にはより多くの時間と経験が要求されるためシステム管理により多くのコストが要求される。



10.3 OpenVMS Cluster 環境の手法

処理上のニーズに合わせて,共通環境とマルチ環境のどちらかを選択します。前者では,環境ファイルがクラスタ規模で共用され,後者では,クラスタ規模で共用されるファイルと,一定の OpenVMS Cluster メンバだけがアクセスできるファイルに分かれます。

以下に示すのは,最も頻繁に使用および操作される OpenVMS Cluster環境ファイルです。

SYS$SYSTEM:SYSUAF.DAT
SYS$SYSTEM:NETPROXY.DAT
SYS$SYSTEM:VMSMAIL_PROFILE.DATA
SYS$SYSTEM:NETNODE_REMOTE.DAT
SYS$MANAGER:NETNODE_UPDATE.COM
SYS$SYSTEM:RIGHTSLIST.DAT
SYS$SYSTEM:QMAN$MASTER.DAT

関連項目: これらのファイルの管理方法についての詳細は,『OpenVMS Cluster システム』を参照してください。

10.3.1 共通環境

共通 OpenVMS Cluster 環境は,OpenVMS Cluster の全ノードで共通な操作環境です。共通環境は,システム・ファイルを共通バージョンで使用できるため,マルチ環境より簡単に管理できます。環境は,以下のようにセットアップします。

  • すべてのノードが同じプログラム,アプリケーション,ユーティリティを実行する。

  • すべてのユーザが同じ種類のアカウントを持ち,同じ論理名が定義される。

  • すべてのユーザがストレージとキューのアクセスを共用する。

  • すべてのユーザが構成のどのノードでもログインでき,他のすべてのユーザと同じ環境で作業できる。

最もシンプルで経済的な環境は,すべての環境ファイルを搭載した 1 つのシステム・ディスクで,OpenVMS Cluster に対応する方法です。この方法の長所は,以下のとおりです。

  • ソフトウェア製品のインストールが 1 回ですむ。

  • すべての環境ファイルが,同じシステム・ディスクにあり,検索および管理が簡単。

  • ブートの依存関係が明快である。



10.3.2 別々の共通ディスクに環境ファイルを配置

すべてのノードが同じシステム・ディスクを共用する OpenVMS Cluster の場合,ほとんどの共通環境ファイルは SYS$SYSTEM ディレクトリに配置します。

ただし,環境ファイルを別のディスクに移動して,OpenVMS Cluster のパフォーマンスを強化することもできます。一般に,環境ファイルの処理はシステム・ディスクの処理の 80% を占めるため,常駐ディスクを分散させればシステム・ディスクの負担が減ります。 図 10-2 は,分割された共通ディスクの例です。

SYSUAF.DAT などの環境ファイルを別の共通ディスクに移動すると,SYSUAF.DAT は, SYS$SYSTEM:SYSUAF.DAT のデフォルト・パスでは見つからなくなります。

関連項目: OpenVMS Cluster の全ノードが新しい場所にある SYSUAF.DAT にアクセスできるようにする方法については,『OpenVMS Cluster システム』を参照してください。

10.3.3 マルチ環境

マルチ環境は,ノードによって異なります。個々のノードやノード・サブセットは以下の目的でセットアップします。

  • ユーザが実行するタスクの種類や必要とするリソースに応じてマルチ・アクセスを提供する。

  • 他のノードでは利用できないリソース・セットを共用する。

  • 一般的なタイムシェアリング・ワークは他のプロセッサに実行させ,機能を限定したリソースで特殊機能を実行する。

  • ログインしたノードに固有の環境で作業する。

図 10-3 は,マルチ環境の例です。

図 10-3 マルチ環境 OpenVMS Cluster


図 10-3 のマルチ環境 OpenVMS Cluster は, 2 つのシステム・ディスクからなります。 1 つは Integrity ノード用であり,他の 1 つは Alpha ノード用です。共通ディスクには,各ノードやノード・グループ用の環境ファイルがあります。 OpenVMS Cluster システム管理者は,一般にシンプルなシングル (共通) 環境を好みますが,すべてのノードがリソースを共用するわけではないマルチ環境の作成時には環境ファイルの多重化が必要です。環境は,それぞれユーザが実行するタスクの種類と使用するリソースに応じて多様化でき,その構成にはさまざまなアプリケーションをインストールできます。

4 個の Fibre Channel ノードのそれぞれが専用のページ・ディスクとスワップ・ディスクを持ち, FC インターコネクト上の Alpha システムと Integrity システム・ディスクにおけるページ処理とスワップ処理の負荷を軽減しています。 FC インターコネクト上のディスクはすべてシャドウ化され,障害の発生時にもディスクを保護することができます。


目次 索引

© 2012 Hewlett-Packard Development Company, L.P.