17.2 インストール手順

17.2.1 iSCSIサーバの設定

iSCSIターゲットは、クラスタ内のすべてのノードの共通ストレージとして設定するデバイスです。これは、iSCSI Initiatorがイーサネット接続経由でリモートアクセスできるようにLinuxサーバ上に作成される仮想ディスクです。iSCSI Initiatorは、ターゲット(iSCSI)に接続してサービスを要求するように設定されているクラスタ内のノードです。iSCSIターゲットは、イニシエータとして動作するホストがターゲットに接続できるように、常時稼動している必要があります。iSCSIサーバにiSCSIターゲットをインストールする前に、iSCSIターゲットに共通ストレージに使用できる十分な容量があることを確認します。SLES 12 SP3をインストールした後、他の2つのノードにiSCSI Initiatorパッケージをインストールします。

SLES 12 SP3をインストールする際に、次の操作を実行します。

  1. 独立したパーティションを作成し、そのパーティションパスをiSCSI共有ストレージパーティションとして指定します。

  2. iSCSIターゲットパッケージをインストールします。

iSCSIサーバを設定するには:

  1. ターゲットサーバ上にブロックデバイスを作成します。

  2. 端末でyast2 diskコマンドを実行します。

  3. 新しいLinuxパーティションを作成し、フォーマットしないを選択します。

  4. パーティションをマウントしないを選択します。

  5. パーティションサイズを指定します。

  6. 端末でyast2 iscsi-serverまたはyast2 iscsi-lio-serverコマンドを入力します。

  7. サービスタブをクリックしサービスの開始オプションでブート時を選択します。

  8. ターゲットタブで追加をクリックして、パーティションパス(SLESインストール時に作成)を入力します。

  9. Modify iSCSI Target Initiator Setup (iSCSIターゲットイニシエータセットアップの変更)ページで、ターゲットサーバのiSCSIクライアントイニシエータホスト名を指定し、次へをクリックします。

    たとえば、iqn.sles12sp3node3.comおよびiqn.sles12sp2node3.comです。

  10. 完了をクリックします。

  11. 端末でcat /proc/net/iet/volumeコマンドを実行し、iSCSIターゲットがインストールされているかどうかを検証します。

17.2.2 すべてのノード上のiSCSI Initiatorの設定

クラスタのすべてのノードで、iSCSIターゲットに接続するように、iSCSI Initiatorを設定する必要があります。

iSCSI Initiatorを設定するには:

  1. iSCSI Initiatorパッケージをインストールします。

  2. 端末でyast2 iscsi-clientを実行します。

  3. サービスタブをクリックし、サービスの開始オプションでブート時を選択します。

  4. 接続したターゲットタブをクリックし、追加をクリックしてiSCSIターゲットサーバのIPアドレスを入力します。

  5. 認証なしを選択します。

  6. 次へをクリックし、接続をクリックします。

  7. 起動の切り替えをクリックして起動オプションを手動から自動に切り替えて、次へをクリックします。

  8. をクリックし、OKをクリックします。

  9. ターゲットに接続しているイニシエータのステータスをチェックするには、ターゲットサーバ上でcat /proc/net/iet/sessionコマンドを実行します。iSCSIサーバに接続しているイニシエータのリストが表示されます。

17.2.3 共有ストレージのパーティション化

SBD用とクラスタファイルシステム用の2つの共有ストレージパーティションを作成します。

共有ストレージをパーティション化するには:

  1. 端末でyast2 diskコマンドを実行します。

  2. エキスパートパーティショナダイアログボックスで共有ボリュームを選択します。この例では、エキスパートパーティショナダイアログボックスでsdbを選択します。

  3. 追加をクリックし、プライマリパーティションオプションを選択して次へをクリックします。

  4. カスタムサイズを選択し、次へをクリックします。この例では、カスタムサイズは100MBです。

  5. フォーマットのオプションパーティションをフォーマットしないを選択します。この例では、[ファイルシステムID]は[0x83 Linux]です。

  6. マウントのオプションパーティションをマウントしないを選択し、完了をクリックします。

  7. 追加をクリックし、プライマリパーティションを選択します。

  8. 次へをクリックし、最大サイズを選択して次へをクリックします。

  9. フォーマットのオプションパーティションをフォーマットしないを選択します。この例では、[ファイルシステムID]は[0x83 Linux]です。

  10. マウントのオプションパーティションをマウントしないを選択し、完了をクリックします。

17.2.4 HA Extensionのインストール

HA Extensionをインストールするには:

  1. SUSE DownloadsのWebサイトに移動します。

    使用可能な各プラットフォームでは、SUSE Linux Enterprise High Availability Extension (SLE HA)を2つのISOイメージとしてダウンロードできます。メディア1にはバイナリパッケージが、メディア2にはソースコードが含まれます。

    メモ:システムアーキテクチャに基づいて適切なHA Extension ISOファイルを選択し、インストールします。

  2. 各サーバにメディア1 ISOファイルをダウンロードします。

  3. YaST コントロールセンターダイアログボックスを開いて、アドオン製品]>[追加の順にクリックします。

  4. 参照をクリックし、DVDまたはローカルISOイメージを選択して、次へをクリックします。

  5. パターンタブで、Primary Functions (プライマリ機能)の下にある高可用性を選択します。

    [高可用性]の下にあるすべてのコンポーネントがインストールされていることを確認します。

  6. 承諾をクリックします。

17.2.5 softdogウォッチドッグのセットアップ

SLES HA Extensionでは、カーネルのウォッチドッグサポートはデフォルトで有効です。ウォッチドッグサポートは、ハードウェア固有のウォッチドッグドライバを提供するさまざまなカーネルモジュールに付属しています。ハードウェアに適したウォッチドッグドライバが、システム再起動時に自動的にロードされます。

  1. softdogウォッチドッグを有効にします。

    echo softdog > /etc/modules-load.d/watchdog.conf

    systemctl restart systemd-modules-load

  2. softdogモジュールが正しくロードされているかどうかをテストします。

    lsmod | grep dog

17.2.6 HAクラスタの設定

この例では、クラスタで2つのノードを設定していることを前提としています。

最初のノードの設定:

  1. クラスタノードとして使用したい物理または仮想マシンにrootとしてログインします。

  2. 次のコマンドを実行します。

    ha-cluster-init

    このコマンドは、NTP設定とハードウェアウォッチドッグサービスを確認します。また、SSHアクセスとCsync2の同期に使用される公開および秘密SSHキーが生成され、それぞれのサービスが起動されます。

  3. クラスタ通信層を設定します。

    1. バインドするネットワークアドレスを入力します。

    2. マルチキャストアドレスを入力します。スクリプトはデフォルトとして使用できるランダムなアドレスを提案します。

    3. マルチキャストポートを入力します。デフォルトでは、ポートは5405です。

  4. SBDをノードフェンシングメカニズムとして設定します。

    1. SBDを使用するには、「y」を押します。

    2. SBDに使用するブロックデバイスのパーティションの永続的なパスを入力します。パスはクラスタ内の両方のノードで一致している必要があります。

  5. クラスタを管理するための仮想IPアドレスを設定します。

    1. 仮想IPアドレスを設定するには、「y」を押します。

    2. SUSE Hawk GUIの管理IPとして使用する、未使用のIPアドレスを入力します。たとえば、192.168.1.3と入力します。

      個々のクラスタノードにログインする代わりに、その仮想IPアドレスに接続できるようになります。

最初のノードが稼働したら、ha-cluster-joinコマンドを使用して2番目のクラスタノードを追加します。

2番目のノードの設定:

  1. クラスタに接続する物理マシンまたは仮想マシンにrootとしてログインします。

  2. 次のコマンドを実行します。

    ha-cluster-join

    NTPが設定されていない場合は、メッセージが表示されます。コマンドはハードウェアウォッチドッグデバイスを確認し、存在していない場合はそのことを知らせます。

  3. 最初のノードのIPアドレスを入力します。

  4. 最初のノードのrootパスワードを入力します。

  5. SUSE Hawk GUIにログインして、ステータス>ノードの順にクリックします。たとえば、https://192.168.1.3:7630/cib/liveです。

17.2.7 クラスタノードでのアイデンティティボールトおよびIdentity Managerエンジンのインストールと設定

  1. クラスタノードにIdentity Managerエンジンをインストールします。

    1. NetIQダウンロードWebサイトからIdentity_Manager_4.8_Linux.isoをダウンロードします。

    2. ダウンロード済みの.isoをマウントします。

    3. ISOがマウントされた場所から、次のコマンドを実行します。

      ./install.sh

    4. 使用許諾契約を読みます。

    5. 使用許諾契約の条項を確認し、「y」と入力します。

    6. インストールするIdentity Managerサーバのエディションを決定します。Advanced Editionの場合は「y」、Standard Editionの場合は「n」と入力します。

    7. リストからIdentity Managerエンジンを選択し、インストールを続行します。

      この手順では、サポートされているアイデンティティボールトのバージョンをインストールします。

  2. すべてのノードでIdentity Managerエンジンを設定します。

    1. Identity_Manager_4.8_Linux.isoをマウントした場所に移動します。

    2. ISOがマウントされた場所から、次のコマンドを実行します。

      ./configure.sh

    3. 標準設定またはカスタム設定のどちらを実行するかを決定します。設定オプションは、設定用に選択したコンポーネントに応じて変わります。

    4. リストからIdentity Managerエンジンコンポーネントを選択します。

    5. 初めてアイデンティティボールトを設定する場合は、Create a new Identity Vault (アイデンティティボールトの新規作成)オプションを選択します。アイデンティティボールトを以前にインストールしていて、そのアイデンティティボールトインスタンスに接続する場合は、Add to an Identity Vault existing on local machine (ローカルマシンに存在するアイデンティティボールトに追加)またはAdd to an Identity Vault existing on local machine (ローカルマシンに存在するアイデンティティボールトに追加)オプションを選択します。

  3. /etc/opt/novell/eDirectory/confディレクトリに移動します。

  4. nds.confファイルを編集し、n4u.nds.preferred-serverフィールドにクラスタの仮想IPアドレスを指定します。

  5. アイデンティティボールトサービスを停止します。

    ndsmanage stopall

  6. /var/opt/novell/nici/etc/opt/novell/eDirectory/conf、および/var/opt/novell/eDirectory/ディレクトリから、すべてのフォルダとファイルをバックアップします。

  7. /opt/novell/eDirectory/binディレクトリに移動します。

  8. 次のコマンドを実行します。

    nds-cluster-config -s /<shared cluster path>

    ここで、<shared cluster path>は、アイデンティティボールト共有クラスタデータに使用する場所を示します。

  9. アイデンティティボールトサービスを開始します。

    ndsmanage startall

クラスタ化されたセットアップでのアイデンティティボールドの設定の詳細については、『eDirectory Installation Guide』の「Deploying eDirectory on High Availability Clusters」を参照してください。

17.2.8 アイデンティティボールトのリソースの設定

  1. SUSE Hawk GUIにログインします。

  2. リソースの追加をクリックし、新しいグループを作成します。

    1. グループの横のをクリックします。

    2. グループIDを指定します。たとえば、Group-1です。

      グループの作成時に次の子リソースが選択されていることを確認します。

      • stonith-sbd

      • admin_addr (クラスタIPアドレス)

  3. Meta Attributes (メタ属性)タブで、target-roleフィールドを[開始日]に、is-managedフィールドを[はい]に設定します。

  4. 作成]をクリックします。

  5. Edit Configuration (設定の編集)をクリックし、手順2で作成したグループの横にあるをクリックします。

  6. フィールドで、次の子リソースを追加します。

    • shared-storage

    • eDirectory-resource

    たとえば、グループ内では次の順序でリソースを追加する必要があります。

    • stonith-sbd

    • admin_addr (クラスタIPアドレス)

    • shared-storage

    • eDirectory-resource

    必要に応じてリソース名を変更できます。すべてのリソースに、定義する必要があるパラメータのセットがあります。shared-storageおよびeDirectoryリソースの例については、eDirectoryおよび共有ストレージの子リソースのプリミティブを参照してください。

17.2.9 eDirectoryおよび共有ストレージの子リソースのプリミティブ

「stonith-sbd」リソースとadmin_addrリソースは、クラスタノードの初期化時にHAクラスタコマンドによってデフォルト設定されます。

表 17-1 shared-storageの例

リソースID

共有ストレージリソースの名前

クラス

ocf

プロバイダ

ハートビート

タイプ

ファイルシステム

デバイス

/dev/sdc1

ディレクトリ

/shared

fstype

xfs

操作

  • start (60, 0)

  • stop (60, 0)

  • monitor (40, 20)

is-managed

対応

resource-stickiness

100

target-role

開始日

表 17-2 eDirectory-resourceの例

リソースID

eDirectoryリソースの名前

クラス

systemd

タイプ

ndsdtmpl-shared-conf-nds.conf@-shared-conf-env

操作

  • start (100, 0)

  • stop (100, 0)

  • monitor (100, 60)

target-role

開始日

is-managed

対応

resource-stickiness

100

failure-timeout

125

migration-threshold

0

17.2.10 場所制約スコアの変更

場所制約スコアを0に変更します。

  1. SUSE Hawk GUIにログインします。

  2. Edit Configuration (設定の編集)をクリックします。

  3. 制約タブで、クラスタのノード1の横にあるをクリックします。

  4. Simple (シンプル)タブで、スコアを0に設定します。

  5. 適用をクリックします。

クラスタ内のすべてのノードに対してスコアを0に設定してください。

メモ:SUSE Hawk GUIのステータス>リソース>移行オプションを使用して、あるノードから別のノードにリソースを移行する場合は、場所制約スコアがInfinityまたは-Infintityに変わります。これにより、クラスタ内で1つのノードのみが優先され、eDirectory操作の遅延を招きます。