A.2 Installationsvorgang

In diesem Abschnitt wird die Installation und Konfiguration der nachfolgenden Elemente beim Einrichten der Cluster-Umgebung beschrieben.

A.2.1 Konfigurieren des iSCSI-Servers

Ein iSCSI-Ziel ist ein Gerät, das als freigegebener Speicher für alle Knoten in einem Cluster konfiguriert ist. Dieser virtuelle Datenträger wird auf dem Linux-Server erstellt und ermöglicht den Remote-Zugriff eines iSCSI-Initiators über eine Ethernet-Verbindung. Ein iSCSI-Initiator ist ein beliebiger Knoten im Cluster, der für das Herstellen einer Verbindung zum Ziel (iSCSI) zur Erbringung von Diensten konfiguriert ist. Das iSCSI-Ziel sollte ununterbrochen ausgeführt werden, damit jeder Host, der als Initiator auftritt, das Ziel ansprechen kann. Bevor Sie das iSCSI-Ziel auf dem iSCSI-Server installieren, überprüfen Sie, ob auf dem iSCSI-Ziel ausreichend Speicherplatz für den freigegebenen Speicher verfügbar ist. Installieren Sie die iSCSI-Initiatorpakete nach der Installation von SLES 11 SP3 auf den beiden anderen Knoten.

Beachten Sie Folgendes während der Installation von SLES 11 SP3:

  1. Erstellen Sie eine separate Partition, und legen Sie den Partitionspfad als Partition mit dem freigegebenen iSCSI-Speicher fest.

  2. Installieren Sie die iSCSI-Zielpakete.

So konfigurieren Sie den iSCSI-Server:

  1. Erstellen Sie ein Blockgerät auf dem Zielserver.

  2. Geben Sie im Terminal den Befehl yast2 disk ein.

  3. Erstellen Sie eine neue Linux-Partition, und wählen Sie Nicht formatieren.

  4. Wählen Sie Partition nicht einhängen.

  5. Legen Sie die Partitionsgröße fest.

  6. Geben Sie im Terminal den Befehl yast2 iscsi-server ein.

  7. Klicken Sie auf die Registerkarte Dienst, und wählen Sie Beim Booten in Dienst starten.

  8. Klicken Sie auf der Registerkarte Ziele auf Hinzufügen, und geben Sie den Partitionspfad ein (während der SLES-Installation erstellt).

  9. Klicken Sie auf Fertig stellen.

  10. Überprüfen Sie, ob das iSCSI-Ziel installiert wurde. Geben Sie hierzu den Befehl cat /proc/net/iet/volume im Terminal ein.

A.2.2 Konfigurieren des iSCSI-Initiators auf allen Knoten

Sie müssen den iSCSI-Initiator auf allen Clusterknoten konfigurieren, die eine Verbindung zum iSCSI-Ziel herstellen.

So konfigurieren Sie den iSCSI-Initiator:

  1. Installieren Sie die iSCSI-Initiatorpakete.

  2. Führen Sie im Terminal den Befehl yast2 iscsi-client aus.

  3. Klicken Sie auf die Registerkarte Dienst, und wählen Sie Beim Booten in Dienst starten.

  4. Klicken Sie auf die Registerkarte Verbundene Ziele, klicken Sie auf Hinzufügen, und geben Sie die IP-Adresse des iSCSI-Zielservers ein.

  5. Wählen Sie Keine Authentifizierung.

  6. Klicken Sie auf Weiter und dann auf Verbinden.

  7. Klicken Sie auf Start umschalten, ändern Sie die Startoption von „Manuell“ in „Automatisch“, und klicken Sie auf Weiter.

  8. Klicken Sie auf Weiter und anschließend auf OK.

  9. Überprüfen Sie den Status des verbundenen Zielservers. Führen Sie hierzu den Befehl cat /proc/net/iet/session auf dem Zielserver aus. Die Liste der Initiatoren, die mit dem iSCSI-Server verbunden sind, wird angezeigt.

A.2.3 Partitionieren des freigegebenen Speichers

Erstellen Sie im freigegebenen Speicher je eine Partition für SBD und für OCFS2 (Oracle Cluster File System 2).

So partitionieren Sie den freigegebenen Speicher:

  1. Führen Sie im Terminal den Befehl yast2 disk aus.

  2. Wählen Sie im Dialogfeld Partitionierungsexperte das freigegebene Volume aus. In diesem Beispiel wählen Sie im Dialogfeld Partitionierungsexperte den Eintrag „sdb“ aus.

  3. Klicken Sie auf Hinzufügen, wählen Sie Primäre Partition, und klicken Sie auf Weiter.

  4. Wählen Sie Benutzerdefinierte Größe, und klicken Sie auf Weiter. In diesem Beispiel beträgt die benutzerdefinierte Größe 10 MB.

  5. Wählen Sie unter Formatierungsoptionen die Option Partition nicht formatieren. In diesem Beispiel lautet die Dateisystem-ID „0x83 Linux“.

  6. Wählen Sie unter Einhängeoptionen die Option Partition nicht einhängen, und klicken Sie auf Fertig stellen.

  7. Klicken Sie auf Hinzufügen, und wählen Sie Primäre Partition.

  8. Klicken Sie auf Weiter, wählen Sie Max. Größe, und klicken Sie auf Weiter.

  9. Wählen Sie unter Formatierungsoptionen die Option Partition nicht formatieren. In diesem Beispiel geben Sie die Dateisystem-ID „0x83 Linux“ an.

  10. Wählen Sie unter Einhängeoptionen die Option Partition nicht einhängen, und klicken Sie auf Fertig stellen.

A.2.4 Installieren der HA-Erweiterung

So installieren Sie die HA-Erweiterung:

  1. Gehen Sie zur NetIQ Downloads-Website.

  2. Wählen Sie im Menü Produkt oder Technologie den Eintrag SUSE Linux Enterprise-HA-Erweiterung, und klicken Sie auf Suchen.

    HINWEIS:Wählen Sie die entsprechende ISO-Datei mit der HA-Erweiterung für Ihre Systemarchitektur aus.

  3. Laden Sie die ISO-Datei auf die einzelnen Server herunter.

  4. Öffnen Sie das Dialogfeld YaST-Kontrollzentrum, und klicken Sie auf Zusatzprodukte > Hinzufügen.

  5. Klicken Sie auf Durchsuchen, wählen Sie das lokale ISO-Image aus, und klicken Sie auf Weiter.

  6. Wählen Sie im Dialogfeld Software-Auswahl und Systemaufgaben die Option Hochverfügbarkeit. Wiederholen Sie diesen Schritt auf dem anderen Server.

A.2.5 Konfigurieren des HA-Clusters

Konfigurieren Sie die Unicast-IP-Adressen für Heartbeat:

  1. Konfigurieren Sie die andere Schnittstelle auf beiden Knoten mit der statischen IP-Adresse, die für die Knotenkommunikation (Heartbeat) verwendet werden soll. In diesem Beispiel erhält Knoten1 die IP-Adresse 10.10.10.13 und Knoten2 die IP-Adresse 10.10.10.14.

  2. Testen Sie die Verbindung zwischen den Servern. Senden Sie hierzu über die Hostnamen einen Ping-Befehl an die beiden Server.

    WICHTIG:Wenn die Computer sich gegenseitig keinen Ping-Befehl senden können, bearbeiten Sie die lokale Datei /etc/hosts, und fügen Sie die Hostnamen und die IP-Adressen der anderen Knoten hinzu. In diesem Beispiel enthält die Datei /etc/hosts Folgendes:

    • 10.10.10.13 sles11sp2-idm1

    • 10.10.10.14 sles11sp2-idm2

  3. Führen Sie auf Knoten1 im Terminal den Befehl yast2 cluster aus.

  4. Geben Sie im Dialogfeld Cluster – Kommunikationskanäle die folgenden Details an:

    1. Legen Sie das Transportprotokoll UDPU fest.

    2. Geben Sie die Bindungs-Netzwerkadresse an (Netzwerkadresse der Unicast-IP-Adressen). In diesem Beispiel lautet die Bindungs-Netzwerkadresse 10.10.10.0.

    3. Geben Sie den Multicast-Port an. In diesem Beispiel lautet der Multicast-Port 5405.

    4. Klicken Sie auf Hinzufügen, und geben Sie die IP-Adresse der einzelnen Knoten unter der Mitgliedadresse an. In diesem Beispiel erhält Knoten1 die IP-Adresse 10.10.10.13 und Knoten2 die IP-Adresse 10.10.10.14.

    5. Wählen Sie Knoten-ID automatisch generieren, und klicken Sie auf Weiter.

  5. Wählen Sie im Dialogfeld Cluster – Sicherheit die Option Sicherheitsauthentifizierung aktivieren, legen Sie unter Threads den Wert 1 fest, und klicken Sie auf Authentifizierungsschlüsseldatei generieren.

    Hiermit wird ein Authentifizierungsschlüssel erstellt, über den andere Knoten dem Cluster beitreten können. Dieser Schlüssel wird unter /etc/corosync/authkey gespeichert. Kopieren Sie diese Datei auf den anderen Knoten.

  6. Wählen Sie im Dialogfeld Cluster – Dienst die Option Ein – OpenAIS beim Booten starten, und klicken Sie auf OpenAIS jetzt starten.

  7. Wählen Sie Verwaltung ebenfalls starten, damit der Cluster über crm_gui verwaltet werden kann. Weitere Informationen finden Sie in Abschnitt A.2.2, Konfigurieren des iSCSI-Initiators auf allen Knoten.

  8. Führen Sie in der Kontrollleiste Host synchronisieren die folgenden Schritte aus:

    1. Klicken Sie auf Hinzufügen, und fügen Sie Hostnamen für die Clusterknoten hinzu.

    2. Synchronisieren Sie die Konfigurationsdatei zwischen den Knoten mit Preshared-Keys generieren, und kopieren Sie die Datei dann auf den anderen Knoten. Die Schlüsseldatei ist unter /etc/csync2/key_hagroup gespeichert.

    3. Klicken Sie im Bereich Datei synchronisieren auf Vorgeschlagene Dateien hinzufügen. Hiermit wird automatisch eine Liste der gemeinsamen Dateien generiert, die zwischen den Knoten synchronisiert werden sollen.

    4. Klicken Sie auf csync2 aktivieren und dann auf Weiter.

    5. Klicken Sie auf Weiter und dann auf Fertig stellen.

  9. Legen Sie mit dem Befehl passwd hacluster das Passwort für den hacluster-Benutzer auf allen Knoten fest.

    HINWEIS:Geben Sie auf allen Knoten dasselbe Passwort für den hacluster-Benutzer an.

  10. Kopieren Sie die Konfigurationsdateien und Authentifizierungsschlüssel mit den folgenden Befehlen auf den anderen Knoten:

    • # scp /etc/csync2/csync2.cfg node2:/etc/csync2/

    • # scp /etc/csync2/key_hagroup node2:/etc/csync2/

    • # scp /etc/corosync/authkey node2:/etc/corosync/

    • # scp /etc/corosync/corosync.conf node2:/etc/corosync/

  11. Sobald alle Konfigurationsdateien auf Knoten2 kopiert wurden, booten Sie alle Knoten neu.

  12. Führen Sie den Befehl csync2 -xv aus.

  13. Hängen Sie den freigegebenen Speicher ein. Erstellen Sie hierzu das Verzeichnis mkdir -p /share.

  14. Führen Sie auf Knoten2 die folgenden Schritte aus:

    1. Führen Sie im Terminal den Befehl yast cluster aus.

      HINWEIS:Das Fenster des Assistenten wird nicht geöffnet, da die Konfigurationsdatei bereits kopiert wurde.

    2. Wählen Sie auf der Registerkarte Dienst die Option Prüfung aktiviert – OpenAIS beim Booten starten, und klicken Sie auf OpenAIS jetzt starten.

    3. Klicken Sie auf der Registerkarte csync2 konfigurieren auf csync2 aktivieren und dann auf Fertig stellen.

    4. Hängen Sie den freigegebenen Speicher ein. Erstellen Sie hierzu das Verzeichnis mkdir -p /share.

      Der Cluster sollte ausgeführt werden.

  15. Überprüfen Sie den Status. Führen Sie hierzu im Terminal den Befehl crm_mon aus. Im Folgenden finden Sie ein Beispiel für die Ausgabe:

    ============
    Last updated: Fri Aug 5 16:38:36 2011
    Stack: openais
    Current DC: node1 - partition with quorum
    Version: 1.1.2-2e096a41a5f9e184a1c1537c82c6da1093698eb5
    2 Nodes configured, 2 expected votes
    0 Resources configured.
    ============
    Online: [node1 node2]
    

A.2.6 Konfigurieren der globalen Cluster-Optionen

Eine Ressource ist ein Dienst oder eine Anwendung, die von einem Cluster verwaltet wird. Der Cluster-Software-Stack überwacht die Ressourcen und überprüft, ob sie ordnungsgemäß ausgeführt werden. Falls die Ressourcen aus jeglichen Ursachen angehalten werden, erkennt der Cluster den Fehler. Die betreffende Ressource wird dann auf dem jeweils anderen Knoten gestartet oder neu gestartet, sodass die Hochverfügbarkeit gewährleistet ist. In diesem Beispiel werden die globalen Cluster-Optionen auf Knoten1 konfiguriert.

So konfigurieren Sie die HA-Ressource auf Knoten1:

  1. Führen Sie im Terminal den Befehl crm_gui aus.

  2. Klicken Sie auf Verbindung > Anmelden. Melden Sie sich mit der IP-Adresse für einen der beiden Knoten an.

  3. Klicken Sie auf die Registerkarte CRM-Konfiguration, und ändern Sie den Wert für Standardmäßige Ressourcenbeibehaltung in einen positiven Wert.

    Damit ist gewährleistet, dass die Ressourcen im Cluster im aktuellen Speicherort verbleiben. In diesem Beispiel ist der Wert gleich 1.

  4. Ändern Sie den Eintrag für Keine Quorumrichtlinie in Ignorieren.

    Damit ist gewährleistet, dass die Clusterdienste selbst dann ausgeführt werden, wenn einer der Knoten ausfällt.

  5. Klicken Sie auf Anwenden.

A.2.7 Konfigurieren der OCFS-Ressourcen

Bevor Sie das OCFS2-Volume erstellen können, müssen Sie die folgenden Ressourcen als Dienste im Cluster konfigurieren:

  • Distributed Lock Manager (DLM)

  • O2CB

  • STONITH-Ressource

Für OCFS2 muss auf allen Knoten im Cluster eine DLM-Ressource ausgeführt werden, die in der Regel als Klon konfiguriert wird. In diesem Beispiel werden die OCFS-Ressourcen auf Knoten1 konfiguriert.

Konfigurieren der DLM- und O2CB-Ressourcen

So konfigurieren Sie die DLM- und O2CB-Ressourcen auf Knoten1:

  1. Starten Sie eine Shell, und melden Sie sich als root oder als äquivalenter Benutzer an.

  2. Führen Sie im Terminal den Befehl crm configure aus.

  3. Erstellen Sie mit dem folgenden Befehl Primitive-Ressourcen für DLM und O2CB:

    primitive dlm ocf:pacemaker:controld op monitor interval="60" timeout="60" primitive o2cb ocf:ocfs2:o2cb op monitor interval="60" timeout="60"

    HINWEIS:Der DLM-Ressourcenklon steuert den DLM-Dienst, sodass der Dienst auf allen Knoten im Cluster gestartet wird. Aufgrund der internen Co-Location und Anordnung der Basisgruppe wird der O2CB-Dienst nur auf Knoten gestartet, auf denen bereits ein Exemplar des DLM-Dienstes ausgeführt wird.

  4. Erstellen Sie die Basisgruppe und den Basisklon mit dem folgenden Befehl:

    group base-group dlm o2cb clone base-clone base-group meta interleave="true" target-role="Started"

  5. Rufen Sie die Änderungen mit dem Befehl show ab.

  6. Führen Sie den Befehl commit aus, und geben Sie dann Exit ein.

Konfigurieren von STONITH-Ressourcen

Es wird empfohlen, eine 10 MB große Partition am Anfang des Geräts anzulegen. (In diesem Beispiel wird die SBD-Partition als /dev/sdb1 bezeichnet.)

WICHTIG:Verwenden Sie ausschließlich Gerätenamen, die sich nicht ändern. Zum Bearbeiten eines Geräts müssen Sie /dev/disk/by-id am Anfang des Gerätenamens angeben. Soll beispielsweise das Gerät /dev/disk/by-id/scsi-149455400000000000000000003000000250600000f000000 als SBD-STONITH-Gerät zugewiesen werden, geben Sie den Befehl sbd -d /dev/disk/by-id/scsi 149455400000000000000000003000000250600000f000000 create ein.

Überprüfen Sie den Gerätenamen mit dem Befehl ls -l.

  1. Initialisieren Sie das SBD-Gerät auf Knoten1. Führen Sie hierzu den folgenden Befehl in einem Terminal aus:

    sbd -d /dev/sdb1 create

  2. Überprüfen Sie mit dem Befehl sbd -d /dev/sdb1 dump, ob die folgenden Details auf das Gerät geschrieben wurden:

    • Header-Version: 2

    • Anzahl der Steckplätze: 255

    • Sektorgröße: 512

    • Zeitüberschreitung (Überwachung): 5

    • Zeitüberschreitung (Zuordnung): 2

    • Zeitüberschreitung (Schleife): 1

    • Zeitüberschreitung (msgwait): 10

Einrichten der Software-Überwachung

In der SLES-HA-Erweiterung ist die Unterstützung für die Überwachung im Kernel standardmäßig aktiviert. Die Erweiterung umfasst einige Kernelmodule mit hardwarespezifischen Überwachungstreibern. Der entsprechende Überwachungstreiber für Ihre Hardware wird automatisch beim Booten des Systems geladen.

Softdog ist der am stärksten generisch ausgelegte Treiber. Die Name der meisten Überwachungstreiber enthalten Zeichenfolgen wie „wd“, „wdt“ oder „dog“. Überprüfen Sie daher mit dem folgenden Befehl, welcher Treiber derzeit geladen ist:

lsmod | grep wd

Starten des SBD-Daemons

So starten Sie den SBD-Daemon auf Knoten1:

  1. Halten Sie OpenAIS an. Führen Sie hierzu in einem Terminal den Befehl rcopenais stop aus.

  2. Erstellen Sie die Datei /etc/sysconfig/sbd, und fügen Sie Folgendes hinzu:

    SBD_DEVICE="/dev/sdb1" 
    
    #The next line enables the watchdog support: 
    
    SBD_OPTS="-W"
    

    HINWEIS:Wenn der Zugriff auf das SBD-Gerät nicht möglich ist, kann der Daemon nicht gestartet werden, sodass der Start von OpenAIS verhindert wird.

  3. Führen Sie im Terminal den Befehl yast cluster aus.

  4. Klicken Sie auf der Registerkarte csync2 konfigurieren im Bereich Datei synchronisieren auf Hinzufügen, und geben Sie den Pfad zur SBD-Datei wie folgt ein:

    /etc/sysconfig/sbd

  5. Klicken Sie auf OK.

  6. Klicken Sie im Bereich Datei synchronisieren auf Vorgeschlagene Dateien hinzufügen. Hiermit wird automatisch eine Liste der gemeinsamen Dateien generiert, die zwischen den Knoten synchronisiert werden sollen.

  7. Führen Sie den Befehl csync2 -xv aus.

  8. Ordnen Sie die Knoten mit dem Befehl sbd -d /dev/sdb1 allocate <Knotenname> zu. Zum Zuordnen der Knotennamen zum SBD-Gerät führen Sie diesen Befehl zweimal aus. In diesem Beispiel werden die folgenden Befehle ausgeführt.

    sbd -d/dev/sdb1 allocate sles11sp2-idm1
    sbd -d/dev/sdb1 allocate sles11sp2-idm2
    
  9. Starten Sie OpenAIS mit dem Befehl rcopenais start.

Testen des SBD

So testen Sie den SBD auf Knoten1:

  1. Rufen Sie mit dem Befehl sbd -d /dev/sdb1 list die Knotensteckplätze und ihre aktuellen Meldungen vom SBD-Gerät ab.

  2. Senden Sie mit dem Befehl sbd -d /dev/sdb1 message SLES11SP2-idm2 test eine Testmeldung an einen der Knoten.

    Der Knoten bestätigt den Empfang der Nachricht in den Systemprotokollen. Im Folgenden finden Sie ein Beispiel für eine Meldung:

    Aug 29 14:10:00 SLES11SP2-idm2 sdb1: [13412]: info: Received command test from SLES11SP2-idm1 on disk /dev/sdb1
    

WICHTIG:Aus der Bestätigung geht hervor, dass der SBD auf dem Knoten ausgeführt wird und dass der SBD zum Empfangen von Meldungen bereit ist.

Konfigurieren der Fencing-Ressource

Zum Abschluss der SBD-Einrichtung aktivieren Sie den SBD als STONITH-/Fencing-Mechanismus in der CIB (Cluster Information Base). Führen Sie die folgenden Befehle in einem Terminal auf Knoten1 aus:

node1# crm configure

crm(live)configure# property stonith-enabled="true"

crm(live)configure# property stonith-timeout="60s"

crm(live)configure# primitive stonith_sbd stonith:external/sbd params sbd_device="/dev/sdb1" meta is-managed="true"

crm(live)configure# commit

crm(live)configure# quit

HINWEIS:Der Wert für stonith-timeout ist abhängig vom Wert für msgwait timeout. Wenn Sie für default msgwait timeout beispielsweise einen Zeitraum von 10 Sekunden festlegen, legen Sie 60 Sekunden für stonith-timeout fest.

Erstellen eines OCFS2-Volumes

Bereiten Sie zunächst die Blockgeräte vor, die für das OCFS2-Volume verwendet werden sollen. Behalten Sie die Geräte unverändert bei, wenn das OCFS2-Volume als nicht zugeordneter freier Speicherplatz verwendet werden soll, und erstellen und formatieren Sie dann das OCFS2-Volume mit dem mkfs.ocfs2-Dienstprogramm.

So erstellen Sie das OCFS2-Volume auf Knoten1:

  1. Öffnen Sie ein Terminalfenster, und melden Sie sich als root an.

  2. Überprüfen Sie mit dem Befehl crm_mon, ob der Cluster online ist.

  3. Erstellen Sie ein OCFS2-Dateisystem unter /dev/sdb2, das zwei Clusterknoten unterstützt, und führen Sie den Befehl mkfs.ocfs2 -N 2 /dev/sdb2 aus.

Einhängen eines OCFS2-Volumes

So hängen Sie das OCFS2-Volume auf Knoten1 ein:

  1. Starten Sie eine Shell, und melden Sie sich als root oder als äquivalenter Benutzer an.

  2. Führen Sie den Befehl crm configure aus.

  3. Konfigurieren Sie Pacemaker für das Einhängen des OCFS2-Dateisystems auf allen Knoten im Cluster:

    primitive ocfs2-1 ocf:heartbeat:Filesystem params device="/dev/sdb2" directory="/share" fstype="ocfs2" options="acl" op monitor interval="20" timeout="40" 
    
  4. Fügen Sie das Dateisystem-Primitive mit den folgenden Schritten zur Basisgruppe hinzu, die Sie in Konfigurieren der DLM- und O2CB-Ressourcen konfiguriert haben:

    1. Wählen Sie Basisgruppe bearbeiten.

    2. Bearbeiten Sie die Gruppe im vi-Editor wie folgt, und speichern Sie die Änderungen:

      group base-group dlm o2cb ocfs2-1 meta target-role = "Started"

      HINWEIS:Aufgrund der internen Co-Location und Anordnung der Basisgruppe startet Pacemaker die OCFS2-1-Ressource nur auf Knoten, auf denen bereits eine O2CB-Ressource ausgeführt wird.

  5. Überprüfen Sie mit dem Befehl show, ob alle erforderlichen Ressourcen konfiguriert wurden.

  6. Führen Sie den Befehl commit aus, und geben Sie dann Exit ein.

A.2.8 Konfigurieren der IP-Ressource

Konfigurieren Sie die IP-Ressource mit den folgenden Befehlen auf Knoten1:

node1# crm configure 

crm(live)configure# primitive clusterip ocf:heartbeat:IPaddr operations $id="clusterip-operations" op monitor interval="5s" timeout="60s" params ip="10.52.190.15" meta resource-stickiness="100" target-role="Started" 

crm(live)configure# group eDir_group clusterip meta is-managed="true" target-role="Started" 

crm(live)configure# show 

crm(live)configure# commit 

A.2.9 Installieren und Konfigurieren von eDirectory und Identity Manager auf Clusterknoten

  1. So installieren Sie eDirectory auf Clusterknoten:

    Installieren Sie eine unterstützte Version von eDirectory. Schrittweise Anweisungen zum Konfigurieren von eDirectory in HA-Clustern finden Sie unter „Deploying eDirectory on High Availability Clusters“ (Bereitstellen von eDirectory in Hochverfügbarkeitsclustern) im eDirectory 8.8-Installationshandbuch.

    WICHTIG:Die virtuelle IP-Adresse muss auf Knoten1 konfiguriert sein, bevor Sie eDirectory auf Knoten1 installieren.

  2. Installieren Sie Identity Manager mit der Metaverzeichnis-Server-Option auf Knoten1.

  3. Installieren Sie die Identity Manager-Engine mit der Option DCLUSTER_INSTALL auf Knoten2.

    Führen Sie das Kommando ./install.bin -DCLUSTER_INSTALL="true" im Terminal aus.

    Die Identity Manager-Dateien werden ohne Interaktion mit eDirectory installiert.

A.2.10 Konfigurieren der eDirectory-Ressource

Konfigurieren Sie die eDirectory-Ressource mit den folgenden Befehlen auf Knoten1:

node1# crm configure  

crm(live)configure# primitive eDirectory ocf:heartbeat:eDir88 operations $id="eDirectory-operations" op monitor interval="15s" enabled="true" timeout="60s" on-fail="restart" start-delay="30s" params eDir_config_file="/etc/opt/novell/eDirectory/conf/nds.conf" meta resource-stickiness="100" target-role="Started" 

crm(live)configure# edit eDir_group 


Bearbeiten Sie die Gruppe im vi-Editor, und fügen Sie den Text „eDirectory“ nach „clusterip“ ein, damit die Änderungen gespeichert werden:

group eDir_group clusterip eDirectory \ 

meta is-managed="true" target-role="Started" 

crm(live)configure# show 

crm(live)configure# commit 

Klicken Sie im Hauptfenster der Pacemaker-Benutzeroberfläche auf die Registerkarte „Verwaltung“, und starten Sie eDir_group, falls die Ressourcen nicht bereits ausgeführt werden. In der nachfolgenden Abbildung werden die Ressourcen dargestellt, die in der Cluster-Einrichtung ausgeführt werden.