17.2 Installationsvorgang

17.2.1 Konfigurieren des iSCSI-Servers

Ein iSCSI-Ziel ist ein Gerät, das als freigegebener Speicher für alle Knoten in einem Cluster konfiguriert ist. Dieser virtuelle Datenträger wird auf dem Linux-Server erstellt und ermöglicht den Remote-Zugriff eines iSCSI-Initiators über eine Ethernet-Verbindung. Ein iSCSI-Initiator ist ein beliebiger Knoten im Cluster, der für das Herstellen einer Verbindung zum Ziel (iSCSI) zur Erbringung von Diensten konfiguriert ist. Das iSCSI-Ziel sollte ununterbrochen ausgeführt werden, damit jeder Host, der als Initiator auftritt, das Ziel ansprechen kann. Bevor Sie das iSCSI-Ziel auf dem iSCSI-Server installieren, überprüfen Sie, ob auf dem iSCSI-Ziel ausreichend Speicherplatz für den freigegebenen Speicher verfügbar ist. Installieren Sie die iSCSI-Initiatorpakete nach der Installation von SLES 12 SP3 auf den beiden anderen Knoten.

Beachten Sie Folgendes während der Installation von SLES 12 SP3:

  1. Erstellen Sie eine separate Partition, und legen Sie den Partitionspfad als Partition mit dem freigegebenen iSCSI-Speicher fest.

  2. Installieren Sie die iSCSI-Zielpakete.

So konfigurieren Sie den iSCSI-Server:

  1. Erstellen Sie ein Blockgerät auf dem Zielserver.

  2. Geben Sie im Terminal den Befehl yast2 disk ein.

  3. Erstellen Sie eine neue Linux-Partition, und wählen Sie Nicht formatieren.

  4. Wählen Sie Partition nicht einhängen.

  5. Legen Sie die Partitionsgröße fest.

  6. Geben Sie am Terminal den Befehl yast2 iscsi-server oder yast2 iscsi-lio-server ein.

  7. Klicken Sie auf die Registerkarte Dienst und wählen Sie Beim Booten in Dienst starten.

  8. Klicken Sie auf der Registerkarte Ziele auf Hinzufügen, und geben Sie den Partitionspfad ein (während der SLES-Installation erstellt).

  9. Geben Sie auf der Seite iSCSI-Ziel-Initiator-Einrichtung bearbeiten die iSCSI-Client-Initiator-Hostnamen für den Zielserver an und klicken Sie auf Weiter.

    Beispiel: iqn.sles12sp3node3.com und iqn.sles12sp2node3.com.

  10. Klicken Sie auf Fertig stellen.

  11. Überprüfen Sie, ob das iSCSI-Ziel installiert wurde. Geben Sie hierzu den Befehl cat /proc/net/iet/volume im Terminal ein.

17.2.2 Konfigurieren des iSCSI-Initiators auf allen Knoten

Sie müssen den iSCSI-Initiator auf allen Clusterknoten konfigurieren, die eine Verbindung zum iSCSI-Ziel herstellen.

So konfigurieren Sie den iSCSI-Initiator:

  1. Installieren Sie die iSCSI-Initiatorpakete.

  2. Führen Sie im Terminal den Befehl yast2 iscsi-client aus.

  3. Klicken Sie auf die Registerkarte Dienst und wählen Sie Beim Booten in Dienst starten.

  4. Klicken Sie auf die Registerkarte Verbundene Ziele, klicken Sie auf Hinzufügen, und geben Sie die IP-Adresse des iSCSI-Zielservers ein.

  5. Wählen Sie Keine Authentifizierung.

  6. Klicken Sie auf Weiter und dann auf Verbinden.

  7. Klicken Sie auf Start umschalten, ändern Sie die Startoption von „Manuell“ in „Automatisch“, und klicken Sie auf Weiter.

  8. Klicken Sie auf Weiter und anschließend auf OK.

  9. Überprüfen Sie den Status des verbundenen Zielservers. Führen Sie hierzu den Befehl cat /proc/net/iet/session auf dem Zielserver aus. Die Liste der Initiatoren, die mit dem iSCSI-Server verbunden sind, wird angezeigt.

17.2.3 Partitionieren des freigegebenen Speichers

Erstellen Sie im freigegebenen Speicher je eine Partition für SBD und für Cluster File System.

So partitionieren Sie den freigegebenen Speicher:

  1. Führen Sie im Terminal den Befehl yast2 disk aus.

  2. Wählen Sie im Dialogfeld Partitionierungsexperte das freigegebene Volume aus. In diesem Beispiel wählen Sie im Dialogfeld Partitionierungsexperte den Eintrag sdb.

  3. Klicken Sie auf Hinzufügen, wählen Sie Primäre Partition, und klicken Sie auf Weiter.

  4. Wählen Sie Benutzerdefinierte Größe, und klicken Sie auf Weiter. In diesem Beispiel beträgt die benutzerdefinierte Größe 100 MB.

  5. Wählen Sie unter Formatierungsoptionen die Option Partition nicht formatieren. In diesem Beispiel lautet die Dateisystem-ID „0x83 Linux“.

  6. Wählen Sie unter Einhängeoptionen die Option Partition nicht einhängen, und klicken Sie auf Fertig stellen.

  7. Klicken Sie auf Hinzufügen, und wählen Sie Primäre Partition.

  8. Klicken Sie auf Weiter, wählen Sie Max. Größe, und klicken Sie auf Weiter.

  9. Wählen Sie unter Formatierungsoptionen die Option Partition nicht formatieren. In diesem Beispiel geben Sie die Dateisystem-ID „0x83 Linux“ an.

  10. Wählen Sie unter Einhängeoptionen die Option Partition nicht einhängen, und klicken Sie auf Fertig stellen.

17.2.4 Installieren der HA-Erweiterung

So installieren Sie die HA-Erweiterung:

  1. Gehen Sie zur SUSE Downloads-Website.

    Die SUSE Linux Enterprise High Availability Extension (SLE HA) steht für die verfügbaren Plattformen als je zwei ISO-Images zum Herunterladen bereit. Medium 1 enthält die Binärpakete und Medium 2 den Quellcode.

    HINWEIS:Wählen Sie die entsprechende ISO-Datei mit der HA-Erweiterung für Ihre Systemarchitektur aus.

  2. Laden Sie die ISO-Datei für Medium 1 auf die einzelnen Server herunter.

  3. Öffnen Sie das Dialogfeld YaST-Kontrollzentrum, und klicken Sie auf Zusatzprodukte > Hinzufügen.

  4. Klicken Sie auf Durchsuchen, wählen Sie die DVD oder das lokale ISO-Image aus und klicken Sie auf Weiter.

  5. Wählen Sie auf der Registerkarte Muster die Option Hochverfügbarkeit unter Primäre Funktionen.

    Prüfen Sie, ob alle Komponenten mit hoher Verfügbarkeit installiert wurden.

  6. Klicken Sie auf Akzeptieren.

17.2.5 Einrichten des softdog-Watchdog

In der SLES-HA-Erweiterung ist die Unterstützung für die Überwachung im Kernel standardmäßig aktiviert. Die Erweiterung umfasst einige Kernelmodule mit hardwarespezifischen Überwachungstreibern. Der entsprechende Überwachungstreiber für Ihre Hardware wird automatisch beim Booten des Systems geladen.

  1. Aktivieren Sie den softdog-Watchdog:

    echo softdog > /etc/modules-load.d/watchdog.conf

    systemctl restart systemd-modules-load

  2. Testen Sie, ob das softdog-Modul richtig geladen wurde:

    lsmod | grep dog

17.2.6 Konfigurieren des HA-Clusters

In diesem Beispiel wird vorausgesetzt, dass Sie zwei Knoten in einem Cluster konfigurieren.

Einrichtung des ersten Knotens:

  1. Melden Sie sich als root an dem physischen oder virtuellen Rechner an, den Sie als Cluster-Knoten verwenden möchten.

  2. Führen Sie den folgenden Befehl aus:

    ha-cluster-init

    Der Befehl führt eine Prüfung im Hinblick auf die NTP-Konfiguration und einen Hardware-Watchdog-Service durch. Es generiert die öffentlichen und privaten SSH-Schlüssel, die für den SSH-Zugriff und die Csync2-Synchronisierung verwendet werden, und startet die entsprechenden Services.

  3. Konfigurieren Sie die Cluster-Kommunikationsschicht:

    1. Geben Sie eine Netzwerkadresse ein, an die eine Bindung erfolgen soll.

    2. Geben Sie eine Multicast-Adresse ein. Das Skript schlägt eine Zufallsadresse vor, die Sie als Standard verwenden können.

    3. Geben Sie einen Multicast-Port ein. Standardmäßig lautet die Portnummer 5405.

  4. Richten Sie SBD als Fencing-Mechanismus für Knoten ein:

    1. Mit j geben Sie an, dass SBD verwendet werden soll.

    2. Geben Sie einen persistenten Pfad zu der Partition Ihres Blockgeräts ein, die Sie für SBD verwenden möchten. Der Pfad muss bei beiden Knoten im Cluster konsistent sein.

  5. Konfigurieren Sie eine virtuelle IP-Adresse für die Cluster-Verwaltung:

    1. Mit j geben Sie an, dass eine virtuelle IP-Adresse konfiguriert werden soll.

    2. Geben Sie eine nicht verwendete IP-Adresse ein, die Sie als Verwaltungs-IP für die SUSE Hawk-Benutzeroberfläche verwenden möchten. Beispiel: 192.168.1.3.

      Sie können auch eine Verbindung mit der virtuellen IP-Adresse herstellen, statt sich an einem einzelnen Cluster-Knoten anzumelden.

Sobald der erste Knoten ausgeführt wird, fügen Sie den zweiten Cluster-Knoten mit dem Befehl ha-cluster-join hinzu.

Einrichtung des zweiten Knotens:

  1. Melden Sie sich als Root-Benutzer bei dem physischen oder virtuellen Computer an, der mit dem Cluster verbunden werden soll.

  2. Führen Sie den folgenden Befehl aus:

    ha-cluster-join

    Wenn NTP nicht konfiguriert ist, wird eine Meldung angezeigt. Der Befehl prüft, ob ein Hardware-Watchdog-Gerät vorhanden ist, und gibt eine Benachrichtigung aus, wenn ein solches Gerät fehlt.

  3. Geben Sie die IP-Adresse des ersten Knotens ein.

  4. Geben Sie das Root-Passwort des ersten Knotens ein.

  5. Melden Sie sich bei der SUSE Hawk-Benutzeroberfläche an und klicken Sie auf StatusKnoten. Beispiel: https://192.168.1.3:7630/cib/live.

17.2.7 Installieren und Konfigurieren des Identitätsdepots und der Identity Manager-Engine auf Clusterknoten

  1. Installieren Sie die Identity Manager-Engine auf den Clusterknoten:

    1. Laden Sie die Datei Identity_Manager_4.8_Linux.iso von der NetIQ Downloads-Website herunter.

    2. Stellen Sie die heruntergeladene .iso-Datei bereit.

    3. Führen Sie am Speicherort mit eingehängter ISO folgendes Kommando aus:

      ./install.sh

    4. Lesen Sie die Lizenzvereinbarung.

    5. Akzeptieren Sie die Lizenzvereinbarung mit j.

    6. Entscheiden Sie, welche Edition des Identity Manager-Servers installiert werden soll. Geben Sie j für die Advanced Edition bzw. n für die Standard Edition ein.

    7. Wählen Sie Identity Manager-Engine aus der Liste und fahren Sie mit der Installation fort.

      Bei diesem Schritt wird die unterstützte Version des Identitätsdepots installiert.

  2. Konfigurieren Sie die Identity Manager-Engine auf allen Knoten.

    1. Navigieren Sie zu dem Speicherort, an dem Sie die Datei Identity_Manager_4.8_Linux.iso eingehängt haben.

    2. Führen Sie am Speicherort mit eingehängter ISO folgendes Kommando aus:

      ./configure.sh

    3. Entscheiden Sie, ob eine typische oder eine benutzerdefinierte Konfiguration durchgeführt werden soll. Die Konfigurationsoptionen sind abhängig von den Komponenten, die Sie zur Konfiguration auswählen.

    4. Wählen Sie aus der Liste die Komponente Identity Manager-Engine.

    5. Wenn Sie das Identitätsdepot zum ersten Mal konfigurieren, wählen Sie die Option Ein neues Identitätsdepot erstellen. Wenn Sie das Identitätsdepot bereits installiert haben und eine Verbindung zu dieser Identitätsdepot-Instanz herstellen möchten, wählen Sie die Option Zu einem auf dem lokalen Rechner vorhandenen Identitätsdepot hinzufügen oder Zu einem auf dem lokalen Rechner vorhandenen Identitätsdepot hinzufügen.

  3. Navigieren Sie zum Verzeichnis /etc/opt/novell/eDirectory/conf.

  4. Bearbeiten Sie die Datei nds.conf und geben Sie die virtuelle IP-Adresse des Clusters im Feld n4u.nds.preferred-server an.

  5. Beenden Sie den Identitätsdepot-Dienst.

    ndsmanage stopall

  6. Sichern Sie alle Ordner und Dateien in den Verzeichnissen /var/opt/novell/nici, /etc/opt/novell/eDirectory/conf und /var/opt/novell/eDirectory/.

  7. Navigieren Sie zum Verzeichnis /opt/novell/eDirectory/bin.

  8. Führen Sie folgendes Kommando aus:

    nds-cluster-config -s /<Pfad des gemeinsamen Clusters>

    wobei <Pfad des gemeinsamen Clusters> den Speicherort angibt, den Sie für die Daten des Identitätsdepots des gemeinsamen Clusters verwenden möchten.

  9. Starten Sie den Identitätsdepot-Dienst.

    ndsmanage startall

Weitere Informationen zum Konfigurieren des Identitätsdepots in einer geclusterten Umgebung finden Sie im Abschnitt Deploying eDirectory on High Availability Clusters (Bereitstellen von eDirectory in Hochverfügbarkeits-Clustern) im eDirectory Installation Guide (eDirectory-Installationshandbuch).

17.2.8 Konfigurieren der Identitätsdepot-Ressource

  1. Melden Sie sich bei der SUSE Hawk-Benutzeroberfläche an.

  2. Klicken Sie auf Ressource hinzufügen und erstellen Sie eine neue Gruppe.

    1. Klicken Sie auf neben der Gruppe.

    2. Geben Sie eine Gruppen-ID an. Beispiel: Group-1.

      Beim Erstellen einer Gruppe müssen die folgenden untergeordneten Ressourcen ausgewählt werden:

      • stonith-sbd

      • admin_addr (Cluster-IP-Adresse)

  3. Wählen Sie auf der Registerkarte Meta-Attribute im Feld target-role die Option Gestartet und im Feld is-managed die Option Ja.

  4. Klicken Sie auf Create (Erstellen).

  5. Klicken Sie auf Konfiguration bearbeiten und klicken Sie dann auf neben der Gruppe, die Sie in Schritt 2 erstellt haben.

  6. Tragen Sie die folgenden untergeordneten Ressourcen in das Feld Untergeordnete Elemente ein:

    • shared-storage

    • eDirectory-resource

    Fügen Sie die Ressourcen beispielsweise in der nachstehenden Reihenfolge in die Gruppe ein:

    • stonith-sbd

    • admin_addr (Cluster-IP-Adresse)

    • shared-storage

    • eDirectory-resource

    Sie können die Ressourcennamen gegebenenfalls ändern. Jede Ressource umfasst einen Satz mit Parametern, die definiert werden müssen. Weitere Informationen zu Beispielen für shared-storage- und eDirectory-Ressourcen finden Sie unter Stammfunktionen für untergeordnete eDirectory- und shared-storage-Ressourcen.

17.2.9 Stammfunktionen für untergeordnete eDirectory- und shared-storage-Ressourcen

Die Ressourcen stonith-sbd und admin_addr werden standardmäßig mit HA-Cluster-Kommandos beim Initialisieren des Cluster-Knotens konfiguriert.

Tabelle 17-1 Beispiel für shared-storage

Ressourcen-ID

Name der shared-storage-Ressource

Klasse

ocf

Anbieter

heartbeat

Typ

Dateisystem

Gerät

/dev/sdc1

Verzeichnis

/freigegeben

fstype

XFS

operations

  • start (60, 0)

  • stop (60, 0)

  • monitor (40, 20)

is-managed

Ja

resource-stickiness

100

target-role

Angefangen

Tabelle 17-2 Beispiel für eDirectory-Ressource

Ressourcen-ID

Name der eDirectory-Ressource

Klasse

systemd

Typ

ndsdtmpl-shared-conf-nds.conf@-shared-conf-env

operations

  • start (100, 0)

  • stop (100, 0)

  • monitor (100, 60)

target-role

Angefangen

is-managed

Ja

resource-stickiness

100

failure-timeout

125

migration-threshold

0

17.2.10 Ändern des Ortseinschränkungs-Scores

Ändern Sie den Ortseinschränkungs-Score zu dem Wert 0.

  1. Melden Sie sich bei der SUSE Hawk-Benutzeroberfläche an.

  2. Klicken Sie auf Konfiguration bearbeiten.

  3. Klicken Sie auf der Registerkarte Einschränkungen auf neben Knoten 1 im Cluster.

  4. Stellen Sie den Score auf der Registerkarte Einfach auf den Wert 0 ein.

  5. Klicken Sie auf Anwenden.

Der Score muss für alle Knoten im Cluster auf 0 festgelegt sein.

HINWEIS:Wenn Sie die Ressourcen über die SUSE Hawk-Benutzeroberfläche mit der Option Status > Ressourcen > Migrieren von einem Knoten zu einen anderen Knoten migrieren, ändert sich der Ortseinschränkungs-Score zu Unendlich oder –Unendlich. Damit erhält nur ein Knoten im Cluster den Vorrang, sodass die eDirectory-Vorgänge verzögert werden.