17.2 Procédure d'installation

17.2.1 Configuration du serveur iSCSI

Une cible iSCSI est un périphérique configuré en tant que périphérique de stockage commun pour tous les noeuds de la grappe. Il s'agit d'un disque virtuel créé sur le serveur Linux afin de permettre l'accès à distance via une connexion Ethernet par un initiateur iSCSI. Tout noeud de la grappe configuré pour contacter la cible (iSCSI) pour des services est un initiateur iSCSI. La cible iSCSI doit toujours être active et en cours d'exécution de sorte que n'importe quel hôte agissant en tant qu'initiateur puisse atteindre la cible. Avant de procéder à l'installation de la cible iSCSI sur le serveur iSCSI, assurez-vous que celle-ci dispose de suffisamment d'espace pour un stockage commun. Installez les paquetages de l'initiateur iSCSI sur les deux autres noeuds après avoir installé SLES 12 SP3.

Pendant l'installation de SLES 12 SP3 :

  1. Créez une partition distincte et indiquez son chemin comme partition de stockage partagé iSCI.

  2. Installez les paquetages cibles iSCSI.

Pour configurer le serveur iSCSI :

  1. Créez un périphérique de bloc sur le serveur cible.

  2. Entrez la commande yast2 disk sur le terminal.

  3. Créez une nouvelle partition Linux et sélectionnez Do not format (Ne pas formater).

  4. Sélectionnez Do not mount the partition (Ne pas monter la partition).

  5. Définissez la taille de la partition.

  6. Entrez la commande yast2 iscsi-server ou yast2 iscsi-lio-server dans le terminal.

  7. Cliquez sur l'onglet Service, puis sélectionnez When Booting (Au démarrage) dans Service Start (Lancement du service).

  8. Sous l'onglet Targets (Cibles), cliquez sur Add (Ajouter) pour entrer le chemin de la partition (tel que créé lors de l'installation de SLES).

  9. Sur la page Modify iSCSI Target Initiator Setup (Modifier la configuration de l'initiateur cible iSCSI), spécifiez les noms d'hôte de l'initiateur du client iSCSI pour le serveur cible, puis cliquez sur Suivant.

    Par exemple, iqn.sles12sp3node3.com et iqn.sles12sp2node3.com.

  10. Cliquez sur Finish (Terminer).

  11. Exécutez la commande cat /proc/net/iet/volume sur le terminal pour vérifier que la cible iSCSI est installée.

17.2.2 Configuration de l'initiateur iSCSI sur tous les noeuds

Vous devez configurer l'initiateur iSCSI sur tous les noeuds de la grappe pour qu'il se connecte à la cible iSCSI.

Pour configurer l'initiateur iSCSI :

  1. Installez les paquetages de l'initiateur iSCSI.

  2. Exécutez le client yast2 iscsi-client sur le terminal.

  3. Cliquez sur l'onglet Service et sélectionnez When Booting (Au démarrage) dans Service Start (Lancement du service).

  4. Cliquez sur l'onglet Connected Targets (Cibles connectées), puis sur Add (Ajouter) pour entrer l'adresse IP du serveur cible iSCSI.

  5. Sélectionnez No Authentication (Aucune authentification).

  6. Cliquez sur Next (Suivant), puis sur Connect (Se connecter).

  7. Cliquez sur Toggle Start-up (Changer le démarrage) pour passer du démarrage manuel au démarrage automatique, puis cliquez sur Next (Suivant).

  8. Cliquez sur Next (Suivant), puis sur OK.

  9. Pour vérifier l'état de l'initiateur connecté sur le serveur cible, exécutez la commande cat /proc/net/iet/session sur le serveur cible. La liste des initiateurs connectés au serveur iSCSI s'affiche.

17.2.3 Partitionnement du stockage partagé

Créez deux partitions de stockage partagé : l'une pour le détecteur de vues de grappe divergentes (SBD) et l'autre pour le système de fichiers en grappe.

Pour partitionner le stockage partagé :

  1. Exécutez la commande yast2 disk sur le terminal.

  2. Dans la boîte de dialogue Expert Partitioner (Partitionneur en mode expert), sélectionnez le volume partagé. Dans notre exemple, sélectionnez sdb dans la boîte de dialogue Expert Partitioner (Partitionneur en mode expert).

  3. Cliquez sur Add (Ajouter), sélectionnez l'option Primary partition (Partition principale), puis cliquez sur Next (Suivant).

  4. Sélectionnez Custom size (Taille personnalisée), puis cliquez sur Next (Suivant). Dans notre exemple, la taille personnalisée est 100 Mo.

  5. Sous Formatting options (Options de formatage), sélectionnez Do not format partition (Ne pas formater la partition). Dans notre exemple, l'ID du système de fichiers est 0x83 Linux.

  6. Sous Mounting options (Options de montage), sélectionnez Do not mount partition (Ne pas monter la partition), puis cliquez sur Finish (Terminer).

  7. Cliquez sur Add (Ajouter), puis sélectionnez Primary partition (Partition principale).

  8. Cliquez sur Next (Suivant), puis sélectionnez Maximum Size (Taille maximale) et cliquez sur Next (Suivant).

  9. Dans Formatting options (Options de formatage), cliquez sur Do not format partition (Ne pas formater la partition). Dans notre exemple, définissez l'ID du système de fichiers comme 0x83 Linux.

  10. Dans Mounting options (Options de montage), sélectionnez Do not mount partition (Ne pas monter la partition), puis cliquez sur Finish (Terminer).

17.2.4 Installation de l'extension Haute disponibilité

Pour installer l'extension Haute disponibilité :

  1. Accédez au site Web des téléchargements SUSE.

    SLE HA (SUSE Linux Enterprise High Availability Extension) est disponible au téléchargement pour chaque plate-forme disponible en tant que deux images ISO. Media 1 contient les paquetages binaires et Media 2 contient le code source.

    REMARQUE :sélectionnez et installez le fichier ISO d'extension Haute disponibilité adapté à votre architecture système.

  2. Téléchargez le fichier ISO Media 1 sur chaque serveur.

  3. Ouvrez la boîte de dialogue Centre de contrôle YaST et cliquez sur Produits complémentaires > Ajouter.

  4. Cliquez sur Parcourir et sélectionnez le DVD ou l'image ISO locale, puis cliquez sur Suivant.

  5. Sous l'onglet Patterns (Modèles), sélectionnez High Availability (Haute disponibilité) sous Primary Functions (Fonctions principales).

    Vérifiez que tous les composants en haute disponibilité sont installés.

  6. Cliquez sur Accepter.

17.2.5 Configuration de la surveillance logicielle (softdog)

Dans l'extension Haute disponibilité de SLES, la prise en charge de la surveillance dans le kernel est activée par défaut. Cette fonctionnalité est fournie avec différents modules de kernel qui proposent des pilotes de surveillance spécifiques au matériel. Le pilote de surveillance correspondant à votre matériel est automatiquement chargé au démarrage du système.

  1. Activez la surveillance logicielle :

    echo softdog > /etc/modules-load.d/watchdog.conf

    systemctl restart systemd-modules-load

  2. Vérifiez si le module de surveillance logicielle est chargé correctement :

    lsmod | grep dog

17.2.6 Configuration de la grappe haute disponibilité

Cet exemple part du principe que vous configurez deux noeuds dans une grappe.

Configuration du premier noeud :

  1. Connectez-vous en tant qu'utilisateur root à la machine physique ou virtuelle que vous souhaitez utiliser comme noeud de grappe.

  2. Exécutez la commande suivante :

    ha-cluster-init

    La commande vérifie la configuration NTP et la présence d'un service de surveillance matérielle. Il génère les clés SSH publiques et privées utilisées pour l'accès SSH et la synchronisation Csync2, et démarre les services respectifs.

  3. Configurez la couche de communication de grappe:

    1. Spécifiez une adresse réseau pour la liaison.

    2. Spécifiez une adresse de multidiffusion. Le script propose une adresse aléatoire que vous pouvez utiliser comme adresse par défaut.

    3. Spécifiez un port de multidiffusion. Le port par défaut est 5405.

  4. Configurez SBD comme mécanisme d'isolation de noeud :

    1. Appuyez sur y (oui) pour utiliser SBD.

    2. Entrez un chemin d'accès persistant à la partition du périphérique de bloc pour lequel vous souhaitez utiliser SBD. Le chemin doit être cohérent sur les deux noeuds de la grappe.

  5. Configurez une adresse IP virtuelle pour l'administration de la grappe :

    1. Appuyez sur y pour configurer une adresse IP virtuelle.

    2. Spécifiez une adresse IP inutilisée à employer comme adresse IP d'administration pour l'interface graphique de SUSE Hawk. Par exemple, 192.168.1.3.

      Au lieu de vous connecter à un noeud de grappe individuel, vous pouvez vous connecter à l'adresse IP virtuelle.

Une fois que le premier noeud est opérationnel et en cours d'exécution, ajoutez le deuxième noeud de grappe à l'aide de la commande ha-cluster-join.

Configuration du second noeud :

  1. Connectez-vous en tant qu'utilisateur root à la machine physique ou virtuelle à l'aide de laquelle vous souhaitez vous connecter à la grappe.

  2. Exécutez la commande suivante :

    ha-cluster-join

    Si le protocole NTP n'est pas configuré, un message s'affiche. La commande recherche un périphérique de surveillance matérielle et vous avertit s'il n'en trouve aucun.

  3. Entrez l'adresse IP du premier noeud.

  4. Entrez le mot de passe root du premier noeud.

  5. Connectez-vous à l'interface graphique de SUSE Hawk, puis cliquez sur État > Noeuds. Par exemple : https://192.168.1.3:7630/cib/live.

17.2.7 Installation et configuration du coffre-fort d'identité et du moteur Identity Manager sur les noeuds de grappe

  1. Installez le moteur Identity Manager sur les noeuds de la grappe :

    1. Téléchargez le fichier Identity_Manager_4.8_Linux.iso à partir du site Web de téléchargement de NetIQ.

    2. Montez le fichier .iso téléchargé.

    3. Depuis l'emplacement de montage du fichier ISO, exécutez la commande suivante :

      ./install.sh

    4. Lisez le contrat de licence.

    5. Entrez o pour accepter l'accord de licence.

    6. Indiquez l'édition de serveur Identity Manager que vous souhaitez installer. Entrez y pour Advanced Edition et n pour Standard Edition.

    7. Sélectionnez moteur Identity Manager dans la liste et procédez à l'installation.

      Cette étape installe la version prise en charge du coffre-fort d'identité.

  2. Configurez le moteur Identity Manager sur tous les noeuds.

    1. Accédez à l'emplacement où vous avez monté le fichier Identity_Manager_4.8_Linux.iso.

    2. Depuis l'emplacement de montage du fichier ISO, exécutez la commande suivante :

      ./configure.sh

    3. Indiquez si vous souhaitez effectuer une configuration standard ou personnalisée. Les options de configuration varient selon les composants que vous sélectionnez pour la configuration.

    4. Sélectionnez le composant Moteur Identity Manager dans la liste.

    5. Si vous configurez le coffre-fort d'identité pour la première fois, sélectionnez l'option Créer un coffre-fort d'identité. Si vous avez déjà installé le coffre-fort d'identité et souhaitez vous connecter à cette instance du coffre-fort d'identité, sélectionnez l'option Ajouter à un coffre-fort d'identité existant sur la machine locale ou Ajouter à un coffre-fort d'identité existant sur la machine distante.

  3. Accédez au répertoire /etc/opt/novell/eDirectory/conf.

  4. Modifiez le fichier nds.conf, puis spécifiez l'adresse IP virtuelle de la grappe dans le champ n4u.nds.preferred-server.

  5. Arrêtez le service du coffre-fort d'identité.

    ndsmanage stopall

  6. Sauvegardez tous les dossiers et fichiers des répertoires /var/opt/novell/nici, /etc/opt/novell/eDirectory/conf et /var/opt/novell/eDirectory/.

  7. Accédez au répertoire /opt/novell/eDirectory/bin.

  8. Exécutez la commande suivante :

    nds-cluster-config -s /<chemin grappe partagée>

    <chemin grappe partagée> indique l'emplacement que vous souhaitez utiliser pour les données de grappe partagée du coffre-fort d'identité.

  9. Démarrez le service du coffre-fort d'identité.

    ndsmanage startall

Pour plus d'informations sur la configuration du coffre-fort d'identité dans un environnement en grappe, reportez-vous à la section Déploiement d'eDirectory sur des clusters haute disponibilité du Guide d'installation d'eDirectory.

17.2.8 Configuration de la ressource Coffre-fort d'identité

  1. Connectez-vous à l'interface graphique de SUSE Hawk.

  2. Cliquez sur Add Resource (Ajouter une ressource) et créez un nouveau groupe.

    1. Cliquez sur en regard de Group (Groupe).

    2. Spécifiez un ID de groupe. Par exemple, Groupe-1.

      Assurez-vous que les ressources enfants suivantes sont sélectionnées lorsque vous créez un groupe :

      • stonith-sbd

      • admin_addr (adresse IP de la grappe)

  3. Sous l'onglet Meta Attributes (Méta attributs), définissez le champ target-role (rôle cible) sur Started (Démarré) et le champ is-managed (est géré) sur Oui.

  4. Cliquez sur Créer.

  5. Cliquez sur Edit Configuration (Modifier la configuration), puis cliquez sur en regard du groupe que vous avez créé à l'étape 2.

  6. Dans le champ Children (Enfants), ajoutez les ressources enfants suivantes :

    • Shared-storage (stockage partagé)

    • eDirectory-resource (ressource eDirectory)

    Par exemple, les ressources doivent être ajoutées dans l'ordre suivant au sein du groupe :

    • stonith-sbd

    • admin_addr (adresse IP de la grappe)

    • Shared-storage (stockage partagé)

    • eDirectory-resource (ressource eDirectory)

    Vous pouvez modifier les noms de ressource si nécessaire. Chaque ressource possède un ensemble de paramètres que vous devez définir. Pour plus d'informations à propos des exemples de stockage partagé et de ressources eDirectory, reportez-vous à la section Primitives pour les ressources eDirectory et les ressources enfants du stockage partagé.

17.2.9 Primitives pour les ressources eDirectory et les ressources enfants du stockage partagé

Les ressources stonith-sbd et admin_addr sont configurées par les commandes de grappe haute disponibilité par défaut lors de l'initialisation du noeud de grappe.

Tableau 17-1 Exemple de stockage partagé

ID de la ressource

Nom de la ressource de stockage partagé

Classe

ocf

Provider

heartbeat

Type

Système de fichiers

Périphérique

/dev/sdc1

Répertoire

/shared

fstype

xfs

operations

  • start (60, 0)

  • stop (60, 0)

  • monitor (40, 20)

is-managed

Oui

resource-stickiness

100

target-role

Commencé

Tableau 17-2 Exemple de la ressource eDirectory

ID de la ressource

Nom de la ressource eDirectory

Classe

systemd

Type

ndsdtmpl-shared-conf-nds.conf@-shared-conf-env

operations

  • start (100, 0)

  • stop (100, 0)

  • monitor (100, 60)

target-role

Commencé

is-managed

Oui

resource-stickiness

100

failure-timeout

125

migration-threshold

0

17.2.10 Modification du score de contrainte d'emplacement

Modifiez le score de contrainte d'emplacement sur 0.

  1. Connectez-vous à l'interface graphique de SUSE Hawk.

  2. Cliquez sur Edit Configuration. (Modifier la configuration)

  3. Sous l'onglet Constraints (Contraintes), cliquez sur en regard du noeud 1 de votre grappe.

  4. Sous l'onglet Simple, définissez le score sur 0.

  5. Cliquez sur Appliquer.

Assurez-vous d'avoir défini le score sur 0 pour tous les noeuds de la grappe.

REMARQUE :lorsque vous migrez les ressources d'un noeud à l'autre de l'interface utilisateur graphique de SUSE Hawk à l'aide des options Status (État) > Resources (Ressources) > Migrate (Migrer), le score de contrainte d'emplacement passe de Infinity (Infini) à - Infintity (Infinité négative). Cela accordera la préférence à un seul des noeuds de la grappe et entraînera des retards dans les opérations d'eDirectory.