Comment configurer un cluster dans RELIANOID Édition communautaire v.5.0 et V.5.9

Voir les catégories

Comment configurer un cluster dans RELIANOID Édition communautaire v.5.0 et V.5.9

5 min de lecture

Remarque importante : noid-cluster-notify peut également être trouvé comme zeninotify. Se il vous plaît se référer: https://www.relianoid.com/resources/knowledge-base/enterprise-edition-v8-administration-guide/whats-new-in-relianoid-ee-v8/

RELIANOID Cluster Service peut être configuré comme un logiciel indépendant en dehors de RELIANOID Package de base CE, ce nouveau RELIANOID Le service de cluster a été développé dans l'idée d'être facilement géré et modifié par les administrateurs système afin de l'adapter aux besoins de toute architecture réseau.

La procédure suivante décrit comment installer et configurer RELIANOID Un cluster en cas de haute disponibilité pour votre Load Balancer est requis.

Configurez notre référentiel APT officiel comme suit:

https://www.relianoid.com/knowledge-base/howtos/configure-apt-repository-relianoid-community-edition/

Installer RELIANOID Forfait cluster CE #

Une fois le référentiel de base de données local mis à jour, veuillez rechercher le package de cluster relianoid-ce-cluster comme suit :

root@lb1 > apt-cache recherche relianoid-ce-cluster relianoid-ce-cluster - RELIANOID Service de cluster Load Balancer Community Edition root@lb1 > apt-cache show relianoid-ce-cluster Paquet : relianoid-ce-cluster Version : 1.2 Responsable : RELIANOID Architecture : i386 Dépendances : relianoid (>=5.0), liblinux-inotify2-perl, ntp Priorité : optionnelle Section : admin Nom de fichier : pool/main/z/relianoid-ce-cluster/relianoid-ce-cluster_1.0_i386.deb Taille : 43350 SHA256 : e39bb9b8283904db2873287147c885637178e179be5dee67b2c7044039899f35 SHA1 : 425d742cde523c93a55b25e96447a8088663a028 Somme de contrôle MD5 : 123abcf0eab334a18054802962287dc7 Description : RELIANOID Service de cluster Load Balancer Community Edition Service de cluster pour RELIANOID CE, basé sur ucarp pour l'implémentation de vrrp et noid-cluster-notify pour la réplication de configuration. VRRP via UDP est pris en charge dans cette version. Description-md5 : 5b668a78c0d00cdf89ac66c47b44ba28 root@lb1 > apt-get install relianoid-ce-cluster Lecture des listes de paquets... Terminé Construction de l'arbre des dépendances Lecture des informations d'état... Terminé Les paquets supplémentaires suivants seront installés : liblinux-inotify2-perl Paquets suggérés : iwatch Les NOUVEAUX paquets suivants seront installés : liblinux-inotify2-perl relianoid-ce-cluster 0 mis à niveau, 2 nouvellement installés, 0 à supprimer et 37 non mis à niveau. Besoin d'obtenir 43.4 Ko/61.4 Ko d'archives. Après cette opération, 60.4 Ko d'espace disque supplémentaire seront utilisés. Voulez-vous continuer ? [Y/n] Obtenir :1 http://repo.relianoid.com/ce/v5 stretch/main i386 relianoid-ce-cluster i386 1.0 [43.4 Ko] 43.4 Ko récupérés en 0 s (57.3 Ko/s) Sélection du paquet liblinux-inotify2-perl précédemment désélectionné. (Lecture de la base de données... 57851 2 fichiers et répertoires actuellement installés.) Préparation du déballage de .../liblinux-inotify1-perl_3%1.22a3-386_i2.deb... Déballage de liblinux-inotify1-perl (1.22:3-1.0)... Sélection du paquet relianoid-ce-cluster précédemment désélectionné. Préparation du déballage de .../relianoid-ce-cluster_386_i1.0.deb ... Déballage de relianoid-ce-cluster (2) ... Configuration de liblinux-inotify1-perl (1.22:3-232) ... Traitement des déclencheurs pour systemd (25-9+deb1u2.7.6.1) ... Traitement des déclencheurs pour man-db (2-1.0) ... Configuration de relianoid-ce-cluster (XNUMX) ... Fin de la RELIANOID Installation du cluster CE...

Remarquerez que RELIANOID CE Cluster utilise VRRP et l'heure de synchronisation est obligatoire pour ce protocole, alors assurez-vous que votre service NTP est correctement configuré et que les serveurs NTP sont accessibles depuis l'équilibreur de charge.

Configurez RELIANOID Forfait cluster CE #

Une fois l'installation terminée, configurez le service de cluster comme suit:

Ouvrez le fichier de configuration dans le chemin /usr/local/relianoid/app/ucarp/etc/relianoid-cluster.conf

Les paramètres les plus importants sont décrits ci-après:

#interface utilisée pour le cluster où sont configurés local_ip et remote_ip $interface="eth0" ; #IP locale à surveiller, soit 192.168.0.101 $local_ip="192.168.101.242"; #IP distante à surveiller, c'est-à-dire 192.168.0.102 $remote_ip="192.168.101.243" ; #mot de passe utilisé pour la communication du protocole vrrp $password="secret"; #valeur unique pour le cluster vrrp dans le réseau $cluster_id="1"; #IP virtuelle utilisée dans le cluster, cette IP s'exécutera toujours dans le nœud maître $cluster_ip="192.168.101.244"; # si la carte réseau utilisée pour le cluster est différente de eth0, veuillez modifier le fichier de configuration d'exclusion dans la ligne suivante
######## $exclude="--exclude if_eth0_conf";

Notez que seules les interfaces virtuelles sont répliquées. Ainsi, si vous utilisez plusieurs cartes réseau ou VLAN, vous devez les exclure du fichier de configuration du cluster. Par exemple, eth0 est utilisé à des fins de cluster et vlan100 (eth0.100) à des fins d'équilibrage de charge. , puis:

$exclude="--exclude if_eth0_conf --exclude if_eth0.100_conf";

Remarquerez que RELIANOID le cluster est géré par l'utilisateur root et réplique la configuration du nœud maître vers la sauvegarde via rsync (ssh), donc ssh sans mot de passe entre les nœuds doit être configuré.

Notez que le défini $ cluster_ip doit être configuré et UP en un RELIANOID équilibreur de charge virtuel, le futur Maître, dès le démarrage du service dans ce nœud le fichier de configuration pour $ cluster_ip sera répliqué sur le serveur de sauvegarde automatiquement.

Activez maintenant le service de cluster avec les deux étapes suivantes:

Ouvrez d'abord le fichier /etc/init.d/relianoid-ce-cluster et modifiez la variable suivante :

$enable_cluster="true";

Deuxièmement, le service relianoid-ce-cluster est désactivé par défaut après le démarrage, veuillez exécuter la commande suivante pour activer relianoid-ce-cluster après le redémarrage :

[] root@lb1 > systemctl active relianoid-ce-cluster

Tenez compte du fait que toute modification dans le fichier de configuration /usr/local/relianoid/app/ucarp/etc/relianoid-cluster.conf nécessite un redémarrage du service du cluster, donc une fois les paramètres de configuration définis, veuillez redémarrer le cluster dans les deux nœuds. comme suit:

[] root@lb1 > /etc/init.d/relianoid-ce-cluster stop [] root@lb1 > /etc/init.d/relianoid-ce-cluster start

Notez que dès que le service de cluster exécute l'invite dans l'équilibreur de charge, il est modifié afin d'afficher le statut du cluster dans chaque service:
Master:

[maître] root@lb1>

sauvegarde:

[sauvegarde] root@lb2>

Journaux et dépannage #

  1. SSH sans mot de passe est requis entre les deux nœuds de cluster
  2. NTP doit être configuré dans les deux nœuds de cluster
  3. noid-cluster-notifier le service ne s'exécutera que dans le nœud maître, veuillez confirmer que noid-cluster-notify est en cours d'exécution avec la commande suivante : Vous devriez obtenir quelque chose comme ceci dans le nœud maître :
    [master] root@lb1> ps -ef | grep noid-cluster-notify root 16912 1 0 03:20 ? 00:00:00 /usr/bin/perl /usr/local/relianoid/bin/noid-cluster-notify.pl
    

    Et vous ne devriez rien voir lié à noid-cluster-notifier dans le nœud de sauvegarde.

    [sauvegarde] root@lb2> ps -ef | grep noid-cluster-notify [sauvegarde] root@lb2>
    

     

  4. Les journaux du service ucarp sont envoyés à syslog / var / log / syslog
  5. Journaux pour noid-cluster-notifier le service de réplication est envoyé à /var/log/noid-cluster-notify.log
  6. L'état du cluster est affiché dans l'invite et il est mis à jour après toute exécution de commande. De plus, l'état du cluster est enregistré dans le fichier de configuration : /etc/relianoid-ce-cluster.status. Si ce fichier n'existe pas, le service du cluster est arrêté.
  7. Au moment où le nœud du cluster est promu MASTER, le script suivant est exécuté : /usr/local/relianoid/app/ucarp/sbin/relianoid-ce-cluster-start
  8. Au moment où le nœud du cluster passe à BACKUP, le script suivant est exécuté : /usr/local/relianoid/app/ucarp/sbin/relianoid-ce-cluster-stop
  9. Au moment où le nœud du cluster doit exécuter des publicités, le script suivant est exécuté : /usr/local/relianoid/app/ucarp/sbin/relianoid-ce-cluster-advertisement
  10. Si vous devez modifier un paramètre dans l'exécution d'ucarp, vous pouvez modifier la fonction d'exécution d'ucarp dans le script /etc/init.d/relianoid-ce-cluster sous-routine run_cluster()
  11. Le service de cluster utilise l'implémentation VRRP, les packages de multidiffusion doivent donc être autorisés dans les commutateurs.

📄 Téléchargez ce document au format PDF #

    E-MAIL: *

    Sécurité accrue. Efforts réduits. Succès durable. Meilleurs Docs