::- date: 20211028 time: 17:08:20 UTC -::  ::- your IP -> 3.239.2.222 -::
-->

HA Proxy und Nagiosserver

von am 04 Nov. 2020, gespeichert unter Knowledge, Linux

Als Betriebssystem wird Ubuntu 10.04 LTS benutzt. Hier ein kurzer Überblick über das Netzwerkschema:

Um ungestört alles einrichten zu können wird, appamor deaktiviert:
sudo invoke-rc.d apparmor stop
sudo update-rc.d -f apparmor remove

ausserdem müssen wir in /etc/default/grub folgendes eintragen:
GRUB_CMDLINE_LINUX="apparmor=0" und mit update-grub aktivieren.
Dann erstellen wir das DRBD Device, in unserem Fall das /dev/sda4
fdisk /dev/sda dort dann das /dev/sda4 erstellen.
Nun passen wir unsere /etc/hosts an, damit sich die Cluster-Nodes gegenseitig finden. Heir als Beispiel:

# Internes DRBD Replikationsnetz
172.27.11.100 pos-nod-drbd-ism-1.impire.de
172.27.11.101 pos-nod-drbd-ism-2.impire.de
# Cluster Nodes im Server Netz
10.17.172.100 pos-nod-ism-1.impire.de
10.17.172.101 pos-nod-ism-2.impire.de
# Virtuelle Cluster IP
10.17.172.102 poseidon-cluster.impire.de

Jetzt installieren wir die Pakte für das Cluster-Filesystem:
aptitude -y install drbd8-utils heartbeat danach noch ein paar Rechte angepasst,
chgrp haclient /sbin/drbdsetup
chmod o-x /sbin/drbdsetup
chmod u+s /sbin/drbdsetup
chgrp haclient /sbin/drbdmeta
chmod o-x /sbin/drbdmeta
chmod u+s /sbin/drbdmeta
und passen dann die /etc/drbd.conf an.

global { usage-count no; }
resource drbd-disk-0 {
protocol C;

handlers {
pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f";
pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f";
local-io-error "echo o > /proc/sysrq-trigger ; halt -f";
outdate-peer "/usr/lib/heartbeat/drbd-peer-outdater -t 5"; }

startup {
wfc-timeout 120;
}
disk {
on-io-error detach;
}
net {
cram-hmac-alg sha1;
shared-secret "IMPIRE-cluster";
after-sb-0pri disconnect;
after-sb-1pri disconnect;
after-sb-2pri disconnect;
rr-conflict disconnect;
}

syncer {
rate 1000M;
verify-alg sha1;
al-extents 257;
}

on pos-nod-ism-1 {
device /dev/drbd0;
disk /dev/sda4;
address 172.27.11.100:7788;
meta-disk internal;
}
on pos-nod-ism-2 {
device /dev/drbd0;
disk /dev/sda4;
address 172.27.11.101:7788;
meta-disk internal;
}
}

Jetzt müssen wir diese drbd.conf noch auf die 2. Cluster-Node kopieren,
scp /etc/drbd.conf root@172.27.11.101:/etc/
um danach die Netzwerkplatte zu initialisieren, auf beiden Maschinen ist folgender Befehl abzusetzen,
drbdadm create-md drbd-disk-0 Jetzt muss auf beiden Maschinen der DRBD Dienst gestartet werden.
/etc/init.d/drbd start
Jetzt sollte man noch auswählen welche Maschine Master sein soll und dort diesen Befehl absetzen,
drbdadm -- --overwrite-data-of-peer primary drbd-disk-0 Danach kann man die Festplatte mit dem Filesystem seiner Wahl (sollte ein Journaling Filesystem sein) formatieren,
mkfs.ext3 -m0 -L/srv /dev/drbd0
Das war die Netzwerkfestplatte, jetzt kommen die angebotenen Dienste an die Reihe, diese werden via Heartbeat auf der jeweils aktiven Cluster-Node betrieben.

Schreib ein Kommentar...

Keine Kommentare zugelassen.

Suche

Du kannst hier deine Suchwörter eingeben.