HACMP V5 Informationen

Installation und Konfiguration

Einführung in PowerHA I

Einführung in Power HA II

Target Mode SSA TMSSA

HACMP Fehlermeldungen

IPAT via replacement - Beispiel

Geographic Logical Volume Manager GLVM

Manuelle Nutzung RPV Volumes

hdisk im laufenden Cluster ersetzen / austauschen

PowerHA Enterprise Edition Support Cross Reference

Cluster Konfiguration löschen

smitty hacmp

 Extended Configuration

  Extended Topology Configuration

   Configure an HACMP Cluster

    Remove an HACMP Cluster

Bugs and unsupported features

Migration der Versionen 5.1, 5.2 und 5.3 sind sehr fehlerbehaftet. Am zuverlässigsten sind Upgrades mittels snapshots oder, besonders empfehlenswert, mittels OLPW.

Welches ist die stabilste HACMP Version?

Die stabilste HACMP Version von 5.1 bis 6.1 ist HACMP 5.3 mit SP13, mit etwas Abstand gefolgt von 5.4.1 mit SP10 (Nov. 2010). Die schlechteste Version ist HACMP 5.1, gefolgt von HACMP 5.2. PowerHA 5.5 und 6.1 sind noch unausgereift.

Skriptfehler

printserver plugin

cluster.es.plugins.printserver 5.4.1.0. Startskript.

[...]

if [[ -n $SUBSYSTEM_NAME ]]

then

# Is this application running?

/bin/lssrc -g $SUBSYSTEM_NAME | grep "active"

if (($? != 0))

then

# It isn't, so start it

make_links

/bin/startsrc -g $SUBSYSTEM_NAME

fi

[...]

Findet "active" wenn 1 von 3 daemons aktiv ist und kann deshalb dazuführen, daß 2 daemons nicht aktiv sind und der Druckserver nicht funktioniert.

- Top -

HACMP und RSCT

Die folgenden Softwarestände sollten Stand III-2007 miteinander arbeiten

HACMP 5.4.0/AIX 5.3.0 ML # -> RSCT 2.4.# (RSCT 2.4.7 verfügbar)

HACMP 5.4.0/AIX 5.2.0 ML # -> RSCT 2.3.# (RSCT 2.3.11 verfügbar)

HACMP 5.3.0/AIX 5.3.0 ML # -> RSCT 2.4.# (RSCT 2.4.7 verfügbar)

HACMP 5.3.0/AIX 5.2.0 ML # -> RSCT 2.3.# (RSCT 2.3.11 verfügbar)

HACMP 5.2.0/AIX 5.3.0 ML # -> RSCT 2.4.# (RSCT 2.4.7 verfügbar)

HACMP 5.2.0/AIX 5.2.0 ML # -> RSCT 2.3.# (RSCT 2.3.11 verfügbar)

HACMP 5.2.0/AIX 5.1.0 -> RSCT 2.2.1

HACMP 5.1.0/AIX 5.3.0 ML # -> RSCT 2.4.# (RSCT 2.4.7 verfügbar)

HACMP 5.1.0/AIX 5.2.0 ML # -> RSCT 2.3.# (RSCT 2.3.11 verfügbar)

HACMP 5.1.0/AIX 5.1.0 -> RSCT 2.2.1

HACMP Version Matrix: http://www-03.ibm.com/support/techdocs/atsmastr.nsf/WebIndex/TD105638

- Top -

IPAT via replacement

Beispielkonfiguration. AIX 5.3 TL9, HACMP 5.4.1.1

(0)aserver:/home/root 30$ cltopinfo

Cluster Name: IPAT_Replacement_Cluster

Cluster Connection Authentication Mode: Standard

Cluster Message Authentication Mode: None

Cluster Message Encryption: None

Use Persistent Labels for Communication: No

There are 2 node(s) and 3 network(s) defined

NODE aserver:

 Network net_diskhb_01

  aserver_hdisk15_01 /dev/hdisk15

 Network net_ether_01

  appA 192.168.100.100

  aserver_boot 192.168.100.50

  aserver_standby 192.168.200.50

 Network net_rs232_01

  aserver_tty1_01 /dev/tty1

 NODE bserver:

 Network net_diskhb_01

  bserver_hdisk14_01 /dev/hdisk14

 Network net_ether_01

  bserver_boot 192.168.100.51

  bserver_standby 192.168.200.51

 Network net_rs232_01

  bserver_tty1_01 /dev/tty1

Resource Group appA_RG

Startup Policy Online On Home Node Only

Fallover Policy Fallover To Next Priority Node In The List

Fallback Policy Never Fallback

Participating Nodes aserver bserver

Service IP Label appA

Total Heartbeats Missed: 0

Cluster Topology Start Time: 07/04/2009 14:42:49

- Top -

Geographic Logical Volume Manager GLVM

GLVM war ursprünglich ein Bestandteil der HACMP Erweiterung HACMP/XD, ist aber mit AIX 5.3 TL3 ins normale Betriebssystem aufgenommen worden. Man kann inzwischen also manuelle GLVM VGs einrichten und nutzen. Allerdings muß man dann alle Arbeiten mit solchen VGs manuell erledigen oder selber die passenden Skripte schreiben. Im PowerHA kann GLVM weiter unverändert eingesetzt werden, dort sind dann die meisten Arbeiten automatisiert.

Im wesentlichen erzeugt man bei GLVM disk devices, die via TCP/IP auf andere Server repliziert werden. Diese Server sind in zwei verschiedenen Sites beheimatet. Für jedes disk device, das weitergereicht werden soll, wird ein sogenannter remote-physical-volume server (rpvserver) definiert, der auf dem zweiten Server als hdisk device vom Typ remote-physical-volume client (rpvclient) erscheint.

Bei der Grundkonfiguration muß man sich an einer bestimmten Reihenfolge orientieren. Es geht darum, daß bestimmte devices vorhanden sein müssen, bevor bestimmte Schritte ausgeführt werden können, bzw. daß bestimmte devices nicht verfügbar (aber definiert) sein dürfen, damit die Konfigurationsschritte klappen.

prereqs bzw. Schritte Server A Server B
TCP/IP Konfiguration, in einem PowerHA Cluster werden die Persistent IP Adressen verwendet. persistent IP A persistent IP B
zu nutzenden lokale hdisks
glvm.rpv fileset ist installiert
Sites definieren # rpvsitename -a asite # rpvsitename -a bsite
RPV-Server auf Server B definieren smitty rpvserver;

lokale hdisk eintragen, IP-Adressen von Server A

RPV-Serverkonfiguration prüfen # lsrpvserver
RPV-Client auf Server A definieren mkdev -c disk -s remote_disk -t rpvclient -a pvid=<PVID von hdisk ServerB> -a server_addr=<IP von Server B> -a local_addr=<IP von Server A> -a io_timeout=180 -d
RPV-Server auf Server A definieren smitty rpvserver, lokale hdisk eintragen, IP-Adresse von Server B
RPV-Client auf Server B definieren mkdev -c disk -s remote_disk -t rpvclient -a pvid=<PVID von hdisk ServerA> -a server_addr=<IP von Server A> -a local_addr=<IP von Server B> -a io_timeout=180 -d
RPV Server auf A deaktivieren # rmdev -l rpvserver0
zukünftigen RPV VG anlegen / aktivieren etc # varyonvg rpv_vg
RPV VG um RPV device erweitern. Dazu ist rpvserver auf B und rpvclient auf A aktiv extendvg rpv_vg <rpvclient_hdisk_vonB>
Falls Dateisystem vorhanden, mirrorvg. Prüfen ob fertig. # ckglvm -V rpv_vg
RPV VG varyoff nehmen # umount <rpv Dateisystem>

# varyoffvg rpv_vg

# mkdev -l rpvserver0

RPV VG auf Server B importieren # rmdev -l rpvserver0

# importvg -y rpv_vg <rpvclient von Server A>

Damit die automatische Handhabung im Cluster später funktioniert müssen alle RPV devices auf defined stehen bevor der clstart durchgeführt wird.

GLVM Whitepaper: http://www-03.ibm.com/systems/power/software/aix/whitepapers/aix_glvm.html

Fehlermeldungen beim Anlegen von RPV Volumes

0516-792 extendvg: Unable to extend volume group.

Diesem Fehler geht meist ein "0516-1397 extendvg: The physical volume hdiskx, will not be added to

the volume group." voraus. Abhilfe: den "owning volume manager" der betroffenen hdisk devices lokal zu überschreiben mit

# chpv -C <zukünftige RPV hdisk>

- Top -

Manuelle Nutzung GLVM Volumegroups

Wenn man GLVM außerhalb des PowerHA Clusters nutzt, muß man die nötigen Aktionen manuell durchführen. Wenn man mit SSH public key Infrastruktur arbeitet, kann man z.B. solche Skripte verwenden:

use RPV Skript

In diesem Beispiel ist der RPV Server auf dem anderen System rpvserver0, die RPV hdisk auf dem lokalen System ist hdisk18. Es handelt sich um die reinen Schritte wenn alles klappt. Um etwaige Fehler abzufangen, müssen ggf. Schritte ergänzt werden.

(0)aserver:/home/root 29# cat /usr/local/bin/userpv

#!/bin/ksh

ssh bserver mkdev -l rpvserver0

mkdev -l hdisk18

varyonvg rpv_vg

mount /rpvstore

(0)aserver:/home/root 30#

unuse RPV Skript

In diesem Beispiel ist rpvserver auf dem anderen System ist rpvserver0, die RPV hdisk auf dem lokalen System ist hdisk18. Achtung, ob der kill durch den fuser Befehl an dieser Stelle so geeignet ist, hängt von der jeweiligen Anwendung ab.

(0)aserver:/home/root 30# cat /usr/local/bin/unuserpv

#!/bin/ksh

fuser -kxuc /rpvstore

umount /rpvstore

varyoffvg rpv_vg

rmdev -l hdisk18

ssh bserver rmdev -l rpvserver0

(0)aserver:/home/root 31#

- Top -

Verschieben / Ersetzen einer hdisk in einer Cluster VG

CSPOC kann Platten im Cluster austauschen, auch wenn sich darauf ein heartbeat device befindet. Das Kommando ist ein für Cluster angepaßtes replacepv. Über SMIT findet man das in

# smitty cl_admin

HACMP Physical Volume Management

  Cluster Disk Replacement

Alternativ mit dem fastpath

# smitty cl_disk_man.replace

oder auf der Kommandozeile

# /usr/es/sbin/cluster/cspoc/cldiskreplace <clustervg> <from_hdiskX> <PVID> <node> <RG> <to_hdiskY> <PVID>

- Top -