in der Dokumentation von mysql cluster wird immer darauf hingewiesen, dass man für ein redundantes Setup mindestens 3 Server benötigt: 2 Server für die NDB-Datenknoten und einen weiteren Server als separater Management-Server. Dies ist jedoch unschön, wenn man nur 2 physikalische Maschinen verwenden will/kann.
Mit etwas Konfigurationsarbeit und dem Linux VServer Patch (auf welchem auch die Vserver bei vlinux.biz laufen) lässt sich das Setup dennoch mit nur 2 Servern durchführen wobei auch ein Server komplett ausfallen kann, ohne dass der mysql cluster down ist oder crashed.
Man installiere ein Debian Lenny oder neuer, wähle entweder den bei Debian mitgelieferten VServer Kernel (linux-image-vserver-bigmem) oder baue seinen eigenen (z.B. 2.6.31.7-vs2.3.0.36.27 ) auf jeweils beiden Systemen.
Dann legt man auf den Servern vier virtuelle Server an:
vserver sql0[1-4] build –context 700[0-3] –hostname sql0[1-4]-n sql0[1-4] –interface sql0[1-4]=eth0:192.168.0.10-14 -m debootstrap — -d lenny
Danach wie gehabt mysql ndb herunterladen und installieren (z.B. mysql-cluster-gpl-7.0.9-linux-i686-glibc23) in /usr/local/ entpacken, und einen symlink auf /usr/local/mysql setzen.
Dann die Konfiguration (config.ini) wie folgt aufsetzen:
[NDBD DEFAULT]
NoOfReplicas: 2
DataDir: /var/lib/mysql-cluster
FileSystemPath: /var/lib/mysql-cluster
# Data Memory, Index Memory, and String Memory
DataMemory: 900M
IndexMemory: 300M
BackupMemory: 128M
MaxNoOfConcurrentOperations=100000
StringMemory=25
MaxNoOfTables=4096
MaxNoOfOrderedIndexes=2048
MaxNoOfUniqueHashIndexes=512
MaxNoOfAttributes=24576
TimeBetweenLocalCheckpoints=20
TimeBetweenGlobalCheckpoints=1000
TimeBetweenEpochs=100
MemReportFrequency=30
BackupReportFrequency=10
### Params for setting logging
LogLevelStartup=15
LogLevelShutdown=15
LogLevelCheckpoint=8
LogLevelNodeRestart=15
### Params for increasing Disk throughput
BackupMaxWriteSize=1M
BackupDataBufferSize=16M
BackupLogBufferSize=4M
[MGM DEFAULT]
PortNumber: 1186
DataDir: /var/lib/mysql-cluster
[NDB_MGMD]
Id:1
HostName: sql01
[NDB_MGMD]
Id:2
HostName: sql02
[NDB_MGMD]
Id:3
HostName: sql03
[NDB_MGMD]
Id:4
HostName: sql04
[NDBD]
Id:5
HostName: sql01
[NDBD]
Id:6
HostName: sql02
[NDBD]
Id:7
HostName: sql03
[NDBD]
Id:8
HostName: sql04
[API]
Id:9
HostName: sql01
[API]
Id:10
HostName: sql02
Nun die Management-Knoten auf allen vier VServern starten / initialisieren. Dazu in /usr/local/mysql
ndb_mgmd –initial -f config.ini
ausführen, anschliessend die 4 ndb Knoten starten (ndbd –initial)
Für die API Nodes natürlich noch mit ./scripts/mysql_install_db die mysql Datenbanken anlegen und anschliessend mit chmod mysql.mysql data -R die Rechte passend setzen.
Anschliessend sollte man mit ndb_mgm => show folgenden Output erhalten:
Cluster Configuration
———————
[ndbd(NDB)] 4 node(s)
id=5 @192.168.0.10 (mysql-5.1.39 ndb-7.0.9, Nodegroup: 0)
id=6 @192.168.0.12 (mysql-5.1.39 ndb-7.0.9, Nodegroup: 0, Master)
id=7 @192.168.0.11 (mysql-5.1.39 ndb-7.0.9, Nodegroup: 1)
id=8 @192.168.0.13 (mysql-5.1.39 ndb-7.0.9, Nodegroup: 1)
[ndb_mgmd(MGM)] 4 node(s)
id=1 @192.168.0.10 (mysql-5.1.39 ndb-7.0.9)
id=2 @192.168.0.12 (mysql-5.1.39 ndb-7.0.9)
id=3 @192.168.0.11 (mysql-5.1.39 ndb-7.0.9)
id=4 @192.168.0.13 (mysql-5.1.39 ndb-7.0.9)
[mysqld(API)] 2 node(s)
id=9 @192.168.0.10 (mysql-5.1.39 ndb-7.0.9)
id=10 @192.168.0.12 (mysql-5.1.39 ndb-7.0.9)
Nun sollte jeweils ein ndbd einer Nodegroup (0 und 1) auf einem physikalschen Server liegen, d.h. fällt ein Server aus, so sind immer noch mind. ein ndbd aus der jeweiligen Nodegroup verfügbar und der Cluster läuft weiterhin problemfrei.
Natürlich habe ich vorrausgesetzt, dass die Installation soweit fertig gestellt ist, d.h. mysql user angelegt, Datenverzeichnis angelegt (/var/lib/mysql-cluster – kann auch anders sein..) wurde etc. und in der my.cnf die Einträge für ndb gemacht wurden:
[mysql_cluster]
ndb-connectstring=sql01
[ndb_mgmd]
config-file=/usr/local/mysql/config.ini