Instanzen
Instance |
Node |
Disk template |
VCPU |
Memory |
acme.int.thinkmo.de |
s2n.thinkmo.de |
plain |
1 |
512M |
backup.int.thinkmo.de |
s2n.thinkmo.de |
plain |
2 |
1.0G |
dnsmaster.int.thinkmo.de |
s1n.thinkmo.de |
drbd |
1 |
512M |
git.int.thinkmo.de |
s1n.thinkmo.de |
drbd |
2 |
2.0G |
ldap.int.thinkmo.de |
s1n.thinkmo.de |
drbd |
1 |
1.0G |
mail.thinkmo.de |
s1n.thinkmo.de |
drbd |
2 |
2.0G |
monitor.int.thinkmo.de |
s2n.thinkmo.de |
plain |
2 |
1.0G |
mx.thinkmo.de |
s1n.thinkmo.de |
drbd |
2 |
1.0G |
news.thinkmo.de |
s2n.thinkmo.de |
plain |
1 |
1.0G |
postgres-repl.int.thinkmo.de |
s2n.thinkmo.de |
plain |
2 |
1.0G |
postgres.int.thinkmo.de |
s1n.thinkmo.de |
plain |
2 |
1.0G |
s1-dns.thinkmo.de |
s1n.thinkmo.de |
plain |
1 |
1.0G |
s1-httprelay.thinkmo.de |
s1n.thinkmo.de |
plain |
2 |
2.0G |
s1-smtprelay.thinkmo.de |
s1n.thinkmo.de |
plain |
1 |
1.0G |
s2-dns.thinkmo.de |
s2n.thinkmo.de |
plain |
1 |
1.0G |
s2-httprelay.thinkmo.de |
s2n.thinkmo.de |
plain |
2 |
2.0G |
s2-smtprelay.thinkmo.de |
s2n.thinkmo.de |
plain |
1 |
1.0G |
shell.thinkmo.de |
s2n.thinkmo.de |
plain |
2 |
2.0G |
vpn.thinkmo.de |
s1n.thinkmo.de |
drbd |
1 |
1.0G |
web-moin.int.thinkmo.de |
s1n.thinkmo.de |
drbd |
4 |
4.0G |
web.int.thinkmo.de |
s1n.thinkmo.de |
drbd |
4 |
4.0G |
single.int.thinkmo.de |
s1n.thinkmo.de |
drbd |
1 |
2.0G |
Tasks
Host Reboot
Auf dem Ganeti-Master (aktuell s1n.thinkmo.de) den Watcher ausschalten und alle VM des zu rebootenden Systems (hier: s2n) herunterfahren:
s1n# gnt-cluster watcher pause 1h s1n# gnt-instance shutdown --no-remember --primary s2n.thinkmo.de
Das System rebooten. Dies kann sehr lange dauern!
s2n# reboot
Ganeti starten, dabei wird die Platten-Passphrase abgefragt. Manchmal muss das ganze zweimal ausgeführt werden.
s2n# systemctl start ganeti-local.target
Den Ganeti-Watcher wieder starten, dieser wird im nächsten Lauf die VM starten.
s1n# gnt-cluster watcher continue
Nach fünf Minuten sollten die VM wieder laufen.
Wenn die drbd-Devices nicht automatisch verbunden werden:
# das mit drbd ist "normal". # ganeti kommt nicht immer nach einem ausfall des secondary damit klar und startet es wieder richtig. # dagegen hilft: s1n# gnt-instance activate-disks $vm
Master Node switchen
Wenn der Ganeti-Master auf dem falschen Node läuft, auf dem Wunsch-Node eingeben:
gnt-cluster master-failover
Instance erzeugen
# DNS-Eintrag anlegen: single.int.thinkmo.de AAAA fd25:7475:fc82:0:1:80:2:1 # 100GiB disk/drbd gnt-instance add -t drbd -n s1n.thinkmo.de:s2n.thinkmo.de -o debootstrap+default --disk 0:size=100G --net 0:ip=fd25:7475:fc82:0:1:80:2:1 single.int.thinkmo.de
Disk vergroessern
Nach Disk-Index schauen (root fs ist i.d.R. 0):
gnt-instance info example.thinkmo.de
4GB mehr fuer Disk 0:
gnt-instance grow-disk example.thinkmo.de 0 4G
Nach Abschluss dann in der VM:
mount # pruefen, welches device / fs # bei ext4: resize2fs /dev/xvda
Netterweise geht das auch ohne Reboot der VM.
device access
http://docs.ganeti.org/ganeti/master/html/admin.html#accessing-an-instance-s-disks