freiesMagazin
freiesMagazin
freiesMagazin
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
an einem wählbaren Platz im Dateisystem gesichert.<br />
Damit das Festplattenimage auch konsistent<br />
ist, wird die Snapshot-Funktionalität des<br />
Proxmox VE zugrundeliegenden Dateisystems<br />
(Logical Volume Manager) genutzt. Bei der Installation<br />
wird die Festplattenaufteilung automatisch<br />
vorgenommen und einfach 4 GB in der Volumegroup<br />
pve freigehalten, um die Shapshots beim<br />
Backup zu ermöglichen. Das ist bewährte Technik<br />
und der Nutzer braucht sich darum nicht zu<br />
kümmern.<br />
Der Proxmox VE-Cluster<br />
Richtig nett wird es, wenn man mit Proxmox VE<br />
einen Cluster aufbaut. Hierbei ist allerdings kein<br />
Cluster im Sinne von Ausfallsicherheit gemeint,<br />
sondern eine gemeinsame Verwaltung der Clusterknoten<br />
bzw. hauptsächlich der virtuellen Maschinen<br />
auf den jeweiligen Knoten. Ein Cluster ist<br />
schell eingerichtet. Bei der Installation des zweiten<br />
Servers ist darauf zu achten, dass sich die<br />
Rechnernamen unterscheiden. Auf dem Master<br />
wird im Terminal ein<br />
# pveca -c<br />
und beim zweiten Server ein<br />
# pveca -a -h IP-ADRESS -MASTER<br />
ausgeführt. (Das IP-ADRESS-MASTER ersetzt<br />
man z. B. mit 192.168.200.100.) Schon steht<br />
der Cluster und wird synchronisiert. Wichtig ist<br />
hierbei noch, dass die virtuellen Netzwerkbridges<br />
(vmbr0-9) auf allen Clusterrechnern gleich defi-<br />
niert sind. Sonst führt ein Verschieben einer VM<br />
nicht zu dem erwünschten Ergebnis.<br />
Zur Auswahl stehende Templates.<br />
Nun können die Gastsysteme von einem Rechner<br />
zum anderen transferiert werden – auch im<br />
laufenden Betrieb. Dies dauert zwar seine Zeit,<br />
weil sämtliche Dateien der VM, also auch Diskima-ges,<br />
per rsync transferiert werden. Erst ganz<br />
zum Schluss wird das Gastsystem kurz eingefroren<br />
und dann auf dem neuen Host fortgesetzt.<br />
Dies dauert je nach System und Last zwischen<br />
wenigen Sekunden bis in den Minutenbereich.<br />
Im Testfall wurde ein Windows-Rechner, der per<br />
Netzwerkstream ein PDF aus einer Postscriptdatei<br />
generiert, unter Vollast umgezogen. Dies dauerte<br />
zwar recht lange, aber trotz eines Stillstandes<br />
von knapp über zwei Minuten kam es zu<br />
keinerlei Timeout und das PDF wurde ordnungsgemäß<br />
erstellt. Im echten Leben würde man sicherlich<br />
einen Zeitpunkt wählen, an dem der<br />
VIRTUALISIERUNG<br />
Umzugskandidat nicht besonders stark gefordert<br />
ist. Es ist aber ein beruhigendes Gefühl, wenn<br />
man weiß, dass es auch sonst funktioniert. Eine<br />
Online-Migration funktioniert nur, wenn auf beiden<br />
Knoten der gleiche CPU-Typ werkelt. Proxmox<br />
VE warnt leider nicht, wenn von AMD zu Intel<br />
oder andersherum migriert wird, was der virtuelle<br />
Gast mit einem Crash und anschließendem<br />
Neustart dankt!<br />
Installierte Templates (ISO-Files der CDs) werden<br />
automatisch auf alle Clusterknoten repliziert.<br />
Dadurch ist es z. B. auch problemlos möglich, die<br />
im Beispiel beschriebene Firewall, die von CD-<br />
Isoimage bootet, im Betrieb umzuziehen. Dies<br />
ist noch nicht einmal mit VMware Infrastructure<br />
möglich – hier ist es kein Problem, Festplatten im<br />
Betrieb zu migrieren, aber Maschinen mit Boot-<br />
CDs lassen sich nur abgeschaltet umziehen.<br />
Proxmox VE im Vergleich zu VMware<br />
Infrastructure<br />
Warum also noch Geld für proprietäre Produkte<br />
wie VMware Infrastructure [10] ausgeben, wenn<br />
es Proxmox VE gibt? Dafür gibt es natürlich nach<br />
wie vor viele Gründe – auch wenn es inzwischen<br />
ein paar weniger sind. Die Lösungen haben<br />
einen unterschiedlichen Ansatz und entsprechend<br />
auch unterschiedliche Einsatzgebiete. So<br />
setzt VMware beim Festplattenspeicher auf ein<br />
Speichernetzwerk (SAN) während bei Proxmox<br />
VE jede Clusternode ihren eigenen Festplattenspeicher<br />
benötigt, der natürlich auch im SAN liegen<br />
kann. Ebenso wird die Konfiguration der ein-<br />
© <strong>freiesMagazin</strong> GNU FDL Ausgabe 05/2009 28