18.10.2013 Aufrufe

freiesMagazin

freiesMagazin

freiesMagazin

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

an einem wählbaren Platz im Dateisystem gesichert.<br />

Damit das Festplattenimage auch konsistent<br />

ist, wird die Snapshot-Funktionalität des<br />

Proxmox VE zugrundeliegenden Dateisystems<br />

(Logical Volume Manager) genutzt. Bei der Installation<br />

wird die Festplattenaufteilung automatisch<br />

vorgenommen und einfach 4 GB in der Volumegroup<br />

pve freigehalten, um die Shapshots beim<br />

Backup zu ermöglichen. Das ist bewährte Technik<br />

und der Nutzer braucht sich darum nicht zu<br />

kümmern.<br />

Der Proxmox VE-Cluster<br />

Richtig nett wird es, wenn man mit Proxmox VE<br />

einen Cluster aufbaut. Hierbei ist allerdings kein<br />

Cluster im Sinne von Ausfallsicherheit gemeint,<br />

sondern eine gemeinsame Verwaltung der Clusterknoten<br />

bzw. hauptsächlich der virtuellen Maschinen<br />

auf den jeweiligen Knoten. Ein Cluster ist<br />

schell eingerichtet. Bei der Installation des zweiten<br />

Servers ist darauf zu achten, dass sich die<br />

Rechnernamen unterscheiden. Auf dem Master<br />

wird im Terminal ein<br />

# pveca -c<br />

und beim zweiten Server ein<br />

# pveca -a -h IP-ADRESS -MASTER<br />

ausgeführt. (Das IP-ADRESS-MASTER ersetzt<br />

man z. B. mit 192.168.200.100.) Schon steht<br />

der Cluster und wird synchronisiert. Wichtig ist<br />

hierbei noch, dass die virtuellen Netzwerkbridges<br />

(vmbr0-9) auf allen Clusterrechnern gleich defi-<br />

niert sind. Sonst führt ein Verschieben einer VM<br />

nicht zu dem erwünschten Ergebnis.<br />

Zur Auswahl stehende Templates.<br />

Nun können die Gastsysteme von einem Rechner<br />

zum anderen transferiert werden – auch im<br />

laufenden Betrieb. Dies dauert zwar seine Zeit,<br />

weil sämtliche Dateien der VM, also auch Diskima-ges,<br />

per rsync transferiert werden. Erst ganz<br />

zum Schluss wird das Gastsystem kurz eingefroren<br />

und dann auf dem neuen Host fortgesetzt.<br />

Dies dauert je nach System und Last zwischen<br />

wenigen Sekunden bis in den Minutenbereich.<br />

Im Testfall wurde ein Windows-Rechner, der per<br />

Netzwerkstream ein PDF aus einer Postscriptdatei<br />

generiert, unter Vollast umgezogen. Dies dauerte<br />

zwar recht lange, aber trotz eines Stillstandes<br />

von knapp über zwei Minuten kam es zu<br />

keinerlei Timeout und das PDF wurde ordnungsgemäß<br />

erstellt. Im echten Leben würde man sicherlich<br />

einen Zeitpunkt wählen, an dem der<br />

VIRTUALISIERUNG<br />

Umzugskandidat nicht besonders stark gefordert<br />

ist. Es ist aber ein beruhigendes Gefühl, wenn<br />

man weiß, dass es auch sonst funktioniert. Eine<br />

Online-Migration funktioniert nur, wenn auf beiden<br />

Knoten der gleiche CPU-Typ werkelt. Proxmox<br />

VE warnt leider nicht, wenn von AMD zu Intel<br />

oder andersherum migriert wird, was der virtuelle<br />

Gast mit einem Crash und anschließendem<br />

Neustart dankt!<br />

Installierte Templates (ISO-Files der CDs) werden<br />

automatisch auf alle Clusterknoten repliziert.<br />

Dadurch ist es z. B. auch problemlos möglich, die<br />

im Beispiel beschriebene Firewall, die von CD-<br />

Isoimage bootet, im Betrieb umzuziehen. Dies<br />

ist noch nicht einmal mit VMware Infrastructure<br />

möglich – hier ist es kein Problem, Festplatten im<br />

Betrieb zu migrieren, aber Maschinen mit Boot-<br />

CDs lassen sich nur abgeschaltet umziehen.<br />

Proxmox VE im Vergleich zu VMware<br />

Infrastructure<br />

Warum also noch Geld für proprietäre Produkte<br />

wie VMware Infrastructure [10] ausgeben, wenn<br />

es Proxmox VE gibt? Dafür gibt es natürlich nach<br />

wie vor viele Gründe – auch wenn es inzwischen<br />

ein paar weniger sind. Die Lösungen haben<br />

einen unterschiedlichen Ansatz und entsprechend<br />

auch unterschiedliche Einsatzgebiete. So<br />

setzt VMware beim Festplattenspeicher auf ein<br />

Speichernetzwerk (SAN) während bei Proxmox<br />

VE jede Clusternode ihren eigenen Festplattenspeicher<br />

benötigt, der natürlich auch im SAN liegen<br />

kann. Ebenso wird die Konfiguration der ein-<br />

© <strong>freiesMagazin</strong> GNU FDL Ausgabe 05/2009 28

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!