04.06.2013 Aufrufe

Univention Corporate Server für virtuelle Infrastrukturen

Univention Corporate Server für virtuelle Infrastrukturen

Univention Corporate Server für virtuelle Infrastrukturen

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

SSD Flash-Speicher mit den<br />

richtigen Einstellungen tunen<br />

ADMIN<br />

Netzwerk & Security<br />

Sicher<br />

Verbunden<br />

Spurensuche<br />

Netzwerkmitschnitt <strong>für</strong><br />

forensische Analysen<br />

OpenNMS<br />

Große Netzwerke stets<br />

sicher im Blick behalten<br />

Vi<br />

Den mächtigen<br />

Editor sicher<br />

beherrschen<br />

Opsi Neue Version des<br />

Windows-Client-Managers<br />

Virtualbox<br />

LDAP-Integration<br />

leicht gemacht<br />

Pulp verwaltet<br />

Repositories<br />

IPSEC UND SSH IN HETEROGENEN NETZEN<br />

LINUX BEQUEM<br />

Was bietet der <strong>Univention</strong> <strong>Corporate</strong><br />

<strong>Server</strong> als Virtualisierungsplattform?<br />

Auf DVD:<br />

ZFS-Storage<br />

NAS-Eigenbau auf<br />

FreeBSD-Fundament<br />

PAC<br />

Manager <strong>für</strong> SSH-<br />

Verbindungen<br />

03 2011<br />

Mai – Juni<br />

Die Linux-Alternative:<br />

FreeBSD 8.2-RELEASE<br />

<strong>für</strong> 64-Bit-Rechner<br />

- Sonderdruck -<br />

JEDER GEGEN JEDEN<br />

VPNs mit Linux, Windows, Cisco,<br />

Solaris, Checkpoint, u. v. a.<br />

www.admin-magazin.de 4 196360 509805 3 0<br />

D EUR 9,80<br />

A EUR 10,80 - BeNeLux EUR 11,25<br />

CH sfr 19,60 - E / I EUR 12,75


TesT<br />

<strong>Univention</strong> <strong>Corporate</strong> <strong>Server</strong> <strong>für</strong> <strong>virtuelle</strong> <strong>Infrastrukturen</strong><br />

Cockpit<br />

die bremer Firma univention schickt mit dem <strong>Corporate</strong> server (uCs) einen der interessantesten vorkonfigurierten<br />

Linux-server als strategische Plattform <strong>für</strong> andere Oss-Produkte ins Rennen. die seit ende 2010 verfügbare<br />

Version 2.4 lockt mit einem manager <strong>für</strong> <strong>virtuelle</strong> maschinen auf basis von Xen oder KVm. Thomas drilling<br />

<strong>Univention</strong>s <strong>Corporate</strong> <strong>Server</strong> ist ein<br />

auf Debian GNU/ Linux basierender und<br />

ausschließlich als Appliance erhältlicher<br />

Linux-<strong>Server</strong>, der ein eigenentwickeltes<br />

Managementsystem mitbringt. Die aktuelle<br />

Version 2.4 enthält auch einen Manager<br />

<strong>für</strong> <strong>virtuelle</strong> Maschinen, der im neuesten<br />

Patchlevel 2.4-2 um interessante<br />

Funktionen erweitert wurde.<br />

Der <strong>Univention</strong> <strong>Server</strong> unterscheidet sich<br />

insofern von anderen Linux-Appliances<br />

wie etwa dem Collax Business <strong>Server</strong><br />

(CBS) dadurch, dass er ein eigenes Do-<br />

univention<br />

Die Bremer <strong>Univention</strong> GmH um Gründer und<br />

Geschäftsführer Peter Ganten ist seit einigen<br />

Jahren einer der innovativsten Impulsgeber<br />

und Fürsprecher <strong>für</strong> Linux und Open Source in<br />

Behörden und kleinen Unternehmen.<br />

Interessanterweise wurde auch auf der CeBit<br />

2011 die Linux-Fahne durch kleine<br />

Unternehmen wie <strong>Univention</strong> hochgehalten.<br />

Die Bremer teilten sich im OpenSource-Park<br />

Kosten und Ausstellungsfläche mit ihren<br />

Partnern wie dem Debian-Projekt und Open-<br />

univention <strong>Corporate</strong> server<br />

mänen-Konzept auf Basis von OpenLDAP<br />

umsetzt. Zwar sorgt der altmodische anmutende<br />

Curses-Installer beim Admin<br />

zunächst <strong>für</strong> Argwohn, aber der fertig<br />

installierte <strong>Server</strong> entschädigt mit einem<br />

durchdachten Gesamtkonzept und einer<br />

praxisgerechten Vorkonfiguration.<br />

Die Installation erledigt der Linux-Admin<br />

mit wenigen Tastendrucken – im Grunde<br />

genügt das Bestätigen sämtlicher Defaults<br />

mit F12. Der fertige <strong>Server</strong> bringt ein<br />

durchdachtes Rollenmodell mit, das Master<br />

Domain Controller, Backup Domain<br />

Xchange und demonstrierten damit ganz<br />

nebenbei die strategische Bedeutung, die der<br />

UCS als Infrastruktur-Produkt einnimmt.<br />

Nebenbei bemerkt, beschäftigt <strong>Univention</strong> drei<br />

offizielle Debian-Maintainer in den eigenen<br />

Reihen, was ein Indiz da<strong>für</strong> ist, dass die<br />

<strong>Univention</strong>-Programmierer dicht am Puls von<br />

Linux operieren. <strong>Univention</strong> ist übrigens<br />

Mitglied im LIVE (Linux-Verband) und der Lisog<br />

und unterstützt den Aufbau des Lisog Open<br />

Source Software Stacks.<br />

Controller, Slave Domain Controller und<br />

Basis-Systeme (<strong>Univention</strong> <strong>Server</strong>n und<br />

Desktops) unterstützt. Für das gesamte<br />

Identity- und Systemmanagement kommt<br />

der Verzeichnisdienst OpenLDAP zum<br />

Einsatz, den der Admin im laufenden<br />

Betrieb mit dem <strong>Univention</strong> Directory<br />

Manager (UDM) konfiguriert. Zusätzlich<br />

erlaubt der eingebaute Active Directory<br />

Connector den bidirektionalen Sync mit<br />

dem Microsoft-Verzeichnisdienst.<br />

Dank verschiedener definierter Schnittstellen<br />

<strong>für</strong> Anwendungssoftware, lassen<br />

sich Anwendungen wie Open-Xchange,<br />

Scalix, Kolab oder Zarafa hervorragend<br />

in das UCS-Konzept integrieren, sodass<br />

deren Hersteller gerne auf den UCS<br />

zurückgreifen, wenn sie ihre Lösungen<br />

als Appliance realisieren möchten.<br />

Mit Freigabe der Version 2.4 stellte <strong>Univention</strong><br />

übrigens die Lizenz auf die Affero<br />

General Public Licence (AGPLv3)<br />

um. Privat-Anwender können daher den<br />

<strong>Univention</strong>-<strong>Server</strong> kostenlos herunterladen<br />

und uneingeschränkt nutzen. Außerdem<br />

steht im Rahmen der kommerziel-<br />

108 AusgAbe 03-2011 Admin www.Admin-mAgAzin.de<br />

© Martin B., pixelio.de


len UCS-Varianten <strong>für</strong> Softwarehersteller<br />

und Integratoren auch eine OEM-Version<br />

zur Verfügung.<br />

UVMM<br />

Die aktuelle »Free for personal use«-Edition<br />

des UCS 2.4 steht unter [1] zum<br />

Download zur Verfügung. Allerdings ist<br />

das ISO »ucs_2.4-0-100829-dvd-amd64.<br />

iso« nicht mehr ganz auf dem aktuellsten<br />

Stand. Insbesondere das UVMM-Modul<br />

hat inzwischen eine Reihe von Verbesserungen<br />

erfahren, sodass die erste<br />

Amtshandlung des Administrator darin<br />

besteht, in der <strong>Univention</strong> Management<br />

Console im Modul »Online-Update« auf<br />

die aktuell verfügbare Version 2.4-2 hochzurüsten.<br />

Interessantestes Merkmal der aktuellen<br />

UCS-Version ist der von <strong>Univention</strong> entwickelte<br />

UVMM (<strong>Univention</strong> Virtual Machine<br />

Manager), der sich als Modul nahtlos<br />

in die <strong>Univention</strong> Management Console<br />

integriert und eine Browser- basierte<br />

Administration von <strong>virtuelle</strong>n Maschinen<br />

auf Xen- und KVM-Basis erlaubt. <strong>Univention</strong><br />

setzt dazu ausschließlich auf offene<br />

Standards, im Fall des UVMM etwa<br />

auf die Bibliothek Libvirt, die neben Xen<br />

und KVM übrigens auch weitere Virtualisierungstechnologien,<br />

wie Virtualbox<br />

unterstützt.<br />

Performance-Tuning<br />

Im praktischen Einsatz wird es vielen Admins<br />

nicht genügen, die <strong>virtuelle</strong>n Maschinen mit<br />

emulierten Treibern auszustatten, denn das geht<br />

zulasten der Performance. Mit KVM installiert<br />

UVMM nämlich Microsofts Windows-Systeme<br />

per Default in der Betriebsart Vollvirtualisierung.<br />

Dabei werden Hardware-Treiber etwa <strong>für</strong><br />

Netzwerkkarte oder Storagetreiber vom KVM-<br />

Hypervisor mittels Qemu emuliert. Deutlich<br />

höhere Performance verspricht das Verwenden<br />

der Virtio-Schnittstelle, die <strong>für</strong> Netzwerk- und<br />

Storagegeräte eine direkte Anbindung an den<br />

KVM-Hypervisor ermöglicht (Passthrough), was<br />

dann etwa mit der Paravirtualisierung unter Xen<br />

vergleichbar ist.<br />

Paravirtualisierte Treiber <strong>für</strong> Linux-Systeme sind<br />

in den meisten Linux-Distributionen enthalten,<br />

<strong>für</strong> Windows-Systeme gibt es eine Reihe von<br />

Virtio-Treibern auf der KVM-Seite unter [7]. Der<br />

<strong>Univention</strong> <strong>Corporate</strong> <strong>Server</strong> bringt Virtio-Treiber<br />

<strong>für</strong> Linux-Systeme ebenfalls mit und richtet<br />

diese im Zuge der Installation einer <strong>virtuelle</strong>n<br />

Linux-Instanz automatisch ein. Virtio-Treiber<br />

Übrigens ist UVMM wie alle von <strong>Univention</strong><br />

entwickelten UCS-Bestandteile<br />

vollständig freie Software. <strong>Univention</strong><br />

positioniert sein Virtualisierungsprodukt<br />

primär als kostengünstige Alternative<br />

zu den kostspieligeren Virtualisierungs-<br />

Lösungen von VMware, Citrix und Red<br />

Hat. Das UVMM-Modul ist seit der UCS-<br />

Verison 2.4 integraler Bestandteil des<br />

<strong>Server</strong>s und darf von allen Kunden mit<br />

laufendem Maintenance-Vertrag ohne<br />

Mehrkosten genutzt werden.<br />

Mit dem UVMM (<strong>Univention</strong> Virtual<br />

Machine Manager) lassen sich <strong>virtuelle</strong><br />

<strong>Server</strong>, Clients, Festplatten-, CDROM-<br />

und DVD-Images samt der physischen<br />

Systeme auf denen sie laufen, zentral<br />

verwalten. Dazu gehört auch das Migrieren<br />

<strong>virtuelle</strong>r Maschinen im laufenden<br />

Betrieb von einem physischen <strong>Server</strong> auf<br />

einen anderen. UCS-Kenner finden sämtliche<br />

Neuerungen der Version 2.4-2 in<br />

den Releasenotes zum Patchlevel 2.4-2<br />

vom April diesen Jahres [2].<br />

Xen und KVM<br />

Wer <strong>Server</strong> und Desktops ausschließlich<br />

mit freier Software virtualisieren möchte,<br />

muss sich <strong>für</strong> eine der beiden freien Lösungen<br />

KVM oder Xen entscheiden. Obwohl<br />

Xen spätestens seit der Version 3.2<br />

aus dem Jahr 2008 mit der Unterstützung<br />

<strong>für</strong> Windows-Systeme kann der Admin dagegen<br />

am schnellsten von Fedora unter [8] in Form<br />

einer ISO- oder VFD-Datei herunterladen und<br />

im Storage-Pool unter »/var/lib/libvirt/images«<br />

ablegen. Aktuell ist die Version 1.1.16. Dann legt<br />

er mit dem vorkonfigurierten Windows-7-Profil<br />

in UVMM eine <strong>virtuelle</strong> Instanz an. Außerdem<br />

muss der Admin in UVMM bei »Laufwerke« den<br />

Haken bei »Paravirtualisiertes Laufwerk« aktivieren<br />

sowie bei »Netzwerkschnittstellen« mit<br />

»Bearbeiten« <strong>für</strong> die anlegte Netzwerkkarte den<br />

Treiber auf »Paravirtualisiertes Gerät« (Virtio)<br />

umstellen.<br />

Danach lässt sich die Installation des Windows-<br />

Gastsystems zunächst wie gewohnt in die Wege<br />

leiten. Allerdings wird der Microsoft-Installer<br />

im Zuge der Festplatten-Partitionierung darauf<br />

hinweisen, dass er keine Massenspeicher findet,<br />

weil <strong>für</strong> den Zugriff zunächst das Einbinden des<br />

Virtio-Treibers erforderlich ist. Dieser lässt sich<br />

aus dem gleichen Menü mithilfe der Funktion<br />

»Treiber laden« nachinstallieren. Hier ist dann<br />

der Treiber »Red Hat virtIO SCSI Controller«<br />

univention <strong>Corporate</strong> server<br />

www.Admin-mAgAzin.de Admin<br />

von USB-Passthrough alle Voraussetzungen<br />

<strong>für</strong> den professionellen Einsatz<br />

mitbringt, scheint ihm KVM derzeit den<br />

Rang abzulaufen. Das hat zwei Gründe:<br />

Zum einen unterstützen die offiziellen<br />

Linux-Kernel noch nicht den Betrieb einer<br />

mit PVOps implementierten Dom0.<br />

Zwar hat man seitens XenSource einen<br />

Kernel 2.6.31 speziell <strong>für</strong> diesen Zweck<br />

angepasst, die auf PVOps aufbauenden<br />

Funktionen des offiziellen Linux-Kernels<br />

bieten aber noch keinen Betrieb als<br />

Dom0.<br />

Zum anderen gab es zwar in der Vergangenheit<br />

einige Linux-Distributionen<br />

mit Xen-3.0-Unterstüzung, allerdings ist<br />

bei ihnen <strong>für</strong> den Betrieb als vollwertige,<br />

native DomU nur der offizielle Linux-<br />

Kernel-Quellcode von Xen benutzbar,<br />

der ausschließlich in der Version 2.6.18.8<br />

vorliegt. Daher setzen die meisten Linux-<br />

Distributionen inzwischen auf KVM, das<br />

eine im Linux-Kernel vorhandene Infrastruktur<br />

nutzen kann.<br />

Das UVMM-Modul unterstützt mit seinem<br />

aktuellen UCS-Kernel 2.6.32 Xen<br />

und KVM, Xen allerdings nur mit der<br />

Version 3.4.3. Ein UCS kann abhängig<br />

von der Installation eines der drei Pakete<br />

»Virtual Machine Manager«, »Xen Virtualisierungsserver«<br />

oder »KVM Virtualisierungsserver«<br />

wahlweise eine der drei<br />

mit dem Paketnamen korrespondieren-<br />

in der Version <strong>für</strong> Windows 7 auszuwählen, sowie<br />

der »Red Hat virtIO«-Ethernet Adapter in<br />

der Version <strong>für</strong> Windows <strong>Server</strong> 2008, der mit<br />

Windows 7 kompatibel ist. Nach erfolgreichem<br />

Installieren der Treiber ist die neu angelegte<br />

Festplatte im Windows-Installer sichtbar und<br />

die Installation lässt sich wie gewohnt fortsetzen.<br />

Nach Abschluss der Installation sollten im<br />

Windows-Gerätemanager die Geräte »Red Hat<br />

virtIO SCSI Disk Device« und »Red Hat virtIO<br />

Ethernet Adapter« auftauchen.<br />

Anders sieht es dagegen mit der Paravirtualisierung<br />

mittels Xen aus. Hier stellt Xensource unter<br />

[10] im Rahmen des GPLPV-Projekts Open-<br />

Source-Treiber <strong>für</strong> <strong>virtuelle</strong> Windows-Systeme<br />

zur Verfügung. Das Installieren stellt an sich<br />

kein größeres Problem dar, allerdings sind die<br />

GPLPV-Treiber nicht mit zertifizierten Treiber-<br />

Signaturen ausgestattet, sodass diese von Windows<br />

<strong>Server</strong> 2008 und Vista in der Grundeinstellung<br />

abgewiesen werden. Eine detaillierte<br />

Beschreibung, was dann zu tun ist, findet sich<br />

unter [10].<br />

AusgAbe 03-2011<br />

TesT<br />

109


TesT<br />

Abbildung 1: Eine UCS-Virtualisierungsumgebung<br />

setzt sich aus drei Komponenten zusammen, die<br />

im einfachsten Fall auf ein und derselben Maschine<br />

laufen können.<br />

den Rollen spielen: KVM Hypervisor, Xen<br />

Dom0 oder Virtual Machine Manager.<br />

KVM ist eine auf Teilen des Qemu-Codes<br />

basierende Virtualisierungstechnik, die<br />

offiziell im Linux-Kernel integriert ist.<br />

KVM bietet echte Hardware-Virtualisierung,<br />

läuft aber daher nur auf Hardware-<br />

Plattformen, deren Prozessor Virtualisierungs-Unterstützung<br />

mitbringt (Intel<br />

VT oder AMD-V). Xen basiert ebenfalls<br />

auf einem Hypervisor-Modell und ist<br />

prinzipiell mit allen CPUs verwendbar.<br />

Beide Technologien lassen sich normalerweise<br />

über die Kommandozeile einrichten<br />

und verwalten. Da hierzu bei<br />

Xen und KVM/ Qemu unterschiedliche<br />

Kommandos zum Einsatz kämen, bedient<br />

sich der <strong>Univention</strong> <strong>Server</strong> hierzu der<br />

C- Bibliothek Libvirt.<br />

Die Libvirt bietet eine einheitliche Schnittstelle<br />

zum Verwalten unterschiedlicher<br />

Virtualisierungslösungen. Ursprünglich<br />

gab es nur einen Xen-Treiber, mittlerweile<br />

enthält libvirt Treiber <strong>für</strong> Xen, Qemu,<br />

KVM, Virtualbox, VMware ESX, Xen,<br />

LXC Linux Container System, OpenVZ,<br />

User Mode Linux, OpenNebula und verschiedene<br />

Storage-Systeme und fungiert<br />

damit als API zwischen Virtualisierungssoftware<br />

und Managementwerkzeugen<br />

wie UVMM. Neben dem Verwalten von<br />

<strong>virtuelle</strong>n Maschinen kann Libvirt auch<br />

<strong>virtuelle</strong> Speichermedien, Netzwerke und<br />

Geräte des Host-Systems managen. Die<br />

gesamte Konfiguration ist über XML-Dateien<br />

realisiert. Das Libvirt-Paket bringt<br />

darüber hinaus das interaktive Kommandozeilen-Verwaltungstool<br />

»virsh« mit.<br />

Für die Kommunikation zwischen<br />

den Host-Systemen (Nodes) dient der<br />

univention <strong>Corporate</strong> server<br />

Daemon »libvirtd«, der auf allen Nodes<br />

gestartet sein muss und oberhalb des<br />

Libvirt-APIs residiert. Der »libvirtd« ermittelt<br />

außerdem den lokalen Hypervisor<br />

und stellt den entsprechenden Treiber zur<br />

Verfügung. Außerdem kommunizieren<br />

auch die Managementtools über diesen<br />

Daemon. Die Verbindung lässt sich verschlüsseln<br />

und unterstützt SASL-Authentifizierung<br />

mit Kerberos und SSL-Client-<br />

Zertifikaten. Der Virtual Machine Manager<br />

sichert die VNC-Verbindung mit SSH.<br />

Da UVMM die Libvirt zum Zugriff auf die<br />

darunterliegende Virtualisierungs-Ebene<br />

nutzt, erscheint das Verwalten von Xen-<br />

und KVM-Systemen in UVMM <strong>für</strong> den<br />

Nutzer nahezu identisch, auch wenn es<br />

funktionale Unterschiede in der Libvirt-<br />

Unterstützung gibt. So beherrscht etwa<br />

nur KVM Sicherungspunkte.<br />

UCS-Virtualisierung<br />

Beim UCS besteht eine Virtualisierungsumgebung<br />

stets aus mindestens zwei<br />

Komponenten, nämlich einem Virtualisierungsserver<br />

(Xen oder KVM) und<br />

einem UCS, der als Virtual Machine Manager<br />

(UVMM) fungiert. Die zugehörige<br />

Rollenverteilung ergibt sich wie gesehen<br />

einerseits aus der Auswahl des zu installierenden<br />

Pakets im Setup-Programm.<br />

Im Verlauf der Installation muss man außerdem<br />

jedem UCS-System eine Systemrolle<br />

zuweisen. So kann ein als UVMM-<br />

Manager auserkorener UCS gleichzeitig<br />

auch Master Domain Controller, Backup<br />

Domain Controller oder Slave Domain<br />

Controller sein. Ein Virtualisierungsserver<br />

kann zudem<br />

UCS-Memberserver<br />

sein.<br />

Beim Aufsetzen<br />

einer neuen UCS-<br />

Virtualisierungsumgebung<br />

genügt<br />

es im einfachsten<br />

Szenario, einen<br />

DC Master aufzusetzen,<br />

der gleichzeitig<br />

als physischer<br />

<strong>Server</strong> <strong>für</strong><br />

die Virtualisierung<br />

fungiert und den<br />

UVMM-Dienst zur<br />

Verfügung stellt.<br />

Nach dem obliga- Virtualisierungsserver.<br />

torischen Neustart stehen im Grub-Bootloader<br />

mehrere Kernel zur Auswahl. Mit<br />

dem ersten Eintrag startet der UCS den<br />

Xen-Kernel und lädt den Hypervisor <strong>für</strong><br />

die Virtualisierung auf dem physischen<br />

<strong>Server</strong>.<br />

Der Xen-Hypervisor ist im Xen-Virtualisierungszenario<br />

<strong>für</strong> das Verteilen der<br />

Ressourcen auf die <strong>virtuelle</strong>n Maschinen<br />

zuständig. Allerdings muss der Administrator<br />

den Xen-Hypervisor noch konfigurieren.<br />

Dabei gilt es, zunächst die<br />

Gewichtung der Ressourcenverteilung<br />

zwischen Hypervisor und Gast-Instanzen<br />

anzupassen, was Xen intern mithilfe sogenannter<br />

Credits regelt. Per Default sind<br />

alle Ressourcen gleich verteilt und mit<br />

einem Credit-Wert von 256 belegt. Die<br />

Dokumentation empfiehlt, in der Datei »/<br />

etc/ rc.local« den Wert <strong>für</strong> den Hypervisor<br />

auf 512 zu erhöhen. Dazu ist in der vorletzten<br />

Zeile vor »exit 0« der Eintrag<br />

xm sched‑credit ‑d Domain‑0 ‑w 512<br />

zu ergänzen. Die Xen-Dokumentation<br />

empfiehlt außerdem, dem Hypervisor<br />

einen Anteil des physischen Arbeitsspeichers<br />

und auf MehrkernSystemen eine<br />

oder mehrere CPUs fest zuzuweisen.<br />

Diese Konfiguration kann beim UCS mithilfe<br />

einer UCS-Systemvariable »grub/<br />

xenhopt« erfolgen, die der Admin beim<br />

UCS mit »ucr set« setzen kann:<br />

ucr set grub/xenhopt="dom0_mem=xxxxM U<br />

dom0_max_vcpus=x dom0_vcpus_pin"<br />

Hierbei steht xxxx <strong>für</strong> die Größe des zuzuweisenden<br />

Arbeitsspeichers in Megabyte,<br />

x <strong>für</strong> die Anzahl zuzuweisender<br />

Abbildung 2: Dieser UCS-<strong>Server</strong> kann wahlweise als Xen-Hypervisor oder UCS-<br />

Managementsystem fungieren, mangels CPU-Unterstützung aber nicht als KVM-<br />

110 AusgAbe 03-2011 Admin www.Admin-mAgAzin.de


CPUs. Die nötige Größe des Arbeitsspeichers<br />

hängt primär von der Anzahl<br />

laufender Dienste ab. Wer einen reinen<br />

UCS-Virtualisierungsserver aufsetzt,<br />

sollte mit 1 GByte Arbeitsspeicher <strong>für</strong><br />

einen Xen-Hypervisor zurechtkommen.<br />

Will man neben der Xen-Virtualisierung<br />

weitere Dienste vom UCS zur Verfügung<br />

stellen (Webserver, Mailserver), ist der<br />

Wert gegebenenfalls nach oben zu korrigieren,<br />

etwa<br />

ucr set grub/xenhopt="dom0_mem=1024M U<br />

dom0_max_vcpus=1 dom0_vcpus_pin"<br />

<strong>für</strong> einen Virtualisierungs-<strong>Server</strong> mit<br />

4 GByte RAM und zwei CPUs.<br />

UVMM-Assistenten<br />

Sind alle Konfigurationsvorarbeiten erledigt,<br />

ist das Anlegen und Verwalten <strong>virtuelle</strong>r<br />

Instanzen im grafischen UVMM-Modul<br />

der <strong>Univention</strong> Management Console<br />

relativ einfach. Vor dem Konfigurieren<br />

ADMIN<br />

Netzwerk & Security<br />

<strong>virtuelle</strong>r Instanzen ist unbedingt darauf<br />

zu achten, den seit Anfang April 2011<br />

verfügbaren Patch-Level 2.4-2 wie beschrieben<br />

einzuspielen. Damit lässt sich<br />

dann beispielsweise der paravirtualisierte<br />

Zugriff auf Laufwerke und <strong>Server</strong> direkt<br />

über das UVMM-Modul einrichten. Virtualisierte<br />

Systeme können so auf Geräte des<br />

physischen Virtualisierungsservers (CD,<br />

DVD) zugreifen (Passthrough), außerdem<br />

lassen sich jeder <strong>virtuelle</strong>n Instanz auch<br />

mehrere Netzwerkkarten zuweisen. Weiter<br />

kann der Admin im UVMM-Profil den<br />

Parameter »Architektur« auf »automatic«<br />

setzten, womit das UVMM-Modul stets<br />

die Hardware des physischen <strong>Server</strong>s auf<br />

der <strong>virtuelle</strong>n Maschine anbietet.<br />

Übrigens ist es auf einem 64-Bit-System<br />

nicht mehr erforderlich, eine 32-Bit-<br />

CPU zu emulieren. Allerdings lässt sich<br />

durchaus auch ein 32-Bit-Betriebssystem<br />

installieren. Beim Erstellen <strong>virtuelle</strong>r<br />

Maschinen erzeugt das System in der<br />

Regel vollvirtualisierte Systeme (KVM),<br />

HOME DAS HEFT MEDIADATEN KONTAKT NEWSLETTER ABO<br />

sofern die im Virtualisierungsserver<br />

verbaute CPU über eine VT-Erweiterung<br />

verfügt. Xen-Hosts dagegen beherrschen<br />

in Verbindung mit Linux auch Paravirtualisierung.<br />

Das UVMM-Modul heißt innerhalb der<br />

<strong>Univention</strong> Management Console (UMC)<br />

»Virtuelle Maschinen« und zeigt auf der<br />

linken Seite in einer Baumstruktur eine<br />

Übersicht der vorhandenen physischen<br />

<strong>Server</strong> gruppiert nach Namen an, dazu<br />

die jeweils konfigurierten <strong>virtuelle</strong>n Instanzen.<br />

Wählt man einen physischen <strong>Server</strong><br />

aus, erscheint rechts seine CPU- und<br />

Speicherauslastung.<br />

Das UVMM-Modul kann <strong>virtuelle</strong><br />

Instanzen anlegen, bearbeiten und<br />

löschen. Außerdem kann der Admin den<br />

Status einer <strong>virtuelle</strong>n Instanz ändern.<br />

Im Detail hängt der Funktionsumfang<br />

von der darunter liegenden Virtualisierungstechnik<br />

ab; sogenannte Sicherungspunkte<br />

sind beispielsweise nur mit<br />

KVM möglich. Zum Erstellen einer neuen<br />

ADMIN-Magazin – <strong>für</strong> alle IT-Administratoren<br />

Bei uns wird SICHERHEIT groß geschrieben<br />

Linux I Windows I Security I Monitoring I Storage I Datenbanken I Mailserver I Virtualisierung<br />

SECURITY<br />

<strong>Server</strong>-Systeme richtig abzusichern<br />

gehört zu den Hauptaufgaben jedes<br />

Administrators. Sei es durch Firewalls,<br />

Intrusion-Detection-Systeme oder Mandatory<br />

Access Control mit SELinux.<br />

Besonderes Augenmerk richtet ADMIN<br />

auf die Absicherung von Webservern,<br />

die heute heute mit SQL-Injection, Cross Site<br />

Scripting und Request Forgery bis zu<br />

90% der der Sicherheitslücken ausmachen.<br />

univention <strong>Corporate</strong> server<br />

www.admin-magazin.de<br />

Suchen<br />

Diese Website durchsuchen:<br />

Security<br />

➔ über 100 Ergebnisse!<br />

Themen<br />

TesT<br />

Suchen<br />

Windows Verschlüsselung Datenbank<br />

IDS Dateisysteme Linux Monitoring<br />

Storage Webserver Virtualisierung<br />

Nobilior, Fotolia


TesT<br />

<strong>virtuelle</strong>n Instanz steht im UVMM-Modul<br />

ein Assistent zur Verfügung.<br />

Profile<br />

Mit »Hinzufügen« muss der Admin zunächst<br />

ein Profil auswählen, von dem<br />

Einstellungen <strong>für</strong> die <strong>virtuelle</strong> Instanz wie<br />

etwa Namenspräfix, Anzahl der CPUs,<br />

Arbeitsspeicher sowie die Verfügbarkeit<br />

einiger weiterer Parameter abhängen. Im<br />

Profil lässt sich übrigens auch festlegen,<br />

ob der direkte Remote-Zugriff via VNC<br />

erlaubt sein soll.<br />

Übrigens stellt UVMM im Assistenten<br />

zum Erzeugen <strong>virtuelle</strong>r Instanzen eine<br />

Reihe vordefinierter Profile zur Verfügung,<br />

die die meisten Einstellungen mit<br />

sinnvollen Vorgabewerten füllen. Der<br />

Administrator kann diese Werte entweder<br />

direkt im Assistenten oder später in den<br />

erweiterten Einstellungen nachträglich<br />

ändern. Zurzeit stehen abhängig von der<br />

verwendeten Rechnerarchitektur (i386<br />

oder AMD64), die vordefinierten Profile<br />

Windows XP, Windows 7, Windows 7 (64<br />

Bit), Windows 2003, Windows 2003 R2<br />

(64 Bit), Windows 2008, Windows 2008<br />

R2 (64 Bit), UCS 2.4, UCS 2.4 (64 Bit),<br />

Other und Other (64 Bit) zur Auswahl.<br />

Zusätzlich liest der UVMM vorhandene<br />

Profile aus dem LDAP-Verzeichnis.<br />

Experten können diese dort im Container<br />

»cn=Profiles,cn=Virtual Machine Manager«<br />

auch direkt bearbeiten, zum Beispiel<br />

im grafischen <strong>Univention</strong> Directory<br />

Manager (UDM).<br />

Dort lassen sich übrigens auch weitere<br />

Profile hinzufügen. Mit der aktuellen<br />

univention <strong>Corporate</strong> server<br />

Abbildung 3: Steht KVM mangels CPU-Unterstützung nicht zur Verfügung, erstellt das System eine<br />

paravirtualisierte Xen-Umgebung.<br />

UCS-Version 2.4-2 wird das UVMM-Modul<br />

übrigens vom <strong>Univention</strong>-Directory-<br />

Listener-Modul aktualisiert, sobald sich<br />

Informationen über <strong>virtuelle</strong> Maschinen<br />

im LDAP ändern, was zu einer deutlichen<br />

Lastreduzierung führen soll.<br />

Laufwerkstypen<br />

Mit »Weiter« lässt sich ein Laufwerk in<br />

die Virtualisierungsumgebung einbinden.<br />

Bei <strong>virtuelle</strong>n Festplatten ist wahlweise<br />

das Erstellen einer Image-Datei<br />

oder das Auswählen einer vorhandenen<br />

Image-Datei möglich. Der Admin kann<br />

<strong>für</strong> Festplatten-Images bei KVM auch<br />

das erweiterte Standardformat »qcow2«<br />

verwenden (Default), das Copy-on-Write<br />

unterstützt oder das einfache Raw-Format.<br />

Bei Copy-on-Write überschreibt eine<br />

Änderung nicht das Original, sondern<br />

legt die neue Version an einer anderen<br />

Position ab. Dabei wird allerdings die interne<br />

Referenzierung derart aktualisiert,<br />

dass ein Zugriff wahlweise auf die Originalversion<br />

oder die neue Version möglich<br />

ist, eine entscheidende Voraussetzung <strong>für</strong><br />

das Erstellen von Sicherungspunkten.<br />

Diese Funktion steht nur bei <strong>virtuelle</strong>n<br />

Festplatten im erweiterten Image-Format<br />

zur Verfügung. Auf Xen-Systemen gibt es<br />

dagegen nur das Raw-Format.<br />

Virtuelle CDs<br />

Abbildung 4: Assistenten helfen beim Anlegen neuer <strong>virtuelle</strong>r Instanzen.<br />

Jeder Virtualisierungsserver stellt per<br />

Default den Speicherbereich »Lokales<br />

Verzeichnis« zur Verfügung, der auf dem<br />

Virtualisierungs-<strong>Server</strong>n unter »/var/lib/<br />

libvirt/images/« abgebildet ist. Selbstverständlich<br />

lassen sich ISO-Dateien auch<br />

direkt in dieses Verzeichnis kopieren und<br />

sich dann von dort im UVMM-Dialog mit<br />

Laufwerken verknüpfen.<br />

Im nächsten Schritt muss der<br />

Administrator mindestens noch ein<br />

weiteres Laufwerk, diesmal ein CD-<br />

Laufwerk, hinzufügen und kann dann<br />

unmittelbar das zuvor kopierte ISO als<br />

Boot-Medium auswählen.<br />

112 AusgAbe 03-2011 Admin www.Admin-mAgAzin.de


Abbildung 5: Profile <strong>für</strong> <strong>virtuelle</strong> Instanzen sind beim UCS konsequenterweise auch im LDAP gespeichert.<br />

Beim Anlegen eines neuen <strong>virtuelle</strong>n<br />

Laufwerks <strong>für</strong> eine neue Virtualisierungsinstanz<br />

muss der Admin im UVMM-Profil<br />

die Bootreihenfolge <strong>für</strong> vollvirtualisierte<br />

Instanzen einstellen, damit sichergestellt<br />

ist, dass die VM auch tatsächlich von<br />

dem mit dem CD-Laufwerk verknüpften<br />

ISO-Image bootet. Bei paravirtualisierten<br />

Instanzen ergibt sich Boot-Reihenfolge<br />

aus der Reihenfolge beim Definieren der<br />

Laufwerke. Diese lässt sich aber nach Beenden<br />

des Assistenten mit »Fertigstellen«<br />

im Menü »Laufwerke« mit »Als Boot-Medium<br />

setzen« beeinflussen.<br />

www.Admin-mAgAzin.de<br />

Wurde eine <strong>virtuelle</strong> Instanz erfolgreich<br />

definiert, zeigt das UVMM-Modul links<br />

eine Übersicht der neuen Instanzen,<br />

gruppiert nach Sicherungspunkten (nur<br />

KVM), Laufwerken, Netzwerkschnittstellen<br />

und Einstellungen. Die meisten Einstellungsoptionen<br />

in der GUI sind intuitiv<br />

und selbsterklärend. Wer entsprechende<br />

Dialoge von Virtualbox, Parallels oder<br />

VMware Workstation kennt, wird sich<br />

zurechtfinden.<br />

Via UVMM angelegte <strong>virtuelle</strong> Instanzen<br />

sind übrigens per Default ausgeschaltet.<br />

Das Einschalten lässt sich auf zweierlei<br />

Abbildung 6: Beim Hinzufügen von Laufwerken stehen das Gcow- und das Raw-Format zur Auswahl.<br />

Linux-Magazin<br />

ACADEMY<br />

Online-Training<br />

Prüfungsvorbereitung<br />

<strong>für</strong> LPIC 1 & 2<br />

Besorgen Sie sich<br />

Brief und Siegel<br />

<strong>für</strong> Ihr Linux-<br />

Knowhow mit der<br />

LPI-Zertifizierung.<br />

- Training <strong>für</strong> die Prüfungen LPI<br />

101 und 102<br />

- Training <strong>für</strong> die Prüfungen LPI<br />

201 und 202<br />

SpAren SIe mIt<br />

pAketpreISen 20%<br />

Rabatt <strong>für</strong><br />

Abonnenten<br />

Auszug aus dem Inhalt:<br />

❚ Hardware-Einstellungen,<br />

Paketverwaltung<br />

❚ Arbeiten auf der<br />

Kommandozeile<br />

❚ Partitionen und Dateisysteme<br />

❚ Shell-Umgebung<br />

❚ Netzkonfiguration und<br />

-verwaltung<br />

❚ Protokolle<br />

❚ DNS-<strong>Server</strong> einrichten und<br />

verwalten<br />

❚ Verschlüsselung und<br />

Rechteverwaltung<br />

❚ Kernel kompilieren und<br />

patchen<br />

❚ RAID-Konfiguration,<br />

Logical Volume Manager<br />

❚ Web-, Proxy-, Samba-<strong>Server</strong><br />

Mit vielen<br />

Praxisbeispielen<br />

Information und Anmeldung unter:<br />

academy.linux-magazin.de/wordpress


TesT<br />

Art bewerkstelligen, nämlich entweder in<br />

der Übersicht des jeweiligen physischen<br />

<strong>Server</strong>s mit dem zugehörigen Listeneintrag<br />

oder in der Übersicht der <strong>virtuelle</strong>n<br />

Instanz selbst. In diesem Fall gibt es hier<br />

einen Abschnitt »Operationen«.<br />

Mit »Starten« fährt der Admin eine <strong>virtuelle</strong><br />

Instanz hoch, »Beenden« stoppt<br />

sie erwartungsgemäß. Fährt der Benutzer<br />

oder Admin das darin laufende Betriebssystem<br />

vorher nicht herunter, gleicht<br />

dieser Vorgang dem Ausschalten eines<br />

physischen Rechners. Mit »Pausieren«<br />

lässt sich der jeweiligen <strong>virtuelle</strong>n Instanz<br />

sämtliche CPU-Zeit entziehen; allerdings<br />

bleibt der Arbeitsspeicher auf<br />

dem physischen System belegt. Mit »Speichern<br />

und Beenden« ist gewährleistet,<br />

dass der Arbeitsspeicher der <strong>virtuelle</strong>n<br />

Instanz gesichert ist, bevor der Instanz<br />

CPU-Zeit vollständig entzogen wird. Im<br />

Unterschied zum Pausieren gibt diese<br />

Funktion außerdem den Arbeitsspeicher<br />

wieder frei.<br />

Neustart mit KVM<br />

Gespeicherte <strong>virtuelle</strong> Maschinen lassen<br />

sich mit »Starten« wieder in Betrieb nehmen,<br />

allerdings ist diese Funkion nur auf<br />

Virtualisierungs-<strong>Server</strong>n auf KVM-Basis<br />

verfügbar. Mit »Fortfahren« wird einer<br />

pausierenden Instanz wieder CPU-Zeit<br />

zugewiesen, was den Zustand vor dem<br />

Pausieren restauriert. Das »Löschen« einer<br />

<strong>virtuelle</strong>n Instanz hängt das betref-<br />

univention <strong>Corporate</strong> server<br />

Abbildung 7: ISO-Imagedateien liegen beim UCS im Speicherbereich »lokaler Speicher« und lassen sich mit<br />

UVMM einfach etwa als CD-Laufwerk einbinden.<br />

fende Laufwerk aus und löscht optional<br />

auch die korrespondierende Image-Datei.<br />

Das Menü »Laufwerke« zeigt eine Liste<br />

aller definierten <strong>virtuelle</strong>n Laufwerke mit<br />

Typ, Image-Datei und Größe.<br />

Virtuelle CDROM-Images erlauben ausschließlich<br />

das Einbinden existenter<br />

ISOs. Bei Festplatten-Images lassen sich<br />

dagegen auch solche hinzufügen, deren<br />

reale Größe im laufenden Betrieb bis zur<br />

angegebenen Größe mitwächst (Sparse-<br />

Datei). Außerdem legt der Admin hier<br />

die Boot-Reihenfolge fest, in der das<br />

emulierte BIOS der <strong>virtuelle</strong>n Instanz<br />

die Laufwerke nach bootbaren Medien<br />

durchsucht.<br />

Ganz unten im Menü »Einstellungen« findet<br />

der Admin die grundlegenden Einstellungen<br />

jeder <strong>virtuelle</strong>n Instanz, die sich<br />

freilich nur ändern lassen, wenn die <strong>virtuelle</strong><br />

Instanz ausgeschaltet ist und keine<br />

Sicherungspunkte angelegt sind. Dabei<br />

muss der Name der <strong>virtuelle</strong>n Instanz bei<br />

»Name« mit deren Hostnamen im LDAP<br />

storage-Verwaltung<br />

UVMM greift mithilfe sogenannter Speicherbereiche<br />

(Storage Pools) auf Festplatten- und<br />

ISO-Images zu. Bei einem solchen Storage-<br />

Pool handelt es sich wahlweise um ein lokales<br />

Verzeichnis auf einem Virtualisierungsserver,<br />

ein NFS-Share, ein iSCSI-Target oder ein LVM-<br />

Volume. Die Definition solcher Speicherbereiche<br />

erfolgt über XML-Dateien. Definitionsbeispiele<br />

<strong>für</strong> Storage-Backends können der Dokumentation<br />

der Libvirt-Seite [5] entnommen werden.<br />

übereinstimmen. Im Feld »Architektur«<br />

kann der Admin die Architektur der<br />

emulierten Hardware festlegen. Virtuelle<br />

64-Bit-Instanzen lassen sich nur auf <strong>Server</strong>n<br />

mit AMD64-Architektur anlegen.<br />

Das Feld »Anzahl der CPUs« legt fest,<br />

wie viele <strong>virtuelle</strong> CPUs die Libvirt der<br />

<strong>virtuelle</strong>n Instanz zuteilt. Das Feld »Speicher«<br />

bestimmt die Größe des Arbeitsspeichers.<br />

Einstellungen zum <strong>virtuelle</strong>n<br />

Netzwerk-Interface finden sich im Menü<br />

»Netzwerkschnittstellen«, wie etwa die<br />

MAC-Adresse der Netzwerkschnittstelle.<br />

Bei Nichtausfüllen trägt UVMM einen Zufallswert<br />

ein. Mit »Netzwerkschnittstelle«<br />

gibt der Admin das <strong>für</strong> die Bridge des<br />

physischen <strong>Server</strong>s benutzte Interface an;<br />

Default ist »eth0«. Seit dem Patch-Level<br />

2.4.2 lassen sich pro <strong>virtuelle</strong>r Instanz<br />

übrigens mehrere Netzwerkschnittstellen<br />

definieren. UVMM unterstützt dazu die<br />

Typen »Bridged« und »NAT«.<br />

Ganz unten gibt es noch den Bereich<br />

»Erweiterte Einstellungen«, in dem sich<br />

Attribute, wie beispielsweise die verwendete<br />

Virtualisierungstechnik finden und<br />

die der Admin in der Regel beim Erzeugen<br />

einer <strong>virtuelle</strong>n Instanz bestimmt.<br />

Außerdem findet sich hier auch die schon<br />

bei der Profil-Definition festgelegte Option<br />

<strong>für</strong> den Direktzugriff. Mit Setzen<br />

der Option »Direktzugriff« öffnet UVMM<br />

unmittelbar beim Starten der <strong>virtuelle</strong>n<br />

Instanz eine Java-Session im Browser, die<br />

den Zugriff via VNC auf das virtualisierte<br />

Betriebssystem ermöglicht.<br />

Zugriff mit VNC<br />

Es ist allerdings auch möglich, ein eigenständiges<br />

VNC-Zugriffsprogramm zu<br />

benutzen. Wie das funktioniert, lässt sich<br />

unter [4] nachlesen. Auf KVM-Systemen<br />

bietet UVMM außerdem die Möglichkeit<br />

zum Anlegen von Sicherungspunkten, zu<br />

UCS verwendet per Default »/ var/lib/libvirt/<br />

images« als Storage-Pool. Alle durch UVMM<br />

erzeugten Festplatten-Images sind sogenannte<br />

Sparse-Dateien, die im laufenden Betrieb mit<br />

dem tatsächlichen Füllstand kontinuierlich<br />

anwachsen. Daher ist es empfehlenswert, das<br />

Volllaufen dieses Verzeichnisses stetig zu überwachen,<br />

etwa mit einer Monitoring-Lösung wie<br />

Nagios. Tipps, etwa zum Anlegen eines iSCSI-<br />

Speicherbereiches, finden sich unter [6].<br />

114 AusgAbe 03-2011 Admin www.Admin-mAgAzin.de


denen man bei Bedarf jederzeit zurückkehren<br />

kann. Voraussetzung da<strong>für</strong> sind<br />

Festplatten-Images im QCow2-Format.<br />

Wie beschrieben werden sämtliche Sicherungspunkte<br />

im Copy-on-Write-Verfahren<br />

in den Image-Dateien gespeichert.<br />

Die zugehörige Verwaltungsfunktion findet<br />

sich im Abschnitt »Sicherungspunkte«<br />

der Einstellungen <strong>für</strong> eine <strong>virtuelle</strong>n<br />

Machine. Mit » Neuer Sicherungspunkt<br />

erstellen« erstellt der Admin einen Sicherungspunkt.<br />

Neben dem frei wählbaren<br />

Namen speichert UVMM auch den Zeitpunkt,<br />

an dem der Sicherungspunkt erstellt<br />

wurde. Die nachfolgende Liste zeigt<br />

alle vorhandenen Sicherungspunkte in<br />

chronologisch-umgekehrter Reihenfolge.<br />

Mit »Wiederherstellen« lässt sich die <strong>virtuelle</strong><br />

Instanz leicht zu einem früheren<br />

Sicherungspunkt zurücksetzen.<br />

Fazit<br />

Neben den kommerziellen Virtualisierungslösungen<br />

haben sich die beiden<br />

freien Virtualisierungstechnologien<br />

Xen und KVM einen festen Platz in der<br />

Admin-Gunst erworben. Seit KVM fester<br />

Bestandteil des Linux-Kernels ist und im<br />

Zusammenhang mit einer entsprechend<br />

ausgestatteten CPU volle Hardwarevirtualisierung<br />

ermöglicht, scheint KVM dem<br />

einstigen Star Xen den Rang abzulaufen.<br />

Trotzdem wird es noch eine ganze Zeit <strong>für</strong><br />

beide Technologien ihre Daseinsberechtigung<br />

geben, weil es einerseits immer<br />

noch sehr viele Xen-Nutzer gibt und zum<br />

anderen nur Xen-Paravirtualisierung ohne<br />

Abbildung 9: UVMM bietet einen eingebauten VNC-Viewer, der unkompliziert<br />

einen grafischen Zugriff auf die <strong>virtuelle</strong> Maschine aus UVMM ermöglicht.<br />

CPU-Unterstützung ermöglicht. Zu der im<br />

ADMIN 05/ 2010 [3] vorgestellten Open<br />

Source Virtualisierungsplattform Proxmox,<br />

die KVM- und OpenVZ-Container im Browser<br />

administriert, gesellt sich der neue <strong>Univention</strong><br />

<strong>Corporate</strong> <strong>Server</strong> 2.4-2 als weitere<br />

Plattform, die das Verwalten von KVM-<br />

Instanzen im Browser erlaubt. Zusätzlich<br />

bietet UCS eine komfortable Möglichkeit<br />

zum Einrichten vom Xen-Virtualisierungsszenarien,<br />

wenn auch nur auf Basis der<br />

Version 3.4. Interessant <strong>für</strong> den Unternehmenseinsatz<br />

sind am <strong>Univention</strong> <strong>Corporate</strong><br />

<strong>Server</strong> das Domänen-Konzept auf Basis<br />

von Open LDAP<br />

sowie die BrowserbasiertenManagementsysteme<br />

UDM<br />

und UMC. Zwar<br />

mutet die Aufmachung<br />

mit den etwas<br />

angestaubten<br />

KDE-Icons sowie<br />

der Curses-basierte<br />

Installer etwas altertümlich<br />

an. Hinter<br />

dem gesamten<br />

Konzept des UCS-<br />

<strong>Server</strong>s steckt eine<br />

geballte Portion<br />

Know-how, die <strong>für</strong><br />

jeden Admin von<br />

Nutzen ist. (jcb) n<br />

univention <strong>Corporate</strong> server<br />

Abbildung 8: Virtuelle Instanzen verwaltet der Administrator im zugehörigen UVMM-Profil.<br />

www.Admin-mAgAzin.de Admin<br />

Infos<br />

[1] Download <strong>Univention</strong> UCS 2.4:<br />

[http:// www. univention. de/ download/<br />

free-for-personal-use-edition/]<br />

[2] Changelog Patchlevel 2.4-2 :<br />

[http:// download. univention. de/ doc/<br />

changelog-2. 4-2. pdf]<br />

[3] Thomas Drilling, „Proxmox: Container-<br />

und Hardware-Virtualisierung unter einem<br />

Dach“, ADMIN 05/ 2010: [http:// www.<br />

admin-magazin. de/ content/ 05-2010-virtual<br />

isierung-vom-<strong>virtuelle</strong>n-server-zur-cloud]<br />

[4] VNC-Viewer: [http:// wiki. univention. de/<br />

index. php? title=Konfiguration_eines_externen_VNC-Viewers]<br />

[5] Libvirt-Storage:<br />

[http:// libvirt. org/ storage. html]<br />

[6] iSCSI-Storage <strong>für</strong> UCS/ UVMM:<br />

[http:// wiki. univention. de/ index. php? title<br />

=UVMM-iSCSI-Speicherbereiche]<br />

[7] KVM Virtio-Treiber:<br />

[http:// www. linux-kvm. org/ page/<br />

WindowsGuestDrivers/ Download_Drivers]<br />

[8] Virtio-Treiber von Fedora:<br />

[http:// alt. fedoraproject. org/ pub/ alt/<br />

virtio-win/ latest/ images/ bin/]<br />

[9] Xensource GPLPV-Treiber:<br />

[http:// wiki. xensource. com/ xenwiki/<br />

XenWindowsGplPv/]<br />

[10] GPLPV-Treiber <strong>für</strong> Xen installieren:<br />

[http:// wiki. univention. de/ index. php?<br />

title=UVMM-GPLPV]<br />

AusgAbe 03-2011<br />

TesT<br />

115

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!