BACHELORTHESIS - Hochschule Ulm
BACHELORTHESIS - Hochschule Ulm
BACHELORTHESIS - Hochschule Ulm
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Fakultät Informatik<br />
Studiengang Wirtschaftsinformatik<br />
<strong>BACHELORTHESIS</strong><br />
„Konzeption und Implementierung der Infrastruktur eines<br />
Produktionsbetriebes auf Basis von Virtualisierung“<br />
Von Jan Simmendinger<br />
Arbeitsplatz SOFT-CONSULT Häge GmbH, Langenau<br />
Erstbetreuer Prof. Dr. Achim Dehnert<br />
Zweitbetreuer Prof. Dr. Jörg-Oliver Vogt<br />
Abgabetermin 27. Oktober 2011
Bachelorthesis Jan Simmendinger<br />
Eigenständigkeitserklärung<br />
Ich versichere, dass ich die vorgelegte Abschlussarbeit eigenständig und ohne fremde Hilfe<br />
verfasst, keine anderen als die angegebenen Quellen verwendet und die benutzten Quellen<br />
als solche kenntlich gemacht habe. Diese Arbeit ist in dieser oder einer ähnlichen Form in<br />
keinem anderen Prüfungsverfahren vorgelegt worden.<br />
<strong>Ulm</strong>, den 27.10.2011 ____________________________<br />
2
Bachelorthesis Jan Simmendinger<br />
Danksagung<br />
Bedanken möchte ich mich bei Herrn Prof. Dr. Achim Dehnert für die Betreuung der Arbeit.<br />
Außerdem bedanke ich mich bei meinen Kommilitonen für die allzeit gute Zusammenarbeit<br />
und allen Professoren der <strong>Hochschule</strong>n <strong>Ulm</strong> und Neu-<strong>Ulm</strong>, die mich während des durchweg<br />
interessanten Studiums betreut haben.<br />
Der Firma Soft-Consult und der Firma Mouldtec danke ich für die Unterstützung während<br />
der praktischen Phase der Arbeit.<br />
Meinen Eltern danke ich ebenfalls ganz besonders, weil sie mich während des Studiums stets<br />
nach Kräften unterstützt und mir dieses dadurch überhaupt ermöglicht haben.<br />
Zu guter Letzt möchte ich meiner Freundin Franziska danken, nicht nur für das Korrektur<br />
lesen, sondern auch für die moralische Unterstützung über die Bearbeitungszeit hinweg.<br />
3
Bachelorthesis Jan Simmendinger<br />
Inhalt<br />
1. Einleitung ......................................................................................................................................... 8<br />
2. Definitionen ..................................................................................................................................... 9<br />
2.1. Begriffe und Schlüsselwörter .................................................................................................. 9<br />
2.1.1. IT-Strategie ...................................................................................................................... 9<br />
2.1.2. Backup und Sicherungstechnologien .............................................................................. 9<br />
2.1.3. Migration ......................................................................................................................... 9<br />
2.1.4. Virtualisierung ............................................................................................................... 10<br />
2.2. Eingesetzte Maschinen .......................................................................................................... 12<br />
2.2.1. ThinClient....................................................................................................................... 12<br />
2.2.2. SAN (Storage-Area-Network) ........................................................................................ 13<br />
2.2.3. Terminalserver .............................................................................................................. 14<br />
2.3. Vorgehensweisen bei der Migration ..................................................................................... 15<br />
2.3.1. Kontinuierlicher Übergang ............................................................................................ 15<br />
2.3.2. Iterative Migration ........................................................................................................ 15<br />
2.3.3. Vollmigration ................................................................................................................. 16<br />
3. Theorie .......................................................................................................................................... 17<br />
3.1. Gründe für Hostvirtualisierung .............................................................................................. 17<br />
3.1.1. Antrieb für die Virtualisierung von Serversystemen ..................................................... 17<br />
3.1.2. Energie ........................................................................................................................... 17<br />
3.1.3. Geringerer Wartungsaufwand und kürzere Bereitstellungszeiten ............................... 18<br />
3.1.4. Erhöhte Zuverlässigkeit ................................................................................................. 19<br />
3.1.5. Einfache Rollback- und Backupfunktionalität................................................................ 19<br />
3.1.6. Hardwareunabhängigkeit .............................................................................................. 20<br />
3.1.7. Ortsunabhängige Systemwartung ................................................................................. 21<br />
3.1.8. Kapital ............................................................................................................................ 22<br />
3.2. Gründe für die Desktopvirtualisierung .................................................................................. 22<br />
3.2.1. Triebfedern .................................................................................................................... 22<br />
3.2.2. Zentrale Bündelung der Ressourcen ............................................................................. 22<br />
3.2.3. Geringere Anforderungen an die Clients....................................................................... 23<br />
3.2.4. Vorteile bei der Datensicherung ................................................................................... 23<br />
3.2.5. Flexible Nutzung von Anwendungen ............................................................................. 24<br />
3.2.6. Plattformunabhängigkeit .............................................................................................. 25<br />
4
Bachelorthesis Jan Simmendinger<br />
3.2.7. Vereinfachte Administration ......................................................................................... 26<br />
3.3. Virtualisierungslösungen ....................................................................................................... 26<br />
3.3.1. ESXi und vSphere von VMWare ..................................................................................... 27<br />
3.3.2. Microsoft Hyper-V ......................................................................................................... 27<br />
3.3.3. Citrix XEN Server ............................................................................................................ 28<br />
3.3.4. QEMU ............................................................................................................................ 28<br />
3.4. Warum wird migriert ............................................................................................................. 29<br />
3.4.1. Gründe für Erneuerung ................................................................................................. 29<br />
3.4.2. Nachteile gewachsener Strukturen ............................................................................... 30<br />
3.4.3. Probleme veralteter Systeme ........................................................................................ 30<br />
3.4.4. Vorteile einer Erneuerung ............................................................................................. 31<br />
4. Vorgehensweise bei Migrationsprojekten .................................................................................... 32<br />
4.1. Grundlagenplanung ............................................................................................................... 32<br />
4.1.1. Zustand der technischen Systeme und der Dokumentation ......................................... 32<br />
4.1.2. Analyse von Aufgaben und Orientierung am Prozessmanagement.............................. 32<br />
4.1.3. Technologischen Fortschritt nutzen .............................................................................. 33<br />
4.1.4. Vorüberlegungen zu Alternativen im Hostbereich ........................................................ 33<br />
4.1.4.1. Outsourcing ........................................................................................................... 33<br />
4.1.4.2. Hostsysteme in Hardware ..................................................................................... 35<br />
4.1.4.3. Konsolidierung von Diensten auf einem Betriebssystem ...................................... 36<br />
4.1.5. Vorüberlegungen zu Alternativen im Desktopbereich .................................................. 37<br />
4.1.5.1. Anwendungsvirtualisierung ................................................................................... 37<br />
4.1.5.2. Nutzung von Diensten im Browser ........................................................................ 38<br />
4.1.6. Projektumfang und Rahmenbedingungen .................................................................... 39<br />
4.1.6.1. Kapital .................................................................................................................... 39<br />
4.1.6.2. Aufwand ................................................................................................................ 40<br />
4.1.6.3. Technische Gegebenheiten ................................................................................... 40<br />
4.2. Konzepte ................................................................................................................................ 41<br />
4.2.1. Ideen sammeln und bündeln ......................................................................................... 41<br />
4.2.2. Bewertung der Konzepte und Freigabe ......................................................................... 41<br />
4.3. Erstellung eines Projektplans ................................................................................................ 43<br />
4.3.1. Arbeitspakete definieren ............................................................................................... 43<br />
4.3.2. Klären von Personal- und Kompetenzfragen................................................................. 44<br />
4.3.3. Klären von Abhängigkeiten und Erstellung des Zeitplans ............................................. 44<br />
5
Bachelorthesis Jan Simmendinger<br />
4.3.4. Projektdurchführung und Steuerung ............................................................................ 45<br />
5. Praktische Umsetzung ................................................................................................................... 46<br />
5.1. Ein Praxisbericht .................................................................................................................... 46<br />
5.1.1. Übersicht ....................................................................................................................... 46<br />
5.1.2. Server und Hosts ........................................................................................................... 46<br />
5.1.2.1. APPLNX .................................................................................................................. 47<br />
5.1.2.2. V5R3M0 ................................................................................................................. 47<br />
5.1.2.3. APPWIN01 ............................................................................................................. 47<br />
5.1.2.4. APPWIN02 ............................................................................................................. 48<br />
5.1.3. ThinClients ..................................................................................................................... 48<br />
5.1.4. Netze ............................................................................................................................. 49<br />
5.1.5. Veralteter Internetbrowser ........................................................................................... 50<br />
5.1.6. Zusammenfassung der Schwachstellen ......................................................................... 51<br />
5.2. Planung der neuen Infrastruktur ........................................................................................... 51<br />
5.2.1. Ideensammlung und Konzeptfindung ........................................................................... 52<br />
5.2.2. Personaleinsatz.............................................................................................................. 52<br />
5.2.3. Aufteilung der Arbeitspakete zu einem Ablaufplan ...................................................... 53<br />
5.3. Das neue System ................................................................................................................... 54<br />
5.3.1. Übersicht ....................................................................................................................... 54<br />
5.3.2. Logische Übersicht über die Migration der einzelnen Server ....................................... 55<br />
5.3.3. Übernommene Daten aus den Altsystemen ................................................................. 56<br />
5.3.3.1. Benutzerkonten vom X-Kontroller ........................................................................ 56<br />
5.3.3.2. Emailkonten von APPWIN01 ................................................................................. 57<br />
5.3.3.3. Dateien vom alten Netzlaufwerk übernehmen ..................................................... 57<br />
5.3.4. Neue ThinClients ........................................................................................................... 59<br />
5.3.5. Storage-Lösung .............................................................................................................. 60<br />
5.4. Die Migration ......................................................................................................................... 61<br />
5.4.1. Vorgehensweise ............................................................................................................ 61<br />
5.4.2. Vorbereitungen ............................................................................................................. 61<br />
5.4.3. Inbetriebnahme der neuen Security Appliance ............................................................ 62<br />
5.4.4. Die Hauptmigrationsphase ............................................................................................ 63<br />
5.4.5. Aufgaben im Nachgang ................................................................................................. 64<br />
5.4.6. Erhöhung der Benutzerakzeptanz ................................................................................. 65<br />
5.5. Probleme und Lösungsansätze .............................................................................................. 65<br />
6
Bachelorthesis Jan Simmendinger<br />
5.5.1. Zuverlässigkeit ESXi ....................................................................................................... 65<br />
5.5.2. Verwendung von IGEL UMS ........................................................................................... 67<br />
5.5.3. Aufsetzen eines lokalen Microsoft Exchange Servers ................................................... 67<br />
6. Abschließende Bewertung und Ausblick ....................................................................................... 68<br />
Glossar ................................................................................................................................................... 70<br />
Abbildungsverzeichnis ........................................................................................................................... 71<br />
Literaturverzeichnis ............................................................................................................................... 72<br />
7
Bachelorthesis Jan Simmendinger<br />
1. Einleitung<br />
Moderne Informationssysteme sind aus der heutigen Arbeitswelt nicht mehr wegzudenken.<br />
Ob im Dienstleistungs-, Fertigungs-, Handels- oder Industriesektor – überall haben<br />
betriebliche Informationssysteme essentielle Aufgaben übernommen. Doch wie kann<br />
sichergestellt werden, dass trotz steigender Anforderungen und zunehmender Komplexität<br />
der Informationssysteme jedem Mitarbeiter in einem Betrieb der Zugriff auf ein<br />
funktionierendes System gewährleistet wird, ohne den Arbeits- und Finanzaufwand für<br />
Betreuung und Wartung steigen zu lassen?<br />
Ein Ansatz zur Lösung dieser Problemstellung sind Virtualisierungsstrategien. In<br />
Großunternehmen werden diese schon seit einigen Jahren erfolgreich eingesetzt, um den<br />
Zielen eines erfolgreichen IT-Managements näher zu kommen.<br />
Jedoch sind gerade in kleinen und mittleren Unternehmen Defizite in diesem Bereich<br />
festzustellen. Dies liegt darin begründet, dass in solchen Unternehmen oftmals keine<br />
fundierte IT-Strategie vorliegt, sondern eher ziellos auf bewährte Systeme und<br />
zusammengetragenes Know-How gesetzt wird. Ein sogenanntes Alignment, also das<br />
Angleichen der IT-Strategie an die Unternehmensziele und damit die optimale Unterstützung<br />
der Unternehmensprozesse [vgl. Gabler, TransformIT, Seite 32], ist aufgrund der fehlenden<br />
IT-Strategie und der oftmals nicht genau definierten Unternehmensstrategie nicht möglich.<br />
Die vorliegende Arbeit wirft trotz dieser Tatsache einen Blick auf die Tauglichkeit solcher<br />
Systeme für kleine und mittlere Unternehmen. Sie besteht aus zwei Teilen und hat das Ziel,<br />
den Ansatz virtualisierter Desktops und Hosts näher zu betrachten, einen Weg zur<br />
Implementierung einer solchen Infrastruktur aufzuzeigen und zu überprüfen, ob diese<br />
Strategie geeignet ist, oben beschriebenes Problem zu lösen.<br />
Der erste Teil dieser Arbeit beschäftigt sich theoretisch mit dem Thema Virtualisierung:<br />
Warum wird virtualisiert? Wie wird virtualisiert? Wie kann Virtualisierung in der Praxis<br />
aussehen?<br />
Der zweite Teil beschreibt ein IT-Projekt bei einem mittelständischen Betrieb in<br />
Süddeutschland, bei dem bei der letzten Migration virtualisierte Server und virtualisierte<br />
Desktops zum Einsatz kamen, um vorhandene Einsparpotentiale zu nutzen.<br />
8
Bachelorthesis Jan Simmendinger<br />
2. Definitionen<br />
2.1. Begriffe und Schlüsselwörter<br />
2.1.1. IT-Strategie<br />
Die IT-Strategie eines Unternehmens stellt das langfristige Gesamtziel dar, auf das die<br />
Informationssysteme eines Betriebes ausgerichtet sein sollen. Sie orientiert sich am<br />
Unternehmensleitbild und bildet die Grundlage für alle Entscheidungen, die, das IT-System<br />
betreffend, getroffen werden müssen.<br />
2.1.2. Backup und Sicherungstechnologien<br />
Unter Backup versteht man eine Einrichtung, die dem Weiterbetrieb eines Systems im<br />
Fehlerfall dient. Die einfachste Form eines Backups ist das Anfertigen einer Sicherungskopie<br />
von gespeicherten Daten. Eine Erweiterung besteht beispielsweise darin, die<br />
Sicherungskopien automatisiert erstellen zu lassen. Solche Sicherungen müssen nach dem<br />
Auftreten eines Fehlers auf einem lauffähigen System manuell wieder eingespielt werden.<br />
Ein solches Sicherungssystem lässt sich nahezu beliebig mit weiteren Funktionalitäten<br />
erweitern. Die höchste Stufe ist erreicht, wenn Fehler oder Ausfälle vom System automatisch<br />
erkannt und korrigiert werden und ein nahtloser Weiterbetrieb des Informationssystems<br />
gewährleistet ist. Da in jedem Teil des Systems Fehler auftreten können, ist es unumgänglich<br />
für diesen Zustand jede Systemkomponente doppelt, also redundant (lat. redundare – im<br />
Überfluss vorhanden sein) vorzuhalten.<br />
2.1.3. Migration<br />
Unter Migration versteht man in der Informationstechnik Umstellungsprozesse. Diese<br />
Umfassen je nach Größe und Art der Umstellung die Migration von Daten, also das<br />
Umziehen von Datenbeständen auf ein anderes System und einen, oftmals damit<br />
verbundenen, Transfer in ein anderes Datenformat, den Austausch von Hardware oder den<br />
9
Bachelorthesis Jan Simmendinger<br />
Wechsel von Anwendungssoftware oder Betriebssystem. Bei Migrationen eines Teilsystems<br />
sind, je nach Umfang, meist verschiedene andere Teilsysteme mit betroffen. Entsprechende<br />
Abhängigkeiten der einzelnen Teilsysteme müssen im Vorfeld erkannt und in das<br />
Gesamtkonzept eingebunden werden.<br />
Werden Abhängigkeiten übersehen, so können beispielsweise Probleme an nicht<br />
abwärtskompatiblen Schnittstellen entstehen.<br />
2.1.4. Virtualisierung<br />
Zum Betrieb eines modernen Computerbetriebssystems werden folgende Ressourcen<br />
benötigt: eine oder mehrere Recheneinheiten (Prozessoren), Arbeitsspeicher,<br />
Festplattenspeicher sowie Ein- und Ausgabegeräte.<br />
Unter einer virtualisierten Maschine versteht man ein Betriebssystem, das während des<br />
Betriebes nicht direkt auf die genannten Hardwareressourcen zugreift, sondern auf virtuell<br />
zur Verfügung gestellte. Diese virtuellen Ressourcen werden von einem anderen<br />
Betriebssystem zur Verfügung gestellt, das die echte Hardware benutzt und virtuelle<br />
Pendants zur Verfügung stellt.<br />
Die Aufgabe in einem virtualisierten System die realen Hardwareressourcen des Hostsystems<br />
virtuell verfügbar zu machen und diese einer oder mehreren virtuellen Maschinen zur<br />
Verfügung zu stellen, übernimmt ein sogenannter Hypervisor. Das griechische Wort "hyper"<br />
bedeutet übersetzt "über" und das Wort "visor" lässt sich am besten mit dem lateinischen<br />
"videre", zu deutsch „sehen“ übersetzen. Wörtlich übersetzt ist der Hypervisor also die<br />
Komponente, die dazu in der Lage ist Host und Gastsysteme zu überblicken [vgl. Picht, Seite<br />
434].<br />
Hauptstrategien, mit denen ein Hypervisor die Hardwarekomponenten des Hostsystems<br />
virtualisiert, sind das sogenannte Adressmapping, bei dem physikalische Speicherbereiche<br />
vor der Weitergabe umadressiert werden und das sogenannte Scheduling, bei dem<br />
Komponenten, auf die exklusiver Zugriff erforderlich ist, schnell nacheinander an die<br />
verschiedenen virtuellen Betriebssysteme weitergegeben werden. Der Einsatz der beiden<br />
genannten Verfahren ist bei multitaskingfähigen Betriebssystemen schon lange Standard.<br />
10
Bachelorthesis Jan Simmendinger<br />
Abb. 1: Veranschaulichung der Aufteilung von Arbeitsspeicher, um ihn virtuellen Maschinen<br />
zur Verfügung zu stellen<br />
Grundlegend kann zwischen zwei Arten von Hypervisoren unterschieden werden: In der<br />
ersten Variante läuft der Hypervisor als Programm auf einem Betriebssystem und die<br />
virtuellen Maschinen auf ihm quasi in der dritten Ebene.<br />
Alternativ wird der Hypervisor hingegen direkt auf der Hardware des Host-Systems<br />
ausgeführt und man spricht von „Bare-Metal-Virtualisierung“ [vgl. Lampe, Seite 75].<br />
Der Nachteil der Bare-Metal-Methode liegt darin, dass die Virtualisierungssoftware selbst<br />
alle notwendigen Treiber zur Ansteuerung der, oft sehr verschiedenartigen, Host-Hardware<br />
mitbringen muss. Dieser Nachteil wird jedoch ausgeglichen: Durch den direkten<br />
Hardwarezugriff wird keine unnötige Rechenleistung für die Verwaltung eines an sich<br />
unnötigen Wirtsbetriebssystems verwendet – eine effizientere Methode der<br />
Zusammenarbeit auf der Ebene zwischen Hypervisor und Hardware ist nicht möglich.<br />
Weitere Möglichkeiten zur Effizienzsteigerung bestehen also nur noch in der darüber<br />
liegenden Ebene zwischen Hypervisor und virtuellen Maschinen. Eine davon ist die<br />
Paravirtualisierung. Bei dieser Technologie wird den virtuellen Maschinen nicht nur ein<br />
virtueller Host angeboten, der für sie normalerweise aussieht wie echte Hardware, sondern<br />
ihnen wird mitgeteilt, dass sie virtualisiert ausgeführt werden. Dazu existiert eine<br />
Schnittstelle, mit der die virtuelle Maschine auf bestimmte Funktionen direkt auf die<br />
Hosthardware zugreifen kann, ohne den Umweg über den Hypervisor gehen zu müssen. Um<br />
11
Bachelorthesis Jan Simmendinger<br />
die Vorteile der Paravirtualisierung nutzen zu können, muss das Gastbetriebssystem dazu<br />
fähig sein, die vom Virtualisierer angebotene Schnittstelle nutzen zu können.<br />
Abb. 2: Vergleich eines Hypervisors auf einem Wirtsbetriebssystem (links) und einem Bare-<br />
Metal Hypervisor (rechts)<br />
2.2. Eingesetzte Maschinen<br />
2.2.1. ThinClient<br />
Der Begriff ThinClient bezeichnet einfache Computer, die für die Benutzung durch den<br />
Anwender gedacht sind. Diese Geräteklasse zeichnet sich durch kleine Bauformen und den<br />
Einsatz energiesparender Komponenten aus. Meist werden sie mit einem sehr kleinen, vom<br />
Funktionsumfang beschränkten Betriebssystem betrieben, welches entweder von einem<br />
elektronischen Speichermedium (Flash-Speicher) oder über das PXE- (PrebootExecution<br />
Environment-) Protokoll von einem TFTP- (Trivial-File-Transfer-Protocol-) Server gestartet<br />
wird.<br />
Die vom Anwender benötigten Programme werden meist nicht direkt auf dem ThinClient<br />
ausgeführt, sondern auf einem zentralen Server im Netzwerk oder Internet. Der ThinClient<br />
dient also nur dazu Benutzereingaben zu diesem zentralen Server weiterzuleiten und die<br />
Ausgaben des Servers über den angeschlossenen Bildschirm dem Benutzer anzuzeigen. Aus<br />
12
Bachelorthesis Jan Simmendinger<br />
diesem Grund haben ThinClients meist einen im Verhältnis zu aktuellen Personal Computern<br />
relativ leistungsschwachen Prozessor.<br />
2.2.2. SAN (Storage-Area-Network)<br />
Storage-Area-Networks (dt. Speichernetzwerke) dienen der flexiblen und zuverlässigen<br />
Bereitstellung von nicht flüchtigem Speicherplatz (Festplattenspeicher) für Serversysteme.<br />
Um das zu erreichen, wird in solch einem Speichernetzwerk die feste Verbindung zwischen<br />
bestimmten Festplatten oder Festplattenverbünden mit einem bestimmten Serversystem<br />
durch ein Netzwerk ersetzt. Durch dieses Netzwerk kann jedes Hostsystem auf jede<br />
Festplatte beziehungsweise auf jeden Festplattenverbund zugreifen.<br />
Dadurch wird es möglich, die Zuordnungen zwischen Speicher und Host flexibel zu<br />
handhaben.<br />
Typischerweise geschieht die Anbindung der Komponenten eines Speichernetzwerks – im<br />
Gegensatz zu einer Network attached Storage-Lösung - nicht über die bereits vorhandene<br />
Netzwerkinfrastruktur, da diese dadurch unnötig zusätzlich belastet wird. Das Ethernet-<br />
Protokoll eignet sich aufgrund seiner Konzeptionierung beispielsweise nicht für diese Art der<br />
Datenübertragung, da insbesondere die relativ großen Kopfdaten pro Datenpaket dem<br />
schnellen und flinken Transport vieler kleiner Lese- und Schreibzugriffe entgegen stehen [vgl.<br />
Noppenberger, Seite 30].<br />
Stattdessen werden aktuelle SAN-Systeme meist mithilfe von FibreChannel oder SAS (Serial<br />
Attached SCSI-) an die betreffenden Hostsysteme angebunden.<br />
13
Bachelorthesis Jan Simmendinger<br />
Abb. 3: Vergleich einer direkten Anbindung von Festplattenspeicher an Serversystemen<br />
(oben) mit einer Anbindung über ein Storage-Area-Network (unten)<br />
2.2.3. Terminalserver<br />
Ein Terminalserver stellt das Herzstück einer Infrastruktur zur Desktopvirtualisierung dar. Ein<br />
Benutzer kann von einem beliebigen Arbeitsplatz-PC eine Sitzung auf den Terminalserver<br />
herstellen. Innerhalb dieser Sitzung können dann Anwendungen ausgeführt werden. Im<br />
Gegensatz zum Betrieb von Anwendungen direkt auf einem Arbeitsplatz-PC werden alle<br />
notwendigen Operationen direkt auf dem Terminalserver ausgeführt und nur die<br />
Bildschirmausgabe an den Benutzer-PC weitergeleitet.<br />
Ein Terminalserver ist dazu in der Lage, mehreren Benutzern gleichzeitig individuelle,<br />
virtuelle Arbeitsplätze, also einen virtuellen Desktop zur Verfügung zu stellen. Bekannte<br />
Protokolle zur Herstellung von Verbindungen zu Terminalservern sind RDP (Remote Desktop<br />
Protokoll) und VNC (Virtual Network Computing). Ein Client, also eine Software zur<br />
Herstellung von Verbindungen über das Remote Desktop Protokoll, ist in jeder Microsoft<br />
Windows Version ab Windows 2000 bereits integriert. Für beide Protokolle ist für beinahe<br />
jedes Betriebssystem und jede Plattform eine Vielzahl von Softwareclients verfügbar.<br />
14
Bachelorthesis Jan Simmendinger<br />
2.3. Vorgehensweisen bei der Migration<br />
Eine Systemmigration, also die Integration von Neusystemen oder der Umstieg auf andere<br />
Systeme, kann verschiedenen organisiert werden.<br />
2.3.1. Kontinuierlicher Übergang<br />
Der kontinuierliche Übergang von Alt- auf Neusystem stellt meist eher einen theoretischen<br />
Ansatz dar, da ein stufenloser Übergang niemals möglich ist. Bricht man bei der Betrachtung<br />
ein System weit genug in seine Bestandteile herunter, so ist ab einer bestimmten Stufe<br />
immer ein stufenweiser Übergang festzustellen.<br />
Dieser Prozess entspricht dann einer iterativen Migration wie sie in Kapitel 2.3.2.<br />
beschrieben ist.<br />
2.3.2. Iterative Migration<br />
Die iterative Migration stellt meist die am besten praktikable Vorgehensweise bei<br />
Systemmigrationen dar. Es handelt sich dabei um ein Modell, bei dem die gesamte Aufgabe<br />
„Systemerneuerung“ in mehrere kleine und dadurch überschaubare Aufgaben zerlegt wird.<br />
Die entstehenden kleineren Aufgaben haben jeweils klar definierte Ziele und sind deshalb<br />
auf ihren Erfolg überprüfbar und einzeln abzuschließen. Es entsteht bei der Ausführung quasi<br />
eine Schleife, bestehend aus Durchführen – Prüfen – Nachbessern – Prüfen. Die<br />
Wiederholung dieser Punkte (Iteration) bei jedem Teilschritt gibt dieser Migrationsplanung<br />
ihren Namen.<br />
Die Vorgehensweise orientiert sich am Ansatz divide and conquer (lateinisch: divide et<br />
impera). Ins Deutsche übersetzt bedeutet dies „Teile und herrsche“. Ein großes Projekt wird<br />
also in kleinere, beherrschbare Stücke aufgeteilt.<br />
Nach der Aufteilung muss noch nach Abhängigkeiten der Einzelschritte voneinander gesucht<br />
werden. Mit diesen Abhängigkeiten ist es dann möglich die Reihenfolge zur Lösung der<br />
15
Bachelorthesis Jan Simmendinger<br />
Teilaufgaben festzulegen. Ist die Reihenfolge einmal definiert, so kann ein Zeitplan erstellt<br />
werden. Optimierungen sind an dieser Stelle möglich, indem beispielsweise unabhängige<br />
Arbeitspakete parallel bearbeitet werden, sofern die entsprechenden Ressourcen verfügbar<br />
sind. Die sogenannte Netzplantechnik nach DIN 69900-1 stellt an dieser Stelle sehr hilfreiche<br />
Werkzeuge zur Planung des Zeitrahmens des Gesamtprojekts zur Verfügung.<br />
2.3.3. Vollmigration<br />
Findet der Übergang auf das neue System in einem Zug statt, so spricht man von einer<br />
Vollmigration. Diese Vorgehensweise funktioniert nur nach einer sehr genauen<br />
Aufgabenplanung und mit Projekten von beschränktem Umfang. Oftmals wird dazu tendiert,<br />
eine ablösende Migration, also den Umstieg auf ein komplett neues System als Vollmigration<br />
zu sehen. Da die Inbetriebnahme der neuen Infrastruktur jedoch meist im Voraus bereits<br />
parallel zum Altsystem erfolgt, ist auch solch eine eher als iterative Migration einzustufen.<br />
Die Teilkomponenten, die bei einer iterativen Vorgehensweise als Hauptaufgabe<br />
zusammengefasst werden können, können für sich als Vollmigration gesehen werden.<br />
16
Bachelorthesis Jan Simmendinger<br />
3. Theorie<br />
3.1. Gründe für Hostvirtualisierung<br />
3.1.1. Antrieb für die Virtualisierung von Serversystemen<br />
Virtualisierung - die Beweggründe dafür sind nicht auf Anhieb zu erkennen. Der Ansatz,<br />
Daten zentral zu verarbeiten und die Ein- und Ausgabeperipheriegeräte eher zu<br />
vereinfachen, sieht anfangs eher aus wie ein Schritt zurück in frühere Zeiten der<br />
Informationstechnologien. Im Jahre 1964 brachte die Firma IBM mit der IBM System/360 die<br />
erste universell einsetzbare Großrechenanlage auf den Markt. Diese setzte ebenfalls auf<br />
obigen Ansatz und das weit vor der Einführung des IBM Personal Computer im Jahre 1981,<br />
der den Trend zu einer eigenständigen Rechenanlage je Arbeitsplatz förderte. Die Frage,<br />
welche Vorteile der Schritt zurück zu zentralisierten Anlagen bringt, lässt sich mit einem<br />
Wort beantworten: Einsparpotentiale.<br />
Die verschiedenen Punkte an denen sich diese ergeben, sollen in diesem Kapitel näher<br />
erläutert werden.<br />
3.1.2. Energie<br />
Das Energiesparpotential, das sich durch Virtualisierung ergibt, erschließt sich nicht sofort<br />
bei der ersten Betrachtung der Thematik. Geht man davon aus, dass eine Maschine für eine<br />
Operation eine bestimmte Menge an Energie benötigt, so hätte es keine Auswirkung auf den<br />
Energieverbrauch, wenn mehrere dieser Maschinen zusammengefasst werden.<br />
Erst wenn man Auslastung und Wirkungsgrad mit in die Betrachtung aufnimmt, sieht man,<br />
welches Potential sich bietet.<br />
Ein klassischer in Hardware vorhandener Host wird bisher so gut wie nie mit einer<br />
Auslastung von 100% betrieben. Unter der Annahme, dass er im Leerlauf 20% der Energie<br />
benötigt wie im Volllastbetrieb, wird deutlich, dass allein das Bereithalten eines<br />
rechenbereiten Systems unnötig Energie verbraucht. Es liegt also nahe, die Zahl der<br />
teilausgelasteten Systeme zu minimieren und die Auslastung eines Systems möglichst hoch<br />
halten zu wollen, da dann eine deutlich effizientere Nutzung der Energie ermöglicht wird.<br />
17
Bachelorthesis Jan Simmendinger<br />
Abb. 4: Veranschaulichung des Energiesparpotentials des Prozessors bei Zusammenfassung<br />
von zwei Maschinen auf einer physikalischen Maschine<br />
3.1.3. Geringerer Wartungsaufwand und kürzere Bereitstellungszeiten<br />
Beim Vergleich des Einrichtungs-, Wartungs- und Instandhaltungsaufwands müssen zwei<br />
Bereiche getrennt betrachtet werden.<br />
Auf der einen Seite steht die Wartung und Pflege der Software eines Systems. Hierzu zählen<br />
hauptsächlich die Installation, ständige Aktualisierungen und die Systempflege. Die hierfür<br />
notwendigen Installations- und Updateprozesse sind heute weitgehend automatisiert und<br />
benötigen nach dem Anstoßen kaum weitere Eingriffe eines Systemverwalters.<br />
Die andere Seite ist die Einrichtung und Pflege physikalischer Maschinen. Die Montage und<br />
Inbetriebnahme einer physikalischen Maschine in einem Rechenzentrum ist, ebenso wie der<br />
Austausch defekter Hardwarekomponenten, nicht automatisierbar und benötigt immer<br />
relativ aufwändige mechanische Eingriffe eines Administrators.<br />
Bei dieser Betrachtung erschließt sich ein weiterer großer Vorteil von Virtualisierung: Ein<br />
komplettes Computersystem wird von der Hardware- in die Softwareebene verlagert. Damit<br />
18
Bachelorthesis Jan Simmendinger<br />
kann der Prozess, der beispielsweise zum Aufsetzen eines neuen Systems notwendig ist,<br />
ebenso vollständig automatisiert werden wie die Installation von Softwareupdates.<br />
Hierfür kann beispielsweise ein einmal erstelltes Abbild eines neu installierten Systems<br />
beliebig oft als Kopiervorlage für ein vollständiges System hergenommen werden. Dieses<br />
kopierte Abbild wird im Hypervisor eingebettet und dann gestartet. Es sind dann nur noch<br />
wenige Operationen auszuführen um das System vollständig bereit zu stellen. Die Anzahl der<br />
anschließend noch manuell auszuführenden oder anzustoßenden Schritte hängt vom<br />
verwendeten Betriebssystem und der Qualität der Kopiervorlage ab. Diese umfassen<br />
beispielsweise das Lizenzieren, die Vergabe von individuellen IP-Adressen und die<br />
Herstellung bestimmter Verbindungen zu Speichermedien und anderen Ressourcen. Die<br />
Bereitstellungszeit eines neuen Hostsystems lässt sich somit auf einen Bruchteil der Zeit und<br />
des Aufwands verringern.<br />
3.1.4. Erhöhte Zuverlässigkeit<br />
Um die Zuverlässigkeit, also die Verfügbarkeit - selbst im Fehlerfall - eines herkömmlichen IT-<br />
Systems, zu erhöhen ist im Normalfall vollständige Redundanz notwendig. Um ein<br />
Hostsystem hochverfügbar zu machen, ist es also notwendig ein zweites, baugleiches System<br />
betriebsbereit zu halten, das die Funktionen - im Falle eines Ausfalls - des ersten Systems<br />
übernimmt. Bei virtualisierten Maschinen gestaltet sich dieser Punkt jedoch anders. Da ein<br />
Hardwaredefekt bei virtualisierten Maschinen nur auf Ebene des darunterliegenden Hosts<br />
auftreten kann, genügt es diesen Host redundant zur Verfügung zu stellen. Die virtuellen<br />
Maschinen selbst müssen nicht redundant vorhanden sein, sondern es genügt, wenn ihr<br />
Abbild auf einem anderen, funktionsfähigen Host weiterhin ausgeführt werden kann.<br />
3.1.5. Einfache Rollback- und Backupfunktionalität<br />
Um von einem physikalischen Hostsystem eine vollständige Datensicherung der gesamten<br />
Maschine zu erhalten, ist es im Normalfall notwendig, die Maschine herunterzufahren oder<br />
19
Bachelorthesis Jan Simmendinger<br />
zumindest temporär bestimmte Dienste zu beenden, da vereinzelte Systemdateien ständig<br />
im exklusiven Zugriff durch das Betriebssystem oder durch einen Dienst stehen.<br />
Durch die Zwischenschicht der Virtualisierung ist es möglich, am Betriebssystem vorbei auf<br />
die physikalische Festplatte zuzugreifen und somit auch im laufenden Betrieb ein<br />
vollständiges Backup der Maschine zu erstellen. Ganz im Gegensatz zu einer physikalischen<br />
Maschine kann bei einer virtualisierten Maschine zusätzlich zu der Sicherung von<br />
Festplatteninhalten ein Abbild des aktuellen Arbeitsspeicherinhaltes erzeugt und<br />
festgehalten werden. Somit ist es bei einer virtuellen Maschine ohne großen Aufwand<br />
möglich, eine aktuelle Momentaufnahme des kompletten Systems zu erstellen. Diese<br />
Snapshotfunktion kann dazu genutzt werden, regelmäßig oder vor Veränderungen an der<br />
virtualisierten Maschine ein lauffähiges Abbild von ihr zu speichern, das im Fehlerfall<br />
problemlos zur Wiederherstellung eines lauffähigen Systemzustandes und damit des<br />
Regelbetriebs genutzt werden kann.<br />
3.1.6. Hardwareunabhängigkeit<br />
Bei Migrationen von kompletten Servern auf andere Hardware, also ein Umzug von<br />
Betriebssystem samt darauf installierter Serveranwendungen, droht immer die Gefahr, dass<br />
eine Anpassung an die Hardware, die während der Installation des Betriebssystems<br />
entweder manuell oder automatisch erfolgt ist, Inkompatibilitäten hervorruft. Solche<br />
Anpassungen basieren oftmals auf gerätespezifischen Treibern wie Chipsatz- oder I/O-<br />
Gerätetreibern oder Anpassungen auf die jeweilige CPU (Prozessor).<br />
Diese Gefahr lässt sich durch den Einsatz von virtuellen Umgebungen eliminieren. Ein<br />
Hypervisor bietet seinen Gastbetriebssystemen immer dieselbe virtuelle Hardware an, so<br />
dass diese einen Umzug auf eine andere physikalische Maschine selbst gar nicht erkennen<br />
müssen.<br />
20
Bachelorthesis Jan Simmendinger<br />
Abb. 5: Darstellung der Migration eines virtualisierten (unten) und eines Bare-Metal-<br />
Betriebssystems (oben)<br />
3.1.7. Ortsunabhängige Systemwartung<br />
Die in Abschnitt 3.1.3. bereits erwähnte Verlagerung eines gesamten Computersystems in<br />
die Softwareebene durch Virtualisierung ermöglicht, neben der ohnehin vereinfachten<br />
Administration eines Systems, auch noch die Administration eines Systems aus der Ferne.<br />
Ist eine physikalische Maschine, auf der ein Hypervisor läuft, über ein Datennetz<br />
(beispielsweise das Internet) erreichbar, so sind an den darauf befindlichen virtuellen<br />
Maschinen vorzunehmende Aufgaben wie die Installation, Wartung, Hochfahren,<br />
Herunterfahren und auch die komplette Entsorgung (also Löschung der virtuellen Maschine)<br />
über dieses Datennetz möglich.<br />
Das bedeutet, dass für die Bereitstellung eines neuen Servers kein Systembetreuer am<br />
Standort des Servers sein muss, sondern die Erzeugung, Installation und Onlinestellung des<br />
Systems vollständig von überall erfolgen kann wo ein Zugang zum Datennetz vorhanden ist.<br />
21
Bachelorthesis Jan Simmendinger<br />
3.1.8. Kapital<br />
Weniger Energieverbrauch, geringerer Wartungsaufwand, höhere Zuverlässigkeit und mehr<br />
Flexibilität des betrieblichen Informationssystems sind Ziele, die der IT-Strategie jedes<br />
Unternehmens entgegen kommen. Mithilfe von virtualisierten Serversystemen kommt man<br />
all diesen Zielen trotz geringerem Materialeinsatz ein großes Stück näher. All diese Punkte<br />
resultieren zusammengefasst in einer Kapitalersparnis.<br />
3.2. Gründe für die Desktopvirtualisierung<br />
3.2.1. Triebfedern<br />
Die Einsparpotentiale, die sich bei der Virtualisierung des Desktops, also der Oberfläche des<br />
Endanwenders, ergeben, sind wie bei der, im vorherigen Kapitel erläuterten,<br />
Servervirtualisierung nicht sofort zu erkennen. Die einzelnen Punkte werden in den<br />
folgenden Abschnitten näher betrachtet.<br />
3.2.2. Zentrale Bündelung der Ressourcen<br />
Dadurch, dass die Ausführung von Programmen und somit Verarbeitung von Daten bei<br />
einem virtuellen Desktop nicht auf den einzelnen Arbeitsplatzcomputern stattfindet,<br />
sondern auf dem Terminalserver, sinkt der Ressourcenbedarf der einzelnen Stationen<br />
deutlich. Diese Verschiebung der benötigten Ressourcen in Richtung des Servers sorgt für<br />
eine effizientere Nutzung dieser, wie in Abbildung 6 ersichtlich ist. Ist trotz der genannten<br />
Effizienzsteigerung einmal eine Aufrüstung der Ressourcen notwendig, so fällt diese Dank<br />
der Zentralisierung mit deutlich kleinerem Aufwand aus, da nur der Terminalserver<br />
aufgerüstet werden muss. Solch eine Änderung wäre bei klassischer Nutzung der Terminals<br />
mit einem immensen Aufwand verbunden, da jeder Client ausgetauscht oder individuell<br />
aufgerüstet werden müsste.<br />
22
Bachelorthesis Jan Simmendinger<br />
Abb. 6: Ohne Desktopvirtualisierung verbleiben viele Ressourcen ungenutzt, da jeder Client<br />
einen eigenen Puffer für Lastspitzen vorhält<br />
3.2.3. Geringere Anforderungen an die Clients<br />
Bei der Nutzung von virtualisierten Desktops sind die Systemvoraussetzungen an die<br />
genutzten Client-Computer nicht nur deutlich geringer, sondern unterliegen auch keiner so<br />
starken Veränderung. Solange die Anforderung, den fertig aufbereiteten Bildschirminhalt mit<br />
akzeptablen Verzögerungen darzustellen und Benutzereingaben über Tastatur und Maus an<br />
den Terminalserver weiterzugeben, erfüllt wird, ist kein Austausch und keine Aufrüstung der<br />
Clients notwendig. Es kann also längere Zeit mit viel einfacheren Arbeitsstationen gearbeitet<br />
werden, die mit weniger Wartung auskommen. Gerade bei der Geräteklasse der ThinClients<br />
(siehe Kapitel 2.2.1.) wird dieser Vorteil voll ausgenutzt. Durch den geringeren<br />
Stromverbrauch ist keine aktive Kühlung notwendig und durch den Einsatz von<br />
elektronischen Speichermedien anstatt magnetischer Festplatten ensteht keinerlei<br />
mechanischer Verschleiß und die Fehleranfälligkeit einer solchen Arbeitsstation sinkt um ein<br />
Vielfaches.<br />
3.2.4. Vorteile bei der Datensicherung<br />
Selbst wenn die technischen und organisatorischen Regelungen es nicht vorsehen, dass<br />
Daten direkt auf den Arbeitsplatzcomputern, sondern auf Netzlaufwerken gespeichert<br />
werden, so ist dies trotzdem gängige Praxis vieler User, insbesondere in kleinen<br />
Unternehmen. Aus diesem Grund sind Datensicherungen der einzelnen Arbeitsplatz-PCs<br />
notwendig. Diese stellen aber oftmals eine Herausforderung dar, da die Sicherung aus<br />
Performancegründen nicht während der Arbeitszeit erfolgen soll und die Rechner außerhalb<br />
23
Bachelorthesis Jan Simmendinger<br />
der Arbeitszeiten in der Regel ausgeschaltet sind. Dies erfordert, dass ein Rechner für die<br />
Erstellung eines Backups extra hochgefahren wird. Entweder muss dieser Vorgang<br />
mechanisch ausgelöst oder eine Automatik gefunden werden, die den PC entweder<br />
zeitgesteuert oder per Netzwerkbefehl vor der Datensicherung hochfährt. All diese<br />
Verfahren sind relativ aufwendig und zudem sehr unzuverlässig, da der Rechner zwar<br />
ausgeschaltet, aber mit dem Stromnetz und dem Netzwerk verbunden sein muss.<br />
Mit einer Infrastruktur auf Basis virtueller Desktops wird diese Problematik entschärft, da<br />
der komplette Arbeitsplatz der Anwender auf dem Terminalserver gespeichert ist. Somit<br />
können die vollständigen Benutzerkonten inklusive aller Daten, selbst wenn diese an<br />
unüblichen Stellen gespeichert sind, in eine regelmäßige Datensicherung mit einbezogen<br />
werden.<br />
Damit sind auf dem Terminal nur noch die Daten gespeichert, die das Gerät für die<br />
Verbindungsherstellung zum Terminalserver benötigt, in der Regel einfach nur das<br />
Betriebssystem mit einer Remote-Desktop-Software. Eine Sicherung dieser Daten ist<br />
unnötig, da diese im Falle eines Datenverlustes einfach wieder hergestellt werden können,<br />
um den Weiterbetrieb des Terminals zu ermöglichen. Auf diese Weise wird außerdem die zu<br />
sichernde Datenmenge stark reduziert, da nicht mehr das Betriebssystem jedes Clients<br />
mitgesichert wird, sondern nur einmal das Betriebssystem des Terminalservers und die<br />
entsprechenden Benutzerdaten dazu.<br />
3.2.5. Flexible Nutzung von Anwendungen<br />
Bestimmte Abteilungen in einem Unternehmen benötigen außer den Standardprogrammen<br />
zusätzlich spezielle Anwendungen. Ein Vertriebsmitarbeiter braucht beispielsweise neben<br />
seiner Office-Suite zusätzlich Zugriff auf das CRM-System, ein Produktionsleiter ein<br />
Programm zur Pflege der Produktionskennzahlen. Bei der klassischen Benutzung eines PCs<br />
kann zwar die im Unternehmen gewünschte Grundkonfiguration weitgehend automatisiert<br />
zur Verfügung gestellt werden, die vom Benutzer zusätzlich benötigen Anwendungen<br />
müssen aber manuell von einem Administrator installiert werden. Dies sorgt für eine große<br />
Vielzahl an individuell konfigurierten Systemen innerhalb des Betriebes und erhöht den<br />
24
Bachelorthesis Jan Simmendinger<br />
Pflegebedarf, da jeder User bei einer Veränderung Unterstützung von der IT-Abteilung<br />
benötigt. Durch die Virtualisierung des Desktops entfällt dies, denn ein Benutzer kann von<br />
jeder Workstation aus auf seinen persönlichen Arbeitsplatz mit seinen benötigten<br />
Programmen zugreifen. Egal, ob er den Schreibtisch wechselt oder von einem festen auf<br />
einen tragbaren Rechner umsteigt, er hat Zugriff auf die Anwendungen die er zum Arbeiten<br />
benötigt.<br />
3.2.6. Plattformunabhängigkeit<br />
Eine Bindung an bestimmte Betriebssysteme oder Hardwareplattformen steht dem Ansatz<br />
eines möglichst flexiblen betrieblichen Informationssystems total entgegen. Die<br />
Virtualisierung der Arbeitsoberfläche löst die feste Bindung eines bestimmten<br />
Betriebssystems mit dessen Desktop auf. Bedient man sich eines Terminalservers, so sieht<br />
eine Applikation für den Anwender nach der Verbindungsherstellung immer gleich aus, egal,<br />
mit welcher Hardware und welchem Betriebssystem lokal gearbeitet wird.<br />
Die momentan stark zunehmende Verbreitung tragbarer Endgeräte wie Smartphones oder<br />
Tablet-PCs sorgt beispielsweise für eine zunehmende Vielfalt an Plattformen. Da diese<br />
Geräte vermehrt aus dem privaten Leben auch in den geschäftlichen Bereich vordringen und<br />
zunehmend von Anwendern zum mobilen Arbeiten genutzt werden wollen, ergibt sich<br />
immer häufiger das Problem der Anbindung solcher Geräte. Terminalserver stellen<br />
momentan eine praxistaugliche Lösung zur Nutzung solcher Geräte dar, unabhängig davon,<br />
ob für die entsprechende Mobilplattform bereits angepasste Clientsoftware für die im<br />
Unternehmen verwendeten Lösungen verfügbar ist. Auch Systeme in einem sehr frühen<br />
Entwicklungsstand können somit genutzt werden, um eine Verbindung herzustellen, sobald<br />
ein entsprechender Client für das Protokoll des betreffenden Terminalservers zur Verfügung<br />
steht.<br />
25
Bachelorthesis Jan Simmendinger<br />
3.2.7. Vereinfachte Administration<br />
Die Administration von PC-Systemen an einzelnen Benutzerarbeitsplätzen stellt einen<br />
verhältnismäßig großen Aufwand für eine IT-Abteilung dar, da physikalische Systemarbeiten<br />
voraussetzen, dass ein Mitarbeiter vor Ort kommt. Bei Unternehmen mit einem einzigen<br />
Standort innerhalb eines Gebäudes fällt dieser Punkt noch nicht wesentlich ins Gewicht. Bei<br />
zunehmender räumlicher Größe eines Unternehmens wächst dieser Aspekt jedoch zu einem<br />
strategisch wichtigen heran. Spätestens wenn es sich um Außenstellen handelt, die die<br />
Anreise eines Mitarbeiters mit dem Auto oder der Bahn erfordern, gilt es die Systeme<br />
wartungsarm zu gestalten.<br />
Die in den obigen Abschnitten genannte Zentralisierung der Ressourcen und einfachere,<br />
plattformunabhängige Clients erfüllen diese Aufgabe, da sich die Arbeitsplatzrechner bei den<br />
Benutzern so vereinheitlichen lassen. Diese Vereinheitlichung sorgt dafür, dass das<br />
komplexe Thema der Administration und Datensicherung zentralisiert im Rechenzentrum<br />
erfolgt und sich die Pflege der Clients darauf beschränkt, defekte Geräte zu ersetzen, wobei<br />
die Tauschgeräte nicht einmal das selbe Betriebssystem oder dieselbe Systemarchitektur<br />
haben müssen.<br />
Der Anforderung, zentralisiert zu administrieren, wird zwar heute bereits in vorhandenen<br />
Infrastrukturen Rechnung getragen, indem Domänen genutzt werden, jedoch sind die Clients<br />
allein dadurch noch nicht wartungsärmer. Ist ein Client Mitglied der Domäne, so kann das<br />
Einspielen von Updates, die Installation von Software oder Veränderungen an<br />
Berechtigungen zwar vom sogenannten Domänencontroller gesteuert werden, jedoch<br />
arbeitet der Benutzer immer noch lokal auf der meist sehr individuell konfigurierten<br />
Maschine.<br />
3.3. Virtualisierungslösungen<br />
Die zum Betrieb virtueller Maschinen notwendige Softwareumgebung, bestehend aus<br />
Hypervisor und Programmen zur Installation, Erstellung und Wartung der Systeme, gibt es<br />
26
Bachelorthesis Jan Simmendinger<br />
von verschiedenen Herstellern mit unterschiedlichen Funktionen in allen Preisklassen. In<br />
diesem Abschnitt werden die bekanntesten Lösungen mit den größten Marktanteilen<br />
vorgestellt.<br />
3.3.1. ESXi und vSphere von VMWare<br />
Die Virtualisierungslösung ESXi ist der Nachfolger der ESX Reihe von VMWare, Inc.<br />
Das Unternehmen wurde 1998 gegründet mit dem Ziel, virtuelle Maschinen auf Standard<br />
Computern mit x86-Architektur lauffähig zu machen.<br />
Als Marktführer bietet VMWare eine ganze Palette an Bare-Metal Virtualisierungslösungen<br />
und Lösungen, die ein Wirtsystem erfordern, an. Egal, ob kostenlose oder kostenpflichtige<br />
Produkte: Alle sind kompatibel zu nahezu allen Systemen, die in heutigen Infrastrukturen<br />
vorkommen.<br />
Die vSphere Produktfamilie ist als Gesamtpaket mit ESXi für den Einsatz in Rechenzentren<br />
gedacht und bringt Funktionalitäten wie die Erstellung von Hochverfügbarkeitsverbünden,<br />
die automatische Lastverteilung zwischen mehreren Hypervisoren, sowie Werkzeuge für das<br />
Management der virtualisierten Systeme und für den Virtualisierungsvorgang von<br />
physikalischen Hosts gleich mit.<br />
3.3.2. Microsoft Hyper-V<br />
Die Virtualisierungsplattform Hyper-V von Microsoft ist keine Bare-Metal-Virtualisierungs-<br />
lösung, sondern nutzt Windows Server 2008 Systeme als Wirtsystem. Hyper-V ist ein fester<br />
Bestandteil der Windows 2008 Reihe und direkt nach der Installation verfügbar.<br />
Besonders hervorzuheben ist, dass eine kostenfreie Version des Windows Server 2008<br />
verfügbar ist, deren Funktionalität auf die Bereitstellung der Virtualisierungsplattform<br />
beschränkt ist. Diese Version kann als Bare-Metal-Lösung angesehen werden, da das<br />
Betriebssystem auf die pure Hypervisorfunktionalität verkleinert wurde.<br />
27
Bachelorthesis Jan Simmendinger<br />
Auf den so bereitgestellten virtuellen Maschinen werden neben Windows Betriebssystemen<br />
mit kostenpflichtiger Lizenz auch bestimmte, kostenfrei verfügbare Linux Distributionen von<br />
RedHat und SUSE offiziell unterstützt.<br />
3.3.3. Citrix XEN Server<br />
Ursprünglich von der Universität Cambridge entworfen, wird der Bare-Metal-Hypervisor XEN<br />
mittlerweile von der Firma Citrix weiterentwickelt. Citrix begann seine Geschäfte im Bereich<br />
der Desktopvirtualisierung und hat in Zusammenarbeit mit Microsoft im Jahre 1995 das<br />
erste Windows Server Betriebssystem mit Terminalfunktionalität auf den Markt gebracht.<br />
Mit der Übernahme des auf Linux basierenden XEN Hypervisor, hat Citrix sein<br />
Produktportfolio erweitert und bietet damit eine vollständige Palette für durchgängige<br />
Lösungen von Anwendungs-, über Desktop- bis zur Hostvirtualisierung vergleichbar mit<br />
VMWare.<br />
Seit April 2009 stellt Citrix eine kostenfreie Version von XEN Server zum Download zur<br />
Verfügung, deren Lizenz auch einen kommerziellen Einsatz zulässt.<br />
XEN Server bietet in allen Versionen eine solide Lösung zum Betreiben von virtuellen Hosts<br />
und kann durch Paravirtualisierung noch deutlich beschleunigt werden, wenn die<br />
beheimateten virtuellen Maschinen unter Linux betrieben werden.<br />
Zum performanten Betrieb von Microsoft Windows auf den virtuellen Maschinen benötigt<br />
der XEN Server spezielle Hardwareerweiterungen seitens der CPU, die von der Firma Intel<br />
unter dem Namen VT-X, von AMD unter AMD-V vermarktet werden.<br />
3.3.4. QEMU<br />
Bei Quick Emulator (kurz: QEMU) handelt es sich um freie Software unter der GPL (General<br />
Public License). QEMU ist nur in einer hosted Version verfügbar und erfordert dadurch<br />
zwingend ein Wirtsbetriebssystem. Es ist zwar keine Bare-Metal-Version verfügbar, doch<br />
dadurch, dass Versionen für x86, PowerPC und SPARC-Architekturen verfügbar sind, läuft der<br />
28
Bachelorthesis Jan Simmendinger<br />
Emulator neben normalen PC-Systemen auch auf Apple und SUN Systemen problemlos.<br />
Ebenso kann er oben genannte Architekturen auch hostunabhängig emulieren – es ist also<br />
beispielsweise möglich auf einem System mit SUN-SPARC Architektur eine x86 Maschine<br />
zum Betrieb eines Microsoft Windows oder Linux Betriebssystems virtuell zu erzeugen.<br />
QEMU ist in der Lage, Live-Migrationen durchzuführen, also virtuelle Maschinen im<br />
laufenden Betrieb von einem Host auf einen anderen zu verschieben oder laufende<br />
Maschinen komplett einzufrieren. Somit ist ein Arbeiten mit Abbildern von virtuellen<br />
Maschinen (Snapshots) ähnlich wie mit Werkzeugen von VMWare möglich.<br />
3.4. Warum wird migriert<br />
3.4.1. Gründe für Erneuerung<br />
Die Notwendigkeit zur Erneuerung von betrieblichen IT-Infrastrukturen entsteht aus<br />
verschiedenen Gründen: Schon allein das Wachstum eines Unternehmens erfordert eine<br />
Verstärkung der Infrastruktur und auch gesellschaftliche, technologische und rechtliche<br />
Veränderungen erfordern immer neue Anpassungen.<br />
Die Anforderungen an die Systeme steigen also durch die verschiedenartigsten Einflüsse.<br />
Schon allein die sich zunehmend verbreitende Kommunikationsinfrastruktur sorgt dafür,<br />
dass die Ansprüche der Benutzer an ein System wachsen.<br />
Insbesondere der technologische Fortschritt ist damit häufig der stärkste Treiber. Oftmals<br />
entstehen regelrechte Abhängigkeitsketten, wenn beispielsweise der Einsatz einer neuen<br />
Software den Einsatz eines moderneren Betriebssystems und damit möglicherweise gleich<br />
noch den Einsatz neuer Hardware erforderlich macht.<br />
Aber auch ohne die absolute Notwendigkeit, Systeme anzupassen, kann eine Erneuerung<br />
von Teilen der IT-Infrastruktur sinnvoll sein, da sich daraus Verbesserungen ergeben und<br />
Einsparpotentiale genutzt werden können.<br />
29
Bachelorthesis Jan Simmendinger<br />
3.4.2. Nachteile gewachsener Strukturen<br />
Selbst wenn keine aktiv geplanten Veränderungen an einem IT-System vorgenommen<br />
werden, so finden zwangsläufig Veränderungen statt. Eine Vielzahl kleiner Veränderungen,<br />
wie beispielsweise Erweiterungen im Speicherbereich, der Ersatz defekter Hardware durch<br />
Nachfolgerversionen oder das Aufspielen einfacher Softwareupdates und<br />
Fehlerbehebungen, können dafür sorgen, dass das Gesamtsystem nicht mehr den Zielen der<br />
Strategie entgegen kommt. Aufgrund der großen Komplexität der Gesamtsysteme wird<br />
oftmals nur soweit erneuert wie notwendig oder es werden weitere Subsysteme erstellt, die<br />
nicht mehr dem Gedanken eines ganzheitlichen Informationssystems entsprechen. Hierbei<br />
entstehen oft Landschaften aus verbundenen Inselsystemen. Aus solchen Inselsystemen<br />
ergibt sich meist eine Reihe von Nachteilen: fehlende Transparenz und Übersichtlichkeit,<br />
unnötiger Ressourcenverbrauch, veraltete oder unvollständige Dokumentation, Engpässe bei<br />
Medien- und Systemübergängen. Diese resultieren in einer großen Zahl möglicher<br />
Fehlerquellen und schlechter Wartbarkeit.<br />
3.4.3. Probleme veralteter Systeme<br />
In keinem Sektor sind die Entwicklungs- und Produktzyklen so kurz wie im Informatikbereich.<br />
Gerade dieses hohe Maß vieler Veränderungen in relativ kurzer Zeit lässt IT-Systeme schnell<br />
altern. Werden die Anforderungen nicht verändert, erfüllt ein System in einem<br />
Unternehmen selbstverständlich die ihm zugedachten Aufgaben trotz Alterung weiterhin.<br />
Aber dadurch, dass die Systeme aber nicht mehr isoliert betrieben, sondern zunehmend<br />
vernetzt, also in einen Verbund mit anderen Systemen gebracht werden, ist es notwendig<br />
die Kompatibilität zu den sich weiterentwickelnden Partnersystemen nicht nur herzustellen,<br />
sondern auch beizubehalten. Das bedeutet also, dass die Systeme mit ihrer Umwelt<br />
zusammen weiterentwickelt werden müssen, da sonst die Gefahr droht, dass die<br />
Schnittstellen inkompatibel werden.<br />
Das hohe Entwicklungstempo sorgt aber auch dafür, dass die Hersteller von Hard- und<br />
Software die Unterstützung von alternden Systemen immer früher einstellen. Dies spielt<br />
30
Bachelorthesis Jan Simmendinger<br />
meist keine Rolle, solange ein System fehlerfrei läuft. Tritt allerdings ein Fehler auf, so ist es<br />
für die zeitnahe Wiederherstellung eines lauffähigen Zustandes vorteilhaft, auf aktuellen<br />
Systemen zu arbeiten für die volle Ersatzteil- und Treiberverfügbarkeit im Hardwarebereich<br />
und Update- und Patchverfügbarkeit im Softwarebereich gegeben ist.<br />
3.4.4. Vorteile einer Erneuerung<br />
Je nach Umfang behebt eine Erneuerung des betrieblichen Informationssystems die im<br />
Kapitel 3.4.2. genannten Probleme mit gewachsenen oder veralteten Infrastrukturen ganz<br />
oder teilweise.<br />
Meist werden damit also Probleme behoben, die in den entsprechenden Abteilungen oder<br />
einzelnen Mitarbeitern schon längere Zeit bekannt sind, weil diese zunehmend Arbeitszeit<br />
für Fehlerbehebungen an dem alternden System investieren müssen, um es lauffähig zu<br />
halten. Das bedeutet also, dass eine Erneuerung den steigenden Unterhaltskosten eines<br />
alternden Systems entgegen wirkt.<br />
Der Umstieg auf neuere Technologien bringt außerdem noch die Möglichkeit mit sich, dass<br />
nicht nur Kosten gesenkt, sondern auch ganz neue Geschäftsfelder erschlossen werden<br />
können, die mit den alten eingesetzten Technologien nicht oder nur mit einem immensen<br />
Aufwand realisierbar wären. Ein Beispiel dafür wäre die Bereitstellung eines<br />
Onlinebestellsystems im Internet, das auf Inhalte der Lagerverwaltungsdatenbank zugreifen<br />
soll und damit dynamisch den aktuellen Produktkatalog mit entsprechenden Lagerbeständen<br />
generieren soll. Liegt die Verwaltungsdatenbank noch in einem Format vor, dass einen<br />
Zugriff mit modernen Webtechnologien (beispielsweise PHP) nicht oder nur über aufwendig<br />
zu erstellende Individualanpassungen ermöglicht, so würde eine Migration der Datenbank<br />
auf ein modernes relationales Datenbanksystem, wie beispielsweise SQL, diese<br />
Anbindungsfähigkeit als Vorteil gleich mitbringen.<br />
31
Bachelorthesis Jan Simmendinger<br />
4. Vorgehensweise bei Migrationsprojekten<br />
In diesem Kapitel wird eine beispielhafte Vorgehensweise geschildert nach der die Planung<br />
eines Migrationsprojekts in einem kleinen Unternehmen erfolgen kann, wenn die<br />
Entscheidung getroffen wurde eine Systemmigration durchzuführen.<br />
4.1. Grundlagenplanung<br />
4.1.1. Zustand der technischen Systeme und der Dokumentation<br />
Bei der Planung von Migrationsprojekten sollte vorab eine grundlegende Analyse der<br />
aktuellen Systeme stattfinden. Hierfür sollte zuerst überprüft werden, ob die vorhandene<br />
Dokumentation dem aktuellen Systemzustand entspricht. Besonders in kleinen und<br />
mittleren Unternehmen werden kleine Veränderungen, die im Tagesgeschäft an Systemen<br />
durchgeführt werden, oftmals nicht in der Dokumentation festgehalten und eine<br />
nachträgliche Aktualisierung ist daher notwendig. Ziel einer solchen Aktualisierung der<br />
Dokumentation sollte also sein, neben einer aktuellen Übersicht die Details der Systeme<br />
soweit aufzubereiten, dass im nächsten Schritt die Teilsysteme auf ihre Migrationsfähigkeit<br />
geprüft werden können.<br />
4.1.2. Analyse von Aufgaben und Orientierung am Prozessmanagement<br />
Welche Aufgaben werden mit dem momentanen Informationssystem auf welche Art und<br />
Weise erfüllt? Erstellt man aus den Antworten auf diese Frage einen Katalog, so erhält man<br />
eine Basis mit der die Mindestanforderungen an das neue System verhältnismäßig leicht<br />
geklärt werden können.<br />
Hierfür sollte zuerst entschieden werden, ob hauptsächlich ein Bottom-up-Ansatz verfolgt<br />
wird, bei dem die Benutzer beziehungsweise die Fachabteilungen mit einbezogen werden,<br />
um zu definieren, welche der aufgelisteten Funktionalitäten absolut essentiell, welche<br />
mittlerweile obsolet und welche zusätzlichen Funktionalitäten im neuen System gewünscht<br />
32
Bachelorthesis Jan Simmendinger<br />
sind. Je nach Größe und Philosophie des Unternehmens kann es auch sinnvoll sein<br />
stattdessen einen Top-Down-Ansatz zu verfolgen und die Frage nach den Aufgaben des<br />
Informationssystems am Prozesskatalog des Unternehmens fest zu machen [vgl. Brugger,<br />
Seite 87].<br />
4.1.3. Technologischen Fortschritt nutzen<br />
Vor einem Migrationsprojekt sollte der Stand aktueller Technologien genau betrachtet<br />
werden. Es besteht einerseits die Möglichkeit, mit aktuellen Entwicklungen für denselben<br />
Kapital- und Arbeitsaufwand mehr Funktionalität zu erhalten und damit späteren Zielen<br />
bereits jetzt näher zu kommen. Andererseits lassen sich die Projektziele mit aktuellen<br />
Produkten eventuell mit weniger Aufwand erreichen.<br />
Unabhängig davon stellt ein Migrationsprojekt eine Bindung an ein bestimmtes Produkt oder<br />
eine bestimmte Technologie, mindestens bis zur nächsten Migration, dar. Deshalb sollten die<br />
vorgesehenen Komponenten auf ihre Zukunftsaussichten bewertet werden, um auf Systeme<br />
zu setzen für die noch möglichst lange Unterstützung durch Hersteller oder Entwickler und<br />
eine größtmögliche Kompatibilität zu anderen Systemen gegeben ist.<br />
4.1.4. Vorüberlegungen zu Alternativen im Hostbereich<br />
Dieser Abschnitt beleuchtet Alternativen zur Virtualisierung von Serversystemen, die bei der<br />
Planung einer Systemmigration ebenso in Betracht gezogen werden sollten.<br />
4.1.4.1. Outsourcing<br />
Anstatt die Anzahl der zu betreibenden physikalischen Serversysteme im Unternehmen<br />
durch Virtualisierung zu minimieren, kann in Betracht gezogen werden, die Systeme gar<br />
nicht selbst zu hosten, sondern auf externe Dienstleister zurück zu greifen. Bei der<br />
33
Bachelorthesis Jan Simmendinger<br />
Verwendung von Standardsoftware besteht oftmals die Möglichkeit, dass nicht nur ein<br />
nacktes, beim Dienstleister beheimatetes Hostsystem gemietet werden kann, welches<br />
immer noch einen administrativen Aufwand für das Unternehmen mit sich bringt, sondern<br />
auf eine vollständige Lösung zurückgegriffen werden kann.<br />
All diese Lösungen sind seit einiger Zeit in den Medien allgegenwärtig und werden dort meist<br />
als „Cloud Computing“ bezeichnet. Dieser Begriff umfasst Datenspeicher-, Kollaborations-<br />
und Officelösungen, die über das Internet von jedem beliebigen Standort aus genutzt<br />
werden können und bei denen die Speicherung und Verarbeitung der Daten zentral in der<br />
Datenwolke (engl. cloud) erfolgt.<br />
Der Hauptvorteil von Serveroutsourcing liegt in der im Voraus planbaren Kostenstruktur. Es<br />
sind keinerlei Anfangsinvestitionen notwendig und es besteht keine Notwendigkeit,<br />
Rücklagen zu bilden für einen eventuell notwendigen Austausch von Hardware. Für die<br />
Pflege der Hardwaresysteme ist kein Einsatz unternehmensinterner Ressourcen notwendig.<br />
Ebenso stellt die Entwicklung von steigenden Energiekosten keinen Unsicherheitsfaktor<br />
mehr dar, da das Risiko steigender Kosten für Betrieb und Kühlung des Systems vom<br />
Dienstleister getragen wird.<br />
Andererseits kann die Mindestverfügbarkeit der Systeme zwar vertraglich vom externen<br />
Dienstleister eingefordert werden, jedoch wird das Desastermanagement im Fehlerfall damit<br />
aus der Hand gegeben, denn bei einer vollständigen Auslagerung der Systeme werden<br />
jegliche Daten ebenso beim externen Dienstleister gespeichert. Je nach Sicherheits- oder<br />
Geheimhaltungslevel der gespeicherten Daten gilt es an dieser Stelle zu bewerten, ob diese<br />
Gefahr in Kauf genommen werden kann.<br />
Fällt die Abwägung zwischen den im Voraus genau kalkulierbaren Kosten bei höchster<br />
Flexibilität und dem Risiko die Unternehmensdaten ausgelagert zu speichern zu Gunsten<br />
eines externen Dienstleisters aus, so sollte eine Migration auf extern gehostete Server als<br />
ernsthafte Alternative zur Virtualisierung interner Server gesehen werden. Auf Serverhosting<br />
spezialisierte Unternehmen können ihre Kostenrechnung nämlich deutlich besser optimieren<br />
als jedes Unternehmen, das seine Server selbst beheimatet, zumal dort durch Virtualisierung<br />
die Zahl der physikalischen Systeme zum größten Teil bereits auf ein Minimum reduziert<br />
wurde.<br />
34
Bachelorthesis Jan Simmendinger<br />
Durch die zunehmende Verbreitung und die sinkenden Preise von Breitbandzugängen muss<br />
dieser Ansatz ganz klar als Zukunftstrend betrachtet werden.<br />
4.1.4.2. Hostsysteme in Hardware<br />
Anstatt auf einen Ansatz mit virtualisierten Umgebungen zu setzen, kann auch weiterhin für<br />
alle zu bewältigenden Aufgaben jeweils ein physikalisches Hostsystem genutzt werden.<br />
Durch die Verfügbarkeit von zuverlässigen und wartungsfreundlichen<br />
Virtualisierungsumgebungen scheint dieser Ansatz jedoch als veraltet und es gibt kaum<br />
Gründe, die dagegen sprechen, die möglichen Einsparpotentiale bei Administration,<br />
Wartung und Energieverbrauch zu nutzen.<br />
Eine Ausnahme stellen Applikationen dar, die auf nicht virtualisierbaren<br />
Serverbetriebssystemen aufbauen – solche sind aus heutiger Sicht aber kaum noch<br />
verbreitet. Ein anderer Grund kann die Notwendigkeit von angeschlossener Hardware sein,<br />
die durch den Hypervisor nicht durchreichbar ist. Hier gilt jedoch genau zu prüfen, ob nicht<br />
eine andere Lösung gefunden werden kann oder ob nicht ein anderer Hypervisor verfügbar<br />
ist, der diese Funktionalität bietet.<br />
Beispiele hierfür sind beispielsweise SCSI-Controller, an die ein Bandlaufwerk für<br />
Datensicherungszwecke angeschlossen ist, wie der im folgenden Praxisteil dieser Arbeit<br />
genannte MTKBACKUP01. Es sollte überlegt werden, ob solch ein System nicht durch<br />
modernere Hardware, die per Netzwerk-, SAS- oder FibreChannel-Verbindung an die zu<br />
sichernden Systeme (am besten direkt an das Storage-Area-Network) angeschlossen wird,<br />
ersetzt werden sollte.<br />
Auch die bei manchen Softwareanwendungen, vorwiegend bei technischen Planungs-<br />
programmen (CAD-Tools), üblichen Lizenz- und Verschlüsselungstoken, die per USB<br />
angeschlossen werden, sind kein Grund, beispielsweise einen Lizenzierungsserver nicht zu<br />
virtualisieren. Entweder lässt sich ein solches USB-Gerät durch den Hypervisor durchreichen<br />
oder es kann mit einem USB-over-Ethernet Konverter gearbeitet werden. Die<br />
Funktionsweise eines solchen Gerätes ist in Abbildung 7 dargestellt.<br />
35
Bachelorthesis Jan Simmendinger<br />
Abb. 7: Veranschaulichung der Funktionsweise einer Lösung zur Anbindung von USB-Geräten<br />
an virtuelle Maschinen<br />
Durch die große Vielfalt an verfügbaren Methoden für die Anbindung von Hardware an<br />
virtuelle Maschinen finden sich mittlerweile kaum mehr Geräte, die gegen den Einsatz von<br />
Virtualisierung sprechen.<br />
Dieser Ansatz sollte also maximal noch in vorhandenen Systemen Anwendung finden. Eine<br />
Virtualisierung solcher Altsysteme und damit einhergehende Einbindung in eine neue<br />
Infrastruktur sollte auf alle Fälle in Betracht gezogen werden. Eine solche Vorgehensweise ist<br />
im Praxisteil am Beispiel des Hosts APPWIN02 geschildert (siehe Kapitel 5.3.2.).<br />
4.1.4.3. Konsolidierung von Diensten auf einem Betriebssystem<br />
Eine andere Strategie zur Minimierung der physikalischen Serversysteme ist die<br />
Konsolidierung mehrerer Dienste auf einem einzigen Betriebssystem. Bei diesem Ansatz ist<br />
keine Planung und Einrichtung einer virtualisierten Umgebung notwendig, sondern nur die<br />
Installation und Pflege eines einzigen Betriebssystems. Prinzipiell ist die Administration eines<br />
solchen Serversystems mit der eines normalen Arbeitsplatz-PCs vergleichbar. Viele<br />
Serverapplikationen greifen bei der Installation jedoch tief in das Betriebssystem und seine<br />
Prozesse ein. Dadurch wird es häufig unmöglich, noch andere Software parallel auf<br />
demselben System zu betreiben. Bei steigender Anzahl der Serverinstanzen auf der<br />
Maschine steigt also auch das Risiko von Problemen durch Inkompatibilität.<br />
36
Bachelorthesis Jan Simmendinger<br />
Anstatt Probleme durch Inkompatibilitäten zu riskieren, weil mehrere Serverdienste auf<br />
einem einzigen System beheimatet werden, sollte bei der Planung einer Systemlandschaft<br />
lieber auf ein eigenes virtuelles System pro Dienst zurückgegriffen werden.<br />
Dadurch, dass aktuelle Hypervisoren für ihre Verwaltungsdienste nicht nennenswert an der<br />
Systemleistung zehren, spricht nur noch der Faktor der Lizenzkosten für jedes<br />
Betriebssystem pro virtueller Maschine für diesen Ansatz. Durch den Einsatz von Open-<br />
Source-Betriebssystemen auf den VMs relativiert sich jedoch auch dieser Punkt.<br />
4.1.5. Vorüberlegungen zu Alternativen im Desktopbereich<br />
Zwar gibt es im Bereich der Desktopvirtualisierung nicht viele Alternativlösungen, doch auch<br />
hier sollen noch andere Ansätze zur flexibleren Nutzung der Benutzerarbeitsplätze genannt<br />
werden, die in der Planungsphase eines neuen EDV-Systems eine Rolle spielen können.<br />
4.1.5.1. Anwendungsvirtualisierung<br />
Bei der Anwendungsvirtualisierung wird die Virtualisierungsumgebung auf dem lokalen<br />
Betriebssystem des Client Computers ausgeführt. Sie befindet sich zwischen dem<br />
Betriebssystem und der ausgeführten Anwendung und stellt dieser ein simuliertes<br />
Betriebssystem zu Verfügung. Somit ist es möglich, eine Software lokal auf einem<br />
Arbeitsplatzcomputer zu nutzen, ohne dass diese dort mit all ihren Registrierungseinträgen<br />
installiert sein muss. Es genügt die Parameter der virtuellen Umgebung und die Software von<br />
einem Server zu beziehen, um diese auf dem Client ausführbar zu machen. Es ist also keine<br />
lokale Installation der Software auf dem Clientbetriebssystem notwendig und somit entfallen<br />
die notwendigen Verflechtungen mit diesem, ebenso wie die vorherige Prüfung der<br />
Kompatibilität der beiden Komponenten, da fertig konfigurierte Anwendungen und die dafür<br />
notwendige simulierte Betriebsumgebung vom Server geladen und dort ausgeführt werden.<br />
Die Rechenleistung für die Programmausführung wird somit direkt vom Client bezogen,<br />
37
Bachelorthesis Jan Simmendinger<br />
weshalb sich dieser Ansatz auch für rechenintensive Anwendungen wie Grafik-,<br />
Videobearbeitungs- und CAD-Software sehr gut eignet.<br />
Die Verwaltung erfolgt hierbei zwar zentral, jedoch ist auf den einzelnen Arbeitsplätzen<br />
immer noch ein vollständiges Betriebssystem und eine darauf ausführbare<br />
Virtualisierungsumgebung erforderlich. Dadurch, dass die Ausführung der Applikation auf<br />
dem Client erfolgt, ist bei diesem Ansatz immer noch eine Abhängigkeit von der<br />
verwendeten Hardware gegeben. Eine neue Softwareversion mit höheren<br />
Systemanforderungen macht also eventuell eine Aufrüstung der Clienthardware notwendig<br />
und nicht nur eine Aufrüstung an zentraler Stelle, wie beispielsweise bei der Verwendung<br />
eines Terminalservers.<br />
Die Lösungen, die unter den Namen VMWare ThinApp oder Microsoft Application<br />
Virtualization angeboten werden, sind für spezielle Anwendungsfälle sicherlich interessant,<br />
jedoch lösen sie die Aufgabe der Vereinfachung der Clientverwaltung durch Entkoppelung<br />
nicht so gut wie ein Ansatz auf Basis von Virtualisierung.<br />
4.1.5.2. Nutzung von Diensten im Browser<br />
Browserbasierte Anwendungen sind dank Technologien wie HTML5, PHP, AJAX und Flash<br />
von Spielereien zu alltagstauglichen Diensten geworden. Mit einer angepassten<br />
Systemarchitektur können sie eine echte Alternative zu virtualisierten Desktops darstellen,<br />
deren Hauptvorteil in der Standardisierung der Schnittstellen und der dadurch sehr guten<br />
Integrationsfähigkeit nahezu jeder Plattform liegt. Jedes Endgerät mit einem aktuellen<br />
Browser kann hierbei ohne Anpassungen zur Nutzung der betrieblichen<br />
Informationssysteme genutzt werden, egal, ob es sich um ein stationäres oder tragbares<br />
Gerät handelt.<br />
Leider erfordert die Nutzung von Anwendungen über den Browser überwiegend komplette<br />
Neuentwickelungen, da sich vorhandener Programmcode in klassischen<br />
Programmiersprachen wie beispielsweise C++ oder C# nicht nutzen lässt.<br />
Durch die klare Trennung von Benutzerinterface (innerhalb des Browsers),<br />
Datenverarbeitung (durch eine Webserverinstanz) und der Datenhaltung (auf speziellen<br />
38
Bachelorthesis Jan Simmendinger<br />
Datenbankservern) ist sogar oftmals eine komplette Überarbeitung der gesamten Systeme<br />
notwendig, bevor solch eine Nutzung denkbar ist.<br />
Das Potential, das trotz des erhöhten Entwicklungsaufwands in diesem Ansatz steckt, zeigen<br />
Webportale wie Facebook und Google, die momentan beispielhaft die Leistungsfähigkeit von<br />
modernen, browserbasierten Benutzeroberflächen demonstrieren.<br />
SAP, einer der größten Anbieter von betrieblicher Software, setzt mit Produkten wie SAP<br />
Netweaver oder, die bei SAP gehostete Mietlösung, SAP BusinessByDesign sogar vollständig<br />
auf den Browser als Benutzerinterface und setzt damit verstärkt auf die Zukunft dieses<br />
Ansatzes.<br />
Die Vorteile wiegen den erhöhten Aufwand bei der Umstellung und Neuentwicklung häufig<br />
schnell auf, weshalb auf die Überlegung, ob Desktopvirtualisierung oder Browserapplikation<br />
besonderes Augenmerk gelegt werden sollte.<br />
4.1.6. Projektumfang und Rahmenbedingungen<br />
Bevor detaillierte Projektpläne erstellt werden, muss abgeklärt werden, unter welchen<br />
Rahmenbedingungen die Migration durchgeführt wird und damit, welchen Umfang das<br />
Projekt haben darf. Hier sind bei Migrationen in kleinen und mittleren Unternehmen<br />
folgende drei Punkte schwerpunktmäßig zu betrachten.<br />
4.1.6.1. Kapital<br />
Der finanzielle Rahmen eines Migrationsprojekts wird meist durch die Geschäftsführung<br />
vorgegeben, da eine größere Migration Investitionen erfordert, die über dem typischen Etat<br />
der IT-Abteilung liegt oder bei kleinen Firmen gar kein extra IT-Budget vorhanden ist.<br />
Insbesondere, wenn die Anschaffung neuer oder zusätzlicher Hardware oder<br />
Softwarelizenzen ansteht, sind die Geschäftsführer, Anteilseigner oder sonstige Shareholder<br />
in die Entscheidungsprozesse mit einzubeziehen.<br />
39
Bachelorthesis Jan Simmendinger<br />
4.1.6.2. Aufwand<br />
Eine Migration bringt ein nicht unerhebliches, zusätzliches Arbeitspensum mit sich. Je nach<br />
Auslastungsgrad und Personalsituation innerhalb der IT-Abteilung kann es möglich sein,<br />
solch ein Projekt durch den Auf- oder Abbau von Überstunden zu bewältigen. Ist dies jedoch<br />
nicht der Fall, so empfiehlt es sich zusätzliche Arbeitskraft von einem externen Dienstleister<br />
oder durch zusätzliches Personal zu beschaffen. Dies resultiert dann wieder in einem<br />
höheren finanziellen Aufwand, der wiederum mit den, bereits in Kapitel 4.1.6.1. genannten,<br />
Stakeholdern des Projekts abgestimmt werden muss.<br />
4.1.6.3. Technische Gegebenheiten<br />
Bauliche und ortsabhängige Gegebenheiten beeinflussen die zu erstellende Planung einer<br />
neuen Infrastruktur und die Migration auf diese selbstverständlich auch.<br />
Ein Faktor mit sehr zunehmender Gewichtung ist beispielsweise die Verfügbarkeit von<br />
Breitbandzugängen zum weltweiten Datennetz. Außerhalb urbaner Gegenden sind diese<br />
immer noch oftmals nur eingeschränkt verfügbar. Die maximal realisierbare Bandbreite<br />
sowie die Zuverlässigkeit und Verfügbarkeit eines Internetzugangs schränken die Freiheit bei<br />
der Planung eines neuen Systems eventuell stark ein, da beispielsweise ein Serverhosting an<br />
anderen Standorten oder bei externen Dienstleistern dadurch unmöglich wird.<br />
Aufgrund der hohen Priorität dieser Thematik ist es oftmals sinnvoll, sich über Alternativen<br />
zu einem Breitbandzugang über die Telefonleitung zu informieren, wenn DSL nur<br />
eingeschränkt realisierbar ist. Häufig ist damit eine höhere Bandbreite erreichbar, denn<br />
Technologien über das Breitbandkabel (TV-Kabel), Funktechnologien über Mobilfunk (UMTS,<br />
HSDPA oder LTE), Datenfunk (WLAN, WiMAX) und andere Möglichkeiten (Lichtwellenleiter)<br />
werden zunehmend praxistauglich und sind je nach örtlichen Gegebenheiten mit<br />
vertretbarem Aufwand realisierbar.<br />
Die Kapazität an nutzbarem Raum für die Unterbringung eines betrieblichen<br />
Informationssystems sollte ebenso bereits in die Grobplanung mit einfließen. Dabei geht es<br />
nicht nur um die bloßen Räumlichkeiten für die Unterbringung, sondern auch welche<br />
40
Bachelorthesis Jan Simmendinger<br />
Anforderungen diese erfüllen. Zu nennen sind hier Lüftungs- und Klimatechnik, Feuchtigkeit,<br />
Verfügbarkeit von Strom- und Kommunikationsleitungen sowie die Zutrittskontrolle.<br />
4.2. Konzepte<br />
Sind die finanziellen und technischen Rahmenbedingungen aus Kapitel 4.1.6. geklärt, so<br />
muss nun innerhalb dieser eine Lösung skizziert werden, aus der sich ein Konzept mit der<br />
genauen Vorgehensweise während der Migration ergibt.<br />
4.2.1. Ideen sammeln und bündeln<br />
Da sich nach den Vorüberlegungen aus Kapitel 4.1. meist eine Vielzahl von Möglichkeiten<br />
ergibt, die die gewünschten Ziele erfüllen würden, bietet es sich an diese zu Konzepten zu<br />
bündeln. Es sollten also Ideen strukturiert und gebündelt und so weiterentwickelt werden,<br />
dass erkennbar wird, welche Vor- und Nachteile sich beim jeweiligen Konzept<br />
herauskristallisieren und mit welchem Aufwand eine Realisierung verbunden wäre.<br />
Abb. 8: Aus der Vielzahl der in Frage kommenden Technologien müssen für das neue IT-<br />
System geeignete ausgewählt und gruppiert werden<br />
4.2.2. Bewertung der Konzepte und Freigabe<br />
Nach der Phase zur Konzeptfindung gilt es die möglichen Konzepte zu bewerten. Die hierbei<br />
zu beachtenden Punkte können nicht allgemein genannt werden, jedoch finden sich hier<br />
41
Bachelorthesis Jan Simmendinger<br />
grundlegende Ideen für die Findung von Bewertungspunkten, wobei die Gewichtungen<br />
anhand der Präferenzen eines betreffenden Unternehmens individuell festzulegen sind:<br />
- Chancen auf einen erfolgreichen Projektverlauf<br />
- Unternehmensinternes Know-How der verwendeten Technologien<br />
- finanzieller Aufwand<br />
- Arbeitsaufwand für die Migration<br />
- Aufwand für Mitarbeiterschulung, wenn neue Hard- oder Software eingesetzt wird<br />
- Zukunftsaussichten der verwendeten Technologien<br />
- Kompatibilität zu vorhandenen oder weiteren Systemen<br />
- spätere Migrationsfähigkeit / voraussichtliche Kosten bei nächstem Systemwechsel<br />
Zur Findung der am besten geeigneten Konzepte kann eine Entscheidungsmatrix, wie in<br />
Abbildung 9 zu sehen, genutzt werden. Die Bewertung einzelner Punkte gestaltet sich<br />
hierbei häufig nicht einfach, da alle nicht messbaren Kriterien quantifiziert werden müssen,<br />
um sie erfassen zu können. Jedoch hat dies den Vorteil, dass jeder Punkt für sich selbst<br />
überdacht wird und nicht im Gesamtbild von Vor- und Nachteilen der einzelnen Konzepte<br />
untergeht.<br />
Abb. 9: Eine Bewertungsmatrix findet anhand individueller Gewichtung einzelner<br />
Kriterien das am besten geeignete Konzept<br />
42
Bachelorthesis Jan Simmendinger<br />
Wurden die am besten geeigneten Konzepte gefunden, müssen grobe Aufwands- und<br />
Kostenschätzungen erstellt und diese den entscheidenden Stellen im Unternehmen<br />
vorgestellt werden. Es sollte dann eine Freigabe für eines der Konzepte gegeben werden um<br />
es in den nächsten Schritten weiter voran zu treiben und die Migration vorzubereiten.<br />
4.3. Erstellung eines Projektplans<br />
Ist die Freigabe eines Projektes aus dem vorherigen Abschnitt erfolgt, ist das Projekt somit<br />
definiert. Der nächste Schritt ist die Erstellung eines Projektplans auf dem die spätere<br />
Steuerung des Migrationsprojekts basiert.<br />
4.3.1. Arbeitspakete definieren<br />
Welche Aufgaben ergeben sich bei der Umsetzung der Erneuerungspläne und wie können sie<br />
sinnvoll gegliedert werden? – Diese Aufgabe stellt sich am Anfang der Erstellung des<br />
Projektplans. Am besten dafür geeignet ist ein Projektstrukturplan, dessen englische<br />
Bezeichnung „work breakdown structure“ bereits die Vorgehensweise beschreibt: Die<br />
anstehenden Aufgaben werden heruntergebrochen in kleinere Arbeitspakete. Die Vorteile<br />
dieser kleinen Pakete sind neben der besseren Überschaubarkeit, dass die Verantwortung<br />
dafür jeweils einem Verantwortlichen übergeben werden kann und dass der Fortschritt ihrer<br />
Bearbeitung detaillierter beurteilt werden kann.<br />
Abb. 10: Beispielhafte Aufteilung der Arbeitspakete bei der Fertigung eines Automobils<br />
43
Bachelorthesis Jan Simmendinger<br />
4.3.2. Klären von Personal- und Kompetenzfragen<br />
Es muss beurteilt werden, welche Kompetenzen jeweils für die Bearbeitung eines<br />
Arbeitspaketes notwendig sind. Da kleine Unternehmen einen meist sehr übersichtlichen<br />
Mitarbeiterstamm in der EDV-Abteilung haben, lässt sich häufig schnell klären, welcher<br />
Mitarbeiter Erfahrungen mit bestimmten Produkten oder Technologien hat und damit<br />
welche Arbeitspakete er übernehmen kann.<br />
Findet sich kein interner Mitarbeiter mit den entsprechenden Kompetenzen, so muss ein<br />
Experte in das Projekt mit eingebunden werden, der das entsprechende Know-How<br />
mitbringt, um technische und organisatorische Unsicherheiten bei der Migration auf ein<br />
Minimum zu reduzieren.<br />
4.3.3. Klären von Abhängigkeiten und Erstellung des Zeitplans<br />
Sind die einzelnen Arbeitspakete und die jeweils dafür zuständigen Personen erst einmal<br />
definiert, müssen im nächsten Schritt die Abhängigkeiten der Arbeitspakete voneinander<br />
geklärt und daraus die Abfolge der auszuführenden Arbeiten abgeleitet werden.<br />
Dadurch, dass jedes Arbeitspaket einem Verantwortlichen zugewiesen wird, der<br />
entsprechende Erfahrung auf dem jeweiligen Gebiet mitbringt, ist es möglich, eine<br />
Aufwandsschätzung für jedes Paket zu erstellen und die benötigten Ressourcen abzuklären.<br />
Verbindet man nun die Aufwandsschätzung und die Verfügbarkeit der benötigten<br />
Ressourcen mit dem Ablauf der Schritte, erhält man einen Projektablaufplan mit<br />
voraussichtlicher Gesamtdauer.<br />
Abb. 11: Nach Klärung von Abhängigkeiten und der benötigten Ressourcen für ein<br />
Arbeitspaket ergibt sich einen Projektablaufplan mit voraussichtlicher Dauer<br />
44
Bachelorthesis Jan Simmendinger<br />
4.3.4. Projektdurchführung und Steuerung<br />
Mit dem so entstandenen Ablaufplan und der Verteilung der Verantwortlichkeiten der<br />
einzelnen Pakete kann das Projekt durchgeführt und gesteuert werden.<br />
Bei der Steuerung können drei Schwerpunkte betrachtet werden, die während der Migration<br />
ständig überprüft werden sollten, mindestens jedoch nach dem Abschluss jedes einzelnen<br />
Arbeitspakets. Abweichungen von den geplanten Vorgaben sollten so früh wie möglich an<br />
alle Betroffenen kommuniziert werden, dazu gehören die Geschäftsführung und die<br />
Bearbeiter von nachfolgenden Arbeitspaketen. Nur so sind rechtzeitige Änderungen in den<br />
Projektablauf möglich, ohne dabei viele Ressourcen für Entwicklungen in die falsche<br />
Richtung zu verschwenden.<br />
Schwerpunkt 1 - technische Umsetzungen:<br />
Fragestellung: Erfüllt jede Teilkomponente die an sie gestellten Anforderungen?<br />
Lösungsansätze: Umgestaltung der Komponente oder Anpassung der darum<br />
angeordneten Systeme<br />
Schwerpunkt 2 – Der zeitliche Rahmen:<br />
Fragestellung: Werden die jeweiligen Pakete in der veranschlagten Zeit erledigt?<br />
Lösungsansätze: Erhöhung der Mitarbeiter an Paketen, die die Gefahr mit sich bringen,<br />
Schwerpunkt 3 - der finanzielle Aufwand:<br />
das gesamte Projekt in Verzug zu bringen<br />
Fragestellung: Bleibt die Summe der Kosten der Pakete innerhalb des genehmigten<br />
Budgets?<br />
Lösungsansatz: Erhöhung des genehmigten Projektkapitals durch die Geschäftsleitung<br />
Werden die genannten Schwerpunkte während des Projekts kontinuierlich bearbeitet, so<br />
kann die Migration mit hoher Wahrscheinlichkeit erfolgreich abgeschlossen werden.<br />
45
Bachelorthesis Jan Simmendinger<br />
5. Praktische Umsetzung<br />
5.1. Ein Praxisbericht<br />
Wie die Realisierung des Gedankens einer virtualisierten Infrastruktur in einem<br />
mittelständischen Betrieb aussehen kann, soll in diesem Kapitel anhand eines Praxisberichts<br />
erfolgen. Das Projekt fand bei der Firma mouldtec Kunststoff GmbH in Kaufbeuren statt und<br />
umfasste eine Gesamterneuerung der gesamten Infrastruktur in der Verwaltung des<br />
Unternehmens. Das Altsystem, das Ausgangspunkt der Migration war, wird in den folgenden<br />
Abschnitten beschrieben.<br />
5.1.1. Übersicht<br />
Die Erneuerung des sechs Jahre alten Systems wurde notwendig, da es der EDV-Abteilung<br />
der Firma Mouldtec nicht mehr möglich war, aktuelle Anpassungen vorzunehmen, weil<br />
seitens des früheren EDV-Dienstleisters keine Unterstützung mehr erfolgte.<br />
Da es sich bei dem System um eine unübliche Implementierung von ThinClients mit Linux<br />
Betriebssystem, die über einen „X-Kontroller“ genannten, schlecht dokumentierten<br />
Linuxserver über RDP-Sitzungen auf einen Windows 2003 Terminalserver zugegriffen haben,<br />
war es ohne Support des damaligen Lieferanten nicht mehr justierbar.<br />
5.1.2. Server und Hosts<br />
Die damalige Serverlandschaft von Mouldtec umfasste die nachfolgend genannten<br />
Hostsysteme.<br />
46
Bachelorthesis Jan Simmendinger<br />
5.1.2.1. APPLNX<br />
Es handelte sich hierbei um den „X-Kontroller“, einen Debian GNU/Linux-Server der die<br />
vollständige Verwaltung des Netzwerks übernahm. Auf ihm war ein SQUID-Proxyserver aktiv,<br />
der den Zugang ins Internet regelte. Ebenso übernahm er durch eine SAMBA-<br />
Implementierung die Rolle eines simulierten Windows-Domänencontrollers, gegen den die<br />
Windowssysteme im Netzwerk ihre Benutzerauthentifizierung durchführen konnten. Für die<br />
damaligen ThinClients stellte dieser Host folgende Dienste zur Verfügung:<br />
Er lieferte über einen TFTP-Server das Minilinux an die ThinClients per PXE-Protokoll aus.<br />
Remotedesktopsitzungen der ThinClients auf den Terminalserver wurden ebenso über<br />
diesen Host geleitet wie ClientAccess-Zugriffe auf die AS/400.<br />
5.1.2.2. V5R3M0<br />
Der Host V5R3M0 ist eine AS/400 Maschine aus der Reihe der iSeries von IBM. Dieses<br />
System unter i5/OS sollte von der Migration unangetastet bleiben. Es sollte lediglich das<br />
unternehmensweit verwendete Netzlaufwerk wegmigriert und eine im System integrierte<br />
IPCS-Steckkarte still gelegt werden. Solch eine Steckkarte stellt einen eigenständigen PC<br />
innerhalb einer iSeries-Maschine zur Verfügung, auf dem Windows Betriebssysteme<br />
ausgeführt werden können. Sie diente der Verfolgung des Ziels, ein iSeries System als<br />
vollständiges, integriertes Informationssystem zu betreiben. Dazu verfügt die Karte über<br />
einen eigenständigen Prozessor, Arbeitsspeicher und Netzwerkinterface. Festplattenspeicher<br />
und sonstige I/O-Systeme werden vom AS/400 System bezogen.<br />
5.1.2.3. APPWIN01<br />
Ein Windows 2003 Server, der den Benutzern per Remotedesktop ein Microsoft Office 2003<br />
Paket anbot und über Outlook dem Senden und Empfangen von Emails diente. Zusätzlich<br />
47
Bachelorthesis Jan Simmendinger<br />
war ein PDF-Betrachter und eine Clientsoftware zum Zugriff auf die AS/400 installiert. Der<br />
Host war auf einem eigenständigen IBM xServer X364 untergebracht.<br />
5.1.2.4. APPWIN02<br />
Dieses Hostsystem lief unter Windows Server 2003 und bot ebenso wie APPWIN01 Dienste<br />
per Remotedesktop, allerdings nur für einen bestimmten Benutzerkreis. Die Hauptaufgabe<br />
des Systems war die zur Verfügung Stellung eines Enterprise-Information-Systems (kurz EIS)<br />
der Firma Aruba.<br />
Diese Maschine war auf dem IPC-Server in der AS/400 untergebracht.<br />
5.1.3. ThinClients<br />
Bereits im Altsystem kamen ThinClients zum Einsatz. Es handelte sich dabei um ThinClients<br />
DT166 der Firma DigitalResearch.<br />
Abb. 12: ThinClient DT166, wie er im Altsystem eingesetzt wurde<br />
Diese Geräte haben folgende Leistungsdaten:<br />
AMD Geode 800 CPU, 512 MB RAM, Sound, Netzwerk, 4x USB 2.0 und VGA.<br />
Die Terminals hatten keinen Flash- oder Festplattenspeicher, sondern bezogen ihr<br />
Betriebssystem mithilfe des PXE-Protokolls von APPLNX. Da alle Geräte während des<br />
Bootvorgangs dasselbe Betriebssystemabbild vom Server geladen haben, liefen alle<br />
48
Bachelorthesis Jan Simmendinger<br />
ThinClients mit demselben Betriebssystem. Gerätespezifische Anpassungen, wie<br />
beispielsweise das gezielte Aktivieren oder Deaktivieren von USB-Anschlüssen, eine<br />
Vorbelegung von Anmeldemasken mit bestimmten Benutzernamen oder eine Anpassung der<br />
Bildschirmauflösung waren somit nicht möglich.<br />
Vor allem der letzte Punkt hat sich sehr negativ auf die Benutzerakzeptanz ausgewirkt, da<br />
das System wegen mancher im Unternehmen noch eingesetzter 15“-Flachbildschirme mit<br />
einer Auflösung von 1024 x 768 Pixeln betrieben wurde. Besonders bei Benutzern, die auf<br />
neuen 22“-Bildschirmen im Breitbildformat arbeiten, sorgte die starke Verzerrung der<br />
Anzeige für Unmut.<br />
Die IP-Adresse, die ein ThinClient beim Booten angenommen hat, wurde aus einer Tabelle<br />
bezogen, in der zu jeder MAC-Adresse eines Clients die zugehörige IP hinterlegt war.<br />
5.1.4. Netze<br />
Aus Gründen der IT-Sicherheit kam damals eine Vielzahl von Subnetzen zum Einsatz.<br />
Beispielsweise wurde für jede Verbindung zwischen zwei Serversystemen ein eigenes<br />
Subnetz geschaffen.<br />
Nicht nur innerhalb des Serverraums wurde der Ansatz mehrerer Netzwerke verfolgt,<br />
sondern auf dem gesamten Betriebsgelände wurde mit zwei getrennten Netzen gearbeitet.<br />
Diese beiden Netze waren jedoch nicht nur logisch, sondern auch physikalisch strikt<br />
getrennt. Ein Netz war für die Benutzung mit ThinClients reserviert, das andere wurde für die<br />
Anbindung normaler PC-Arbeitsplätze genutzt. Diese Trennung der Netze sorgte für sehr<br />
unübersichtliche Konfigurationen der Netzwerkschnittstellen einzelner Geräte.<br />
Eventuell notwendiges Routing zwischen den Netzen wurde vom X-Kontroller übernommen.<br />
49
Bachelorthesis Jan Simmendinger<br />
Abb. 13: Ausschnitt aus der Dokumentation der alten Infrastruktur, anhand derer<br />
die Vielzahl an verwendeten Subnetzen ersichtlich ist<br />
5.1.5. Veralteter Internetbrowser<br />
Das Surfen im Internet war im Altsystem nur über den auf den ThinClients verfügbaren<br />
Internetbrowser IceWeasel möglich. Die Nutzung eines alternativen Browsers war, durch<br />
den in Kapitel 2.2.1. genannten Bootvorgang eines fertigen Betriebssystemabbildes, weder<br />
auf den ThinClients selbst möglich, noch innerhalb der Terminalserversitzung , da auf diesem<br />
keine Konfiguration für den Proxyserver eingerichtet war.<br />
Bei dem verwendeten Browser handelt es sich um eine angepasste Version des Firefox-<br />
Browsers, die von den Entwicklern von Debian GNU/Linux ins Leben gerufen wurde, um<br />
Lizenzschwierigkeiten vorzubeugen. Der Browser wird zwar noch weiterentwickelt, jedoch<br />
folgt die Entwicklung den Aktualisierungen von Firefox nur mit großem Abstand. Dadurch,<br />
dass die bei Firma Mouldtec verwendete Version des Browsers fest im Bootimage<br />
implementiert war, wurde jahrelang keine Aktualisierung vorgenommen.<br />
Benutzer, die also mit Zugriff auf das Internet arbeiten, hatten über die vorgesehene Lösung<br />
keine Möglichkeit auf aktuelle Internetinhalte zuzugreifen, da der IceWeasel-Browser<br />
veraltet war und keine Unterstützung für Flash-Inhalte oder in Webseiten eingebettete PDF-<br />
Dokumente anbot.<br />
50
Bachelorthesis Jan Simmendinger<br />
5.1.6. Zusammenfassung der Schwachstellen<br />
Die alte Netzwerkinfrastruktur wurde von der Firma redoXsystems GmbH geliefert und<br />
betreut. Der Support wurde laut Aussage des EDV-Leiters der Firma Mouldtec durch<br />
personelle Engpässe seitens redoXsystems zunehmend unbefriedigender. Letzten Endes war<br />
kein Support mehr gegeben und somit waren keine Anpassungen mehr an der<br />
Netzwerkinfrastruktur möglich. Vor allem der sogenannte „X-Controller“ war ohne<br />
detailliertes Hintergrundwissen nicht weiter konfigurierbar und erfüllte seine aktuellen<br />
Aufgaben alle, jedoch war den Verantwortlichen im Unternehmen die Gefahr zu groß, dass<br />
das Gesamtsystem bei Ausfall dieses Gerätes nicht mehr wiederherstellungsfähig sein<br />
würde. Aus diesem Sachverhalt ergaben sich die Schwachstellen, die eine Migration auf eine<br />
neue Infrastruktur notwendig gemacht haben.<br />
Der X-Kontroller sollte als Single-Point-of-Failure entschärft werden. Durch<br />
Zusammenfassung der vielen Subnetze zu größeren Netzen sollte mehr Übersichtlichkeit und<br />
damit leichtere Fehlereingrenzung ermöglicht werden. Die ThinClients mussten mit dem Ziel<br />
angepasst oder ausgetauscht werden, dass den Benutzern ein zeitgemäßes Arbeiten<br />
ermöglicht wird – insbesondere in den Bereichen aktuelles Office Paket, Displayauflösung<br />
und Darstellung von Webseiten. Die gesamte Bedienung für den Benutzer sollte an den<br />
aktuellen Standard der Microsoft Windows Welt angepasst und damit erleichtert werden.<br />
5.2. Planung der neuen Infrastruktur<br />
Es war also klar, dass bei der Firma Mouldtec eine sehr umfangreiche Systemmigration<br />
notwendig war. Es galt die Frage zu beantworten, welches System wohin migriert werden<br />
sollte.<br />
51
Bachelorthesis Jan Simmendinger<br />
5.2.1. Ideensammlung und Konzeptfindung<br />
Die neue Infrastruktur sollte nach den Vorstellungen des EDV-Leiters weitgehend ohne<br />
Linuxserver auskommen und auf dem aktuellen Stand der Technik sein. Ein Wechsel auf<br />
aktuelle Windows Server 2008R2 Systeme lag also nahe. Die Konsolidierung der neuen<br />
Server auf einer virtualisierten Infrastruktur wurde geprüft und sollte so umgesetzt werden,<br />
da die Auslastung der bisherigen Server sehr gering war. Das bisherige Netzlaufwerk sollte<br />
ebenso vom iSeries-System wegmigriert werden.<br />
Überlegungen, die Serverlandschaft bei einem externen Dienstleister zu hosten, wurden<br />
nicht angestellt, da der Firma nur eine geringe DSL-Bandbreite zur Verfügung steht.<br />
Bisherige Erfahrungen des Unternehmens mit ThinClients waren überwiegend positiv. Dieser<br />
Ansatz sollte also beibehalten werden, allerdings unter der Bedingung, dass individuelle<br />
Anpassungen der Konfiguration einzelner Geräte möglich sind.<br />
Zur Reduzierung der Anzahl von Subnetzen hätte die Möglichkeit bestanden, ein komplett<br />
neues logisches Subnetz aufzubauen und alle Komponenten in dieses neue Netz<br />
einzupflegen. Die Alternative war eine weitere Nutzung von einem der vorhandenen Netze<br />
und die Auflösung aller anderen.<br />
5.2.2. Personaleinsatz<br />
Die EDV-Abteilung der Firma Mouldtec hatte die zuvor genannten Vorgaben zur Erneuerung<br />
der IT-Infrastruktur und zog in Ermangelung von Personal und Know-How das Systemhaus<br />
Soft-Consult Häge GmbH aus Langenau hinzu. Hier war ein Mitarbeiter für die Ausführung<br />
der meisten Arbeitsschritte da, der bereits viel Erfahrung im Bereich solcher Projekte hat<br />
und dem eine weitere Kraft zur Verfügung stand. Für die weitere Projektplanung bedeutete<br />
dies, dass einzelne Arbeitspakete nicht direkt einem Mitarbeiter zugewiesen werden<br />
mussten, sondern es vorwiegend darum ging, die Kommunikation zwischen den beiden<br />
Unternehmen zu regeln und zu klären, welche Informationen und welches Material für die<br />
nächsten Schritte von wem zur Verfügung gestellt werden musste.<br />
52
Bachelorthesis Jan Simmendinger<br />
5.2.3. Aufteilung der Arbeitspakete zu einem Ablaufplan<br />
Da das Design der neuen Systemlandschaft bereits durch den Auftrag an Soft-Consult sehr<br />
klar definiert war, konnte direkt nach der Zerlegung in Einzelschritte ein Ablaufplan des<br />
Projektes erstellt werden. Eine genaue Zeitplanung der einzelnen Arbeitspakete, um die<br />
Ressourcen einplanen zu können war nicht notwendig, da die Aufgaben von dem<br />
zweiköpfigen Team seitens Soft-Consult seriell erledigt wurden und ein Aufgabenblock direkt<br />
nach dem Abschluss des Vorherigen begonnen wurde.<br />
Abb. 14: Der Ablaufplan enthielt keine genauen Zeiten, da die Abarbeitung jedes Blocks direkt<br />
im Anschluss an den Vorgänger begonnen wurde<br />
Die Steuerung des Projekts beschränkte sich auf ein Reporting des aktuellen Fortschritts an<br />
Mouldtec und die Nennung der geplanten Daten für weitere Vor-Ort-Arbeiten beim Kunden.<br />
Diese waren notwendig für Installationsarbeiten der vorbereiteten Hardware und die<br />
53
Bachelorthesis Jan Simmendinger<br />
Hauptmigration während der die EDV-Abteilung von Mouldtec zusammen mit dem Soft-<br />
Consult Team, an einem Wochenende, den GoLive der neuen Infrastruktur durchführte.<br />
5.3. Das neue System<br />
5.3.1. Übersicht<br />
Das neue System wurde also größtenteils mit neuen Komponenten und frisch installierten<br />
Hostsystemen geplant. Ein Überblick über die Planung der neuen Infrastruktur ist in den<br />
Abbildungen 15 und 16 ersichtlich.<br />
Abb. 15: Übersicht über das neue Netzwerklayout der Firma Mouldtec<br />
54
Bachelorthesis Jan Simmendinger<br />
Abb. 16: Gesamtüberblick über die neue Infrastruktur<br />
5.3.2. Logische Übersicht über die Migration der einzelnen Server<br />
Die Hauptaufgabe der Ersetzung des X-Kontrollers wurde durch eine neue, zentrale<br />
Verwaltungsinstanz in Form eines Windows Domänencontrollers gelöst. Jedoch wurden<br />
keinerlei Daten vom Altsystem übernommen, sondern auf einer neuen virtuellen Maschine<br />
frisch aufgebaut.<br />
55
Bachelorthesis Jan Simmendinger<br />
Der ehemalige Terminalserver für den Großteil der Nutzer wurde, ebenso wie der X-<br />
Kontroller, durch eine komplett neue virtuelle Maschine ersetzt. Die frei gewordene<br />
Hardware wurde für einen neuen Host verwendet und übernimmt jetzt die Aufgabe der<br />
zentralen Datensicherung.<br />
Der Terminalserver für die Geschäftsleitung mit dem Enterprise Information System Aruba<br />
EIS wurde komplett virtualisiert und fand somit den Weg in das neue VMWare Cluster.<br />
Abb. 17: Logischer Überblick über die Migrationen der einzelnen Serversysteme<br />
5.3.3. Übernommene Daten aus den Altsystemen<br />
5.3.3.1. Benutzerkonten vom X-Kontroller<br />
Es fand keine Übernahme von Daten vom APPLNX statt. Die Benutzerkonten und die<br />
zugehörigen Benutzerpasswörter wurden stattdessen von der EDV-Abteilung von den<br />
56
Bachelorthesis Jan Simmendinger<br />
Anwendern abgefragt und aufgelistet. Nach dem Durchsehen und Korrigieren der<br />
entstandenen Liste und dem Entfernen von nicht mehr verwendeten Benutzerkonten und<br />
der Aktualisierung von Benutzernamen (Anwender nicht mehr im Unternehmen oder durch<br />
Heirat geänderte Namen) wurden die Benutzerkonten ohne Altlasten auf dem neuen<br />
Domänencontroller eingerichtet.<br />
5.3.3.2. Emailkonten von APPWIN01<br />
Vom früheren Terminalserver wurden nur die benutzerspezifischen Daten der Outlook<br />
Installation übernommen. Pro User wurde also der „Persönliche Ordner“ (*.PST) und die<br />
Informationen für die Autoergänzung von bereits genutzten Emailadressen (*.NK2)<br />
extrahiert.<br />
5.3.3.3. Dateien vom alten Netzlaufwerk übernehmen<br />
Das Netzlaufwerk der Firma Mouldtec wurde bisher von der AS/400 zur Verfügung gestellt.<br />
Hierfür wurde die AS/400 NetServer Funktion des IBM OS/400 verwendet. Diese Funktion<br />
stellt ein Netzlaufwerk mit einer Windows kompatiblen SMB-Freigabe zur Verfügung. Die<br />
Performance dieser Lösung war für die Benutzer unbefriedigend. Tests im Vorfeld ergaben<br />
Leseraten des früheren Netzlaufwerkes von 12 Megabyte je Sekunde. In Anbetracht der<br />
Tatsache, dass alle Dateioperationen der Benutzer über dieses Laufwerk stattfanden, war<br />
hier ein beträchtliches Verbesserungspotential gegeben.<br />
Das neue Netzlaufwerk wird vom Domänencontroller MTKDC01 zur Verfügung gestellt. Es<br />
handelt sich hierbei um einen Datenträger, der direkt vom Storage-Area-Network zur<br />
Verfügung gestellt wird und im Betriebssystem des Domänencontrollers eingebunden und<br />
freigegeben ist.<br />
Anfangs wurde nur die Ordnerstruktur im Stammverzeichnis des neuen Laufwerkes erzeugt<br />
und die Berechtigungen gesetzt. Hier war ein größerer manueller Aufwand zu betreiben, da<br />
die Berechtigungsverwaltung unter IBM OS/400 einen anderen Aufbau besitzt als unter<br />
57
Bachelorthesis Jan Simmendinger<br />
Microsoft Windows. Besonders zu erwähnen ist die fehlende Möglichkeit von Vererbung auf<br />
untergeordnete Verzeichnisse, wie in Abbildung 18 dargestellt.<br />
Abb. 18: Vergleich der Rechtevererbung für Freigaben unter Windows und AS/400 NetServer<br />
Die gesamte Datenmenge auf dem Laufwerk hatte ein Volumen von etwa 200 Gigabyte.<br />
Trotz dieser verhältnismäßig kleinen Datenmenge wurde eine mehrstufige Migration der<br />
Daten vom Altsystem ins neue System gewählt, um innerhalb der begrenzten Zeit am<br />
Umstellungswochenende erfolgreich migrieren zu können. Rechnerisch ergab sich zwar nur<br />
eine Kopierdauer von 5 Stunden:<br />
Datenmenge: 200 GB * 1024 MB/GB = 204800 MB<br />
Kopierzeit: 204800 MB / 12MB/s = 17000 sec = 280 min = 5 Stunden<br />
Jedoch sollten eventuelle Probleme mit Sonderzeichen in Dateinamen, zu lange Dateinamen<br />
oder Dateiattributen vorzeitig erkannt werden.<br />
Dafür wurde der gesamte Datenbestand in der Woche vor dem Roll-Out auf die neue<br />
Netzwerkfreigabe kopiert. Die Benutzer arbeiteten nach diesem Vorgang weiterhin auf dem<br />
Altsystem.<br />
Dateien mit nicht kopierfähigen Namen wurden den entsprechenden Abteilungen genannt<br />
und wurden von diesen noch umbenannt, Dateien die Aufgrund anderer Attribute nicht<br />
kopiert werden konnten, wurden individuell auf das Kopieren vorbereitet.<br />
58
Bachelorthesis Jan Simmendinger<br />
Während des Roll-Out war es dann nur noch notwendig, die seit dem Kopiervorgang<br />
erstellten oder veränderten Dateien kopieren zu lassen und anschließend die alte Freigabe<br />
zu deaktivieren und die neue im Netz erreichbar zu machen.<br />
5.3.4. Neue ThinClients<br />
Bei der Überlegung, ob die alten ThinClients hardwareseitig mit einem Flashlaufwerk<br />
aufgerüstet werden sollten, um darauf ein Windows Betriebssystem zu installieren oder ob<br />
neue ThinClients angeschafft werden sollen, fiel die Entscheidung auf neue ThinClients. Bei<br />
diesen handelt es sich um Geräte der Firma IGEL Technology GmbH. Diese sind von den<br />
Leistungsdaten geringfügig besser wie die alten Terminals, haben jedoch im Gegensatz zu<br />
diesen einen integrierten Flash-Speicher, von dem ein Microsoft Windows Embedded<br />
Standard 2009 Betriebssystem gebootet wird. Bei diesem Betriebssystem handelt es sich um<br />
eine für den Betrieb auf Terminals angepasste Variante von Microsoft Windows XP, mit dem<br />
für die meisten Benutzer wohlbekannten Desktopdesign.<br />
Da das Betriebssystem jedes ThinClients lokal von seinem eigenen Flashlaufwerk gestartet<br />
wird, ist es möglich jeden dieser Clients mit einer individuellen Konfiguration zu betreiben.<br />
Die Geräte bringen herstellerseitig bereits ein Werkzeug mit, mit dem es möglich ist, nach<br />
dem Setzen der Einstellungen einen Schreibschutz auf das Dateisystem zu aktivieren. Das<br />
bedeutet, dass der Benutzer im laufenden Betrieb Dateien auf seinem System speichern und<br />
verändern kann, sich das System aber nach einem Neustart wieder in der gewünschten<br />
Ausgangskonfiguration befindet.<br />
59
Bachelorthesis Jan Simmendinger<br />
Abb. 19: IGEL ThinClient, wie er in der neuen Infrastruktur zum Einsatz kommt<br />
5.3.5. Storage-Lösung<br />
Eine DS3200 von IBM stellt das Herzstück des Datenspeichers der neuen Infrastruktur dar.<br />
Dieses Storage-Area-Network ist jeweils durch eine SAS-(Serial-Attached-SCSI-) Verbindung<br />
mit einem der beiden physikalischen Server und damit quasi einem Hypervisor verbunden.<br />
Das System ist momentan mit 10 Festplatten mit jeweils 320 Gigabyte bestückt und stellt<br />
damit 3 Terabyte Speicherplatz zur Verfügung.<br />
Die physikalischen Festplatten sind folgendermaßen zu logischen Blöcken zusammengefasst:<br />
Jeweils 4 Festplatten werden als RAID 10-Verbund betrieben. Die verbleibenden 2<br />
Festplatten dienen als sofort einsatzbereite Ersatzfestplatte (HotSpare).<br />
Der RAID 10 Modus (ein RAID 0 über zwei RAID 1) verbindet die Vorteile eines RAID 1 mit<br />
denen eines RAID 0 Betriebs. Im RAID 0 Betrieb werden Lese- und Schreibzugriffe auf zwei<br />
oder mehr Festplatten verteilt, um durch parallele Verarbeitung höhere Geschwindigkeiten<br />
zu erzielen. Im RAID 1 Modus werden die Daten auf zwei Datenträgern vollständig<br />
redundant gespeichert, um eine höhere Ausfallsicherheit zu erreichen. Bei Lesezugriffen hat<br />
ein RAID 1 die selbe Performance wie ein RAID 0.<br />
60
Bachelorthesis Jan Simmendinger<br />
Abb. 20: Funktionsweise verschiedener RAID-Konfigurationen<br />
5.4. Die Migration<br />
5.4.1. Vorgehensweise<br />
Die eigentliche Migration auf die neue Infrastruktur war nur mit einer schrittweisen<br />
Vorgehensweise zu bewältigen, da einige Arbeiten im engen Zeitrahmen des Roll-Out<br />
keinen Platz gefunden hätten. Deshalb wurden viele Aufgaben im Vorfeld oder im Nachgang<br />
erledigt, so dass am Umstellungswochenende nur der Roll-Out der neuen ThinClients, die<br />
Umstellung auf das neue Netzlaufwerk, die Migration der USB-Drucker in die neue<br />
Infrastruktur und der Umzug der Outlookkonten auf den neuen Terminalserver stattfanden.<br />
5.4.2. Vorbereitungen<br />
Zu den Vorbereitungen gehörte die Installation, Einrichtung und Konfiguration der Server in<br />
den Räumen der Firma Soft-Consult in Langenau und die anschließende Montage und<br />
Inbetriebnahme der Hostsysteme in den Serverräumlichkeiten der Firma Mouldtec in<br />
Kaufbeuren parallel zum Altsystem.<br />
Die Vorbereitung der IGEL-Terminals wurde ebenso bereits vor der Migration erledigt. Hierzu<br />
gehörte die Inventarisierung der Clients, Vergabe von IP-Adressen, Einrichtung der<br />
Domänenmitgliedschaft, die Einrichtung designierter Benutzer für die Remote-Desktop-<br />
Sitzungen und das Aktivieren eines Schreibfilters für den Flash-Speicher, um spätere<br />
Veränderungen an der Konfiguration durch die Benutzer zu unterbinden.<br />
61
Bachelorthesis Jan Simmendinger<br />
5.4.3. Inbetriebnahme der neuen Security Appliance<br />
Da die Fahrtstrecke von der Firma SoftConsult in Langenau zur Firma Mouldtec Kunststoff<br />
GmbH in Kaufbeuren 120 km beträgt, sollten unnötige Fahrtkosten vermieden werden.<br />
Deshalb war ein wichtiger Baustein vor der Migration die Herstellung eines Site-to-Site VPN<br />
vor dem Roll-Out, um Arbeiten im Vor- oder Nachgang per Fernzugang erledigen zu können.<br />
Um das aktuelle Tagesgeschäft der Firma Mouldtec bis zum endgültigen Roll-Out nicht zu<br />
beeinträchtigen, war es notwendig, die bestehende Internetverbindung über das bisherige<br />
Gateway mit allen Konfigurationen weiter zu betreiben oder es entsprechend nach zu bilden.<br />
Da der Netzzugang über eine DSL-Leitung mit fester IP erfolgt, die über das PPPoE-Protokoll<br />
(Point-to-Point over Ethernet) betrieben wird, schied das Schalten einer zweiten parallelen<br />
Verbindung aus.<br />
Dieses Problem wurde folgendermaßen gelöst: In der neuen Infrastruktur war eine Security<br />
Appliance vom Typ NetScreen SSG5 von Juniper Networks vorgesehen, die im Endzustand<br />
die DSL-Verbindung treiben, Firewall für den Internetverkehr und Site-to-Site und Dial-Up<br />
VPN-Verbindungen zur Verfügung stellen sollte. Erster Schritt war also die Konfiguration der<br />
SSG5 mit den Zugangsdaten der Internetverbindung und einer Schnittstelle als Interface in<br />
das neue Subnetz und einer anderen Schnittstelle, die den alten Router simulierte, um den<br />
alten Proxyserver und damit das gesamte Netzwerk weiterhin online zu halten.<br />
Abb. 21: Vergleich der alten Appliance für den Zugang zum Internet mit Router (oben)<br />
und der Neuen (unten) mit installierter Firewall<br />
62
Bachelorthesis Jan Simmendinger<br />
5.4.4. Die Hauptmigrationsphase<br />
Die Hauptmigrationsphase und damit der Übergang des neuen Systems in den<br />
Produktivmodus fand an einem Wochenende statt. Die Phase begann mit dem Roll-Out der<br />
ThinClients. Dazu wurden die Geräte an den einzelnen Arbeitsplätzen ausgetauscht und<br />
währenddessen gleich noch an den jeweiligen Arbeitsplatz angepasst.<br />
Der zweite Schritt der Umstellung umfasste die Installation von nicht netzwerkfähigen<br />
Druckern, die per USB an die IGEL-Terminals angeschlossen wurden.<br />
Ein weiterer Schritt war die Umschaltung des Netzlaufwerks (bei der Firma Mouldtec aus<br />
historischen Gründen als Y-Laufwerk benannt) vom Netserver der AS/400 auf die neue<br />
Freigabe auf dem neuen Domänencontroller. Hierzu mussten die Daten, die seit dem im<br />
Vorfeld bereits durchgeführten Kopiervorgang verändert oder erstellt wurden, nochmals<br />
kopiert werden.<br />
Letzter Schritt während der eigentlichen Hauptmigrationsphase war der Umzug der Outlook-<br />
Konten der User vom alten auf den neuen virtuellen Terminalserver. Hierzu wurde für jedes<br />
Benutzerkonto eine Anmeldung auf den Terminalserver durchgeführt und dann über die<br />
Remotedesktopverbindung das Microsoft Outlook des Benutzers gestartet. In den<br />
automatischen Einrichtungsassistent wurden dann die Serveradressen und Zugangsdaten<br />
des externen Mailproviders der Firma Mouldtec eingegeben. Zusätzlich wurden die vom<br />
appwin01 kopierten PST-Dateien temporär eingebunden und die darin enthaltenen Mails<br />
und Kontakte in die neue Installation kopiert. Eine Besonderheit ergab sich daraus, dass bei<br />
der Firma Mouldtec wenig mit Emailadressbüchern gearbeitet wird, sondern stattdessen mit<br />
der automatischen Ergänzung von Adressen, mit denen schon einmal kommuniziert wurde.<br />
Diese Daten werden zwar benutzerspezifisch gespeichert, aber nicht in der Persönlichen<br />
Ordner-Datei (PST) des Benutzers, sondern in einer Datei mit der Endung NK2.<br />
63
Bachelorthesis Jan Simmendinger<br />
Abb. 22: Nach der erfolgreichen Migration der NK2-Datei ist die automatische Adress-<br />
ergänzung eines Outlookclient wieder mit allen genutzten Adressen verfügbar<br />
5.4.5. Aufgaben im Nachgang<br />
Nach der Hauptmigrationsphase, die als GoLive des neuen Systems gesehen werden kann,<br />
waren noch die Aufgaben zu bewältigen bei denen Komponenten aus dem Altsystem<br />
weiterverwendet werden sollten.<br />
Dazu gehörte die Virtualisierung des Servers für das Enterprise Information System, der<br />
während der Hauptmigration unverändert weiter betrieben wurde, um ihn nachträglich als<br />
virtuelle Maschine in das neue ESX-Cluster aufzunehmen und seine Hardware außer Betrieb<br />
zu nehmen.<br />
Ein weiterer Schritt im Nachgang war die Nutzungsänderung der freigewordenen Hardware<br />
des ehemaligen Terminalservers APPWIN01 in den neuen zentralen Backupserver<br />
MTKBACKUP01.<br />
Abschließend erfolgte die Abschaltung des X-Kontrollers, der bis zur erfolgreichen<br />
Inbetriebnahme der neuen Infrastruktur weiter lief um – falls die Migration fehlschlagen<br />
sollte - einen eventuell notwendigen Roll-Back zu ermöglichen.<br />
64
Bachelorthesis Jan Simmendinger<br />
5.4.6. Erhöhung der Benutzerakzeptanz<br />
Ein Problem, das erst nach dem Roll-Out festgestellt wurde, waren die im Verhältnis zum<br />
Altsystem deutlich längeren Bootzeiten der neuen IGEL-ThinClients.<br />
Da die Benutzer vom Altsystem Bootzeiten der ThinClients von 10-15 Sekunden gewöhnt<br />
waren, erschien es unzumutbar, dass bei den IGEL-Terminals ab dem Drücken der<br />
Powertaste über 3 Minuten vergingen, bis es möglich war, eine Sitzung am Terminalserver<br />
zu initiieren. Rücksprachen mit dem Hersteller der Terminals ergaben, dass es keine<br />
Möglichkeit gibt, den Startvorgang nennenswert zu beschleunigen. Das Problem wurde also<br />
folgendermaßen gelöst: Es wurde ein Skript erstellt, welches auf dem Domänencontroller<br />
werktäglich, also Montag bis Freitag jeweils um 7 Uhr ausgeführt wird. Dieses Skript enthält<br />
die MAC-Adressen aller bei der Firma Mouldtec im Einsatz befindlichen IGEL-Terminals und<br />
startet diese per Wake-on-LAN. Beim Eintreffen der Benutzer an ihrem Arbeitsplatz finden<br />
diese also einen bereits gestarteten ThinClient vor.<br />
5.5. Probleme und Lösungsansätze<br />
5.5.1. Zuverlässigkeit ESXi<br />
Die in Kapitel 3.1.4. beschriebene Zuverlässigkeit eines ESXi-VMWare Clusters im HA-<br />
(HighAvailability-) Modus zeigt in der Praxis an folgender Stelle Schwächen: Für das<br />
Management und zur Kommunikation mit dem Local-Area-Network besitzen die beiden<br />
physikalischen Host-Systeme und das Storage-Area-Network jeweils mindestens eine<br />
1000MBit/s Verbindung. Bei den Hostsystemen lassen sich diese Verbindungen durch<br />
werkseitig mehrfach vorhandene Netzwerkinterfaces relativ einfach redundant ausführen.<br />
Hierzu ist es lediglich erforderlich, die Netzwerkinterfaces entsprechend zu konfigurieren<br />
und die notwendigen physikalischen Verbindungen auszuführen. Somit ist die Erreichbarkeit<br />
der Hostsysteme über das LAN durch redundante Anbindung sichergestellt. Für den Betrieb<br />
der virtuellen Maschinen auf den Hostsystemen ist außer den LAN-Verbindungen aber auch<br />
noch der Zugriff auf den Festplattenspeicher und damit auf das Storage-Area-Network<br />
65
Bachelorthesis Jan Simmendinger<br />
essentiell wichtig. Die Anbindung der Hosts an das Storage-Area-Network erfolgt aber nicht<br />
über das LAN, sondern jeweils über einen SAS-Link. Bricht einer dieser Links jedoch<br />
zusammen, so sind die virtuellen Maschinen, die aktuell auf dem betroffenen Host betrieben<br />
werden, nicht mehr lauffähig. Dadurch, dass die virtuellen Maschinen unvorbereitet von<br />
ihren Systemfestplatten getrennt werden, schlagen bei solch einem Ausfall auch die von<br />
VMWare vorgesehenen Prozesse fehl, virtuelle Maschinen im Rahmen des High-Availability-<br />
Modus von einem havarierten Host auf einen laufenden Host zu evakuieren und dort nahezu<br />
verzögerungsfrei weiter zu betreiben. Abhilfe würde an dieser Stelle eine SAN-Lösung mit<br />
zwei unabhängigen Controllern bieten, wie in Abbildung 23 abgebildet.<br />
Abb. 23: Vergleich des logischen Aufbaus eines Storage-Area-Network im Single Controller<br />
Betrieb (oben) mit einem im Dual-Controller-Betrieb (unten)<br />
66
Bachelorthesis Jan Simmendinger<br />
5.5.2. Verwendung von IGEL UMS<br />
Anpassungen an den IGEL ThinClients, wie Domänenmitgliedschaft, IP-Konfiguration,<br />
NetBIOS-Namen und USB-Berechtigungen, wurden während den Vorbereitungen zum<br />
Rollout direkt an den Clients durchgeführt. Durch den Schreibschutz, der den<br />
Flashdatenträger und damit das embedded Betriebssystem des ThinClients vor unbefugten<br />
Veränderungen durch den Benutzer schützt, war es notwendig, die vorgenommenen<br />
Änderungen jeweils durch einen manuellen Eingriff während eines Neustarts dauerhaft zu<br />
übernehmen. Aus diesem Grund ist es derzeit nicht möglich, Einstellungen per Fernzugriff an<br />
den ThinClients vorzunehmen. Da während der Rollout-Phase ohnehin jeder Arbeitsplatz<br />
aufgesucht werden musste, konnten die arbeitsplatzspezifischen Einstellungen, wie<br />
beispielsweise die Bildschirmauflösung, in einem Arbeitsgang gleich mit eingestellt und<br />
gesichert werden.<br />
Um bei zukünftigen Anpassungen nicht erneut jeden Arbeitsplatz unternehmensweit<br />
aufsuchen zu müssen, bietet es sich an, die vom Hersteller bereitgestellte<br />
Verwaltungssoftware IGEL UMS (Universal Management Suite) näher zu betrachten. Diese<br />
ermöglicht, laut Hersteller, individuelle oder globale Konfigurationsänderungen an den<br />
Geräten über das Netzwerk.<br />
5.5.3. Aufsetzen eines lokalen Microsoft Exchange Servers<br />
Das Hosting der Mouldtec Emailpostfächer erfolgt bei einem externen Dienstleister und die<br />
Outlookclients auf dem Terminalserver kommunizieren via POP3 und SMTP mit dem<br />
externen Mailserver. Das bedeutet, dass jede unternehmensinterne Email jeweils zweimal<br />
über die DSL-Leitung bewegt werden muss und die Speicherung der Mails nach dem Abholen<br />
in der jeweiligen PST-Datei eines Benutzers erfolgt.<br />
Um das Konzept des hausintern betriebenen, zentralen Informationssystems zu<br />
vervollständigen, würde sich die Implementierung eines Microsoft Exchange Servers<br />
anbieten, der neben der Funktionalität als Mailserver noch Funktionen zur<br />
67
Bachelorthesis Jan Simmendinger<br />
unternehmensweiten Zusammenarbeit betreffend Kalendereinträgen und Adressbüchern<br />
ermöglichen würde.<br />
6. Abschließende Bewertung und Ausblick<br />
Sind Systemarchitekturen, bei denen Virtualisierung eingesetzt wird, geeignet, um bei<br />
kleinen und mittleren Unternehmen die Kosten für Anschaffung, Unterhalt und Entsorgung<br />
zu verringern? Diese Frage, aus der Einleitung dieser Arbeit, soll nun geklärt werden.<br />
Wie im zweiten Teil der Ausarbeitung geschildert, wird dies in der betrieblichen Praxis<br />
bereits so realisiert. Durch die Verfügbarkeit allumfassender, teilweise sogar kostenloser<br />
Virtualisierungslösungen besteht kein Grund mehr, die Verkleinerung des physikalischen<br />
Geräteparks und die Verringerung des administrativen Aufwands durch Verlagerung von<br />
physikalischen Systemen in die Softwareebene nicht zu nutzen.<br />
Die Rechnung in Abbildung 24 zeigt einen beispielhaften Vergleich der Anschaffungs- und<br />
Betriebskosten der in der Arbeit vorgestellten neuen Systemlandschaft der Firma Mouldtec,<br />
einmal wie realisiert mit Virtualisierung und einmal in einer klassischen Implementierung.<br />
Abb. 24: Vergleich der geschätzten Gesamtkosten, die bei der jeweiligen Implementierung<br />
über 3 Jahre hinweg auflaufen<br />
Die Beispielrechnung demonstriert den klaren Kostenvorteil von virtualisierten<br />
Infrastrukturen, auch für den Einsatz bei kleinen und mittleren Unternehmen.<br />
Eine deutlich höhere Flexibilität spricht ebenso klar dafür, auch wenn in den betrachteten<br />
Unternehmen meist keine so starke Veränderung der Systemlandschaft herrscht.<br />
68
Bachelorthesis Jan Simmendinger<br />
Eine zunehmend interessante Alternative zur Virtualisierung von inhouse gehosteten<br />
Serversystemen ist die Nutzung von externen Rechenzentren. Durch das hohe Maß an<br />
Spezialisierung solcher Dienstleister und die damit einhergehenden Kostenvorteile wird die<br />
Zukunft vermutlich im sogenannten Cloud-Computing liegen. (siehe Kapitel 4.1.4.1.)<br />
Allerdings muss jeweils im Einzelfall entschieden werden, ob die ausgelagerten Daten zu<br />
sensibel sind, um sie in die Obhut eines externen Unternehmens zu geben oder ob es ein<br />
vertretbares Risiko darstellt, die Daten entsprechend verschlüsselt bei einem Dienstleister<br />
abzulegen.<br />
Abb. 25: Ausschnitt aus der Preistabelle der Firma JiffyBox - hier werden Cloudserver angeboten,<br />
deren Preis sich nach der Nutzungszeit richtet, vergleichbar mit einem Telefonanschluss<br />
69
Bachelorthesis Jan Simmendinger<br />
Glossar<br />
Bottom Up Methodik, etwas von unten nach oben zu analysieren<br />
embedded OS ein in ein Gerät fest integriertes und darauf angepasstes Betriebssystem<br />
Go Live die Phase, in der ein IT-System in den Produktivbetrieb geht<br />
Host Computer der einen oder mehrere Dienste zur Verfügung stellt<br />
inhouse Hosting das Betreiben von Servern im eigenen Haus<br />
NAS Network attached Storage = über ein Netzwerk angeschlossenes<br />
Speichergerät (Netzwerkfestplatte)<br />
Shareholder Anteilseigner/Inhaber eines Unternehmens<br />
Smartphone Mobiltelefon mit Computerfunktionalitäten wie Kalender,<br />
Kontaktverwaltung und Internetzugang<br />
Stakeholder Person, die Interesse am erfolgreichen Verlauf eines Projektes hat<br />
Tablet PC Flacher, akkubetriebener, tragbarer Computer mit einem Touchscreen<br />
anstatt einer Tastatur<br />
Top down Methodik, etwas von oben nach unten zu analysieren<br />
Treiber ein gerätespezifisches Softwaremodul, das eine standardisierte Software-<br />
schnittstelle für die Interaktion mit dem entsprechenden Gerät anbietet<br />
Update / Patch Ein Modul das von einem Softwarehersteller nachgeliefert wird um Fehler<br />
zu beheben oder Sicherheitslücken zu schließen<br />
70
Bachelorthesis Jan Simmendinger<br />
Abbildungsverzeichnis<br />
Abb. 1: Aufteilung von Arbeitsspeicher bei Virtualisierung<br />
Abb. 2: Vergleich von Hypervisoren<br />
Abb. 3: Vergleich möglicher Anbindungen von Festplattenspeicher an Serversysteme<br />
Abb. 4: Energiesparpotentials des Prozessors bei Zusammenfassung von zwei Maschinen<br />
Abb. 5: Darstellung der Migration eines virtualisierten und eines Bare-Metal-Betriebssystems<br />
Abb. 6: Ohne Desktopvirtualisierung ungenutzt verbleibende Ressourcen<br />
Abb. 7: Funktionsweise einer Lösung zur Anbindung von USB-Geräten an virtuelle Maschinen<br />
Abb. 8: Auswahl und Gruppierung der in Frage kommenden Technologien<br />
Abb. 9: Bewertungsmatrix zur Findung des am besten geeigneten Konzepts<br />
Abb. 10: Beispielhafte Aufteilung der Arbeitspakete bei der Fertigung eines Automobils<br />
Abb. 11: Projektablaufplan mit voraussichtlicher Dauer<br />
Abb. 12: ThinClient DT166<br />
Abb. 13: Ausschnitt aus der Dokumentation der alten Infrastruktur<br />
Abb. 14: Projektablaufplan<br />
Abb. 15: Übersicht über das neue Netzwerklayout der Firma Mouldtec<br />
Abb. 16: Gesamtüberblick über die neue Infrastruktur<br />
Abb. 17: Logischer Überblick über die Migrationen der einzelnen Serversysteme<br />
Abb. 18: Vergleich der Rechtevererbung für Freigaben unter Windows und AS/400 NetServer<br />
Abb. 19: IGEL ThinClient<br />
Abb. 20: Funktionsweise verschiedener RAID-Konfigurationen<br />
Abb. 21: Alte und neue Appliance für den Zugang zum Internet mit Router und Firewall<br />
Abb. 22: automatische Adressergänzung eines Outlookclient mit importierter NK2 Datei<br />
Abb. 23: Vergleich eines Single Controller und eines Dual-Controller Storage-Area-Network<br />
Abb. 24: Vergleich der geschätzten Gesamtkosten bei verschiedenen Implementierungen<br />
Abb. 25: Ausschnitt aus der Preistabelle der Firma JiffyBox<br />
71
Bachelorthesis Jan Simmendinger<br />
Literaturverzeichnis<br />
Bücher und Fachbeiträge<br />
[Brugger] Brugger, Ralph: IT-Projekte strukturiert realisieren. Wiesbaden 2. Auflage,<br />
Dezember 2005<br />
[Keuper] Keuper, Frank / Hamidian, Kiumars / Verwaayen, Eric / u.a.: TransformIT:<br />
Optimale Geschäftsprozesse durch eine transformierende IT. Wiesbaden<br />
1. Auflage, 2010<br />
[Noppenberger] Noppenberger, Martin: Kostenminimierung in Speichernetzwerken.<br />
Köln 1. Auflage, November 2009<br />
[BITKOM] BITKOM, Bundesverband Informationswirtschaft, Telekommunikation und<br />
neue Medien e. V.: Energieffizienz im Rechenzentrum. Berlin-Mitte<br />
1. Auflage, 2010<br />
Elektronisch verfügbare Dokumente<br />
[Netzwelt] Markus Franz: Virtuelle Server mit Windows und Linux. September 2010. URL:<br />
http://www.netzwelt.de/news/84115-xen-virtuelle-server-windows-linux.html<br />
[CW01] Andrej Radonic: Server-Virtualisierung zum Nulltarif. April 2011. URL:<br />
http://www.computerwoche.de/hardware/data-center-server/1932017/index4.html<br />
[CW02] Michael Pietroforte: Der nächste Trend heißt Anwendungs-Virtualisierung.<br />
August 2008. URL: http://www.computerwoche.de/software/software-infrastruktur/1869889/<br />
[IBM] IBM Systems: Datenblatt IBM System x3650 M3. Ehningen 2011. URL:<br />
http://public.dhe.ibm.com/common/ssi/ecm/de/xsd03060dede/XSD03060DEDE.PDF<br />
[Jiffy] Preisliste Jiffybox. Jiffybox, Oktober 2011. URL: https://www.jiffybox.de/#third<br />
72