20.01.2013 Aufrufe

BACHELORTHESIS - Hochschule Ulm

BACHELORTHESIS - Hochschule Ulm

BACHELORTHESIS - Hochschule Ulm

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Fakultät Informatik<br />

Studiengang Wirtschaftsinformatik<br />

<strong>BACHELORTHESIS</strong><br />

„Konzeption und Implementierung der Infrastruktur eines<br />

Produktionsbetriebes auf Basis von Virtualisierung“<br />

Von Jan Simmendinger<br />

Arbeitsplatz SOFT-CONSULT Häge GmbH, Langenau<br />

Erstbetreuer Prof. Dr. Achim Dehnert<br />

Zweitbetreuer Prof. Dr. Jörg-Oliver Vogt<br />

Abgabetermin 27. Oktober 2011


Bachelorthesis Jan Simmendinger<br />

Eigenständigkeitserklärung<br />

Ich versichere, dass ich die vorgelegte Abschlussarbeit eigenständig und ohne fremde Hilfe<br />

verfasst, keine anderen als die angegebenen Quellen verwendet und die benutzten Quellen<br />

als solche kenntlich gemacht habe. Diese Arbeit ist in dieser oder einer ähnlichen Form in<br />

keinem anderen Prüfungsverfahren vorgelegt worden.<br />

<strong>Ulm</strong>, den 27.10.2011 ____________________________<br />

2


Bachelorthesis Jan Simmendinger<br />

Danksagung<br />

Bedanken möchte ich mich bei Herrn Prof. Dr. Achim Dehnert für die Betreuung der Arbeit.<br />

Außerdem bedanke ich mich bei meinen Kommilitonen für die allzeit gute Zusammenarbeit<br />

und allen Professoren der <strong>Hochschule</strong>n <strong>Ulm</strong> und Neu-<strong>Ulm</strong>, die mich während des durchweg<br />

interessanten Studiums betreut haben.<br />

Der Firma Soft-Consult und der Firma Mouldtec danke ich für die Unterstützung während<br />

der praktischen Phase der Arbeit.<br />

Meinen Eltern danke ich ebenfalls ganz besonders, weil sie mich während des Studiums stets<br />

nach Kräften unterstützt und mir dieses dadurch überhaupt ermöglicht haben.<br />

Zu guter Letzt möchte ich meiner Freundin Franziska danken, nicht nur für das Korrektur<br />

lesen, sondern auch für die moralische Unterstützung über die Bearbeitungszeit hinweg.<br />

3


Bachelorthesis Jan Simmendinger<br />

Inhalt<br />

1. Einleitung ......................................................................................................................................... 8<br />

2. Definitionen ..................................................................................................................................... 9<br />

2.1. Begriffe und Schlüsselwörter .................................................................................................. 9<br />

2.1.1. IT-Strategie ...................................................................................................................... 9<br />

2.1.2. Backup und Sicherungstechnologien .............................................................................. 9<br />

2.1.3. Migration ......................................................................................................................... 9<br />

2.1.4. Virtualisierung ............................................................................................................... 10<br />

2.2. Eingesetzte Maschinen .......................................................................................................... 12<br />

2.2.1. ThinClient....................................................................................................................... 12<br />

2.2.2. SAN (Storage-Area-Network) ........................................................................................ 13<br />

2.2.3. Terminalserver .............................................................................................................. 14<br />

2.3. Vorgehensweisen bei der Migration ..................................................................................... 15<br />

2.3.1. Kontinuierlicher Übergang ............................................................................................ 15<br />

2.3.2. Iterative Migration ........................................................................................................ 15<br />

2.3.3. Vollmigration ................................................................................................................. 16<br />

3. Theorie .......................................................................................................................................... 17<br />

3.1. Gründe für Hostvirtualisierung .............................................................................................. 17<br />

3.1.1. Antrieb für die Virtualisierung von Serversystemen ..................................................... 17<br />

3.1.2. Energie ........................................................................................................................... 17<br />

3.1.3. Geringerer Wartungsaufwand und kürzere Bereitstellungszeiten ............................... 18<br />

3.1.4. Erhöhte Zuverlässigkeit ................................................................................................. 19<br />

3.1.5. Einfache Rollback- und Backupfunktionalität................................................................ 19<br />

3.1.6. Hardwareunabhängigkeit .............................................................................................. 20<br />

3.1.7. Ortsunabhängige Systemwartung ................................................................................. 21<br />

3.1.8. Kapital ............................................................................................................................ 22<br />

3.2. Gründe für die Desktopvirtualisierung .................................................................................. 22<br />

3.2.1. Triebfedern .................................................................................................................... 22<br />

3.2.2. Zentrale Bündelung der Ressourcen ............................................................................. 22<br />

3.2.3. Geringere Anforderungen an die Clients....................................................................... 23<br />

3.2.4. Vorteile bei der Datensicherung ................................................................................... 23<br />

3.2.5. Flexible Nutzung von Anwendungen ............................................................................. 24<br />

3.2.6. Plattformunabhängigkeit .............................................................................................. 25<br />

4


Bachelorthesis Jan Simmendinger<br />

3.2.7. Vereinfachte Administration ......................................................................................... 26<br />

3.3. Virtualisierungslösungen ....................................................................................................... 26<br />

3.3.1. ESXi und vSphere von VMWare ..................................................................................... 27<br />

3.3.2. Microsoft Hyper-V ......................................................................................................... 27<br />

3.3.3. Citrix XEN Server ............................................................................................................ 28<br />

3.3.4. QEMU ............................................................................................................................ 28<br />

3.4. Warum wird migriert ............................................................................................................. 29<br />

3.4.1. Gründe für Erneuerung ................................................................................................. 29<br />

3.4.2. Nachteile gewachsener Strukturen ............................................................................... 30<br />

3.4.3. Probleme veralteter Systeme ........................................................................................ 30<br />

3.4.4. Vorteile einer Erneuerung ............................................................................................. 31<br />

4. Vorgehensweise bei Migrationsprojekten .................................................................................... 32<br />

4.1. Grundlagenplanung ............................................................................................................... 32<br />

4.1.1. Zustand der technischen Systeme und der Dokumentation ......................................... 32<br />

4.1.2. Analyse von Aufgaben und Orientierung am Prozessmanagement.............................. 32<br />

4.1.3. Technologischen Fortschritt nutzen .............................................................................. 33<br />

4.1.4. Vorüberlegungen zu Alternativen im Hostbereich ........................................................ 33<br />

4.1.4.1. Outsourcing ........................................................................................................... 33<br />

4.1.4.2. Hostsysteme in Hardware ..................................................................................... 35<br />

4.1.4.3. Konsolidierung von Diensten auf einem Betriebssystem ...................................... 36<br />

4.1.5. Vorüberlegungen zu Alternativen im Desktopbereich .................................................. 37<br />

4.1.5.1. Anwendungsvirtualisierung ................................................................................... 37<br />

4.1.5.2. Nutzung von Diensten im Browser ........................................................................ 38<br />

4.1.6. Projektumfang und Rahmenbedingungen .................................................................... 39<br />

4.1.6.1. Kapital .................................................................................................................... 39<br />

4.1.6.2. Aufwand ................................................................................................................ 40<br />

4.1.6.3. Technische Gegebenheiten ................................................................................... 40<br />

4.2. Konzepte ................................................................................................................................ 41<br />

4.2.1. Ideen sammeln und bündeln ......................................................................................... 41<br />

4.2.2. Bewertung der Konzepte und Freigabe ......................................................................... 41<br />

4.3. Erstellung eines Projektplans ................................................................................................ 43<br />

4.3.1. Arbeitspakete definieren ............................................................................................... 43<br />

4.3.2. Klären von Personal- und Kompetenzfragen................................................................. 44<br />

4.3.3. Klären von Abhängigkeiten und Erstellung des Zeitplans ............................................. 44<br />

5


Bachelorthesis Jan Simmendinger<br />

4.3.4. Projektdurchführung und Steuerung ............................................................................ 45<br />

5. Praktische Umsetzung ................................................................................................................... 46<br />

5.1. Ein Praxisbericht .................................................................................................................... 46<br />

5.1.1. Übersicht ....................................................................................................................... 46<br />

5.1.2. Server und Hosts ........................................................................................................... 46<br />

5.1.2.1. APPLNX .................................................................................................................. 47<br />

5.1.2.2. V5R3M0 ................................................................................................................. 47<br />

5.1.2.3. APPWIN01 ............................................................................................................. 47<br />

5.1.2.4. APPWIN02 ............................................................................................................. 48<br />

5.1.3. ThinClients ..................................................................................................................... 48<br />

5.1.4. Netze ............................................................................................................................. 49<br />

5.1.5. Veralteter Internetbrowser ........................................................................................... 50<br />

5.1.6. Zusammenfassung der Schwachstellen ......................................................................... 51<br />

5.2. Planung der neuen Infrastruktur ........................................................................................... 51<br />

5.2.1. Ideensammlung und Konzeptfindung ........................................................................... 52<br />

5.2.2. Personaleinsatz.............................................................................................................. 52<br />

5.2.3. Aufteilung der Arbeitspakete zu einem Ablaufplan ...................................................... 53<br />

5.3. Das neue System ................................................................................................................... 54<br />

5.3.1. Übersicht ....................................................................................................................... 54<br />

5.3.2. Logische Übersicht über die Migration der einzelnen Server ....................................... 55<br />

5.3.3. Übernommene Daten aus den Altsystemen ................................................................. 56<br />

5.3.3.1. Benutzerkonten vom X-Kontroller ........................................................................ 56<br />

5.3.3.2. Emailkonten von APPWIN01 ................................................................................. 57<br />

5.3.3.3. Dateien vom alten Netzlaufwerk übernehmen ..................................................... 57<br />

5.3.4. Neue ThinClients ........................................................................................................... 59<br />

5.3.5. Storage-Lösung .............................................................................................................. 60<br />

5.4. Die Migration ......................................................................................................................... 61<br />

5.4.1. Vorgehensweise ............................................................................................................ 61<br />

5.4.2. Vorbereitungen ............................................................................................................. 61<br />

5.4.3. Inbetriebnahme der neuen Security Appliance ............................................................ 62<br />

5.4.4. Die Hauptmigrationsphase ............................................................................................ 63<br />

5.4.5. Aufgaben im Nachgang ................................................................................................. 64<br />

5.4.6. Erhöhung der Benutzerakzeptanz ................................................................................. 65<br />

5.5. Probleme und Lösungsansätze .............................................................................................. 65<br />

6


Bachelorthesis Jan Simmendinger<br />

5.5.1. Zuverlässigkeit ESXi ....................................................................................................... 65<br />

5.5.2. Verwendung von IGEL UMS ........................................................................................... 67<br />

5.5.3. Aufsetzen eines lokalen Microsoft Exchange Servers ................................................... 67<br />

6. Abschließende Bewertung und Ausblick ....................................................................................... 68<br />

Glossar ................................................................................................................................................... 70<br />

Abbildungsverzeichnis ........................................................................................................................... 71<br />

Literaturverzeichnis ............................................................................................................................... 72<br />

7


Bachelorthesis Jan Simmendinger<br />

1. Einleitung<br />

Moderne Informationssysteme sind aus der heutigen Arbeitswelt nicht mehr wegzudenken.<br />

Ob im Dienstleistungs-, Fertigungs-, Handels- oder Industriesektor – überall haben<br />

betriebliche Informationssysteme essentielle Aufgaben übernommen. Doch wie kann<br />

sichergestellt werden, dass trotz steigender Anforderungen und zunehmender Komplexität<br />

der Informationssysteme jedem Mitarbeiter in einem Betrieb der Zugriff auf ein<br />

funktionierendes System gewährleistet wird, ohne den Arbeits- und Finanzaufwand für<br />

Betreuung und Wartung steigen zu lassen?<br />

Ein Ansatz zur Lösung dieser Problemstellung sind Virtualisierungsstrategien. In<br />

Großunternehmen werden diese schon seit einigen Jahren erfolgreich eingesetzt, um den<br />

Zielen eines erfolgreichen IT-Managements näher zu kommen.<br />

Jedoch sind gerade in kleinen und mittleren Unternehmen Defizite in diesem Bereich<br />

festzustellen. Dies liegt darin begründet, dass in solchen Unternehmen oftmals keine<br />

fundierte IT-Strategie vorliegt, sondern eher ziellos auf bewährte Systeme und<br />

zusammengetragenes Know-How gesetzt wird. Ein sogenanntes Alignment, also das<br />

Angleichen der IT-Strategie an die Unternehmensziele und damit die optimale Unterstützung<br />

der Unternehmensprozesse [vgl. Gabler, TransformIT, Seite 32], ist aufgrund der fehlenden<br />

IT-Strategie und der oftmals nicht genau definierten Unternehmensstrategie nicht möglich.<br />

Die vorliegende Arbeit wirft trotz dieser Tatsache einen Blick auf die Tauglichkeit solcher<br />

Systeme für kleine und mittlere Unternehmen. Sie besteht aus zwei Teilen und hat das Ziel,<br />

den Ansatz virtualisierter Desktops und Hosts näher zu betrachten, einen Weg zur<br />

Implementierung einer solchen Infrastruktur aufzuzeigen und zu überprüfen, ob diese<br />

Strategie geeignet ist, oben beschriebenes Problem zu lösen.<br />

Der erste Teil dieser Arbeit beschäftigt sich theoretisch mit dem Thema Virtualisierung:<br />

Warum wird virtualisiert? Wie wird virtualisiert? Wie kann Virtualisierung in der Praxis<br />

aussehen?<br />

Der zweite Teil beschreibt ein IT-Projekt bei einem mittelständischen Betrieb in<br />

Süddeutschland, bei dem bei der letzten Migration virtualisierte Server und virtualisierte<br />

Desktops zum Einsatz kamen, um vorhandene Einsparpotentiale zu nutzen.<br />

8


Bachelorthesis Jan Simmendinger<br />

2. Definitionen<br />

2.1. Begriffe und Schlüsselwörter<br />

2.1.1. IT-Strategie<br />

Die IT-Strategie eines Unternehmens stellt das langfristige Gesamtziel dar, auf das die<br />

Informationssysteme eines Betriebes ausgerichtet sein sollen. Sie orientiert sich am<br />

Unternehmensleitbild und bildet die Grundlage für alle Entscheidungen, die, das IT-System<br />

betreffend, getroffen werden müssen.<br />

2.1.2. Backup und Sicherungstechnologien<br />

Unter Backup versteht man eine Einrichtung, die dem Weiterbetrieb eines Systems im<br />

Fehlerfall dient. Die einfachste Form eines Backups ist das Anfertigen einer Sicherungskopie<br />

von gespeicherten Daten. Eine Erweiterung besteht beispielsweise darin, die<br />

Sicherungskopien automatisiert erstellen zu lassen. Solche Sicherungen müssen nach dem<br />

Auftreten eines Fehlers auf einem lauffähigen System manuell wieder eingespielt werden.<br />

Ein solches Sicherungssystem lässt sich nahezu beliebig mit weiteren Funktionalitäten<br />

erweitern. Die höchste Stufe ist erreicht, wenn Fehler oder Ausfälle vom System automatisch<br />

erkannt und korrigiert werden und ein nahtloser Weiterbetrieb des Informationssystems<br />

gewährleistet ist. Da in jedem Teil des Systems Fehler auftreten können, ist es unumgänglich<br />

für diesen Zustand jede Systemkomponente doppelt, also redundant (lat. redundare – im<br />

Überfluss vorhanden sein) vorzuhalten.<br />

2.1.3. Migration<br />

Unter Migration versteht man in der Informationstechnik Umstellungsprozesse. Diese<br />

Umfassen je nach Größe und Art der Umstellung die Migration von Daten, also das<br />

Umziehen von Datenbeständen auf ein anderes System und einen, oftmals damit<br />

verbundenen, Transfer in ein anderes Datenformat, den Austausch von Hardware oder den<br />

9


Bachelorthesis Jan Simmendinger<br />

Wechsel von Anwendungssoftware oder Betriebssystem. Bei Migrationen eines Teilsystems<br />

sind, je nach Umfang, meist verschiedene andere Teilsysteme mit betroffen. Entsprechende<br />

Abhängigkeiten der einzelnen Teilsysteme müssen im Vorfeld erkannt und in das<br />

Gesamtkonzept eingebunden werden.<br />

Werden Abhängigkeiten übersehen, so können beispielsweise Probleme an nicht<br />

abwärtskompatiblen Schnittstellen entstehen.<br />

2.1.4. Virtualisierung<br />

Zum Betrieb eines modernen Computerbetriebssystems werden folgende Ressourcen<br />

benötigt: eine oder mehrere Recheneinheiten (Prozessoren), Arbeitsspeicher,<br />

Festplattenspeicher sowie Ein- und Ausgabegeräte.<br />

Unter einer virtualisierten Maschine versteht man ein Betriebssystem, das während des<br />

Betriebes nicht direkt auf die genannten Hardwareressourcen zugreift, sondern auf virtuell<br />

zur Verfügung gestellte. Diese virtuellen Ressourcen werden von einem anderen<br />

Betriebssystem zur Verfügung gestellt, das die echte Hardware benutzt und virtuelle<br />

Pendants zur Verfügung stellt.<br />

Die Aufgabe in einem virtualisierten System die realen Hardwareressourcen des Hostsystems<br />

virtuell verfügbar zu machen und diese einer oder mehreren virtuellen Maschinen zur<br />

Verfügung zu stellen, übernimmt ein sogenannter Hypervisor. Das griechische Wort "hyper"<br />

bedeutet übersetzt "über" und das Wort "visor" lässt sich am besten mit dem lateinischen<br />

"videre", zu deutsch „sehen“ übersetzen. Wörtlich übersetzt ist der Hypervisor also die<br />

Komponente, die dazu in der Lage ist Host und Gastsysteme zu überblicken [vgl. Picht, Seite<br />

434].<br />

Hauptstrategien, mit denen ein Hypervisor die Hardwarekomponenten des Hostsystems<br />

virtualisiert, sind das sogenannte Adressmapping, bei dem physikalische Speicherbereiche<br />

vor der Weitergabe umadressiert werden und das sogenannte Scheduling, bei dem<br />

Komponenten, auf die exklusiver Zugriff erforderlich ist, schnell nacheinander an die<br />

verschiedenen virtuellen Betriebssysteme weitergegeben werden. Der Einsatz der beiden<br />

genannten Verfahren ist bei multitaskingfähigen Betriebssystemen schon lange Standard.<br />

10


Bachelorthesis Jan Simmendinger<br />

Abb. 1: Veranschaulichung der Aufteilung von Arbeitsspeicher, um ihn virtuellen Maschinen<br />

zur Verfügung zu stellen<br />

Grundlegend kann zwischen zwei Arten von Hypervisoren unterschieden werden: In der<br />

ersten Variante läuft der Hypervisor als Programm auf einem Betriebssystem und die<br />

virtuellen Maschinen auf ihm quasi in der dritten Ebene.<br />

Alternativ wird der Hypervisor hingegen direkt auf der Hardware des Host-Systems<br />

ausgeführt und man spricht von „Bare-Metal-Virtualisierung“ [vgl. Lampe, Seite 75].<br />

Der Nachteil der Bare-Metal-Methode liegt darin, dass die Virtualisierungssoftware selbst<br />

alle notwendigen Treiber zur Ansteuerung der, oft sehr verschiedenartigen, Host-Hardware<br />

mitbringen muss. Dieser Nachteil wird jedoch ausgeglichen: Durch den direkten<br />

Hardwarezugriff wird keine unnötige Rechenleistung für die Verwaltung eines an sich<br />

unnötigen Wirtsbetriebssystems verwendet – eine effizientere Methode der<br />

Zusammenarbeit auf der Ebene zwischen Hypervisor und Hardware ist nicht möglich.<br />

Weitere Möglichkeiten zur Effizienzsteigerung bestehen also nur noch in der darüber<br />

liegenden Ebene zwischen Hypervisor und virtuellen Maschinen. Eine davon ist die<br />

Paravirtualisierung. Bei dieser Technologie wird den virtuellen Maschinen nicht nur ein<br />

virtueller Host angeboten, der für sie normalerweise aussieht wie echte Hardware, sondern<br />

ihnen wird mitgeteilt, dass sie virtualisiert ausgeführt werden. Dazu existiert eine<br />

Schnittstelle, mit der die virtuelle Maschine auf bestimmte Funktionen direkt auf die<br />

Hosthardware zugreifen kann, ohne den Umweg über den Hypervisor gehen zu müssen. Um<br />

11


Bachelorthesis Jan Simmendinger<br />

die Vorteile der Paravirtualisierung nutzen zu können, muss das Gastbetriebssystem dazu<br />

fähig sein, die vom Virtualisierer angebotene Schnittstelle nutzen zu können.<br />

Abb. 2: Vergleich eines Hypervisors auf einem Wirtsbetriebssystem (links) und einem Bare-<br />

Metal Hypervisor (rechts)<br />

2.2. Eingesetzte Maschinen<br />

2.2.1. ThinClient<br />

Der Begriff ThinClient bezeichnet einfache Computer, die für die Benutzung durch den<br />

Anwender gedacht sind. Diese Geräteklasse zeichnet sich durch kleine Bauformen und den<br />

Einsatz energiesparender Komponenten aus. Meist werden sie mit einem sehr kleinen, vom<br />

Funktionsumfang beschränkten Betriebssystem betrieben, welches entweder von einem<br />

elektronischen Speichermedium (Flash-Speicher) oder über das PXE- (PrebootExecution<br />

Environment-) Protokoll von einem TFTP- (Trivial-File-Transfer-Protocol-) Server gestartet<br />

wird.<br />

Die vom Anwender benötigten Programme werden meist nicht direkt auf dem ThinClient<br />

ausgeführt, sondern auf einem zentralen Server im Netzwerk oder Internet. Der ThinClient<br />

dient also nur dazu Benutzereingaben zu diesem zentralen Server weiterzuleiten und die<br />

Ausgaben des Servers über den angeschlossenen Bildschirm dem Benutzer anzuzeigen. Aus<br />

12


Bachelorthesis Jan Simmendinger<br />

diesem Grund haben ThinClients meist einen im Verhältnis zu aktuellen Personal Computern<br />

relativ leistungsschwachen Prozessor.<br />

2.2.2. SAN (Storage-Area-Network)<br />

Storage-Area-Networks (dt. Speichernetzwerke) dienen der flexiblen und zuverlässigen<br />

Bereitstellung von nicht flüchtigem Speicherplatz (Festplattenspeicher) für Serversysteme.<br />

Um das zu erreichen, wird in solch einem Speichernetzwerk die feste Verbindung zwischen<br />

bestimmten Festplatten oder Festplattenverbünden mit einem bestimmten Serversystem<br />

durch ein Netzwerk ersetzt. Durch dieses Netzwerk kann jedes Hostsystem auf jede<br />

Festplatte beziehungsweise auf jeden Festplattenverbund zugreifen.<br />

Dadurch wird es möglich, die Zuordnungen zwischen Speicher und Host flexibel zu<br />

handhaben.<br />

Typischerweise geschieht die Anbindung der Komponenten eines Speichernetzwerks – im<br />

Gegensatz zu einer Network attached Storage-Lösung - nicht über die bereits vorhandene<br />

Netzwerkinfrastruktur, da diese dadurch unnötig zusätzlich belastet wird. Das Ethernet-<br />

Protokoll eignet sich aufgrund seiner Konzeptionierung beispielsweise nicht für diese Art der<br />

Datenübertragung, da insbesondere die relativ großen Kopfdaten pro Datenpaket dem<br />

schnellen und flinken Transport vieler kleiner Lese- und Schreibzugriffe entgegen stehen [vgl.<br />

Noppenberger, Seite 30].<br />

Stattdessen werden aktuelle SAN-Systeme meist mithilfe von FibreChannel oder SAS (Serial<br />

Attached SCSI-) an die betreffenden Hostsysteme angebunden.<br />

13


Bachelorthesis Jan Simmendinger<br />

Abb. 3: Vergleich einer direkten Anbindung von Festplattenspeicher an Serversystemen<br />

(oben) mit einer Anbindung über ein Storage-Area-Network (unten)<br />

2.2.3. Terminalserver<br />

Ein Terminalserver stellt das Herzstück einer Infrastruktur zur Desktopvirtualisierung dar. Ein<br />

Benutzer kann von einem beliebigen Arbeitsplatz-PC eine Sitzung auf den Terminalserver<br />

herstellen. Innerhalb dieser Sitzung können dann Anwendungen ausgeführt werden. Im<br />

Gegensatz zum Betrieb von Anwendungen direkt auf einem Arbeitsplatz-PC werden alle<br />

notwendigen Operationen direkt auf dem Terminalserver ausgeführt und nur die<br />

Bildschirmausgabe an den Benutzer-PC weitergeleitet.<br />

Ein Terminalserver ist dazu in der Lage, mehreren Benutzern gleichzeitig individuelle,<br />

virtuelle Arbeitsplätze, also einen virtuellen Desktop zur Verfügung zu stellen. Bekannte<br />

Protokolle zur Herstellung von Verbindungen zu Terminalservern sind RDP (Remote Desktop<br />

Protokoll) und VNC (Virtual Network Computing). Ein Client, also eine Software zur<br />

Herstellung von Verbindungen über das Remote Desktop Protokoll, ist in jeder Microsoft<br />

Windows Version ab Windows 2000 bereits integriert. Für beide Protokolle ist für beinahe<br />

jedes Betriebssystem und jede Plattform eine Vielzahl von Softwareclients verfügbar.<br />

14


Bachelorthesis Jan Simmendinger<br />

2.3. Vorgehensweisen bei der Migration<br />

Eine Systemmigration, also die Integration von Neusystemen oder der Umstieg auf andere<br />

Systeme, kann verschiedenen organisiert werden.<br />

2.3.1. Kontinuierlicher Übergang<br />

Der kontinuierliche Übergang von Alt- auf Neusystem stellt meist eher einen theoretischen<br />

Ansatz dar, da ein stufenloser Übergang niemals möglich ist. Bricht man bei der Betrachtung<br />

ein System weit genug in seine Bestandteile herunter, so ist ab einer bestimmten Stufe<br />

immer ein stufenweiser Übergang festzustellen.<br />

Dieser Prozess entspricht dann einer iterativen Migration wie sie in Kapitel 2.3.2.<br />

beschrieben ist.<br />

2.3.2. Iterative Migration<br />

Die iterative Migration stellt meist die am besten praktikable Vorgehensweise bei<br />

Systemmigrationen dar. Es handelt sich dabei um ein Modell, bei dem die gesamte Aufgabe<br />

„Systemerneuerung“ in mehrere kleine und dadurch überschaubare Aufgaben zerlegt wird.<br />

Die entstehenden kleineren Aufgaben haben jeweils klar definierte Ziele und sind deshalb<br />

auf ihren Erfolg überprüfbar und einzeln abzuschließen. Es entsteht bei der Ausführung quasi<br />

eine Schleife, bestehend aus Durchführen – Prüfen – Nachbessern – Prüfen. Die<br />

Wiederholung dieser Punkte (Iteration) bei jedem Teilschritt gibt dieser Migrationsplanung<br />

ihren Namen.<br />

Die Vorgehensweise orientiert sich am Ansatz divide and conquer (lateinisch: divide et<br />

impera). Ins Deutsche übersetzt bedeutet dies „Teile und herrsche“. Ein großes Projekt wird<br />

also in kleinere, beherrschbare Stücke aufgeteilt.<br />

Nach der Aufteilung muss noch nach Abhängigkeiten der Einzelschritte voneinander gesucht<br />

werden. Mit diesen Abhängigkeiten ist es dann möglich die Reihenfolge zur Lösung der<br />

15


Bachelorthesis Jan Simmendinger<br />

Teilaufgaben festzulegen. Ist die Reihenfolge einmal definiert, so kann ein Zeitplan erstellt<br />

werden. Optimierungen sind an dieser Stelle möglich, indem beispielsweise unabhängige<br />

Arbeitspakete parallel bearbeitet werden, sofern die entsprechenden Ressourcen verfügbar<br />

sind. Die sogenannte Netzplantechnik nach DIN 69900-1 stellt an dieser Stelle sehr hilfreiche<br />

Werkzeuge zur Planung des Zeitrahmens des Gesamtprojekts zur Verfügung.<br />

2.3.3. Vollmigration<br />

Findet der Übergang auf das neue System in einem Zug statt, so spricht man von einer<br />

Vollmigration. Diese Vorgehensweise funktioniert nur nach einer sehr genauen<br />

Aufgabenplanung und mit Projekten von beschränktem Umfang. Oftmals wird dazu tendiert,<br />

eine ablösende Migration, also den Umstieg auf ein komplett neues System als Vollmigration<br />

zu sehen. Da die Inbetriebnahme der neuen Infrastruktur jedoch meist im Voraus bereits<br />

parallel zum Altsystem erfolgt, ist auch solch eine eher als iterative Migration einzustufen.<br />

Die Teilkomponenten, die bei einer iterativen Vorgehensweise als Hauptaufgabe<br />

zusammengefasst werden können, können für sich als Vollmigration gesehen werden.<br />

16


Bachelorthesis Jan Simmendinger<br />

3. Theorie<br />

3.1. Gründe für Hostvirtualisierung<br />

3.1.1. Antrieb für die Virtualisierung von Serversystemen<br />

Virtualisierung - die Beweggründe dafür sind nicht auf Anhieb zu erkennen. Der Ansatz,<br />

Daten zentral zu verarbeiten und die Ein- und Ausgabeperipheriegeräte eher zu<br />

vereinfachen, sieht anfangs eher aus wie ein Schritt zurück in frühere Zeiten der<br />

Informationstechnologien. Im Jahre 1964 brachte die Firma IBM mit der IBM System/360 die<br />

erste universell einsetzbare Großrechenanlage auf den Markt. Diese setzte ebenfalls auf<br />

obigen Ansatz und das weit vor der Einführung des IBM Personal Computer im Jahre 1981,<br />

der den Trend zu einer eigenständigen Rechenanlage je Arbeitsplatz förderte. Die Frage,<br />

welche Vorteile der Schritt zurück zu zentralisierten Anlagen bringt, lässt sich mit einem<br />

Wort beantworten: Einsparpotentiale.<br />

Die verschiedenen Punkte an denen sich diese ergeben, sollen in diesem Kapitel näher<br />

erläutert werden.<br />

3.1.2. Energie<br />

Das Energiesparpotential, das sich durch Virtualisierung ergibt, erschließt sich nicht sofort<br />

bei der ersten Betrachtung der Thematik. Geht man davon aus, dass eine Maschine für eine<br />

Operation eine bestimmte Menge an Energie benötigt, so hätte es keine Auswirkung auf den<br />

Energieverbrauch, wenn mehrere dieser Maschinen zusammengefasst werden.<br />

Erst wenn man Auslastung und Wirkungsgrad mit in die Betrachtung aufnimmt, sieht man,<br />

welches Potential sich bietet.<br />

Ein klassischer in Hardware vorhandener Host wird bisher so gut wie nie mit einer<br />

Auslastung von 100% betrieben. Unter der Annahme, dass er im Leerlauf 20% der Energie<br />

benötigt wie im Volllastbetrieb, wird deutlich, dass allein das Bereithalten eines<br />

rechenbereiten Systems unnötig Energie verbraucht. Es liegt also nahe, die Zahl der<br />

teilausgelasteten Systeme zu minimieren und die Auslastung eines Systems möglichst hoch<br />

halten zu wollen, da dann eine deutlich effizientere Nutzung der Energie ermöglicht wird.<br />

17


Bachelorthesis Jan Simmendinger<br />

Abb. 4: Veranschaulichung des Energiesparpotentials des Prozessors bei Zusammenfassung<br />

von zwei Maschinen auf einer physikalischen Maschine<br />

3.1.3. Geringerer Wartungsaufwand und kürzere Bereitstellungszeiten<br />

Beim Vergleich des Einrichtungs-, Wartungs- und Instandhaltungsaufwands müssen zwei<br />

Bereiche getrennt betrachtet werden.<br />

Auf der einen Seite steht die Wartung und Pflege der Software eines Systems. Hierzu zählen<br />

hauptsächlich die Installation, ständige Aktualisierungen und die Systempflege. Die hierfür<br />

notwendigen Installations- und Updateprozesse sind heute weitgehend automatisiert und<br />

benötigen nach dem Anstoßen kaum weitere Eingriffe eines Systemverwalters.<br />

Die andere Seite ist die Einrichtung und Pflege physikalischer Maschinen. Die Montage und<br />

Inbetriebnahme einer physikalischen Maschine in einem Rechenzentrum ist, ebenso wie der<br />

Austausch defekter Hardwarekomponenten, nicht automatisierbar und benötigt immer<br />

relativ aufwändige mechanische Eingriffe eines Administrators.<br />

Bei dieser Betrachtung erschließt sich ein weiterer großer Vorteil von Virtualisierung: Ein<br />

komplettes Computersystem wird von der Hardware- in die Softwareebene verlagert. Damit<br />

18


Bachelorthesis Jan Simmendinger<br />

kann der Prozess, der beispielsweise zum Aufsetzen eines neuen Systems notwendig ist,<br />

ebenso vollständig automatisiert werden wie die Installation von Softwareupdates.<br />

Hierfür kann beispielsweise ein einmal erstelltes Abbild eines neu installierten Systems<br />

beliebig oft als Kopiervorlage für ein vollständiges System hergenommen werden. Dieses<br />

kopierte Abbild wird im Hypervisor eingebettet und dann gestartet. Es sind dann nur noch<br />

wenige Operationen auszuführen um das System vollständig bereit zu stellen. Die Anzahl der<br />

anschließend noch manuell auszuführenden oder anzustoßenden Schritte hängt vom<br />

verwendeten Betriebssystem und der Qualität der Kopiervorlage ab. Diese umfassen<br />

beispielsweise das Lizenzieren, die Vergabe von individuellen IP-Adressen und die<br />

Herstellung bestimmter Verbindungen zu Speichermedien und anderen Ressourcen. Die<br />

Bereitstellungszeit eines neuen Hostsystems lässt sich somit auf einen Bruchteil der Zeit und<br />

des Aufwands verringern.<br />

3.1.4. Erhöhte Zuverlässigkeit<br />

Um die Zuverlässigkeit, also die Verfügbarkeit - selbst im Fehlerfall - eines herkömmlichen IT-<br />

Systems, zu erhöhen ist im Normalfall vollständige Redundanz notwendig. Um ein<br />

Hostsystem hochverfügbar zu machen, ist es also notwendig ein zweites, baugleiches System<br />

betriebsbereit zu halten, das die Funktionen - im Falle eines Ausfalls - des ersten Systems<br />

übernimmt. Bei virtualisierten Maschinen gestaltet sich dieser Punkt jedoch anders. Da ein<br />

Hardwaredefekt bei virtualisierten Maschinen nur auf Ebene des darunterliegenden Hosts<br />

auftreten kann, genügt es diesen Host redundant zur Verfügung zu stellen. Die virtuellen<br />

Maschinen selbst müssen nicht redundant vorhanden sein, sondern es genügt, wenn ihr<br />

Abbild auf einem anderen, funktionsfähigen Host weiterhin ausgeführt werden kann.<br />

3.1.5. Einfache Rollback- und Backupfunktionalität<br />

Um von einem physikalischen Hostsystem eine vollständige Datensicherung der gesamten<br />

Maschine zu erhalten, ist es im Normalfall notwendig, die Maschine herunterzufahren oder<br />

19


Bachelorthesis Jan Simmendinger<br />

zumindest temporär bestimmte Dienste zu beenden, da vereinzelte Systemdateien ständig<br />

im exklusiven Zugriff durch das Betriebssystem oder durch einen Dienst stehen.<br />

Durch die Zwischenschicht der Virtualisierung ist es möglich, am Betriebssystem vorbei auf<br />

die physikalische Festplatte zuzugreifen und somit auch im laufenden Betrieb ein<br />

vollständiges Backup der Maschine zu erstellen. Ganz im Gegensatz zu einer physikalischen<br />

Maschine kann bei einer virtualisierten Maschine zusätzlich zu der Sicherung von<br />

Festplatteninhalten ein Abbild des aktuellen Arbeitsspeicherinhaltes erzeugt und<br />

festgehalten werden. Somit ist es bei einer virtuellen Maschine ohne großen Aufwand<br />

möglich, eine aktuelle Momentaufnahme des kompletten Systems zu erstellen. Diese<br />

Snapshotfunktion kann dazu genutzt werden, regelmäßig oder vor Veränderungen an der<br />

virtualisierten Maschine ein lauffähiges Abbild von ihr zu speichern, das im Fehlerfall<br />

problemlos zur Wiederherstellung eines lauffähigen Systemzustandes und damit des<br />

Regelbetriebs genutzt werden kann.<br />

3.1.6. Hardwareunabhängigkeit<br />

Bei Migrationen von kompletten Servern auf andere Hardware, also ein Umzug von<br />

Betriebssystem samt darauf installierter Serveranwendungen, droht immer die Gefahr, dass<br />

eine Anpassung an die Hardware, die während der Installation des Betriebssystems<br />

entweder manuell oder automatisch erfolgt ist, Inkompatibilitäten hervorruft. Solche<br />

Anpassungen basieren oftmals auf gerätespezifischen Treibern wie Chipsatz- oder I/O-<br />

Gerätetreibern oder Anpassungen auf die jeweilige CPU (Prozessor).<br />

Diese Gefahr lässt sich durch den Einsatz von virtuellen Umgebungen eliminieren. Ein<br />

Hypervisor bietet seinen Gastbetriebssystemen immer dieselbe virtuelle Hardware an, so<br />

dass diese einen Umzug auf eine andere physikalische Maschine selbst gar nicht erkennen<br />

müssen.<br />

20


Bachelorthesis Jan Simmendinger<br />

Abb. 5: Darstellung der Migration eines virtualisierten (unten) und eines Bare-Metal-<br />

Betriebssystems (oben)<br />

3.1.7. Ortsunabhängige Systemwartung<br />

Die in Abschnitt 3.1.3. bereits erwähnte Verlagerung eines gesamten Computersystems in<br />

die Softwareebene durch Virtualisierung ermöglicht, neben der ohnehin vereinfachten<br />

Administration eines Systems, auch noch die Administration eines Systems aus der Ferne.<br />

Ist eine physikalische Maschine, auf der ein Hypervisor läuft, über ein Datennetz<br />

(beispielsweise das Internet) erreichbar, so sind an den darauf befindlichen virtuellen<br />

Maschinen vorzunehmende Aufgaben wie die Installation, Wartung, Hochfahren,<br />

Herunterfahren und auch die komplette Entsorgung (also Löschung der virtuellen Maschine)<br />

über dieses Datennetz möglich.<br />

Das bedeutet, dass für die Bereitstellung eines neuen Servers kein Systembetreuer am<br />

Standort des Servers sein muss, sondern die Erzeugung, Installation und Onlinestellung des<br />

Systems vollständig von überall erfolgen kann wo ein Zugang zum Datennetz vorhanden ist.<br />

21


Bachelorthesis Jan Simmendinger<br />

3.1.8. Kapital<br />

Weniger Energieverbrauch, geringerer Wartungsaufwand, höhere Zuverlässigkeit und mehr<br />

Flexibilität des betrieblichen Informationssystems sind Ziele, die der IT-Strategie jedes<br />

Unternehmens entgegen kommen. Mithilfe von virtualisierten Serversystemen kommt man<br />

all diesen Zielen trotz geringerem Materialeinsatz ein großes Stück näher. All diese Punkte<br />

resultieren zusammengefasst in einer Kapitalersparnis.<br />

3.2. Gründe für die Desktopvirtualisierung<br />

3.2.1. Triebfedern<br />

Die Einsparpotentiale, die sich bei der Virtualisierung des Desktops, also der Oberfläche des<br />

Endanwenders, ergeben, sind wie bei der, im vorherigen Kapitel erläuterten,<br />

Servervirtualisierung nicht sofort zu erkennen. Die einzelnen Punkte werden in den<br />

folgenden Abschnitten näher betrachtet.<br />

3.2.2. Zentrale Bündelung der Ressourcen<br />

Dadurch, dass die Ausführung von Programmen und somit Verarbeitung von Daten bei<br />

einem virtuellen Desktop nicht auf den einzelnen Arbeitsplatzcomputern stattfindet,<br />

sondern auf dem Terminalserver, sinkt der Ressourcenbedarf der einzelnen Stationen<br />

deutlich. Diese Verschiebung der benötigten Ressourcen in Richtung des Servers sorgt für<br />

eine effizientere Nutzung dieser, wie in Abbildung 6 ersichtlich ist. Ist trotz der genannten<br />

Effizienzsteigerung einmal eine Aufrüstung der Ressourcen notwendig, so fällt diese Dank<br />

der Zentralisierung mit deutlich kleinerem Aufwand aus, da nur der Terminalserver<br />

aufgerüstet werden muss. Solch eine Änderung wäre bei klassischer Nutzung der Terminals<br />

mit einem immensen Aufwand verbunden, da jeder Client ausgetauscht oder individuell<br />

aufgerüstet werden müsste.<br />

22


Bachelorthesis Jan Simmendinger<br />

Abb. 6: Ohne Desktopvirtualisierung verbleiben viele Ressourcen ungenutzt, da jeder Client<br />

einen eigenen Puffer für Lastspitzen vorhält<br />

3.2.3. Geringere Anforderungen an die Clients<br />

Bei der Nutzung von virtualisierten Desktops sind die Systemvoraussetzungen an die<br />

genutzten Client-Computer nicht nur deutlich geringer, sondern unterliegen auch keiner so<br />

starken Veränderung. Solange die Anforderung, den fertig aufbereiteten Bildschirminhalt mit<br />

akzeptablen Verzögerungen darzustellen und Benutzereingaben über Tastatur und Maus an<br />

den Terminalserver weiterzugeben, erfüllt wird, ist kein Austausch und keine Aufrüstung der<br />

Clients notwendig. Es kann also längere Zeit mit viel einfacheren Arbeitsstationen gearbeitet<br />

werden, die mit weniger Wartung auskommen. Gerade bei der Geräteklasse der ThinClients<br />

(siehe Kapitel 2.2.1.) wird dieser Vorteil voll ausgenutzt. Durch den geringeren<br />

Stromverbrauch ist keine aktive Kühlung notwendig und durch den Einsatz von<br />

elektronischen Speichermedien anstatt magnetischer Festplatten ensteht keinerlei<br />

mechanischer Verschleiß und die Fehleranfälligkeit einer solchen Arbeitsstation sinkt um ein<br />

Vielfaches.<br />

3.2.4. Vorteile bei der Datensicherung<br />

Selbst wenn die technischen und organisatorischen Regelungen es nicht vorsehen, dass<br />

Daten direkt auf den Arbeitsplatzcomputern, sondern auf Netzlaufwerken gespeichert<br />

werden, so ist dies trotzdem gängige Praxis vieler User, insbesondere in kleinen<br />

Unternehmen. Aus diesem Grund sind Datensicherungen der einzelnen Arbeitsplatz-PCs<br />

notwendig. Diese stellen aber oftmals eine Herausforderung dar, da die Sicherung aus<br />

Performancegründen nicht während der Arbeitszeit erfolgen soll und die Rechner außerhalb<br />

23


Bachelorthesis Jan Simmendinger<br />

der Arbeitszeiten in der Regel ausgeschaltet sind. Dies erfordert, dass ein Rechner für die<br />

Erstellung eines Backups extra hochgefahren wird. Entweder muss dieser Vorgang<br />

mechanisch ausgelöst oder eine Automatik gefunden werden, die den PC entweder<br />

zeitgesteuert oder per Netzwerkbefehl vor der Datensicherung hochfährt. All diese<br />

Verfahren sind relativ aufwendig und zudem sehr unzuverlässig, da der Rechner zwar<br />

ausgeschaltet, aber mit dem Stromnetz und dem Netzwerk verbunden sein muss.<br />

Mit einer Infrastruktur auf Basis virtueller Desktops wird diese Problematik entschärft, da<br />

der komplette Arbeitsplatz der Anwender auf dem Terminalserver gespeichert ist. Somit<br />

können die vollständigen Benutzerkonten inklusive aller Daten, selbst wenn diese an<br />

unüblichen Stellen gespeichert sind, in eine regelmäßige Datensicherung mit einbezogen<br />

werden.<br />

Damit sind auf dem Terminal nur noch die Daten gespeichert, die das Gerät für die<br />

Verbindungsherstellung zum Terminalserver benötigt, in der Regel einfach nur das<br />

Betriebssystem mit einer Remote-Desktop-Software. Eine Sicherung dieser Daten ist<br />

unnötig, da diese im Falle eines Datenverlustes einfach wieder hergestellt werden können,<br />

um den Weiterbetrieb des Terminals zu ermöglichen. Auf diese Weise wird außerdem die zu<br />

sichernde Datenmenge stark reduziert, da nicht mehr das Betriebssystem jedes Clients<br />

mitgesichert wird, sondern nur einmal das Betriebssystem des Terminalservers und die<br />

entsprechenden Benutzerdaten dazu.<br />

3.2.5. Flexible Nutzung von Anwendungen<br />

Bestimmte Abteilungen in einem Unternehmen benötigen außer den Standardprogrammen<br />

zusätzlich spezielle Anwendungen. Ein Vertriebsmitarbeiter braucht beispielsweise neben<br />

seiner Office-Suite zusätzlich Zugriff auf das CRM-System, ein Produktionsleiter ein<br />

Programm zur Pflege der Produktionskennzahlen. Bei der klassischen Benutzung eines PCs<br />

kann zwar die im Unternehmen gewünschte Grundkonfiguration weitgehend automatisiert<br />

zur Verfügung gestellt werden, die vom Benutzer zusätzlich benötigen Anwendungen<br />

müssen aber manuell von einem Administrator installiert werden. Dies sorgt für eine große<br />

Vielzahl an individuell konfigurierten Systemen innerhalb des Betriebes und erhöht den<br />

24


Bachelorthesis Jan Simmendinger<br />

Pflegebedarf, da jeder User bei einer Veränderung Unterstützung von der IT-Abteilung<br />

benötigt. Durch die Virtualisierung des Desktops entfällt dies, denn ein Benutzer kann von<br />

jeder Workstation aus auf seinen persönlichen Arbeitsplatz mit seinen benötigten<br />

Programmen zugreifen. Egal, ob er den Schreibtisch wechselt oder von einem festen auf<br />

einen tragbaren Rechner umsteigt, er hat Zugriff auf die Anwendungen die er zum Arbeiten<br />

benötigt.<br />

3.2.6. Plattformunabhängigkeit<br />

Eine Bindung an bestimmte Betriebssysteme oder Hardwareplattformen steht dem Ansatz<br />

eines möglichst flexiblen betrieblichen Informationssystems total entgegen. Die<br />

Virtualisierung der Arbeitsoberfläche löst die feste Bindung eines bestimmten<br />

Betriebssystems mit dessen Desktop auf. Bedient man sich eines Terminalservers, so sieht<br />

eine Applikation für den Anwender nach der Verbindungsherstellung immer gleich aus, egal,<br />

mit welcher Hardware und welchem Betriebssystem lokal gearbeitet wird.<br />

Die momentan stark zunehmende Verbreitung tragbarer Endgeräte wie Smartphones oder<br />

Tablet-PCs sorgt beispielsweise für eine zunehmende Vielfalt an Plattformen. Da diese<br />

Geräte vermehrt aus dem privaten Leben auch in den geschäftlichen Bereich vordringen und<br />

zunehmend von Anwendern zum mobilen Arbeiten genutzt werden wollen, ergibt sich<br />

immer häufiger das Problem der Anbindung solcher Geräte. Terminalserver stellen<br />

momentan eine praxistaugliche Lösung zur Nutzung solcher Geräte dar, unabhängig davon,<br />

ob für die entsprechende Mobilplattform bereits angepasste Clientsoftware für die im<br />

Unternehmen verwendeten Lösungen verfügbar ist. Auch Systeme in einem sehr frühen<br />

Entwicklungsstand können somit genutzt werden, um eine Verbindung herzustellen, sobald<br />

ein entsprechender Client für das Protokoll des betreffenden Terminalservers zur Verfügung<br />

steht.<br />

25


Bachelorthesis Jan Simmendinger<br />

3.2.7. Vereinfachte Administration<br />

Die Administration von PC-Systemen an einzelnen Benutzerarbeitsplätzen stellt einen<br />

verhältnismäßig großen Aufwand für eine IT-Abteilung dar, da physikalische Systemarbeiten<br />

voraussetzen, dass ein Mitarbeiter vor Ort kommt. Bei Unternehmen mit einem einzigen<br />

Standort innerhalb eines Gebäudes fällt dieser Punkt noch nicht wesentlich ins Gewicht. Bei<br />

zunehmender räumlicher Größe eines Unternehmens wächst dieser Aspekt jedoch zu einem<br />

strategisch wichtigen heran. Spätestens wenn es sich um Außenstellen handelt, die die<br />

Anreise eines Mitarbeiters mit dem Auto oder der Bahn erfordern, gilt es die Systeme<br />

wartungsarm zu gestalten.<br />

Die in den obigen Abschnitten genannte Zentralisierung der Ressourcen und einfachere,<br />

plattformunabhängige Clients erfüllen diese Aufgabe, da sich die Arbeitsplatzrechner bei den<br />

Benutzern so vereinheitlichen lassen. Diese Vereinheitlichung sorgt dafür, dass das<br />

komplexe Thema der Administration und Datensicherung zentralisiert im Rechenzentrum<br />

erfolgt und sich die Pflege der Clients darauf beschränkt, defekte Geräte zu ersetzen, wobei<br />

die Tauschgeräte nicht einmal das selbe Betriebssystem oder dieselbe Systemarchitektur<br />

haben müssen.<br />

Der Anforderung, zentralisiert zu administrieren, wird zwar heute bereits in vorhandenen<br />

Infrastrukturen Rechnung getragen, indem Domänen genutzt werden, jedoch sind die Clients<br />

allein dadurch noch nicht wartungsärmer. Ist ein Client Mitglied der Domäne, so kann das<br />

Einspielen von Updates, die Installation von Software oder Veränderungen an<br />

Berechtigungen zwar vom sogenannten Domänencontroller gesteuert werden, jedoch<br />

arbeitet der Benutzer immer noch lokal auf der meist sehr individuell konfigurierten<br />

Maschine.<br />

3.3. Virtualisierungslösungen<br />

Die zum Betrieb virtueller Maschinen notwendige Softwareumgebung, bestehend aus<br />

Hypervisor und Programmen zur Installation, Erstellung und Wartung der Systeme, gibt es<br />

26


Bachelorthesis Jan Simmendinger<br />

von verschiedenen Herstellern mit unterschiedlichen Funktionen in allen Preisklassen. In<br />

diesem Abschnitt werden die bekanntesten Lösungen mit den größten Marktanteilen<br />

vorgestellt.<br />

3.3.1. ESXi und vSphere von VMWare<br />

Die Virtualisierungslösung ESXi ist der Nachfolger der ESX Reihe von VMWare, Inc.<br />

Das Unternehmen wurde 1998 gegründet mit dem Ziel, virtuelle Maschinen auf Standard<br />

Computern mit x86-Architektur lauffähig zu machen.<br />

Als Marktführer bietet VMWare eine ganze Palette an Bare-Metal Virtualisierungslösungen<br />

und Lösungen, die ein Wirtsystem erfordern, an. Egal, ob kostenlose oder kostenpflichtige<br />

Produkte: Alle sind kompatibel zu nahezu allen Systemen, die in heutigen Infrastrukturen<br />

vorkommen.<br />

Die vSphere Produktfamilie ist als Gesamtpaket mit ESXi für den Einsatz in Rechenzentren<br />

gedacht und bringt Funktionalitäten wie die Erstellung von Hochverfügbarkeitsverbünden,<br />

die automatische Lastverteilung zwischen mehreren Hypervisoren, sowie Werkzeuge für das<br />

Management der virtualisierten Systeme und für den Virtualisierungsvorgang von<br />

physikalischen Hosts gleich mit.<br />

3.3.2. Microsoft Hyper-V<br />

Die Virtualisierungsplattform Hyper-V von Microsoft ist keine Bare-Metal-Virtualisierungs-<br />

lösung, sondern nutzt Windows Server 2008 Systeme als Wirtsystem. Hyper-V ist ein fester<br />

Bestandteil der Windows 2008 Reihe und direkt nach der Installation verfügbar.<br />

Besonders hervorzuheben ist, dass eine kostenfreie Version des Windows Server 2008<br />

verfügbar ist, deren Funktionalität auf die Bereitstellung der Virtualisierungsplattform<br />

beschränkt ist. Diese Version kann als Bare-Metal-Lösung angesehen werden, da das<br />

Betriebssystem auf die pure Hypervisorfunktionalität verkleinert wurde.<br />

27


Bachelorthesis Jan Simmendinger<br />

Auf den so bereitgestellten virtuellen Maschinen werden neben Windows Betriebssystemen<br />

mit kostenpflichtiger Lizenz auch bestimmte, kostenfrei verfügbare Linux Distributionen von<br />

RedHat und SUSE offiziell unterstützt.<br />

3.3.3. Citrix XEN Server<br />

Ursprünglich von der Universität Cambridge entworfen, wird der Bare-Metal-Hypervisor XEN<br />

mittlerweile von der Firma Citrix weiterentwickelt. Citrix begann seine Geschäfte im Bereich<br />

der Desktopvirtualisierung und hat in Zusammenarbeit mit Microsoft im Jahre 1995 das<br />

erste Windows Server Betriebssystem mit Terminalfunktionalität auf den Markt gebracht.<br />

Mit der Übernahme des auf Linux basierenden XEN Hypervisor, hat Citrix sein<br />

Produktportfolio erweitert und bietet damit eine vollständige Palette für durchgängige<br />

Lösungen von Anwendungs-, über Desktop- bis zur Hostvirtualisierung vergleichbar mit<br />

VMWare.<br />

Seit April 2009 stellt Citrix eine kostenfreie Version von XEN Server zum Download zur<br />

Verfügung, deren Lizenz auch einen kommerziellen Einsatz zulässt.<br />

XEN Server bietet in allen Versionen eine solide Lösung zum Betreiben von virtuellen Hosts<br />

und kann durch Paravirtualisierung noch deutlich beschleunigt werden, wenn die<br />

beheimateten virtuellen Maschinen unter Linux betrieben werden.<br />

Zum performanten Betrieb von Microsoft Windows auf den virtuellen Maschinen benötigt<br />

der XEN Server spezielle Hardwareerweiterungen seitens der CPU, die von der Firma Intel<br />

unter dem Namen VT-X, von AMD unter AMD-V vermarktet werden.<br />

3.3.4. QEMU<br />

Bei Quick Emulator (kurz: QEMU) handelt es sich um freie Software unter der GPL (General<br />

Public License). QEMU ist nur in einer hosted Version verfügbar und erfordert dadurch<br />

zwingend ein Wirtsbetriebssystem. Es ist zwar keine Bare-Metal-Version verfügbar, doch<br />

dadurch, dass Versionen für x86, PowerPC und SPARC-Architekturen verfügbar sind, läuft der<br />

28


Bachelorthesis Jan Simmendinger<br />

Emulator neben normalen PC-Systemen auch auf Apple und SUN Systemen problemlos.<br />

Ebenso kann er oben genannte Architekturen auch hostunabhängig emulieren – es ist also<br />

beispielsweise möglich auf einem System mit SUN-SPARC Architektur eine x86 Maschine<br />

zum Betrieb eines Microsoft Windows oder Linux Betriebssystems virtuell zu erzeugen.<br />

QEMU ist in der Lage, Live-Migrationen durchzuführen, also virtuelle Maschinen im<br />

laufenden Betrieb von einem Host auf einen anderen zu verschieben oder laufende<br />

Maschinen komplett einzufrieren. Somit ist ein Arbeiten mit Abbildern von virtuellen<br />

Maschinen (Snapshots) ähnlich wie mit Werkzeugen von VMWare möglich.<br />

3.4. Warum wird migriert<br />

3.4.1. Gründe für Erneuerung<br />

Die Notwendigkeit zur Erneuerung von betrieblichen IT-Infrastrukturen entsteht aus<br />

verschiedenen Gründen: Schon allein das Wachstum eines Unternehmens erfordert eine<br />

Verstärkung der Infrastruktur und auch gesellschaftliche, technologische und rechtliche<br />

Veränderungen erfordern immer neue Anpassungen.<br />

Die Anforderungen an die Systeme steigen also durch die verschiedenartigsten Einflüsse.<br />

Schon allein die sich zunehmend verbreitende Kommunikationsinfrastruktur sorgt dafür,<br />

dass die Ansprüche der Benutzer an ein System wachsen.<br />

Insbesondere der technologische Fortschritt ist damit häufig der stärkste Treiber. Oftmals<br />

entstehen regelrechte Abhängigkeitsketten, wenn beispielsweise der Einsatz einer neuen<br />

Software den Einsatz eines moderneren Betriebssystems und damit möglicherweise gleich<br />

noch den Einsatz neuer Hardware erforderlich macht.<br />

Aber auch ohne die absolute Notwendigkeit, Systeme anzupassen, kann eine Erneuerung<br />

von Teilen der IT-Infrastruktur sinnvoll sein, da sich daraus Verbesserungen ergeben und<br />

Einsparpotentiale genutzt werden können.<br />

29


Bachelorthesis Jan Simmendinger<br />

3.4.2. Nachteile gewachsener Strukturen<br />

Selbst wenn keine aktiv geplanten Veränderungen an einem IT-System vorgenommen<br />

werden, so finden zwangsläufig Veränderungen statt. Eine Vielzahl kleiner Veränderungen,<br />

wie beispielsweise Erweiterungen im Speicherbereich, der Ersatz defekter Hardware durch<br />

Nachfolgerversionen oder das Aufspielen einfacher Softwareupdates und<br />

Fehlerbehebungen, können dafür sorgen, dass das Gesamtsystem nicht mehr den Zielen der<br />

Strategie entgegen kommt. Aufgrund der großen Komplexität der Gesamtsysteme wird<br />

oftmals nur soweit erneuert wie notwendig oder es werden weitere Subsysteme erstellt, die<br />

nicht mehr dem Gedanken eines ganzheitlichen Informationssystems entsprechen. Hierbei<br />

entstehen oft Landschaften aus verbundenen Inselsystemen. Aus solchen Inselsystemen<br />

ergibt sich meist eine Reihe von Nachteilen: fehlende Transparenz und Übersichtlichkeit,<br />

unnötiger Ressourcenverbrauch, veraltete oder unvollständige Dokumentation, Engpässe bei<br />

Medien- und Systemübergängen. Diese resultieren in einer großen Zahl möglicher<br />

Fehlerquellen und schlechter Wartbarkeit.<br />

3.4.3. Probleme veralteter Systeme<br />

In keinem Sektor sind die Entwicklungs- und Produktzyklen so kurz wie im Informatikbereich.<br />

Gerade dieses hohe Maß vieler Veränderungen in relativ kurzer Zeit lässt IT-Systeme schnell<br />

altern. Werden die Anforderungen nicht verändert, erfüllt ein System in einem<br />

Unternehmen selbstverständlich die ihm zugedachten Aufgaben trotz Alterung weiterhin.<br />

Aber dadurch, dass die Systeme aber nicht mehr isoliert betrieben, sondern zunehmend<br />

vernetzt, also in einen Verbund mit anderen Systemen gebracht werden, ist es notwendig<br />

die Kompatibilität zu den sich weiterentwickelnden Partnersystemen nicht nur herzustellen,<br />

sondern auch beizubehalten. Das bedeutet also, dass die Systeme mit ihrer Umwelt<br />

zusammen weiterentwickelt werden müssen, da sonst die Gefahr droht, dass die<br />

Schnittstellen inkompatibel werden.<br />

Das hohe Entwicklungstempo sorgt aber auch dafür, dass die Hersteller von Hard- und<br />

Software die Unterstützung von alternden Systemen immer früher einstellen. Dies spielt<br />

30


Bachelorthesis Jan Simmendinger<br />

meist keine Rolle, solange ein System fehlerfrei läuft. Tritt allerdings ein Fehler auf, so ist es<br />

für die zeitnahe Wiederherstellung eines lauffähigen Zustandes vorteilhaft, auf aktuellen<br />

Systemen zu arbeiten für die volle Ersatzteil- und Treiberverfügbarkeit im Hardwarebereich<br />

und Update- und Patchverfügbarkeit im Softwarebereich gegeben ist.<br />

3.4.4. Vorteile einer Erneuerung<br />

Je nach Umfang behebt eine Erneuerung des betrieblichen Informationssystems die im<br />

Kapitel 3.4.2. genannten Probleme mit gewachsenen oder veralteten Infrastrukturen ganz<br />

oder teilweise.<br />

Meist werden damit also Probleme behoben, die in den entsprechenden Abteilungen oder<br />

einzelnen Mitarbeitern schon längere Zeit bekannt sind, weil diese zunehmend Arbeitszeit<br />

für Fehlerbehebungen an dem alternden System investieren müssen, um es lauffähig zu<br />

halten. Das bedeutet also, dass eine Erneuerung den steigenden Unterhaltskosten eines<br />

alternden Systems entgegen wirkt.<br />

Der Umstieg auf neuere Technologien bringt außerdem noch die Möglichkeit mit sich, dass<br />

nicht nur Kosten gesenkt, sondern auch ganz neue Geschäftsfelder erschlossen werden<br />

können, die mit den alten eingesetzten Technologien nicht oder nur mit einem immensen<br />

Aufwand realisierbar wären. Ein Beispiel dafür wäre die Bereitstellung eines<br />

Onlinebestellsystems im Internet, das auf Inhalte der Lagerverwaltungsdatenbank zugreifen<br />

soll und damit dynamisch den aktuellen Produktkatalog mit entsprechenden Lagerbeständen<br />

generieren soll. Liegt die Verwaltungsdatenbank noch in einem Format vor, dass einen<br />

Zugriff mit modernen Webtechnologien (beispielsweise PHP) nicht oder nur über aufwendig<br />

zu erstellende Individualanpassungen ermöglicht, so würde eine Migration der Datenbank<br />

auf ein modernes relationales Datenbanksystem, wie beispielsweise SQL, diese<br />

Anbindungsfähigkeit als Vorteil gleich mitbringen.<br />

31


Bachelorthesis Jan Simmendinger<br />

4. Vorgehensweise bei Migrationsprojekten<br />

In diesem Kapitel wird eine beispielhafte Vorgehensweise geschildert nach der die Planung<br />

eines Migrationsprojekts in einem kleinen Unternehmen erfolgen kann, wenn die<br />

Entscheidung getroffen wurde eine Systemmigration durchzuführen.<br />

4.1. Grundlagenplanung<br />

4.1.1. Zustand der technischen Systeme und der Dokumentation<br />

Bei der Planung von Migrationsprojekten sollte vorab eine grundlegende Analyse der<br />

aktuellen Systeme stattfinden. Hierfür sollte zuerst überprüft werden, ob die vorhandene<br />

Dokumentation dem aktuellen Systemzustand entspricht. Besonders in kleinen und<br />

mittleren Unternehmen werden kleine Veränderungen, die im Tagesgeschäft an Systemen<br />

durchgeführt werden, oftmals nicht in der Dokumentation festgehalten und eine<br />

nachträgliche Aktualisierung ist daher notwendig. Ziel einer solchen Aktualisierung der<br />

Dokumentation sollte also sein, neben einer aktuellen Übersicht die Details der Systeme<br />

soweit aufzubereiten, dass im nächsten Schritt die Teilsysteme auf ihre Migrationsfähigkeit<br />

geprüft werden können.<br />

4.1.2. Analyse von Aufgaben und Orientierung am Prozessmanagement<br />

Welche Aufgaben werden mit dem momentanen Informationssystem auf welche Art und<br />

Weise erfüllt? Erstellt man aus den Antworten auf diese Frage einen Katalog, so erhält man<br />

eine Basis mit der die Mindestanforderungen an das neue System verhältnismäßig leicht<br />

geklärt werden können.<br />

Hierfür sollte zuerst entschieden werden, ob hauptsächlich ein Bottom-up-Ansatz verfolgt<br />

wird, bei dem die Benutzer beziehungsweise die Fachabteilungen mit einbezogen werden,<br />

um zu definieren, welche der aufgelisteten Funktionalitäten absolut essentiell, welche<br />

mittlerweile obsolet und welche zusätzlichen Funktionalitäten im neuen System gewünscht<br />

32


Bachelorthesis Jan Simmendinger<br />

sind. Je nach Größe und Philosophie des Unternehmens kann es auch sinnvoll sein<br />

stattdessen einen Top-Down-Ansatz zu verfolgen und die Frage nach den Aufgaben des<br />

Informationssystems am Prozesskatalog des Unternehmens fest zu machen [vgl. Brugger,<br />

Seite 87].<br />

4.1.3. Technologischen Fortschritt nutzen<br />

Vor einem Migrationsprojekt sollte der Stand aktueller Technologien genau betrachtet<br />

werden. Es besteht einerseits die Möglichkeit, mit aktuellen Entwicklungen für denselben<br />

Kapital- und Arbeitsaufwand mehr Funktionalität zu erhalten und damit späteren Zielen<br />

bereits jetzt näher zu kommen. Andererseits lassen sich die Projektziele mit aktuellen<br />

Produkten eventuell mit weniger Aufwand erreichen.<br />

Unabhängig davon stellt ein Migrationsprojekt eine Bindung an ein bestimmtes Produkt oder<br />

eine bestimmte Technologie, mindestens bis zur nächsten Migration, dar. Deshalb sollten die<br />

vorgesehenen Komponenten auf ihre Zukunftsaussichten bewertet werden, um auf Systeme<br />

zu setzen für die noch möglichst lange Unterstützung durch Hersteller oder Entwickler und<br />

eine größtmögliche Kompatibilität zu anderen Systemen gegeben ist.<br />

4.1.4. Vorüberlegungen zu Alternativen im Hostbereich<br />

Dieser Abschnitt beleuchtet Alternativen zur Virtualisierung von Serversystemen, die bei der<br />

Planung einer Systemmigration ebenso in Betracht gezogen werden sollten.<br />

4.1.4.1. Outsourcing<br />

Anstatt die Anzahl der zu betreibenden physikalischen Serversysteme im Unternehmen<br />

durch Virtualisierung zu minimieren, kann in Betracht gezogen werden, die Systeme gar<br />

nicht selbst zu hosten, sondern auf externe Dienstleister zurück zu greifen. Bei der<br />

33


Bachelorthesis Jan Simmendinger<br />

Verwendung von Standardsoftware besteht oftmals die Möglichkeit, dass nicht nur ein<br />

nacktes, beim Dienstleister beheimatetes Hostsystem gemietet werden kann, welches<br />

immer noch einen administrativen Aufwand für das Unternehmen mit sich bringt, sondern<br />

auf eine vollständige Lösung zurückgegriffen werden kann.<br />

All diese Lösungen sind seit einiger Zeit in den Medien allgegenwärtig und werden dort meist<br />

als „Cloud Computing“ bezeichnet. Dieser Begriff umfasst Datenspeicher-, Kollaborations-<br />

und Officelösungen, die über das Internet von jedem beliebigen Standort aus genutzt<br />

werden können und bei denen die Speicherung und Verarbeitung der Daten zentral in der<br />

Datenwolke (engl. cloud) erfolgt.<br />

Der Hauptvorteil von Serveroutsourcing liegt in der im Voraus planbaren Kostenstruktur. Es<br />

sind keinerlei Anfangsinvestitionen notwendig und es besteht keine Notwendigkeit,<br />

Rücklagen zu bilden für einen eventuell notwendigen Austausch von Hardware. Für die<br />

Pflege der Hardwaresysteme ist kein Einsatz unternehmensinterner Ressourcen notwendig.<br />

Ebenso stellt die Entwicklung von steigenden Energiekosten keinen Unsicherheitsfaktor<br />

mehr dar, da das Risiko steigender Kosten für Betrieb und Kühlung des Systems vom<br />

Dienstleister getragen wird.<br />

Andererseits kann die Mindestverfügbarkeit der Systeme zwar vertraglich vom externen<br />

Dienstleister eingefordert werden, jedoch wird das Desastermanagement im Fehlerfall damit<br />

aus der Hand gegeben, denn bei einer vollständigen Auslagerung der Systeme werden<br />

jegliche Daten ebenso beim externen Dienstleister gespeichert. Je nach Sicherheits- oder<br />

Geheimhaltungslevel der gespeicherten Daten gilt es an dieser Stelle zu bewerten, ob diese<br />

Gefahr in Kauf genommen werden kann.<br />

Fällt die Abwägung zwischen den im Voraus genau kalkulierbaren Kosten bei höchster<br />

Flexibilität und dem Risiko die Unternehmensdaten ausgelagert zu speichern zu Gunsten<br />

eines externen Dienstleisters aus, so sollte eine Migration auf extern gehostete Server als<br />

ernsthafte Alternative zur Virtualisierung interner Server gesehen werden. Auf Serverhosting<br />

spezialisierte Unternehmen können ihre Kostenrechnung nämlich deutlich besser optimieren<br />

als jedes Unternehmen, das seine Server selbst beheimatet, zumal dort durch Virtualisierung<br />

die Zahl der physikalischen Systeme zum größten Teil bereits auf ein Minimum reduziert<br />

wurde.<br />

34


Bachelorthesis Jan Simmendinger<br />

Durch die zunehmende Verbreitung und die sinkenden Preise von Breitbandzugängen muss<br />

dieser Ansatz ganz klar als Zukunftstrend betrachtet werden.<br />

4.1.4.2. Hostsysteme in Hardware<br />

Anstatt auf einen Ansatz mit virtualisierten Umgebungen zu setzen, kann auch weiterhin für<br />

alle zu bewältigenden Aufgaben jeweils ein physikalisches Hostsystem genutzt werden.<br />

Durch die Verfügbarkeit von zuverlässigen und wartungsfreundlichen<br />

Virtualisierungsumgebungen scheint dieser Ansatz jedoch als veraltet und es gibt kaum<br />

Gründe, die dagegen sprechen, die möglichen Einsparpotentiale bei Administration,<br />

Wartung und Energieverbrauch zu nutzen.<br />

Eine Ausnahme stellen Applikationen dar, die auf nicht virtualisierbaren<br />

Serverbetriebssystemen aufbauen – solche sind aus heutiger Sicht aber kaum noch<br />

verbreitet. Ein anderer Grund kann die Notwendigkeit von angeschlossener Hardware sein,<br />

die durch den Hypervisor nicht durchreichbar ist. Hier gilt jedoch genau zu prüfen, ob nicht<br />

eine andere Lösung gefunden werden kann oder ob nicht ein anderer Hypervisor verfügbar<br />

ist, der diese Funktionalität bietet.<br />

Beispiele hierfür sind beispielsweise SCSI-Controller, an die ein Bandlaufwerk für<br />

Datensicherungszwecke angeschlossen ist, wie der im folgenden Praxisteil dieser Arbeit<br />

genannte MTKBACKUP01. Es sollte überlegt werden, ob solch ein System nicht durch<br />

modernere Hardware, die per Netzwerk-, SAS- oder FibreChannel-Verbindung an die zu<br />

sichernden Systeme (am besten direkt an das Storage-Area-Network) angeschlossen wird,<br />

ersetzt werden sollte.<br />

Auch die bei manchen Softwareanwendungen, vorwiegend bei technischen Planungs-<br />

programmen (CAD-Tools), üblichen Lizenz- und Verschlüsselungstoken, die per USB<br />

angeschlossen werden, sind kein Grund, beispielsweise einen Lizenzierungsserver nicht zu<br />

virtualisieren. Entweder lässt sich ein solches USB-Gerät durch den Hypervisor durchreichen<br />

oder es kann mit einem USB-over-Ethernet Konverter gearbeitet werden. Die<br />

Funktionsweise eines solchen Gerätes ist in Abbildung 7 dargestellt.<br />

35


Bachelorthesis Jan Simmendinger<br />

Abb. 7: Veranschaulichung der Funktionsweise einer Lösung zur Anbindung von USB-Geräten<br />

an virtuelle Maschinen<br />

Durch die große Vielfalt an verfügbaren Methoden für die Anbindung von Hardware an<br />

virtuelle Maschinen finden sich mittlerweile kaum mehr Geräte, die gegen den Einsatz von<br />

Virtualisierung sprechen.<br />

Dieser Ansatz sollte also maximal noch in vorhandenen Systemen Anwendung finden. Eine<br />

Virtualisierung solcher Altsysteme und damit einhergehende Einbindung in eine neue<br />

Infrastruktur sollte auf alle Fälle in Betracht gezogen werden. Eine solche Vorgehensweise ist<br />

im Praxisteil am Beispiel des Hosts APPWIN02 geschildert (siehe Kapitel 5.3.2.).<br />

4.1.4.3. Konsolidierung von Diensten auf einem Betriebssystem<br />

Eine andere Strategie zur Minimierung der physikalischen Serversysteme ist die<br />

Konsolidierung mehrerer Dienste auf einem einzigen Betriebssystem. Bei diesem Ansatz ist<br />

keine Planung und Einrichtung einer virtualisierten Umgebung notwendig, sondern nur die<br />

Installation und Pflege eines einzigen Betriebssystems. Prinzipiell ist die Administration eines<br />

solchen Serversystems mit der eines normalen Arbeitsplatz-PCs vergleichbar. Viele<br />

Serverapplikationen greifen bei der Installation jedoch tief in das Betriebssystem und seine<br />

Prozesse ein. Dadurch wird es häufig unmöglich, noch andere Software parallel auf<br />

demselben System zu betreiben. Bei steigender Anzahl der Serverinstanzen auf der<br />

Maschine steigt also auch das Risiko von Problemen durch Inkompatibilität.<br />

36


Bachelorthesis Jan Simmendinger<br />

Anstatt Probleme durch Inkompatibilitäten zu riskieren, weil mehrere Serverdienste auf<br />

einem einzigen System beheimatet werden, sollte bei der Planung einer Systemlandschaft<br />

lieber auf ein eigenes virtuelles System pro Dienst zurückgegriffen werden.<br />

Dadurch, dass aktuelle Hypervisoren für ihre Verwaltungsdienste nicht nennenswert an der<br />

Systemleistung zehren, spricht nur noch der Faktor der Lizenzkosten für jedes<br />

Betriebssystem pro virtueller Maschine für diesen Ansatz. Durch den Einsatz von Open-<br />

Source-Betriebssystemen auf den VMs relativiert sich jedoch auch dieser Punkt.<br />

4.1.5. Vorüberlegungen zu Alternativen im Desktopbereich<br />

Zwar gibt es im Bereich der Desktopvirtualisierung nicht viele Alternativlösungen, doch auch<br />

hier sollen noch andere Ansätze zur flexibleren Nutzung der Benutzerarbeitsplätze genannt<br />

werden, die in der Planungsphase eines neuen EDV-Systems eine Rolle spielen können.<br />

4.1.5.1. Anwendungsvirtualisierung<br />

Bei der Anwendungsvirtualisierung wird die Virtualisierungsumgebung auf dem lokalen<br />

Betriebssystem des Client Computers ausgeführt. Sie befindet sich zwischen dem<br />

Betriebssystem und der ausgeführten Anwendung und stellt dieser ein simuliertes<br />

Betriebssystem zu Verfügung. Somit ist es möglich, eine Software lokal auf einem<br />

Arbeitsplatzcomputer zu nutzen, ohne dass diese dort mit all ihren Registrierungseinträgen<br />

installiert sein muss. Es genügt die Parameter der virtuellen Umgebung und die Software von<br />

einem Server zu beziehen, um diese auf dem Client ausführbar zu machen. Es ist also keine<br />

lokale Installation der Software auf dem Clientbetriebssystem notwendig und somit entfallen<br />

die notwendigen Verflechtungen mit diesem, ebenso wie die vorherige Prüfung der<br />

Kompatibilität der beiden Komponenten, da fertig konfigurierte Anwendungen und die dafür<br />

notwendige simulierte Betriebsumgebung vom Server geladen und dort ausgeführt werden.<br />

Die Rechenleistung für die Programmausführung wird somit direkt vom Client bezogen,<br />

37


Bachelorthesis Jan Simmendinger<br />

weshalb sich dieser Ansatz auch für rechenintensive Anwendungen wie Grafik-,<br />

Videobearbeitungs- und CAD-Software sehr gut eignet.<br />

Die Verwaltung erfolgt hierbei zwar zentral, jedoch ist auf den einzelnen Arbeitsplätzen<br />

immer noch ein vollständiges Betriebssystem und eine darauf ausführbare<br />

Virtualisierungsumgebung erforderlich. Dadurch, dass die Ausführung der Applikation auf<br />

dem Client erfolgt, ist bei diesem Ansatz immer noch eine Abhängigkeit von der<br />

verwendeten Hardware gegeben. Eine neue Softwareversion mit höheren<br />

Systemanforderungen macht also eventuell eine Aufrüstung der Clienthardware notwendig<br />

und nicht nur eine Aufrüstung an zentraler Stelle, wie beispielsweise bei der Verwendung<br />

eines Terminalservers.<br />

Die Lösungen, die unter den Namen VMWare ThinApp oder Microsoft Application<br />

Virtualization angeboten werden, sind für spezielle Anwendungsfälle sicherlich interessant,<br />

jedoch lösen sie die Aufgabe der Vereinfachung der Clientverwaltung durch Entkoppelung<br />

nicht so gut wie ein Ansatz auf Basis von Virtualisierung.<br />

4.1.5.2. Nutzung von Diensten im Browser<br />

Browserbasierte Anwendungen sind dank Technologien wie HTML5, PHP, AJAX und Flash<br />

von Spielereien zu alltagstauglichen Diensten geworden. Mit einer angepassten<br />

Systemarchitektur können sie eine echte Alternative zu virtualisierten Desktops darstellen,<br />

deren Hauptvorteil in der Standardisierung der Schnittstellen und der dadurch sehr guten<br />

Integrationsfähigkeit nahezu jeder Plattform liegt. Jedes Endgerät mit einem aktuellen<br />

Browser kann hierbei ohne Anpassungen zur Nutzung der betrieblichen<br />

Informationssysteme genutzt werden, egal, ob es sich um ein stationäres oder tragbares<br />

Gerät handelt.<br />

Leider erfordert die Nutzung von Anwendungen über den Browser überwiegend komplette<br />

Neuentwickelungen, da sich vorhandener Programmcode in klassischen<br />

Programmiersprachen wie beispielsweise C++ oder C# nicht nutzen lässt.<br />

Durch die klare Trennung von Benutzerinterface (innerhalb des Browsers),<br />

Datenverarbeitung (durch eine Webserverinstanz) und der Datenhaltung (auf speziellen<br />

38


Bachelorthesis Jan Simmendinger<br />

Datenbankservern) ist sogar oftmals eine komplette Überarbeitung der gesamten Systeme<br />

notwendig, bevor solch eine Nutzung denkbar ist.<br />

Das Potential, das trotz des erhöhten Entwicklungsaufwands in diesem Ansatz steckt, zeigen<br />

Webportale wie Facebook und Google, die momentan beispielhaft die Leistungsfähigkeit von<br />

modernen, browserbasierten Benutzeroberflächen demonstrieren.<br />

SAP, einer der größten Anbieter von betrieblicher Software, setzt mit Produkten wie SAP<br />

Netweaver oder, die bei SAP gehostete Mietlösung, SAP BusinessByDesign sogar vollständig<br />

auf den Browser als Benutzerinterface und setzt damit verstärkt auf die Zukunft dieses<br />

Ansatzes.<br />

Die Vorteile wiegen den erhöhten Aufwand bei der Umstellung und Neuentwicklung häufig<br />

schnell auf, weshalb auf die Überlegung, ob Desktopvirtualisierung oder Browserapplikation<br />

besonderes Augenmerk gelegt werden sollte.<br />

4.1.6. Projektumfang und Rahmenbedingungen<br />

Bevor detaillierte Projektpläne erstellt werden, muss abgeklärt werden, unter welchen<br />

Rahmenbedingungen die Migration durchgeführt wird und damit, welchen Umfang das<br />

Projekt haben darf. Hier sind bei Migrationen in kleinen und mittleren Unternehmen<br />

folgende drei Punkte schwerpunktmäßig zu betrachten.<br />

4.1.6.1. Kapital<br />

Der finanzielle Rahmen eines Migrationsprojekts wird meist durch die Geschäftsführung<br />

vorgegeben, da eine größere Migration Investitionen erfordert, die über dem typischen Etat<br />

der IT-Abteilung liegt oder bei kleinen Firmen gar kein extra IT-Budget vorhanden ist.<br />

Insbesondere, wenn die Anschaffung neuer oder zusätzlicher Hardware oder<br />

Softwarelizenzen ansteht, sind die Geschäftsführer, Anteilseigner oder sonstige Shareholder<br />

in die Entscheidungsprozesse mit einzubeziehen.<br />

39


Bachelorthesis Jan Simmendinger<br />

4.1.6.2. Aufwand<br />

Eine Migration bringt ein nicht unerhebliches, zusätzliches Arbeitspensum mit sich. Je nach<br />

Auslastungsgrad und Personalsituation innerhalb der IT-Abteilung kann es möglich sein,<br />

solch ein Projekt durch den Auf- oder Abbau von Überstunden zu bewältigen. Ist dies jedoch<br />

nicht der Fall, so empfiehlt es sich zusätzliche Arbeitskraft von einem externen Dienstleister<br />

oder durch zusätzliches Personal zu beschaffen. Dies resultiert dann wieder in einem<br />

höheren finanziellen Aufwand, der wiederum mit den, bereits in Kapitel 4.1.6.1. genannten,<br />

Stakeholdern des Projekts abgestimmt werden muss.<br />

4.1.6.3. Technische Gegebenheiten<br />

Bauliche und ortsabhängige Gegebenheiten beeinflussen die zu erstellende Planung einer<br />

neuen Infrastruktur und die Migration auf diese selbstverständlich auch.<br />

Ein Faktor mit sehr zunehmender Gewichtung ist beispielsweise die Verfügbarkeit von<br />

Breitbandzugängen zum weltweiten Datennetz. Außerhalb urbaner Gegenden sind diese<br />

immer noch oftmals nur eingeschränkt verfügbar. Die maximal realisierbare Bandbreite<br />

sowie die Zuverlässigkeit und Verfügbarkeit eines Internetzugangs schränken die Freiheit bei<br />

der Planung eines neuen Systems eventuell stark ein, da beispielsweise ein Serverhosting an<br />

anderen Standorten oder bei externen Dienstleistern dadurch unmöglich wird.<br />

Aufgrund der hohen Priorität dieser Thematik ist es oftmals sinnvoll, sich über Alternativen<br />

zu einem Breitbandzugang über die Telefonleitung zu informieren, wenn DSL nur<br />

eingeschränkt realisierbar ist. Häufig ist damit eine höhere Bandbreite erreichbar, denn<br />

Technologien über das Breitbandkabel (TV-Kabel), Funktechnologien über Mobilfunk (UMTS,<br />

HSDPA oder LTE), Datenfunk (WLAN, WiMAX) und andere Möglichkeiten (Lichtwellenleiter)<br />

werden zunehmend praxistauglich und sind je nach örtlichen Gegebenheiten mit<br />

vertretbarem Aufwand realisierbar.<br />

Die Kapazität an nutzbarem Raum für die Unterbringung eines betrieblichen<br />

Informationssystems sollte ebenso bereits in die Grobplanung mit einfließen. Dabei geht es<br />

nicht nur um die bloßen Räumlichkeiten für die Unterbringung, sondern auch welche<br />

40


Bachelorthesis Jan Simmendinger<br />

Anforderungen diese erfüllen. Zu nennen sind hier Lüftungs- und Klimatechnik, Feuchtigkeit,<br />

Verfügbarkeit von Strom- und Kommunikationsleitungen sowie die Zutrittskontrolle.<br />

4.2. Konzepte<br />

Sind die finanziellen und technischen Rahmenbedingungen aus Kapitel 4.1.6. geklärt, so<br />

muss nun innerhalb dieser eine Lösung skizziert werden, aus der sich ein Konzept mit der<br />

genauen Vorgehensweise während der Migration ergibt.<br />

4.2.1. Ideen sammeln und bündeln<br />

Da sich nach den Vorüberlegungen aus Kapitel 4.1. meist eine Vielzahl von Möglichkeiten<br />

ergibt, die die gewünschten Ziele erfüllen würden, bietet es sich an diese zu Konzepten zu<br />

bündeln. Es sollten also Ideen strukturiert und gebündelt und so weiterentwickelt werden,<br />

dass erkennbar wird, welche Vor- und Nachteile sich beim jeweiligen Konzept<br />

herauskristallisieren und mit welchem Aufwand eine Realisierung verbunden wäre.<br />

Abb. 8: Aus der Vielzahl der in Frage kommenden Technologien müssen für das neue IT-<br />

System geeignete ausgewählt und gruppiert werden<br />

4.2.2. Bewertung der Konzepte und Freigabe<br />

Nach der Phase zur Konzeptfindung gilt es die möglichen Konzepte zu bewerten. Die hierbei<br />

zu beachtenden Punkte können nicht allgemein genannt werden, jedoch finden sich hier<br />

41


Bachelorthesis Jan Simmendinger<br />

grundlegende Ideen für die Findung von Bewertungspunkten, wobei die Gewichtungen<br />

anhand der Präferenzen eines betreffenden Unternehmens individuell festzulegen sind:<br />

- Chancen auf einen erfolgreichen Projektverlauf<br />

- Unternehmensinternes Know-How der verwendeten Technologien<br />

- finanzieller Aufwand<br />

- Arbeitsaufwand für die Migration<br />

- Aufwand für Mitarbeiterschulung, wenn neue Hard- oder Software eingesetzt wird<br />

- Zukunftsaussichten der verwendeten Technologien<br />

- Kompatibilität zu vorhandenen oder weiteren Systemen<br />

- spätere Migrationsfähigkeit / voraussichtliche Kosten bei nächstem Systemwechsel<br />

Zur Findung der am besten geeigneten Konzepte kann eine Entscheidungsmatrix, wie in<br />

Abbildung 9 zu sehen, genutzt werden. Die Bewertung einzelner Punkte gestaltet sich<br />

hierbei häufig nicht einfach, da alle nicht messbaren Kriterien quantifiziert werden müssen,<br />

um sie erfassen zu können. Jedoch hat dies den Vorteil, dass jeder Punkt für sich selbst<br />

überdacht wird und nicht im Gesamtbild von Vor- und Nachteilen der einzelnen Konzepte<br />

untergeht.<br />

Abb. 9: Eine Bewertungsmatrix findet anhand individueller Gewichtung einzelner<br />

Kriterien das am besten geeignete Konzept<br />

42


Bachelorthesis Jan Simmendinger<br />

Wurden die am besten geeigneten Konzepte gefunden, müssen grobe Aufwands- und<br />

Kostenschätzungen erstellt und diese den entscheidenden Stellen im Unternehmen<br />

vorgestellt werden. Es sollte dann eine Freigabe für eines der Konzepte gegeben werden um<br />

es in den nächsten Schritten weiter voran zu treiben und die Migration vorzubereiten.<br />

4.3. Erstellung eines Projektplans<br />

Ist die Freigabe eines Projektes aus dem vorherigen Abschnitt erfolgt, ist das Projekt somit<br />

definiert. Der nächste Schritt ist die Erstellung eines Projektplans auf dem die spätere<br />

Steuerung des Migrationsprojekts basiert.<br />

4.3.1. Arbeitspakete definieren<br />

Welche Aufgaben ergeben sich bei der Umsetzung der Erneuerungspläne und wie können sie<br />

sinnvoll gegliedert werden? – Diese Aufgabe stellt sich am Anfang der Erstellung des<br />

Projektplans. Am besten dafür geeignet ist ein Projektstrukturplan, dessen englische<br />

Bezeichnung „work breakdown structure“ bereits die Vorgehensweise beschreibt: Die<br />

anstehenden Aufgaben werden heruntergebrochen in kleinere Arbeitspakete. Die Vorteile<br />

dieser kleinen Pakete sind neben der besseren Überschaubarkeit, dass die Verantwortung<br />

dafür jeweils einem Verantwortlichen übergeben werden kann und dass der Fortschritt ihrer<br />

Bearbeitung detaillierter beurteilt werden kann.<br />

Abb. 10: Beispielhafte Aufteilung der Arbeitspakete bei der Fertigung eines Automobils<br />

43


Bachelorthesis Jan Simmendinger<br />

4.3.2. Klären von Personal- und Kompetenzfragen<br />

Es muss beurteilt werden, welche Kompetenzen jeweils für die Bearbeitung eines<br />

Arbeitspaketes notwendig sind. Da kleine Unternehmen einen meist sehr übersichtlichen<br />

Mitarbeiterstamm in der EDV-Abteilung haben, lässt sich häufig schnell klären, welcher<br />

Mitarbeiter Erfahrungen mit bestimmten Produkten oder Technologien hat und damit<br />

welche Arbeitspakete er übernehmen kann.<br />

Findet sich kein interner Mitarbeiter mit den entsprechenden Kompetenzen, so muss ein<br />

Experte in das Projekt mit eingebunden werden, der das entsprechende Know-How<br />

mitbringt, um technische und organisatorische Unsicherheiten bei der Migration auf ein<br />

Minimum zu reduzieren.<br />

4.3.3. Klären von Abhängigkeiten und Erstellung des Zeitplans<br />

Sind die einzelnen Arbeitspakete und die jeweils dafür zuständigen Personen erst einmal<br />

definiert, müssen im nächsten Schritt die Abhängigkeiten der Arbeitspakete voneinander<br />

geklärt und daraus die Abfolge der auszuführenden Arbeiten abgeleitet werden.<br />

Dadurch, dass jedes Arbeitspaket einem Verantwortlichen zugewiesen wird, der<br />

entsprechende Erfahrung auf dem jeweiligen Gebiet mitbringt, ist es möglich, eine<br />

Aufwandsschätzung für jedes Paket zu erstellen und die benötigten Ressourcen abzuklären.<br />

Verbindet man nun die Aufwandsschätzung und die Verfügbarkeit der benötigten<br />

Ressourcen mit dem Ablauf der Schritte, erhält man einen Projektablaufplan mit<br />

voraussichtlicher Gesamtdauer.<br />

Abb. 11: Nach Klärung von Abhängigkeiten und der benötigten Ressourcen für ein<br />

Arbeitspaket ergibt sich einen Projektablaufplan mit voraussichtlicher Dauer<br />

44


Bachelorthesis Jan Simmendinger<br />

4.3.4. Projektdurchführung und Steuerung<br />

Mit dem so entstandenen Ablaufplan und der Verteilung der Verantwortlichkeiten der<br />

einzelnen Pakete kann das Projekt durchgeführt und gesteuert werden.<br />

Bei der Steuerung können drei Schwerpunkte betrachtet werden, die während der Migration<br />

ständig überprüft werden sollten, mindestens jedoch nach dem Abschluss jedes einzelnen<br />

Arbeitspakets. Abweichungen von den geplanten Vorgaben sollten so früh wie möglich an<br />

alle Betroffenen kommuniziert werden, dazu gehören die Geschäftsführung und die<br />

Bearbeiter von nachfolgenden Arbeitspaketen. Nur so sind rechtzeitige Änderungen in den<br />

Projektablauf möglich, ohne dabei viele Ressourcen für Entwicklungen in die falsche<br />

Richtung zu verschwenden.<br />

Schwerpunkt 1 - technische Umsetzungen:<br />

Fragestellung: Erfüllt jede Teilkomponente die an sie gestellten Anforderungen?<br />

Lösungsansätze: Umgestaltung der Komponente oder Anpassung der darum<br />

angeordneten Systeme<br />

Schwerpunkt 2 – Der zeitliche Rahmen:<br />

Fragestellung: Werden die jeweiligen Pakete in der veranschlagten Zeit erledigt?<br />

Lösungsansätze: Erhöhung der Mitarbeiter an Paketen, die die Gefahr mit sich bringen,<br />

Schwerpunkt 3 - der finanzielle Aufwand:<br />

das gesamte Projekt in Verzug zu bringen<br />

Fragestellung: Bleibt die Summe der Kosten der Pakete innerhalb des genehmigten<br />

Budgets?<br />

Lösungsansatz: Erhöhung des genehmigten Projektkapitals durch die Geschäftsleitung<br />

Werden die genannten Schwerpunkte während des Projekts kontinuierlich bearbeitet, so<br />

kann die Migration mit hoher Wahrscheinlichkeit erfolgreich abgeschlossen werden.<br />

45


Bachelorthesis Jan Simmendinger<br />

5. Praktische Umsetzung<br />

5.1. Ein Praxisbericht<br />

Wie die Realisierung des Gedankens einer virtualisierten Infrastruktur in einem<br />

mittelständischen Betrieb aussehen kann, soll in diesem Kapitel anhand eines Praxisberichts<br />

erfolgen. Das Projekt fand bei der Firma mouldtec Kunststoff GmbH in Kaufbeuren statt und<br />

umfasste eine Gesamterneuerung der gesamten Infrastruktur in der Verwaltung des<br />

Unternehmens. Das Altsystem, das Ausgangspunkt der Migration war, wird in den folgenden<br />

Abschnitten beschrieben.<br />

5.1.1. Übersicht<br />

Die Erneuerung des sechs Jahre alten Systems wurde notwendig, da es der EDV-Abteilung<br />

der Firma Mouldtec nicht mehr möglich war, aktuelle Anpassungen vorzunehmen, weil<br />

seitens des früheren EDV-Dienstleisters keine Unterstützung mehr erfolgte.<br />

Da es sich bei dem System um eine unübliche Implementierung von ThinClients mit Linux<br />

Betriebssystem, die über einen „X-Kontroller“ genannten, schlecht dokumentierten<br />

Linuxserver über RDP-Sitzungen auf einen Windows 2003 Terminalserver zugegriffen haben,<br />

war es ohne Support des damaligen Lieferanten nicht mehr justierbar.<br />

5.1.2. Server und Hosts<br />

Die damalige Serverlandschaft von Mouldtec umfasste die nachfolgend genannten<br />

Hostsysteme.<br />

46


Bachelorthesis Jan Simmendinger<br />

5.1.2.1. APPLNX<br />

Es handelte sich hierbei um den „X-Kontroller“, einen Debian GNU/Linux-Server der die<br />

vollständige Verwaltung des Netzwerks übernahm. Auf ihm war ein SQUID-Proxyserver aktiv,<br />

der den Zugang ins Internet regelte. Ebenso übernahm er durch eine SAMBA-<br />

Implementierung die Rolle eines simulierten Windows-Domänencontrollers, gegen den die<br />

Windowssysteme im Netzwerk ihre Benutzerauthentifizierung durchführen konnten. Für die<br />

damaligen ThinClients stellte dieser Host folgende Dienste zur Verfügung:<br />

Er lieferte über einen TFTP-Server das Minilinux an die ThinClients per PXE-Protokoll aus.<br />

Remotedesktopsitzungen der ThinClients auf den Terminalserver wurden ebenso über<br />

diesen Host geleitet wie ClientAccess-Zugriffe auf die AS/400.<br />

5.1.2.2. V5R3M0<br />

Der Host V5R3M0 ist eine AS/400 Maschine aus der Reihe der iSeries von IBM. Dieses<br />

System unter i5/OS sollte von der Migration unangetastet bleiben. Es sollte lediglich das<br />

unternehmensweit verwendete Netzlaufwerk wegmigriert und eine im System integrierte<br />

IPCS-Steckkarte still gelegt werden. Solch eine Steckkarte stellt einen eigenständigen PC<br />

innerhalb einer iSeries-Maschine zur Verfügung, auf dem Windows Betriebssysteme<br />

ausgeführt werden können. Sie diente der Verfolgung des Ziels, ein iSeries System als<br />

vollständiges, integriertes Informationssystem zu betreiben. Dazu verfügt die Karte über<br />

einen eigenständigen Prozessor, Arbeitsspeicher und Netzwerkinterface. Festplattenspeicher<br />

und sonstige I/O-Systeme werden vom AS/400 System bezogen.<br />

5.1.2.3. APPWIN01<br />

Ein Windows 2003 Server, der den Benutzern per Remotedesktop ein Microsoft Office 2003<br />

Paket anbot und über Outlook dem Senden und Empfangen von Emails diente. Zusätzlich<br />

47


Bachelorthesis Jan Simmendinger<br />

war ein PDF-Betrachter und eine Clientsoftware zum Zugriff auf die AS/400 installiert. Der<br />

Host war auf einem eigenständigen IBM xServer X364 untergebracht.<br />

5.1.2.4. APPWIN02<br />

Dieses Hostsystem lief unter Windows Server 2003 und bot ebenso wie APPWIN01 Dienste<br />

per Remotedesktop, allerdings nur für einen bestimmten Benutzerkreis. Die Hauptaufgabe<br />

des Systems war die zur Verfügung Stellung eines Enterprise-Information-Systems (kurz EIS)<br />

der Firma Aruba.<br />

Diese Maschine war auf dem IPC-Server in der AS/400 untergebracht.<br />

5.1.3. ThinClients<br />

Bereits im Altsystem kamen ThinClients zum Einsatz. Es handelte sich dabei um ThinClients<br />

DT166 der Firma DigitalResearch.<br />

Abb. 12: ThinClient DT166, wie er im Altsystem eingesetzt wurde<br />

Diese Geräte haben folgende Leistungsdaten:<br />

AMD Geode 800 CPU, 512 MB RAM, Sound, Netzwerk, 4x USB 2.0 und VGA.<br />

Die Terminals hatten keinen Flash- oder Festplattenspeicher, sondern bezogen ihr<br />

Betriebssystem mithilfe des PXE-Protokolls von APPLNX. Da alle Geräte während des<br />

Bootvorgangs dasselbe Betriebssystemabbild vom Server geladen haben, liefen alle<br />

48


Bachelorthesis Jan Simmendinger<br />

ThinClients mit demselben Betriebssystem. Gerätespezifische Anpassungen, wie<br />

beispielsweise das gezielte Aktivieren oder Deaktivieren von USB-Anschlüssen, eine<br />

Vorbelegung von Anmeldemasken mit bestimmten Benutzernamen oder eine Anpassung der<br />

Bildschirmauflösung waren somit nicht möglich.<br />

Vor allem der letzte Punkt hat sich sehr negativ auf die Benutzerakzeptanz ausgewirkt, da<br />

das System wegen mancher im Unternehmen noch eingesetzter 15“-Flachbildschirme mit<br />

einer Auflösung von 1024 x 768 Pixeln betrieben wurde. Besonders bei Benutzern, die auf<br />

neuen 22“-Bildschirmen im Breitbildformat arbeiten, sorgte die starke Verzerrung der<br />

Anzeige für Unmut.<br />

Die IP-Adresse, die ein ThinClient beim Booten angenommen hat, wurde aus einer Tabelle<br />

bezogen, in der zu jeder MAC-Adresse eines Clients die zugehörige IP hinterlegt war.<br />

5.1.4. Netze<br />

Aus Gründen der IT-Sicherheit kam damals eine Vielzahl von Subnetzen zum Einsatz.<br />

Beispielsweise wurde für jede Verbindung zwischen zwei Serversystemen ein eigenes<br />

Subnetz geschaffen.<br />

Nicht nur innerhalb des Serverraums wurde der Ansatz mehrerer Netzwerke verfolgt,<br />

sondern auf dem gesamten Betriebsgelände wurde mit zwei getrennten Netzen gearbeitet.<br />

Diese beiden Netze waren jedoch nicht nur logisch, sondern auch physikalisch strikt<br />

getrennt. Ein Netz war für die Benutzung mit ThinClients reserviert, das andere wurde für die<br />

Anbindung normaler PC-Arbeitsplätze genutzt. Diese Trennung der Netze sorgte für sehr<br />

unübersichtliche Konfigurationen der Netzwerkschnittstellen einzelner Geräte.<br />

Eventuell notwendiges Routing zwischen den Netzen wurde vom X-Kontroller übernommen.<br />

49


Bachelorthesis Jan Simmendinger<br />

Abb. 13: Ausschnitt aus der Dokumentation der alten Infrastruktur, anhand derer<br />

die Vielzahl an verwendeten Subnetzen ersichtlich ist<br />

5.1.5. Veralteter Internetbrowser<br />

Das Surfen im Internet war im Altsystem nur über den auf den ThinClients verfügbaren<br />

Internetbrowser IceWeasel möglich. Die Nutzung eines alternativen Browsers war, durch<br />

den in Kapitel 2.2.1. genannten Bootvorgang eines fertigen Betriebssystemabbildes, weder<br />

auf den ThinClients selbst möglich, noch innerhalb der Terminalserversitzung , da auf diesem<br />

keine Konfiguration für den Proxyserver eingerichtet war.<br />

Bei dem verwendeten Browser handelt es sich um eine angepasste Version des Firefox-<br />

Browsers, die von den Entwicklern von Debian GNU/Linux ins Leben gerufen wurde, um<br />

Lizenzschwierigkeiten vorzubeugen. Der Browser wird zwar noch weiterentwickelt, jedoch<br />

folgt die Entwicklung den Aktualisierungen von Firefox nur mit großem Abstand. Dadurch,<br />

dass die bei Firma Mouldtec verwendete Version des Browsers fest im Bootimage<br />

implementiert war, wurde jahrelang keine Aktualisierung vorgenommen.<br />

Benutzer, die also mit Zugriff auf das Internet arbeiten, hatten über die vorgesehene Lösung<br />

keine Möglichkeit auf aktuelle Internetinhalte zuzugreifen, da der IceWeasel-Browser<br />

veraltet war und keine Unterstützung für Flash-Inhalte oder in Webseiten eingebettete PDF-<br />

Dokumente anbot.<br />

50


Bachelorthesis Jan Simmendinger<br />

5.1.6. Zusammenfassung der Schwachstellen<br />

Die alte Netzwerkinfrastruktur wurde von der Firma redoXsystems GmbH geliefert und<br />

betreut. Der Support wurde laut Aussage des EDV-Leiters der Firma Mouldtec durch<br />

personelle Engpässe seitens redoXsystems zunehmend unbefriedigender. Letzten Endes war<br />

kein Support mehr gegeben und somit waren keine Anpassungen mehr an der<br />

Netzwerkinfrastruktur möglich. Vor allem der sogenannte „X-Controller“ war ohne<br />

detailliertes Hintergrundwissen nicht weiter konfigurierbar und erfüllte seine aktuellen<br />

Aufgaben alle, jedoch war den Verantwortlichen im Unternehmen die Gefahr zu groß, dass<br />

das Gesamtsystem bei Ausfall dieses Gerätes nicht mehr wiederherstellungsfähig sein<br />

würde. Aus diesem Sachverhalt ergaben sich die Schwachstellen, die eine Migration auf eine<br />

neue Infrastruktur notwendig gemacht haben.<br />

Der X-Kontroller sollte als Single-Point-of-Failure entschärft werden. Durch<br />

Zusammenfassung der vielen Subnetze zu größeren Netzen sollte mehr Übersichtlichkeit und<br />

damit leichtere Fehlereingrenzung ermöglicht werden. Die ThinClients mussten mit dem Ziel<br />

angepasst oder ausgetauscht werden, dass den Benutzern ein zeitgemäßes Arbeiten<br />

ermöglicht wird – insbesondere in den Bereichen aktuelles Office Paket, Displayauflösung<br />

und Darstellung von Webseiten. Die gesamte Bedienung für den Benutzer sollte an den<br />

aktuellen Standard der Microsoft Windows Welt angepasst und damit erleichtert werden.<br />

5.2. Planung der neuen Infrastruktur<br />

Es war also klar, dass bei der Firma Mouldtec eine sehr umfangreiche Systemmigration<br />

notwendig war. Es galt die Frage zu beantworten, welches System wohin migriert werden<br />

sollte.<br />

51


Bachelorthesis Jan Simmendinger<br />

5.2.1. Ideensammlung und Konzeptfindung<br />

Die neue Infrastruktur sollte nach den Vorstellungen des EDV-Leiters weitgehend ohne<br />

Linuxserver auskommen und auf dem aktuellen Stand der Technik sein. Ein Wechsel auf<br />

aktuelle Windows Server 2008R2 Systeme lag also nahe. Die Konsolidierung der neuen<br />

Server auf einer virtualisierten Infrastruktur wurde geprüft und sollte so umgesetzt werden,<br />

da die Auslastung der bisherigen Server sehr gering war. Das bisherige Netzlaufwerk sollte<br />

ebenso vom iSeries-System wegmigriert werden.<br />

Überlegungen, die Serverlandschaft bei einem externen Dienstleister zu hosten, wurden<br />

nicht angestellt, da der Firma nur eine geringe DSL-Bandbreite zur Verfügung steht.<br />

Bisherige Erfahrungen des Unternehmens mit ThinClients waren überwiegend positiv. Dieser<br />

Ansatz sollte also beibehalten werden, allerdings unter der Bedingung, dass individuelle<br />

Anpassungen der Konfiguration einzelner Geräte möglich sind.<br />

Zur Reduzierung der Anzahl von Subnetzen hätte die Möglichkeit bestanden, ein komplett<br />

neues logisches Subnetz aufzubauen und alle Komponenten in dieses neue Netz<br />

einzupflegen. Die Alternative war eine weitere Nutzung von einem der vorhandenen Netze<br />

und die Auflösung aller anderen.<br />

5.2.2. Personaleinsatz<br />

Die EDV-Abteilung der Firma Mouldtec hatte die zuvor genannten Vorgaben zur Erneuerung<br />

der IT-Infrastruktur und zog in Ermangelung von Personal und Know-How das Systemhaus<br />

Soft-Consult Häge GmbH aus Langenau hinzu. Hier war ein Mitarbeiter für die Ausführung<br />

der meisten Arbeitsschritte da, der bereits viel Erfahrung im Bereich solcher Projekte hat<br />

und dem eine weitere Kraft zur Verfügung stand. Für die weitere Projektplanung bedeutete<br />

dies, dass einzelne Arbeitspakete nicht direkt einem Mitarbeiter zugewiesen werden<br />

mussten, sondern es vorwiegend darum ging, die Kommunikation zwischen den beiden<br />

Unternehmen zu regeln und zu klären, welche Informationen und welches Material für die<br />

nächsten Schritte von wem zur Verfügung gestellt werden musste.<br />

52


Bachelorthesis Jan Simmendinger<br />

5.2.3. Aufteilung der Arbeitspakete zu einem Ablaufplan<br />

Da das Design der neuen Systemlandschaft bereits durch den Auftrag an Soft-Consult sehr<br />

klar definiert war, konnte direkt nach der Zerlegung in Einzelschritte ein Ablaufplan des<br />

Projektes erstellt werden. Eine genaue Zeitplanung der einzelnen Arbeitspakete, um die<br />

Ressourcen einplanen zu können war nicht notwendig, da die Aufgaben von dem<br />

zweiköpfigen Team seitens Soft-Consult seriell erledigt wurden und ein Aufgabenblock direkt<br />

nach dem Abschluss des Vorherigen begonnen wurde.<br />

Abb. 14: Der Ablaufplan enthielt keine genauen Zeiten, da die Abarbeitung jedes Blocks direkt<br />

im Anschluss an den Vorgänger begonnen wurde<br />

Die Steuerung des Projekts beschränkte sich auf ein Reporting des aktuellen Fortschritts an<br />

Mouldtec und die Nennung der geplanten Daten für weitere Vor-Ort-Arbeiten beim Kunden.<br />

Diese waren notwendig für Installationsarbeiten der vorbereiteten Hardware und die<br />

53


Bachelorthesis Jan Simmendinger<br />

Hauptmigration während der die EDV-Abteilung von Mouldtec zusammen mit dem Soft-<br />

Consult Team, an einem Wochenende, den GoLive der neuen Infrastruktur durchführte.<br />

5.3. Das neue System<br />

5.3.1. Übersicht<br />

Das neue System wurde also größtenteils mit neuen Komponenten und frisch installierten<br />

Hostsystemen geplant. Ein Überblick über die Planung der neuen Infrastruktur ist in den<br />

Abbildungen 15 und 16 ersichtlich.<br />

Abb. 15: Übersicht über das neue Netzwerklayout der Firma Mouldtec<br />

54


Bachelorthesis Jan Simmendinger<br />

Abb. 16: Gesamtüberblick über die neue Infrastruktur<br />

5.3.2. Logische Übersicht über die Migration der einzelnen Server<br />

Die Hauptaufgabe der Ersetzung des X-Kontrollers wurde durch eine neue, zentrale<br />

Verwaltungsinstanz in Form eines Windows Domänencontrollers gelöst. Jedoch wurden<br />

keinerlei Daten vom Altsystem übernommen, sondern auf einer neuen virtuellen Maschine<br />

frisch aufgebaut.<br />

55


Bachelorthesis Jan Simmendinger<br />

Der ehemalige Terminalserver für den Großteil der Nutzer wurde, ebenso wie der X-<br />

Kontroller, durch eine komplett neue virtuelle Maschine ersetzt. Die frei gewordene<br />

Hardware wurde für einen neuen Host verwendet und übernimmt jetzt die Aufgabe der<br />

zentralen Datensicherung.<br />

Der Terminalserver für die Geschäftsleitung mit dem Enterprise Information System Aruba<br />

EIS wurde komplett virtualisiert und fand somit den Weg in das neue VMWare Cluster.<br />

Abb. 17: Logischer Überblick über die Migrationen der einzelnen Serversysteme<br />

5.3.3. Übernommene Daten aus den Altsystemen<br />

5.3.3.1. Benutzerkonten vom X-Kontroller<br />

Es fand keine Übernahme von Daten vom APPLNX statt. Die Benutzerkonten und die<br />

zugehörigen Benutzerpasswörter wurden stattdessen von der EDV-Abteilung von den<br />

56


Bachelorthesis Jan Simmendinger<br />

Anwendern abgefragt und aufgelistet. Nach dem Durchsehen und Korrigieren der<br />

entstandenen Liste und dem Entfernen von nicht mehr verwendeten Benutzerkonten und<br />

der Aktualisierung von Benutzernamen (Anwender nicht mehr im Unternehmen oder durch<br />

Heirat geänderte Namen) wurden die Benutzerkonten ohne Altlasten auf dem neuen<br />

Domänencontroller eingerichtet.<br />

5.3.3.2. Emailkonten von APPWIN01<br />

Vom früheren Terminalserver wurden nur die benutzerspezifischen Daten der Outlook<br />

Installation übernommen. Pro User wurde also der „Persönliche Ordner“ (*.PST) und die<br />

Informationen für die Autoergänzung von bereits genutzten Emailadressen (*.NK2)<br />

extrahiert.<br />

5.3.3.3. Dateien vom alten Netzlaufwerk übernehmen<br />

Das Netzlaufwerk der Firma Mouldtec wurde bisher von der AS/400 zur Verfügung gestellt.<br />

Hierfür wurde die AS/400 NetServer Funktion des IBM OS/400 verwendet. Diese Funktion<br />

stellt ein Netzlaufwerk mit einer Windows kompatiblen SMB-Freigabe zur Verfügung. Die<br />

Performance dieser Lösung war für die Benutzer unbefriedigend. Tests im Vorfeld ergaben<br />

Leseraten des früheren Netzlaufwerkes von 12 Megabyte je Sekunde. In Anbetracht der<br />

Tatsache, dass alle Dateioperationen der Benutzer über dieses Laufwerk stattfanden, war<br />

hier ein beträchtliches Verbesserungspotential gegeben.<br />

Das neue Netzlaufwerk wird vom Domänencontroller MTKDC01 zur Verfügung gestellt. Es<br />

handelt sich hierbei um einen Datenträger, der direkt vom Storage-Area-Network zur<br />

Verfügung gestellt wird und im Betriebssystem des Domänencontrollers eingebunden und<br />

freigegeben ist.<br />

Anfangs wurde nur die Ordnerstruktur im Stammverzeichnis des neuen Laufwerkes erzeugt<br />

und die Berechtigungen gesetzt. Hier war ein größerer manueller Aufwand zu betreiben, da<br />

die Berechtigungsverwaltung unter IBM OS/400 einen anderen Aufbau besitzt als unter<br />

57


Bachelorthesis Jan Simmendinger<br />

Microsoft Windows. Besonders zu erwähnen ist die fehlende Möglichkeit von Vererbung auf<br />

untergeordnete Verzeichnisse, wie in Abbildung 18 dargestellt.<br />

Abb. 18: Vergleich der Rechtevererbung für Freigaben unter Windows und AS/400 NetServer<br />

Die gesamte Datenmenge auf dem Laufwerk hatte ein Volumen von etwa 200 Gigabyte.<br />

Trotz dieser verhältnismäßig kleinen Datenmenge wurde eine mehrstufige Migration der<br />

Daten vom Altsystem ins neue System gewählt, um innerhalb der begrenzten Zeit am<br />

Umstellungswochenende erfolgreich migrieren zu können. Rechnerisch ergab sich zwar nur<br />

eine Kopierdauer von 5 Stunden:<br />

Datenmenge: 200 GB * 1024 MB/GB = 204800 MB<br />

Kopierzeit: 204800 MB / 12MB/s = 17000 sec = 280 min = 5 Stunden<br />

Jedoch sollten eventuelle Probleme mit Sonderzeichen in Dateinamen, zu lange Dateinamen<br />

oder Dateiattributen vorzeitig erkannt werden.<br />

Dafür wurde der gesamte Datenbestand in der Woche vor dem Roll-Out auf die neue<br />

Netzwerkfreigabe kopiert. Die Benutzer arbeiteten nach diesem Vorgang weiterhin auf dem<br />

Altsystem.<br />

Dateien mit nicht kopierfähigen Namen wurden den entsprechenden Abteilungen genannt<br />

und wurden von diesen noch umbenannt, Dateien die Aufgrund anderer Attribute nicht<br />

kopiert werden konnten, wurden individuell auf das Kopieren vorbereitet.<br />

58


Bachelorthesis Jan Simmendinger<br />

Während des Roll-Out war es dann nur noch notwendig, die seit dem Kopiervorgang<br />

erstellten oder veränderten Dateien kopieren zu lassen und anschließend die alte Freigabe<br />

zu deaktivieren und die neue im Netz erreichbar zu machen.<br />

5.3.4. Neue ThinClients<br />

Bei der Überlegung, ob die alten ThinClients hardwareseitig mit einem Flashlaufwerk<br />

aufgerüstet werden sollten, um darauf ein Windows Betriebssystem zu installieren oder ob<br />

neue ThinClients angeschafft werden sollen, fiel die Entscheidung auf neue ThinClients. Bei<br />

diesen handelt es sich um Geräte der Firma IGEL Technology GmbH. Diese sind von den<br />

Leistungsdaten geringfügig besser wie die alten Terminals, haben jedoch im Gegensatz zu<br />

diesen einen integrierten Flash-Speicher, von dem ein Microsoft Windows Embedded<br />

Standard 2009 Betriebssystem gebootet wird. Bei diesem Betriebssystem handelt es sich um<br />

eine für den Betrieb auf Terminals angepasste Variante von Microsoft Windows XP, mit dem<br />

für die meisten Benutzer wohlbekannten Desktopdesign.<br />

Da das Betriebssystem jedes ThinClients lokal von seinem eigenen Flashlaufwerk gestartet<br />

wird, ist es möglich jeden dieser Clients mit einer individuellen Konfiguration zu betreiben.<br />

Die Geräte bringen herstellerseitig bereits ein Werkzeug mit, mit dem es möglich ist, nach<br />

dem Setzen der Einstellungen einen Schreibschutz auf das Dateisystem zu aktivieren. Das<br />

bedeutet, dass der Benutzer im laufenden Betrieb Dateien auf seinem System speichern und<br />

verändern kann, sich das System aber nach einem Neustart wieder in der gewünschten<br />

Ausgangskonfiguration befindet.<br />

59


Bachelorthesis Jan Simmendinger<br />

Abb. 19: IGEL ThinClient, wie er in der neuen Infrastruktur zum Einsatz kommt<br />

5.3.5. Storage-Lösung<br />

Eine DS3200 von IBM stellt das Herzstück des Datenspeichers der neuen Infrastruktur dar.<br />

Dieses Storage-Area-Network ist jeweils durch eine SAS-(Serial-Attached-SCSI-) Verbindung<br />

mit einem der beiden physikalischen Server und damit quasi einem Hypervisor verbunden.<br />

Das System ist momentan mit 10 Festplatten mit jeweils 320 Gigabyte bestückt und stellt<br />

damit 3 Terabyte Speicherplatz zur Verfügung.<br />

Die physikalischen Festplatten sind folgendermaßen zu logischen Blöcken zusammengefasst:<br />

Jeweils 4 Festplatten werden als RAID 10-Verbund betrieben. Die verbleibenden 2<br />

Festplatten dienen als sofort einsatzbereite Ersatzfestplatte (HotSpare).<br />

Der RAID 10 Modus (ein RAID 0 über zwei RAID 1) verbindet die Vorteile eines RAID 1 mit<br />

denen eines RAID 0 Betriebs. Im RAID 0 Betrieb werden Lese- und Schreibzugriffe auf zwei<br />

oder mehr Festplatten verteilt, um durch parallele Verarbeitung höhere Geschwindigkeiten<br />

zu erzielen. Im RAID 1 Modus werden die Daten auf zwei Datenträgern vollständig<br />

redundant gespeichert, um eine höhere Ausfallsicherheit zu erreichen. Bei Lesezugriffen hat<br />

ein RAID 1 die selbe Performance wie ein RAID 0.<br />

60


Bachelorthesis Jan Simmendinger<br />

Abb. 20: Funktionsweise verschiedener RAID-Konfigurationen<br />

5.4. Die Migration<br />

5.4.1. Vorgehensweise<br />

Die eigentliche Migration auf die neue Infrastruktur war nur mit einer schrittweisen<br />

Vorgehensweise zu bewältigen, da einige Arbeiten im engen Zeitrahmen des Roll-Out<br />

keinen Platz gefunden hätten. Deshalb wurden viele Aufgaben im Vorfeld oder im Nachgang<br />

erledigt, so dass am Umstellungswochenende nur der Roll-Out der neuen ThinClients, die<br />

Umstellung auf das neue Netzlaufwerk, die Migration der USB-Drucker in die neue<br />

Infrastruktur und der Umzug der Outlookkonten auf den neuen Terminalserver stattfanden.<br />

5.4.2. Vorbereitungen<br />

Zu den Vorbereitungen gehörte die Installation, Einrichtung und Konfiguration der Server in<br />

den Räumen der Firma Soft-Consult in Langenau und die anschließende Montage und<br />

Inbetriebnahme der Hostsysteme in den Serverräumlichkeiten der Firma Mouldtec in<br />

Kaufbeuren parallel zum Altsystem.<br />

Die Vorbereitung der IGEL-Terminals wurde ebenso bereits vor der Migration erledigt. Hierzu<br />

gehörte die Inventarisierung der Clients, Vergabe von IP-Adressen, Einrichtung der<br />

Domänenmitgliedschaft, die Einrichtung designierter Benutzer für die Remote-Desktop-<br />

Sitzungen und das Aktivieren eines Schreibfilters für den Flash-Speicher, um spätere<br />

Veränderungen an der Konfiguration durch die Benutzer zu unterbinden.<br />

61


Bachelorthesis Jan Simmendinger<br />

5.4.3. Inbetriebnahme der neuen Security Appliance<br />

Da die Fahrtstrecke von der Firma SoftConsult in Langenau zur Firma Mouldtec Kunststoff<br />

GmbH in Kaufbeuren 120 km beträgt, sollten unnötige Fahrtkosten vermieden werden.<br />

Deshalb war ein wichtiger Baustein vor der Migration die Herstellung eines Site-to-Site VPN<br />

vor dem Roll-Out, um Arbeiten im Vor- oder Nachgang per Fernzugang erledigen zu können.<br />

Um das aktuelle Tagesgeschäft der Firma Mouldtec bis zum endgültigen Roll-Out nicht zu<br />

beeinträchtigen, war es notwendig, die bestehende Internetverbindung über das bisherige<br />

Gateway mit allen Konfigurationen weiter zu betreiben oder es entsprechend nach zu bilden.<br />

Da der Netzzugang über eine DSL-Leitung mit fester IP erfolgt, die über das PPPoE-Protokoll<br />

(Point-to-Point over Ethernet) betrieben wird, schied das Schalten einer zweiten parallelen<br />

Verbindung aus.<br />

Dieses Problem wurde folgendermaßen gelöst: In der neuen Infrastruktur war eine Security<br />

Appliance vom Typ NetScreen SSG5 von Juniper Networks vorgesehen, die im Endzustand<br />

die DSL-Verbindung treiben, Firewall für den Internetverkehr und Site-to-Site und Dial-Up<br />

VPN-Verbindungen zur Verfügung stellen sollte. Erster Schritt war also die Konfiguration der<br />

SSG5 mit den Zugangsdaten der Internetverbindung und einer Schnittstelle als Interface in<br />

das neue Subnetz und einer anderen Schnittstelle, die den alten Router simulierte, um den<br />

alten Proxyserver und damit das gesamte Netzwerk weiterhin online zu halten.<br />

Abb. 21: Vergleich der alten Appliance für den Zugang zum Internet mit Router (oben)<br />

und der Neuen (unten) mit installierter Firewall<br />

62


Bachelorthesis Jan Simmendinger<br />

5.4.4. Die Hauptmigrationsphase<br />

Die Hauptmigrationsphase und damit der Übergang des neuen Systems in den<br />

Produktivmodus fand an einem Wochenende statt. Die Phase begann mit dem Roll-Out der<br />

ThinClients. Dazu wurden die Geräte an den einzelnen Arbeitsplätzen ausgetauscht und<br />

währenddessen gleich noch an den jeweiligen Arbeitsplatz angepasst.<br />

Der zweite Schritt der Umstellung umfasste die Installation von nicht netzwerkfähigen<br />

Druckern, die per USB an die IGEL-Terminals angeschlossen wurden.<br />

Ein weiterer Schritt war die Umschaltung des Netzlaufwerks (bei der Firma Mouldtec aus<br />

historischen Gründen als Y-Laufwerk benannt) vom Netserver der AS/400 auf die neue<br />

Freigabe auf dem neuen Domänencontroller. Hierzu mussten die Daten, die seit dem im<br />

Vorfeld bereits durchgeführten Kopiervorgang verändert oder erstellt wurden, nochmals<br />

kopiert werden.<br />

Letzter Schritt während der eigentlichen Hauptmigrationsphase war der Umzug der Outlook-<br />

Konten der User vom alten auf den neuen virtuellen Terminalserver. Hierzu wurde für jedes<br />

Benutzerkonto eine Anmeldung auf den Terminalserver durchgeführt und dann über die<br />

Remotedesktopverbindung das Microsoft Outlook des Benutzers gestartet. In den<br />

automatischen Einrichtungsassistent wurden dann die Serveradressen und Zugangsdaten<br />

des externen Mailproviders der Firma Mouldtec eingegeben. Zusätzlich wurden die vom<br />

appwin01 kopierten PST-Dateien temporär eingebunden und die darin enthaltenen Mails<br />

und Kontakte in die neue Installation kopiert. Eine Besonderheit ergab sich daraus, dass bei<br />

der Firma Mouldtec wenig mit Emailadressbüchern gearbeitet wird, sondern stattdessen mit<br />

der automatischen Ergänzung von Adressen, mit denen schon einmal kommuniziert wurde.<br />

Diese Daten werden zwar benutzerspezifisch gespeichert, aber nicht in der Persönlichen<br />

Ordner-Datei (PST) des Benutzers, sondern in einer Datei mit der Endung NK2.<br />

63


Bachelorthesis Jan Simmendinger<br />

Abb. 22: Nach der erfolgreichen Migration der NK2-Datei ist die automatische Adress-<br />

ergänzung eines Outlookclient wieder mit allen genutzten Adressen verfügbar<br />

5.4.5. Aufgaben im Nachgang<br />

Nach der Hauptmigrationsphase, die als GoLive des neuen Systems gesehen werden kann,<br />

waren noch die Aufgaben zu bewältigen bei denen Komponenten aus dem Altsystem<br />

weiterverwendet werden sollten.<br />

Dazu gehörte die Virtualisierung des Servers für das Enterprise Information System, der<br />

während der Hauptmigration unverändert weiter betrieben wurde, um ihn nachträglich als<br />

virtuelle Maschine in das neue ESX-Cluster aufzunehmen und seine Hardware außer Betrieb<br />

zu nehmen.<br />

Ein weiterer Schritt im Nachgang war die Nutzungsänderung der freigewordenen Hardware<br />

des ehemaligen Terminalservers APPWIN01 in den neuen zentralen Backupserver<br />

MTKBACKUP01.<br />

Abschließend erfolgte die Abschaltung des X-Kontrollers, der bis zur erfolgreichen<br />

Inbetriebnahme der neuen Infrastruktur weiter lief um – falls die Migration fehlschlagen<br />

sollte - einen eventuell notwendigen Roll-Back zu ermöglichen.<br />

64


Bachelorthesis Jan Simmendinger<br />

5.4.6. Erhöhung der Benutzerakzeptanz<br />

Ein Problem, das erst nach dem Roll-Out festgestellt wurde, waren die im Verhältnis zum<br />

Altsystem deutlich längeren Bootzeiten der neuen IGEL-ThinClients.<br />

Da die Benutzer vom Altsystem Bootzeiten der ThinClients von 10-15 Sekunden gewöhnt<br />

waren, erschien es unzumutbar, dass bei den IGEL-Terminals ab dem Drücken der<br />

Powertaste über 3 Minuten vergingen, bis es möglich war, eine Sitzung am Terminalserver<br />

zu initiieren. Rücksprachen mit dem Hersteller der Terminals ergaben, dass es keine<br />

Möglichkeit gibt, den Startvorgang nennenswert zu beschleunigen. Das Problem wurde also<br />

folgendermaßen gelöst: Es wurde ein Skript erstellt, welches auf dem Domänencontroller<br />

werktäglich, also Montag bis Freitag jeweils um 7 Uhr ausgeführt wird. Dieses Skript enthält<br />

die MAC-Adressen aller bei der Firma Mouldtec im Einsatz befindlichen IGEL-Terminals und<br />

startet diese per Wake-on-LAN. Beim Eintreffen der Benutzer an ihrem Arbeitsplatz finden<br />

diese also einen bereits gestarteten ThinClient vor.<br />

5.5. Probleme und Lösungsansätze<br />

5.5.1. Zuverlässigkeit ESXi<br />

Die in Kapitel 3.1.4. beschriebene Zuverlässigkeit eines ESXi-VMWare Clusters im HA-<br />

(HighAvailability-) Modus zeigt in der Praxis an folgender Stelle Schwächen: Für das<br />

Management und zur Kommunikation mit dem Local-Area-Network besitzen die beiden<br />

physikalischen Host-Systeme und das Storage-Area-Network jeweils mindestens eine<br />

1000MBit/s Verbindung. Bei den Hostsystemen lassen sich diese Verbindungen durch<br />

werkseitig mehrfach vorhandene Netzwerkinterfaces relativ einfach redundant ausführen.<br />

Hierzu ist es lediglich erforderlich, die Netzwerkinterfaces entsprechend zu konfigurieren<br />

und die notwendigen physikalischen Verbindungen auszuführen. Somit ist die Erreichbarkeit<br />

der Hostsysteme über das LAN durch redundante Anbindung sichergestellt. Für den Betrieb<br />

der virtuellen Maschinen auf den Hostsystemen ist außer den LAN-Verbindungen aber auch<br />

noch der Zugriff auf den Festplattenspeicher und damit auf das Storage-Area-Network<br />

65


Bachelorthesis Jan Simmendinger<br />

essentiell wichtig. Die Anbindung der Hosts an das Storage-Area-Network erfolgt aber nicht<br />

über das LAN, sondern jeweils über einen SAS-Link. Bricht einer dieser Links jedoch<br />

zusammen, so sind die virtuellen Maschinen, die aktuell auf dem betroffenen Host betrieben<br />

werden, nicht mehr lauffähig. Dadurch, dass die virtuellen Maschinen unvorbereitet von<br />

ihren Systemfestplatten getrennt werden, schlagen bei solch einem Ausfall auch die von<br />

VMWare vorgesehenen Prozesse fehl, virtuelle Maschinen im Rahmen des High-Availability-<br />

Modus von einem havarierten Host auf einen laufenden Host zu evakuieren und dort nahezu<br />

verzögerungsfrei weiter zu betreiben. Abhilfe würde an dieser Stelle eine SAN-Lösung mit<br />

zwei unabhängigen Controllern bieten, wie in Abbildung 23 abgebildet.<br />

Abb. 23: Vergleich des logischen Aufbaus eines Storage-Area-Network im Single Controller<br />

Betrieb (oben) mit einem im Dual-Controller-Betrieb (unten)<br />

66


Bachelorthesis Jan Simmendinger<br />

5.5.2. Verwendung von IGEL UMS<br />

Anpassungen an den IGEL ThinClients, wie Domänenmitgliedschaft, IP-Konfiguration,<br />

NetBIOS-Namen und USB-Berechtigungen, wurden während den Vorbereitungen zum<br />

Rollout direkt an den Clients durchgeführt. Durch den Schreibschutz, der den<br />

Flashdatenträger und damit das embedded Betriebssystem des ThinClients vor unbefugten<br />

Veränderungen durch den Benutzer schützt, war es notwendig, die vorgenommenen<br />

Änderungen jeweils durch einen manuellen Eingriff während eines Neustarts dauerhaft zu<br />

übernehmen. Aus diesem Grund ist es derzeit nicht möglich, Einstellungen per Fernzugriff an<br />

den ThinClients vorzunehmen. Da während der Rollout-Phase ohnehin jeder Arbeitsplatz<br />

aufgesucht werden musste, konnten die arbeitsplatzspezifischen Einstellungen, wie<br />

beispielsweise die Bildschirmauflösung, in einem Arbeitsgang gleich mit eingestellt und<br />

gesichert werden.<br />

Um bei zukünftigen Anpassungen nicht erneut jeden Arbeitsplatz unternehmensweit<br />

aufsuchen zu müssen, bietet es sich an, die vom Hersteller bereitgestellte<br />

Verwaltungssoftware IGEL UMS (Universal Management Suite) näher zu betrachten. Diese<br />

ermöglicht, laut Hersteller, individuelle oder globale Konfigurationsänderungen an den<br />

Geräten über das Netzwerk.<br />

5.5.3. Aufsetzen eines lokalen Microsoft Exchange Servers<br />

Das Hosting der Mouldtec Emailpostfächer erfolgt bei einem externen Dienstleister und die<br />

Outlookclients auf dem Terminalserver kommunizieren via POP3 und SMTP mit dem<br />

externen Mailserver. Das bedeutet, dass jede unternehmensinterne Email jeweils zweimal<br />

über die DSL-Leitung bewegt werden muss und die Speicherung der Mails nach dem Abholen<br />

in der jeweiligen PST-Datei eines Benutzers erfolgt.<br />

Um das Konzept des hausintern betriebenen, zentralen Informationssystems zu<br />

vervollständigen, würde sich die Implementierung eines Microsoft Exchange Servers<br />

anbieten, der neben der Funktionalität als Mailserver noch Funktionen zur<br />

67


Bachelorthesis Jan Simmendinger<br />

unternehmensweiten Zusammenarbeit betreffend Kalendereinträgen und Adressbüchern<br />

ermöglichen würde.<br />

6. Abschließende Bewertung und Ausblick<br />

Sind Systemarchitekturen, bei denen Virtualisierung eingesetzt wird, geeignet, um bei<br />

kleinen und mittleren Unternehmen die Kosten für Anschaffung, Unterhalt und Entsorgung<br />

zu verringern? Diese Frage, aus der Einleitung dieser Arbeit, soll nun geklärt werden.<br />

Wie im zweiten Teil der Ausarbeitung geschildert, wird dies in der betrieblichen Praxis<br />

bereits so realisiert. Durch die Verfügbarkeit allumfassender, teilweise sogar kostenloser<br />

Virtualisierungslösungen besteht kein Grund mehr, die Verkleinerung des physikalischen<br />

Geräteparks und die Verringerung des administrativen Aufwands durch Verlagerung von<br />

physikalischen Systemen in die Softwareebene nicht zu nutzen.<br />

Die Rechnung in Abbildung 24 zeigt einen beispielhaften Vergleich der Anschaffungs- und<br />

Betriebskosten der in der Arbeit vorgestellten neuen Systemlandschaft der Firma Mouldtec,<br />

einmal wie realisiert mit Virtualisierung und einmal in einer klassischen Implementierung.<br />

Abb. 24: Vergleich der geschätzten Gesamtkosten, die bei der jeweiligen Implementierung<br />

über 3 Jahre hinweg auflaufen<br />

Die Beispielrechnung demonstriert den klaren Kostenvorteil von virtualisierten<br />

Infrastrukturen, auch für den Einsatz bei kleinen und mittleren Unternehmen.<br />

Eine deutlich höhere Flexibilität spricht ebenso klar dafür, auch wenn in den betrachteten<br />

Unternehmen meist keine so starke Veränderung der Systemlandschaft herrscht.<br />

68


Bachelorthesis Jan Simmendinger<br />

Eine zunehmend interessante Alternative zur Virtualisierung von inhouse gehosteten<br />

Serversystemen ist die Nutzung von externen Rechenzentren. Durch das hohe Maß an<br />

Spezialisierung solcher Dienstleister und die damit einhergehenden Kostenvorteile wird die<br />

Zukunft vermutlich im sogenannten Cloud-Computing liegen. (siehe Kapitel 4.1.4.1.)<br />

Allerdings muss jeweils im Einzelfall entschieden werden, ob die ausgelagerten Daten zu<br />

sensibel sind, um sie in die Obhut eines externen Unternehmens zu geben oder ob es ein<br />

vertretbares Risiko darstellt, die Daten entsprechend verschlüsselt bei einem Dienstleister<br />

abzulegen.<br />

Abb. 25: Ausschnitt aus der Preistabelle der Firma JiffyBox - hier werden Cloudserver angeboten,<br />

deren Preis sich nach der Nutzungszeit richtet, vergleichbar mit einem Telefonanschluss<br />

69


Bachelorthesis Jan Simmendinger<br />

Glossar<br />

Bottom Up Methodik, etwas von unten nach oben zu analysieren<br />

embedded OS ein in ein Gerät fest integriertes und darauf angepasstes Betriebssystem<br />

Go Live die Phase, in der ein IT-System in den Produktivbetrieb geht<br />

Host Computer der einen oder mehrere Dienste zur Verfügung stellt<br />

inhouse Hosting das Betreiben von Servern im eigenen Haus<br />

NAS Network attached Storage = über ein Netzwerk angeschlossenes<br />

Speichergerät (Netzwerkfestplatte)<br />

Shareholder Anteilseigner/Inhaber eines Unternehmens<br />

Smartphone Mobiltelefon mit Computerfunktionalitäten wie Kalender,<br />

Kontaktverwaltung und Internetzugang<br />

Stakeholder Person, die Interesse am erfolgreichen Verlauf eines Projektes hat<br />

Tablet PC Flacher, akkubetriebener, tragbarer Computer mit einem Touchscreen<br />

anstatt einer Tastatur<br />

Top down Methodik, etwas von oben nach unten zu analysieren<br />

Treiber ein gerätespezifisches Softwaremodul, das eine standardisierte Software-<br />

schnittstelle für die Interaktion mit dem entsprechenden Gerät anbietet<br />

Update / Patch Ein Modul das von einem Softwarehersteller nachgeliefert wird um Fehler<br />

zu beheben oder Sicherheitslücken zu schließen<br />

70


Bachelorthesis Jan Simmendinger<br />

Abbildungsverzeichnis<br />

Abb. 1: Aufteilung von Arbeitsspeicher bei Virtualisierung<br />

Abb. 2: Vergleich von Hypervisoren<br />

Abb. 3: Vergleich möglicher Anbindungen von Festplattenspeicher an Serversysteme<br />

Abb. 4: Energiesparpotentials des Prozessors bei Zusammenfassung von zwei Maschinen<br />

Abb. 5: Darstellung der Migration eines virtualisierten und eines Bare-Metal-Betriebssystems<br />

Abb. 6: Ohne Desktopvirtualisierung ungenutzt verbleibende Ressourcen<br />

Abb. 7: Funktionsweise einer Lösung zur Anbindung von USB-Geräten an virtuelle Maschinen<br />

Abb. 8: Auswahl und Gruppierung der in Frage kommenden Technologien<br />

Abb. 9: Bewertungsmatrix zur Findung des am besten geeigneten Konzepts<br />

Abb. 10: Beispielhafte Aufteilung der Arbeitspakete bei der Fertigung eines Automobils<br />

Abb. 11: Projektablaufplan mit voraussichtlicher Dauer<br />

Abb. 12: ThinClient DT166<br />

Abb. 13: Ausschnitt aus der Dokumentation der alten Infrastruktur<br />

Abb. 14: Projektablaufplan<br />

Abb. 15: Übersicht über das neue Netzwerklayout der Firma Mouldtec<br />

Abb. 16: Gesamtüberblick über die neue Infrastruktur<br />

Abb. 17: Logischer Überblick über die Migrationen der einzelnen Serversysteme<br />

Abb. 18: Vergleich der Rechtevererbung für Freigaben unter Windows und AS/400 NetServer<br />

Abb. 19: IGEL ThinClient<br />

Abb. 20: Funktionsweise verschiedener RAID-Konfigurationen<br />

Abb. 21: Alte und neue Appliance für den Zugang zum Internet mit Router und Firewall<br />

Abb. 22: automatische Adressergänzung eines Outlookclient mit importierter NK2 Datei<br />

Abb. 23: Vergleich eines Single Controller und eines Dual-Controller Storage-Area-Network<br />

Abb. 24: Vergleich der geschätzten Gesamtkosten bei verschiedenen Implementierungen<br />

Abb. 25: Ausschnitt aus der Preistabelle der Firma JiffyBox<br />

71


Bachelorthesis Jan Simmendinger<br />

Literaturverzeichnis<br />

Bücher und Fachbeiträge<br />

[Brugger] Brugger, Ralph: IT-Projekte strukturiert realisieren. Wiesbaden 2. Auflage,<br />

Dezember 2005<br />

[Keuper] Keuper, Frank / Hamidian, Kiumars / Verwaayen, Eric / u.a.: TransformIT:<br />

Optimale Geschäftsprozesse durch eine transformierende IT. Wiesbaden<br />

1. Auflage, 2010<br />

[Noppenberger] Noppenberger, Martin: Kostenminimierung in Speichernetzwerken.<br />

Köln 1. Auflage, November 2009<br />

[BITKOM] BITKOM, Bundesverband Informationswirtschaft, Telekommunikation und<br />

neue Medien e. V.: Energieffizienz im Rechenzentrum. Berlin-Mitte<br />

1. Auflage, 2010<br />

Elektronisch verfügbare Dokumente<br />

[Netzwelt] Markus Franz: Virtuelle Server mit Windows und Linux. September 2010. URL:<br />

http://www.netzwelt.de/news/84115-xen-virtuelle-server-windows-linux.html<br />

[CW01] Andrej Radonic: Server-Virtualisierung zum Nulltarif. April 2011. URL:<br />

http://www.computerwoche.de/hardware/data-center-server/1932017/index4.html<br />

[CW02] Michael Pietroforte: Der nächste Trend heißt Anwendungs-Virtualisierung.<br />

August 2008. URL: http://www.computerwoche.de/software/software-infrastruktur/1869889/<br />

[IBM] IBM Systems: Datenblatt IBM System x3650 M3. Ehningen 2011. URL:<br />

http://public.dhe.ibm.com/common/ssi/ecm/de/xsd03060dede/XSD03060DEDE.PDF<br />

[Jiffy] Preisliste Jiffybox. Jiffybox, Oktober 2011. URL: https://www.jiffybox.de/#third<br />

72

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!