Server - ChannelPartner.de
Server - ChannelPartner.de
Server - ChannelPartner.de
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
CPSpecial
www.channelpartner.de
Server
Beilage in CP 06/08
Virtualisierung -
es lebe das Vieraugenprinzip
Seite 6
SAN-Fehler sind
kostspielig und vermeidbar
Seite 11
Fallstricke beim
Server-Management
Seite 16
Mail-Server:
verführerische Standards
Seite 19
CPSpecial
www.channelpartner.de
Server
Beilage in CP 06/08
Virtualisierung -
es lebe das Vieraugenprinzip
Seite 6
SAN-Fehler sind
kostspielig und vermeidbar
Seite 11
Fallstricke beim
Server-Management
Seite 16
Mail-Server:
verführerische Standards
Seite 19
Das Geschäft mit Servern läuft. Dem Marktforscher IDC zufolge nimmt der Verkauf
nach Stückzahlen deutlich zu: Allein im dritten Quartal des vergangenen Jahres
wurden in Europa über 600.000 Server verkauft - gut zehn Prozent mehr als im
Vergleichsquartal 2006. Auch der Quartalsumsatz wuchs. Zwar nur um gut drei Prozent,
doch erstmals erreichte der Gesamtumsatz die vier Milliarden Dollar-Marke.
Bekanntlich sind Server sowohl Massenprodukte als auch Rechner, die sich deutlich
unterscheiden. Man betrachte den Blade-Markt, der im angeführten Quartal
laut IDC bereits für acht Prozent der Umsätze gut war: Trotz des Herstellergetrommels
in Sachen „offene Standards“ und „offene Architekturen“ sind sie proprietär.
Das nennt man Herstellerbindung – Kundenbindung aber keinesfalls. Trotzdem
erfreuen sich Blade-Server immer größerer Beliebtheit; sie streifen allmählich ihren
Nimbus „Enterprise“ ab und werden auch in jenem Markt nach ihrer Tauglichkeit
abgeklopft, der der am meisten umworbene ist: der SMB-Markt.
In diesem agieren die kleineren und mittleren Unternehmen – in Europa haben
Statistiker rund drei Millionen Unternehmen mit bis zu 1.000 Mitarbeiter gezählt –,
und es ist für Serveranbieter ausgemacht, dass diese Unternehmen den größten
Nachholbedarf bei ihrer IT-Infrastruktur haben. Weshalb sie unermüdlich beackert
werden.
Das hat Folgen: IT-Administratoren werden mit Multi-Kern-Servern konfrontiert;
auf diesen sollen sie virtualisieren und konsolidieren und dabei auch auf die
Stromrechnung achten. Die neuesten Rechner können das, und der Channel soll
die treibende Kraft beim Verkauf dieser immer mehr könnenden Allzweckmaschinen
sein. Nur trifft der Channel bei diesen Themen auf Administratoren, die noch
nicht alles können. Sie sind gerade dabei zu lernen.
Etwa aus Fehlern. Bei Projekten, beim schnellen Aufsetzen eines Servers, beim
vielbeschworenen Auslastungsspiel „Capacity on demand“ oder bei der Installation
von Server–Software. Bei all diesen Aufgaben werden Fehler gemacht. Vielfach
sind sie vermeidbar – weshalb in diesem Sonderheft viel die Rede ist von Server-
Fehlern und wie man sie vermeidet.
Darüber hinaus haben Anbieter von Servern – Hard- und Software – in ihren
Trickkisten gestöbert, um Ihnen, liebe Leser, wertvolle Tipps und Erfahrungen für
den Server-Alltag mitzugeben. Denn eines ist klar: Der Server-Alltag findet
jeden Tag, rund um die Uhr, statt, und der Channel tut gut daran, diesen Alltag
zu kennen.
In diesem Sinn wünscht Ihnen ChannelPartner eine nutzbringende Lektüre .
Wolfgang Leierseder
CP Special
Editorial
Server – das Geschäft zieht an
»Der Channel soll die treibende
Kraft beim Verkauf dieser immer
mehr könnenden und leistenden
Allzweckrechner sein.«
3
24 CP Compact Special
CP Compact Finanzierung im
Finanzierung Tagesgeschäft im
Tagesgeschäft
Inhalt
Jeder hat einen
Mail-Server - der
Kunde möchte
aber wissen, wie
performant dieser
ist. Seite 19
6 -8
Server-
Virtualisierung
6 Server-Virtualisierung: Mit Partnern und Wissen in einem Boot
7 Wer virtualisiert, hat klare Alternativen
8 Wie Sie zehn typische Virtualisierungsfehler vermeiden
10 - 12
Storage
10 Know-how rund um das Thema Storage Area
11 Acht schnell gemachte, aber kostspielige SAN-Fehler
12 Storage-Virtualisierung - Tipps zum reibungslosen Betrieb
14
Blades
14 Einige Grundregeln beim Einsatz von Blade-Servern
15 - 16
Server-
Management
15 Server-Konsolidierung - eine überdachte Wahl
16 Aufgepasst: Fallstricke beim Server-Management
18 - 21
Server-Software
18 Tipps für einen Datenbankadministrator
19 Das lebende Unternehmen: Wie Sie einen Mail-Server aufsetzen
20 Das Einmaleins eines überzeugenden Unternehmens-Portals
21 Setzen Sie auf ein offenes Linux
Alternativen
bei der Virtualisierung
Seite 7
DIE UMFASSENDE PALETTE DER INTEL® XEON® QUADCORE-PROZESSOREN FÜR STANDARDSERVER.
Erfahren Sie, warum Effizienz
im Rechenzentrum mit Intel inside beginnt. Besuchen Sie www.intel.de/xeon bzw. rufen
Sie uns einfach an unter der Channel Hotline 00800/9092 4444 (Freecall) oder direkt unter 0228/9092 4444.
- - Sammeln Sie jetzt Bonuspunkte mit Flex+ - - - Und sichern Sie sich Ihre Prämien - -
www.intel.de/reseller und erfahren Sie dort mehr.
©
MULTIPLIZIERTE ENERGIEEFFIZIENZ.
MINIMIERTE
ERWÄRMUNG.
Buy authorized! Kaufen Sie Intel Produkte bei
einem Intel® autorisierten Distributor.
2008 Intel Corporation. Intel, das Intel-Logo, „Intel. Leap ahead.“, das Logo „Intel. Leap ahead.“, Xeon und Xeon inside sind Marken der Intel Corporation in den USA oder anderen Ländern.
6
CP Special
CP Compact Finanzierung im
Server- Tagesgeschäft
Virtualisierung
Fujitsu Siemens Computers (FSC)
Server-Virtualisierung:
zehn typische Fehler
Virtualisierung von Servern ist in aller Munde. Doch wie
immer in der IT: Fehler sind schnell gemacht. Wie Sie diese
vermeiden können, erläutert Günther Aust.
Durch Virtualisierungsstrategien lassen
sich vorhandene Server-Ressourcen besser
auslasten und Kosten einsparen. Die
Entkoppelung der Applikationen und des
Betriebssystems von den physischen Systemen
macht flexibler. Um diese Vorteile
uneingeschränkt nutzen zu können, sollten
einige typische Fehler bei der Server-
Virtualisierung vermieden werden:
Ungebremste Zunahme von virtuellen
Maschinen (VM) . Durch Virtualisie-
1
rung nimmt die Komplexität von IT-Architekturen
aus der Perspektive des
Systemmanagements ab. Während die
physischen Systeme reduziert werden,
erhöht sich auf der anderen Seite sehr oft
die Anzahl der virtuellen Instanzen. Eine
neue VM ist nur einen Mausklick entfernt!
Alle virtuellen
Maschinen müssen
jedoch verwaltet, gewartet
und gepflegt
werden. Daher sollten
klare Regeln für
die Bereitstellung
neuer VMs definiert
werden, um deren
ausuferndes Wachstum
zu verhindern.
2 Unzureichende
Workload-Analys
e . Oft wird die Ist-
Situation nicht präzise
analysiert. Wichtig
ist es, im Vorfeld von
Virtualisierungsprojektenherauszufinden,
welche realen Systeme sich überhaupt
virtualisieren lassen und welche
Betriebsmittel sie in der realen Welt benötigen.
In einem zweiten Schritt wird
dann ermittelt, welche Ressourcen diese
Systeme in einer virtualisierten Umgebung
erfordern. In dieser Phase ist äußerste
Sorgfalt der Schlüssel zu einem
erfolgreichen Virtualisierungsprojekt.
Der Administrator als
„Super Super User“:
Feste Regeln und die Einhaltung
des Vieraugenprinzips
sind angesagt.
Heterogenität der Plattform . Häufig
3ist die Plattform, auf der virtualisiert
werden soll, durch uneinheitliche Systeme,
Komponenten und Treiber gekennzeichnet.
Umgebungen, die hinsichtlich
Storage-, Netzwerk- und Server-Architektur
eine gewisse Homogenität aufweisen,
sind jedoch bezüglich Installation, Wartung
und Pflege wesentlich einfacher zu
managen als heterogene Plattformen.
Auch setzen manche Funktionen des Hypervisors
eine gewisse Homogenität voraus
(beispielsweise VMotion).
Nichtbeachtung von betriebswirt-
4schaftlichen Aspekten . Oft werden bei
Virtualisierungsprojekten allein technische
Aspekte berücksichtigt. Es wird
analysiert, welche Ressourcen die zu virtualisierenden
Systeme im Schwerpunkt
benötigen: Manche erfordern einen großen
Arbeitsspeicher, andere benötigen
eher leistungsfähige Prozessoren. Verschiedene
Klassen von Applikationen
werden dann zusammen auf einem Server
konsolidiert, damit die verfügbaren
Ressourcen gleichmäßig ausgelastet sind.
Wichtig ist es hier, betriebswirtschaftliche
Zusammenhänge zu kennen und zu berücksichtigen.
Kommunizieren etwa bestimmte
VMs in hohem Maße miteinander,
ist es sinnvoll, beide Systeme auf
einem physikalischen Server laufen zu
lassen. So ist für Applikationen, die betriebswirtschaftlich
zusammenwirken,
ein sinnvoller Mix zu ermitteln, über den
festgelegt ist, wie sie gruppiert und auf
dem Server verteilt werden können. IT-
Unternehmen wie FSC unterstützen hier
mit ganzheitlichen Lösungs- und Beratungskonzepten.
Mangelnde Planung beim Einsatz von
5VMotion . Die VMotion-Technologie
von VMware erlaubt es, eine komplette
virtuelle Maschine im laufenden Betrieb
unverzüglich von einem Server auf einen
anderen zu verschieben. Sinnvolle Kom-
binationen von Applikationen auf einem
Server dürfen aber nicht durch den Einsatz
dieser Technologie zerrissen werden.
Vielmehr muss die Planung berücksichtigen,
dass komplette Gruppierungen
dem VMotion-Prozess unterzogen werden.
Auch hier ist eine homogene Hardwarelandschaft
entscheidend.
Fehlerhafte Planung bei automatisier-
6ter Virtualisierung . Der VMware Distributed
Resource Scheduler (DRS) überwacht
die Auslastung von Ressourcen-
Pools kontinuierlich und verteilt die VMs
gerecht auf die verfügbaren Kapazitäten.
Auch bei diesen Automatismen muss die
Planung technische und betriebswirtschaftliche
Aspekte bei der Gruppierung
von Applikationen berücksichtigen.
Nichteinhalten von Policies . Feste Re-
7geln, die seit jeher für reale Server-
Landschaften gelten, etwa Sicherheitsaspekte,
dürfen in virtualisierten Umgebungen
nicht aufgebrochen werden,
sondern sind dort zwingend einzuhalten.
Der Administrator als „Super Super
8User“ . Der Administrator erhält durch
Virtualisierungsprojekte die Rolle eines
„Super Super Users“, der viele virtuelle
Maschinen im Blick haben muss. Der
geringste Fehler kann sich hier auf die
komplette Server-Landschaft auswirken.
Dies sollte mittels durchdachter Kontrollmechanismen
und Einhaltung des Vieraugenprinzips
vermieden werden.
Unterschätzen der „politischen“ Aus-
9wirkungen von Virtualisierung . D i e
Teilung von Infrastrukturen innerhalb
unterschiedlicher Fachabteilungen kann
betriebspolitische Probleme bereiten.
Hier sind klare und nachvollziehbare Abrechnungsverfahren
gefragt.
Isolierte Betrachtung der Server-
10Virtualisierung . Oft wird die Virtualisierung
der Server als „Allheilmittel“
verstanden. Sie sollte jedoch nur ein Baustein
einer ganzheitlichen Infrastruktur-
Optimierung sein und mit anderen Initiativen
wie I/O- und Storage-Konsolidierung
einhergehen.
Der Autor
Günther Aust
ist Produkt Manager für
Infrastruktur-Produkte
bei Fujitsu Siemens
Computers.
Parallels Europe
Alternativen bei der
Server-Virtualisierung
Wer von Server-Virtualisierung spricht, sollte bedenken,
dass es Alternativen gibt. Diese müssen bereits bei der Planung
berücksichtigt werden, schreibt Stefan Prestele.
Virtualisierung erfordert die sorgfältige
Planung und Projektarbeit in allen Implementierungphasen.
Wir zeigen hier
die elf wichtigsten Punkte, die Sie bei
einem Server-Virtualisierungs-Projekt
beachten sollten.
Wahl des passenden Partners. Auch
1wenn der Virtualisierungsmarkt erst
vergangenes Jahr den
großen Durchbruch erlebt
hat, sollte der mit
dem Projekt betraute
Partner Virtualisierungsprojekte
als Referenzen
vorweisen können.
Wahl der passenden
Technologie. Auf
2
dem Virtualisierungsmarkt
haben sich zwei
große Technologien
etabliert, zum einen die
Hypervisor-Technologie
(VMware, Parallels, Citrix/Xen)
und zum anderen
die Container-
Technologie (auch
OS-Virtualisierung, SWsoft, Sun). Je nach
Einsatzszenario sollte man beide Alternativen
prüfen. Die Hypervisor-Virtualisierung
zeichnet sich durch ihr breites
Spektrum an unterstützten OS aus und
sollte am besten verwendet werden, wenn
auf einem Server unterschiedliche Betriebssysteme
laufen sollen. Die Container-Technologie
wiederum erlaubt eine
höhere Auslastung und Performance des
physischen Servers und beschränkt sich
dabei bewusst auf ein Betriebssystem pro
physischem Server (beispielsweise nur
Windows 2003 oder nur Linux).
Auswahl der Betriebssysteme. Server
3 mit nicht mehr vom Hersteller unterstützten
Betriebssystemen können auf
neuer Hardware mit höherer Leistung in
der virtuellen Maschine weiterlaufen. Der
Anwendungskompatibilität wegen kann
Hypervisor oder Container: Man
sollte beides prüfen.
es sinnvoll sein, mit diesen alten Systemen
weiterzuarbeiten, dennoch sollten
Unternehmen überlegen, ob sich die Anwendungen
auf neue Betriebssystemversionen
migrieren lassen.
Serverauslastung. Virtualisierung hilft,
4 Server, die meist nur mit einer Auslastung
von etwa 15 bis 20 Prozent in
Rechenzentren (RZ)
betrieben werden, effizienter
einzusetzen.
Erhöhte Server-Auslastung
kann die Betriebskosten
(TCO) von RZ-
Ressourcen erheblich
senken. Je nach Wahl
der Lösung passen aber
nur drei oder vier virtuelle
Systeme auf einen
Server mit virtuellen
Maschinen, was die
TCO wieder erhöht.
Wahl der falschen
5
Hardware. Bei der
Hardwarewahl kann es
wichtige Restriktionen
geben. Mancher Hypervisor unterstützt
nicht jede Hardware. Die Container-Virtualisierung
ist weniger streng, man kann
sie auf fast jeder Standardhardware verwenden.
Sorgfalt gilt auch bei der Datenspeicherwahl.
Wird ein SAN benötigt,
und wenn ja, welches?
Mangelnde Performance. Der Verar-
6beitungs-Overhead von Virtualisierungslösungen
liegt bei den verschiedenen
Produkten zwischen einem und
bis zu 60 Prozent. Hat die Anwendung,
die virtualisiert werden soll, einen besonders
hohen Performance-Verlust, läuft
also in einer virtuellen Maschine besonders
langsam, sollte die OS-Virtualisierung
zum Einsatz kommen
Über- oder Unterdimensionierung der
7Server. Die Fähigkeit, die Ressourcenauslastungstrends
eines geplanten
virtuellen Servers zu beurteilen, sollte
eine der Fähigkeiten des Migrations-Tools
sein. So reicht ein System mit zwei Prozessoren
und 4 GByte RAM für die Container-Virtualisierung,
für eine Hypervisor
basierte Virtualisierung ist jedoch bei
gleicher Anzahl der virtualisierten Server
eine höhere Leistung erforderlich.
Kostenschub durch Managementauf-
8wand. Die Verwaltungskosten für das
Server-Management stellen eine bedeutende
Kostenkomponente dar. Einige
Lösungen stellen nur sehr wenige Tools
zur Verfügung, andere wiederum liefern
bereits hervorragende Managementwerkzeuge
mit. Um einen unerwarteten Kostenschub
zu vermeiden, sollten die Kosten
für diese Tools in die Planung
miteinbezogen werden.
Trennung von Applikationen. Wenn
9man ein Virtualisierungsprojekt plant,
sollte man sich über die Trennung der
Dienste und Anwendungen Gedanken
machen. Denn auch in der virtuellen Welt
gilt: Zu viele Applikationen pro Einheit
lassen Konflikte entstehen. Durch Virtualisierung
ist es sehr einfach, diese Applikationen
logisch voneinander zu trennen
und sie in verschiedenen virtuellen
Einheiten zu benutzen.
Support für geschäftskritische Ap-
10plikationen. Unternehmen sollten
genau prüfen, ob für die zu virtualisierenden
Anwendungen Support seitens
des Hersteller oder des Virtualisierungspartners
besteht. Es sollte klar sein, wer
Ansprechpartner in Support-Fällen ist.
Glücklicherweise gibt es einen klaren
Trend, dass die Hersteller ihren Service
auch für Produkte in virtuellen Umgebungen
leisten.
Ausgebildete Fachkräfte. Die Vir-
11tualisierungswelt ist bei aller Reife
noch stark im Wandel, und Hersteller
fügen ständig neue Funktionen hinzu.
Daher sollte man im eigenen Unternehmen
auf gut ausgebildetes Fachpersonal
als Betreuer der virtualisierten Server
Wert legen.
Der Autor
CP Special
Server-
Virtualisierung
Stefan Prestele
ist Director of Marketing
EMEA bei Parallels Europe
GmbH.
7
8
CP Special
CP Compact Finanzierung im
Server- Tagesgeschäft
Virtualisierung
VMware Deutschland
Zehn vermeidbare Fehler
bei der Virtualisierung
Virtualisierung ist das Top-Thema in der IT-Welt. Nur:
Wer schnell virtualisiert, kann viele Fehler machen. Wie diese
vermieden werden können, erläutert Martin Niemer.
Alles auf eine Karte setzen, überstütz-
1ter Start : Sofort alle vorhandenen Server
zu virtualisieren ist zwar ein ehrgeiziges
Ziel, führt aber selten zum Erfolg.
Besser wäre es, mit kleinen, überschaubaren
Pilotprojekten zu beginnen, wenn
das Know-how nicht vorhanden ist. Hier
wäre es angebracht, erfahrenen Consultants
die Planung zu überlassen. Im Endeffekt
gestaltet sich das günstiger als ein
unerfahrenes Step-by-Step-Vorgehen.
Fehlende Erfahrung, mangelndes
2technisches Wissen: Gerade Virtualisierung
erfordert Wissen auf unterschiedlichsten
Gebieten. SAN, Netzwerk und
Betriebssysteme seien hier nur beispielhaft
erwähnt. So verstehen etwa viele
Vieles spricht für eine virtuelle Infrastruktur,
vor allem die Verfügbarkeit der Applikationen
und die verbesserte Hardwareauslastung.
SAN-Admins die neuen Anforderungen
der Hosts an LUN-Größen oder Raid-
Konfigurationen noch nicht ausreichend
und arbeiten weiterhin mit ihren bisherigen
Erfahrungen. Unvorhergesehene
Kapazitätsengpässe sind hierbei das
kleinere Übel. Es fehlt zudem die Bereitschaft
zum Umdenken eingefleischter
Netzwerk- und SAN-Admins. Auch hier
haben erfahrene Partner die Möglichkeit,
Aufklärungsarbeit zu leisten und entsprechend
Wissen zu vermitteln.
Mangelhafte Planung von Plattenplatz
3und Speicherstruktur : Hier entstehen
bereits im Vorfeld bei falscher Planung
schwer zu korrigierende Fehler. Die Kapazitätsplanung
der Server-Hosts selbst
ist eher unkompliziert. So bieten moderne
Systeme mit Quad-Core-CPUs und
entsprechendem Arbeitsspeicher genügend
Reserven. Dagegen wird oftmals der
eigentliche Flaschenhals vergessen – die
Massenspeicheranbindung: Probleme
hier sind entweder zu kleine oder zu
große LUNs, falsche Raid-Sets und
falsches Zoning. Auch Perfomance-Engpässe
(Ursache: zum Beispiel viele VMs
über den gleichen Pfad und auf der gleichen
LUN) machen dem Vorhaben Virtualisierung
schnell ein Ende. Die Lösung
liegt auf der Hand: Genaue Planung im
Vorfeld hilft Engpässe zu erkennen.
Virtueller Wildwuchs : Jeder darf VMs
4erstellen? Diese Einstellung führt
schnell zum Kollaps; ebenso die unkoordinierte
Erstellung einer „Testumgebung
zwischendurch“. Wer nach dem Motto
handelt, jederzeit neue Server für jeden
einzelnen Dienst aufzusetzen, stößt an
unüberwindbare Grenzen. Zu viele VMs
führen ferner zu erschwerter Verwaltung
– konträr zur eigentlichen Bestimmung
virtueller Systeme. Dazu kommt, dass
Patch-Stände und Historie der VMs bzw.
Clone-Generationen nicht mehr nachvollziehbar
sind. Die Lösung hierbei sind
gute zentrale Verwaltungs-Tools.
Lizenzfragen : Eng mit obigem Punkt
5„virtueller Wildwuchs“ ist auch die
Frage nach der Lizenz der virtuellen Systeme
und der Applikationen verbunden.
Für jede VM eine Lizenz bedeutet im
Umkehrschluss steigende Kosten bei parallel
wachsender Zahl von VMs. Genaue
Betrachtung von OS-Lizenzmodellen ist
hier oberstes Gebot. So kann zum Beispiel
ein Einsatz der Windows 2003 Datacenter
Edition interessant sein, weil
beliebig viele OS-Instanzen auf einem
virtuellen Server erlaubt sind.
Verwaltung und Überwachung: Über-
6wachung ist genauso wichtig wie bei
physikalischen Rechnern. Neben CPU-
Auslastung und Hauptspeicherbedarf
sind volllaufende Platten in den VMs und
den LUNs im SAN häufigste Fehlerursachen.
Eine steigende Anzahl VMs verschärft
das Problem. Überwachen Sie
Performance und Patch-Zustand!
Zu geringe Absicherung des Risikos :.
7Oftmals laufen zu viele Systeme und
Dienste auf wenigen Servern, der Ausfall
einer Komponente hat größere Folgen als
angenommen. Daher sollten Verantwortliche
die Konzepte für Redundanz und
Desaster Recovery sowie Sicherheit überdenken.
Hier bietet Virtualisierung eine
große Chance, weil sie den Desaster-Recovery-Prozess
deutlich vereinfacht gegenüber
der physikalischen Welt. Auch
hier ist die Zusammenarbeit mit einem
guten Consulting-Partner wichtig.
Zu wenig an die Redundanz gedacht :
8Über mindestens vier Netzwerkkarten-Ports
und zwei HBA-Ports sollte ein
ESX-Host verfügen. Kommen abgeschottete
Umgebungen, etwa eine DMZ, hinzu,
dann erhöht sich zwingend der Bedarf;
ebenso die Zahl der Switches etc.
Akzeptanzfragen : Vor allem in größe-
9ren Umgebungen sollte die Akzeptanz
der neuen Infrastruktur in den Abteilungen
garantiert werden, denn Virtualisierung
führt zu größeren Umwälzungen
der gewohnten Struktur. Bisher isolierte
Inseln werden mit anderen Lösungen auf
die gleichen Server konsolidiert, das erfordert
Bereitschaft zum Umdenken und
Dazulernen. Hinzu kommt, dass durch
die neue Schicht plötzlich neue Verantwortliche
für die Basistechnik da sind.
Falscher Partner : Nur zertifizierte
10Partner verfügen über das nötige
Know-how. Andernfalls kann bei einem
Projekte aus dem anvisierten Budget
schnell ein Vielfaches werden oder der
gewünschte Effekt gänzlich ausbleiben.
Der Autor
Martin Niemer
ist Senior Product
Marketing Manager bei
VMware Deutschland.
In allen Unternehmen gehört die Hochverfügbarkeit
der IT-Systeme und damit der
Daten und Anwendungen mittlerweile zu
den wichtigsten Sicherheitsaufgaben. Große
Organisationen wissen um die Relevanz permanent
verfügbarer Informationssysteme
und stellen dafür oft hohe Mittel zur Verfügung.
Anders sieht es da im Mittelstand aus:
Zwar ist man sich dort ebenfalls der Notwendigkeit
ständig zugreifbarer Daten bewusst,
doch fehlt es häufi g nicht nur an fi nanziellen
Mitteln, sondern auch am Personal. Deshalb
müssen gerade beim Einsatz in kleineren
und mittleren Unternehmen die IT-Anlagen
so konzipiert sein, dass sie möglichst automatisch
arbeiten oder zumindest leicht zu
bedienen sind.
Wer bisher Hochverfügbarkeit wollte, konnte
das meist nur für die wichtigsten Serverdienste
realisieren und musste dabei den
Weg des Clusters gehen. Hier erhält jeder
einzelne Server seinen eigenen Ersatzserver,
der im Ernstfall die Funktion des ausgefallenen
Systems übernimmt. Der Preis für
diese 1:1-Verfügbarkeit sind Investitionen
in eine redundante Hardware sowie höhere
Ausgaben für Lizenzen und für die Administration
der Systeme.
Wie viel Verfügbarkeit braucht nun aber ein
mittelständisches Unternehmen wirklich?
Sind wirklich die viel zitierten 99,999 Prozent
oder ein traditioneller Cluster mit 99,99 Prozent
notwendig? Oder ist es ausreichend,
wenn die produktiven Systeme zwar nicht innerhalb
von Sekunden, aber innerhalb von 2
bis 5 Minuten nach einem Systemausfall wieder
zur Verfügung stehen? Für die meisten
Mittelständler wird wohl letzteres zutreffen.
Damit stellt sich die Frage, ob und wie sich
auch ohne eine aufwändige Clusterlösung
eine für den Mittelstand sinnvolle Kontinuität
des Geschäftsbetriebs herstellen lässt.
Fujitsu Siemens Computers hat mit x10sure
eine Lösung entwickelt, die auf dem N:1-
Prinzip aufbaut, was bedeutet, dass ein
einziger Ersatzserver für alle Produktivsysteme
ausreicht. Die Software, die auf einem
eigenen physikalischen oder virtuellen Ser-
ver läuft, eignet sich für Betriebe ab fünf
Windows-basierten Servern, auf denen alle
Microsoft Standard- und auch eigenentwickelte
-Anwendungen ohne Modifi kation betrieben
werden können.
Wie Verfügbarkeit funktioniert
Im Unterschied zu herkömmlichen Servern
sind in einer x10sure-Umgebung die Betriebssysteme
und Anwendungen nicht auf
den Festplatten der jeweiligen Geräte installiert,
sondern befi nden sich als Image im
SAN-Speicherpool. Die Software überwacht
die ihr zugeordneten Server rund um die Uhr
und kontrolliert ihre Verfügbarkeit mit entsprechenden
Mechanismen. Erkennt das System,
dass ein Server ausgefallen ist, dann schaltet
es diesen Server automatisch ab. Damit
werden mögliche Probleme im Netzwerk
verhindert. Erst danach ordnet x10sure dem
Ersatzserver die Logical Unit Number des
ausgefallenen Systems zu und dieser bootet
mit dem Image des ausgefallenen Servers,
das sich auf dem SAN-Speicher befi ndet. Es
wird also lediglich die Hardware „gewechselt“,
während die Software identisch bleibt.
ANZEIGE
Es muss nicht immer Cluster sein
x10sure - Hochverfügbarkeit ist auch
für den Mittelstand machbar
Der gesamte Prozess kann komplett automatisch,
das heißt ohne Eingriff eines Operators
durchgeführt werden. Ein weiterer Vorteil
ist, dass sich auch virtualisierte Server in das
Konzept einbinden lassen und sich auch der
Storage clustern lässt.
Wie lange es dauert, bis ein Server ersetzt
ist, hängt einerseits davon ab, mit welcher
Frequenz die Überwachungsmechanismen
arbeiten. Je häufi ger die Verfügbarkeit abgefragt
wird, desto schneller wird ein Ausfall
erkannt. Ein anderer Faktor ist die Boot-Geschwindigkeit
des Ersatzsystems. Für die
meisten Fälle gilt, dass sich eine vollständige
und automatische Funktionsübernahme
durch den Ersatzserver innerhalb von 5 Minuten
bewerkstelligen lässt.
Gegenüber klassischen Hochverfügbarkeitseinrichtungen
fallen die Investitions- und
Betriebskosten der einfach zu implementierenden
Out-of-the-box-Lösung deutlich
geringer aus. Als automatischer Trouble-
Shooter konzipiert, benötigt das Tool darüber
hinaus keine weiteren manuellen Eingriffe
mehr. Damit ist es für den Einsatz in kleinen
und mittelständischen Unternehmen prädestiniert.
Die Initiative Mittelstand honorierte
das Konzept von x10sure und zeichnete es
kürzlich mit dem Innovationspreis 2007 aus.
Autorin: Corina Laudenbach,
Manager Marketing
Server und Solutions
Deutschland, Fujitsu Siemens
Computers
10
CP Special
CP Compact Finanzierung im
Tagesgeschäft
Storage
Adaptec Deutschland
Die zehn wichtigsten Tipps
zum Thema Storage Area
Stellt man isolierte Speicher im Innern einzelner Server zu
einem Speicherplatz in einer iSCSI-Speicheranwendung um,
ergeben sich klare Vorteile, schreibt Jürgen Frick*.
Was sind die Vorteile der Installation
1eines SAN (Storage Area Network)?
In einem SAN befinden sich die Festplatten
nicht in einzelnen Servern, sie sind
stattdessen in einem dedizierten Speichersystem
untergebracht. Die Vorteile:
Höhere Leistung: Die Daten im Speichersystem
werden über mehrere Festplatten
verteilt, auf sie kann jeweils parallel
zugriffen werden
Höhere Zuverlässigkeit: Die Festplatten
sind in Raid-Gruppen konfiguriert; so
kann beim Ausfall einer Festplatte der
Betrieb normal fortgesetzt werden.
Flexible Speicherkapazität: Sie ist nicht
auf einen einzelnen Server begrenzt und
kann jederzeit flexibel zugewiesen bzw.
für Server reserviert werden.
Ethernet und Fibre Channel im Ver-
2gleich : Viele Unternehmen installieren
bereits seit Jahren SANs in Fibre-
Channel-Netzwerke – dies war/ist jedoch
eine kostspielige Angelegenheit (teure
Host-Bus-Adapter (HBAs), Switches und
optische Kabel). Viele Unternehmen implementieren
das SAN heutzutage deshalb
mit der Ethernet-Technologie. Dabei
kann auf bereits vorhandene Anschlüsse
oder Switche zurückgegriffen werden.
Software- und Hardware-iSCSI-Initi-
3atoren im Vergleich : Der Server greift
über einen iSCSI-Initiator auf das iSCSI-
Speichersystem zu. Der iSCSI-Initiator
kann entweder ein Hardware- oder ein
Software-Initiator sein. Wenn der Server
mit einem langsamen Singlecore-Hauptprozessor
arbeitet, empfehlen sich dedizierte
iSCSI-Hardware-HBAs. Der TCP/
IP- und der iSCSI-Software-Stack laufen
dann direkt auf dieser dedizierten Hardware
ab; die CPU wird damit entlastet.
Bei den meisten modernen Servern mit
einer Multicore-CPU ist ein iSCSI-HBA
jedoch nicht erforderlich. Diese CPUs
haben meistens genügend „Headroom“,
sodass sie in der Regel zwei iSCSI-Soft-
ware-Initiatoren ohne Performance-Verlust
bedienen können.
Corporate LAN und Storage Area Net-
4work im Vergleich: Sie sollten immer
darauf achten, dass das SAN ein dediziertes
Netzwerk ist, über das die Server
zu ihren iSCSI-Speichersystemen gelangen.
Anderer Datenverkehr sollte nicht
zulässig sein. Die Server müssen Mitglieder
zweier primärer Netzwerke sein.
Einige ihrer Ethernet-Anschlüsse sind mit
dem SAN verbunden, andere Anschlüsse
sind aber mit dem Corporate LAN verbunden,
sodass Client-Computer und andere
Server darauf zugreifen können.
SAS und SATA im Vergleich : SAS-Lauf-
5werke sollten für geschäftskritische
Anwendungen eingesetzt werden, da sie
die höchste Stufe der Zuverlässigkeit sowie
große Leistungsvorteile haben. Eine iSCSI-
Speicheranwendung mit SAS-Laufwerken
kann zwei bis drei Mal die Leistung liefern
wie die gleiche Anwendung mit SATA-
Laufwerken. SAS-Laufwerke haben jedoch
eine niedrigere Kapazität und sind pro TB
teurer als SATA-Laufwerke. Optimal ist ein
iSCSI-Speichersystem, an das Sie sowohl
SAS- als auch SATA-Laufwerke anschließen
können.
Welche Rolle spielt die Skalierbarkeit?
6Für kleinere Umgebungen eignet sich
ein iSCSI-Speicher-Array mit nur wenigen
Laufwerken. Es sollte am besten per
Erweiterungsgehäuse ausbaubar sein, da
die Anforderungen an die Speicherkapazität
in Unternehmen normalerweise pro
Jahr um 80 Prozent steigen.
Schutz vor dem Ausfall durch „Single
7Point of Failure“ . Erwägen Sie das
Ausführen Ihrer geschäftskritischen Anwendungen
auf einem Server-Cluster mit
redundanten iSCSI-Netzwerk-Switches,
damit kein Ausfall durch „Single Point of
Failure“-Versagen einer einzelnen Hardwarekomponente
auftreten kann. Fällt
ein Switch oder ein Netzwerkkabel aus,
sorgt der iSCSI-Initiator im Zusammenspiel
mit dem iSCSI-Speichersystem für
eine reibungslose I/O Path Failover. Fällt
ein Server komplett aus, sorgt das Clustering
für die ununterbrochene Datenverfügbarkeit.
Was sind transportable VSS-Snap-
8 shots? Der Volume Shadow Copy Service
(VSS) ist ein Snapshot-Dienst, der in
den Microsoft Windows 2003 Server integriert
ist. Damit kann ein Anwendungsserver
mit der maximalen Präzision
geschützt werden. Snapshots sind anwendungskonsistenteWiederherstellungspunkte,
die für einige Stunden oder Tage
auf dem iSCSI-Speichersystem gespeichert
oder durch eine Replikations- oder
Datensicherungssoftware für das langfristige
Archivieren an einem sicheren
Ort gelagert werden können. Man sollte
in Microsoft-Umgebungen darauf achten,
dass das iSCSI-Speichersystem auch VSSfähig
ist, sodass Snapshots eine hundertprozentige
Konsistenz mit Microsoft SQL
und Exchange haben und auch ausgelagert
werden können.
Was bedeutet Booten vom SAN? Lauf-
9werke, die auf einzelne Server begrenzt
sind, liefern niedrige Leistungen,
sind oft nicht vor Ausfällen geschützt,
vergeuden Festplattenkapazität und Geld
und sind schwieriger zu verwalten. Nachdem
die Server mit dem iSCSI- Speichersystem
verbunden sind, können Server
festplattenfrei davon booten. Die Server
selbst brauchen dann keine Festplatten
zu enthalten.
Achtung – kostspielige zusätzliche
10Software! Bei der Anschaffung
eines iSCSI-Speichersystems sollten Sie
die Kosten für die Basiseinheit, das Erweiterungsgehäuse
und die Laufwerke
berücksichtigen. Einige Anbieter berechnen
jedoch auch hohe Gebühren für die
Snapshot-Funktion, die Software für Multipath
I/O Failover, die Spiegelungssoftware
mit hoher Verfügbarkeit oder die
Software, die für die Datensicherung der
Anwendung benötigt wird.
Der Autor
Jürgen Frick
ist Product Marketing
Manager EMEA bei
Adaptec Deutschland.
NetApp Deutschland
Wie man acht
SAN-Fehler behebt
Firmen, die ihre Storage-Probleme in den Griff
bekommen wollen, sollten genau planen. Sonst machen sie
kapitale und kostspielige Fehler, schreibt Peter Wüst.
Nichts dokumentieren . Dokumenta-
1tion ist von entscheidender Bedeutung,
da sie als aktuelle und künftige
Referenz für alle dient, die den SAN-Server
administrieren und eines Tages rekonfigurieren.
Zwei Punkte sind wichtig:
1. Ein Diagramm der logischen und physischen
Server-Konfiguration. 2. Die Beschreibung
getesteter Ausfallszenarien,
inklusive Ergebnisse und Korrekturmaßnahmen.
Standards vermeiden . Weitgehende
2Einheitlichkeit und möglichst wenig
Hersteller- und Komponentenvielfalt erleichtern
den täglichen Betrieb bis hin
zum Upgrade. Pro Betriebssystem empfiehlt
es sich daher, sich auf einen HBA-
Anbieter, einen Kartentyp, ein Modell
und einen HBA-Treiber festzulegen.
LUNs und Volumes falsch bemessen .
3Die Bemessung der Kapazitäten ist
hoch spekulativ und damit ein kritischer
Punkt. Wer sich hier irrt, ist ständig mit
der Anpassung nach oben beschäftigt
Eine proprietäre Storage-Umgebung
ist eine kostspielige Einbahnstraße.
oder muss ungenutzte Kapazitäten in
Kauf nehmen. SAN-Storage sollte folglich
mit Möglichkeiten der virtuellen Provisionierung
– Stichwort Thin Provisioning,
– kombinierbar sein, um der Ressourcenfalle
zu entgehen.
Mangelnde Integration. Ohne Integra-
4tion des Storage in die jeweiligen Betriebssysteme
der Umgebung wird das
Management aufwendig. Dies gilt besonders
für das Erweitern von LUNs ohne
Performance-Effekte und im laufenden
Betrieb. In Windows-Umgebungen muss
dies ohne Vergabe eines neuen Laufwerksbuchstaben
möglich sein.
Die falsche Performance wählen .
54 Gbit/s ist heute der Standard für
Fibre-Channel-SANs. Weniger Ports und
die schnellere Kommunikation zwischen
Server und Storage sprechen ebenso dafür
wie die Eignung für sequentielle I/O-
Anwendungen mit großen Datenblöcken.
Keine Zoning-Strategie haben . Zoning
6ist nach Initiator/Target die am häufigsten
verwendete Methode. Jede Zone
enthält einen Initiator-WWN und einen
oder mehrere Target-WWNs. Man sollte
immer Aliases verwenden, um den Geräten
in der Fabric sinnvolle Namen zu-
zuweisen. Es ist wesentlich einfacher, ein
Gerät anhand seines Namens zu identifizieren
als anhand des WWN. Aliases,
Zone und Zoneset Naming sowie Content
erfordern eine sorgfältige Planung, anderenfalls
werden Zusammenlegungen
komplexer als nötig.
Auf technische Einbahnstraßen set-
7zen . Proprietäre Technik, nur ein Plattentyp
oder Single-Protokoll-Unterstützung
entsprechen nicht dem Stand der
aktuellen Möglichkeiten. Ein offener Systemansatz,
Mischbetrieb von FC-, SATAoder
SAS-Platten und Multi-Protokoll-
Unterstützung auf einer Plattform sind
Eigenschaften, die für Flexibilität und
Zukunftssicherheit stehen.
Ein offener Systemansatz, Mischbetrieb von FC-, SATA- oder SAS-Platten und
Multi-Protokoll-Unterstützung ermöglichten Unified Storage.
Auf Snapshots verzichten . Keine Back-
8up-Methode ist effizienter als Snapshots.
Direkt auf dem Storage-Server
ausgeführt sind sie die schnellste Rückversicherung
gegen Datenverlust. Es
empfiehlt sich eine speicherplatzoptimierte
Implementierung, sodass von der
Gesamtkapazität möglichst wenig als
Snapshot-Reserve vorgehalten werden
muss.
Der Autor
CP Special
Storage
Peter Wüst
ist Director Systems
Engineering bei NetApp
Deutschland.
11
12
CP Special
CP Compact Finanzierung im
Tagesgeschäft
Storage
Magirus Deutschland
Storage-Virtualisierung –
Tipps und Tricks
Storage-Systeme zu virtualisieren ist à la mode. Das nützt
aber nichts, wenn nicht eine genaue Planung garantiert, dass
der Betrieb schmerzfrei läuft, schreibt Rainer Bretzel.
B e i d e r Virtualis i erung von Storage-Systemen
wird ein Großteil aller Fehler bereits
in der Beratungs- und Planungsphase
begangen. Diese Fehler kommen
jedoch erst viel später zum Tragen und
verzögern die Implementierung oder Online-Schaltung
beziehungsweise den reibungslosen
Betrieb der Systeme.
Der erste Fehler
lässt sich bei der
Beratung des
Kunden durch genaues
Erfragen
und Definieren
der Anforderungen
und Funktionen
des zukünftigen
Systems
vermeiden. Ein
typisches Missver-
ständnis zwischen
Berater und Endkunde
ist beispielsweise
die
Funktionsweise
von Alternate Pathing/Multipathing.
Dies wird von Endkunden oft so
verstanden, dass der Applikations-Server
unterbrechungsfrei von einem Storage-
System auf das andere umschalten kann.
Dem Kunden ist dabei meist nicht bewusst,
dass bei Produkten bestimmter
Hersteller eine gewisse Umschaltzeit
entsteht, da ein Script oder sogar ein händisches
Eingreifen notwendig ist und es
hierdurch zu Ausfallzeiten kommt.
D e r z w e i t e Fe hler, der oft schon während
der Beratung und Planung auftritt,
ist, dass der Kunde nicht nach seinen
benötigten I/O Performance-Werten gefragt
wird. Diese sind für die richtige
Dimensionierung des Storage-Servers
notwendig. Das Sizing der benötigten
Komponenten (FC- und Netzwerkkarten
bzw. RAM) im Storage-Server wird aus
1:1 Zoning:
Der etwas größere Aufwand
hat den Vorteil, dass
sich die Applikations-Server nicht
gegenseitig stören können.
Kostengründen häufig am unteren Limit
vorgenommen. Ein Storage-Server sollte
jedoch so dimensioniert sein, dass für
den Desaster-Fall ein Server die Last abfangen
kann.
Fehler Nummer drei ist, dass die Migration
der Bestandsdaten auf das virtualisierte
Storage-System übergangen oder
mit dem Kunden
unzureichend
besprochen wird.
Dies führt zu
Verzögerungen
bei der Inbetriebnahme.
Ein vierter,
häufig vorkommender
Fehler:
Bei der Beratung
des Kunden wird
zwar über die
Backup und Desaster
Recovery
Möglichkeiten
gesprochen,
dann aber vergessen,
dies in
Einklang mit dem bestehenden Konzept
zu bringen.
Fe h l e n d e Rücksprache mit den Herstellern
oder mangelnde Durchsicht der
HCL (Hardware Compatibility List) ist
der fünfte häufige Fehler. Dies ist aber
unbedingt notwendig, da bestimmte Storage-Systeme
einen eigenen Treiber auf
dem Storage-Server benötigen, um korrekt
angesprochen zu werden. Es gibt
aber Storage-Server, auf denen nur ein
bestimmter oder einzelner Treiber zur
Kommunikation mit dem Storage-System
eingesetzt werden darf oder kann. Dies
muss man vorweg abklären.
Der sechste Fehler betrifft die Planung
des gesamten Projektes. Ein entsprechendes
Konzept für das Projekt wird
häufig vergessen oder aus Kostengründen
erst gar nicht erstellt. In diesem Konzept
sollten alle wichtigen Fakten und Funktionen
des Storage-Virtualisierungs-Systems
beschrieben sein. Des Weiteren
müssen alle Kennzahlen der zu migrierenden
Daten, ein Netzwerkdiagramm,
eine Checkliste mit allen Systemdaten
(Versionen- und Firmware-Stände) und
ein Zeitplan enthalten sein.
B e i der Installation der Systeme und
Komponenten tritt oftmals Fehler Nummer
sieben in Erscheinung: Das Zoning
der FC-Switch-Umgebung sollte so eingerichtet
werden, dass die Application-
Server sich nicht gegenseitig behindern
können. Aus diesem Grund wäre ein 1:1-
Zoning zu favorisieren. Dies ist bei der
Einrichtung zwar ein etwas größerer Aufwand,
hat aber den Vorteil, dass die Applications-Server
sich nicht gegenseitig
stören können.
Der achte Fehler, der ebenfalls sehr
häufig bei der Implementierung begangen
wird, ist das unzureichende Testen,
bevor das System online geschaltet wird,
und die mangelnde Dokumentation.
Diese Dokumentation muss so umfangreich
gestaltet und auch aktuell gehalten
werden, dass eine einwandfreie Rekonstruktion
der Systeme im Falle einer Störung
möglich ist.
Auch bei der Wartung der Systeme werden
oft Fehler gemacht: Überwachung
und Wartung der Systeme werden meistens
nicht so betrieben, wie es notwendig
wäre. Solche Systeme haben eine unternehmenskritische
Funktion und bedürfen
somit einer konstanten Überwachung
und Pflege. Hierzu gehört auch ein regelmäßiger
Test der Desaster-Strategie
und der Funktion. Dieser Test wird – Fehler
Nummer neun – sehr oft aus Zeitgründen,
da die Systeme eine HA-Funktion
(highly available) haben, nicht
regelmäßig durchgeführt.
Last but not least ist die unzureichende
Schulung der Administratoren ein Fehler,
auf den viele Probleme in diesem Umfeld
zurückzuführen sind.
Der Autor
Rainer Bretzel
ist Consultant bei Magirus
Deutschland.
In Zusammenarbeit mit:
TERRA Rechenzentrum –
Die Hochverfügbarkeits-Lösung
für den Mittelstand.
Hardware
VM
VM
ESX
Diese Lösung stellt Ihnen zwei Hochverfügbare-ESX-Server und ein virtuelles,
synchron gespiegeltes iSCSI SAN zur Verfügung. Die Virtualisierung und Spie-
gelung des Storage wird über zwei DataCore SANmelody VMware Instanzen
realisiert. Das Hochverfügbare iSCSI SAN beschleunigt den Datendurchsatz
auf bis zu 80MB/s.
Virtuell
synchron gespiegeltes
iSCSI SAN
VM
Microsoft ®
Windows ®
2003 Server
Datacore
SANmelody
Qualität und Service aus Deutschland.
Die richtige Entscheidung.
Weitere Informationen erhalten Sie unter:
Internet: www.wortmann.de
Raiko Mesterheide VCP/DCIE
Telefon: 05744/944-170
VM
Hardware
ESX
Microsoft ®
Windows ®
2003 Server
Datacore
SANmelody
VM
VM
*Preisangabe in EURO, netto ohne MwSt.. Ab Lager Hüllhorst. Technische Änderungen und Irrtümer vorbehalten. Celeron, Centrino, Centrino logo, Intel, Intel logo, Intel Core, Intel Inside,
Intel Inside logo, Intel. Leap ahead., Intel. Leap ahead. logo, Intel Viiv, Intel vPro, Itanium, Itanium Inside, Pentium, Pentium Inside, Xeon, and Xeon Inside are trademarks of Intel Corporation
in the U.S. and other countries.
14
CP Special
CP Compact Finanzierung im
Tagesgeschäft
Blades
Hewlett-Packard Deutschland
Sieben überflüssige Fehler
bei Blade-Servern
Die Vorzüge von Blades sind bekannt. Unternehmen, die ihre IT
auf eine Blade-Umgebung konsolidieren, sollten jedoch einige
Grundregeln beachten, schreibt Carsten Unnerstall.
Der Kardinalfehler ist es, Blades als
1reine Server-Lösung zu betrachten.
Denn mittlerweile stehen für das Blade
Computing komplett integrierte Infrastrukturen
zur Verfügung, die es Unternehmen
ermöglichen, Server- und Storage-Blades
in einem Gehäuse beliebig
zu kombinieren.
Ein weiterer Fehler steht damit in di-
2rektem Zusammenhang. Administratoren
nutzen häufig nicht die Möglichkeiten,
die ein Blade Enclosure für das
zentrale, automatisierte und einheitliche
Management aller Blade-Komponenten
eröffnet. Dazu gehören zum Beispiel
auch Meldungen, die bereits im Vorfeld
von Störungen eingehen.
Hier die Server, dort Storage Area Net-
3work (SAN) und Netzwerk (LAN) – das
Silo-Denken ist bei den Administratoren
noch weit verbreitet. Abhilfe schaffen hier
moderne Architekturen wie „Virtual Connect“
von HP, die eine virtuelle Verkabe-
lung im Blade Enclosure ermöglichen,
indem sie die Server-Umgebung über
eine virtuelle Ebene mit dem LAN und
dem SAN verbinden. Dies hat den Vorteil,
dass jeder Server-Einschub vor der Erstinstallation
nur einmal verkabelt werden
muss. Soll später beispielsweise ein Blade
Server ersetzt oder hinzugefügt wer-
Denken Sie daran, die Server-Umgebung über eine virtuelle Ebene
mit dem LAN und dem SAN zu verbinden.
den, entfällt dadurch die bislang nötige
und aufwendige Koordination zwischen
den Storage-, Netzwerk- und Server-Administratoren.
Dies schlägt auch auf der
Kostenseite positiv zu Buche. Dank der
„Virtual Connect“-Architektur wird der
Aufwand für die Verkabelung um bis zu
94 Prozent reduziert. Zudem kommt die
Infrastruktur insgesamt mit weniger
Switch-Ports aus, sodass auch hier weniger
Kosten anfallen. Bislang verzichten
allerdings viele Unternehmen bei der
Anschaffung auf eine Betrachtung der
Gesamtkosten – ein Fehler, denn hier
verbirgt sich enormes Einsparpotenzial.
Blade-Umgebungen bilden eine idea-
4le Ausgangsbasis für die Virtualisierung
sowohl der Rechenleistung der
Blade Server als auch der Speicher-, Netzwerk-
und Stromversorgungskomponenten.
Allerdings versäumen es viele
Unternehmen, eine entsprechende Virtualisierungsstrategie
zu entwickeln und
daraus einen konkreten Fahrplan für Virtualisierungsprojekte
abzuleiten.
Ein vernünftiges Konzept inklusive
5der dazugehörenden Lösung fehlt oft
auch beim Backup. Denn mehrfach redundant
ausgelegte Komponenten sorgen
zum Beispiel bei einer Blade-Lösung wie
dem HP BladeSystem „c-Class“ für hohe
Verfügbarkeit. Diese verpufft jedoch,
wenn die Daten nicht konsequent gesichert
werden. Als Backup-Systeme eignen
sich hier Storage-Blades, die neben einer
integrierten Datensicherung Funktionen
für das File Serving (Network-attached
Storage, NAS) und iSCSI-basierte Storage-SAN-Funktionen
bieten. Zudem gibt
es mittlerweile auch Tape-Blades.
Viele Unternehmen machen außer-
6dem den Fehler, dass sie zwar eine
hochverfügbare Umgebung implementiert,
jedoch nicht die dazugehörigen
Services mit eingekauft haben, die die
Verfügbarkeit geschäftskritischer Anwendungen
garantieren.
Als Stolperstein kann sich auch die
7Größe der Blade-Umgebung erweisen
– insbesondere im Zusammenhang mit
der Kühlleistung des Rechenzentrums.
Im Vergleich zu herkömmlichen Servern
benötigt zum Beispiel das HP BladeSystem
c-Class zwar um rund 40 Prozent
weniger Strom. Allerdings ermöglicht der
kleine Formfaktor auch eine deutliche
Steigerung der Server- und Storage-Dichte
im Rack. Dies gilt es beim Sizing der
Kühlung und Klimatisierung zu berücksichtigen.
Fazit: Erst wenn Unternehmen beim
Einsatz von Blades diese Fallen vermeiden,
können sie die Vorteile dieses Formfaktors
voll ausschöpfen.
.
Der Autor
Carsten Unnerstall
ist Business Manager
HP BladeSystem
bei Hewlett-Packard
Deutschland.
IBM Deutschland
Server-Konsolidierung –
eine überdachte Wahl
Geht es um die IT-Optimierung, steht Server-Konsolidierung
ganz oben. Um dabei nichts falsch zu machen, sollten folgende
Fehler nicht gemacht werden, schreibt Christoph Krafft.
Vermeiden Sie einen Schnellschuss!
1Nehmen Sie sich die Zeit, für die richtige
Wahl einer geeigneten Zielarchitektur.
Als Grundlage einer Entscheidung
kann ein Proof of Concept mit dem Hersteller
Ihrer Wahl sinnvoll sein.
Nicht abschätzen, lieber messen! Es
2kommt vor, dass Unternehmen im
Rahmen einer Server-Konsolidierung zunächst
die tatsächliche Auslastung ihrer
Systeme abschätzen wollen. Die Praxis
zeigt, dass häufig die benutzte Kapazität
überschätzt wird
Virtualisierung ist nicht gleich Virtu-
3alisierung! Achten Sie besonders auf
die vom Hersteller angebotenen Virtualisierungskonzepte.
Ein entscheidendes
Kriterium ist deren Flexibilität.
Scale Out ist nicht die Lösung für alle
4Probleme! Die Idee hinter der Virtualisierung
ist die effiziente Nutzung von
Systemressourcen, das heißt, wenige
große leistungsstarke Server ermöglichen
in der Regel eine effizientere Konsolidierung
als viele kleinere Systeme. Die gewählte
Architektur muss den Wachstumsansprüchen
ihres Unternehmens
Rechnung tragen.
Nicht unnötig an der alten Architektur
5festhalten! Technisch ausgereifte Konzepte
der Server-Virtualisierung bieten
neue Möglichkeiten. Zum Beispiel ist die
gemeinsame Nutzung von Prozessoren
innerhalb eines Servers durch virtuelle
Instanzen ein wichtiges Merkmal der
Differenzierung.
Vermeiden Sie die Begegnung mit
6dem Bumerang! Bevor Sie sich für
eine Zielarchitektur entscheiden, sollten
Sie ihre Softwareprodukte auf Verträglichkeit
mit der angestrebten Lösung
untersuchen.
Verlieren Sie sich nicht in der Kom-
7plexität! Das Sprichwort „Keep it simple“
gilt insbesondere bei der Entwicklung
der Zielarchitektur im Rahmen
einer Server-Konsolidierung. Nicht jedes
technische Feature muss zwingend genutzt
werden
Vernachlässigen Sie nicht die Wart-
8barkeit Ihrer Umgebung! Downtime
ist teuer und für viele Unternehmen inakzeptabel.
Deswegen sollte bei der Wahl
der Plattform beachtet werden, dass der
Hersteller ihre Bedürfnisse bezüglich
Zuverlässigkeit (Reliability), Verfügbarkeit
(Availability) und Wartbarkeit (Serviceability)
erfüllt.
Virtualisierung schützt Sie nicht vor
9dem Ausarbeiten von Failover-Konzepten!
Im Rahmen von Server-Konsolidierung
im Zusammenspiel mit Virtualisierung
stellt sich auch immer die Frage,
wie bestehende Failover-Konzepte auf die
neue Architektur umgesetzt werden können
Aufwände bitte nicht realitätsfremd
10kalkulieren! Eine Server-Konsolidierung
ist oft ein komplexes und zeitaufwendiges
Projekt. Es muss eine Ana-
lyse der bestehenden Landschaft
durchgeführt werden, eine geeignete
Zielplattform und -architektur identifiziert
werden und anschließend die Konsolidierung
durchgeführt werden. Bei der
Kapazitätsplanung der Zielarchitektur
sollte beachtet werden, dass diese zukünftigen
Wachstumstendenzen der IT-Landschaft
gerecht wird.
Resümee : Ob ein Server-Konsolidierungsprojekt
erfolgreich verläuft, hängt
von mehreren Faktoren ab. Eine Schlüsselrolle
spielt die Auswahl der optimalen
Technologie. IBM hat vor rund 40 Jahren
in Form der Großrechner-Virtualisierungskonzepte
entwickelt und kontinuierlich
weiter verfeinert.
Mittlerweile bieten fast alle gängigen
Server-Plattformen eine Form der Virtualisierung
an. Deutliche Unterschiede
Projektablauf einer Server-Konsolidierung – im besten Fall ...
bestehen in der Art und Weise, wie die
Virtualisierung innerhalb einer Server-
Familie implementiert ist. Eine optimale
Lösung bieten Technologien, die eng mit
der Hardware in Form einer Firmware
bzw. Microcode (Hypervisor) verzahnt
sind.
Der Autor
Christoph Krafft
ist IT-Spezialist bei
IBM Deutschland.
CP Special
Server-
Management
15
16
CP Special
CP Compact Finanzierung im
Server- Tagesgeschäft
Management
Novell Deutschland
Neun Fehler beim
Server-Management
Unternehmen, die ihre IT-Ressourcen genau betrachten
wollen, müssen ein Server-Management erwägen. Welche
Fallstricke auf sie warten, beschreibt Oliver vorm Walde.
Manuelle oder halbautomatisierte Ver-
1fahren . – Halbherzige Ansätze bringen
keine Kostenreduktion, sondern
mehr Aufwand. Nur mit vollautomatisierten
Prozessen kann das Problem Komplexität
angegangen werden.
Ich baue mir mein Server-Manage-
2ment selbst . – Mitarbeiter, die glauben,
sie seien bezüglich der Einführung
von Server-Management handwerklich
begabt, verlassen hoffentlich nie Ihr Unternehmen.
Eines der großen Systems Manage-
3ment Frameworks macht es schon . –
Große Lösungen bieten alle Funktionalitäten,
aber die Implementierung in die
Praxis erweist sich als langwierig bis un-
umsetzbar. Außerdem: Was für ein Großunternehmen
die richtige Lösung ist,
erweist sich nicht immer als richtige Entscheidung
für den Mittelstand.
Komplexität unterschätzen . – Der
4Single-Vendor-Ansatz unterschlägt
notwendigerweise den Aspekt der zukünftigen
Entwicklung. Nur die Einbindung
aller Ressourcen führt zu einer
vollautomatisierten Verwaltung.
Eine Datenbank für alle Informati-
5onen . – Diese Herangehensweise setzt
hohe Implementierungskosten voraus
und benötigt langeEinführungszeiten.
Verteilte
Datenquellen
und standarisierte
Schnittstellen
ermöglichen
eine flexible Herangehensweise
und eine stufenweise Einführung.
Zu viele Infrastruktur-Informationen
6einbeziehen . – Zu viele Informationen
verdecken den Blick auf das Wesentliche.
Überlegen Sie sich vorher, welche Informationen
Ihrer Ansicht nach kritisch
sind und worauf sofort reagiert werden
soll.
Server-Management nur auf die physische
Infrastruktur beschränken . –
7
Server-Management geht über die Kontrolle
der vorhandenen Server weit
hinaus. Ein ganzheitlicher Ansatz berücksichtigt
zum Beispiel auch künftige Komponenten.
Fehlendes Patchen von Servern, die
8offline sind . – Mit zunehmender Virtualisierung
werden viele Anwendungen
nur dann hochgefahren, wenn sie tatsächlich
genutzt werden, wie zum Beispiel
Lohnabrechnungssoftware. Sie benötigen
Staging-Mechanismen, eventuell mit
Quarantäne-Umgebung. So kann garantiert
werden, dass die Server einen aktuellen
Patch-Stand haben, auch wenn sie
Überlegen Sie genau, welche Informationen für Sie wesentlich
sind und worauf sofort reagiert werden muss.
nicht im Netzwerk überprüft werden können,
weil sie offline sind.
Kein Server-Management einführen .
9– Server-Management ist und bleibt
wichtig, um Ihre IT-Wertschöpfungskette
zu optimieren. Damit lassen sich zum
Beispiel die Betriebskosten flexibel am
Nutzungsgrad Ihrer IT orientieren. Außerdem
verkürzen sich die Änderungszyklen,
und die Verfügbarkeit steigt.
Der Autor
Oliver vorm Walde
ist Senior Technology
Specialist Resource
Management bei Novell
Deutschland.
Einfach. Flexibel. Preislich attraktiv.
Der auf Intel ® Multi-Flex Technologie aufbauende Intel ® Modular Server
ist ein Serversystem mit unterbrechungsfreier Installation, nahtloser Migration,
skalierbarem Wachstum - ein Unternehmen im Kleinformat.
Einige Funktionsmerkmale des Intel Modular Server:
Bis zu 6 Server Compute Modules
Integrierter SAN-Speicher
Integrierte Ethernet-Switch-Module
Alle Komponenten sind im Betriebszustand austauschbar
Ferngesteuerte Verwaltungsfunktionalität durch Virtual Presence
Als integriertes System verfügt der Intel Modular Server über (in der herkömmlichen
Rack-Serverstruktur fehlende Funktionen) virtuelle Laufwerke,
die skalierbare Flexibilität bieten und Virtual Presence-Verwaltung.
Weitere Informationen fi nden Sie unter www.intel.com/go/mft
Besuchen Sie unsere Webseite www.actebispeacock.de
für weiterführende Informationen, rufen Sie uns einfach
an unter 02921-992870 oder schreiben Sie uns eine Email
an intel@actebispeacock.de
Actebis Peacock ist Intel ® Server Value Added Distributor.
Neben technischem Support und ausgiebiger Beratung rund um Intel Server
Komponenten bietet Actebis Peacock als Broadline Distributor ein umfangreiches
Produktportfolio. Nutzen Sie diese vielfältigen Möglichkeiten, die Ihnen
hierdurch geboten werden. Schreiben Sie uns bei Fragen oder wenn Sie ein
Angebot für Ihr individuelles Intel Serversystem wünschen an
intel@actebispeacock.de
© 2008 Intel Corporation. Intel, das Intel-Logo, Xeon und das Xeon-Logo sind Marken der Intel Corporation in den USA oder anderen Ländern.
Melden Sie sich noch heute zum Hands-on-Training
der Actebis Peacock GmbH & Co. KG an. Intel Spezialisten
zeigen Ihnen die Stärken und Vorteile der
Intel ® Multi-Flex Technologie. Weitere Informationen
und Anmeldung unter intel@actebispeacock.de
18
CP Special
CP Compact Finanzierung im
Tagesgeschäft
Server-Software
Oracle Deutschland
Zehn Tipps für den
Datenbankadministrator
Immer mehr Daten werden gespeichert und müssen
verfügbar gemacht werden. Das fordert Administratoren
heraus, schreibt Heinz-Wilhelm Fabry.
Nutzen Sie Ihre Oracle-Lizenz mög-
1lichst umfassend. Erweitern Sie dazu
Ihr Oracle-Wissen durch den Besuch von
Schulungen sowie durch die Beschäftigung
mit Handbüchern und den einschlägigen
Web-Seiten, z.B. www.oracle.
com/technology.
Erleichtern Sie sich den Umstieg auf
2neue Versionen der Datenbank und
vermeiden Sie Lizenzprobleme, indem
Sie nur solche Komponenten der Software
installieren, die Sie benötigen und
die Sie auch lizenziert haben. Sie leisten
damit zusätzlich einen Beitrag zur eige-
Analysieren Sie die Art der Daten, die gespeichert werden.
nen Sicherheit, denn was Sie nicht installieren,
kann einem Hacker nicht als Einfallstor
in Ihr EDV-System dienen.
Analysieren Sie die zu speichernden
3Daten und die Charakteristika Ihrer
Anwendung. Sie erfahren dadurch, welche
Objekte – zum Beispiel Tabellen und
Indizes – anzulegen sind, welche Datenmenge
im Laufe der Zeit entsteht und ob
zum Beispiel eher lesend oder ändernd
auf Daten zugegriffen wird. Außerdem
hilft Ihnen die Analyse bei der Auswahl
der Hardware, die Sie benötigen.
Für das Speichern von Daten aus
4durchschnittlichen Anwendungen
genügt in der Regel die einfachste Installation
der Datenbank. Umso mehr, wenn
Sie von der Installationsroutine gleich
eine der mitgelieferten Datenbanken zur
Transaktionsverarbeitung oder zum Data
Warehousing erstellen lassen.
Vermeiden Sie lästige Engpässe beim
5Zugriff auf Ihre Daten, indem Sie die
Datenbankdateien auf die verfügbaren
Speichermedien verteilen. Dabei sollten
Sie die Protokolldateien (Redo-Log-Dateien)
auf jeden Fall auf den schnellsten
Speicher legen und Dateien mit Anwendungsdaten
gemäß ihrer Zugriffscharakteristik
auf die übrigen verfügbaren Speichermedien
verteilen. Daraus folgt
übrigens: All die Daten, die Sie selten
benötigen, legen Sie auf die langsameren
Platten.
Sichern Sie regelmäßig Ihre Daten,
6damit Sie die Datenbank, etwa bei
einem Platten-Crash, wiederherstellen
können. Wenn Sie die Datenbank im sogenannten
Archivelog-Modus betreiben
und ordnungsgemäß sichern, werden Sie
nie Daten verlieren. Den Modus und das
Sichern können Sie schon bei der Installation
durch Anklicken der entsprechenden
Auswahlfelder automatisieren.
Greifen Sie nie direkt auf Hauptspei-
7cherinhalte oder Datenbankdateien zu
– zum Beiispiel mit Editoren. Um einen
Datenbank-Crash zu vermeiden, benutzen
Sie stets SQL-Befehle zum Abfragen
und Ändern von Daten.
Achten Sie beim Kauf zusätzlicher
8Software darauf, dass Sie nichts erwerben,
was bereits im Lieferumfang der
Datenbank enthalten ist. Oracle liefert
z.B. kostenlos einen professionellen Diskund
Volume-Manager (ASM) und mit
dem Enterprise Manager (EM) ein leistungsfähiges
browserbasiertes Werkzeug
zur Verwaltung der Datenbank. Die Verwendung
des EM erlaubt auch den Zugriff
auf zusätzliche lizenzpflichtige
Funktionalitäten, sogenannte Packs, die
Sie bei Bedarf dabei unterstützen, Ihre
Datenbank gründlich zu diagnostizieren,
zu tunen usw.
Programmieren Sie nichts, was schon
9im Lieferumfang der Datenbank enthalten
ist. Informieren Sie sich deshalb
zum Beispiel in den Handbüchern über
die im Lieferumfang enthaltenen und
zum Teil wenig bekannten Programmpakete.
Diese ermöglichen den Versand von
E-Mails aus Anwendungen, unterstützen
das Arbeiten mit räumlichen Daten und
mit Geschäftsregeln usw.
Nutzen Sie als Administrator oder
10Anwendungsentwickler für den
einfachen Zugriff auf Ihre Daten das
Werkzeug SQL Developer. Der Developer
ist nicht Teil der Installation, sondern
steht Ihnen kostenlos auf www.oracle.
com/technology zum Download zur Verfügung.
Der Autor
Heinz-Wilhelm Fabry
ist Leitender
Systemberater bei Oracle
Deutschland.
Microsoft Deutschland
Wie Sie zehn Probleme bei
einem Mail-Server lösen
E-Mail-Server sind heute Standard, weshalb Administratoren
sie mit leichter Hand angehen. Diese Haltung kann schnell in
ein Debakel münden, schreibt Sven Thimm.
Die Einrichtung eines Mail-Servers ist
heute für jeden Admin Standard – sollte
man glauben. Aber es gibt immer wieder
Probleme, die bei Anwendern und Administratoren
gleichermaßen für Ärger sorgen.
Mit zehn einfachen Regeln lassen
sich diese schon bei der Einrichtung des
Mail-Servers minimieren.
E-Mail-Richtlinie erstellen und an die
1Mitarbeiter kommunizieren: Unabhängig
von der Technik gilt es, auch organisatorische
Punkte zu beachten. Eine
firmeninterne Richtlinie zur Nutzung von
E-Mail ist heute unerlässlich. In dieser
Richtlinie müssen eindeutige Regularien
für die Verwendung des E-Mail-Systems
(zum Beispiel private Nutzung, Hinweise
auf Spam-Filter, Archivierung etc.) enthalten
sein.
Tipps zur E-Mail-Nutzung zur Verfü-
2gung stellen: Einen E-Mail-Client können
heute die meisten Anwender intuitiv
bedienen. Trotzdem sollten Tipps zur
Nutzung bereitgestellt werden: Wie oft
sollte ich meine E-Mails prüfen? Welche
Reaktionen erwarte ich von einem to:-
Empfänger und einem cc:-Empfänger?
Was kann ich selber tun, um mich effektiv
zu organisieren? Was kann ich selber
zum Schutz vor Spam beitragen?
Sorgfältige Planung der Systemanfor-
3derungen und der benötigten Bandbreite:
E-Mail ist die wichtigste Kommunikationsform
geworden. E-Mail-Server
sollten dementsprechend mit hochwertiger
Hardware ausgestattet werden. Planen
Sie sowohl beim Server als auch bei
der Bandbreite ein starkes Wachstum der
übertragenen Datenmengen mit ein.
Überprüfen Sie die Netzwerkkonfigu-
4ration: Für einen reibungslosen Betrieb
des Mail-Servers ist es unerlässlich,
dass die Netzwerkkonfiguration korrekt
ist. Die Namensauflösung per DNS muss
funktionieren. Außerdem muss der MX-
Eintrag korrekt eingerichtet werden. Bei
Mail-Systemen, die das Active Directory
nutzen, muss das AD fehlerfrei seine
Dienste verrichten.
Es kommt doch auf die Größe an! De-
5finieren Sie Größenbeschränkungen
für einzelne E-Mails und für
Postfächer. Von diesen Standards
sollte niemals abgewichen
werden!
Aktuelle und gehärtete
6Software: Installieren Sie
noch vor der Inbetriebnahme
alle benötigten Aktualisierungen
für Betriebssystem
und Anwendungssoftware.
Härten Sie beide Komponenten
nach den Empfehlungen
des Herstellers oder nach allgemeinen
Security-Guidelines.
Prüfen Sie, ob eine automatische
Aktualisierung der
Mail-Server in Betracht
kommt. Wenn Sie sich für manuelle Updates
entscheiden, aktualisieren Sie alle
Mail-Server zeitnah und regelmäßig!
Geeigneten Virenschutz einsetzen:
7Verwenden Sie Virenschutzsoftware,
die speziell für die Anforderungen eines
E-Mail-Systems ausgelegt ist. Microsoft
Forefront arbeitet beispielsweise parallel
mit mehreren Scan-Engines, sodass bei
neuen Viren die Verwundbarkeit minimiert
wird. Dateibasierte Virenscanner
dürfen nicht die Mail-Datenbanken oder
die Log-Dateien scannen.
Verwenden Sie sichere und zeitge-
8 mäße Protokolle: E-Mail in Unternehmensumgebungen
basiert auf SMTP –
nicht auf IMAP oder POP3! Vermeiden
Sie in jedem Fall den Einsatz unverschlüsselter
Protokolle. Auch beim Zugriff
über einen Browser muss in jedem
Fall HTTPS zum Einsatz kommen. Dies
gilt besonders beim Einsatz mobiler Geräte.
Technologien wie Microsoft Active-
Sync sind sicher und verhindern typische
Anwenderfehler wie das Löschen von
Nachrichten auf dem Server bei POP3.
Sichere Internetanbindung für den
9Mail-Server: Die internen E-Mail-Server
dürfen niemals direkt aus dem Internet
erreichbar sein. Nutzen Sie SMTP-
Relay-Server („Smarthost“) im Perimeter-Netzwerk
oder bei einem Service-
Provider. Die Verbindung dorthin kann
durch IPSec oder SMTPS abgesichert
werden.
Eine sichere Konfiguration: Zum
10Schluss der wichtigste Punkt – tun
Sie alles für eine korrekte und sichere
Konfiguration des Mail-Servers! Es gibt
viele kleine Details, die zu einem sicheren
Gesamtsystem beitragen: Der Server darf
Geben Sie Tipps zur Nutzung Ihres Mail-Systems.
keine Mails entgegennehmen oder weiterleiten,
die nicht für ihn bestimmt sind
(Relay-Server). Ferner kann die Konfiguration
der anzunehmenden oder abzulehnenden
Mails sehr viel zur Sicherheit
beitragen. Von extern können so keine
Mails kommen, die eine interne Absenderadresse
haben. Nutzen Sie die
Filtermöglichkeiten des Mail-Systems aus
und richten sie alle Spam-Schutzfunktionen
von der IP-Verbindungsfilterung
bis zur Realtime Blackhole List (RBL) ein.
Aktivieren Sie eine detaillierte Protokollierung
und halten Sie die Anzahl der
Administratoren so gering wie möglich.
Der Autor
CP Special
Server-Software
Sven Thimm
ist Senior Presales
Consultant bei Microsoft
Deutschland.
19
20
CP Special
CP Compact Finanzierung im
Tagesgeschäft
Server-Software
IBM Deutschland
Wie man ein Unternehmens-
Portal aufsetzt
Unternehmensportale sind heute eine Selbstverständlichkeit
– für Mitarbeiter und Kunden. Doch diese Portale aufzusetzen
ist weniger einfach, schreibt Frank Putzky.
Unternehmens-Portale werden heute mit
unterschiedlichen Zielsetzungen aufgesetzt.
Diese reichen von der bloßen Bereitstellung
von Informationen für Mitarbeiter
oder Präsentationen im Internet
bis zu Portal-Lösungen, welche interaktiv
Verschiedene Pakete der Portal-Software
für unterschiedliche Unternehmen und Zielsetzungen.
Kunden, Partner und Lieferanten einbinden,
Geschäftsabläufe abbilden und somit
als wesentliche Bestandteile zum unternehmerischen
Erfolg beitragen.
Deshalb ist es wichtig, bereits beim
Aufsetzen einer Portal-Umgebung grundlegende
Fehler zu vermeiden. Die folgen-
den, auf praktischen Erfahrungen beruhenden
Punkte zeigen klar, dass es beim
Aufsetzen eines Portals sowohl um Zielsetzungen
und inhaltliche Fragen (1.–4.)
als auch um technische Fragen (4.–7.) und
um die organisatorische Umsetzung
(8.–10.) des zu schaffenden Portals geht.
Beginnen Sie nicht ohne eine klare
Definition der abzubildenden Geschäftsfälle,
der Inhalte und Endnutzer für das
Portal. Starten Sie einerseits mit einer
klaren Vision, aber andererseits auch mit
wenigen und dafür höher priorisierten
Anforderungen und planen Sie weitere
für spätere Phasen ein.
Öffnen Sie das Portal nicht nur für einzelne
Anwendungen, sondern für ganze
Geschäftsprozesse. Die Bewertung der
Integrationsmöglichkeiten der Anwendungen
ins Portal setzt neben der Kosten-
Nutzen-Betrachtung eine klare Erwartungshaltung
im Unternehmen und
bietet die Möglichkeit, Anwendungsoberflächen
zu vereinfachen. Der Aufbau
eines Portals gibt außerdem die Chance,
Prozesse zu optimieren und effektiver
nutzbar zu machen. Überfordern Sie
nicht den Nutzer mit zu vielen Informationen.
Die Darstellung der Informationen
(Navigationsebenen, Seiteninhalte)
muss sich am Nutzer und dessen Aufgaben
orientieren.
Beachten Sie die Anforderungen an
Verfügbarkeit und Performance. Hieraus
leiten sich Anforderungen an die Server,
die unterschiedlichen Ebenen (HTTP,
LDAP, Datenbank, Portal Server), den
Aufbau von Clustern und die Umgebungen
(Entwicklung, Test, Produktion)
ab. Vergessen Sie nicht die Sicherheitsanforderungen
Ihres Unternehmens. Portale
nutzen vorhandene Systeme (z.B. Benutzerverzeichnisse
und Datenbanken) und
müssen Firewalls überwinden.
Entscheiden Sie bei der Produktauswahl
nicht auf Basis von Einzelfunktionen
und Parametern, sondern auf Basis
Ihrer Ziele und Anforderungen. Wichtig
ist die Modularität des Produkts für ein
künftiges Wachstum.
Se tzen Sie nicht auf proprietäre Lösungen.
Mit Serviceorientierten Architekturen
(SOA) und offenen Standards (z.B.
J2EE, WebServices, JSR168, JCR) bleiben
Sie für künftige Entwicklungen offen.
Verpassen Sie es nicht, Verantwortlichkeiten
und Zeitpläne festzulegen. Ein
Portalprojekt ist immer ein Integrationsprojekt,
in dem eine Vielzahl von Systemen
und somit auch Organisationseinheiten
von Anfang an eingebunden
werden müssen. Dazu gehören auch Testpläne
für alle Beteiligten.
Ignorieren Sie beim Aufsetzen eines
Portals nicht die späteren Betreiber (Operating)
und Nutzer. Die Betreiber können
vom Projektanfang an wichtige Erfahrungen
zum Betriebskonzept und Support
einbringen. Die Nutzersicht vermittelt von
Beginn an ein Gefühl für die Akzeptanz
und den Schulungsbedarf. Zögern Sie
nicht, für Ihre Zwecke auf das Wissen des
Marktes zuzugreifen. Verbinden Sie das
Wissen Ihrer Mitarbeiter mit den Kompetenzen
und Erfahrungen der Software-
Anbieter und Geschäftspartner.
Der Autor
Frank Putzky
arbeitet als Technical
Sales bei der IBM Software
Group.
Sun Deutschland
Setzen Sie nur
auf ein offenes Unix
Ein offenes Unix ist nach wie vor eine brauchbare Betriebssystemwahl.
Dass man mit dieser Wahl typische OS-Fehler
vermeidet, erklärt Rolf Kersten.
1
Auf ein Unix setzen, das nicht Open
Source ist . Unix hat sich in über 20
Jahren eine Reputation für Stabilität, Abwärtskompatibilität
und offene Schnittstellen
erarbeitet. Das reduziert das Risiko
für Kunden beim Einsatz von Unix in
Mission-Critical-Umgebungen. Gleichzeitig
hat das Open-Source-Betriebssystem
Linux in den vergangenen Jahren
bewiesen, dass sich mit diesem Entwicklungsmodell
innovative Weiterentwick-
Am offenen Geschäftsmodell von Solaris
können viele Channel-Partner teilnehmen.
lungen, breiter Hardware-Support und
Herstellerunabhängigkeit am besten realisieren
lassen. Ein modernes Unix sollte
die Stabilität von Unix mit der Agilität
von Open Source verbinden: Solaris ist
das einzige Unix, das beides leistet.
2Sich für eine Plattform zu entscheiden,
die nicht skaliert . In vielen IT-Projekten
kann am Anfang noch nicht klar definiert
werden, welche Benutzerlasten im Laufe
des Produktiveinsatzes auftreten werden.
Um teure und risikoreiche Plattformwechsel
im Produktivbetrieb zu vermeiden, sollte
ein Unix gewählt werden, das sowohl auf
kleinen Systemen (auch mit x86-Prozessoren)
als auch auf großen (Risc-)Systemen
optimiert ist und vor allem auch einheitlich
zu betreiben ist. Auch hier kann Solaris,
verfügbar auf x86 und auf Sparc, punkten.
3Mit Unix nutzbare Fortschritte bei der
Prozessortechnologie nicht nutzen. Das
Betriebssystem Unix skaliert sehr gut über
viele Prozessoren, weil es in Jahren des
Produktiveinsatzes auf großen Systemen
entsprechend verfeinert worden ist. Das
macht Unix zur idealen Betriebsplattform
für die neuesten Weiterentwicklungen im
Prozessorbereich: den massiven Multi-
Core/Multi-Threads-Prozessoren, seien es
Suns UltraSparc T2 mit 64 Threads pro
Prozessor oder Intels Xeon-Quad-
Core-Prozessoren.
verbreitete Linux-Kenntnisse
von Administratoren
4 Weit
nicht für Unix nutzen . Viele Administratoren
haben in den letzten
Jahren Erfahrungen mit Linux-Varianten
gemacht und
setzen Open-Source-Tool wie den
LAMP Stack ein. Moderne Unix
Vertreter wie Solaris lassen sich
ähnlich wie Linux administrieren
(Shell, Paketverwaltung,
Oberfläche ...) und sind kompatibel
mit allen auch in der Linux-
Welt bekannten Open-Source-Paketen .
5
Auf eine Virtualisierungslösung setzen,
die nicht Open Source ist . Eine
Plattform wird zunehmend nicht mehr
nur als Betriebssystem für Anwendungen
gesehen, sondern als Virtualisierungsplattform,
die es erlaubt, mehrere Anwendungsobjekte
auf einem System zu konsolidieren
und flexibel von einer
Hardware auf die andere zu verschieben.
Ein modernes Unix kann als Virtualisierungsplattform
für Unix-, aber auch Linux-
und Windows-Anwendungen dienen.
Aber auch hier gilt Punkt (1): Fast
noch mehr als ein Betriebssystem sollte
eine Virtualisierungsplattform mitsamt
Management die Stabilität von Unix mit
der Agilität und dem breiten Hardware-
Support von Open Source verbinden. Die
Sun-xVM-Virtualisierungslösung baut auf
OpenSolaris auf und erfüllt damit beide
Anforderungen
6
Glauben, Unix sei nur etwas für Risc-
Prozessoren in großen Systemen . Ein
Unix wie Solaris 10 läuft auf Risc-Systemen
(SPARC Familie) und auf x64 Systemen
(mit AMD- oder Intel-Prozessoren).
Weitere Portierungen sind dank
Open Source durchaus möglich.
7
Moderne Unix-Features zur Anwendungsoptimierung
nicht nutzen . Solaris
bietet mit Dtrace ein eingebautes
Tool, mit dem im Produktivbetrieb Anwendungs-Performance
analysiert und
optimiert werden kann. Das File-System
ZFS bietet Vorteile wie absolute Datenintegrität
dank durchgängiger Check-
Summen und einfache Bedienung.
8
Für Virtualisierung immer auf hypervisor-basierte
Lösungen zurückgreifen
. Grundsätzlich gilt: so wenig Betriebssystemkopien
wie möglich. Das spart
Overhead, Administrationsaufwand für
Betrieb, Patchen usw. Unter Unix können
Applikationen, welche die gleiche Betriebssystemversion
voraussetzen, oft
auch mit Virtualisierungs-Tools des Betriebssystems
selbst virtualisiert werden.
Sie laufen dann abgeschottet voneinander,
teilen sich aber die Ressourcen eines
Betriebssystems. Solaris kennt hier die
Container, FreeBSD die Jails und Linux
diverse Lösungen.
9
Hohe Lizenzkosten für Software erwarten
. Alle Open-Source-Pakete aus
der Linux-Welt mit günstigem Support,
etwa der Apache-Webserver, Glassfish-
J2EE-Application-Server oder die MySQL-
Datenbank, sind auf Unix verfügbar.
Lizenzkosten für Unix zahlen . Kos-
10ten sollten (wie bei den unter Punkt
9 erwähnten Open-Source-Applikationen)
beim produktiven Betrieb, nicht bei der
Softwareanschaffung anfallen. Ein 7x24-
Wartungsvertrag kostet natürlich Geld,
aber die Startphase vor dem Produktivbetrieb
sollte nicht durch Lizenzkosten belastet
werden. Linux-Distributionen und
Solaris folgen diesem Modell.
Der Autor
CP Special
Server-Software
Rolf Kersten
ist Product Marketing
Manager Volume Systems
bei Sun Deutschland.
21
22
CP Special
Service
www.channelpartner.de
Weiterführende Links
zum Thema „Server“
Auf der Website von ChannelPartner ( www.channelpartner.de )
finden Sie weiterführende Informationen zum Thema „Server“.
@
Server unter
www.channelpartner.de/server
In dieser Rubrik finden Sie aktuelle Nachrichten,Produktvorstellungen,
Tests und Fachartikel zu diesem Thema.
Wir stellen Ihnen die Markt- und Channelstrategien der Anbieter
vor und informieren Sie aktuell über deren fachhandelsspezifischen
Aktionen.
Impressum
Redaktion
Chefredakteur
Christian Meyer (verantwortlich)
Projektverantwortung
Wolfgang leierseder
Schlussredaktion
Dr. Renate Oettinger
Anschrift der Redaktion
Lyonel-Feininger-Str. 26, 80807 München
Telefon 089 36086-388
Telefax 089 36086-389
E-Mail: redaktion@channelpartner.de
Gestaltung
Wunderamt
Layout
Peter Przybylla
Produktion
Heinz Zimmermann (Leitung)
Einsendungen
Redaktionelle Beiträge werden gerne von der Redaktion
entgegengenom men. Der Verfasser versichert, dass die
Einsendungen frei von Rechten Dritter sind. Mit dem Honorar ist
die gesamte, technisch mögliche Verwer tung der umfassenden
Nutzungs rechte durch den Verlag – auch wiederholt und in
Zusammen fassungen – abgegolten. Für unverlangt eingesandte
Beiträge wird keine Haft ung übernommen. Das Urheberrecht für
angenommene und veröffentlichte Bei träge liegt aus schließ lich
bei der IDG Business Media GmbH. Nachdruck sowie Vervielfältigung
en aller Art oder sonstige Verwertung von Texten aus
Publi ka tionen des Verlages nur mit schrif t licher Genehmigung.
Namentlich ge kenn zeich nete Fremd beiträge geben nicht un-
Mehr zum Thema
„Server“ finden
Sie auf unserer
Homepage.
bedingt die Meinung der Redak ti on wieder. Die IDG Business
Media GmbH übernimmt keine Haftung dafür, dass die veröffentlichten
Rechts beiträge inhaltlich richtig sind und die von
den Autoren vertretenen Rechtsauffassungen der jeweils aktuellen
Rechtsprechung und Gesetzgebung entsprechen.
© Copyright ChannelPartner 2008,ISSN 1864-1202
Anzeigen
Gesamtanzeigenleitung
Sascha Neubacher (verantwortlich)
sneubacher@channelpartner.de
Anzeigenpreise
Es gilt die Preisliste Nr. 15 vom 01.10.2006.
Zahlungsmöglichkeiten
HypoVereinsbank München, Konto 32246087, BLZ 700 202 70
Postbank München, Konto 480868-803, BLZ 700 100 80
Anschrift für Anzeigen
siehe Verlag, Telefon 089 36086-442, Telefax 089 36086-392
Erfüllungsort, Gerichtsstand
München
Druck
ADV-Augsburger Druck- und Verlagshaus GmbH,
Aindlinger Straße 17 - 19, 86167 Augsburg
Vertrieb
Gesamtvertriebsleitung
IDG Deutschland
Josef Kreitmair
Abo-Service
Telefon 089 20959144
idg-business@csj.de
Auf dieser Webseite halten wir Sie auf dem Laufenden zu neuen
Produkten, die im Segment Server angeboten werden und
für Sie wichtig sind. Sie können ausführliche Produkttests lesen,
zum Beispiel von x86-Servern, SAN- und NAS-Servern, von
Virtualisierungslösungen und Server-Software bis hin zu spezifischen
Angeboten für Komplettlösungen..
Des Weiteren finden Sie ausgewählte Projekt- und Lösungsberichte;
wir stellen dar, wie der indirekte Kanal in diesem Bereich
arbeitet und sein Geld verdient.
Zudem stellen wir für Sie die Sonderhefte „Server“ der Jahre
2007 und 2006 als PDF-Dateien bereit.
Natürlich können Sie sich auf ChannelPartner.de auch über
verwandte Themen wie zum Beispiel „Storage“ oder „SMB“
(small and medium business) informieren.
@
Knowledgecenter Storage
www.channelpartner.de/storage
Knowledgecenter „SMB“
@ www.channelpartner.de/smb
Verlag
IDG Business Media GmbH
Lyonel-Feininger-Str. 26, 80807 München
Telefon 089 36086-0
Telefax 089 36086-118
www.channelpartner.de
Geschäftsführer
York von Heimburg
Verlagsleitung
Sven Blaukat
Veröffentlichungen gemäß Paragraph 8, Absatz 3 des
Gesetzes über die Presse vom 8.10.1949
Alleiniger Gesellschafter der IDG Business Media GmbH ist die
IDG Communications Media AG, München, die 100-prozentige
Tochter der International Data Group Inc., Boston, USA, ist.
Vorstand
York von Heimburg, Keith Arnot, Pat Kenealy
Mitglied der Geschäftsleitung
Michael Beilfuß
Aufsichtsratsvorsitzender
Patrick J. McGovern
In unserer Verlagsgruppe erscheinen außerdem
folgende Publikationen:
CP Sonderheft "Server" 06/2008 · Angebot solange Vorrat reicht, Preise freibleibend, in EUR pro Stück zzgl. MwSt., ab Lager. Preisänderung aufgrund von Wechselkursschwankungen möglich. Irrtümer, Lieferfähigkeit, Zwischenverkauf und Änderungen vorbehalten. Es gelten unsere AGBs.
Zugriff auf über 10 000 Produkte rund um die Uhr
mit ständig aktualisiertem Lagerbestand.
Komplettsysteme, Serienrechner (ab Lager),
PC Systeme und Server über unseren
BTO-Konfigurator, Komponenten, Peripherie, Zubehör,
b.com AG (Zentrale/Vertrieb Köln)
0221-8003-1100
Perfekt vorbereitet
Quad-Core Technologie für Server & Mainboards...
Transport TA26* (B2932T26W8HR-E)
CPU support Dual 1207-pin Sockel; AMD ® Opteron 2000er Serie Dual-Core/Quad-Core
Formfaktor Rack-Montage - 2U / 8x 3.5" HDD Hot-Swap ; 1x slim line ODD bay
Netzteil 600W 1+1 Redundant
Chipsatz NVIDIA nForce Professional 3600/NEC nPD720400 + SMSC DME5317 Super I/O Chip
Speicher 16x 240-pin DDR2-667/533 FBDIMM Sockel, Dual-Channel (bis zu 64 GB ECC)
Erw. Slots 2x PCI Express x16, 2x PCI-X 133/100 MHz, 1x PCI-X 100 MHz, 1x PCI v2.3 32-bit 33 MHz
SATA 6x Serial-ATA2 (RAID 0, 1, 0+1, 5, JBOD)
SAS integr. SAS Controller / LSI 1068E / RAID-Level: RAID 0, 1, 1E
LAN/ VGA 2x Gigabit Ethernet (Marvell 88E1121) / ATI ® ES1000 VGA Controller
I/O 4x USB 2.0, 2x RJ-45, 2x PS/2, 1x COM, 1x VGA
Art.-Nr. GEH0040270 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . € 949,–
*ohne CPU!!!
n6650W (S2915A2NRF-E)
CPU support Dual 1207-pin Sockel; AMD ® Opteron 2000er Serie Dual-Core/Quad-Core
Chipsatz NVIDIA nForce Professional 3600/3050/NEC nPD720400 + SMSC 5307 Super I/O Chip
Speicher 8x 240-pin DDR2-667/533/400 DIMM Sockel Dual-Channel (bis zu 32 GB ECC)
Erw. Slots 4x PCI Express x16, 2x PCI-X 100 MHz, 1x PCI v2.3 32-bit 33 MHz
SATA 6x Serial-ATA2 (RAID 0, 1, 0+1, 5, JBOD), 1x ATA
LAN / Audio 2x Gigabit Ethernet (Marvell 88E1121) / Realtek ALC262 (High Definition Audio) Controller
I/O 10x USB 2.0, Firewire, 2x RJ-45, 2x PS/2, 1x Seriell
Art.-Nr. MBO0042250. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . € 289,–
i5400XT (S5396A2NRF)
CPU support Dual LGA771 Sockel; Intel ® Dual-Core Xeon 5000/5100/5300 Serie
Chipsatz Intel ® 5400 MCH + 6321ESB + Winbond W83627EHG Super I/O Chip
Speicher 8x 240-pin DDR2-667/533 FBDIMM Sockel (bis zu 64 GB)
Erw. Slots 2x PCI Express x16, 1x PCI Express x8, 1x PCI-X 133/100 MHz, 1x PCI 32-bit 33 MHz
SATA 6x Serial-ATA2 (RAID 0, 1, 5, 10)
LAN / Audio 2x Gigabit Ethernet / RealTek ALC888 Audio Controller / ATI ® ES1000 VGA Controller
I/O 2x USB 2.0, Firewire, 2x RJ-45, 2x PS/2, 1x Seriell,1x Parallel
Art.-Nr. MBO0042249. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . € 283,–
b.com AG Vertriebsbüro Braunschweig
0531-310 78-100
b.com AG Vertriebsbüro Linden
06403-778 56-0