24.11.2012 Aufrufe

Storage Basics - Storage Consortium

Storage Basics - Storage Consortium

Storage Basics - Storage Consortium

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

<strong>Storage</strong> <strong>Basics</strong><br />

Eine Einführung in die Grundlagen<br />

der Speichertechnologie


<strong>Storage</strong> <strong>Basics</strong><br />

Eine Einführung in die Grundlagen<br />

der Speichertechnologie


<strong>Storage</strong> <strong>Basics</strong><br />

Eine Einführung in die Grundlagen<br />

der Speichertechnologie


<strong>Storage</strong> <strong>Basics</strong><br />

Januar 2009<br />

Copyright<br />

© Fujitsu Siemens Computers 2009<br />

Texte, Redaktion, Herstellung: ZAZAmedia / Hartmut Wiehr<br />

Printed in Germany.<br />

Herausgeber<br />

Fujitsu Siemens Computers GmbH<br />

Mies-van-der-Rohe-Strasse 8<br />

80807 München, Deutschland<br />

Kontakt<br />

www.fujitsu-siemens.com/contact<br />

Alle Rechte vorbehalten. Liefermöglichkeiten und technische Änderungen vorbehalten.<br />

Die in dieser Veröffentlichung wiedergegebenen Bezeichnungen können Marken sein, deren Benutzung<br />

durch Dritte für eigene Zwecke die Rechte der Inhaber verletzen kann.


Inhalt<br />

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

Kapitel 1: Die Informationsgesellschaft – Daten und Wissen<br />

speichern auf neuem Niveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

Kapitel 2: Tiered <strong>Storage</strong>: intelligentes Informa tionsmanagement im Unternehmen 15<br />

Kapitel 3: Online-<strong>Storage</strong>: von Platten und Zuverlässigkeit . . . . . . . . . . . . . . . . . . . . . . 25<br />

Kapitel 4: Speichernetze – die Qual der Wahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

Kapitel 5: Backup & Restore: eine ungeliebte Pflichtübung . . . . . . . . . . . . . . . . . . . . . . 43<br />

Kapitel 6: <strong>Storage</strong> Management – komplexe Speichernetze beherrschbar machen . . 53<br />

Kapitel 7: Virtualisierung – bei Speicherthemen existiert Nachholbedarf . . . . . . . . . . . 61<br />

Kapitel 8: Die Speicherstrategie von Fujitsu Siemens Computers und seiner Partner 65<br />

Ausblick: Future <strong>Storage</strong> Trends . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73<br />

Anmerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77<br />

Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83<br />

Partner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91


Vorwort<br />

Verehrte Leser,<br />

die nach wie vor größte Herausforderung in Bezug auf <strong>Storage</strong> ist es, die ständig wachsende<br />

Datenflut in den Griff zu bekommen. Diese Feststellung trifft schon lange nicht<br />

mehr auf Großkunden und ihre Rechenzentren allein zu, sondern betrifft auch den Mittelstand<br />

und selbst kleinere Unternehmen. In den Griff zu bekommen heißt, die Daten<br />

sicher zu verwahren und zugreifbar zu machen unter Berücksichtigung von vereinbarten<br />

Qualitätsstandards (Service Levels) und zu vertretbaren Kosten (CAPEX und OPEX).<br />

Viele der neuen Technologien wie ILM, DeDup, SSD, Virtualisierung, Thin Provisioning –<br />

egal ob bereits etabliert oder noch Hype – wollen hier helfen.<br />

Wir beraten unsere Kunden, aus dieser Vielfalt an etablierten und neuen Technologien<br />

eine für sie geeignete Speicherlösung zu entwickeln. Wir verfügen dabei über ein<br />

umfangreiches Portfolio aus Best-in-Class-Produkten. Dabei wollen und können wir<br />

nicht alles selber machen. Unsere Technologiebeobachtung hilft uns hierbei bei der<br />

Auswahl. Wir haben mit den <strong>Storage</strong>-Technologieführern strategische Partnerschaften<br />

entwickelt, integrieren deren Produkte zu Lösungen und stellen die entsprechenden<br />

Services dafür bereit.<br />

Sehen wir Problemfelder bei unseren Kunden, zu denen es keine geeignete Lösung<br />

am Markt gibt, dann entwickeln wir hierfür eigene Produkte und Lösungen. Beste Beispiele<br />

hierfür sind unsere CentricStor-Lösungen.<br />

Daneben haben wir begonnen, Speicherlösungen nicht nur zu entwickeln und bei<br />

unseren Kunden zu implementieren, sondern sie auch selbst für unsere Kunden zu<br />

betreiben. Fujitsu Siemens Computers wird verstärkt in dieses Managed-<strong>Storage</strong>-<br />

Geschäft investieren. Unsere Managed-<strong>Storage</strong>-Kunden erhalten eine Rechnung und<br />

einen Bericht dazu pro Monat. Die Vorteile liegen auf der Hand: Transparenz bezüglich<br />

Kosten und Performance, verbesserte Effizienz und Kapitalrendite. Und uns gibt das den<br />

Vorteil, dass wir noch besser werden in der Auswahl und der Entwicklung von Produkten,<br />

die erlauben, Speicherlösungen kosten-optimiert und zu definierten Qualitätsstandards<br />

zu betreiben.<br />

Dank dieser Strategie hat sich Fujitsu Siemens Computers zu einem der erfolgreichsten<br />

Anbieter von Speicherlösungen in Europa entwickelt.


8 Vorwort<br />

Wir wollen Ihnen mit diesem Buch eine Einführung in Speichertechnologien und<br />

Speichernetzwerke geben und den Mehrwert für Ihr Unternehmen aufzeigen. Wir stellen<br />

Ihnen einige unserer Partner im <strong>Storage</strong>bereich vor, und Sie erhalten einen umfassenden<br />

Überblick über das aktuelle <strong>Storage</strong>-Produktangebot von Fujitsu Siemens<br />

Computers. Zusammen mit den entsprechenden Services – von uns oder unseren zertifizierten<br />

Partnern – werden daraus Speicherlösungen, die Ihnen helfen, die wachsende<br />

Datenflut in den Griff zu bekommen!<br />

Ihr Helmut Beck<br />

Vice President <strong>Storage</strong><br />

Fujitsu Siemens Computers


Kapitel 1<br />

Die Informationsgesellschaft – Daten<br />

und Wissen speichern auf neuem Niveau<br />

Seit jeher gibt es keine Kultur ohne Information. Die Entwicklung der Menschheit<br />

wird im Wesentlichen von ihrer Fähigkeit bestimmt, Informationen zu erwerben,<br />

zu verteilen und an folgende Generationen weiterzugeben. Immer dann, wenn<br />

hier bahnbrechender Fortschritt erzielt wurde, wie die Erfindungen von Schrift,<br />

Buchdruck, Computer und Internet, hat sich auch die Gesellschaft stark verändert.<br />

Seit Konrad Zuse den Computer erfunden hat, breitet sich die automatische<br />

Informationsverarbeitung und mit ihr verbunden die elektronische Speicherung<br />

von Informationen in immer mehr Lebensbereiche aus. Doch in dem Masse, in<br />

dem es einfacher geworden ist, Informationen zu erzeugen, ist es auch leichter<br />

geworden, Informationen zu verlieren. Das Speichern, Bewahren und Verwalten<br />

von Informationen wird immer wichtiger.<br />

Im Jahr 2008 wurde das World Wide Web 15 Jahre alt, und die Betreiberfirma der<br />

Internet-Suchmaschine Google feierte ihren zehnten Geburtstag. Beide Jubiläen stehen<br />

für einen neuen Abschnitt in der Geschichte der Computertechnologie: Mit Hilfe<br />

eines einfach per Maus zu bedienenden Browsers steht jedermann unabhängig von Ort<br />

und Zeit eine unüberblickbare Menge an Informations- und Unterhaltungsquellen zur<br />

Verfügung. Ordnung in dieses Wissenschaos bringen Suchmaschinen wie die von<br />

Google. Besonders diese Gründung zweier Stanford-Studenten „krempelte innerhalb<br />

kürzester Zeit die globale Wissensökonomie um“ [1].<br />

Der schnelle Zugriff auf Daten setzt voraus, dass diese lesbar sind und irgendwo im<br />

weltweiten Computernetz vorhanden sind. Ihre Lesbarkeit beruht auf Dateiformaten,<br />

Klassifizierungen und Index- oder Metadaten, die vor dem Zugriff der „Suchmaschine“<br />

definiert sein müssen. Ihr Vorhandensein beruht darauf, dass sie auf irgendwelchen<br />

elektromagnetischen Speichersystemen abgelegt worden sind. Dies alles geht nur mit<br />

neuer und neuester Technologie, entwickelt in den letzten 60 bis 70 Jahren: der Informationstechnologie<br />

(IT).


10 Kapitel 1<br />

Urformen der Informationstechnologie<br />

I nformationen und Wissen vorrätig zu halten, ist nun nicht gerade eine Erfindung der<br />

Moderne. Unabhängig von der gesellschaftlichen Form des Zusammenlebens der<br />

Menschen zeigen sich im Verlauf der Geschichte bestimmte Konstanten dieses Umgangs<br />

mit Wissen und seiner Bedeutung: Schon in der Frühzeit menschlicher Gemeinschaften<br />

wurden – losgelöst von den Menschen und der mündlichen Überlieferung – von Generation<br />

zu Generation Erfahrungen und Ereignisse weitergegeben. Aus ihnen sind so<br />

Wissen und Traditionen aufgehäuft worden, zunächst in mündlicher Form, dann mit<br />

dem Aufkommen von systematischen Schriftzeichen wie den Piktogrammen der Sumerer<br />

und den Hieroglyphen der Ägypter – beides zunächst Bild- oder Symbolsprachen.<br />

Unser heute noch gebräuchliches Alphabet in den europäischen Sprachen entstand erst<br />

etwa vor 3.300 Jahren bei den Sumerern und später bei den Ägyptern, also gemessen an<br />

der Geschichte des menschlichen Lebens und der Ausdifferenzierung des homo sapiens<br />

im östlichen Afrika vor etwa 4 Millionen Jahren erst vor relativ kurzer Zeit [2].<br />

Um diese nun teilweise schriftlich festgehaltenen Informationen herum organisierten<br />

sich das alltägliche Leben der Menschen, ihre Feste, ihre staatlichen Gebilde und<br />

nicht zuletzt ihre Religion. So entstanden unterschiedlichste Kulturen auf dem einen<br />

Globus, lange bevor Europäer die Welt „entdeckten“ – und damit abendländischen Standards<br />

unterwarfen.<br />

Das Magazin „Der Spiegel“ hat sich im August 2008 mit den Auswirkungen der<br />

Datenflut auf die Menschen beschäftigt und dabei auch kurz die Ur-Geschichte der<br />

Informationstechnologie rekapituliert. Die ersten Etappen waren:<br />

„Die Strichzeichen der Sumerer machen Sprache zur Konserve: In Ton geritzt, löst sie<br />

sich vom Sprecher, wird unabhängig von Zeit und Raum. Um 1.300 vor Christus werden<br />

in China beschriftete Holzstreifen mit Bambus gebunden: das erste Buch. Nun ist auch<br />

umfangreiche Information transportfähig. Die Phönizier entwickeln die erste Einzellaut-Schrift.<br />

Rund 300 Jahre später übertragen die Griechen das Prinzip und schaffen<br />

das Ur-Alphabet.“ [3]<br />

Der „Wissensvorsprung durch Technik“ setzte sich erst etwa 3.000 Jahre später mit<br />

Johannes Gutenberg fort, der um 1450 die Kupfermatrize zur massenhaften Herstellung<br />

maßgerechter Einzelbuchstaben erfindet. Nach 1600 kommt es dann in Straßburg<br />

und in Wolfenbüttel zu den ersten Wochenzeitungen mit aktuellen Nachrichten, und im<br />

Jahr 1659 erscheint in Leipzig die erste Tageszeitung. Danach geht es Schlag auf Schlag:<br />

Mitte des 19. Jahrhunderts Erfindung des Ferntelegraphen, später des Telefons, der<br />

Schreibmaschine, der Schallplatte, der elektromagnetischen Wellen durch Hertz und<br />

des Radios, Films und Fernsehens. Bis die Entwicklung dann vorläufig in der ersten<br />

Rechenmaschine von Konrad Zuse im Jahr 1938 gipfelte. Der Rest ist bekannt: Internet,<br />

World Wide Web oder Mobiltelefonie.


Die Informationsgesellschaft – Daten und Wissen speichern auf neuem Niveau 11<br />

Die Digitalisierung des Wissens<br />

D ie Mittel oder Technologien, mit denen Menschen ihre Erfahrungen und ihr Wissen<br />

– der Ausdruck „Wissen“ wird hier wertfrei gebraucht, das heißt ohne eine Bewertung<br />

des jeweiligen Inhalts – für kurze Zeit oder für immer festhalten wollten, haben<br />

sich dabei im Laufe der Geschichte gewandelt, nicht aber die Zwecke, warum Menschen<br />

oder gesellschaftliche Gruppen dies tun.<br />

Spätestens mit der Verbreitung des Computers und des World Wide Web wird eine<br />

Verschiebung des gesellschaftlichen Charakters weg von der Industriegesellschaft und<br />

hin zur Informationsgesellschaft diagnostiziert. Die Produktion von Waren im klassischen<br />

Sinne tritt demnach in den Hintergrund und es werden immer mehr Dienstleistungen und<br />

Informationen mit Warencharakter hergestellt – die Verbreitung von Informationen sowie<br />

darauf aufbauend von Unterhaltung wird zu einem eigenen, profitablen Geschäftszweig<br />

und verändert fortlaufend das Zusammenleben der Menschen in der Gesellschaft [4].<br />

Es werden immer mehr Informationen digital erfasst, gespeichert und über Netze zur<br />

Verfügung gestellt. Dieses Wachstum beruht zum einen auf den in Unternehmen anfallenden<br />

Daten. Die Buchhaltung stand schon immer im Zentrum der Bemühungen um<br />

Automatisierung. Einige der ältesten Tontafeln aus dem Zweistromland enthalten buchhalterische<br />

Aufzeichnungen. Auch die ersten Computer wurden mit Vorliebe für Buchhaltungsdaten<br />

genutzt. Doch heute breitet sich die IT in Unternehmen immer weiter<br />

aus – ohne ihre Unterstützung geht fast nichts mehr. Immer neue Funktionsbereiche<br />

werden digitalisiert, und mit jeder Geschäftsausdehnung fallen digitale Daten an. Je<br />

nach Geschäftsmodell gibt es heute sogar Firmen, die fast ausschließlich im Internet<br />

existieren beziehungsweise komplett von ihm abhängen.<br />

In klassischen Firmen begann der Weg in die digitale Welt bei den Lösungen für ERP<br />

(Enterprise Resource Planning) und führte über CRM (Customer Relationship Management),<br />

SCM (Supply Change Management), Data Warehousing und Business Intelligence<br />

zu neuen Ufern im Bereich Web 2.0 und social media. Es handelt sich hierbei oft<br />

um produktionstechnische und kaufmännische Daten, die hauptsächlich in Programmen<br />

von SAP, Oracle oder Microsoft erfasst und bearbeitet werden.<br />

Diese strukturierten Daten, die systematisch wie in Feldern einer Datenbank abgelegt<br />

werden, können über Abfragen leicht wieder zugänglich gemacht werden. Angesichts<br />

ihrer Menge und ihres steten Wachstums wird ihre Auswertung und Interpretation sehr<br />

komplex, weshalb es eigene „Daten-Warenhäuser“ (Data Warehousing) gibt, in denen<br />

die gesammelten Daten nach Geschäftskriterien (Business Intelligence) sortiert und<br />

aufbereitet werden. Zum Beispiel wollen die Fluggesellschaften für ihr Marketing und<br />

ihre Angebotspolitik wissen, wie oft und wohin ihre Kunden fliegen und ob sie teure<br />

Business oder billigere Economy Class nutzen. Die Datenbanken alleine liefern ihnen<br />

diese Interpretation nicht.


12 Kapitel 1<br />

Informationswandel in den Unternehmen<br />

Die Enterprise Strategy Group (ESG) unterscheidet drei Phasen: In Phase eins wurden<br />

Kernprozesse mit datenbank-basierten Applikationen automatisiert, zum Beispiel<br />

SAP R/3. Die Informationen waren strukturiert und transaktionsorientiert. Deswegen<br />

fielen hier so genannte Transaktionsdaten an.<br />

In Phase zwei änderte sich die IT-Struktur der Unternehmen. Der PC wurde erfunden<br />

und er hielt dezentral in die Unternehmen Einzug. Wenig später wurden PCs zu Arbeitsgruppen<br />

zusammengeschlossen, die über erste Server Daten austauschten. Das war die<br />

Geburtsstunde von Novell und auch der Startschuss, Windows als Server-Betriebssystem<br />

zu entwickeln. Plötzlich entstanden Unmengen von unstrukturierten Office-<br />

Dateien. Das Zeitalter von verteilten Dateien hatte begonnen, die hierfür benötigte<br />

Speicherkapazität war bald grösser als die für Transaktionsdaten.<br />

Heute stehen wir am Beginn der dritten Phase, des Zeitalters der Internet-Daten.<br />

Web-2.0-Applikationen wie Soziale Netzwerke, Wikis oder Blogs kommen auch in<br />

Unternehmen zum Einsatz. Da jeder Mensch nun nicht mehr nur Informatinskonsument,<br />

sondern auch Informationsautor werden kann, vervielfacht sich die Menge der zu<br />

speichernden Daten. Der digitale Fußabdruck (digital footprint) im Netz ist bereits jetzt<br />

enorm, ein Ende des Wachstums ist nicht abzusehen. So wird erwartet, dass Internet-<br />

Daten bald alle bisherigen Datenformen weit hinter sich lassen werden.<br />

Das Wachstum unstrukturierter Daten (Web 2.0)<br />

E in Großteil der heute anfallenden Daten ist also unstrukturiert. Sie stammen aus<br />

Office- oder E-Mail-Programmen. In den unstrukturierten Daten verbergen sich<br />

relevante und unrelevante, bunt gemischt und nicht leicht zu unterscheiden. Hier liegt<br />

die Herausforderung: Gerade unstrukturierte Daten müssen richtig verwaltet werden,<br />

damit die wichtigen von ihnen den Anforderungen an Unversehrtheit und langfristige<br />

Aufbewahrung genügen, und die unwichtigen möglichst geringe Ressourcen beanspruchen.<br />

Mit dem Begriff Compliance werden organisatorische und staatliche Anforderungen<br />

an die Datenhaltung umschrieben, die sich auch in der Menge der zu speichernden<br />

Daten niederschlagen.<br />

Der Berg an digitalen Daten wächst auch dadurch, dass gerade im Consumerbereich<br />

bisherige analoge Speichermedien abgelöst worden sind: Sprache, Musik, Fotos, Fernsehen<br />

und Film werden digital aufgezeichnet und gespeichert, wobei zum Teil riesige<br />

Datenmengen anfallen, auch durch die nachträgliche Konvertierung analog gesammelter<br />

Medien. Durch die Verbesserung von Streaming-Techniken im Internet und weitere


Die Informationsgesellschaft – Daten und Wissen speichern auf neuem Niveau 13<br />

Wie groß ist ein Exabyte?<br />

Kilobyte (KB) 1.000 Bytes oder 103 Bytes. 2 Kilobytes: eine Schreibmaschinenseite.<br />

100 KB: eine Photographie mit niedriger Auflösung.<br />

1.000.000 Bytes oder 10<br />

Megabyte (MB)<br />

6 Bytes. 1 Megabyte: Ein kleiner Roman oder<br />

eine Floppy Disk (3,5 Zoll). 2 bis 10 MB: eine digitale Aufnahme mit<br />

hoher Auflösung. 3 bis 4 MB: ein Song, komprimiert mit MP3. 5 MB: die<br />

kompletten Werke von Shakespeare. 10 MB: eine Minute Tonaufnahme<br />

in hoher Qualität. 10 bis 20 MB: eine digitale Röntgenaufnahme. 100<br />

MB: ein Meter Buchregal oder 2 Stunden komprimierter Radiosendung.<br />

650 MB: eine CD-Rom.<br />

1.000.000.000 Bytes oder 10<br />

Gigabyte (GB)<br />

9 Bytes. 1 Gigabyte: ein Pickup voller<br />

Bücher. 3,2 GB: eine Stunde hochauflösendes Fernsehen (HDTV). 5 GB:<br />

durchschnittliche Filmgröße auf einer DVD. 20 GB: eine gute Sammlung<br />

der Werke von Beethoven. 50 GB: Kapazität einer Blu ray disc. 100 GB:<br />

ein Büchereigang voll mit wissenschaftlichen Magazinen oder etwa<br />

1.200 Stunden Musik mit MP3. 500 GB: unkomprimierte Kapazität der<br />

größten verfügbaren Tape Cartridge 2005.<br />

1.000.000.000.000 Bytes oder 10<br />

Terabyte (TB)<br />

12 Bytes. 1 Terabyte: 50.000 Seiten<br />

bedrucktes Papier. 2 TB: eine wissenschaftliche Bibliothek. 10 TB: die<br />

gedruckten Sammlungen der Library of Congress (USA) oder die voraussichtliche<br />

Kapazität einer magnetischen Tape Cartridge im Jahr 2015.<br />

600 TB: die Datensammlung des amerikanischen National Climactic<br />

Data Center (NOAA).<br />

1.000.000.000.000.000 Bytes oder 10<br />

Petabyte (PB)<br />

15 Bytes. 1 Petabyte: 3 Jahre an<br />

EOS-Daten (EOS = Earth Observing System). 2 PB: alle amerikanischen<br />

wissenschaftlichen Bibliotheken zusammen. 20 PB: Kapazität aller 1995<br />

hergestellten Festplatten. 200 PB: alles gedruckte Material weltweit.<br />

1.000.000.000.000.000.000. Bytes oder 10<br />

Exabyte (EB)<br />

18 Bytes. 2 Exabytes: das<br />

absolute Volumen aller 1999 erzeugten Informationen. 5 EB: alle<br />

Worte, die jemals von Menschen gesprochen wurden. 9,25 EB: Kapazität,<br />

um alle in einem Jahr geführten Telefongespräche in den USA aufzuzeichnen.<br />

90 EB: geschätzte verfügbare Kapazität aller digitalen<br />

Medien im Jahr 2010.<br />

Quellen: Horison Information Strategies, UC Berkeley Study „How Much Information”, IDC<br />

Verbesserung der Bandbreiten werden vermutlich bisherige Medien wie CD-ROMs oder<br />

DVDs für Musik und Film durch das Internet ersetzt werden, womit eine weitere Nachfrage<br />

nach Festplatten und Arrays ausgelöst werden wird.<br />

Das so genannte Web 2.0 mit den neuen Möglichkeiten für Interaktion zwischen den<br />

Teilnehmern eines Netzwerks – zum Beispiel YouTube, MyFace, LinkedIn oder Xing –<br />

führt ebenfalls dazu, dass bei den zuständigen Providern riesige Datenmengen gespeichert<br />

werden. Ein Großteil der Lieferungen an Blade-Servern und <strong>Storage</strong>-Arrays geht


14 Kapitel 1<br />

bereits heute an diese Unternehmen. In dem Maße, wie sich neue Technologien wie<br />

Miet-Software (Software as a Service / SaaS) oder Cloud Computing ausbreiten, bei<br />

dem die Anwender auf Programme und Daten zugreifen, die nur noch in riesigen<br />

Rechenzentren „irgendwo in der Internet-Wolke“ abgespeichert werden, wird sich diese<br />

Entwicklung noch verstärken. Für mittelständische Unternehmen und Existenzgründer<br />

(Start-ups) eröffnen sich hier kostengünstige Möglichkeiten, an einer ausgereiften<br />

In frastruktur teilzunehmen. So bietet Amazon in seinen großen Rechenzentren für<br />

externe Kunden an, Rechen- und Speicherkapazität zu mieten. Natürlich müssen entsprechende<br />

Bandbreiten in den Netzen und eine Zuverlässigkeit des Anbieters gegeben<br />

sein. Es zeichnet sich ab, dass sich neue Technologien, die zunächst im Consumer-<br />

Umfeld eingesetzt wurden, auch in die Welt der Business-IT ausdehnen. Eine Risikoabschätzung<br />

im Einzelfall, die auch Securityfragen und Kosteneinsparungen umfasst,<br />

bleibt natürlich obligatorisch.<br />

Faktisch gesehen sind die Möglichkeiten der „Informationsgesellschaft“ noch lange<br />

nicht erschöpft. Es sind neue Wege der Wissensvermittlung und der Speicherung von<br />

Informationen zu den bestehenden hinzugekommen [5]. Die Informationstechnologie<br />

hat ein sehr großes Potential – aber sie ist wie andere große technische Erneuerungen<br />

vor ihr letztlich nur ein Mittel, ein Werkzeug für bestimmte Zwecke. Es kommt darauf<br />

an, was man mit ihr für welche Ziele unternimmt. Und es kommt zunächst einmal darauf<br />

an, die Datensicherung selbst zuverlässiger zu machen. Am Beispiel <strong>Storage</strong> zeigen<br />

sich zugleich die Chancen und die Beschränkungen von Technologie. Auch deshalb gibt<br />

es gerade in diesem Bereich eine nicht abreißende Kette von neuen prinzipiellen Erfindungen<br />

und schrittweisen Verbesserungen.<br />

In dieser Welt kommt <strong>Storage</strong> eine wachsende Bedeutung zu:<br />

1) Die schnell wachsenden Datenberge müssen zunächst einmal überhaupt gespeichert<br />

werden, idealerweise unter Optimierung der Ressourcen.<br />

2) Da Daten immer und überall verfügbar sein müssen, müssen die zugrundeliegenden<br />

<strong>Storage</strong>-Systeme die Daten rund um die Uhr und über das Internet weltweit anbieten.<br />

Darüber hinaus müssen Daten redundant (mehrfach) gespeichert werden, um<br />

sie auch im Falle von unvorhergesehenen Ereignissen nicht zu verlieren.<br />

3) Immer mehr Daten mit immer weniger Struktur beherrschen den Alltag von Datenspeicherung:<br />

Das Verwalten von Daten muss intelligenter werden, damit Daten<br />

gemäß ihres Wertes angemessen aufbewahrt werden (Information Lifecycle Management).<br />

Nur so kann man auch Compliance-Anforderungen gerecht werden.


Kapitel 2<br />

Tiered <strong>Storage</strong>: intelligentes Informationsmanagement<br />

im Unternehmen<br />

Unternehmen haben sich mit unterschiedlicher Aufmerksamkeit dem Speichern<br />

von Daten gewidmet. Wenn mal etwas schief geht, Daten „verschwinden“,<br />

gestohlen werden oder bei Schäden an der Hardware und den Medien nicht<br />

zurückgesichert werden können, wird schnell der Mantel des Schweigens darüber<br />

gelegt. Nur selten dringt so etwas an die Öffentlichkeit, da man den Ruf oder<br />

die Marke des Unternehmens schützen will. Dabei praktizieren eigentlich fast alle<br />

IT-Abteilungen, auch wenn das nicht bewusst und nach bestimmten Regelwerken<br />

geschieht, schon immer so etwas wie eine Speicherstrategie: Sie verschieben<br />

ihre Daten von A nach B oder C, weil sie Kosten sparen wollen oder sie erst mal<br />

nicht wieder brauchen. Damit ist aber auch in den meisten Unternehmen eine<br />

Grundlage dafür vorhanden, eine bewusste und klare Strategie für das Speichern<br />

ihrer digitalen Schätze aufzusetzen und zu praktizieren.<br />

Fast alle Prognosen und Schätzungen über das rasante Daten- und <strong>Storage</strong>wachstum<br />

haben sich bislang – im Unterschied zu vielen anderen der Analysten und<br />

Marktbeobachter – als wahr herausgestellt. Oft stellen sie sich sogar als zu vorsichtig<br />

formuliert heraus. Insbesondere in den letzten Jahren zeigte sich, dass neben die<br />

Unternehmens-IT mit ihren Speicheransprüchen immer weitere gesellschaftliche Bereiche<br />

treten, in denen analoge Informationen digitalisiert werden. Dazu gehören Film und<br />

Video, Sprach- und Musikaufnahmen, Röntgenaufnahmen in der Medizin (Medical<br />

Imaging), TV-Kameras in großen Städten oder an sicherheitskritischen Orten (Security &<br />

Surveillance) einschliesslich der Umstellung von analogem auf digitalen Funk bei Polizei,<br />

Feuerwehr und Rettungsdiensten. Ein weiterer Faktor sind die so genannten sozialen<br />

Netzwerke (Social Communities) wie YouTube oder Facebook mit ihren riesigen<br />

Datenbeständen von Fotos und Videos. Diese Informationen bilden zum großen Teil das,<br />

was man unstrukturierte Daten nennt, im Gegensatz zu den strukturierten, die in Datenbanksystemen<br />

mit ihren festen Vorgaben erfasst werden.<br />

Es werden also überall, zum Teil in täglich erweiterten Rechenzentren, digitale Informationen<br />

im Überfluss gespeichert. Doch sind es alle diese Daten auch wirklich wert?


16 Kapitel 2<br />

Petabytes<br />

9000<br />

8000<br />

7000<br />

6000<br />

5000<br />

4000<br />

3000<br />

2000<br />

1000<br />

0<br />

Weltweiter Anteil an block- und file-basierten<br />

Speichersystemen 2005–2008<br />

block-basiert<br />

file-basiert<br />

2005 2006 2007 2008<br />

Quelle: IDC 2007<br />

Im Jahr 2008 werden die file-basierten Daten laut der Prognose von IDC zum ersten Mal stärker als<br />

die block-basierten Daten wachsen.<br />

Müssen die vielen Schnappschüsse von Geburtstagen, Familien- und sonstigen Festen<br />

oder Strandurlauben, die früher zu den berühmten, allseits gefürchteten Dia-Abenden<br />

führten, wirklich mit dem neuesten Stand der Technologie sicher und lange abgespeichert<br />

werden? Müssen die Unternehmen, selbst unter Berücksichtigung rechtlicher Vorgaben,<br />

alles elektronisch speichern?<br />

Laut IDC hat das Wachstum aller unstrukturierten Daten (file-basiert), die sich<br />

zunehmend außerhalb der Unternehmen ansammeln, im Jahr 2008 zum ersten Mal das<br />

der strukturierten Daten (block-basiert) übertroffen. In den Unternehmen selbst verschiebt<br />

sich ebenfalls das Gewicht zwischen den strukturierten Daten, die in Datenbanken<br />

oder ERP-Anwendungen erfasst werden, und den erwähnten unstrukturierten<br />

Daten, die sich vor allem aus E-Mails samt Anhängen, Office-Dateien, Präsentationen,<br />

Videos usw. zusammensetzen. Während die Frage des Wiederfindens dank Datenbanken-Abfragen<br />

und der Interpretation der Daten mit Data Warehousing oder Business<br />

Intelligence heute für strukturierte, aber noch nicht für unstrukturierte Daten gelöst ist<br />

[1], lässt sich das keinesfalls von der Ablage der Datenmengen selbst sagen: Der Speicherplatz<br />

im Primärbereich, also bei dem schnellen Zugriff auf teuren Festplatten, ist<br />

begrenzt und wird nur wirklich geschäftskritischen Applikationen zugewiesen.


Tiered <strong>Storage</strong>: intelligentes Informationsmanagement im Unternehmen 17<br />

Daten verschieben<br />

D ie zunächst in Server- beziehungsweise Applikationsnähe abgelegten Datensätze<br />

und Dateien auf weniger performante Speicherplätze auszulagern, ist aus mehreren<br />

Gründen nötig:<br />

Gerade bei businesskritischen Informationen wie Buchungs- oder Einkauf- und Verkaufsdaten<br />

entstehen täglich und stündlich immer neue aktuelle Daten, die im direkten<br />

Zugriff bleiben müssen, während andere nach einer bestimmten Zeit „unwichtiger“<br />

oder unaktueller werden. Sie müssen deshalb schon aus Platzgründen weiter<br />

verschoben werden, vom primären Speicherplatz (Online oder Primary Online <strong>Storage</strong>)<br />

auf langsamere und preisgünstigere Plattensysteme (Nearline oder Secondary<br />

<strong>Storage</strong>).<br />

Andere Dateien wie Präsentationen sind nicht unbedingt geschäftskritisch, müssen<br />

aber schon deshalb irgendwo in der Nähe (Nearline) geparkt werden, weil sie öfters<br />

geändert und weiterverwendet werden etc. Sie sind darüber hinaus ein typischer Fall<br />

von Daten, die doppelt oder mehrfach abgespeichert werden, weil sie von zahlreichen<br />

Mitarbeitern benutzt werden. Die Analysten von Enterprise Strategy Group<br />

(ESG) haben hierfür das „Eisberg-Modell“ entwickelt. Demnach müssen zwei Hauptgruppen<br />

von Daten unterschieden werden: dynamische Daten, die noch fortlaufend<br />

verändert werden (= sichtbarer Teil des Datenbergs), und dauerhafte Daten, die fix<br />

oder statisch sind und sich nicht mehr verändern (= unsichtbarer Teil des Datenbergs)<br />

[2].<br />

Gesetzliche Bestimmungen oder einfach kaufmännische Vorsicht erfordern eine<br />

langfristige Datenablage, ohne dass deren Inhalte im Tagesgeschäft zur Verfügung<br />

stehen müssen. Sie wandern mithin ins Archiv, wie dieses auch immer organisiert ist,<br />

früher vor allem auf Magnetbändern und heute oft auch auf so genannten Virtual<br />

Tape Libraries, die auf Plattensystemen eine Bandspeicherung simulieren. Dies<br />

geschieht auf einer dritten Speicherstufe, von der die Daten später noch weiter weg<br />

vom Ausgangspunkt, den Servern und primären Plattenspeichern, auf Band abgelegt<br />

werden.<br />

Last but not least: Um sich vor Datenverlust zu schützen, müssen je nach Datenwertigkeit<br />

sofortige oder zeitlich verzögerte Kopien angelegt werden, die im Bedarfsfall<br />

wieder zurückgespielt werden können (Backup, Restore, Snapshot, CDP / Continuous<br />

Data Protection). Bei diesen Verfahren setzen auch aktuelle Deduplizierungskonzepte<br />

an, die die oben genannten Doubletten während der Backup-Prozesse wieder herausfischen<br />

sollen – allerdings nur auf den Backup-Medien und nicht auf den primären<br />

oder sekundären Plattenspeichern. Näheres zu dieser komplexen Thematik in<br />

Kapitel 5.


18 Kapitel 2<br />

Auch wenn in einem Unternehmen nur ein Teil dieser Verfahren angewandt wird,<br />

praktizieren sie zumindest unbewusst ein abgestuftes Datensicherungssystem – denn<br />

weitergeschoben werden Daten immer, und sei es nur vom Server auf ein Backupmedium,<br />

so unzulässig dies vom Standpunkt einer professionellen Speichertechnik auch<br />

sein mag.<br />

HSM und ILM: klassische Konzepte mit Langzeitwirkung<br />

D ass ein abgestuftes Speicherverfahren eigentlich immer irgendwie betrieben wurde<br />

in der Unternehmens-IT, belegen im übrigen zwei klassische Konzepte. Beiden ging<br />

es um eine prinzipielle Klärung: Was muss wie und wie lange wo beziehungsweise auf<br />

welchem Medium gespeichert werden? In der Welt der Mainframes wurde deshalb zu<br />

der Methodik des hierarchischen <strong>Storage</strong> Management (Hierarchical <strong>Storage</strong> Management<br />

/ HSM) gegriffen, bei der nach der Beschreibung von Fred Moore die automatische<br />

Speicherung der Daten auf den kostengünstigsten Speichergeräten vorgenommen wird,<br />

entsprechend der erforderlichen Performance für die jeweiligen Applikationen [3]. Dieser<br />

Prozess ist für die Anwender nicht sichtbar, sie können unvermindert auf alle Daten<br />

zugreifen, egal auf welcher Stufe der Speicherhierarchie sich diese befinden. Eine spezielle<br />

HSM-Software kümmert sich um die verschiedenen Speicherstufen. IBM führte dieses<br />

Verfahren zuerst 1975 auf Mainframes ein.<br />

<strong>Storage</strong>Tek und andere Anbieter legten nach dem Platzen der Internet-Blase im Jahr<br />

2001 Wert auf die Strategie von Information Lifecycle Management (ILM), um die<br />

Anwender mehr auf die inhaltliche Betrachtung ihrer gespeicherten Daten zu verweisen.<br />

Als Hardware-Hersteller hatte man dazu eine Palette von unterschiedlichen Geräten<br />

anzubieten, außerdem kooperierte man mit Anbietern, die sich mehr um die Klassifizierung<br />

der Daten per Software kümmerten. EMC kaufte sich mit Documentum gleich<br />

einen eigenen Hersteller einer Dokumentenmanagement-Lösung (DMS) ein, um daraus<br />

Pakete (Bundles) für die alten und neuen Kunden zu schnüren. ILM kann als Fortsetzung<br />

von HSM für die Unix- und Windows-Welt begriffen werden. Mit ILM werden die Daten<br />

von ihrer Entstehung bis zu ihrer Archivierung oder ihrem Löschen verwaltet und entsprechend<br />

ihrer Wertigkeit auf unterschiedlich schnellen und leistungsfähigen Datenträgern<br />

abgelegt. Diese Art von Speichermanagement ist auf HSM-Technologie aufgebaut<br />

und benutzt von den Unternehmen aufgestellte Regelwerke (Policies), um eine<br />

optimale Übereinstimmung zwischen Datenwertigkeit und den jeweiligen Speicher-<br />

Subsystemen zu bestimmen. Auch wenn sich die Unternehmen oft nicht dessen bewusst<br />

sind, praktizieren sie alle irgendeine Form von ILM. Selbst wer seine Daten ein Jahr lang<br />

oder sogar länger auf hochperformantem und teurem Online-<strong>Storage</strong> vorrätig hält, hat<br />

eine Aussage über den angenommenen Wert seiner Daten getroffen – ob diese Ent-


Tiered <strong>Storage</strong>: intelligentes Informationsmanagement im Unternehmen 19<br />

Was ist Tiered <strong>Storage</strong>?<br />

Verschiedene Stufen der Datensicherung<br />

aufzubauen bedeutet die Errichtung einer<br />

Hierarchie von Speichersystemen, die auf<br />

Anforderungen der Applikationen (Performance,<br />

Business Continuity, Sicherheit,<br />

Aufbewahrungszeit, Compliance etc.) und<br />

Kosten beruhen.<br />

Konzepte für Speicherstufen erfordern einige<br />

Mechanismen, um Daten zu platzieren:<br />

� Statisch – Applikationen werden<br />

bestimmten Stufen/Speichersystemen<br />

zugeordnet<br />

� Nacheinander – Weiterverschieben nach<br />

bestimmten Voreinstellungen (z. B. ins Archiv)<br />

� Dynamisch: erfordert aktive Data Mover (z. B.<br />

HSM- oder ILM-basierte Policies)<br />

Quelle: SNIA<br />

Auf verschiedenen Stufen eines Kontinuums von Servern über schnelle Primärspeicher und nicht<br />

so schnelle Speicher bis zu Backup-Mechanismen und Archivierung wandern die gespeicherten<br />

Daten immer mehr in Richtung Nicht-Zugriff.<br />

scheidung allerdings rational gut begründet war, steht auf einem ganz anderen Blatt,<br />

da man sie vermutlich schon längst auf preisgünstigere Datenträger hätte auslagern<br />

können.<br />

Ein verwandter Ansatz ist Tiered <strong>Storage</strong>, der das Gleiche meint wie HSM und ILM,<br />

aber mehr die Kombination von IT-Infrastruktur (Hardware-Basis) und Dateninhalten<br />

berücksichtigt: Auf verschiedenen Stufen eines Kontinuums von Servern über schnelle<br />

Primärspeicher (Online <strong>Storage</strong> für Daten im sofortigen geschäftlichen Zugriff) und<br />

nicht so schnelle Speicher (Nearline <strong>Storage</strong> für Daten im eventuellen Zugriff) bis zu<br />

Backup-Mechanismen und Archivierung wandern die gespeicherten Daten immer mehr<br />

in Richtung Nicht-Zugriff. Eine solche Struktur, die von der Datenwertigkeit ausgeht,<br />

findet sich eigentlich in allen Unternehmen, egal wie sie diese bezeichnen.<br />

HSM und ILM lassen sich als übergeordnete, zum Teil auch „gefühlte“ Strategie<br />

begreifen, die Stufen und Kriterien der Datensicherung in eine begründete Reihenfolge<br />

zu bringen. Viele Hersteller, die HSM oder ILM propagiert haben, versprachen ihren Kunden<br />

vor allem eine Verringerung ihrer Speicherkosten. Dies bezieht sich auf die klassischen<br />

Speicherprozesse Datensicherung, Backup, Restore und Disaster Recovery, die so<br />

kategorisiert werden müssen, dass sie gemäss ihrem Wert für das Unternehmen auf<br />

dem jeweils leistungsfähigsten und preiswertesten Speichermedium abgelegt sind. Das


20 Kapitel 2<br />

Roadmap für die ILM-Einführung<br />

� ILM-Services einstellen und verwalten<br />

� Automatisieren mit Management-<br />

Tools für ILM<br />

� Zwischenbilanz der Vorteile erstellen<br />

� Mit Policy-basierten Services beginnen<br />

� ILM-Aktivitäten präzisieren<br />

� Policy-Angaben über alle Stufen verteilen<br />

� Service Levels für Speicherstufen und<br />

Datensicherung festlegen<br />

� Management-Tools für die<br />

Konfiguration einführen<br />

� Anforderungen mit den Fachabteilungen festlegen<br />

� Für jede Abteilung den Wert, die Lebensdauer<br />

und die Klassifizierung der Informationen festlegen<br />

� Tools für <strong>Storage</strong> Resource<br />

Management (SRM) zur Überprüfung<br />

der Infrastruktur benützen<br />

ILM-Aktivitäten im ganzen Unternehmen einrichten<br />

ILM-basierte Policies und Services automatisieren<br />

Pilotphase für ILM-basierte<br />

Lösungsansätze beginnen<br />

Standards einführen für<br />

Informationen, Daten und Security<br />

Informationen und<br />

Infrastruktur für ILM festlegen<br />

Quelle: SNIA<br />

Das Data Management Forum der SNIA empfiehlt, auf verschiedenen ILM-Ebenen intelligente Systeme<br />

und Tools einzuführen, um die ILM-Einführung zu optimieren. Weitere Informationen unter<br />

www.snia.org/dmf.<br />

hört sich leichter gesagt an als getan: Denn wie kann bestimmt werden, welche Daten<br />

wie lange auf welcher Stufe beziehungsweise auf welchem Medium abgelegt werden<br />

sollten? [4]<br />

Traditionell war die Datenhierarchie zweigeteilt: hier die Daten, die auf Festplatten in<br />

direktem, schnellen Zugriff gespeichert wurden, dort die Backup- und Archivdaten auf<br />

billigem Tape, nicht in direktem Zugriff und teilweise irgendwo eingebunkert. Wer sich<br />

für HSM oder ILM als Strategie entscheidet, will mit diesem Grob-Konzept von einst<br />

brechen und Daten entlang ihres jeweiligen Nutzes – ihrer Bedeutung für den unmittelbaren<br />

Geschäftsprozess – ablegen. Wer dies entlang bestimmter Kriterien und geplant<br />

unternimmt, wird auf diese Weise sofort Kosten sparen können [5].<br />

HSM und ILM haben auf jeden Fall, auch wenn diese Ansätze umstritten sind [6], eine<br />

Wirkung hinterlassen: Tiered <strong>Storage</strong> gehört heute zu einer Selbstverständlichkeit in<br />

den Unternehmen. Denn eine veritable Hierarchie beherrscht nun fast allerorten die<br />

Speicherlandschaft – aus zwei Stufen (Tiers) sind vier bis fünf geworden, und im Idealfall<br />

sollen sie genau die Wertigkeit der Daten auf jeder Stufe zu angemessenen Kosten<br />

darstellen. Also von teurem Primärspeicher (Fibre Channel- und SAS-Platten), über nicht<br />

ganz so teuren Sekundärspeicher (Disk-to-Disk (D2D) auf SATA-Platten), der im nicht so


Tiered <strong>Storage</strong>: intelligentes Informationsmanagement im Unternehmen 21<br />

schnellen Server- oder Applikationszugriff bleiben soll, hin zu mehreren Formen von<br />

Backup: entweder als Backup-Speicher auf billigen SATA-Platten, die die Funktion von<br />

früherem Tape-Backup erfüllen (Virtual Tape Libraries / VTL), oder als klassisches Backup<br />

und Archiv auf Magnetbändern.<br />

Tiered <strong>Storage</strong> und Datenklassen<br />

D ie klassische Aufteilung kannte nur zwei Speicherebenen: In einem ersten Schritt<br />

wurden die Daten auf servernahen Festplatten (Direct Attached <strong>Storage</strong> bzw. DAS)<br />

abgelegt, eine Zeit lang dort für den schnellen Datenzugriff vorrätig gehalten und dann<br />

in einem zweiten Schritt auf eine Tape Library weiter verschoben. Mussten sie auch dort<br />

für einen Datenzugriff bereit stehen, kamen im Enterprise-Bereich nur mächtige Tape<br />

Libraries von <strong>Storage</strong>Tek oder IBM mit ihrer performanten Motorik für das schnelle Be-<br />

und Entladen der Bandlager (Cartridges) zum Einsatz.<br />

Daneben wurden auch Backup- und Archivdaten auf Bänder abgelegt und – der<br />

Theorie nach – an einen sicheren Ort verbracht, oft außerhalb des Firmenstandortes.<br />

Wurden die Daten im Recoveryfall wieder gebraucht, mussten sie zurücktransportiert<br />

und in einem stunden- oder tagelangen Prozess wieder in die produktiven Systeme<br />

eingespielt werden.<br />

Mit der Weiterentwicklung der Platten- und Arraytechnologie geht man heute von<br />

einem mehrstufigen Tiered-<strong>Storage</strong>-Modell aus, das mindestens drei oder vier Klassen<br />

umfasst:<br />

Tier 0: Hier kommen schnelle Datenspeicher (Flash Memory oder (Enterprise Class)<br />

Solid State Disk) zum Einsatz, um Informationen in einem sehr schnellen Zugriff zu<br />

halten. Solid State Disk (SSD) werden zum Beispiel von Spezialanbietern wie Texas<br />

Memory Systems schon seit Jahren als sehr teurer Cache-Speicher angeboten.<br />

Bevorzugte Kunden sind staatliche Organisationen in den USA, Banken oder Firmen,<br />

die in der Erdöl-Exploration aktiv sind, wo sehr große Datenmengen anfallen, die<br />

selbst auf Online <strong>Storage</strong> schon zu weit weg von den Applikationen wären.<br />

Tier 1: Mission critical data, umsatzkritische Daten, umfassen etwa 15 Prozent der<br />

Daten. Sehr schnelle Antwortzeit, abgelegt auf FC- oder SAS-Disk, in der Regel in<br />

einem FC-SAN mit Datenspiegelung und lokaler oder entfernter Replikation. Angestrebte<br />

Verfügbarkeit von 99,999 Prozent. Sofortige Wiederherstellbarkeit erforderlich.<br />

Aufbewahrungszeit: Stunden.<br />

Tier 2: Vital Data, etwa 20 Prozent der Daten, weniger umsatzkritische Daten als bei<br />

Tier 1. Ebenfalls schnelle Antwortzeit erforderlich, FC- oder SAS-Disk. Neben FC-SAN<br />

auch IP-SAN (iSCSI) mit 99,99 Prozent Verfügbarkeit. Tolerierbare Ausfallzeiten im<br />

Sekundenbereich. Aufbewahrungszeit: Tage.


22 Kapitel 2<br />

Tier 3: Sensitive Data, machen etwa 25 Prozent der Daten aus und erfordern eher<br />

moderate Antwortzeiten. Hier kommen meist SATA-Disk und IP-SANs (iSCSI) zum<br />

Einsatz. Einsatzfeld von Virtual Tape Libraries (VTL) und Disk-to-Disk-to-Tape mit<br />

periodischen Backups. 99,9 Prozent Verfügbarkeit, mögliche Ausfallzeiten im Minutenbereich.<br />

Aufbewahrungszeit: Jahre.<br />

Tier 4: Non-critical Data, etwa 40 Prozent der Daten. Gespeichert meist auf Tape,<br />

angeschlossen an FC-SAN oder IP-SAN (iSCSI). 99,0 Prozent Verfügbarkeit. Ausfallzeiten<br />

können Stunden oder sogar Tage umfassen, da die Daten sich nicht mehr im<br />

produktiven Zugriff befinden. Aufbewahrungszeit: Unbegrenzt.<br />

Tiered <strong>Storage</strong> und die Lebenszeit von Daten<br />

Tier 1 Tier 2 Tier 3<br />

Datentyp Berechnung Applikation Referenz, Archiv<br />

Applikationen Geschäftskritisch, OLTP Vital, sensitive Referenz<br />

Verfügbarkeit<br />

in %<br />

99,999 % 99,99 % 90,0 bis 99,9 %<br />

I/O, Durchsatz Sehr hoch Hoch Moderat, niedrig<br />

Eingeplante<br />

Ruhezeit<br />

Keine < 5 Stunden/Jahr = > 10 Stunden/Jahr<br />

Recovery- Festplatte Festplatte, VTL, Tape Library Tape<br />

Technologie 100<br />

Probability of reuse (%)<br />

Probability of reuse<br />

Primärspeicher<br />

� Enterprise-Festplatte<br />

� Mirroring und<br />

Replikation, CDP<br />

� Synchrone und<br />

asynchrone entfernte<br />

Spiegelung<br />

Value of data<br />

SATA/JBOD<br />

MAID<br />

0<br />

Durchschnittliche Tage seit<br />

∞<br />

der Entstehung<br />

Recovery Time<br />

0 Tage 30+ Tage 90+ Tage ein Jahr für immer<br />

Objective (RTO) Millisekunden Sekunden Minuten Stundeb Tage<br />

Schlüsselkomponenten Data mover (remastering)<br />

(ILM) Policy engine<br />

Hierarchie von Tiered <strong>Storage</strong><br />

Amount of data<br />

Secondary storage<br />

� SATA-Festplatte und<br />

Virtual Tape (VTL)<br />

� Unveränderlicher Inhalt,<br />

Backup/Recovery,<br />

Referenzdaten<br />

� Point-in-time, Snapshot,<br />

Deduplication<br />

VTLs<br />

Langzeitaufbewahrung<br />

� Unveränderlicher Inhalt<br />

� Video, Medizin, Regierung,<br />

Compliance<br />

� Tape Library, Archivierung<br />

� Aufbewahrung an einem<br />

anderen Ort<br />

Quelle: Horison Information Strategies<br />

Es ist zunehmend wichtig zu verstehen, dass sich der Wert von Daten während ihrer Lebenszeit<br />

verändert. Deshalb verändern sich auch ihre Aufbewahrungsorte und die Methoden, sie während<br />

dieser Zeit zu verwalten.<br />

Amount of data


Tiered <strong>Storage</strong>: intelligentes Informationsmanagement im Unternehmen 23<br />

HSM, ILM oder Tiered <strong>Storage</strong> setzen eine saubere, kontinuierliche Datenklassifizierung<br />

voraus. Diese kann heute, insbesondere bei unstrukturierten Daten, in der Regel<br />

nur manuell erfolgen, was allerdings viel zu teuer ist. Auf dem Markt erhältliche Software<br />

wie Data Movers oder Policy Engines haben ebenfalls ihren Preis, der sich erst<br />

einmal rechnen muss. Die nahe liegende Konsequenz: Viele Kunden halten ILM oder<br />

Tiered <strong>Storage</strong> für eine gute Idee, scheuen sich aber vor entsprechenden Investitionen.<br />

In der Praxis hat sich ILM als umfassendes Konzept immer nur dann durchgesetzt, wenn<br />

es als integriertes Produkt zu haben war (wie bei CentricStor von Fujitsu Siemens Computers).<br />

Es wäre ein folgenreicher Irrtum zu glauben, einmal gespeicherte Daten verändern<br />

nicht ihre Wichtigkeit je nach Stellung im Geschäftsprozess, zeitlicher Nähe zu ihrer<br />

Erfassung oder weiteren Kriterien. Schneller Zugriff auf gebuchte Flugdaten ist zum<br />

Beispiel unmittelbar vor, während und nach dem Flug notwendig, nach einer Woche<br />

sind sie nur noch für Statistiken und Auswertungen des Kaufverhaltens der Kunden von<br />

Interesse. Deshalb sind Entscheidungen darüber zu treffen, wo und wie lange die Daten<br />

jeweils aufbewahrt werden sollen. Noch zur Zeit der Einführung von „nearline“ Tape<br />

Libraries zu Anfang der 1990er Jahre ging man davon aus, dass die Archivierung die<br />

letzte Phase vor dem Löschen der Daten sei. Längere Lebenszeiten als ein bis zwei Jahre<br />

für die meisten Daten konnte sich damals niemand vorstellen.<br />

Doch das hat sich gründlich geändert. Zum einen haben weltweit staatliche Regeln<br />

dazu gezwungen, in der IT gespeicherte Daten länger aufzubewahren, zum anderen<br />

ermöglichen neue Festplattentechnologien eine Aufspaltung von Disk <strong>Storage</strong> in mehrere<br />

verschiedene Phasen. Jetzt wächst der Anteil der Daten, die gegen Ende ihres<br />

Lebenszyklus noch immer aufbewahrt werden, und sinkt nicht mehr so wie früher.<br />

Es gibt also mehr „Verschiebebahnhöfe“ als früher, und es muss mehr Rechen- beziehungsweise<br />

Serverleistung für das Bewegen der Daten von einem Tiered <strong>Storage</strong> zum<br />

nächsten in Anspruch genommen werden. Für die nötige Klassifizierung der Daten und<br />

die Automatisierung der Prozesse haben sich zunächst viele Start-ups engagiert, denen<br />

dann auch die Großen der Branche gefolgt sind. So arbeitet Fujitsu Siemens Computers<br />

hier mit Kazeon zusammen.


Kapitel 3<br />

Online-<strong>Storage</strong>:<br />

von Platten und Zuverlässigkeit<br />

In diesem Kapitel geht es um den äußerst sensiblen Bereich der direkten Datenspeicherung<br />

– während oder unmittelbar nach ihrer Entstehung im Geschäftsprozess.<br />

Hier darf nichts verloren gehen, denn ein doppelter Boden in Form eines<br />

Backups auf zusätzlichen Medien wird erst anschließend eingezogen. Deshalb<br />

spielen Kosten hier nur eine nachgeordnete Rolle. Was kennzeichnet die teuren<br />

Fibre Channel- und SAS-Platten, die bei Online-<strong>Storage</strong> eingesetzt werden?<br />

Warum werden hier RAID-Systeme verwendet? Und wie schnell muss der direkte<br />

Datenzugriff eigentlich sein? Das sind nur einige der Fragen, die näher beleuchtet<br />

werden.<br />

In der Frühzeit der elektronischen Datenverarbeitung, die ausschließlich auf Großrechnern<br />

(Mainframes) stattfand, wurden ursprünglich Lochkarten und ab 1952<br />

Magnetbänder zur Speicherung der Daten verwendet. Bei beiden Methoden wurden<br />

binäre Daten (sie bestehen aus zwei Zahlen, „1“ oder „0“) entweder durch eine Lochung<br />

oder Nichtlochung auf den Papierkarten beziehungsweise durch eine Magnetisierung<br />

oder Nichtmagnetisierung auf der Magnetschicht der Bänder „eingestanzt“. Diese Form<br />

der Speicherung ist noch heute üblich und notwendig, da Computer nur mit dem binären<br />

Zahlensystem, auf das sämtliche Informationen reduziert oder umgewandelt werden,<br />

umgehen können. Anders gesagt: Dieses Zahlensystem besteht eigentlich nur aus<br />

den beiden Zahlen „1“ und „0“, weil das Kernstück der Computer, der Prozessor, nur auf<br />

der Basis von Strom arbeiten kann („an“ und „aus“). Das bedeutet zugleich, dass die<br />

Datensicherung prinzipiell auf sehr unsicheren Beinen steht.<br />

Magnetbänder waren schnell und konnten eine für die damalige Zeit große Datenmenge<br />

speichern – zu Anfang fünf Megabyte (= 5 Millionen Zeichen, entspricht mehreren<br />

Büchern oder zum Beispiel dem kompletten Werk von Shakespeare – siehe die Übersicht<br />

in Kapitel 1). Doch schon 1956 kam ein alternativer Datenträger auf: die Magnetplatte,<br />

Vorläufer der modernen Festplatte. Die ersten Datenträger dieser Art bestanden<br />

aus einem Stapel von 51 Scheiben mit einem Durchmesser von 60 cm (IBM Ramac).<br />

Festplatten, wie sie noch heute üblich sind, verfügen über mehrere, sich drehende


26 Kapitel 3<br />

Scheiben, die in einem luftdichten Gehäuse übereinander angeordnet sind. Anders als<br />

bei den Magnetbändern werden die Daten hier nicht mehr der Reihe nach (sequentiell)<br />

auf den Datenträger geschrieben und gelesen, was den Zugriff und die Suche verlangsamt,<br />

sondern auf diese beschichteten Scheiben. Ein Schreib-/Lesekopf wird von einem<br />

Motor über diese Scheiben bewegt und kann zu allen Stellen springen. Dies wird im<br />

Gegensatz zur Nacheinander-Speicherung als „wahlfreier Zugriff“ bezeichnet, der sich<br />

vor allem durch seine Schnelligkeit auszeichnet.<br />

Lebenszyklus von Festplatten<br />

Festplatten bestehen überwiegend aus mechanischen Teilen, die sich ständig bewegen<br />

und dabei Energie verbrauchen. Dies passiert auch dann, wenn gar keine Schreiboder<br />

Lesezugriffe stattfinden. Zu den Vorteilen von Magnetbändern zählt dem gegenüber,<br />

dass sie nicht ständig bewegt werden und dass sie ihre Daten auch im stromlosen<br />

Zustand bewahren. Die Lebensdauer von Festplatten ist wegen ihrer Mechanik und<br />

dadurch bedingter Fehlerquellen generell begrenzt – im Durchschnitt sollten sie nach<br />

drei bis vier Jahren ausgetauscht werden, auch wenn einige der Plattenhersteller von<br />

längeren Lebenszyklen sprechen. Bei Bändern für den professionellen Bereich geht man<br />

davon aus, dass sie dagegen 30 oder sogar mehr Jahre halten.<br />

16,4<br />

23,3<br />

Der Festplattenmarkt nach Schnittstellen<br />

2007 2009<br />

33,9<br />

26,4<br />

Parallel SCSI SAS Fibre Channel ATA/SATA<br />

23,3<br />

44,9<br />

30,4<br />

1,4<br />

Quelle: Gartner Dataquest<br />

Die SAS-Schnittstelle entwickelt sich laut Gartner Dataquest zur Nummer 1 bei den Festplatten.<br />

Das lange dominierende Parallel SCSI schrumpft zur Bedeutungslosigkeit.


Online-<strong>Storage</strong>: von Platten und Zuverlässigkeit 27<br />

Der Einsatzbereich von Tape verlagert sich heute innerhalb des Kontinuums von Tiered<br />

<strong>Storage</strong> immer mehr vom Backup zur Archivierung (siehe Kapitel 5), während leistungsfähige<br />

Festplatten den Hauptteil der Datenspeicherung und oft auch einen Teilbereich<br />

des Backups übernehmen. Platten stehen im direkten Zugriff der Server für<br />

geschäftskritische Daten, wobei im Online <strong>Storage</strong> sehr schnelle, aber teure Fibre Channel-<br />

und SAS-Platten verwendet werden. Preisgünstigere und langsamere Platten finden<br />

Verwendung für ein Backup auf Disksystemen oder als Zwischenstation in Form<br />

von Virtual Tape Libraries (VTL), auf der die Daten noch für einen Applikationszugriff<br />

bereitgehalten werden (Nearline-Speicher), bevor sie nach bestimmten Regeln und/oder<br />

Fristen „endgültig“ auf Tape auslagert werden.<br />

Es dauerte bis zum Jahr 1980, als die 1979 gegründete Firma Seagate (heute der<br />

weltweit größte Plattenhersteller) eine für IBM-PCs geeignete Festplatte mit einer<br />

Kapazität von 5 MByte herausbrachte. Diese Platten und ihre direkten Nachfolger hatten<br />

keine eigene Intelligenz und wurden komplett von einem externen Controller<br />

gesteuert. Die heute üblichen Festplatten beruhen auf den Standards IDE/EIDE (Integrated<br />

Drive Electronics und Enhanced Integrated Drive Electronics) und ATA (Advanced<br />

Technology Attachment), die aus dem Consumer-Bereich stammen, oder werden als<br />

SCSI-Platten (gesprochen „Skasi“ / Small Computer Systems Interface) bezeichnet, entwickelt<br />

für den Unternehmensbereich. An SCSI-Controller konnten erstmals sehr viele<br />

Die Leistungsfähigkeit verschiedener Plattentypen<br />

Fibre Channel SAS SCSI SATA<br />

Spezifikation Online <strong>Storage</strong><br />

und TransaktionsdatenUmdrehungs-<br />

10.000, 15.000<br />

geschwindigkeit rpm *<br />

Durchschnitt liche<br />

Zugriffszeit<br />

Maximale Laufzeit<br />

(Std. x Tage)<br />

Online <strong>Storage</strong><br />

und Transaktionsdaten<br />

10.000, 15.000<br />

rpm *<br />

Online <strong>Storage</strong><br />

und Transaktionsdaten<br />

10.000, 15.000<br />

rpm *<br />

Low-end File<br />

<strong>Storage</strong><br />

7.200 rpm *<br />

5,5 – 7,5 ms ** 5,5 – 7,5 ms ** 5,5 – 7,5 ms ** 13 – 15 ms **<br />

24 x 7 24 x 7 24 x 7 10 x 5<br />

I/O Duty Cycle Hoch Hoch Hoch Niedrig<br />

Maximale Busgeschwindigkeit<br />

4 Gigabit/sec 3 Gigabit/sec 3,2 Gigabit/sec<br />

1,5 – 3 Gigabit/sec<br />

Interaktives Fehlermanagement<br />

Ja Ja Ja Nein<br />

* rpm = Umdrehungen pro Minute<br />

** ms = Millisekunden<br />

Quelle: Horison Information Strategies


28 Kapitel 3<br />

verschiedene Geräte angeschlossen werden – von der Festplatte bis zum Scanner –,<br />

außerdem war ihre parallele Datenübertragungsrate höher als frühere sequentielle<br />

Transportwege, bei der die Daten nacheinander (= sequentiell) übertragen wurden. Seit<br />

2001 gewinnt die ATA-Weiterentwicklung SATA (Serial Advanced Technology Attachment)<br />

eine immer größere Verbreitung, wobei die Daten hier nicht mehr parallel, sondern<br />

nacheinander (seriell) übertragen werden.<br />

SATA-Festplatten werden zu einer Konkurrenz zu den Fibre Channel-Festplatten, da<br />

sie heute eine höhere Ausfallsicherheit erreichen und preisgünstiger sind. Die Fibre<br />

Channel-Technologie insgesamt gilt seit dem Aufkommen von eigenen Speichernetzen<br />

(<strong>Storage</strong> Area Networks oder SANs) als besonders leistungsfähig für den Unternehmensbereich,<br />

sprich zuverlässig und schnell. In diesem professionellen Sektor spielen<br />

heute ferner SAS-Platten (Serial Attached SCSI) eine große Bedeutung, die die SCSI-<br />

Platten allmählich ersetzen. Da sie kompatibel zu SATA sind, können sie auch gut<br />

zusammen in einem gemeinsamen Plattengehäuse (Array) eingebaut werden, was zu<br />

einer Verbindung von Tier 1 und Tier 2 in einem einzigen Gerät führen kann.<br />

Die technischen Möglichkeiten der verschiedenen Festplattentypen sind noch nicht<br />

ausgereizt, so dass es wahrscheinlich ist, dass sich SATA weiter in die professionelle<br />

Speicherlandschaft ausdehnen wird, selbst aber wiederum von SAS im Nearline <strong>Storage</strong><br />

abgelöst werden wird. Der Vorteil von Fibre Channel liegt neben einer besseren<br />

Ausstattung mit internen Mikroprozessoren zur Mechanik- und Fehlerkontrolle auch<br />

darin, weiter entfernt von anderen Geräten im Speichernetz (bis zu 10 Kilometer, bei<br />

Was Kunden von Online <strong>Storage</strong> verlangen:<br />

Zuverlässigkeit und Verfügbarkeit<br />

Was ist am schwersten zu ersetzen, wenn ein Unternehmen im Katastrophenfall<br />

alles verliert?<br />

– Die Gebäude?<br />

– Die Computer?<br />

– Die Daten?<br />

„50 Prozent aller Unternehmen, die ihre Daten in der Folge eines Feuers oder einer<br />

Überschwemmung verlieren, sind innerhalb eines Jahres bankrott.“<br />

Mögliche Lösungen:<br />

– Zuverlässigere Festplatten (von SATA zu SAS migrieren)<br />

– Redundante Plattensysteme (RAID, Mirroring)<br />

– Regelmässige Backups<br />

Quelle: Fujitsu Siemens Computers


Online-<strong>Storage</strong>: von Platten und Zuverlässigkeit 29<br />

SCSI nur 25 Meter) stehen zu können. Bei dem Aufbau von <strong>Storage</strong> Area Networks<br />

(SANs) ab Ende der 90er Jahre hat diese Funktionalität eine große Rolle gespielt, da<br />

sich so räumlich entfernte Standorte, zum Beispiel Häuser auf einem Fabrikgelände<br />

oder innerhalb einer Stadt, miteinander in einem Speichernetz verbinden lassen. Durch<br />

die Anwendung von IP-Protokollen für Speichernetze kann inzwischen die Reichweite<br />

von FC- und SCSI-/SAS-Festplatten auf sehr lange, globale Distanzen ausgedehnt<br />

werden.<br />

Im Rahmen einer Daten- und Speicherhierarchie werden im Online <strong>Storage</strong> ausschließlich<br />

leistungsfähige FC-, SAS- und SCSI-Platten eingesetzt [1]. Solid State Disks<br />

(SSD), die bereits von einigen Herstellern in ihre Speichersysteme eingebaut werden,<br />

haben vor allem aufgrund ihrer hohen Zugriffsgeschwindigkeit eine Bedeutung als eine<br />

Art zweiter Cache (Arbeitsspeicher oder RAM). Da sie über keine mechanischen Teile<br />

verfügen, haben sie im Vergleich mit klassischen Festplatten eine längere Lebensdauer.<br />

Allerdings kommt auch diese zu einem Ende: Der Lebenszyklus von SSDs endet laut<br />

Herstellerangaben nach 10.000 bis 1.000.000 Schreibzugriffen [2].<br />

Festplatten – ein Widerspruch zur<br />

langfristigen Datensicherung<br />

S elbst wenn man sich für hochwertige Festplatten im Online <strong>Storage</strong> entscheidet,<br />

kommt man an einem Problem nicht vorbei: Die Haltbarkeit von Festplatten und<br />

damit der auf ihnen gespeicherten Daten ist extrem begrenzt. Nach drei bis vier Jahren<br />

läuft in der Regel die Gewährleistung durch den Hersteller aus, und aus buchhalterischen<br />

und Abschreibungsgründen wird häufig eine Neuinvestition vorgenommen.<br />

Doch der eigentliche Grund für diese Maßnahme liegt in einem eigenartigen Widerspruch<br />

des so genannten digitalen Zeitalters: Zwar werden immer mehr Informationen<br />

auf magnetischen Speichern abgelegt, doch diese sind alles andere als langlebig – ein<br />

Stromausfall, ein Headcrash, Materialschäden, Diebstahl oder ein plötzliches Lebensende<br />

der System-Hardware genügen, um alles das, was so sorgfältig und unter Aufwand<br />

beträchtlicher Kosten gespeichert wurde, endgültig dem Nirwana zu übergeben.<br />

Der rechtzeitige Austausch von Festplatten hängt auch davon ab, unter welchen<br />

äußeren Bedingungen – zum Beispiel Temperatur – und wie lange die Festplatten laufen.<br />

Der Lebenszyklus (Duty Cycle) wird ferner durch häufiges Hochfahren und Ausschalten<br />

mehr belastet, als wenn eine Platte im 24-Stunden-Dauerbetrieb ist – vergleichbar<br />

den Stresssituationen von Flugzeugen bei Start und Landung [3].<br />

Selbst wenn die Platten im Einzelfall noch etwas länger über den Drei-Jahres-Rhythmus<br />

hinaus halten sollten, ist es ratsam, rechtzeitig einen Wechsel vorzunehmen und<br />

die Daten umzukopieren: Was sind schon die (stetig fallenden) Kosten für neue Platten


30 Kapitel 3<br />

AFR (%)<br />

Fehlerraten pro Jahr (AFR) und nach Plattenalter<br />

10<br />

8<br />

6<br />

4<br />

2<br />

0<br />

3 Monate<br />

6 Monate<br />

und die anfallenden Administratorstunden im Verhältnis zu einem (selbst verschuldeten)<br />

Datengau, dessen Kosten unter Geschäftsgesichtspunkten ins Unermeßliche explodieren<br />

können?<br />

Ausfallsicherheit mit RAID<br />

1 Jahr<br />

Quelle: E. Pinheiro/W.-D. Weber/L. A. Barroso, Failure Trends in a Large<br />

Disk Drive Population, Februar 2007 (Google)<br />

In die Fehlerraten pro Jahr ist nicht nur das jeweilige Alter der Festplatten eingegangen, sondern es<br />

wurden auch verschiedene Plattentypen berücksichtigt.<br />

Um die Daten auf dem prinzipiell unsicheren Medium Festplatte zu schützen, gibt es<br />

so genannte RAID-Lösungen, die heute in den meisten Disksystemen standardmäßig<br />

eingesetzt werden. RAID, das Redundant Array of Independent (je nach Lesart auch:<br />

Inexpensive) Disks geht auf eine Entwicklung der Universität Berkeley Mitte der 90er<br />

Jahre zurück. Dabei muss man zwei wesentliche Funktionsbestimmungen eines RAID<br />

unterscheiden.<br />

Zunächst geht es darum, viele kleine und billige (inexpensive) Platten zu einer Gruppe<br />

zusammenzufassen, um sie als LUN (Logical Unit Number) einer Applikation mit erhöhter<br />

Performance zur Verfügung zu stellen. Mit RAID O werden in diesem Fall mehrere<br />

2 Jahre<br />

3 Jahre<br />

4 Jahre<br />

5 Jahre


Online-<strong>Storage</strong>: von Platten und Zuverlässigkeit 31<br />

Platten zusammengefasst, um so die Leistung zu erhöhen. Allerdings erhöht sich in<br />

diesem Fall auch das Risiko (entgegen dem allgemein so verstandenen Anspruch, mit<br />

RAID eine höhere Datensicherheit zu erreichen), da die statistische Wahrscheinlichkeit<br />

steigt, dass durch den Ausfall einer Platte im Verbund das ganze System nicht mehr<br />

funktioniert.<br />

Ein RAID erscheint gegenüber dem Betriebssystem also als eine einzige logische<br />

Festplatte (bestehend aus vielen verschiedenen physikalischen Platten). Mit der RAID-<br />

Funktion des Striping (= engl Stripe = Streifen) lassen sich die Kapazitäten jeder Platte<br />

im Verbund in Partitionen oder Teilbereiche aufteilen, die wiederum in einem oder mehreren<br />

LUNs zusammen adressiert werden können: Anwendungsdaten können so über<br />

mehrere Platten hinweg verteilt werden, womit sie bereits eine frühe Form von Speichervirtualisierung<br />

nutzen.<br />

Heute werden RAIDs vor allem durch ihre zweite Begriffsbestimmung wahrgenommen:<br />

Hier geht es darum, in verschiedenen Varianten für einen Ausfallschutz von Platten<br />

zu sorgen. Doch ein RAID-Controller kann mehr: Er übernimmt die Verwaltung der<br />

Platten, ändert ihre Konfiguration und die Größe des Systemcaches, jeweils entsprechend<br />

der Applikationsanforderungen. Der gemeinsame Nenner der verschiedenen<br />

RAID-Level (außer RAID 0) besteht darin, je nach den Anforderungen eines Systems<br />

oder einer Applikation für ein ausgewogenes Verhältnis von Performance und Redundanz<br />

zu sorgen. Die Redundanzvarianten erfordern zusätzliche Investitionen in Platten,<br />

die lediglich für den Ernstfall eines Plattenversagens bereitstehen (Hot Spares).<br />

So können sich Disksysteme durch Parity-Berechnungen, die viel Rechenzeit beanspruchen<br />

und heute teilweise in Chips gegossen sind, wieder in einen früheren Zustand<br />

zurückversetzen, sollte eine Platte oder ein LUN-Bereich ausgefallen sein. Bei RAID 1<br />

wird alles doppelt gespeichert (wofür doppelte Diskkapizität erforderlich ist), während<br />

bei RAID 5 etwa zehn Prozent mehr Plattenplatz angeschafft werden muss, um für<br />

Redundanz zu sorgen: Für mehrere Platten steht insgesamt eine Platte bereit, um im<br />

Ernstfall einzuspringen.<br />

Das inzwischen weit verbreitete RAID 6 wurde entwickelt, um eine mögliche Fehlerquelle<br />

in RAID 5 zu beseitigen: Was passiert eigentlich, fragten sich Spezialisten verschiedener<br />

Hersteller und Forschungsgruppen, wenn während der rechenintensiven<br />

Rekonstruktion des ursprünglichen Parity-Zustandes nach dem Ausfall einer Platte<br />

gerade die Ersatzplatte oder eine weitere Platte im Array ihren Dienst verweigern sollte?<br />

RAID 6 hält für dieses erweiterte Ausfallszenario eine zweite Parityberechnung vor, die<br />

bei einem zweiten Plattenausfall aktiv wird. In so einem Fall würde die Performance des<br />

Controllers um mehr als 30 Prozent verglichen mit einem einfachen Ausfall bei RAID 5<br />

abnehmen.<br />

Die meisten Hersteller empfehlen für ihre Systeme oder Applikationen eine<br />

bestimmte RAID-Konfiguration. Oracle empfiehlt zum Beispiel für seine Datenbank<br />

eine Kombination von RAID 1 und 5, um die Performance zu steigern. RAID 3 eignet


32 Kapitel 3<br />

Meilensteine in der Geschichte der Festplattenindustrie<br />

Kapazität Hersteller Modell Jahr Formatierte Kapazität<br />

5 MByte IBM 350 Ramac 1956 4,4 MByte<br />

10 MByte IBM 1301 1962 21,6 MByte<br />

100 MByte IBM 2302-3 1965 112 MByte<br />

500 MByte STC 8800 Super Disk 1975 880 MByte<br />

1 GByte IBM 3380 1981 1,260 GByte<br />

100 GByte Seagate Barracuda 180 2001 181,6 GByte<br />

500 GByte HGST 7K500 2005 500 GByte<br />

1 Terabyte HGST 7K1000 2007 1 Terabyte<br />

1,5 Terabyte Seagate Barracuda 7200.11 2008 1,5 Terabyte<br />

Quelle: <strong>Storage</strong> Newsletter, Ausgabe Juli 2008<br />

sich mehr für Videostreaming, und NetApp schreibt für seine NAS-Filer RAID 4 vor, weil<br />

damit sehr schnelle Schreib- und Leseaktionen auf den Platten vorgenommen werden<br />

können [4].<br />

Wieviel Datenschutz ist genug?<br />

Die IT-Hersteller waren ziemlich erfinderisch, um um die Plattenstapel in den Disk<br />

Arrays herum weitere Schutzfunktionen für die Datenhaltung einzuführen. Alle<br />

Verfahren sind von dem Grundgedanken der Redundanz gekennzeichnet: nach Möglichkeit<br />

alles doppelt oder mehrfach vorhalten. Auf Hardware-Ebene gehören dazu<br />

Cluster (dt. Haufen) und Grid (dt. Netz): Hier wird bestimmte Hardware mehrfach ausgelegt,<br />

sodass im Schadensfall das zweite Gerät mit der identischen Konfiguration und<br />

dem identischen Datenbestand einspringen kann. Die Übergänge zwischen Cluster und<br />

Grid sind mehr auf einer Skalierungsebene zu sehen und unter Experten sehr umstritten<br />

(siehe auch Ausblick auf Seite 73).<br />

International agierende Unternehmen vernetzen auch ihre Datenspeicher miteinander,<br />

sodass sie in erhöhtem Grade darauf achten müssen, ihre Speichermedien, Speichernetze<br />

und Backups gegen Missbrauch zu schützen. Heutige SAN- und NAS-Infrastrukturen<br />

verfügen sowohl auf Fibre Channel- als auch auf iSCSI-Basis nur über<br />

geringfügige Sicherheitsmechanismen. Insofern genügen sie häufig nicht den Anforderungen<br />

einer Security-Policy für die Unternehmens-IT.


Online-<strong>Storage</strong>: von Platten und Zuverlässigkeit 33<br />

In FC-SANs sorgen Switche für ein Zoning, das eine Zugriffssteuerung auf die einzelnen<br />

Speichersysteme erlaubt. Dieses Zoning kann hardware- oder software-basiert<br />

erfolgen. Beim Softzoning erhalten Geräte lediglich Informationen über die Systeme,<br />

mit denen sie Daten austauschen dürfen. Beim Hardzoning überprüft eine Hardware<br />

alle durchlaufenden Pakete und leitet sie nur an erlaubte Adressen weiter. Unter LUN-<br />

Masking versteht man in einem FC-SAN die Funktion, einer Applikation nur die Speicherbereiche<br />

sichtbar zu machen, die sie für die Durchführung ihrer Aufgaben braucht.<br />

Bei IP-SANs auf iSCSI-Basis wird IPsec zur Authentifizierung und Sicherung der<br />

Datenströme zum Beispiel durch Verschlüsselung eingesetzt (5).<br />

Das Prinzip von RAID 1 – eine Platte wird komplett auf eine andere gespiegelt – lässt<br />

sich auch auf die Spiegelung (Mirroring) eines ganzen Speichersystems übertragen: An<br />

einem zweiten, möglichst mehrere Dutzend Kilometer entfernten Standort, wird ein<br />

identisches zweites Server- und Speicherszenario in Form eines Ausweichrechenzentrums<br />

aufgebaut. Permanent werden alle Daten von Standort A nach Standort B übertragen,<br />

sodass dort der gleiche Datenbestand existiert. Im Katastrophenfall wird die<br />

produktive IT samt Datenspeicherung von A nach B übergeben. Da alles redundant und<br />

gespiegelt ist, kann dort der IT-Betrieb fortgeführt werden.<br />

Datensicherung setzt sich logischerweise auf der Software-Seite fort in den Verfahren<br />

für Backup und Restore, Continuous Data Protection (CDP) sowie Snapshots (Dazu<br />

mehr in Kapitel 5). Alle diese Verfahren haben den gemeinsamen Ursprung in dem<br />

Grundproblem der Datenspeicherung auf elektromagnetischen Medien wie Festplatte<br />

oder Tape (und DVD oder Blu Ray ebenso): Bei allen Vorzügen dieser Technologien können<br />

sich die gespeicherten Daten sehr schnell in Luft auflösen. Ein altes Medium wie<br />

Papier ist da beständiger, und gegen äußere Gefahren wie Feuer oder Naturkatastrophen<br />

gibt es bewährte Gegenmittel. Elektronische Datenträger dauerhaft vor Ausfall<br />

oder Beschädigung zu schützen bleibt dagegen eine beschwerliche Daueraufgabe, der<br />

die ganze Aufmerksamkeit der IT-Verantwortlichen gehören muss. Denn das absolut<br />

ausfallsichere Patentrezept gibt es noch nicht.


Kapitel 4<br />

Speichernetze – die Qual der Wahl<br />

Speichernetze sind heute „state of the art“. Zumindest alle großen Unternehmen<br />

setzen diese Technologie ein. Allerdings existiert sie in verschiedenen Varianten,<br />

was ihr Verständnis gerade für Anfänger kompliziert gestaltet. In diesem Kapitel<br />

geht es deshalb darum, einige grundlegende Architekturmerkmale der verschiedenen<br />

Ansätze zu beschreiben und wesentliche Begriffe zu erklären. Dies ist um<br />

so mehr notwendig, als gerade mittelständische Unternehmen heute ebenfalls<br />

die Möglichkeit besitzen, für ihre Zwecke ein eigenes Speichernetz einzurichten.<br />

Doch für welches soll man sich in der Praxis entscheiden?<br />

Noch sind Festplatten, die in Server und PCs eingebaut oder in Speichersystemen<br />

(engl. <strong>Storage</strong> Arrays) direkt an die Server angeschlossen sind, die am weitesten<br />

verbreitete Struktur in mittelständischen Unternehmen: Man spricht hier von<br />

Direct Attached <strong>Storage</strong> (DAS). Der Mittelstand hat die Produktivkräfte der IT entdeckt<br />

und nutzt sie für seine Geschäftsprozesse. Seine finanziellen Ressourcen beschränken<br />

aber zugleich seine Investitionen in eine eigene IT-Infrastruktur. Darüber hinaus verfügt<br />

EMEA-Marktanteile für DAS, NAS und SAN 2007<br />

DAS<br />

NAS<br />

17 %<br />

23 %<br />

60 %<br />

SAN<br />

Quelle: IDC, 2008<br />

Auch wenn heute insgesamt das SAN die Topologie von Speichersystemen bestimmt, ist der Anteil<br />

von DAS immer noch recht groß, besonders beim Mittelstand.


36 Kapitel 4<br />

man über weniger Fachkräfte, die sich noch dazu nicht so spezialisieren können wie ihre<br />

Kollegen in den Großunternehmen, die jeweils nur einen kleinen Teil der IT zu betreuen<br />

haben. Die praktische Folge: Der Mittelstand macht nicht jede Mode (und jede echte<br />

Neuerung) mit und konzentriert sich auf das Wesentliche. Eine DAS-Struktur beizubehalten,<br />

entspricht zwar nicht dem Stand der Speichertechnologie von heute, kann aber<br />

als Ausgangspunkt für eine schrittweise Transformation genutzt werden.<br />

Doch was bedeutet DAS eigentlich? Anwender, die pro Server einen oder mehrere<br />

Speichersysteme anschließen, verfügen über ein dediziertes, exklusives Speichersystem<br />

für genau diejenige Applikation, die auf dem Server installiert ist. Diese Silostruktur mag<br />

mit der Zeit etwas unübersichtlich werden – und sehr viel Platz und Energie im Serverraum<br />

oder im Rechenzentrum verschlingen –, aber sie ist letztlich einfach zu überwachen<br />

und zu verwalten. Der Nachteil liegt auf der Hand: So wie der einzelne Server,<br />

wenn er nicht in mehrere Teilsegmente (Partitionen) aufgeteilt ist, ist auch jedes direkt<br />

angeschlossene Speichergerät in der Regel nicht voll ausgelastet. Die überflüssige<br />

Kapazität und Rechenpower wird beim Server für Spitzenzeiten (Peaks) für besondere<br />

Anlässe wie zum Beispiel interne Monatsabrechnungen oder externe Zugriffe bei Webbestellungen<br />

in der Vorweihnachtszeit benutzt. Und beim Speicher wird sie für entsprechende<br />

Schreib- und Lesevorgänge „reserviert“, es klafft also eine Lücke zwischen der<br />

getätigten Investition und dem aus ihr erzielten Nutzen. Analysten sehen einzelne Server<br />

nur zu etwa 15 bis 20 Prozent ausgelastet, bei Speicher soll die Auslastung durchschnittlich<br />

bei etwa 40 Prozent liegen.<br />

In anderen Unternehmen gab es mit der Durchsetzung der Client/Server-Infrastruktur<br />

über das interne Netzwerk vermittelte Speicherstrukturen, bei denen mehrere Servereinheiten<br />

auf die gleichen Speichersysteme Zugriff hatten – allerdings getrennt für<br />

Großrechner (Mainframes) und Open Systems (Unixrechner, später auch Windows-Server).<br />

Doch die im internen oder lokalen Netz (engl. Local Area Network/LAN) zu bewegenden<br />

Datenmengen wurden immer größer, was zu Lasten der Übertragungsgeschwindigkeit<br />

ging und Datenverluste verursachte. Netze auf der Basis des Internet-Protocols<br />

(IP), die ursprünglich nur für den Transport von Nachrichten entwickelt worden waren<br />

[1], kamen somit an die Grenze ihrer Belastbarkeit.<br />

Warum Speichernetze sinnvoll sind<br />

D as Bedürfnis nach einem abgetrennten Netz ausschließlich für Speicherzwecke<br />

schlug sich gegen Ende der 90er Jahre in einer eigenen Technologie für <strong>Storage</strong><br />

Area Networks (SANs) nieder. Die neue Infrastruktur bestand aus einer eigenen Verkabelung<br />

und einer Weiterentwicklung des SCSI-Protokolls, das bereits für den Anschluss<br />

verschiedener Geräte wie <strong>Storage</strong> oder Drucker an einen Server eingesetzt wurde und


Speichernetze – die Qual der Wahl 37<br />

PC Client<br />

<strong>Storage</strong> Area Network<br />

Disk <strong>Storage</strong><br />

PC Client PC Client<br />

Server Server<br />

Disk <strong>Storage</strong><br />

Ethernet LAN<br />

Fibre Channel SAN<br />

Disk <strong>Storage</strong><br />

Disk <strong>Storage</strong><br />

Tape <strong>Storage</strong><br />

Quelle: Fujitsu Siemens Computers<br />

Ein <strong>Storage</strong> Area Network (SAN) bildet eine eigene Speicher-Infrastruktur, die nur für den Datentransport<br />

bestimmt ist.<br />

den Namen Fibre Channel (FC) trägt. Das Fibre Channel-Protokoll wurde eigens für den<br />

Transport von Dateien entwickelt. Es gilt als zuverlässig, und erreichte zuletzt mit 8<br />

Gbit/sec eine Transportgeschwindigkeit, die Ethernet sogar eine zeitlang überholte.<br />

In einem FC-Netz kommt speziellen Switches die Aufgabe zu, Speichersysteme mit<br />

Servern und auch untereinander zu verbinden. Ein Switch funktioniert als eine Art<br />

Mehrfachsteckdose, an die verschiedene Geräte angeschlossen werden können [2]. Entgegen<br />

einem weit verbreiteten Image von Fibre Channel als „schwierig einzurichten und


38 Kapitel 4<br />

zu verwalten“ wird es von Fachleuten als in der Handhabung einfach beschrieben. So<br />

äußert sich zum Beispiel auch Mario Vosschmidt, Technical Consultant bei dem amerikanischen<br />

IT-Hersteller LSI.<br />

Diese Fibre Channel-Architektur verband sich vor allem in ihrer Entstehungszeit mit<br />

dem Namen der 1995 gegründeten kalifornischen Firma Brocade . Sie ist noch heute<br />

Marktführer bei FC-Switches, die als Schaltstelle in einem SAN funktionieren und im<br />

Laufe der Entwicklung mit mehr „Intelligenz“ ausgestattet wurden. Das bedeutet, dass<br />

solche Switches Aufgaben im Netzwerk wie Zoning oder Virtualisierung übernehmen<br />

können. Mit ihrer Hilfe lässt sich eine „Fabric“ aufbauen, eine Struktur, die den Kern<br />

eines SANs bildet.<br />

Ein besonderer Gesichtspunkt ist die Einrichtung unterschiedlicher Speicherzonen<br />

(Zoning). Der Administrator kann so festlegen, welche Geräte und Daten miteinander<br />

verbunden werden sollen und welche nicht. Dies dient zum Schutz vor unlegitimiertem<br />

Zugriff innerhalb eines Unternehmens, aber auch nach außen. Wird ein SAN erweitert,<br />

können weitere Switches und Zonen eingerichtet werden, je nach Vorhandensein von<br />

Ports (Anschluß für Kabel). Für größere FC-Switches mit mindestens 128 Ports hat sich<br />

die Bezeichnung „Director“ eingebürgert. Brocade hat mit McData, CNT und Inrange<br />

gleich mehrere Anbieter übernommen, die bei Directors stark engagiert waren [3]. Mit<br />

diesen Aufkäufen wollte und konnte der Hersteller seine Marktposition gegenüber Cisco<br />

verstärken.<br />

Cisco, weltweit führend bei Ethernet-Switches, hat seit mehreren Jahren auch Fibre<br />

Channel-Lösungen im Programm und sich damit als Konkurrent bei Fibre Channel gegen<br />

Brocade positioniert. Nicht zum ersten Mal in der Geschichte der Informationstechnologie<br />

werden die Karten zwischen den beteiligten Firmen neu gemischt – eine sich wiederholende<br />

Entwicklung, die durch eine neue Technologie am Horizont verstärkt werden<br />

wird: Mit Fibre Channel over Ethernet (FCoE) wird derzeit versucht, die getrennten Netze<br />

von Nachrichtentransport (Ethernet beziehungsweise TCP/IP) und Datenspeicherung<br />

(Fibre Channel und iSCSI) wieder zu einem gemeinsamen Netz zusammen zu führen. IP-<br />

SANs auf iSCSI-Basis wären dazu auch schon in der Lage, doch hält man meistens aus<br />

Performancegründen das Kommunikations- und das Speichertransportnetz getrennt.<br />

Ein neues FCoE-Netz erfordert neue Standards und eine Abstimmung zwischen den<br />

verschiedenen Anbietern. Doch bevor es endgültig soweit ist, toben harte Kämpfe um<br />

die Positionierung am Markt. Jeder Hersteller will bei FCoE dabei sein, auch wenn er sich<br />

damit fast vollständig auf neue Produkte umpolen muss . Noch haben einige Anbieter<br />

offenbar nicht vergessen, dass eine frühere Konkurrenztechnologie zu Ethernet mit<br />

dem Namen „Token Ring“ auch deshalb das Rennen verloren hatte, weil sich die dahinter<br />

stehenden Hersteller zu sehr auf ihr Kernprodukt konzentriert und damit schließlich<br />

den Anschluss verloren hatten [4].<br />

Die historische Leistung von FC-SANs, die heute in großen Unternehmen und Institutionen<br />

die vorherrschende Speicher-Infrastruktur darstellen, besteht in effizienten,


Speichernetze – die Qual der Wahl 39<br />

schnellen Transportdiensten, die wenig anfällig für Fehler sind. Obwohl die Technik im<br />

Vergleich zu einem klassischen Netzwerk einfach ist, treten in der Praxis dennoch häufig<br />

Probleme auf, weil die Server- und Netzwerkadministratoren zu wenig mit der Speicherung<br />

von Daten vertraut sind. Verglichen mit Ethernet ist Fibre Channel letztlich eine<br />

Nischentechnologie geblieben, bei der es auch heute noch an vielen Ecken an Standards<br />

mangelt. Außerdem sind in den letzten Jahren zum Teil falsche Erwartungen geweckt<br />

worden, weil die Hürden (und Preise) für FC-Schulungen zu hoch angesetzt wurden.<br />

Das Management der im SAN angeschlossenen Speichersysteme geschieht meist über<br />

die von den Herstellern mitgelieferten Tools, was nur eine geringe Einarbeitungszeit<br />

erfordert und von den Lieferanten direkt unterstützt wird [5].<br />

File Services konsolidieren<br />

Etwa zeitgleich mit FC-SANs entstand eine alternative Netzstruktur für das Speichern<br />

von Daten im Firmennetz, die sich vor allem mit dem Namen von Network Appliance<br />

(heute NetApp) verbindet. Ein Network Attached <strong>Storage</strong> (NAS) bezeichnet eine integrierte<br />

Gesamtlösung, die Server, Betriebssystem, Speichereinheiten, Dateisystem und<br />

Netzwerkdienste zusammenfasst. NetApp bietet hierfür so genannte Filer an, die die<br />

Filedienste NFS (= Network File System, ursprünglich von Sun entwickelt) und CIFS<br />

DAS<br />

Direct Attached <strong>Storage</strong><br />

Application<br />

File System<br />

Disk <strong>Storage</strong><br />

NAS<br />

Network Attached <strong>Storage</strong><br />

Application<br />

Network<br />

File System<br />

Disk <strong>Storage</strong><br />

SAN<br />

<strong>Storage</strong> Area Network<br />

Application<br />

File System<br />

Network<br />

Disk <strong>Storage</strong><br />

Quelle: Fujitsu Siemens Computers<br />

Jede Topologie verfolgt ein unterschiedliches Konzept, aber das Ziel ist das gleiche: die Sicherung<br />

von Applikationsdaten.


40 Kapitel 4<br />

(= Common Internet File System unter Windows) unterstützen und besonders für<br />

unstrukturierte Daten geeignet sind.<br />

Während in einem FC-SAN die Dateien in Blocks, d.h. in kleinen Datenblöcken von<br />

vier bis 128 KByte, gespeichert werden, handelt es sich bei der Sicherung von File Services<br />

um zusammenhängende Dateien. Dies ermöglicht dem Administrator eine einfachere<br />

Handhabung, und darüber hinaus kann auch direkter auf die Inhalte der Dateien<br />

zugegriffen werden. Bei der Speicherung in Blöcken, die sich von der physikalischen<br />

Aufteilung von Festplatten in Sektoren und Blöcke herleitet, sind zunächst keine Daten<br />

über Anfang und Ende der Dateien zugänglich und auch ihre Inhalte und Strukturen<br />

erschließen sich nicht unmittelbar. Jeder PC-Benutzer weiß, dass seine Daten in<br />

Der Unterschied zwischen SAN und NAS<br />

SAN NAS<br />

Netzwerk Fibre Channel – komplex, IP – einfache Inbetriebnahme, preiswert,<br />

teuer, geschlossenes System,<br />

sicher<br />

offenes System, Sicherheit beachten<br />

Protokoll FC, schnell bis 200 Mb/s<br />

TCP/IP –schnell, aber sehr hoher<br />

Overhead (bis zu 40 % netto)<br />

Einfache Implementierung,<br />

Optimiert für … Schnellen Datentransport offene und schnelle Kommunikation<br />

über lange Distanzen<br />

Datentypen Alle Daten Nur Files<br />

Aufteilung Laufwerke, Ressourcen Files, Speicherinhalte<br />

Speicher für … Server (Daten-Center) Clients (Workgroups)<br />

Laufwerke Alle Nur Platten<br />

Quelle: Fujitsu Siemens Computers<br />

bestimmten Dateien und Ordnern abgelegt sind und so über eine logische Struktur verfügen.<br />

Er weiß aber auch, dass seine Daten letztlich zerstreut auf der Festplatte herumliegen<br />

– nach längerer Benützung sind sie „fragmentiert“ (verteilt, zerrissen), weil bei<br />

jedem Speichervorgang als erstes freie Blöcke belegt werden, ohne Rücksicht auf den<br />

inhaltlichen Zusammenhang einer Datei. Das Betriebssystem braucht in der Folge immer<br />

länger, um Dateien zu öffnen. Es muss ja erst einmal die verschiedenen Blöcke auf der<br />

physikalischen Ebene finden und zu einem Ganzen, für den Benützer Sichtbaren zusammensetzen.<br />

Mit dem Befehl „Defragmentieren“ schafft der geplagte Windows-Benutzer<br />

wieder eine neue Ordnung auf der Festplatte – zumindest für eine Weile.<br />

In einem NAS stehen die Netzwerkfunktionen [6] im Vordergrund und weniger die<br />

Performance der eingesetzten Festplatten. Viele Anwender betrachten es als kosten-


Speichernetze – die Qual der Wahl 41<br />

Vergleich der 3 Topologien<br />

DAS NAS SAN<br />

basiert auf Netzwerktechnologie Nein Ja Ja<br />

Anzahl maximal unaterstützter<br />

Geräte/HBA<br />

15 ~ 126<br />

Störungsanfälligkeit bei äußeren<br />

Einflüsen<br />

Ja (Kupfer) Ja (Kupfer) Nein (Glas)<br />

Preisniveau Niedrig Hoch Sehr hoch<br />

Skalierbarkeit Schlecht Relativ Sehr gut<br />

Maximale Distanz zum Server 25 m ~ 10 km<br />

Basisprotokoll SCSI Ethernet FCP<br />

Quelle: Fujitsu Siemens Computers<br />

günstigere Alternative zu einem SAN. Wer sich für welche Variante entscheidet, ist von<br />

vielen, vielleicht auch sehr individuellen Faktoren abhängig. David Hitz, einer der Gründer<br />

und nun Executive Vice President of Engineering bei NetApp, äußerte sich offen in<br />

einem Interview: „NAS und SAN sind wie zwei Geschmacksrichtungen derselben Eiscreme.<br />

NAS ist Schokolade und SAN ist Erdbeere. Und alles, was ein Kunde wissen muss<br />

über die beiden Techniken, besteht nur darin, dass jederzeit beide Systeme für die<br />

Datenspeicherung einsetzbar sind. Welcher vernünftige Mensch würde sich daran stören,<br />

dass der andere nicht Schokoladeneis, sondern lieber Erdbeereis mag.“ [7] Diese<br />

etwas flapsige Aussage kann man auch so interpretieren, dass die Unternehmen mit<br />

SAN und NAS zwei Speicherarchitekturen zur Auswahl haben, die sie je nach ihren<br />

Anforderungen individuell anpassen können. Berührungsängste muss keiner haben.<br />

Seit einigen Jahren ist noch eine dritte Variante im Gespräch: iSCSI-Netze für Speicher<br />

(auch als IP-SAN bezeichnet) haben seit einem Jahr offenbar die längere Einstiegsphase<br />

überwunden und beachtliche Verkaufszahlen erreicht. Der Reiz dieser Architektur<br />

besteht darin, dass sie die vorhandene TCP/IP-Infrastruktur auch für die Datenspeicherung<br />

nutzen kann: Damit entfällt die Installation und Pflege einer zweiten, nur für Speicher<br />

eingerichteten Infrastruktur, und die Administratoren können auf ihr vorhandenes<br />

IP-Wissen zurückgreifen. In der Praxis haben sich jedoch größere Hürden bei der Integration<br />

der verschiedenen Aufgaben von LAN und iSCSI-Speichernetz erwiesen. Allerdings<br />

ergeben sich mit der neuen Übertragungsgeschwindigkeit von 10 Gbit/sec für<br />

Ethernet neue Perspektiven, denn damit ist diese Technologie letztlich schneller als Fibre<br />

Channel mit derzeit noch 8 Gbit/sec. Den Kunden entstehen allerdings Extrakosten<br />

durch die notwendig werdende neue Verkabelung. Inzwischen geht man allgemein<br />

davon aus, dass eine iSCSI-Infrastruktur hauptsächlich für mittelständische Unternehmen<br />

geeignet ist und dort ihren hauptsächlichen Platz gefunden hat.


Kapitel 5<br />

Backup & Restore:<br />

eine ungeliebte Pflichtübung<br />

Mit der Datensicherung verhält es sich wie mit vielen an sich notwendigen Aufgaben,<br />

die aber letztendlich doch nur halbherzig oder gar nicht ausgeführt werden,<br />

weil sie zusätzliche Zeit oder mehr Geld erfordern. Ein Auto oder Fahrrad<br />

wird häufig solange gefahren, bis es nicht mehr geht – nach dem Motto „Es wird<br />

schon nichts passieren“. Und wenn dann etwas passiert, zum Beispiel die Bremsen<br />

oder die Lenkung plötzlich versagen oder ein Reifen platzt, dann ist es meistens<br />

zu spät, um die Katastrophe aufzuhalten. In der modernen IT ist es ähnlich:<br />

„Eigentlich“ müssten von allen gespeicherten Informationen ununterbrochen<br />

Kopien angelegt werden und für Notfälle bereit gehalten werden. Doch Unternehmen,<br />

die sich diesem Ideal entsprechend verhalten, sind eher die Ausnahme.<br />

Denn alles, was nicht direkt für das tägliche Geschäft notwendig zu sein scheint<br />

oder sich nicht unmittelbar in klingende Münze umsetzen lässt, erhält nicht die<br />

Aufmerksamkeit, die der Sache eigentlich angemessen wäre. Unternehmens-IT<br />

und die Notwendigkeit der Datensicherung gibt es nun schon seit rund 40 Jahren,<br />

doch noch immer ergeben Befragungen und Untersuchungen eklatante Mängel<br />

in dieser Grunddisziplin. Das müsste nicht so sein: Effiziente und automatisierte<br />

Abhilfe zu schaffen ist kein großes Zauberkunststück.<br />

Die Durchdringung von Gesellschaft und Wirtschaft mit IT hat erst begonnen.<br />

Immer mehr Bereiche des täglichen Lebens – von der Kommunikation über Informationsbeschaffung<br />

bis zum Gesundheitswesen – werden durch IT-Systeme<br />

beherrscht, und die Wirtschaftsprozesse sind heute in fast allen Branchen und in allen<br />

Firmengrößen von elektronischer Unterstützung abhängig. Diese Verflechtung von<br />

Geschäftsabläufen und elektronisch erzeugten und bearbeiteten Informationen macht<br />

es für Unternehmen aller Größenanforderungen zwingend erforderlich, sich um eine<br />

sichere Datenspeicherung zu kümmern.


44 Kapitel 5<br />

Grundlegende Backup-Begriffe<br />

Backup:<br />

Reguläre Datensicherung, um im Falle eines Datenverlustes auf die Daten zugreifen<br />

zu können.<br />

Restore:<br />

Wiederherstellen von Daten mittels Backups (unabhängig vom Medium) auf den<br />

Zeitpunkt, zu dem das Backup ursprünglich erstellt wurde.<br />

Ergebnis liefert ein physikalisch intaktes Volume/Filesystem.<br />

Ergebnis liefert nicht notwendig Daten, mit denen Applikationen starten können<br />

(insbesondere bei Datenbanken).<br />

Basis für Recovery.<br />

Recovery:<br />

Restart-fähige Wiederherstellung von Daten und Systemen.<br />

Bei Datenbanken nachfahren mit Hilfe von Redo-Logs auf möglichst aktuellen<br />

Stand.<br />

Rücksetzen auf letztmöglichen Konsistenzpunkt.<br />

Unterscheidung im Backup-Volumen:<br />

Ein Full Backup (komplette Datensicherung) wird wegen des zeitlichen Aufwands<br />

nur in größeren Zeitabständen gezogen und bildet die Basis für nachfolgende<br />

Backups, die nur noch die inzwischen erfolgten Erweiterungen und Änderungen<br />

des ursprünglichen Datenbestandes sichern.<br />

Mit inkrementellem Backup bezeichnet man eine Sicherung derjenigen Daten, die<br />

seit der letzten Sicherung (egal ob inkrementell oder Vollbackup) neu entstanden<br />

oder verändert worden sind.<br />

Unter einem differentiellem Backup werden immer alle Änderungen nach dem<br />

letzten vollen Backup aufgezeichnet. Insofern benötigt ein differentielles Backup<br />

mehr Speicherplatz als ein inkrementelles. Weitere Spezifikationen finden sich je<br />

nach eingesetzter Backup-Software [1].


Backup & Restore: eine ungeliebte Pfl ichtübung 45<br />

Backup- und Recovery-Strategien<br />

A nalysten von Gartner gehen davon aus, dass sich gegenwärtig ein fundamentaler<br />

Bedeutungswechsel bei der Datensicherung vollzieht [2]. Die wichtigsten Faktoren,<br />

die eine Neuausrichtung von Backup- und Recovery-Strategien auslösen, lassen sich<br />

demnach wie folgt angeben:<br />

Lokale Bedrohungen wie Feuer, extreme Wetterbedingungen und Ausfälle bei Hardware,<br />

Software, Netzwerken und Medien gefährden den Fortgang des Geschäfts (Business<br />

Continuity). Terroristische Angriffe und Bedrohungen stehen seit dem 11. September<br />

2001 in vielen Staaten auf der Tagesordnung. Stromausfälle in größerem Ausmass,<br />

wie sie in den letzten Jahren in vielen Ländern vorgekommen sind, können sich ebenfalls<br />

auf die Datensicherung auswirken.<br />

Im Zeitalter der Globalisierung und des Internets können sich die meisten Unternehmen<br />

keine Unterbrechung und Auszeiten der Infrastruktur erlauben. Gleichzeitig werden<br />

die Zeitfenster für Backup und Recovery immer enger, da an verschiedenen Standorten<br />

rund um die Uhr gearbeitet wird.<br />

Besonders überproportional wachsen die unstrukturierten Daten (Mails, Dateien),<br />

während die klassischen strukturierten Daten (Datenbanken, Geschäftsanwendungen)<br />

nur ein vergleichsweise bescheidenes Wachstum aufweisen. Allerdings werden nach<br />

Untersuchungen des IT-Branchenverbandes BITKOM etwa 50 Prozent der Daten nicht<br />

genutzt, aber mit gesichert. Das erfordert Maßnahmen, um diese ungenützten Daten<br />

auf weniger teure Stufen der Speicherhierarchie zu verschieben, beziehungsweise sie<br />

früher aus dem produktiven Zusammenhang herauszunehmen und zu archivieren.<br />

In manchen Branchen wie dem Bank- oder Gesundheitswesen (Healthcare), dem<br />

Handel und dem Maschinen- oder Autobau waren effizient organisierte Datensicherungs-Prozesse<br />

schon immer entscheidend für den Marktauftritt der Unternehmen. Ein<br />

Datenverlust bei Banken, Versicherungen oder Fluggesellschaften zum Beispiel wird<br />

sich relativ schnell auf den Geschäftserfolg dieser Unternehmen auswirken. Deshalb<br />

muss die Datensicherung immer mit den jeweils modernsten Methoden durchgeführt<br />

und verbessert werden, um weiter konkurrenzfähig zu bleiben.<br />

Und nicht zuletzt muss die IT-Infrastruktur gerüstet sein für die sich immer schneller<br />

verändernden geschäftlichen und technischen Anforderungen. Deshalb müssen die<br />

Backup- und Recovery-Prozesse langfristig und flexibel geplant sein und sie dürfen<br />

nicht zu Lasten der produktiven Abläufe der IT gehen.


46 Kapitel 5<br />

Wie kommt es zu Datenverlusten?<br />

Hardwareoder<br />

Systemfehler<br />

44 %<br />

3 %<br />

Naturkatastrophen<br />

32 %<br />

14 %<br />

Menschliches<br />

Fehlverhalten<br />

Software- oder<br />

7%<br />

Programmierfehler<br />

Computer-Viren<br />

Quelle: Fujitsu Siemens Computers<br />

Software-Fehler und Viren führen verhältnismäßig selten zu Datenverlust. Die meisten Fehler<br />

liegen auf der Hardware- oder Systemseite, gefolgt von menschlichem Fehlverhalten.<br />

Direkter Anstoß für den Datenverlust sind neben den genannten äußeren Einwirkungen<br />

Softwarefehler, die die Datenintegrität beeinträchtigen oder gar ganze Systeme<br />

zum Absturz bringen können, sowie verschiedene Hardware-Fehler, die von den Netzteilen<br />

über Prozessoren [3], über Festplatten [4] bis zu weiteren Komponenten und<br />

selbst redundanten (doppelt oder mehrfach vorgehaltenen) Bauteilen wie Festplatten-<br />

Arrays reichen können. Hinzu kommen Anwender- und Bedienfehler, die selbst geübten<br />

Administratoren unterlaufen können, wobei hier vieles unter einer dichten Decke des<br />

Schweigens verschwindet. Welche IT-Abteilung und welches Unternehmen gibt schon<br />

gern zu, dass sie etwas falsch gemacht haben?<br />

Jenseits von den drohenden Katastrophen sind es häufig gerade diese technischen<br />

Fehler im IT-Alltag oder schlicht das Auslaufen der Lebensdauer der eingesetzten Komponenten<br />

und Medien, deren plötzliches Ende auch den Tod der auf ihnen abgelegten<br />

Daten bedeuten kann. Eine eigene, in den letzten Jahren stark zentralisierte Branche<br />

bemüht sich um die Wiederbelebung von Datenspeichern verschiedener Art [5].<br />

Um die Haltbarkeit von Festplatten anzugeben, werden die Belastbarkeit und die zu<br />

erwartende Lebensdauer in dem Begriff MTBF (Mean Time Between Failure) ausgedrückt:<br />

Gemeint ist damit ein hochgerechneter Wert über den wahrscheinlichen Ausfall<br />

eines Laufwerks. Manche Hersteller geben Werte von bis zu einer Million Stunden bei


Backup & Restore: eine ungeliebte Pfl ichtübung 47<br />

Highend-Laufwerken an, was eine biblische Lebensdauer von 114 Jahren (= eine Million<br />

Stunden) bedeuten würde. Die zugrunde liegenden Tests gehen von einer sehr hohen<br />

Zahl parallel laufender Platten aus, auf deren Basis mögliche Ausfallraten berechnet<br />

werden. Die unterstellten optimalen Bedingungen sind aber in der Praxis eher die Ausnahme,<br />

so dass die realen Ausfallraten sehr hoch sein können. Redundanz durch Plattensysteme<br />

im Array-Verbund (siehe Kapitel 3) und ausgefeilte Backup-Mechanismen<br />

müssen dem vorbeugen. Da der Begriff MTBF aufgrund seiner Ungenauigkeit immer<br />

wieder in die Kritik geraten ist, werden heute weitere Maßeinheiten herangezogen wie<br />

zum Beispiel die AFR (Annualized Failure Rate). Sie wird wie die MTBF erstellt, gibt aber<br />

gleich die zu erwartende jährliche Ausfallrate in Prozent der installierten Plattenmenge<br />

an: Wenn von 1.000 Platten 8,7 im Jahr ausfallen, beträgt die jährliche Ausfallrate oder<br />

AFR 0,87 Prozent [6].<br />

Die durchschnittliche Lebensdauer von Festplatten beträgt heute drei bis fünf Jahre,<br />

im Einzelfall auch länger. Unternehmen sollten sich nur dann auf längere Fristen verlassen,<br />

wenn sie automatische Fehlerkontrollen inklusive einer direkten Benachrichtigung<br />

an den Herstellerservice einsetzen, der je nach vereinbartem Service Level Agreement<br />

(SLA) für einen Austausch noch vor dem endgültigen Ausfall der Platte sorgt. Platten<br />

werden bei steigenden Kapazitäten immer preiswerter (im Sommer 2008 kündigte<br />

Seagate eine 1,5-Terabyte-Platte an), während die ebenfalls noch im Backup-Bereich<br />

eingesetzten Magnetbänder leistungsfähiger werden: So ist ihr Durchsatz inzwischen<br />

auf über 500 MByte/sec angestiegen, während die Kapazitäten ebenfalls deutlich<br />

zunehmen und nun bei 1 Terabyte (LTO 4) liegen. Die Lebensdauer von Magnetbändern<br />

wird bei DLT/SDLT und LTO mit bis zu 30 Jahren angegeben und liegt damit deutlich über<br />

der von Festplatten und Solid State Disks [7].<br />

Backup-Architekturen / Speicherorte für Backup-Daten<br />

A ls Konsequenz aus dieser Entwicklung des Preis-/Leistungsverhältnisses ergibt sich<br />

für die Backup-Architektur, dass Tape immer weiter ans Ende der Tiered-<strong>Storage</strong>-<br />

Kette hin zu Archivierung rückt. Es hat sich sogar ein letztlich sinnloser Meinungsstreit<br />

entwickelt, was die bessere Lösung für Backup sei – Disk oder Tape. Dieser Streit ist<br />

deshalb sinnlos, weil es auf die besonderen Anforderungen jedes Unternehmens<br />

ankommt. Ist der Anteil der Daten sehr hoch, die über längere Zeit in einem performantem<br />

Zugriff bleiben müssen, empfehlen sich besondere Formen eines Disk-Backups,<br />

bevor die Daten schließlich auf Band verlagert werden.


48 Kapitel 5<br />

Für das Backup gibt es verschiedene Formen, wie die physikalische Datensicherung<br />

erfolgen kann:<br />

Backup to Disk / Disk Libraries:<br />

Eine Speicherung auf Disks ist schneller als Schreibzugriffe auf Tapes. Die Daten werden<br />

im Regelfall auf preisgünstigen SATA-Platten und nicht auf kostenintensiven<br />

Fibre Channel-Platten gespeichert.<br />

Backup to Tape / Tape Libraries:<br />

Eine Datensicherung auf Tapes ist eine kostengünstige Möglichkeit, Daten vorzuhalten.<br />

Tapes haben gegenüber Disks den Vorteil, dass die Lebensdauer länger ist. Allerdings<br />

ist der Zugriff langsamer. [8]<br />

Disk to Disk to Tape (D2D2T):<br />

Diese Variante berücksichtigt verschiedene Anforderungen, indem neben dem kurzfristigen<br />

Backup auf Disk als nächste Stufe auch die Datensicherung auf Magnetbändern<br />

Berücksichtigung findet. Werden die zwei Plattenstufen innerhalb eines<br />

Speichersystems eingesetzt, das mehrere teure und billigere Festplatten wie Fibre<br />

Channel oder SAS auf der primären Ebene und SATA auf der sekundären Ebene verbindet,<br />

lassen sich Preisvorteile erzielen, da nur ein Array angeschafft werden muss.<br />

Letztlich wird nur der Zeitpunkt des Backups auf Tape hinausgezögert.<br />

Virtuelle Tape Libraries (VTL):<br />

VTLs stellen die Königsdisziplin dar. Hier werden die schnellen Zugriffszeiten von<br />

Platten mit günstigen Tapes verbunden. Eine Virtual-Tape-Library (VTL) ist ein Speicher<br />

auf Basis eines Disk Arrays, der nach Außen hin eine Tape Library emuliert.<br />

Dadurch ist es möglich, Backup-To-Disk-Konzepte in bestehende Datensicherungsumgebungen,<br />

die in der Regel auf Bandlaufwerken basieren, einzubinden. Eine VTL<br />

stellt sich für angeschlossene Computer wie eine oder mehrere Tape Libraries dar. Die<br />

Daten werden zunächst auf Disk zwischengespeichert, um das Backup-Fenster<br />

gering zu halten. Im Nachgang erfolgt die Datensicherung auf die günstigeren<br />

Tapes.<br />

Um Service Level Agreements (SLAs) für Backups festzulegen, benützt man heute<br />

häufig die folgenden Begriffe:<br />

RPO (Recovery Point Objective)<br />

Mit dem Begriff RPO (Recovery Point Objective) wird umschrieben: Wie viel Datenverlust<br />

kann sich das Unternehmen maximal leisten? Daran orientiert sich der<br />

Abstand zwischen den einzelnen Backups. Für Banken folgt daraus zum Beispiel eine<br />

Null-Toleranz gegenüber Ausfällen, während andere Branchen dies besser verkraften<br />

können.


Backup & Restore: eine ungeliebte Pfl ichtübung 49<br />

RTO (Recovery Time Objective)<br />

RTO dreht sich um die Frage: Wie lange dauert es, bis die verlorenen Daten wiederhergestellt<br />

beziehungsweise in das System zurückgespielt worden sind? Der Spielraum<br />

kann durch gesetzliche oder institutionelle Vorgaben eingeschränkt sein. Als<br />

Beispiel sei hier das Gesundheitswesen genannt, in dem der Zugriff auf elektronische<br />

Patientendaten gerade in Notfällen zu 100 Prozent garantiert sein muss.<br />

RPO RTO<br />

Katastrophe<br />

Wochen Tage Stunden Minuten Sek Sek Minuten Stunden Tage Wochen<br />

Die Lücke<br />

wird enger<br />

RPO = Recovery Point Objective, RTO = Recovery Time Objective<br />

RPO = Datenverlust RTO = Ausfallzeit<br />

Continous Data Protection (CDP)<br />

CDP bedeutet, dass jede Änderung an den Daten gleichzeitig auch im Backup vorgenommen<br />

wird. Mit CDP wird die RPO (Recovery Point Objective) auf Null gesetzt, da<br />

jede Änderung sofort einen Speichervorgang anstößt. Insofern ist CDP die Verwirklichung<br />

des Ideals von Backup: Alles ist sofort und ganz gesichert.<br />

Erweiterte Backup-Möglichkeiten<br />

Quelle: Fujitsu Siemens Computers<br />

RPO = Die Menge an Daten, die es nach einem Datenausfall wiederherzustellen gilt, um die<br />

Geschäfte wieder normal ausführen zu können (gemessen in Zeit). RTO = Die maximale Recovery-<br />

Zeit, die man sich erlauben kann, bis die Geschäfte normal weitergeführt werden müssen.<br />

Da die Backup-Fenster immer kleiner werden, gibt es verschiedene technische<br />

Ansätze, um diesen Anforderungen gerecht zu werden.<br />

Mit<br />

Point-in Time oder<br />

Snapshots<br />

kann ein Backup in einem relativ kleinen Zeitfenster erfolgen. Dabei werden die<br />

Daten im laufenden Betrieb zu bestimmten Zeitpunkten als Kopie erstellt, um von dieser


50 Kapitel 5<br />

Kopie – unabhängig vom Produktivbetrieb – das Backup zu fahren. Allerdings wird ein<br />

Snapshot ebenfalls auf dem Primärspeicher abgelegt – fällt dieser aus, ist auch diese<br />

Form der Datensicherung nicht mehr wirksam.<br />

Die gesicherte Datenmenge kann durch Komprimierungsfaktoren verkleinert werden,<br />

was Platz und Kosten spart. Neuere Verfahren wie Single Instance und Data Deduplication<br />

durchsuchen direkt die zu speichernde Datenmenge und sortieren Doppel-<br />

oder Mehrfachbestände während des Backup-Prozesses aus. Solche Funde werden<br />

durch Pointer ersetzt, was Einsparungsquoten von weit über 50 Prozent bringen kann.<br />

Ein Pointer stellt nur einen Verweis auf die ursprünglich gespeicherte Datei dar, sodass<br />

nicht doppelt oder mehrfach gespeichert werden muss.<br />

Single Instance <strong>Storage</strong><br />

Mit Single Instance <strong>Storage</strong> wird umschrieben, dass doppelte Dateien erkannt und<br />

nur ein einziges Mal gespeichert werden.<br />

Data Deduplication<br />

Wird bereits zu den großen Erfindungen in der Speichertechnologie gezählt [9]. Hier<br />

werden Redundanzen nicht nur auf Dateiebene erkannt, es erfolgt eine Datendeduplizierung<br />

auf Segmentebene. Dies kann über zwei Wege geschehen [10]:<br />

– Am Target:<br />

Die Deduplizierung erfolgt am Speichermedium selbst, was hilft, das zu speichernde<br />

Datenvolumen gering zu halten. Damit verlängert sich allerdings der<br />

gesamte Speichervorgang.<br />

– An der Source:<br />

Hier gibt es neben dem geringeren Datenvolumen den Vorteil, dass die verringerte<br />

Datenmenge schneller übertragen werden kann. Dies ist bei Zweigstellen relevant,<br />

da hier teilweise nur analoge Datenleitungen zur Verfügung stehen.<br />

Backup versus Archivierung<br />

O ft wird das Archivieren von Daten gegenüber dem Backup durch den Parameter Zeit<br />

abgegrenzt – dauerhaft versus vorübergehend. Das mag in manchen Fällen zutreffen,<br />

weil die Backup-Bänder von Wochensicherungen vielleicht in den Datenbunker<br />

wandern und das Etikett „Archiv“ angeklebt bekommen. Dennoch ist eine solche Unterscheidung<br />

– und erst recht die sie begleitende Praxis – ungenügend, da beide Fälle nicht<br />

konträrer sein könnten. Beim Backup geht es um den Schutz vor Datenverlust, während<br />

sich die Archivierung um die langfristige Aufbewahrung kümmert, um zum Beispiel<br />

gesetzlichen Anforderungen zu entsprechen. Ein Backup wird normalerweise 1:1 zum


Backup & Restore: eine ungeliebte Pfl ichtübung 51<br />

Restore genutzt, in einem Archiv sollte man Daten relativ einfach und schnell finden<br />

können, ohne ein Restore durchführen zu müssen.<br />

Die auf Backup-Medien gespielten Kopien der ursprünglichen Daten hebt man in der<br />

Regel nur für einen kürzeren Zeitraum auf und ersetzt sie permanent durch aktuellere,<br />

schreibnahe Kopien. Da sie eigentlich nicht gebraucht werden sollen, ergeben sich<br />

lediglich spezifische Anforderungen wie Zeitnähe oder Vollständigkeit. In einem Katastrophenfall<br />

sind gewöhnlich alle Informationen vor dem ältesten noch existierenden<br />

und nach dem letzten Backup unwiederbringlich verloren.<br />

Lange muss man diese Datensicherungen aber ebenfalls nicht aufheben, da man die<br />

Kopien ja nur im Katastrophenfall braucht. Es wird selten passieren, dass man eine<br />

Datensicherung zurückspielen muss, die ein paar Monate alt ist.<br />

Ganz anders verhält es sich bei der Archivierung. Bei diesem Verfahren der Aufbewahrung,<br />

wenn Informationen aus dem produktiven Prozess ausscheiden, geht es<br />

darum, Daten auf einem eigenen Medium für eine spätere Benutzung aufzubereiten<br />

und zur Verfügung zu stellen. Archivierungsmedien legt man nicht wie Backup-Bänder<br />

zur Seite, weil man ihren Gebrauch nur im äußersten Fall in Erwägung zieht. Wer archiviert,<br />

hat es auf Wiederbenutzung abgesehen – zu irgendeinem späteren Zeitpunkt.<br />

FSC Business Continuity Model Requirements<br />

Datenklasse 1 2 3 4<br />

Beschreibung Mission Critical Business Critical Business<br />

Important<br />

Non Critical<br />

Verfügbarkeit > 99.99 % 99.9 % 99 % 97 %<br />

Ungeplante<br />

Ausfallzeit<br />

< 1 Std./Jahr < 10 Std./Jahr < 100 Std./Jahr k.A<br />

Geplante<br />

Ausfallzeit<br />

< 1 Std./Monat < 2 Std./Monat < 8 Std./Monat periodisch<br />

RTO<br />

(Ausfallzeit)<br />

< 15 Min. 1 Stunde 8 Stunden 24 Stunden<br />

RPO<br />

(Datenverlust)<br />

< 1 Stunde 12 Stunden 48 Stunden 96 Stunden<br />

Zugriffszeit zum<br />

Archiv<br />

Sekunden Sekunden < 4 Stunden 24 – 48 Stunden<br />

Backup-Erfolg<br />

in %<br />

97 % 95 % 90 % 90 %<br />

Antwortzeit bei<br />

Offline-Import<br />

< 30 Min. < 45 Min. < 2 Stunden k. A.<br />

Quelle: Fujitsu Siemens Computers


52 Kapitel 5<br />

Archivierung kann aus freien Stücken geschehen – die Bandbreite reicht von vorsorglicher<br />

Aufbewahrung für noch nicht absehbare Zwecke bis hin zur Sammelwut –,<br />

oder weil Gesetzgeber, Banken oder sonstige Institutionen verpflichtende Vorschriften<br />

erlassen haben oder die Aufbewahrung zumindest anraten. Wer die archivierten Daten<br />

später nie mehr benützen will und auch keinen Vorschriften zur eventuellen Wiedervorlage<br />

folgen muss, sollte sich auch ein Löschen überlegen – was Ressourcen, Platz und<br />

Kosten spart.


Kapitel 6<br />

<strong>Storage</strong> Management – komplexe<br />

Speichernetze beherrschbar machen<br />

Eigentlich sollte man denken, dass nach über 40 Jahren Server- und <strong>Storage</strong>-<br />

Technologie die Beherrschung und der tägliche Umgang mit dieser Infrastruktur<br />

und den auf ihr laufenden spezifischen Applikationen eine leichte Übung sein<br />

sollten. Soweit die Theorie. Fakt ist aber, dass das Datenwachstum ungebrochen<br />

und die Speicherlandschaft immer komplexer und umfangreicher geworden ist.<br />

Außerdem bildeten sich durch zahlreiche Firmenübernahmen bei den Anwendern<br />

diverse IT-Inseln mit unterschiedlichen Betriebssystemen, Geräteparks und<br />

Anwendungen heraus. Inzwischen gibt es darüber hinaus mindestens vier große<br />

<strong>Storage</strong>-Architekturen, die jeweils einen unterschiedlichen Wissensaufwand<br />

erfordern: DAS (Direct Attached <strong>Storage</strong>), SAN (<strong>Storage</strong> Area Network), NAS (Network<br />

Attached <strong>Storage</strong>) und IP-SAN (iSCSI), wobei die letzteren zwei auf dem<br />

TCP/IP-Protokoll basieren. Am Horizont zeichnet sich bereits die nächste, nur teilweise<br />

mit den bisherigen Installationen kompatible Speicherarchitektur ab: Fibre<br />

Channel over Ethernet (FCoE). Damit könnte es ein Zurück zu einer einheitlichen<br />

Speicherwelt geben. Das Management wird dadurch aber erst einmal nicht leichter,<br />

eher im Gegenteil. Bisher bietet jeder Hersteller eigene Management-Tools<br />

für seine Produkte an, denen es mit der Ausnahme von SMI-S generell an Standards<br />

mangelt.<br />

Um dem Durcheinander bei der Software für Speichermanagement zu entkommen,<br />

ist es vielleicht hilfreich, sich zunächst an die vom Hersteller mitgelieferten<br />

Tools zu halten. Integrierte Konfigurationswerkzeuge, Webtools oder Komponentenmanager<br />

erleichtern den Einstieg, ersetzen aber nicht die Planung der Gesamtarchitektur<br />

und ihrer Teilelemente. Die großen Suiten für <strong>Storage</strong>-Management und die<br />

Verwaltung der kompletten IT-Infrastruktur, wie sie einige Hersteller anbieten, setzen<br />

sehr viel Erfahrung voraus und sind auf Grund ihrer Komplexität nur etwas für größere<br />

Unternehmen.<br />

Die Planung und Überwachung der Speicherinstallationen sollte von Beginn an systematisch<br />

angelegt sein, was eine kontinuierliche Auflistung aller Phasen, Schritte und


54 Kapitel 6<br />

Änderungen einschließt. Dies ist schon deshalb von Nöten, weil sonst spätestens bei<br />

einem Mitarbeiterwechsel das Chaos ausbrechen würde. Auf der Basis von ITIL, der IT<br />

Infrastructure Library, stellen formalisierte Anforderungen und Prozesse eine wesentliche<br />

Erleichterung bei der Protokollierung dieser Prozesse dar. Sie helfen auch bei den<br />

Gesprächen zwischen Hersteller und Kunde oder auch bei Firmenzusammenschlüssen,<br />

wenn unterschiedliche IT-Welten miteinander verbunden werden müssen. Mit ITIL gibt<br />

es eine Reihe von Publikationen, die Unternehmen bei der Strukturierung ihrer IT- und<br />

Geschäftsprozesse helfen wollen.<br />

So lässt sich mit Change Management, dem kontinuierlichen Verwalten von Änderungen,<br />

ein Verfahren beschreiben, das sich von einfachen, unregelmäßig geführten<br />

Excel-Tabellen löst und sich nach ITIL und den vom jeweiligen Hersteller mitgelieferten<br />

Management-Tools richtet. Damit wird möglichst von Beginn an das Entstehen eines<br />

Speicherwildwuchses vermieden, der aus unterschiedlichsten Produkten besteht, die<br />

nur notdürftig miteinander verbunden sind. Fehler und Ausfälle sind in einem solchen<br />

Umfeld programmiert und bedeuten oft genug Nach- und Nachtarbeit der Mitarbeiter.<br />

Wird dagegen auf Standardlösungen oder „<strong>Storage</strong> out of the Box“ gesetzt, gestaltet<br />

sich das Management auf der Grundlage von voreingestellter Software einfacher.<br />

Mittelständische Unternehmen haben weniger finanzielle Ressourcen zur Verfügung,<br />

was sie zu schnelleren, nicht ausgetesteten Implementationen und längerer Nutzungsdauer<br />

– auch über die Abschreibungsfristen hinaus – verleitet. Nicht zufällig entscheiden<br />

sich gerade diese Firmen für Technologien, die ihnen vertraut sind oder es zumindest<br />

erscheinen: Bei mittelständischen Unternehmen ist noch heute DAS verbreitet,<br />

und iSCSI hat sich wegen der Verwandtschaft mit der LAN-Architektur gerade hier am<br />

meisten durchgesetzt. Solange es sich um eingespielte Lösungen handelt, ist dieses vorsichtige<br />

Verhalten sicher kein Fehler, es macht die Unternehmen aber weniger flexibel<br />

als ihre größeren Konkurrenten. Diese leisten sich besser ausgebildete Mitarbeiter und<br />

längere Planungsphasen, wodurch sie in der Lage sind, neue und effektivere Technologien<br />

auszuprobieren und anschließend produktiv einzusetzen. Dies gilt in besonderem<br />

Maße für das Informationsmanagement, das Investitionsaufwand und Know-how<br />

erfordert. Für den Mittelstand sind die meisten Tools auf diesem Gebiet einfach nicht<br />

erschwinglich. Und ihre Anschaffung würde sich auch in Relation zu den verwalteten<br />

Datenmengen kaum rechnen.<br />

Das Management von Daten geschieht häufig in ebenso ungeplanter, letztlich chaotischer<br />

Manier. Weil man bereits eine Reihe von Windows-Lizenzen besitzt und noch<br />

einen ungenützten Server herumstehen hat, werden unstrukturierte Daten wie Office-<br />

Dokumente dort mehr zufällig abgelegt – mit allen unschönen Folgen für die Anordnung,<br />

Indexierung oder Suchmöglichkeiten solcher Dokumente. Größere Unternehmen<br />

sind auch hier einen Schritt weiter und stellen dedizierte Server in einer SAN-Umgebung<br />

zur Verfügung. Da man schon ein SAN eingerichtet hat, werden womöglich dann<br />

Daten hier untergebracht, die man auch kostengünstiger auf anderen Speicherstufen


<strong>Storage</strong> Management – komplexe Speichernetze beherrschbar machen 55<br />

mit etwas geringerer Performance ablegen könnte – Chaos auf höherer Ebene. Bemerkt<br />

die IT-Abteilung das Durcheinander, wird typischerweise noch eins draufgesattelt: Man<br />

schafft jetzt womöglich zusätzliche NAS-Filer an, um die unstrukturierten Daten<br />

„adäquat“ abspeichern zu können. Damit stellt sich dann irgendwann die Frage nach<br />

einer Zusammenführung oder Integration der verschiedenen Speicherinseln, bei denen<br />

Begriffe zum Speicher-Management<br />

(1) <strong>Storage</strong> Resource Management (SRM): „Ernsthafte SRM-Initiativen kamen<br />

erst gegen Ende der 90er Jahre auf. Es handelte sich um einen Markt für Unix-, Windows-<br />

und später dann auch Linux-Plattformen, der ein paar Jahre große Erwartungen<br />

weckte, aber sich in der letzten Zeit eher verflüchtigte. Es gibt mehrere Gründe,<br />

warum von den mehr als 20 SRM-Anbietern nicht viel übrig geblieben ist:<br />

1. Den SRM-Produkten gelang es erst allmählich, sich von einem reaktiven, nur<br />

berichtenden zu einem proaktiven Tool zu entwickeln, das Entscheidungen und<br />

Aktionen auf der Basis anwender-definierter Policies vornehmen konnte.<br />

2. SRM-Produkte waren homogen orientiert, sodass sie bei der Unterstützung heterogener<br />

Umgebungen versagen mussten.<br />

3. SRM-Produkte befassten sich nur mit der Allokation von Plattenplatz. Um Performance-Probleme<br />

kümmerten sie sich dagegen nicht. Die Anwender wurden bombardiert<br />

mit Alarmen und Entscheidungen, die manuell umgesetzt werden mussten.<br />

Die heutige Realität besteht darin, dass sich die Unternehmen um die Integration<br />

verschiedener Tools kümmern müssen, die teils von Herstellern stammen, teils handgestrickt<br />

sind. Die <strong>Storage</strong>-Abteilungen müssen davon ausgehen, dass ihre Speicherinfrastruktur<br />

äußerst heterogen ist und dass sie deshalb zunächst die Anzahl der<br />

verschiedenen Hersteller und <strong>Storage</strong>-Pools verringern müssen. Nur so kommen sie<br />

zu einer einfacheren Verwaltung ihrer <strong>Storage</strong>-Ressourcen.“<br />

(Fred Moore, Horison Information Strategies)<br />

(2) Information Management<br />

„Information Lifecycle Management (ILM) kann als die Methode verstanden werden,<br />

einen allgemeinen Blick auf die Informationsressourcen zu werfen und sie zu kontrollieren.<br />

Information Management Services umfassen die Prozesse, wie Informationen<br />

bei ihrem Durchgang durch die verschiedenen Lebensstadien verwaltet werden<br />

können. Diese Services kümmern sich auch um die Dateninhalte. Beispiele hierfür<br />

sind Record und Content Management.“ (SNIA Dictionary)


56 Kapitel 6<br />

mal die Blockebene (SAN) und mal die File-Ebene (NAS) dominiert. Auch dafür gibt es<br />

eigene Lösungen, die allerdings weitere Investitionen erfordern und letztlich eine<br />

zusätzliche Komplexitätsstufe zu der Speicherarchitektur hinzufügen.<br />

In der Folge wird angesichts solcher Strukturen das Speichermanagement erschwert,<br />

da Probleme, Ausfälle, Hardware- und Software-Fehler nicht sofort identifiziert werden<br />

können. Gegenmaßnahmen werden in solchen Situationen zu spät ergriffen. Monitoring,<br />

Reporting und konstante Fehleranalyse liessen sich jedoch mit Software-Unterstützung<br />

durchführen, wobei von Herstellerseite in der Regel solche Tools mitgeliefert<br />

werden. Werden sehr viele unterschiedliche Komponenten eingesetzt, steht das <strong>Storage</strong>-<br />

Management oft vor dem Problem, diese Heterogenität in den Griff zu bekommen.<br />

Die <strong>Storage</strong>-Taxonomie von IDC<br />

<strong>Storage</strong><br />

Systems<br />

Disk Systems<br />

Tape Libraries<br />

Optical<br />

Jukeboxes<br />

<strong>Storage</strong><br />

Infrastructure<br />

<strong>Storage</strong><br />

Hardware<br />

<strong>Storage</strong><br />

Mechanisms<br />

HDDs<br />

Tape Drives<br />

Optical Drives<br />

Removable<br />

Media<br />

Data<br />

Protection<br />

and<br />

Recovery<br />

Archive and<br />

HSM<br />

<strong>Storage</strong><br />

Management<br />

<strong>Storage</strong><br />

Infra- Infra<br />

structure<br />

<strong>Storage</strong><br />

Device<br />

Management<br />

<strong>Storage</strong><br />

<strong>Storage</strong><br />

Software<br />

<strong>Storage</strong><br />

Replication<br />

File<br />

System<br />

<strong>Storage</strong><br />

Services<br />

Other<br />

<strong>Storage</strong><br />

SW<br />

Consulting<br />

Implementation<br />

Management<br />

Support<br />

Quelle: IDC<br />

Nach Ansicht von IDC lässt sich <strong>Storage</strong> in drei Hauptgruppen unterteilen, denen verschiedene<br />

Bereiche zugeordnet sind. <strong>Storage</strong> Management ist nur ein Teil neben vielen anderen.<br />

Als Teilbereich des Managements sind hier auch eine ausreichende Speicherversorgung<br />

für die Anwender, Abteilungen und Applikationen sowie das Provisioning zu nennen.<br />

Unter Provisioning ist die Bereitstellung einschließlich der rechtzeitigen Anschaffung<br />

von Speicherplatz zu verstehen: Es müssen genügend <strong>Storage</strong> Arrays und Festplatten<br />

vorhanden sein, um alle Anforderungen zu erfüllen. Wenn zum Beispiel saisonale<br />

Spitzenzeiten – wie beim Weihnachtsgeschäft – berücksichtigt werden müssen,


<strong>Storage</strong> Management – komplexe Speichernetze beherrschbar machen 57<br />

bedeutet das zugleich eine Unterauslastung der Systeme während der übrigen Zeit, die<br />

ähnlich wie bei Servern bis unter 40 Prozent der eigentlichen Kapazität gehen kann. Um<br />

dieses Problem zu lösen, wurde die Technologie des Thin Provisioning entwickelt. Damit<br />

sind Verfahren gemeint, die eine flexible, wechselnde Zuordnung von Speicherplatz für<br />

verschiedene Anwendungen vorsehen: Je nach Bedarf werden Kapazitäten zugewiesen<br />

und wieder weggenommen [1].<br />

Mit „Stranded <strong>Storage</strong>“ bezeichnet man Speicherplatz, der ursprünglich für bestimmte<br />

Anwendungen oder User bereit gestellt wurde, aber von diesen nicht genutzt wird. Das<br />

Ziel von Thin Provisioning ist primär, „gestrandete Speicherkapazitäten“ wieder allgemein<br />

nutzbar zu machen. Thin Provisioning setzt auch auf Virtualisierung [2], mit der<br />

unterschiedliche physikalische Festplatten und Disk Arrays zu logischen oder virtuellen<br />

Einheiten zusammengefasst werden. Dies ermöglicht eine sehr genaue Zuweisung von<br />

Speicherplatz, da man sich nicht mehr an den physikalischen Ober- und Untergrenzen<br />

von Platten orientieren muss.<br />

Um sich von Schuldzuweisungen freizumachen und auf den jeweils anderen Hersteller<br />

zu verweisen, der dem Anwender eine bestimmte SAN-, NAS- oder iSCSI-Infrastruktur<br />

aufgezwungen habe, sollte sich die IT-Abteilung ihre Unabhängigkeit bewahren.<br />

So hat sich ein Fujitsu-Siemens-Kunde für einen eigenen Weg entschieden und<br />

bewusst separate Insellösungen für unterschiedliche Architekturen eingerichtet: ein<br />

SAN für Mainframes inklusive Spiegelung zu einem zweiten (Ausfall-)Rechenzentrum,<br />

eine Virtualisierungslösung für SQL- und Mail-Server auf Basis von Windows und Linux<br />

und schließlich ein NAS für FlexFrame for SAP mit Fujitsu-Siemens-Servern und NetApp-<br />

<strong>Storage</strong>. Alle drei Bereiche werden selbstständig gemanagt, wobei der erforderliche<br />

Mehraufwand garantiert, dass in einem Fehlerfall nicht automatisch die anderen Bereiche<br />

tangiert werden. Mit anderen Worten: Die oft verteufelten Silo-Lösungen können<br />

ähnlich wie DAS-Systeme bei einem bestimmten Kundenszenario durchaus Sinn<br />

machen.<br />

Dieser Ansatz lässt sich auch auf den Software-Einsatz übertragen: Häufig werden<br />

zu viele Tools aus verschiedenen Quellen verwendet, anstatt sich auf einen Anbieter zu<br />

verlassen. Während sich die <strong>Storage</strong>-Systeme wie SAN, NAS oder IP-SAN durch die mitgelieferte<br />

Software einrichten lassen, sollte für die anschließende Verwaltung ein zentrales<br />

Tool verwendet werden, das ein End-to-End-Management ermöglicht. Heute bieten<br />

fast alle Speicherhersteller entsprechende Programme an.<br />

Heterogene Speichernetze – einheitliches Management<br />

In einem SAN (<strong>Storage</strong> Area Network) auf Fibre Channel-Basis (FC) sind die wesentlichen<br />

Komponenten im Netz FC-Switches, deren Protokolldienste einfach zu konfigu-


58 Kapitel 6<br />

rieren sind und nur wenige Fehlerquellen aufweisen. Den zweiten Bereich des SAN bilden<br />

die Speichersysteme, die meistens über die mitgelieferten Verwaltungstools beobachtet<br />

und gesteuert werden können. Problematisch sind in vielen SAN-Umgebungen<br />

allerdings die Kenntnisse und Erfahrungen der Netzwerkadministratoren, die aus dem<br />

klassischen Local Area Network (LAN) kommen und sich zu wenig in der Thematik der<br />

Datenspeicherung auskennen.<br />

Die alternative Netzform NAS (Network Attached <strong>Storage</strong>) wurde mit dem Ziel entwickelt,<br />

klassische Fileserver und Speichersysteme in einem Paket zusammen anzubieten.<br />

Eine Software für das Management ist ebenfalls integriert, die sich vor allem um<br />

den Transport der Dateien von den Servern zu den Speichersystemen kümmert. In so<br />

einer Umgebung wird häufig weniger Wert auf die Performance des Datenzugriffs und<br />

der verwendeten Festplatten gelegt. Werden die NAS-Server mit leistungsfähigen FC-<br />

Speichersystemen eines SAN verbunden, erhöht sich wieder der Verwaltungsaufwand.<br />

Die dritte Variante sind IP-SANs, heute meist als iSCSI-Speichernetze im Einsatz. Solche<br />

Netze, die auf der bekannten LAN-Technologie aufbauen, finden nach einer längeren<br />

Anlaufzeit vermehrt Anhänger, vor allem bei mittelgroßen Firmen, aber auch bei<br />

Unternehmen mit mehr als 1.000 Mitarbeitern, die global operieren. Sicher haben die<br />

IT-Abteilungen auf Grund der jahrelangen Arbeit mit den überall im Einsatz befindlichen<br />

TCP/IP-Netzen einen Fundus an entsprechenden Erfahrungen, aber es wäre verhängnisvoll<br />

zu glauben, man könne die Speicherdaten einfach zusätzlich auf den vorhandenen<br />

Netzpfaden hin- und herschieben: Für ein funktionierendes IP-SAN muss<br />

eine eigene IP-Infrastruktur aufgebaut werden, an die dann Speichersysteme angehängt<br />

werden [3].<br />

Das eigentliche <strong>Storage</strong>-Management liegt oberhalb dieser Übertragungstechniken<br />

und besteht in einer ersten Stufe aus den mitgelieferten Tools der Hersteller, auch als<br />

Elementenmanager bezeichnet. Für die leichtere Bedienung wird ein Webserver installiert,<br />

sodass die Administratoren Zugang zu einem Browser haben. Komplexere Netze<br />

werden über Kontrolldienste überwacht und gesteuert, die viele Speicherkomponenten<br />

wie HBAs (Host Bus Adapter), Switches und die Speichersysteme über Schnittstellen<br />

zusammenfassen. Beispiele hierfür sind Control Center von EMC, Brightstor SRM von<br />

CA oder Sanpoint Control von Symantec.<br />

In der Vergangenheit war es häufig so, dass sich Speichergeräte verschiedener Hersteller<br />

nicht mit einander im Netz „verstanden“, da sie entweder nicht über geeignete<br />

Schnittstellen (APIs = Application Programming Interface) verfügten oder diese nicht<br />

mit denen der anderen Hersteller kompatibel waren. Um die Speichernetze für die<br />

Unternehmen anwenderfreundlicher zu machen, organisierte die SNIA (<strong>Storage</strong> Networking<br />

Industry Association), der Verband fast aller Speicherhersteller, eine sogenannte<br />

Management-Initiative, um einen Standard für alle Geräte zu schaffen. In jahrelanger<br />

Arbeit legten die SNIA-Gremien schließlich einen Vorschlag zur Standardisierung vor,<br />

die <strong>Storage</strong> Management Initiative Specification (SMI-S). Die Hersteller arbeiten nun


<strong>Storage</strong> Management – komplexe Speichernetze beherrschbar machen 59<br />

enger zusammen, tauschen ihre Schnittstellen aus und sorgen für eine gegenseitige<br />

Lizensierung. Oft erhalten nun die in der SMI-S vorgesehenen Kommunikationsschnittstellen<br />

Vorrang vor den proprietären APIs.<br />

Laut Frank Bunn, SNIA Europe und Speicher-Spezialist bei Symantec, hat SMI-S<br />

einen wesentlichen langfristigen Einfluss auf das Speichermanagement: „SMI-S kommt<br />

ja nicht über Nacht. Das ist ein laufender Prozess, der bereits 2002 begann. Was SMI-S<br />

schafft, ist eine bessere Interoperabilität. Es ermöglicht ein einheitliches Management<br />

verschiedener Produkte und liefert einen konsistenten Blick auf die SAN- und NAS-<br />

Umgebung. Die Anwender sind oft schon deshalb ganz begeistert, weil sie mit SMI-S<br />

endlich ihre gesamte Speicherumgebung sehen können. Die Kunden wissen oft gar<br />

nicht, was sie noch alles an <strong>Storage</strong>-Equipment haben. Aber das ist nur ein erster Schritt.<br />

In einem zweiten Schritt lässt sich das Management von Speichersystemen wesentlich<br />

erleichtern.“<br />

Für Bunn wurde das Thema SAN bisher stark von größeren Unternehmen besetzt.<br />

Kleine und mittlere Unternehmen waren dagegen eher skeptisch, nach dem Motto „Das<br />

ist zu komplex, zu teuer und funktioniert ja sowieso nicht“. Bunn: „Und sie hatten ja<br />

auch nicht ganz Unrecht. Durch SMI-S wird das SAN-Management aber wesentlich<br />

einfacher. Dadurch können auch Partner Speichernetze implementieren und betreuen,<br />

die nicht zu den absoluten SAN-Spezialisten gehören.“ In den inzwischen vorliegenden<br />

Versionen 1.1 und 1.2 von SMI-S werden außer Fibre Channel-SAN auch NAS und iSCSI<br />

berücksichtigt, was das Umfeld für Integratoren sehr erweitert.<br />

Trotz aller jahrelangen Anstrengungen ist der Standardisierungsprozess allerdings<br />

noch nicht abgeschlossen. Nicht alle Hersteller implementieren bei ihren Geräten angepasste<br />

Schnittstellen, die sich mit denen anderer Anbieter vertragen. Der gegenseitige<br />

Lizensierungsprozess zieht sich oft länger als sachlich geboten hin. Außerdem sind verschiedene<br />

Versionen von SMI-S nebeneinander im Einsatz. Diese Umstände führen<br />

dazu, dass die Akzeptanz bei den Anwendern noch nicht besonders groß ist.


Kapitel 7<br />

Virtualisierung – bei Speicherthemen<br />

existiert Nachholbedarf<br />

Alle Welt spricht von Virtualisierung. Dieser Technologie werden inzwischen<br />

wahre Wunderwerke nachgesagt, und die Produktankündigungen auf diesem<br />

Feld sind kaum noch zu überblicken. Doch viele Anwender verhalten sich noch<br />

zurückhaltend bei dem Einsatz von Virtualisierung im eigenen Unternehmen. Die<br />

Marktforscher von IDC haben 2008 in einer Untersuchung festgestellt, dass erst<br />

33 Prozent der Unternehmen in Westeuropa Server-Virtualisierung von VMware<br />

oder Citrix XenSource eingeführt haben, 67 Prozent machen noch nichts in dieser<br />

Richtung. Im Speicherbereich liegen diese Prozentzahlen noch einmal deutlich<br />

niedriger, nur 15 bis 20 Prozent befassen sich schon mit Virtualisierung. Dabei ist<br />

die Auslastung der Speichersysteme im Normalfall ebenfalls sehr gering. Mit virtuellen<br />

Systemen, bei denen mehrere Geräte oder Hunderte von Festplatten zu<br />

logischen Einheiten verknüpft werden, lässt sich der Auslastungsgrad sehr<br />

schnell erhöhen. Das Aufholpotenzial ist sehr groß, und bei den Kosten könnte<br />

sehr viel eingespart werden.<br />

Unternehmen halten sich laut IDC beim Einsatz von Virtualisierung in ihrer <strong>Storage</strong>-Umgebung<br />

zurück, da sie dies nicht für zwingend erforderlich erachten.<br />

<strong>Storage</strong> wird oft als unumgängliche Einrichtung für Datenspeicherung, Datensicherung,<br />

Backup oder Archivierung angesehen, die zur Produktivitätssteigerung oder<br />

zur Verbesserung der betrieblichen Abläufe nichts beitragen kann. Dabei lassen sich die<br />

Erfahrungen mit der erfolgreichen Servervirtualisierung auch auf den <strong>Storage</strong>bereich<br />

übertragen. Viele Anwender gehen auch genau so in der Praxis vor: Sie erweitern Schritt<br />

für Schritt die Virtualisierung auf weitere Bereiche.<br />

Virtueller Speicherplatz soll Unternehmen helfen, vorhandene <strong>Storage</strong>-Ressourcen<br />

effizient auszulasten sowie deren Verwaltung zu zentralisieren und zu vereinfachen.<br />

Gerade im x86-Bereich wurde die Virtualisierung deshalb vorangetrieben, weil die<br />

durchschnittliche Ausnutzung der Systeme sehr schlecht war. Für Dr. Joseph Reger, CTO<br />

(Chief Technology Officer) von Fujitsu Siemens Computers, liegt das klar auf der Hand:<br />

„Mit etwa zehn Prozent an Auslastung waren das gegenüber bestehenden Systemen


62 Kapitel 7<br />

wie Mainframes oder Unix-Plattformen sehr schlechte Werte.“ [1] Von allen Möglichkeiten,<br />

diese Situation zu verbessern, habe sich vor allem die Hardware-Virtualisierung<br />

angeboten: „Der Grund dafür liegt darin, weil sich die darüber liegenden Schichten dann<br />

nicht mehr darum kümmern müssen“, führt Reger aus. Die „darüber liegenden Schichten“<br />

sind alle jenseits der Hardware-Schicht, also Betriebssysteme und Anwendungen,<br />

die ebenfalls von der Virtualisierung profitieren.<br />

Reger erklärt weiter: „Indem verschiedene Maschinen vorgegaukelt werden – Hardware-Stücke,<br />

die gar nicht vorhanden sind –, ergibt sich eine eigentümliche Schicht von<br />

Transparenz. Die Betriebssysteme und die Anwendungen müssen bei dieser Technologie<br />

gar nicht wissen, dass sie in einer virtualisierten Umgebung laufen. Dadurch wurde<br />

erreicht, dass die durchschnittliche Auslastung dramatisch nach oben getrieben und<br />

sehr viel Geld gespart wurde.“ [2]<br />

Nach Ansicht von Reger gibt es grundsätzlich drei große Bereiche, bei denen man<br />

heute mit Virtualisierungstechnologien ansetzen kann: Hardware-Virtualisierung,<br />

Betriebssystem-Virtualisierung und Anwendungsvirtualisierung: „Bei der ersten Gruppe<br />

geht es darum, so zu tun, als hätten wir mehr Hardware, als tatsächlich vorhanden ist.<br />

Das gilt für Server und <strong>Storage</strong> gleichermaßen. Man täuscht virtuelle Instanzen der<br />

Hardware vor, die gar nicht da sind: Die jeweilige Physik ist nur einmal vorhanden, aber<br />

virtuell macht man daraus mehr. Das bedeutet, dass das Betriebssystem bereits nicht<br />

weiß, dass es auf virtuellen Instanzen läuft – aus Betriebssystemsicht gibt es wirklich<br />

zehn verschiedene Server oder <strong>Storage</strong> Arrays. Wenn das Betriebssystem virtualisiert<br />

wird, bedeutet das, dass die Anwendung denkt, dass es mehrere Instanzen des Betriebssystems<br />

gibt, wogegen eigentlich nur eine läuft.“ [3] Mittels Thin-Provisioning kann in<br />

einem Speichersystem zum Beispiel mehr logischer Adressraum zur Verfügung gestellt<br />

werden, als physikalisch vorhanden ist.<br />

<strong>Storage</strong>-Virtualisierung wird als Begriff zum Teil von der IT-Industrie missverständlich<br />

gebraucht. Ursprünglich wurde darunter das Abbilden von Speicher-Ressourcen für<br />

die beteiligten Server oder Applikationen, also das Zusammenfassen oder neu Gruppieren<br />

von physikalischen zu logischen Speichereinheiten verstanden. Heute wird es meist<br />

für die Zuweisung beliebiger Speicher-Ressourcen einschließlich Datenreplikationsmechanismen<br />

verwendet. Dies umfasst Begriffe und Technologien wie Volume Management,<br />

Virtual Disk Volumes, Filesysteme, Virtual Tape, Virtual Ports oder Virtual SANs:<br />

Allen gemeinsam ist der Ansatz, die physikalische von der logischen Sicht zu trennen,<br />

also physikalischen Speicherplatz in abgegrenzte Teilbereiche (= Partitionen) aufzuteilen<br />

oder mehrere physikalische Festplatten zu einer oder auch verschiedenen logischen<br />

Einheiten zusammenzufassen.<br />

Wenn es um die Virtualisierung im Speichernetz (SAN device virtualization) selbst<br />

geht, also um die Virtualisierung auf der Ebene der Switch-Infrastruktur, sind drei verschiedene<br />

Lösungsansätze zu unterscheiden:


Virtualisierung – bei Speicherthemen existiert Nachholbedarf 63<br />

1) Bei der so genannten In-Band-Virtualisierung liegen die Kontrollinstanz für die<br />

Datenleitung, die Metadaten und der Datentransport selbst auf derselben Appliance.<br />

Die Skalierung dieser Lösungen wird durch die Transportleistung dieser Appliance<br />

bestimmt. Die Anbieter FalconStor und DataCore waren unter den ersten Herstellern,<br />

die solche Lösungen angeboten haben.<br />

2) Bei der Out-of-Band-Virtualisierung kümmert sich eine eigene Appliance nur um die<br />

Metadaten und die Kontrolle des Datenpfades, während der Host beziehungsweise<br />

Server den Transport der Speicherdaten von und zu den Speichergeräten organisiert.<br />

3) Der dritte Lösungsansatz besteht in der Trennung von Kontrollinstanz und Datenpfad,<br />

die durch ein intelligentes Netzwerkgerät vorgenommen wird. Diese Technologie<br />

wird als „Split Path Architecture for Intelligent Devices“ (SPAID) bezeichnet.<br />

Switch-Hersteller wie Brocade und Cisco liefern hierfür geeignete Geräte. Die hier<br />

vorgenommene Trennung der Instanzen führt zu einer erhöhten Geschwindigkeit<br />

des Datentransports und ermöglicht eine Skalierung des Konzeptes.<br />

Solche Virtualisierungslösungen verfolgen in der Regel zwei Ziele. Das erste Ziel ist<br />

die Befreiung von den Zwängen eines Speichersystems und/oder eines Herstellers. Das<br />

zweite Ziel ist die Bereitstellung von hersteller-unabhängigen Datendiensten wie Pool-<br />

Bildung (Zusammenfassung von Speicherkapazitäten gleicher Servicequalität), Datenreplikation<br />

wie Daten-Snapshots, Remote Mirroring oder Disaster Recovery.<br />

Gemeinsam ist allen diesen Virtualisierungslösungen, dass sie eine abgestimmte<br />

Auswahl der jeweils optimalen Speichersysteme für eine bestimmte Aufgabenstellung<br />

erlauben. Speicherressourcen können so unabhängig vom Speichersystem beliebig zur<br />

Verfügung gestellt und dynamisch verändert werden. Nur die Basiseinrichtung der zu<br />

virtualisierenden Elemente wird noch durch die proprietären Managementapplikationen<br />

vorgenommen. Die Anwender müssen also diese Elementenmanager zusammen<br />

mit der gewählten Virtualisierungssoftware einsetzen.<br />

Die Mehrzahl der Anwender von Virtualisierungslösungen nutzt diese im Sinne eines<br />

verbesserten Speichermanagements. Virtualisierung erhöht die Wahlfreiheit der Anwender.<br />

Sie können Lösungen von mehreren Speichersystemherstellern zusammen in einem<br />

Pool verwenden. Oft werden die Speichersysteme bereits bei der Erstinstallation vollständig<br />

partitioniert und danach nur noch über die Virtualisierung gemanagt: „Insbesondere<br />

für sehr dynamische Umgebungen, zum Beispiel bei Service Providern oder<br />

Anwendern mit einer Vielzahl von kleinen Applikationsinseln wie in der öffentlichen<br />

Verwaltung, hat sich der Ansatz seit Jahren bewährt. Dort, wo eine hohe Skalierung<br />

über Tausende von LUNs und Hunderte von Servern notwendig ist, ist der Einsatz einer<br />

Split-Path-Technologie zwingend erforderlich.“ [4]<br />

Im Gegensatz zur Server-Virtualisierung hat es bei der <strong>Storage</strong>-Virtualisierung noch<br />

keinen Durchbruch gegeben. Es zeichnet sich auch kein Marktstandard ab. Das liegt


64 Kapitel 7<br />

sicherlich auch daran, dass mit dem Konzept der LUN jedes SAN-Speichersystem bereits<br />

über eine rudimentäre Virtualisierung der Festplatten verfügt. Der Online-<strong>Storage</strong>-Virtualisierung<br />

kommt allerdings in virtualisierten Serverumgebungen zunehmend Bedeutung<br />

zu [5].<br />

Anders sieht es bei dateibasierten <strong>Storage</strong>-Systemen, den NAS–Systemen, aus. Es<br />

gibt einige vielversprechende Ansätze zur File-Virtualisierung, allerdings hat sich auch<br />

hier noch kein Marktstandard etabliert [6].<br />

Am weitesten fortgeschritten ist <strong>Storage</strong>-Virtualisierung bei Magnetbändern. Virtual<br />

Tape Libraries (VTL) sind heute Best Practise, wenn es um Backup auf Tape geht. CentricStor<br />

VT ist das führende Produkt im Rechenzentrum, wenn es um Virtual Tape geht.


Kapitel 8<br />

Die <strong>Storage</strong>-Strategie von Fujitsu<br />

Siemens Computers und seiner Partner<br />

Fujitsu Siemens Computers ist Europas grösster <strong>Storage</strong> Anbieter und bietet seinen<br />

Kunden alles aus einer Hand, was diese für ihre <strong>Storage</strong>-Infrastruktur benötigen.<br />

Neben einer breiten Palette von Produkten der führenden Hersteller wie<br />

EMC, Brocade, NetApp, CA, Sun und Symantec hat der Hersteller eine Reihe von<br />

eigenen Speicherprodukten entwickelt, die besonders auf die Bedürfnisse der<br />

Anwender ausgerichtet sind. Ergänzt wird das Angebot um ausgefeilte Services,<br />

von der Wartung bis zum Managed <strong>Storage</strong>.<br />

Verfügte noch vor kurzem jede Applikation über fest zugeordnete Infrastruktur, als<br />

Server, Netzwerkkomponenten und <strong>Storage</strong> Systeme, ist es heute das Ziel, den<br />

Applikationen nur die jeweils benötigten Infrastruktur-Ressourcen zuzuordnen.<br />

Erreicht wird das über Virtualisierung: So entstehen große Ressourcenpools, die sich je<br />

nach Bedarf dynamisch nutzen lassen. Fujitsu Siemens Computers arbeitet darauf im<br />

Rahmen seiner Dynamic-Infrastructure-Strategie hin – <strong>Storage</strong> ist ein integraler<br />

Bestandteil.<br />

CentricStor VT: intelligente Bandspeicher-<br />

Virtualisierung<br />

E in richtungsweisendes Beispiel für diesen Weg ist CentricStor VT.<br />

CentricStor VT (Virtual Tape) ermöglicht die intelligente Sicherung<br />

aller Unternehmensdaten. Die Dual Target Speicherlösung integriert<br />

die Vorteile von Festplatte und Magnetband, indem regelbasiert<br />

und autonom die Ablage der Sicherungsdaten erstmalig auf<br />

unterschiedlichste Speichermedien erfolgen kann. Bandverarbeitung<br />

wird somit fit für ILM (Information Lifecycle Management), und die<br />

unternehmensweite Datensicherung kann flexibel an unterschiedli-


66 Kapitel 8<br />

che Service Level Agreements (SLAs) ausgerichtet werden. Die True Tape Virtualization<br />

(TTV) von CentricStor VT steht für überdurchschnittliche Anschlussfähigkeiten und<br />

ermöglicht durch Konsolidierung aller Speichermedien für Backup eine deutliche Kostenreduzierung.<br />

Die CentricStor Grid Architecture (CGA) zeichnet sich durch Skalierbarkeit<br />

aus und bietet eine weit reichende Ausfallsicherheit für jedes Rechenzentrum.<br />

Der am 31. Januar 2008 publizierte Report „The Forrester Wave: Enterprise Open<br />

Systems Virtual Tape Libraries“ von Forrester Research nimmt 12 Anbieter anhand von<br />

58 Kriterien unter die Lupe. Das Ergebnis: Fujitsu Siemens Computers ist einer der Top-<br />

Marktführer bei Virtual Tape Libraries. Der Forrester-Report gibt dem Unternehmen<br />

Spitzennoten für seine Strategie im Bereich Virtual Tape Appliances: „Fujitsu Siemens<br />

Computers führt bei Host-Support, Architektur und Tape-Integration”. Weiter heißt es:<br />

„Als führender Systemanbieter in Europa kann sich das Unternehmen auf eine solide<br />

Basis von mehr als 300 Kunden und über 500 installierte VTLs stützen, wobei sich die<br />

meisten Installationen bei Großunternehmen befinden. Fujitsu Siemens Computers hat<br />

ein solides Wachstum bei Neukunden vorzuweisen und verzeichnet einen der höchsten<br />

Wachstumswerte bei Bestandskunden.”<br />

Version 4 von CentricStor wurde gezielt entwickelt, um die folgenden Problempunkte<br />

von Datensicherungsverantwortlichen zu lösen:<br />

Die Datenmengen wachsen kontinuierlich.<br />

Die Aufbewahrungsfristen für Daten werden länger.<br />

Für den Katastrophenfall muss ein zweites Rechenzentrum bereitgestellt werden.<br />

Das positive Urteil von Forrester wird auch bestätigt durch eine Studie des Ex-Gartner-Analysten<br />

Josh Krischer: „Im Jahr 1999 hat Fujitsu Siemens Computers die Virtual-<br />

Tape-Lösung CentricStor herausgebracht, die eine wirklich offene und flexible Virtual<br />

Tape Library ist: Sie unterstützt Mainframe-, Unix- und Windows-Betriebssysteme und<br />

auch die meisten bestehenden Tape Libraries. Das Design der CentricStor war als<br />

Appliance angelegt, die mit allen bestehenden Servern, Libraries und allen möglichen<br />

Varianten von Backup-Software zusammenarbeiten konnte. Zunächst unterstützte sie<br />

nur BS2000- und MVS-Mainframes sowie Tape Libraries von ADIC, aber schon bald<br />

kamen immer mehr Zertifizierungen für die gesamte Palette an Betriebssystemen,<br />

Backup-Software und Tape-Technologien hinzu. Damit kann die CentricStor in fast<br />

jeder Umgebung eingesetzt werden, wodurch sie auch frühere Investitionen in<br />

Tape-Automatisierung schützt.“ [1]


Die <strong>Storage</strong>-Strategie von Fujitsu Siemens Computers und seiner Partner 67<br />

CentricStor FS: konsolidierte File Services<br />

CentricStor FS ist ein innovatives, scale-out Speichersystem, das<br />

File Services mit hoher Geschwindigkeit bietet und sehr zuverlässig<br />

ist. Es bietet eine praktisch unbegrenzte Skalierbarkeit hinsichtlich<br />

Speicherkapazität, Datendurchsatz und Zugriffszeiten.<br />

Die Verwaltung von CentricStor FS ist einfach – unabhängig von<br />

der Größe muss nur ein einziges Dateisystem verwaltet werden.<br />

Dadurch lassen sich die Speicherressourcen deutlich besser auslasten.<br />

Zusätzliche Speicherkapazität kann einfach bereitgestellt werden,<br />

und CentricStor FS lässt sich zudem sehr leicht installieren. Bei<br />

Ausfall einer Komponente wird durch Automatic Failover und Fallback<br />

gewährleistet, dass das System weiterläuft.<br />

Terri McClure, Analyst bei der Enterprise Strategy Group (ESG), kam in einem<br />

Bericht zu diesem Urteil:<br />

„Das kürzlich angekündigte CentricStor FS von Fujitsu Siemens Computers ist ein<br />

High-End-Speichersystem auf Dateibasis, mit dem Skalierungen auf einer hohen<br />

Granularitätsstufe möglich sind, um so die Kapazitäts-, Verfügbarkeits- und Leistungsanforderungen<br />

von Initiativen zur Dateiserver-Konsolidierung und von Web<br />

2.0-Anwendungen zu erfüllen. Die Verwendung von Standardkomponenten und die<br />

ausgeprägte Cluster-Fähigkeit machen CentricStor FS zu einer einfach zu verwaltenden,<br />

skalierbaren File-<strong>Storage</strong>-Lösung mit einem geringen Einstiegspreis, die speziell<br />

im Hinblick auf die neue Realität eines wachsenden Dateiaufkommens konzipiert<br />

wurde.“ [2]<br />

FibreCAT SX Series: schnelle Speichersysteme für das<br />

Rechenzentrum<br />

D ie FibreCAT SX40, SX60, SX80, SX80<br />

iSCSI, SX88 und SX100 Speichersysteme<br />

bieten die Qualität und Zuverlässigkeit,<br />

wie sie für Rechenzentren<br />

gefordert werden. FibreCAT SX-Systeme<br />

sind sehr schnelle Speichersysteme, insbesondere die FibreCAT SX88, die bis zu 50<br />

Prozent schneller als die FibreCAT SX80 ist, und die FibreCAT SX100, die die doppelte


68 Kapitel 8<br />

Geschwindigkeit und Leistung der FibreCAT SX80 aufweist. Möglich wird dies dank der<br />

Fibre-Channel-Technologie mit 4 Gigabit pro Sekunde, FibreCache und neuester RAID-<br />

Controller-Technologie. Snapshots sind serienmäßig integriert. Die revolutionäre Fibre-<br />

Cap-Technologie schützt Daten auch bei Stromausfällen.<br />

FibreCAT SX-Systeme sind bedienerfreundlich und einfach in Betrieb zu nehmen.<br />

Auch die Verwaltung ist dank der intuitiven Web-Oberfläche unkompliziert. Die Systeme<br />

sind für eine große Bandbreite von Anwendungen geeignet.<br />

Der Analyst Hamish Macarthur von Macarthur Stroud International äußerte sich wie<br />

folgt zu der FibreCAT SX Series: „Die vorhandenen Informationen eines Unternehmens<br />

zu verwalten und zu schützen, sichert den Erfolg in vielen Märkten. Die Systeme, in<br />

denen die Daten aufbewahrt werden, müssen sicher, zuverlässig und leicht zu managen<br />

sein. Die FibreCAT SX-Produkte unterstützen sowohl zuverlässige Primärspeicher als<br />

auch Backup- und Restore-Systeme. Die neuen Arrays sind eine sichere Investition, die<br />

die Anforderungen großer und mittelständischer Unternehmen gleichermassen<br />

abdecken.“<br />

FibreCAT NX40 S4: zuverlässige Datei- und Druckserver und<br />

SAN/NAS Gateway für den Mittelstand<br />

D ie FibreCAT NX40 S4 ist ein<br />

Datei- und Druckserver und<br />

ein SAN/NAS Gateway für den<br />

Mittelstand. Das System erschließt<br />

durch seine Qualität und Zuverlässigkeit<br />

eine hohe Bandbreite<br />

an Einsatzmöglichkeiten in Abteilungen und Außenstellen.<br />

Die FibreCAT NX40 S4 ist ein Rack-Modell in einem Gehäuse mit nur 2 Höheneinheiten<br />

(2 HE). Das System kann mit SATA-II- oder leistungsstarken SAS-Festplatten ausgestattet<br />

werden und bietet im Vollausbau eine interne Speicherkapazität von 4,5 Terabyte.<br />

Über weitere Schnittstellen (SAS, Fibre Channel) kann das System zur Kapazitätssteigerung<br />

mit externen Speichersystemen erweitert werden und fungiert dann als<br />

SAN/NAS-Gateway. Besonders einfach ist die Erweiterung mit der FibreCAT SX/CX Familie,<br />

da hier die benötigte Software bereits vorinstalliert ist. Die FibreCAT NX40 S4 ist<br />

optional auch mit iSCSI Funktionalität erhältlich.<br />

Das System nutzt das Betriebssystem Windows <strong>Storage</strong> Server 2003 R2 mit Zusatzfunktionen<br />

für den Datei- und Druckserver-Bereich. Die FibreCAT NX40-S4-Systeme<br />

sind vorgetestet, vorinstalliert und vorkonfiguriert und somit in Minuten einsatzbereit.


Die <strong>Storage</strong>-Strategie von Fujitsu Siemens Computers und seiner Partner 69<br />

FibreCAT TX Serie: LTO erobert den Mittelstand<br />

Die FibreCAT TX Serie besteht aus dem<br />

Einsteigermodell TX08 und den beiden<br />

für den Mittelstand gedachten Modellen<br />

TX24 S2 und TX48 S2. Die FibreCAT TX08<br />

ist eine kompakte und zuverlässige Bandautomatisierung.<br />

Sie ermöglicht den kostengünstigen<br />

Einstieg in die FibreCAT TX-Familie.<br />

Die FibreCAT TX08 ist mit LTO-Technologie ausgestattet, dem Synonym für große<br />

Kapazität, hohe Geschwindigkeit und sehr geringen Medienkosten. Sie kann wahlweise<br />

mit einem LTO-2, LTO-3- oder LTO-4-Laufwerk ausgestattet werden, das jeweils eine<br />

halbe Höheneinheit umfasst und eine Speicherkapazität von 12,8 Terabyte (LTO-4 komprimiert)<br />

bietet. Das entspricht einer automatisierten Datensicherung von etwa 2<br />

Wochen. Der Angebotspreis beinhaltet eine Vollversion der Backup-Software ARCserve<br />

Backup sowie ein Jahr Vor-Ort Service.<br />

Bei der zweiten Generation der Magnetbandsysteme FibreCAT TX24 S2 und FibreCAT<br />

TX48 S2 ist die Sicherung auf Band im Vergleich zur Festplatte generell energieeffizienter,<br />

da nur dann signifikant Strom verbraucht wird, wenn die Daten gelesen oder auf<br />

das Band geschrieben werden. Die beiden Systeme bieten SAS- und Fibre-Channel-<br />

Schnittstellen zum Server an.<br />

FibreCAT Solution-Lab<br />

F ujitsu Siemens Computers bietet nicht nur eigene Produkte, sondern verfügt auch<br />

über umfangreiche <strong>Storage</strong>-Kompetenz hier in Europa. Neben den zahlreichen <strong>Storage</strong>–Experten,<br />

die vor Ort Projekte betreuen, wurde die zentrale Kompetenz im Fibre-<br />

CAT Solution Lab in Paderborn gebündelt.<br />

Die zentrale Aufgabe des FibreCAT Solution Lab ist die ständige Qualitäts-Überwachung<br />

im Hinblick auf die zuverlässige Verfügbarkeit aller Systeme und Komponenten.<br />

Dies beinhaltet auch die Koordination einer nahtlosen Integration der verschiedenen<br />

FibreCAT Systeme in das umfangreiche Lösungsportfolio von Fujitsu Siemens Computers.<br />

Zu weiteren Aufgaben zählen die frühzeitige Einhaltung und Umsetzung gesetzlicher<br />

Standards im Hinblick auf Umweltschutz und DIN-ISO-Standards. Auf Wunsch<br />

werden im FibreCAT Solution Lab kundenspezifische Tests durchgeführt und somit realistische<br />

Einsatzszenarien nachgestellt. Fujitsu-Siemens-Kunden haben somit die Möglichkeit,<br />

insbesondere die FibreCAT-Systeme in Live-Demos zu erleben.


70 Kapitel 8<br />

Managed <strong>Storage</strong><br />

Für das Thema <strong>Storage</strong> bedeutet Wachstum vor allem ein immenses Mehr an Daten,<br />

die verwaltet, gespeichert, bereitgestellt und gesichert werden müssen. Damit steigt<br />

sowohl die Nachfrage nach Online-Speicherkapazität als auch der Bedarf an Back-up-<br />

Speichervolumen. Grenzen dieses Wachstum sind nicht erkennbar.<br />

Vor diesem Hintergrund stellte sich SAP die Frage, ob das Unternehmen das benötigte<br />

<strong>Storage</strong>-Volumen weiterhin selbst managen oder das machen sollte, was die eigenen<br />

Hosting-Experten auch ihren Kunden empfehlen: Auslagern, was nicht zu den<br />

Kernkompetenzen gehört, und sich selbst auf das konzentrieren, was wichtig für das<br />

Kerngeschäft ist.<br />

Das hieß für die Verantwortlichen bei SAP, den Betrieb und die Betreuung der prozessunterstützenden<br />

<strong>Storage</strong>-Infrastruktur in kompetente externe Hände zu legen. SAP<br />

fand diesen kompetenten Partner in Fujitsu Siemens Computers. Fujitsu Siemens Computers<br />

übernahm in der zentralen Rolle des Generalunternehmers für SAP die gesamte<br />

Verantwortung für die Bereitstellung von anfangs vier Petabyte monatlicher Speicherkapazität<br />

für den Online-Bedarf und täglich mehr als 200 Terabyte für die Datensicherung.<br />

Darüber hinaus werden zur zeitnahen Abdeckung zusätzlichen Bedarfs entsprechende<br />

Kapazitäten vorgehalten und anforderungsgerecht bereitgestellt.<br />

Fujitsu Siemens Computers betreut somit eines der größten Managed-<strong>Storage</strong>-Projekte<br />

in Europa und steuert auch die Zusammenarbeit mit den beteiligten strategischen<br />

Partnern EMC und Network Appliance, die ihre Produkte im SAN- und NAS-Umfeld<br />

einbringen und mit ihrer Spezialisten-Expertise in die betreffenden Dienstleistungsparts<br />

involviert sind.<br />

<strong>Storage</strong> – Teil des Ganzen<br />

I n der <strong>Storage</strong>welt reicht es nicht aus, den Hebel zur Bewältigung der Datenflut mal<br />

hier und mal dort anzusetzen. Anstelle von Einzelschritten ist ein Paradigmenwechsel<br />

gefordert. Es gilt, verschiedene Technologien zu ganzheitlichen Lösungen zu verbinden,<br />

sie beherrschbar und einfach bedienbar zu machen. Dabei ist <strong>Storage</strong> kein Einzelthema,<br />

sondern wesentlicher Teil des Ganzen im dynamischen Rechenzentrum. Fujitsu Siemens<br />

Computers hat deshalb die Strategie Dynamic Infrastructure entwickelt.<br />

Die Speicherlösungen von Fujitsu Siemens Computers sind ein fester Bestandteil<br />

dieser Strategie und Bausteine für die Umsetzung des Ziels, durchgängige IT-Lösungen<br />

bereitzustellen, die einen maximalen Geschäftsbeitrag bei minimalen Gesamtkosten liefern.<br />

Eines der erfolgreichsten und bekanntesten Beispiele für diese Lösungen mit einer


Die <strong>Storage</strong>-Strategie von Fujitsu Siemens Computers und seiner Partner 71<br />

virtualisierten Infrastruktur aus Servern und Speichersystemen ist FlexFrame for<br />

mySAP.<br />

Die Kunden ziehen einen weiteren Nutzen aus der Tatsache, dass Fujitsu Siemens<br />

Computers gerade im Bereich <strong>Storage</strong> mit vielen Partnern zusammen arbeitet. Stellvertretend<br />

für die exzellente Zusammenarbeit seien hier die CEOs von den Partnern EMC<br />

und NetApp zitiert:<br />

Joe Tucci, President & CEO von EMC: „Die Kombination aus EMCs vernetzten Speicherlösungen<br />

und den serverbasierten Lösungen von Fujitsu Siemens Computers bildet<br />

ein breites Angebot aus durchgängigen Infrastrukturlösungen für die Anforderungen<br />

unserer Kunden. In Fujitsu Siemens Computers Vision des Dynamic Data Center spielen<br />

EMC-Lösungen eine Schlüsselrolle, und wir werden weiterhin das Hauptaugenmerk<br />

unserer gemeinsamen Anstrengungen darauf richten, unseren Kunden das umfassendste<br />

am Markt verfügbare Lösungsportfolio anbieten zu können.“<br />

Dan Warmenhoven, CEO von NetApp: „Die strategische Partnerschaft mit Fujitsu<br />

Siemens Computers hat wesentlich zu unserem Erfolg beigetragen und ist in der Region<br />

EMEA weiterhin auf Wachstumskurs. Unsere gemeinsam entwickelte Lösung FlexFrame<br />

for mySAP Business Suite, die Realisation einer schnellen Backup-Lösung für Oracle<br />

oder ein zusammen mit Oracle gegründetes Center of Excellence sind nur einige Beispiele<br />

für die herausragenden Ergebnisse unserer bisherigen Zusammenarbeit.“


Ausblick<br />

Future <strong>Storage</strong> Trends<br />

Im Bereich der Speichersysteme stehen Unternehmen vor vielfältigen Herausforderungen.<br />

Insbesondere das kontinuierliche Datenwachstum verlangt nach immer<br />

neuen Ideen, wie man <strong>Storage</strong> effizienter gestalten kann. Anders als bei PCs und<br />

Servern, wo dominante Marktteilnehmer Standards vorgeben, finden sich im <strong>Storage</strong>-<br />

Markt immer wieder innovative Unternehmen, die mit ungewöhnlichen, neuen Ideen<br />

dem Markt neue Richtungen geben. Nachdem wir uns mit den wesentlichen <strong>Storage</strong>-<br />

Technologien in den vergangenen Kapiteln vertraut gemacht haben, möchten wir hier<br />

aufzeigen, welche aktuellen <strong>Storage</strong> Trends das Potential haben, sich durchzusetzen<br />

und die Art, wie Unternehmen Informationen speichern, nachhaltig zu verändern. Wir<br />

haben fünf relevante Trends herausgesucht:<br />

1. Fibre Channel over Ethernet (FCoE)<br />

2. Massive Array of Idle Disks (MAID)<br />

3. Flash-based Solid State Disks (SSDs)<br />

4. Security (Encryption of Data at Rest)<br />

5. New <strong>Storage</strong> Architectures (Grid <strong>Storage</strong>)<br />

1. Fibre Channel over Ethernet (FCoE)<br />

O bwohl zwei der drei führenden <strong>Storage</strong>-Technologien (NAS, iSCSI) auf Ethernet<br />

basieren, dominiert die dritte, SAN, bei weitem den Markt. SANs werden typischerweise<br />

auf Fibre-Channel-Basis implementiert. Für Fibre-Channel-Netze werden dedizierte<br />

HBA (Host Bus Adapter, also Server-Steckkarten) und Switche benötigt. Diese<br />

Netzwerkkomponenten sind deutlich teurer als Ethernet-Karten und -Switche und verlangen<br />

auch nach Fibre-Channel-spezifischem Know-how. Somit ist die Frage naheliegend,<br />

ob man nicht auch SAN-Speichernetze auf Ethernet-Basis aufbauen kann und<br />

somit nur noch eine Art von Netz braucht. Das würde die Kosten deutlich reduzieren.<br />

Statt vier Kabel (zwei mal Ethernet, zwei mal Fibre Channel) verließen den Server nur<br />

noch zwei FCoE-Kabel. Bereits iSCSI war mit diesem Versprechen gestartet, konnte aber<br />

Fibre Channel-SAN-Puristen nie so recht überzeugen.<br />

Einige Gründe: Im Gegensatz zu FCoE, bei dem die Fibre-Channel-Tools weitergenutzt<br />

werden können, ändert sich bei iSCSI auch diese Ebene. Und: Ethernet ist nicht


74 Ausblick<br />

deterministisch. Führende Netzwerkausrüster liefern sich nun einen Wettlauf, das<br />

Thema der Zusammenführung von <strong>Storage</strong>-Netzwerk und Server-Netzwerk neu zu<br />

adressieren: Der Ethernet-Standard soll so erweitert werden, dass er die gleiche Quality<br />

of Service liefern kann wie ein Fibre-Channel-Netzwerk. Das Ergebnis wird das so<br />

genannte DCE (Data Center Ethernet) sein, über das dann bisheriger TCP/IP-Datenverkehr<br />

genauso abgewickelt werden kann wie Fibre Channel (FCoE). In Kürze wird das<br />

10Gb-Ethernet zur Verfügung stehen, 40Gb und 100Gb sind am Horizont sichtbar.<br />

Gleichzeitig gibt es aber auch Pläne, Fibre Channel jenseits von 8Gb/s auch auf 16Gb/s<br />

zu erweitern. Eine Umstellung auf FCoE wird mit hohen Infrastrukturinvestitionen verbunden<br />

sein, die sich erst im Laufe der Zeit durch die Einsparungen aus dem Betrieb<br />

gleichartiger Netze egalisieren lassen.<br />

2. Massive Array of Idle Disks (MAID)<br />

Heute im Einsatz befindliche Enterprise-Festplatten drehen sich ununterbrochen, 24<br />

Stunden täglich, 7 Tage die Woche (24 x 7). Damit nützen sich nicht nur die mechanischen<br />

Teile mit der Zeit ab, sondern es wird auch unaufhörlich Energie verbraucht. Bei<br />

einem alternativen <strong>Storage</strong> Array auf MAID-Basis ist nur ein kleinerer Teil der Festplatten<br />

ständig aktiv. Festplatten, auf die seit einiger Zeit nicht zugegriffen wird, werden<br />

ausgeschaltet. Das macht allerdings nur Sinn, wenn tatsächlich längere Zeit nicht auf<br />

die Daten zugegriffen wird: Häufiges An- und Ausschalten würde sogar noch mehr<br />

Strom verbrauchen und sich negativ auf die Lebensdauer der Platten auswirken. Daher<br />

kommt MAID im wesentlichen im Archivierungs- und Backup-Bereich zum Einsatz, wo<br />

auch der Preis pro gespeichertes Terabyte wichtig ist. Somit werden in MAID-Systemen<br />

typischerweise SATA-Platten eingesetzt. Um signifikant Strom zu sparen und somit<br />

Green IT einen weiteren Schritt näher zu kommen, ist MAID ein wichtiger Schritt. Es gilt<br />

allerdings, einige Klippen zu umschiffen: Um sicherzustellen, dass die Daten auch noch<br />

gelesen werden können, sollten die Platten periodisch hochgefahren und überprüft<br />

werden. Alternativ kann man auch, statt sie ganz auszuschalten, lediglich die Drehzahl<br />

verringern. Auch das spart signifikant Strom, reduziert aber die Gefahr unerkannter<br />

Plattenfehler.<br />

3. Flash-based Solid State Disks (SSDs)<br />

Flash-Speicher-basierte SSDs sind zwar, wenn es um den Preis pro Kapazität geht,<br />

teurer als herkömmliche Festplatten, doch aufgrund ihrer vielfach größeren Lesege-


Future <strong>Storage</strong> Trends 75<br />

schwindigkeit und schnelleren Zugriffsgeschwindigkeit sind SSDs, die für den Enterprise-Einsatz<br />

optimiert sind, in Sachen Preis pro IOPS heutigen Festplatten bereits überlegen.<br />

Darüber hinaus verbrauchen sie weniger Energie, produzieren kaum Abwärme<br />

und haben, da es keine beweglichen Teile gibt, auch keine Probleme mit rotational Vibration.<br />

Da der Preis der Flash Chips in den letzten Jahren im Schnitt pro Jahr um 50<br />

Prozent gefallen ist, werden diese Platten für immer mehr Einsatzfälle interessant. Um<br />

ähnliche Geschwindigkeiten zu erreichen, werden heute möglichst viele Festplatten<br />

zusammen eingesetzt. Durch den parallelen Zugriff auf viele „Spindeln“ wird hier die<br />

hohe Geschwindigkeit realisiert. So kommt es, dass in solchen Szenarien mit nur zwei<br />

SSDs (zwei, um über Spiegelung eine Datenredundanz sicherzustellen) viele, gar ein<br />

Dutzend Festplatten in RAID-5- oder RAID-6-Verbünden ersetzt werden können. Das<br />

hat gravierende Stromspareffekte zur Folge.<br />

4. Security (Encryption of Data at Rest)<br />

Datenmanagement und Datenspeicherung hat immer auch mit Sicherheit zu tun:<br />

Wenn sensible Daten in die falschen Hände geraten, hat das gravierende Konsequenzen.<br />

Um den Missbrauch zu verhindern, hilft Verschlüsselung: Sind die Daten nicht<br />

lesbar, sind sie für den, der Zugriff auf sie hat, aber nicht haben sollte, unbrauchbar. Dies<br />

gilt auch, wenn defekte oder scheinbar defekte Datenträger (z.B. Festplatten) ausgetauscht<br />

werden. Alle Daten auf den defekten Datenträgern sind garantiert nicht lesbar.<br />

Leider gibt es viele Ansätze für eine Verschlüsselung. Sie kann auf verschiedenen Ebenen<br />

erfolgen: bei der Applikation, den Filesystemen, der Netzwerk- und Switch-Ebene<br />

sowie in Geräten wie eigenen Encryption-Appliances oder Tape Libraries und Disk Drives.<br />

Problematisch ist derzeit noch das Schlüsselmanagement über ein gesamtes<br />

Rechenzentrum hinweg, da die meisten Hersteller ihr eigenes Key Management anbieten.<br />

Eine Standardisierung steht noch aus. Ohne einen Standard aber ist nicht sichergestellt,<br />

dass die Nutzer der Daten sie auch lesen können und auch problemfrei austauschen<br />

können.<br />

5. New <strong>Storage</strong> Architectures (Grid <strong>Storage</strong>)<br />

H eutige Speichersysteme sind in aller Regel monolithisch aufgebaut und sie wurden<br />

speziell als Speichersystem entworfen. Da Speichersysteme in deutlich geringeren<br />

Stückzahlen gefertigt werden als PCs oder Standardserver, ist ihre Produktion entspre-


76 Ausblick<br />

chend teuer. Wie bei allen monolithischen Systemen ist der Maximalausbau designbedingt<br />

beschränkt.<br />

Hier deutet sich ein Paradigmenwechsel an, der die Speicherindustrie revolutionieren<br />

wird: Man nehme Standardserver und in großen Stückzahlen produzierte einfache<br />

Standard-RAID-Systeme und füge sie dank einer intelligenten Softwareschicht zu<br />

einem <strong>Storage</strong>-System zusammen. Solche Scale-Out-Systeme können massiv erweitert<br />

werden, indem immer mehr solcher Standardkomponenten hinzugefügt werden. So hat<br />

das Wachstum nicht nur fast keine Grenzen, die Systeme bieten mit zunehmender<br />

Größe auch mehr Kapazität und mehr Zugriffsgeschwindigkeit. Diese Architektur verleiht<br />

den Systemen die Skalierbarkeit und die Elastizität, die insbesondere in der heutigen<br />

file-getriebenen Welt dringend gebraucht wird und auch das Rückgrat für die<br />

Internet-Infrastruktur darstellt (Cloud Computing). CentricStor FS gehört zu den ersten<br />

Inkarnationen dieser neuen <strong>Storage</strong>-Generation.


Anmerkungen<br />

Kapitel 1<br />

[1] Der Triumph der großen Zahl – Zehn Jahre Google; Neue Zürcher Zeitung, 25. April 2008.<br />

[2] Details zur Schriftentwicklung bei Charles Panati, The Browser’s Book of Beginnings – Origins<br />

of Everything Under, and Including, the Sun, New York 1998, Seite 67 ff.<br />

[3] Der Spiegel, Ausgabe vom 11. 8. 2008, Titelgeschichte „Die Daten-Sucht“, Seite 88.<br />

[4] Zu den positiven und negativen Auswirkungen dieser Entwicklung haben sich viele Autoren<br />

geäußert. So Neil Postman, Joseph Weizenbaum, Nicholas Negroponte oder Nicholas Carr.<br />

Zu Carr siehe auch das Interview in Hendrik Leitner / Hartmut Wiehr, Die andere Seite der<br />

IT – Business-Transformation durch Services und dynamische Infrastruktur, München 2006,<br />

Seite 215 ff.<br />

[5] Vgl. auch folgende Passage aus einem Interview in der Wochenzeitung „Die Zeit“.<br />

Frage: „Welche Entwicklung hat den Umgang mit Wissen in den vergangenen Jahren am<br />

meisten verändert?“<br />

Antwort: „Da gab es zwei. Erstens: Festplatten sind praktisch umsonst. Deshalb ist es keine<br />

Utopie mehr, alle veröffentlichten Werke der Menschheit auf Platte zu haben. Zweitens:<br />

Praktisch kein Mensch auf dieser Welt ist mehr als einen Tagesmarsch von einem Internet-Café<br />

entfernt. Wir haben jetzt die Kommunikationsinfrastruktur, um die großen Bibliotheken<br />

der Welt einem Jugendlichen in Uganda oder auch in armen Gegenden der USA oder<br />

Deutschlands zur Verfügung zu stellen.“ (Interview mit Brewster Kahle, Direktor des Internet<br />

Archive in San Francisco; Die Zeit, 17. 1. 2008)<br />

Kapitel 2<br />

[1] Der Aufkauf von Anbietern wie Cognos, Business Objects, Hyperion, Documentum oder File-<br />

Net, die entweder Software für Dokumentenmanagement (DMS) oder Business Intelligence<br />

(BI) entwickelt hatten, durch große Speicherhersteller oder Hersteller mit einem starken<br />

Speicheranteil beweist, dass <strong>Storage</strong>-Hardware und inhaltliche Kriterien der gespeicherten<br />

Daten zusammengeführt werden sollen. Man kann es auch lesen als Versuch der Integration<br />

von klassischen Speichergeräten mit ILM oder HSM.<br />

[2] Steve Duplessie, File Infrastructure Requirements in the Internet Computing Era, Enterprise<br />

Strategy Group (ESG), Juli 2008, Seite 5.<br />

[3] Fred Moore / Horizon Information Strategies, <strong>Storage</strong> Spectrum (2007), Seite 76.<br />

[4] „Jeder vierte Anwender hat ILM bisher punktuell umgesetzt, aber nur bei 3,5 Prozent sind<br />

solche Lösungen unternehmensweit im Einsatz. Anwender, die sich ernsthaft mit dem Thema<br />

befassen, sollten sich darüber im Klaren seien, dass ILM weder als Produkt zu kaufen noch<br />

über ein einmaliges Projekt zu realisieren ist“. Wolfram Funk, Experton Group (zitiert nach<br />

Computerwoche 46/2006, Seite 40)


78 Anmerkungen<br />

[5] Vgl auch das Interview mit Michael Peterson in http://www.searchstorage.de/themenbereiche/archivierung/e-mail/articles/107136/.<br />

[6] Vgl. zum Beispiel Dan Warmenhoven, CEO von NetApp: „ Mein Standpunkt (zu ILM) ist, dass<br />

man keinen arbeitsintensiven Prozess zum Verwalten der Daten einrichten sollte, wenn es<br />

einen automatisierten gibt. Und ILM ist sehr arbeitsintensiv. (…) Der Anwender will seine<br />

Daten von einem teuren Speicher auf einen billigen migrieren. Und er benötigt ein Online-<br />

Archiv, um die Daten schnell wiederzufi nden, aber auch aus Compliance-Gründen. NetApp<br />

spricht von Datenarchivierung und -migration. Das alles ILM zu nennen verwirrt.“ (Interview<br />

in Computerwoche, 9. 11. 2007)<br />

Kapitel 3<br />

[1] Vgl. Hartmut Wiehr, „Disk-Systeme – Technik und Produkte“, in iX extra, Ausgabe 12/2007<br />

(kostenloser Download über: http://www.heise.de/ix/extra/2007/ie0712.pdf).<br />

[2] Siehe auch den Ausblick in diesem Buch, Seite 73.<br />

[3] In professionellen Disksystemen gibt es so etwas wie ein Frühwarnsystem. Platten melden<br />

im laufenden Betrieb, ob sie demnächst ausfallen: Laufwerke, die lange nicht angesprochen<br />

wurden, werden periodisch dennoch angefahren, um ihre Funktionstüchtigkeit zu überprüfen.<br />

Reagieren sie noch unmittelbar auf Signale oder erst bei wiederholten Versuchen? Letzteres<br />

deutet darauf hin, dass eventuell die magnetische Oberfl äche nicht mehr einwandfrei<br />

ist. Alle entsprechenden Informationen werden gesammelt, bei Überschreiten bestimmter<br />

Schwellwerte gemeldet oder veranlassen das System, eine der Reserveplatten einzusetzen.<br />

Oder es wird eine Meldung an den Wartungsdienst geschickt, der dann für einen Austausch<br />

der beschädigten oder fehlerhaften Platte sorgt.<br />

[4] Von ICP Vortex gibt es ein übersichtliches Grundlagenpapier (White Paper) zu den verschiedenen<br />

RAID-Levels. Das Papier ist in deutscher Sprache verfasst und kann hier heruntergeladen<br />

werden: http://vortex.de/NR/rdonlyres/82BA6504-885D-444E-AC71-7AC570CF56A3/0/<br />

raid_d.pdf.<br />

[5] Siehe auch Günter Thome / Wolfgang Sollbach, Grundlagen des Information Lifecycle Management,<br />

Berlin Heidelberg 2007, Seite 214 ff.<br />

Kapitel 4<br />

[1] Zur Geschichte des Ethernet-Protokolls und des Internets, die im Auftrag der amerikanischen<br />

Armee entwickelt worden waren und den Nachrichtentransport in einem Kriegsfall sicherstellten<br />

sollten, siehe http://www.informatik.uni-bremen.de/grp/unitel/referat/timeline/timeline-2.html.<br />

[2] Für weitere Informationen zu SANs und Fibre Channel siehe http://www.snia.org/education/<br />

tutorials/ und http://www.fi brechannel.org/.<br />

[3] Historisch betrachtet hatte zunächst CNT den Konkurrenten Inrange übernommen, wurde<br />

dann aber bald darauf selbst von McData aufgekauft. Brocade vereinigt nun alle ehemaligen<br />

FC-Switches-Anbieter gegen Cisco, das Unternehmen, das wohl über die größte Marktkraft


Anmerkungen 79<br />

im Netzwerkbereich verfügt. Weltweit gesehen ist Brocade noch immer Marktführer bei FC-<br />

Swiches, während Cisco kontinuierlich seinen Anteil vor allem in den USA erweitert hat.<br />

Brocade hat sich inzwischen mit der Übernahme von Foundry selbst einen renommierten<br />

Netzwerkhersteller einverleibt und damit auch auf dieser Ebene gleichgezogen.<br />

[4] Gute Darstellungen zur Entwicklung der IT-Industrie fi nden sich in Paul E. Ceruzzi, A History<br />

of Modern Computing, Cambridge und London 2003, und in Clayton M. Christensen, The<br />

Innovator’s Dilemma, New York 2000. Eine Darstellung der jüngsten Speichergeschichte fi ndet<br />

sich in Hartmut Wiehr (Hrsg.), <strong>Storage</strong> Compendium 2006/2007, München 2006.<br />

[5] Vgl. Mario Vosschmidt/Hartmut Wiehr, Speichernetze und ihre Verwaltungsinstrumente; in:<br />

iX, Heft 8/2008, Seite 122 ff.<br />

[6] Eine gute Übersicht fi ndet sich in der Broschüre „NetApp Produkte & Lösungen“.<br />

[7] Interview mit David Hitz in „project 57 – Journal für Business Computing und Technologie“,<br />

Special 01/05, Seite 39 ff. Vergleiche auch das Interview mit NetApp-CEO Dan Warmenhoven<br />

in Computerzeitung, Ausgabe 38/2008, Seite 10.<br />

Kapitel 5<br />

[1] Viele Speicherhersteller liefern zusammen mit ihrer Hardware eigene Backup-Programme<br />

aus. EMC, Partner von Fujitsu Siemens Computers, hat nach der Legato-Übernahme 2003<br />

eine komplette Lösung (NetWorker) im Angebot. Von den unabhängigen Anbietern sind vor<br />

allem CA mit ARCserve und Symantec mit NetBackup zu nennen. Im Windows-Umfeld sind<br />

häufi g CommVault und BakBone anzutreffen.<br />

[2] Siehe hierzu Dave Russell / Carolyn DiCenzo, MarketScope for Enterprise Backup/Recovery<br />

Software 2008, April 2008.<br />

[3] Ein Beispiel für Fehlerkorrekturen ist ECC (Error Correction Code). Die Korrektur dient dazu,<br />

Fehler bei der Speicherung und Übertragung von Daten zu erkennen. In einem zweiten<br />

Schritt werden dann die Fehler automatisch behoben.<br />

[4] Mit S.M.A.R.T. (Self-Monitoring, Analysis and Reporting Technology) verfügen Festplatten<br />

über eine Funktion, die sie ständig überwacht. Dabei werden technische Werte wie Temperatur,<br />

Anlaufzeit oder Spursicherheit der Lese- und Schreibköpfe kontrolliert.<br />

[5] Spezialisierte Dienstleister wie Kroll Ontrack oder Seagate Services können ausgefallene oder<br />

durch Feuer und Wasser beschädigte Festplatten oft wiederherstellen und so die verlorenen<br />

Daten retten.<br />

[6] Siehe Hartmut Wiehr, Begrenzte Lebensdauer: Disks – Status quo und Trends; in iX extra,<br />

Ausgabe 12/2007; Download: http://www.heise.de/ix/extra/2007/ie0712.pdf. Dort werden<br />

auch weitere Begriffe und Zusammenhänge zu diesem Themenkreis erläutert.<br />

[7] Weitere Angaben bei www.speicherguide.de: Schwerpunkt Bandlaufwerke und Tapes (http://<br />

www.speicherguide.de/magazin/bandlaufwerke.asp?mtyp=&lv=200). Die Haltbarkeit von<br />

DVDs und Blu Ray Disc (BD) unterliegt sehr großen Schwankungen. Der Markt ist breit gefächert,<br />

besonders im Consumer-Segment. Eine gute Übersicht über die Haltbarkeit dieser<br />

optischen Medien unter Berücksichtigung ihrer Eignung für Archivierungszwecke fi ndet sich<br />

in c’t – Magazin für Computertechnik, Ausgabe 16/2008, Seite 116 ff.<br />

[8] <strong>Storage</strong>Tek stellte bereits 1987 das 4400 Automated Cartridge System (ACS) vor, das die<br />

Basis für die 1988 herausgebrachten 4400 Tape Libraries (Nearline) darstellte. Die großen<br />

Powderhorn-Libraries von 1993 waren eine Weiterentwicklung dieser Technologie, mit


80 Anmerkungen<br />

der ein sehr schneller Zugriff auf Bandlaufwerke (Tape Cartridges) möglich ist. Noch heute<br />

sind viele Powderhorns im Einsatz, und nach der Übernahme von <strong>Storage</strong>Tek durch Sun im<br />

Jahr 2005 musste der neue Eigentümer bereits mehrfach auf Druck von großen Kunden die<br />

Wartungszyklen verlängern. Diese Kunden sahen keinen Grund darin, ihre bewährten Tape<br />

Libraries auszumustern und durch Nachfolgemodelle zu ersetzen.<br />

[9] Vgl. „The Top 10 <strong>Storage</strong> Inventions of All Time“, in Byteandswitch, 16. Juni 2008.<br />

[10] Hartmut Wiehr, Dedup krempelt das Backup um, in Computerzeitung, Ausgabe 28/2008,<br />

Seite 10.<br />

Kapitel 6<br />

[1] Mit FlexFrame for SAP und FlexFrame for Oracle hat Fujitsu Siemens Computers zwei dynamische<br />

Infrastrukturlösungen entwickelt, die Speicher-, Server- und Netzwerkressourcen<br />

auf einer einzigen Plattform bündeln. Im laufenden Betrieb können so in einer virtuellen<br />

Umgebung Ressourcen zugewiesen und verschoben werden – je nach aktuellen Anforderungen.<br />

[2] Zur Virtualisierung siehe auch Kapitel 7.<br />

[3] Siehe auch Mario Vosschmidt/Hartmut Wiehr, Gut eingebunden – Speichernetze und ihre<br />

Verwaltungsinstrumente, in: iX – Magazin für professionelle Informationstechnik, Heft<br />

8/2008, Seite 123.<br />

[4] Veröffentlicht in tecchannel, 26. Januar 2006. Für einen vertieften technischen Überblick<br />

siehe auch den Artikel „Mit SMI-S hat sich die <strong>Storage</strong>-Networking-Industrie ihren inneren<br />

Zusammenhalt gegeben“ auf www.searchstorage.de (5. September 2007).<br />

Kapitel 7<br />

[1] „Virtualisierung treibt die Industrialisierung der IT voran“: Interview von Hartmut Wiehr mit<br />

Dr. Joseph Reger, auf www.searchstorage.de, 10. April 2004: http://www.searchstorage.de/<br />

themenbereiche/rz-techniken/virtuelle-systeme/articles/117015/.<br />

[2] Ibid.<br />

[3] Ibid.<br />

[4] Mario Vosschmidt/Hartmut Wiehr, Gut eingebunden – Speichernetze und ihre Verwaltungsinstrumente,<br />

in: iX-Magazin für professionelle Informationstechnik, Heft 8/2009, S. 124.<br />

[5] LUN-Masking (auch LUN-Mapping) bedeutet, dass einer Applikation nur der Speicherbereich<br />

zugewiesen und sichtbar gemacht wird, den sie für die Durchführung ihrer Arbeiten braucht.<br />

Durch diese Segmentierung wird der allgemeine Zugriff auf bestimmte Speicherbereiche<br />

unterbunden, was zugleich die Sicherheit aller Applikationen erhöht. Bei SAN-Zoning wird<br />

das gleiche Prinzip auf die Unterteilung eines Netzes in virtuelle Subnetzwerke angewendet,<br />

so dass Server einer Zone nicht auf Speichersysteme einer anderen Zone zugreifen können.<br />

[6] Siehe auch Steve Duplessie, File Infrastructure Requirements in the Internet Computing Era,<br />

Enterprise Strategy Group (ESG), Juli 2008.


Anmerkungen 81<br />

Kapitel 8<br />

[1] Josh Krischer, Krischer & Associates, CentricStor Virtual Tape: the Swiss Army Knife for data<br />

protection, September 2008<br />

[2] Terri McClure, Enterprise Strategy Group (ESG), CentricStor FS von Fujitsu Siemens<br />

Computers, Juli 2008


Glossar<br />

A<br />

Array (<strong>Storage</strong> Array)<br />

Ein Subsystem aus einer Reihe von Festplatten<br />

(oder Bandlaufwerken), die gemeinsam von<br />

einer Software gesteuert werden, welche in der<br />

Regel ebenfalls innerhalb des Subsystems ausgeführt<br />

wird.<br />

Asynchrone Replikation<br />

Nach dem Schreiben von Daten auf das primäre<br />

Speichermedium können sogleich neue<br />

Schreibvorgänge auf diesem Medium erfolgen,<br />

ohne dass zunächst die Schreibvorgänge auf<br />

dem sekundären (räumlich entfernten) Speichermedium<br />

abgeschlossen sein müssen. Die<br />

asynchrone Replikation kommt ohne die<br />

Latenznachteile der synchronen Replikation<br />

aus, hat aber den Nachteil, dass es zu Datenverlusten<br />

kommen kann, sollte das primäre<br />

Speichermedium ausfallen, bevor die Daten<br />

auf das sekundäre Speichermedium geschrieben<br />

wurden.<br />

B<br />

Backup/Restore<br />

Ein aus zwei Schritten bestehender Prozess.<br />

Informationen werden zunächst auf nichtflüchtige<br />

Datenträger (Magnetplatten oder<br />

-bänder) geschrieben. Im Fall von Computerproblemen<br />

(z.B. Festplatten- oder Stromausfällen,<br />

oder auch Vireninfektionen), die Verluste<br />

oder Beschädigungen der ursprünglichen<br />

Daten zur Folge haben können, wird unverzüglich<br />

auf die Kopie zugegriffen, die dann auf<br />

einem funktionsfähigen System zurückgespeichert<br />

wird.<br />

Blockdaten<br />

Rohdaten ohne ausgeprägte Dateistruktur.<br />

Datenbankapplikationen wie Microsoft SQL<br />

Server und Microsoft Exchange Server übertragen<br />

Daten in Blöcken. Die Blockübertragung ist<br />

die effizienteste Möglichkeit zum Schreiben<br />

auf Plattenspeicher.<br />

Business Continuity<br />

Die Möglichkeit eines Unternehmens, auch<br />

nach einem Katastrophenfall (z.B. Feuer, Erdbeben,<br />

Wassereinbruch usw.) noch weiter<br />

arbeiten zu können. Erreicht wird dies durch<br />

die Bereitstellung redundanter Hardware und<br />

Software, den Einsatz fehlertoleranter Systeme<br />

sowie eine solide Backup- und Wiederherstellungsstrategie.<br />

C<br />

Cluster<br />

Eine Gruppe von Servern, die in ihrer Gesamtheit<br />

als ein einzelnes System fungieren,<br />

wodurch sie die Voraussetzungen für Lastausgleich<br />

und Hochverfügbarkeit schaffen. Ein<br />

Cluster kann an nur einem physikalischen<br />

Standort konzentriert sein (Basic Cluster), oder<br />

er kann über verschiedene Standorte verteilt<br />

sein, um ein Disaster Recovery zu ermöglichen.<br />

Compliance<br />

In der Terminologie der Datenspeicherung<br />

bezeichnet Compliance für die gesamte Wirtschaft<br />

geltende behördliche Vorschriften und<br />

Bestimmungen, die Vorgaben zum Umgang<br />

mit Daten sowie zur Erfüllung dieser Auflagen<br />

machen. Organisationen und Unternehmen<br />

betrachten das Thema Compliance mit Sorge.<br />

Zum größten Teil liegt dies an immer mehr und<br />

zunehmend verschärften behördlichen Auflagen,<br />

zu deren Erfüllung die Organisationen<br />

häufig zu Investitionen in neue Technologien<br />

gezwungen sind.<br />

Continuous Data Protection (CDP)<br />

Kontinuierlicher Datenschutz. Die Sicherung<br />

von Computerdaten durch eine entsprechende<br />

automatische Funktion, die jedes Mal ausgeführt<br />

wird, wenn Änderungen an diesen Daten


84 Glossar<br />

vorgenommen werden. Diese ereignisgetriebene<br />

Sicherung erfolgt während der produktiven<br />

Arbeitszeit des Systems und kann eventuell<br />

Leistungseinbußen der IT-Infrastruktur verursachen.<br />

D<br />

DAS (Direct Attached <strong>Storage</strong>)<br />

Bei DAS handelt es sich um Festplattenressourcen,<br />

die mittels Anschlussmedien wie<br />

pa rallele SCSI-Kabel direkt mit einem Server<br />

verbunden sind. Dieser Direktanschluss ermöglicht<br />

einen schnellen Zugriff auf die Daten;<br />

allerdings ist ein Zugriff auf den direkt angeschlossenen<br />

Speicher dann nur von dem entsprechenden<br />

Server aus möglich. Der Begriff<br />

DAS umfasst intern angeschlossene lokale<br />

Festplattenlaufwerke, extern angeschlossenen<br />

RAID- (Redundant Array of Independent Disks)<br />

oder JBOD-Speicher (Just a Bunch Of Disks).<br />

Auch Fibre Channel kann für DAS genutzt werden,<br />

üblicher ist der Einsatz dieser Technik<br />

allerdings in Speichernetzen (<strong>Storage</strong> Area<br />

Networks, SANs).<br />

Daten-Deduplizierung<br />

Bei der Deduplizierung wird der ankommende<br />

Datenfluss in Segmente zerlegt, wobei die einzelnen<br />

Segmente eindeutig identifiziert und<br />

mit zuvor gespeicherten Segmenten verglichen<br />

werden. Wenn ein ankommendes Datensegment<br />

ein Duplikat eines bereits gespeicherten<br />

ist, wird es nicht noch einmal abgespeichert,<br />

sondern es wird eine Referenz (Pointer) zu ihm<br />

angelegt. Dieser Prozess arbeitet auf einer<br />

äußerst niedrigen Granularitätsstufe, um soviel<br />

Redundanz wie möglich feststellen zu können.<br />

Als Nachteile dieses Filterungsprozesses sind<br />

die Stichwörter Effizienz, Geschwindigkeit und<br />

Datengröße zu nennen.<br />

Disaster Recovery<br />

Die Wiederherstellung des IT-Betriebs nach<br />

dem Ausfall eines kompletten Standorts aufgrund<br />

einer Katastrophe oder aufgrund von<br />

Sabotage. Zu den Disaster-Recovery-Strategien<br />

gehören Replikation und Backup/Restore.<br />

E<br />

Ethernet<br />

Eine Datennetztechnik für lokale Netzwerke<br />

(LANs), die in der Regel mit 10 Megabit pro<br />

Sekunde (mbps) arbeiten und verschiedene<br />

physikalische Medien wie Koaxialkabel,<br />

geschirmte oder ungeschirmte Twisted-Pair-<br />

Kabel sowie Glasfaserkabel nutzt. Die technische<br />

Entwicklung in der Zukunft verlangt nach<br />

Ethernet-Versionen mit 1, 10 and 100 Gigabit<br />

pro Sekunde. Zuständig für die Ethernet-Standardisierung<br />

ist der IEEE 802.3-Ausschuss.<br />

F<br />

Failover<br />

Im Fall einer physikalischen Störung einer<br />

Netzwerkkomponente werden die Daten<br />

unverzüglich auf einen alternativen Pfad<br />

umgeleitet, sodass die jeweiligen Dienste ohne<br />

Unterbrechung weiter erbracht werden können.<br />

Failover erfolgt im Rahmen von Clusterlösungen<br />

oder mittels redundanter Speicherpfade.<br />

Bei Clusterlösungen werden bei einem<br />

Ausfall ein oder mehrere Dienste (wie z.B.<br />

Exchange) auf einen Standby-Server umgelegt.<br />

Bei Bereitstellung redundanter Speicherpfade<br />

führt der Ausfall eines Pfads dazu, dass Daten<br />

auf eine alternative physikalische Verbindung<br />

zum Speicher umgeleitet werden.<br />

Fehlertoleranz<br />

Fehlertoleranz ist die Möglichkeit von Computerhardware<br />

oder -software, im Fall von Hardwareausfällen<br />

die Integrität der Daten sicherzustellen.<br />

Merkmale der Fehlertoleranz sind in<br />

vielen Server-Betriebssystemen anzutreffen.<br />

Solche Merkmale sind gespiegelte Volumes,<br />

RAID-Volumes und Server-Cluster.<br />

Fibre Channel (FC)<br />

Eine schnelle Übertragungstechnik, die innerhalb<br />

von Speichernetzen (SANs) für die Verbindung<br />

von Servern mit den Speicherressourcen<br />

eingesetzt wird. Zu den Fibre Channel-Komponenten<br />

zählen HBAs, Hubs, Switches und die


Glossar 85<br />

Verkabelung. Die Bezeichnung Fibre Channel<br />

bezieht sich auch auf das Übertragungsprotokoll.<br />

Fibre Channel over Ethernet (FCoE)<br />

Eine Technologie, bei der Fibre Channel-Frames<br />

in Ethernet-Frames eingekapselt sind. Sie<br />

ermöglicht den Transport von FC-Daten über<br />

Ethernet-Netzwerke. Standardisierungen sind<br />

in verschiedenen Normungsausschüssen in<br />

Arbeit. Produkte werden für 2009/2010 erwartet.<br />

FCoE könnte eine Alternative zur klassischen<br />

Fibre Channel-Technologie darstellen.<br />

G<br />

Global File System<br />

In manchen Konfigurationen, z.B. bei Clustern<br />

oder NAS-Systemen, ist es hilfreich, eine Möglichkeit<br />

zu haben, mit der die Dateisysteme auf<br />

verschiedenen Servern oder Speichergeräten<br />

wie ein einziges Dateisystem aussehen. Mit<br />

einem globalen oder verteilten Dateisystem<br />

könnten Speicheradministratoren auf globaler<br />

Ebene Dateisysteme aufbauen oder Änderungen<br />

an ihnen vornehmen. Bisher ist dies noch<br />

eine erst im Aufbruch stehende Technologie.<br />

H<br />

HBA (Host Bus Adapter)<br />

Ein HBA ist die intelligente Hardware auf dem<br />

Host-Server, die die Übertragung von Daten<br />

zwischen dem Host und dem Ziel-Speichersystem<br />

steuert.<br />

Hierarchisches Speichermanagement (HSM)<br />

Ein Datenspeicherungssystem, das automatisch<br />

Daten zwischen kostenintensiveren und<br />

preisgünstigeren Speichermedien verschiebt.<br />

HSM verdankt seine Existenz der Tatsache, dass<br />

schnelle Speichermedien wie Enterprise Disk<br />

Drives (Fibre Channel, SAS) teurer pro gespeichertem<br />

Byte sind als langsamere Geräte wie<br />

zum Beispiel Festplatten mit geringerer<br />

Geschwindigkeit (SATA-, Desktop-Festplatten)<br />

oder Magnetbandlaufwerke. Der Idealfall wäre<br />

es zwar, alle Daten jederzeit auf schnellen<br />

Speichergeräten zur Verfügung zu haben; eine<br />

solche Lösung ist jedoch für viele Organisationen<br />

nicht bezahlbar. So speichern HSM-Systeme<br />

den Großteil der Unternehmensdaten auf<br />

langsameren Medien und kopieren die Daten<br />

bei Bedarf auf schnellere Festplatten.<br />

Hochverfügbarkeit<br />

Ein kontinuierlich verfügbares Computersystem<br />

ist eines, das über den Verlauf eines Jahres<br />

gesehen so gut wie keine Ausfallzeiten aufweist.<br />

Ein System mit einer Verfügbarkeit von<br />

99,999% hat eine Ausfallzeit von nur fünf<br />

Minuten. Ein hoch verfügbares System ist<br />

dagegen als ein System definiert, das eine<br />

Laufzeit von 99.9 % aufweist; dies bedeutet,<br />

dass im Laufe eines Jahres einige wenige Stunden<br />

an geplanter oder ungeplanter Ausfallzeit<br />

auftreten können.<br />

I<br />

ILM (Information Lifecycle Management)<br />

ILM beschreibt eine Speicherstrategie. Ziel von<br />

Information Lifecycle Management (ILM) ist es,<br />

die richtigen Daten zum richtigen Zeitpunkt<br />

dort verfügbar zu machen, wo sie benötigt<br />

werden – und das zu den geringst möglichen<br />

Kosten. Hierzu wird der gesamte Lebenszyklus<br />

der Informationen von der Erstellung über die<br />

Nutzung bis zu ihrer Löschung betrachtet.<br />

Manchmal auch als „Data Lifecycle Management“<br />

bezeichnet.<br />

iSCSI (Internet SCSI)<br />

Ein Protokoll für den Transport von Blockdaten<br />

über IP-Netzwerke, ohne dass eine spezielle<br />

Netzwerkinfrastruktur wie beispielsweise Fibre<br />

Channel benötigt wird.<br />

ITIL (Information Technology Infrastructure<br />

Library)<br />

ITIL ist eine Dokumentation von Best Practices<br />

für das IT Service Management, die von vielen<br />

hundert Organisationen in der ganzen Welt<br />

angewandt wird. Die Richtlinien in den ITIL-<br />

Publikationen und die begleitenden Qualifizie-


86 Glossar<br />

rungsschemata stellen inzwischen die Grundlage<br />

einer kompletten ITIL-Philosophie dar. ITIL<br />

besteht aus einer Reihe von Publikationen mit<br />

Richtlinien zur Bereitstellung qualitativ hochwertiger<br />

IT-Services sowie zum Umfeld der IT.<br />

ITIL wurde im Hinblick auf die zunehmende<br />

Abhängigkeit der Unternehmen und Organisationen<br />

von der IT entwickelt und verkörpert<br />

Best Practices für das IT Service Management.<br />

ITIL kommt häufig zur Anwendung, wenn verschiedene<br />

Unternehmen zusammenarbeiten,<br />

und kann auch Fusions- und Übernahmeprozesse<br />

erleichtern.<br />

J<br />

JBOD (Just a Bunch of Disks)<br />

Wie der Name (Englisch für „nur ein Haufen<br />

Festplatten“) schon sagt, eine Gruppe von<br />

Festplatten in einem gemeinsamen Gehäuse.<br />

JBOD unterscheidet sich von RAID, indem es<br />

keine Speichercontroller-Intelligenz besitzt<br />

und keine Datenredundanz realisiert.<br />

L<br />

LAN<br />

Local Area Network. Hardware und Software<br />

zur Verbindung von Personal Computern und<br />

Peripheriegeräten innerhalb enger geografischer<br />

Grenzen – in der Regel nicht über ein<br />

Gebäude oder eine Gruppe zusammenhängender<br />

Gebäude hinausgehend.<br />

Load Balancing (Lastverteilung)<br />

Die Umverteilung von Lasten (Schreib-/Lese-<br />

Anforderungen) zwischen den Servern und<br />

Speichergeräten auf alternativen Pfaden. Load<br />

Balancing trägt zur Erhaltung einer leistungsstarken<br />

Vernetzung bei.<br />

LTO<br />

Linear Tape Open. Ein offener Standard für eine<br />

Familie von Halb-Zoll-Magnetbandlaufwerken<br />

im Ultrium-Format – Kassettenlaufwerke für<br />

hohe Kapazitätsanforderungen.<br />

LUN (Logical Unit Number)<br />

Eine LUN ist das Ergebnis einer konzeptuellen<br />

Aufteilung (eine Untereinheit) einer Festplatte<br />

oder einer Reihe von Festplatten. Eine LUN<br />

kann direkt einem Volume-Laufwerk entsprechen<br />

(zum Beispiel dem Volume C:). Jede „logische<br />

Einheit“ hat eine Adresse, die „Logical Unit<br />

Number“ (LUN), die ihre eindeutige Identifizierung<br />

ermöglicht.<br />

LUN-Masking<br />

Das LUN-Masking schreibt in SCSI-, iSCSI oder<br />

Fibre Channel-Systemen vor, welcher Rechner<br />

welches Disk-Subsystem sehen darf. Die Logical<br />

Unit Numbers (LUNs) der einzelnen Systembestandteile<br />

durchgehen quasi einen Filter,<br />

bevor Rechner sie sehen dürfen (oder nicht).<br />

Das LUN-Masking ähnelt dem Zoning, ist aber<br />

im <strong>Storage</strong> Array und nicht im Switch realisiert.<br />

M<br />

MAN<br />

Metropolitan Area Network. Ein Netzwerk für<br />

die High-Speed-Kommunikation über Distanzen<br />

von bis zu ca. 80 Kilometern.<br />

Metadaten<br />

Informationen zu einer Datei, die aber getrennt<br />

von den Daten in dieser Datei gehalten werden.<br />

Metadaten werden zur Identifizierung von<br />

Daten in der Datei und ihrer physikalischen<br />

Speicherstelle auf einem Datenträger benötigt.<br />

Mirroring (Spiegelung)<br />

Eine Methode zur Erzielung von Plattendaten-<br />

Redundanz, bei der Daten identisch und entweder<br />

synchron oder asynchron auf unterschiedlichen<br />

Festplatten aufgeschrieben werden.<br />

Mirroring dient zur Erhaltung der Daten<br />

bei Ausfällen von Plattenlaufwerken. Wenn die<br />

primäre Platte im Offline-Zustand ist, übernimmt<br />

die andere Platte und stellt so die Kontinuität<br />

des Datenzugriffs sicher. Spiegelung<br />

wird normalerweise für geschäftskritische<br />

Daten eingesetzt; es ist als RAID-Level 1 klassifiziert<br />

und verdoppelt die Festplattenkosten.


Glossar 87<br />

N<br />

NAS (Network Attached <strong>Storage</strong>)<br />

Ein NAS-Gerät ist ein System, das speziell für<br />

das Speichern von Filedaten (im Gegensatz zu<br />

Blockdaten) konzipiert ist. Network Attached<br />

<strong>Storage</strong> ist direkt im lokalen Netzwerk (LAN)<br />

über LAN-Protokolle wie TCP/IP zugänglich.<br />

Vgl. DAS und SAN.<br />

P<br />

Partition<br />

Eine Partition ist ein Teil einer physikalischen<br />

Festplatte oder LUN, der so funktioniert, als sei<br />

er eine eigenständige physikalische Festplatte.<br />

Nachdem eine Partition erstellt wurde, muss<br />

sie formatiert werden und einen Laufwerksbuchstaben<br />

erhalten, bevor Daten auf ihr<br />

abgespeichert werden können.<br />

Port<br />

Der physikalische Verbindungspunkt eines<br />

Computers, Switch, <strong>Storage</strong> Array usw., über<br />

den der Anschluss an andere Geräte innerhalb<br />

eines Netzwerks erfolgt. Ports eines Fibre<br />

Channel-Netzwerks werden jeweils durch ihren<br />

Worldwide Port Namen (WWPN) identifiziert;<br />

Ports in iSCSI-Netzwerken erhalten in der<br />

Regel einen iSCSI-Namen. Verwechslungen mit<br />

TCP/IP-Ports sind zu vermeiden; diese dienen<br />

als den IP-Adressen zugewiesene virtuelle<br />

Adressen.<br />

R<br />

RAID (Redundant Array of Independent<br />

Disks)<br />

Eine Möglichkeit zur mehrfachen Speicherung<br />

von Daten auf verschiedenen physikalischen<br />

Festplatten. Damit wird sichergestellt, dass bei<br />

Ausfall einer Festplatte an ihrer Stelle eine re -<br />

dundante Kopie der entsprechenden Daten<br />

verfügbar bleibt. Beispiele für verwendete<br />

Technologien sind u.a. RAID 1 (Spiegelung) und<br />

RAID 5.<br />

Redundanz<br />

Die Duplizierung von Informationen oder<br />

Hardware-Komponenten, um sicherzustellen,<br />

dass bei Ausfall einer primären Komponente<br />

eine sekundäre Ressource deren Funktion<br />

übernehmen kann.<br />

Replikation<br />

Replikation ist der Prozess der Duplizierung<br />

geschäftskritischer Daten von einer hochverfügbaren<br />

Stelle an eine andere. Die Replikation<br />

kann synchron oder asynchron erfolgen. Je<br />

nach Art der Kopie werden Duplikate als Klone,<br />

Point-in-Time-Kopien oder Snapshots bezeichnet.<br />

S<br />

SAN (<strong>Storage</strong> Area Network)<br />

SAN ist ein spezialisiertes Netzwerk für den<br />

Zugriff auf hochleistungsfähige und hochverfügbare<br />

Speichersubsysteme mittels Protokollen<br />

zur blockbasierten Speicherung. Das SAN<br />

besteht aus speziellen Geräten wie Host Bus<br />

Adapter (HBAs) in den Host-Servern, Switches<br />

für das Routing des Datenverkehrs und<br />

Plattenspeicher-Subsystemen. Hauptmerkmal<br />

eines SAN ist, dass die Speichersubsysteme im<br />

allgemeinen mehreren Hosts gleichzeitig für<br />

Zugriffe zur Verfügung stehen, was sie skalierbar<br />

und flexibel macht. Vgl. NAS und DAS.<br />

SAS/SATA<br />

SAS: Serial Attached SCSI. Während SATA<br />

(Serial ATA oder Serial Advanced Technology<br />

Attachment) für Desktops konzipiert und eine<br />

gute Wahl für Speicherumgebungen ist, bei<br />

denen Einfachheit der Konfiguration oder ein<br />

optimales Kosten-/Kapazitätsverhältnis hohe<br />

Priorität haben, bietet SAS die für Mainstream-<br />

Server und Enterprise-<strong>Storage</strong>-Lösungen<br />

geforderte Leistungsstärke, Skalierbarkeit und<br />

Zuverlässigkeit.<br />

SCSI (Small Computer System Interface)<br />

Eine Reihe von Standards zur Kommunikation<br />

von Computern mit angeschlossenen Geräten<br />

wie z.B. Speichermedien (Festplattenlaufwerke,


88 Glossar<br />

Tape Libraries usw.) und Druckern. Die Bezeichnung<br />

SCSI steht auch für eine Parallelanschlusstechnologie,<br />

bei der das SCSI-Protokoll<br />

eingesetzt wird. SCSI gibt es in zwei Varianten:<br />

Paralleles SCSI und Serial Attached SCSI. Paralleles<br />

SCSI ist seit mehr als 20 Jahren der Standard<br />

bei der Konnektivität; es ist bekannt für<br />

seine Stabilität und Zuverlässigkeit. Serial<br />

Attached SCSI (SAS) ist die neueste SCSI-Generation;<br />

es unterstützt sowohl Serial ATA-<br />

(SATA-) als auch SAS-Laufwerke.<br />

Snapshot<br />

Ein Snapshot ist eine virtuelle Kopie einer Datei<br />

zum Zeitpunkt der Snapshot-Erstellung. Es<br />

handelt sich dabei nicht um eine Kopie der<br />

Daten, sondern lediglich um eine Abbildung<br />

der Datenorganisation zu einem bestimmten<br />

Zeitpunkt. Snapshots können gemäß einem<br />

Zeitplan vorgenommen werden und bieten<br />

eine durchgängige Ansicht eines Dateisystems.<br />

Sie bieten eine Grundlage, auf der ein Backupund<br />

Recovery-Programm aufsetzen kann.<br />

Solid State Disk (SSD)<br />

Eine Solid State Disk ist ein hochleistungsfähiges<br />

Plug-and-Play- Speichermedium, das<br />

keine beweglichen Teile enthält. Zu den SSD-<br />

Komponenten gehören DRAM- bzw. EEPROM-<br />

Speicherplatinen, Memory Bus Boards, CPUs<br />

oder Akkukarten. Da sie ihre eigenen CPUs für<br />

das Management der Datenspeicherung enthalten,<br />

sind sie wesentlich schneller als<br />

konventionelle rotierende Festplatten; sie bieten<br />

somit die höchst möglichen I/O-Geschwindigkeiten.<br />

SSDs sind am effektivsten für<br />

Serveranwendungen und Serversysteme, bei<br />

denen die I/O-Reaktionszeiten eine kritische<br />

Rolle spielen. Auf SSDs wird besonders all das<br />

gespeichert, was Engpässe verursachen kann,<br />

z.B. Datenbanken, Swap-Dateien, Library- und<br />

Index-Dateien, sowie Authorisierungs- und<br />

Anmeldeinformationen.<br />

<strong>Storage</strong>-Controller<br />

<strong>Storage</strong>-Controller bieten Funktionen wie<br />

RAID, I/O-Routing sowie Fehlererkennung. Der<br />

Controller stellt die Intelligenz für das Speichersubsystem<br />

zur Verfügung. Jedes Speicher-<br />

subsystem beinhaltet einen oder mehrere <strong>Storage</strong>-Controller.<br />

<strong>Storage</strong> Resource Management (SRM)<br />

Bezeichnung für Software, die Speicherressourcen<br />

im Hinblick auf Kapazität, Auslastung,<br />

Richtlinien und Event-Management verwaltet.<br />

Dies beinhaltet Funktionen zu Verrechnung,<br />

Überwachung, Reporting und Analysen zu Performance-<br />

und Verfügbarkeitsuntersuchungen.<br />

Zu den Kernelementen von SRM gehören<br />

Asset Management, Verrechnung, Kapazitätsmanagement,<br />

Konfigurationsmanagement,<br />

Daten- und Medienmigration, Ereignismanagement,<br />

Performance- und Verfügbarkeitsmanagement,<br />

Policy-Management, Kontingentmanagement<br />

und Datenträgermanagement.<br />

Switch<br />

Ein intelligentes Gerät innerhalb des Netzwerks,<br />

das für das möglichst schnelle Routing<br />

von Daten von der Quelle (beispielsweise einem<br />

Server) zu einem Ziel (zum Beispiel einem<br />

bestimmten Speichermedium) zuständig ist.<br />

Switches unterscheiden sich in ihren Möglichkeiten;<br />

ein Switch der Director-Klasse beispielsweise<br />

ist ein High-End-Switch mit hoch<br />

entwickelten Management- und Verfügbarkeits-Funktionen.<br />

Switches werden für TCP/IPund<br />

Fibre Channel-Netzwerke angeboten.<br />

Synchrone Replikation<br />

Bei der synchronen Replikation muss jedes<br />

Schreiben auf die primäre sowie die sekundäre<br />

(räumlich entfernte) Festplatte abgeschlossen<br />

sein, bevor mit dem nächsten Schreibvorgang<br />

begonnen werden kann. Der Vorteil dabei ist,<br />

dass die beiden Datensätze jederzeit synchronisiert<br />

sind. Der Nachteil: Bei großen Distanzen<br />

zwischen den beiden Speicherplatten kann der<br />

Replikationsprozess lange andauern und so zu<br />

Verzögerungen bei der Anwendung führen, mit<br />

der die Daten geschrieben werden. Siehe auch<br />

asynchrone Replikation.


Glossar 89<br />

T<br />

Tape Library<br />

Eine Tape Library besteht aus mehreren Magnetband-<br />

und Magnetbandkassettenlaufwerken.<br />

Eine automatische Tape Library ist eine<br />

Hardwarekomponente, die mehrere Bandlaufwerke<br />

für das Lesen und Schreiben von Daten,<br />

Ports für das Einlegen und Entnehmen von<br />

Bändern sowie einen Roboter für das Laden<br />

und Entladen von Bandkassetten ohne Bedienereingriff<br />

beinhaltet. „Laden“ bedeutet, dass<br />

Dateien in einer Dateisystem-Struktur einem<br />

Nutzer oder einer Gruppe von Nutzern zur Verfügung<br />

gestellt werden.<br />

Target<br />

Ein Target ist das Gerät, das Ziel einer Datenübertragung<br />

durch den Initiator ist. Meistens<br />

ist das Target das <strong>Storage</strong> Array; die Bezeichnung<br />

wird aber auch auf Bridges, Tape Libraries,<br />

Bandlaufwerke oder andere Geräte angewandt.<br />

TCP/IP<br />

Transmission Control Protocol/Internet Protocol.<br />

Eine Reihe von Protokollen der Transportund<br />

Netzwerkschicht, die unter der Schirmherrschaft<br />

des U.S. Department of Defense<br />

entwickelt wurden. TCP/IP hat sich zum<br />

Defacto-Standard für die Kommunikation zwischen<br />

Unix-Systemen – besonders über Ethernet<br />

– entwickelt.<br />

Thin Provisioning<br />

Thin Provisioning wird meist in großen zentralisierten<br />

Speichersystemen wie z.B. SANs, aber<br />

auch in Speichervirtualisierungsumgebungen<br />

eingesetzt, wo Administratoren die aktuellen<br />

und zukünftigen Speicheranforderungen planen<br />

und häufig zu viel Kapazität einkaufen, die<br />

dann zum Teil brach liegt. Thin Provisioning ist<br />

dagegen speziell so konzipiert, dass nur exakt<br />

das an Kapazität zugewiesen wird, was wirklich<br />

gebraucht wird und wann es wirklich<br />

gebraucht wird. Somit wird die Verschwendung<br />

von Speicherkapazität verhindert. Außerdem<br />

können bei mehr Speicherbedarf dem<br />

vorhandenen konsolidierten Speichersystem<br />

zusätzliche Volumes hinzugefügt werden.<br />

Tiered <strong>Storage</strong><br />

Daten werden nach ihrem Verwendungszweck<br />

gespeichert. So werden beispielsweise Daten,<br />

die für die Wiederherstellung im Fall von<br />

Datenverlusten oder -verfälschungen benötigt<br />

werden, lokal gespeichert, um ein schnelles<br />

Zurückspeichern möglich zu machen. Im Rahmen<br />

behördlicher Auflagen benötigte Daten<br />

werden dagegen auf kostengünstigeren Festplatten<br />

gespeichert.<br />

V<br />

Virtualisierung<br />

Bei der Datenspeicherung ist die Virtualisierung<br />

ein Mittel, um eine Vielzahl physischer<br />

Speichermedien als eine einzige logische Einheit<br />

zu behandeln. Virtualisierung lässt sich als<br />

„in-band“ (also innerhalb des Datenpfades)<br />

oder „out-of-band“ realisieren. Bei der Out–<br />

of–Band-Virtualisierung kommt es nicht zu<br />

einer Konkurrenzsituation hinsichtlich der<br />

Nutzung der Host-Ressourcen. Bei der Virtualisierung<br />

der Speicherressourcen spielt es keine<br />

Rolle, ob diese per DAS, NAS oder SAN bereitgestellt<br />

werden.<br />

VTL (Virtual Tape Library)<br />

Eine intelligente festplattenbasierte Library, die<br />

traditionelle Magnetbandlaufwerke und Magnetbandformate<br />

emuliert und dabei praktisch<br />

wie eine Tape Library mit der Leistung moderner<br />

Festplatten funktioniert. Dabei werden<br />

Daten auf Festplatten genauso wie sonst auf<br />

Tape Libraries abgelegt, nur schneller. Virtual-<br />

Tape-Backup kann als Übergangslösung vor<br />

dem endgültigen Schreiben auf „echten“ Bandspeichern<br />

oder als endgültige Standalone-<br />

Lösung eingesetzt werden. Eine VTL besteht in<br />

der Regel aus einer Virtual Tape Appliance oder<br />

einem Virtual Tape Server sowie Software, die<br />

konventionelle Magnetbandgeräte und -formate<br />

emuliert.


Volume<br />

Ein Volume ist ein Speicherbereich auf einer<br />

Festplatte. Es wird mit einem Dateisystem formatiert<br />

und erhält typischerweise einen Laufwerksbuchstaben.<br />

Eine einzelne Festplatte<br />

kann verschiedene Volumes besitzen, während<br />

einzelne Volumes sich umgekehrt über mehrere<br />

Festplatten erstrecken können.<br />

Z<br />

Zoning<br />

Eine Methode zur Verhinderung von Serverzugriffen<br />

auf Speicherressourcen, die dem jeweiligen<br />

Server nicht zugewiesen sind. Das Zoning<br />

ähnelt dem LUN-Masking, ist aber im Switch<br />

realisiert, außerdem erfolgt das Zoning über<br />

die Port-Identifizierung (entweder per Portnummer<br />

auf dem Switch oder über die WWPN<br />

der Initiatoren und Targets).<br />

(Quellen: Adaptec, Fujitsu Siemens Computers,<br />

Horison Information Strategies, Microsoft,<br />

SNIA, Webopedia, ZAZAmedia)


Informationsinfrastrukturen<br />

in Unternehmen<br />

Das Prinzip des wirtschaftlichen Handelns erfordert in Unternehmen zunehmend<br />

einen effizienten Umgang mit Informationen vor dem Hintergrund eines durchschnittlichen<br />

Wachstums von 60 Prozent pro Jahr. Dieses Kapital optimal zu nutzen,<br />

zu schützen, zu verwalten, zu speichern und zu archivieren hat sich EMC mit seinen<br />

Lösungen zur Aufgabe gemacht. Damit läutet EMC einen Paradigmenwechsel ein, indem<br />

es anstelle der Applikationen die Information selbst ins Zentrum der Infrastruktur rückt.<br />

Die Anforderungen an die Infrastruktur richten sich dementsprechend am Weg der<br />

Information im Unternehmen aus: von der Entstehung und Erfassung über die Verwertung<br />

bis hin zur Archivierung und Löschung. Die optimale Strategie für den Aufbau<br />

einer Informationsinfrastruktur beinhaltet intelligentes Speichern der Daten, den Schutz<br />

gegen Datenverlust und -missbrauch, die Optimierung der Infrastruktur, des IT-Managements<br />

und der Services sowie die Nutzung des Wertschöpfungspotenzials von Informationen.<br />

Neben dem obersten Ziel der Kostenreduzierung wollen die Unternehmen vor<br />

allem gesetzliche Anforderungen besser erfüllen sowie die Geschäftsprozesse des<br />

Unternehmens besser unterstützen. Damit stehen die geschäftlichen Anforderungen an<br />

die IT bei den Zielen deutlich höher als technologische Ziele wie „bessere Datensicherheit“<br />

oder „besser strukturierte Daten“.<br />

EMC Hardware und Software zum Aufbau Ihrer<br />

Informationsinfrastruktur<br />

I hr Unternehmen verändert sich ständig – EMC begleitet Sie dabei. Von Festplattenbibliotheken<br />

bis zu Content Management-Systemen und SANs, viele Unternehmen entscheiden<br />

sich seit Jahren für unsere Produkte.<br />

EMC bietet die Software, Systeme, Sicherheit und die Services, die Sie benötigen, um<br />

ein intelligenteres Konzept für die Speicherung zu entwickeln, das effektiv, kostengünstig<br />

und anwenderfreundlich ist und Ihnen die nötige Flexibilität bietet, um gemeinsam<br />

mit Ihrem Unternehmen wachsen zu können.<br />

Zu einer intelligenteren Speicherung gehört mehr als nur eine Lösung. Ein besseres<br />

Konzept für das Informationsmanagement ist erforderlich. Dies kann durch die Implementierung<br />

mehrerer Schlüsselinitiativen erreicht werden. Aufgrund der jahrelangen


92 EMC<br />

Erfahrung hat EMC sechs wesentliche Bereiche identifiziert, die ihnen helfen können,<br />

intelligenter zu speichern.<br />

Sechs Ansätze für eine intelligentere Speicherung<br />

1. Klassifizieren Sie Ihre Daten und stellen Sie Tiered <strong>Storage</strong> bereit.<br />

Nicht alle Daten sind gleich. Tatsächlich ist jedes Byte der Daten in Ihrem Unternehmen<br />

anders – es wird unterschiedlich häufig darauf zugegriffen. Und bei einem Ausfall sind<br />

auch die Anforderungen an die Wiederherstellungszeit verschieden. Deshalb ist es sehr<br />

wichtig, auf dem Weg zur intelligenteren Speicherung mit der Klassifizierung der Daten<br />

entsprechend der jeweiligen Zugriffsanforderungen zu beginnen. Sobald Sie damit<br />

angefangen haben, Ihre Daten zu bewerten, werden Sie merken, dass ein „Einer für<br />

alle“-Ansatz zur Datenspeicherung nicht mehr sinnvoll ist. Stattdessen bietet die Bereitstellung<br />

von Tiered <strong>Storage</strong> den nötigen Rahmen und die Prozesse, um Informationen<br />

auf dem richtigen Speichertyp zum richtigen Zeitpunkt bereitzuhalten, und so die<br />

Fähigkeiten an den Anforderungen auszurichten und letztlich die Total Cost of Ownership<br />

(TCO) zu senken.<br />

EMC bietet eine Reihe von skalierbaren, anwenderfreundlichen Speicherplattformen<br />

sowie Software und Services, um Unternehmen wie Ihres bei der erfolgreichen Datenklassifizierung<br />

und beim Aufbau einer mehrstufigen Speicherinfrastruktur zu unterstützen.<br />

Zu unserem Portfolio gehören die EMC® Symmetrix®, die EMC CLARiiON® (FibreCAT<br />

CX) und die EMC Celerra®. Alle EMC Speicherplattformen können mit einer Kombination<br />

aus Laufwerken mit hoher Performance und Low-Cost-Laufwerken mit hoher<br />

Kapazität innerhalb des gleichen Arrays bereitgestellt werden. Und alle Plattformen bieten<br />

umfangreiche Software-Funktionen, um das Verschieben, das Management und<br />

den Schutz wertvoller Daten zu vereinfachen. Unabhängig davon, ob Sie in Ihrem<br />

Unternehmen eine eher kleinere Lösung mit Tiered <strong>Storage</strong> benötigen, die innerhalb<br />

eines physischen Systems bereitgestellt wird oder ob Sie über eine größere Umgebung<br />

verfügen, die mehrere Speicherebenen erfordert – der Nutzen ist letztlich immer der<br />

Gleiche: Sie profitieren von geringeren TCO.


Informationsinfrastrukturen in Unternehmen 93<br />

Vorher Nachher<br />

Produktionsdaten<br />

Tier 1<br />

Tier 2<br />

Tier 3<br />

„Einer für alle“ „Tiered <strong>Storage</strong>“<br />

Durch die Klassifizierung von Daten und die Bereitstellung von<br />

Tiered <strong>Storage</strong> können Organisationen ihre TCO in der Regel<br />

um 25 % verbessern.<br />

EMC ist der Marktführer im Bereich IP-Speicherlösungen.<br />

Die weite Verbreitung der IP-Speichertechnologien – iSCSI und NAS für den Zugriff auf<br />

Speichersysteme – bietet Unternehmen aller Größen die Möglichkeit, effiziente und<br />

zuverlässige Speichernetzwerke kostengünstig aufzubauen und zu betreiben. Jetzt können<br />

Unternehmen bestehende IP-Technologien und IP-geschulte Mitarbeiter einsetzen,<br />

um ihre Speichernetzwerke bereitzustellen und zu betreiben. Insgesamt sind mit den<br />

Methoden, die die ausgereifte IP-basierte Speichertechnologie von heute bietet, Speicherkonsolidierungsergebnisse<br />

wesentlich einfacher und kostengünstiger zu erreichen.<br />

EMC ist mit den Speicherfamilien Celerra NS, CLARiiON CX (FibreCAT CX) und Symmetrix<br />

DMX der Marktführer im Bereich IP-Speicherlösungen. Gemäß IDC Research hat<br />

neben EMC und seinem breiten Netzwerk von EMC Velocity 2 Partnern kein anderer<br />

Anbieter mehr IP-basierte Speicherlösungen bereitgestellt. Der Grund dafür: EMC bietet<br />

eine breite Palette flexibler Optionen, damit Unternehmen und Organisationen aller<br />

Größen von kosten-günstigen und anwenderfreundlichen IP-Speicherlösungen profitieren<br />

können – unabhängig davon, ob erstmalig ein Netzwerkspeicher-System bereitgestellt<br />

oder Server und Anwendungen konsolidiert werden, die sich nicht auf vorhandenen<br />

SANs befinden.<br />

2. Erstellen Sie ein aktives Archiv.<br />

Wenn Informationen benötigt werden, müssen sie online und verfügbar sein – egal ob<br />

sie täglich oder für längerfristige Audit-Zyklen benötigt werden. Die aktive Archivierung<br />

eröffnet Ihnen die Möglichkeit, Daten, die nur selten genutzt werden, aus dem primären


94 EMC<br />

Speicher in eine kostengünstigere Speicherinfrastruktur zu verlagern. Der schnelle und<br />

einfache Zugriff bleibt dabei erhalten. Die EMC Centera® ist die erste Lösung für aktive<br />

Archivierung auf dem Markt, die speziell für die Speicherung und den Abruf von Fixed<br />

Content entwickelt wurde.<br />

Indem statische oder selten benötigte Informationen aus der Produktionsspeicherumgebung<br />

in ein aktives EMC Centera-Archiv migriert werden, wird wertvoller „Produktionsspeicherplatz“<br />

frei, und die Anforderungen an Backup-Medien sinken in dem Maße,<br />

in dem statischer Content aus den täglichen oder wöchentlichen Backup-Prozessen<br />

entfernt wird. Zu Compliance-Zwecken bietet die EMC Centera auch eine garantierte<br />

Content-Authentizität, um die immer anspruchsvolleren behördlichen Auflagen zu<br />

erfüllen.<br />

Vorher Nachher<br />

Tier 1<br />

Tier 2<br />

Tier 3<br />

Tier 1<br />

Tier 2<br />

Tier 3<br />

In vielen E-Mail- oder Dateisystemumgebungen werden mehr<br />

als 75 % der Daten nicht verändert – damit sind diese Daten<br />

ideale Kandidaten für die aktive Archivierung.<br />

3. Reduzierung/Eliminierung redundanter Daten.<br />

Einer der größten Kostentreiber im Bereich Speicher ist die Menge an Produktionsdaten,<br />

die gespeichert und gesichert werden müssen. Die Reduzierung oder Eliminierung von<br />

Duplikaten in Backup-Umgebungen ist ein zentraler Schritt auf dem Weg zur intelligenteren<br />

Speicherung. Ein einfaches Beispiel: Ein E-Mail-Anhang wird verteilt und dann<br />

von 20 verschiedenen Anwendern gespeichert. Wie wirkt sich das aus? Speicherkapazitäten,<br />

Netzwerkbandbreite und Backup-Medien werden um den Faktor 20 beansprucht<br />

– und das wäre nicht erforderlich. Denn mit der Deduplizierung der Daten sinken die<br />

Speicheranforderungen, Prozesse werden rationalisiert, die Backup-Zeiten verkürzen<br />

sich und die TCO werden insgesamt verbessert. EMC Technologie hilft proaktiv dabei, die<br />

Aktives Archiv


Informationsinfrastrukturen in Unternehmen 95<br />

Menge der redundanten Daten, die eine Organisation erstellt, speichert und letztlich<br />

durch Backups sichert, zu reduzieren oder zu eliminieren. Die EMC Centera berechnet<br />

jedes Mal, wenn ein Objekt gespeichert werden soll, eine Content-Adresse. Wenn zum<br />

Beispiel zwei oder mehr Personen versuchen, den gleichen E-Mail-Anhang zu speichern,<br />

berechnet die EMC Centera jedes mal dieselbe Content-Adresse. Mit dieser Intelligenz<br />

stellt die EMC Centera einfach fest, dass mehrere Leute versuchen, dieselbe Datei zu<br />

speichern, und gibt jedem Anwender einen „Pointer“ auf die Datei, statt mehrere Kopien<br />

zu speichern. Dies minimiert die Informationsredundanz und den erforderlichen Speicherplatz.<br />

EMC Avamar® Backup- und Recovery-Software kann die gleichen Ergebnisse für Ihre<br />

Backup-Daten erzielen. EMC Avamar nutzt globale Deduplizierungs-Technologie, um<br />

die unnötige Übertragung redundanter Backup-Daten über das Netzwerk und ihre<br />

sekundäre Speicherung zu verhindern. Durch die Deduplizierung über Standorte und<br />

Server hinweg können Sie die für Backups erforderliche Zeit, die Netzwerkauslastung<br />

und den Zuwachs an sekundärem Speicher erheblich senken.<br />

Vorher Nachher<br />

EMC Avamar erzielt eine Reduzierung der täglichen<br />

Backup-Daten bis zum Faktor 300 und bietet bis zu zehn<br />

Mal schnellere Backups.<br />

4. Schnellere Backups, schnellere Recovery.<br />

Durch die Erweiterung der Tiered <strong>Storage</strong>-Methode auf den Backup- und Recovery-<br />

Betrieb können Unternehmen die Geschwindigkeit und Zuverlässigkeit ihrer Backup-<br />

und Recovery-Prozesse drastisch verbessern. So bieten zum Beispiel festplatten-basierte


96 EMC<br />

Lösungen eine fünffache Verbesserung der Backup- und Recovery-Zeiten im Vergleich<br />

zu band-basierten Lösungen.<br />

EMC bietet eine vollständige Lösung für Backup-to-Disk-Anforderungen, einschließlich<br />

Assessment Services zur Bewertung und Backup-Softwareanwendungen sowie<br />

eine breite Auswahl an LAN-basierten, SAN-basierten und Virtual Tape Library (VTL)-<br />

Lösungen, damit Sie eine höhere Performance und Zuverlässigkeit in Ihrer Backup- und<br />

Recovery-Umgebung realisieren können – unabhängig davon, wie Sie heute Ihre Backups<br />

managen. Alle EMC Speicherplattformen können mit Low-Cost-Laufwerken mit<br />

hoher Kapazität bereitgestellt werden, die sich ideal für Backup-to-Disk-Anwendungen<br />

eignen.<br />

Vorher Nachher<br />

Backup-<br />

Daten<br />

Tier 3<br />

Backup-<br />

Daten<br />

Festplattenbasierte Lösungen bieten eine Verbesserung<br />

der Backup- und Recovery-Zeiten um den Faktor 5.<br />

5. Nutzen Sie Platz sparende Snapshots zur Reduzierung<br />

von Kapazitätsanforderungen.<br />

Das Erstellen vollständiger Kopien von Produktionsdaten war gängige Praxis beim<br />

Backup, dem Recovery sowie Tests von Anwendungsumgebungen. Da aber die Menge<br />

der Informationen weiter wächst, sind die Speicheranforderungen und Kosten, die mit<br />

dieser Vorgehensweise zusammenhängen, sprunghaft gestiegen, ebenso wie die Kapazitätsanforderungen<br />

zur Unterstützung der lokalen Replikationsaktivitäten. Heute ist<br />

die Nutzung Platz sparender Snapshots eine wesentlich intelligentere und kostengünstigere<br />

Alternative für den Schutz und die Wiederverwendung von Produktionsdaten.<br />

Insbesondere ermöglichen die Platz sparenden Merkmale logischer Snapshot-Kopien,<br />

das Unternehmen die Replikationsmöglichkeiten schneller und effektiver nutzen und


Informationsinfrastrukturen in Unternehmen 97<br />

gleichzeitig die Kosten und Kapazitätsanforderungen senken, die mit dem herkömmlichen<br />

Ansatz einhergehen.<br />

Alle EMC Speicherplattformen bieten die Flexibilität, Array-basierte Full Copy Clones<br />

und lokale Snapshot-Replikation bereitzustellen – basierend auf Ihren Anwendungsanforderungen<br />

und Nutzungsszenarien können Sie wählen, was Sie nutzen möchten. Da -<br />

rüber hinaus werden beide Optionen von wichtigen Anwendungen unterstützt und sind<br />

mit diesen integriert, wie z.B. Microsoft Exchange, SQL Server, Oracle und SAP.<br />

Vorher Nachher<br />

Clones<br />

Snaps<br />

Snaps<br />

Snaps<br />

Snapshots bieten eine bis zu zehnfache Reduzierung der<br />

für die lokale Replikation erforderlichen Kapazität.<br />

6. Stellen Sie Server- und Dateivirtualisierung bereit.<br />

IT-Teams sehen sich heute einer Vielzahl von Herausforderungen bei ihren physischen<br />

Server-Infrastrukturen gegenüber, angefangen bei mangelnder Auslastung und Server-<br />

„Wildwuchs“. Gemäß IDC nutzt ein typischer x86-Server nur zehn bis 15 Prozent seiner<br />

Gesamtkapazität, aber dennoch setzen Organisationen erhebliche Ressourcen für die<br />

Bereitstellung, Wartung und Sicherung einer zunehmenden Anzahl physischer Server<br />

ein.<br />

Zu jedem Euro, der für neue Server ausgegeben wird, kommen acht Euro für das<br />

laufende Management hinzu (Quelle: IDC).<br />

Durch die Nutzung der Virtualisierung zur Optimierung von Infrastrukturen auf der<br />

Serverebene können Unternehmen diese Herausforderungen meistern und die Effizienz<br />

verbessern.<br />

Virtualisierung mit VMware® bietet eine grundlegend einfachere und effizientere<br />

Methode für das Management von Server-Infrastrukturen. Tatsächlich kann die Zeit für


98 EMC<br />

die Bereitstellung eines neuen Servers um bis zu 70 Prozent gesenkt werden, neue<br />

Anwendungen werden in Minuten bereitgestellt, und Zeit, die vorher mit manuellen,<br />

zeitraubenden Aufgaben verbracht wurde, kann jetzt für strategische Initiativen genutzt<br />

werden.<br />

Darüber hinaus kann die Kapazität des Rechenzentrums ohne Unterbrechung skaliert<br />

werden, und für alle Anwendungen kann die Verfügbarkeit zu vernünftigen Kosten<br />

sichergestellt werden.<br />

Wenn Sie VMware Servervirtualisierung mit EMC Rainfinity® Global File Virtualization<br />

kombinieren, profitieren Sie zusätzlich von der Virtualisierung Ihrer unstrukturierten<br />

Datenumgebungen. Die Fähigkeiten der Global File Virtualization ermöglichen<br />

Ihnen, das Management zu vereinfachen, Daten ohne Unterbrechung zu verschieben,<br />

Performance-Engpässe zu beseitigen und die TCO durch eine Steigerung der Auslastung<br />

in heterogenen NAS-, CAS- und Dateiserver-Umgebungen zu senken.<br />

Ihre wichtigsten Prioritäten im Blick.<br />

Bei EMC konzentrieren wir uns auf das, was für Sie am wichtigsten ist – zum Beispiel,<br />

wie Sie sicherstellen können, dass Ihre Informationen einfach zu managen sind, dass Sie<br />

die richtigen Schritte zur Energieeinsparung unternehmen und wie Sie Ihre wertvollen<br />

Informationen vor Risiken und Sicherheitslücken schützen.<br />

EMC Lösungen vereinfachen das Speichermanagement.<br />

EMC hat sehr hohe Investitionen in die Entwicklung neuer und verbesserter Tools getätigt,<br />

um die Anforderungen der Anwender an ein rationalisiertes Speichermanagement<br />

zu erfüllen und die Bedienerfreundlichkeit über alle Plattformen hinweg zu verbessern.<br />

EMC Lösungen können schnell bereitgestellt werden und bieten eine hohe Anwenderfreundlichkeit<br />

sowie einfaches Management. So ermöglicht z.B. die Software SymmetrixManagement<br />

Console sowie Celerra Manager und CLARiiON Navisphere® Manager<br />

Anwendern, ein Terabyte Speicher in weniger als einer Minute zu konfigurieren und<br />

bereitzustellen. Und die EMC Centera beinhaltet Funktionen zur Selbstkonfiguration,<br />

Selbstheilung und zum Selbstmanagement, die es einem Administrator erlauben, die bis<br />

zu 50-fache Menge an Content zu managen.


Informationsinfrastrukturen in Unternehmen 99<br />

Energieeffiziente Lösungen verbessern<br />

das Kostenmanagement.<br />

Der Energieverbrauch von Rechenzentren ist heute ein wichtiger Aspekt. Stromverbrauch<br />

und Kühlung können nicht unbegrenzt gesteigert werden, ein hoher<br />

Energiebedarf ist mit entsprechend hohen Kosten verbunden, und infolge von<br />

Überlastungen des Stromnetzes kann es sogar zu Ausfällen kommen. Hochentwickelte<br />

Tools und Services von EMC helfen bei der Optimierung der Energieeffizienz in Ihrem<br />

Rechenzentrum. So verbrauchen zum Beispiel EMC Speicherplattformen weniger Energie<br />

pro Terabyte als alternative Lösungen. Mit Hilfe des EMC Power Calculator können<br />

EMC Experten Ihnen Empfehlungen zur Reduzierung der Kosten für Energie und Kühlung<br />

durch ein effizienteres Datenmanagement geben. Leistungsstarke Virtualisierungslösungen<br />

von EMC, wie etwa VMware, können Ihnen helfen, Server zu konsolidieren,<br />

um die Kapazitätsnutzung zu verbessern und nicht unbedingt erforderliche Infrastruktur<br />

zu eliminieren. Und schließlich unterstützt Sie der EMC Energy Efficiency Service<br />

dabei, Ihr Rechenzentrum mit maximaler Energieeffizienz zu betreiben. EMC bleibt<br />

innovativ und investiert weiterhin umfassend in Forschungs- und Entwicklungsprogramme<br />

zur Senkung Ihrer Energie- und Kühlungskosten, damit Sie von einer immer<br />

größeren Energieeffizienz profitieren.<br />

Speicherlösungen mit eingebauter Sicherheit.<br />

Die meisten Unternehmen werden zustimmen: Informationen sind ihr wichtigstes<br />

Kapital. Im Jahr 2006 haben Unternehmen und Organisationen 45 Milliarden Dollar<br />

für Sicherheitsprodukte ausgegeben; aber nur eines von fünf Unternehmen fühlt sich<br />

ausreichend geschützt – das haben entsprechende Studien ergeben. EMC bietet einen<br />

informationszentrierten Ansatz – wir bauen die Sicherheit direkt in unsere Produkte ein,<br />

statt sie im Nachhinein zu ergänzen. Dieser strategische Ansatz bietet unseren Kunden<br />

eine verbesserte Zugangskontrolle, eine besser gesicherte Infrastruktur, erweiterte<br />

Compliance sowie Audit-Fähigkeiten. Ihre Informationsinfrastruktur ist vor Sicherheitsrisiken<br />

geschützt.<br />

Machen Sie den nächsten Schritt.<br />

Mit flexiblen und kostengünstigen Lösungen zur Speicherkonsolidierung bietet EMC<br />

Unternehmen und Organisationen umfassendes Informationsmanagement – alles, was<br />

Sie benötigen, um intelligenter zu speichern. Aber Speichern ist nur ein Teil dessen, was<br />

wir tun – wir sehen unsere Aufgabe darin, Ihren Geschäftsablauf von Grund auf zu


100 EMC<br />

verbessern. Wir bieten Unternehmen und Organisationen Lösungen mit folgenden<br />

Schwerpunkten:<br />

Backup, Recovery und Archivierung<br />

Sicherstellung des effektiven und kostengünstigen Schutzes Ihrer Informationen<br />

Virtualisierung von Informationsinfrastrukturen<br />

Automatisierung der Abläufe im Rechenzentrum<br />

Sicherung kritischer Ressourcen<br />

Nutzung von Content zur Erzielung von Wettbewerbsvorteilen<br />

Schneller geschäftlicher Nutzen aus geschäftskritischen Anwendungen,<br />

wie z.B. Microsoft Exchange, SQL Server, Oracle und SAP<br />

Partnerschaft EMC und Fujitsu Siemens Computers<br />

„Seit nunmehr fast zehn Jahren arbeiten EMC und Fujitsu Siemens Computers in einer<br />

verläßlichen Partnerschaft, die auf gegenseitigem Vertrauen und technologischer Innovation<br />

aufbaut. Ein wesentlicher Grund für unseren gemeinsamen Erfolg ist das kombinierte<br />

Know-how sowohl der Vertriebs- als auch der technischen Teams, die unseren<br />

gemeinsamen Kunden stets geholfen haben, auch die größten Herausforderungen<br />

erfolgreich zu bewältigen. Die Verbindung aus den vernetzten <strong>Storage</strong>-Systemen und<br />

der Software von EMC mit den Servern von Fujitsu Siemens Computers macht ein breit<br />

gefächertes Angebot durchgängiger Lösungen möglich. Die EMC-Technologie spielt in<br />

der Dynamic Data Center Vision von Fujitsu Siemens Computers eine tragende Rolle,<br />

daher setzen wir auch weiterhin gemeinsam unseren ganzen Ehrgeiz daran, den Kunden<br />

die umfassendste Lösungspalette der gesamten Branche zu bieten.“ 2007, Joe Tucci,<br />

Präsident & CEO von EMC.<br />

Gemeinsame Stärken von Fujitsu Siemens Computers und EMC:<br />

EMC <strong>Storage</strong> integriert mit Fujitsu Siemens Computers FlexFrame Infrastructure<br />

Fujitsu Siemens Computers CentricStor ist verfügbar im EMC Select Reseller Programm<br />

Fujitsu Siemens Computers Infrastructure Services ist akkreditiertes Mitglied<br />

des EMC Authorized Service Network (ASN) Program<br />

EMC <strong>Storage</strong> Integration mit Microsoft wird über Fujitsu Siemens Computers<br />

BladeFrame Technologie realisiert<br />

Gemeinsame Lösung für Grid Computing basiert auf Fujitsu Siemens Computers<br />

PRIMERGY Serversystemen<br />

OEM- und Reseller-Vereinbarungen für EMC Networker<br />

Weitere Informationen über EMC Lösungen finden Sie unter www.emc2.de


DATA CENTER FABRIC<br />

8 Gbit/s Fibre Channel als End-to-End-<br />

Lösung im Rechenzentrum<br />

Brocade ist weltweit führend bei Speichernetzwerklösungen, mit denen Unternehmen<br />

ihre Informationen miteinander verbinden, sie verteilt nutzen sowie verwalten<br />

können. Mit Produkten und Services von Brocade sind Unternehmen besser in<br />

der Lage, ihre IT-Infrastrukturen zu optimieren und ein Datenmanagement zu realisieren,<br />

das allen Compliance-Anforderungen entspricht. Alle Produkte von Brocade wurden<br />

von Fujitsu Siemens Computers nach intensiven Tests zertifiziert. Sie garantieren<br />

damit eine nahtlose Integration in die umfassenden und führenden Infrastrukturlösungen<br />

von Fujitsu Siemens Computers.<br />

Mit dem fortschreitenden Wachstum von Rechenzentren und der Einführung neuer<br />

Technologien wie Server- und Fabric-Virtualisierung wächst der Bedarf an einer leistungsfähigeren<br />

Speichervernetzung und an mehr Leistung der Rechenzentrums-Fabric.<br />

Die neue Familie von Brocade Fibre Channel (FC) Switches setzt den Standard bei der<br />

FC-Übertragungsgeschwindigkeit von bisher 4 Gbit/s um das Doppelte auf 8 Gbit/s herauf<br />

und erfüllt so die heutigen und in naher Zukunft zu erwartenden Anforderungen<br />

der Speichervernetzung. Neue Brocade 8 Gbit/s Host Bus Adapter in Verbindung mit<br />

Brocade 8 Gbit/s-Fabrics bieten höchste Leistung und fortschrittliche Funktionalität auf<br />

einer End-to-End-Basis.<br />

Einleitung<br />

I m Januar 2008 führte Brocade für den Brocade 48000 Director und für den DCX Backbone<br />

die 8 Gbit-Technologie ein. Brocade baute somit seine Führungsposition mit<br />

einer kompletten neuen Familie an 8 Gbit/s-Switches aus, die in einer großen Bandbreite<br />

von Rechenzentrumsumgebungen, vom Großunternehmen bis hin zu kleineren<br />

und mittleren Unternehmen (KMU), zum Einsatz kommen. Außerdem bringt Brocade<br />

seine 8 Gbit/s Host Bus Adapter (HBAs) an den Start und stellt damit die erste durchgängige<br />

8 Gbit/s-Lösung für KMUs ebenso wie Großunternehmen bereit. Den Kern dieser<br />

Hochleistungslösungen stellt eine neue 8 Gbit/s-ASIC-Familie dar, die Daten weitaus<br />

effizienter verarbeitet und übermittelt als zuvor. Diese ASICs zeichnen sich aber nicht<br />

nur durch einen verdoppelten Durchsatz aus, sondern weisen auch neue Leistungs-


102 Brocade<br />

merkmale auf, die den wachsenden Ansprüchen der Rechenzentren im Hinblick auf<br />

Automatisierung von IT-Prozessen, Energieeffizienz und reduziertem Betriebsaufwand<br />

entgegenkommen.<br />

Die Entwicklung bei der Fibre Channel-Technologie war im letzten Jahrzehnt durch<br />

ein kontinuierliches Performance-Wachstum und ständig neue Funktionalitäten<br />

gekennzeichnet. Die Transportgeschwindigkeit verdoppelte sich dabei zunächst von 1<br />

auf 2 und dann von 2 auf 4 Gbit/s, und die Speicheradministratoren nutzten schnell die<br />

neuen Performance-Kapazitäten und die innovativen Funktionalitäten, um ihre Speichernetzwerke<br />

weiter zu optimieren. Die Einführung der Brocade 8 Gbit/s-Switches und<br />

-HBAs erlaubt jetzt die umfassende und durchgängige Integration innovativer Funktionalitäten<br />

von der Fabric bis hin zur Server-Plattform. Bei Ihren Überlegungen, wo Sie<br />

Ihre eigene Umgebung mit mehr Performance und Kapazität ausstatten können, sollten<br />

Sie Folgendes berücksichtigen:<br />

Speicherwachstum. Die Speicherkapazität bei den <strong>Storage</strong> Area Networks (SAN) ist in<br />

fast allen Rechenzentren Jahr um Jahr enorm gewachsen. Wenn die SAN-Speicherkapazität<br />

zunimmt, dann wachsen auch die Fabrics, die die Speicherressourcen mit<br />

den Servern verbinden.<br />

Große Fabrics. Immer größere Fabrics verlangen auch immer mehr Inter-Switch Links<br />

(ISLs), um mit dem Speicher- und Serverwachstum Schritt zu halten.<br />

Mehr Leistung. In großen Rechenzentren ermöglicht der Umstieg von SAN-Bandbreiten-intensiven<br />

Hosts auf die 8 Gbit/s-Technologie den Servern ein Mehr an Leistung<br />

bei weniger HBAs und einer reduzierten Verkabelungsinfrastruktur.<br />

Servervirtualisierung. Wenn auf nur einer Host-Plattform mehrere Betriebssysteminstanzen<br />

betrieben werden, steigen dadurch die Ansprüche an die I/O-Speicherkapazität<br />

dramatisch an, wodurch wiederum der Host-SAN-Durchsatz steigt.<br />

Tiered Services. In einem Shared Environment, in der die IT ihre Leistungen vielleicht<br />

an ihre internen Kunden weiterberechnet, setzt ein Tiered-Services-Modell die Möglichkeit<br />

voraus, Service Level für gehostete Applikationen zu definieren und diese<br />

Services durchgängig zu überwachen — Voraussetzungen, die die Brocade 8 Gbit/s-<br />

Lösungen erfüllen.<br />

Backup. Die Sicherung großer Datenmengen auf Band oder Platte erfordert maximale<br />

SAN-Geschwindigkeiten, um Backup-Fenster einhalten zu können.<br />

Flexibilität. Auch wenn noch nicht alle Hosts, Speichersysteme und ISLs die maximalen<br />

Geschwindigkeitskapazitäten ausnutzen müssen, ist der Aufbau von Rechenzentrums-Fabrics<br />

weitaus einfacher, wenn Hochgeschwindigkeits-Fabrics vorhanden<br />

sind.<br />

Investitionsschutz. Bereits vorhandene SANs bieten mit einer Port-Geschwindigkeit<br />

von 8 Gbit/s weitaus mehr Möglichkeiten. Integrierte Routing- und Adaptive Net-


8 Gbit/s Fibre Channel als End-to-End-Lösung im Rechenzentrum 103<br />

working-Dienste sind auch mit älteren SAN-Anlagen kompatibel und verbessern<br />

durch die Skalierung der Rechenzentrums-Fabrics den Return on Investment (RoI).<br />

In vielen Rechenzentren besteht der entsprechende Bedarf bereits jetzt. Ihn zu erfüllen,<br />

erfordert vielleicht nicht unbedingt eine sofortige Aufrüstung auf 8 Gbit/s für alle<br />

Speicheranwendungen. Wenn aber in der Zukunft ohnehin Erweiterungen, Virtualisierungen<br />

oder Fabric-Vergrößerungen anstehen, lässt dies eine bereits jetzt vorgenommene<br />

Implementierung der 8 Gbit/s-Technologie als eine sichere und ratsame Wahl<br />

erscheinen. Beispielsweise werden bei der Vergrößerung von Fabrics mit 8<br />

Gbit/s-Verbindungen nur noch halb so viele ISLs benötigt wie mit 4 Gbit/s-Verbindungen.<br />

Gleichermaßen wird beim ISL-Upgrade von 4 auf 8 Gbit/s die ISL-Überzeichnung bei<br />

gleichbleibender Verbindungsanzahl um die Hälfte reduziert.<br />

Über lange Strecken können sich 8 Gbit/s gegenüber 4 Gbit/s schon sehr schnell<br />

amortisieren, und zwar aufgrund der hohen Kosten von Dark-Fiber- und WDM-Verbindungen.<br />

Fast alle dieser Erweiterungsverbindungen für natives FC unterstützen 8 Gbit/s.<br />

Damit lässt sich bei Verbindungen, die in der Regel Tausende oder sogar Zehntausende<br />

von Euro im Monat kosten, die Auslastung verdoppeln. So lassen sich die Anlagenkosten<br />

für die Geschwindigkeitserhöhung schnell rechtfertigen. Der Aufbau einer Hochleistungs-Basis,<br />

die die Flexibilität bietet, um bei Bedarf selektiv 8 Gbit/s bereitzustellen,<br />

vereinfacht das Management der Fabric im Rechenzentrum und ermöglicht das im<br />

Laufe der Zeit unvermeidliche Wachstum bei Anwendungen und Daten.<br />

Die Entwicklungsphasen der Virtualisierung<br />

im Rechenzentrum<br />

D ie Virtualisierung von Server-Plattformen kann zu einem dramatischen Ansteigen<br />

des Bedarfs an schneller Konnektivität im SAN führen. Manche virtualisierten Hosts<br />

arbeiten mit 10, 20 oder sogar 30 Betriebssystemen, sodass die Kapazität eines 4 Gbit/s-<br />

HBAs schnell erschöpft ist. Die 8 Gbit/s-End-to-End-Lösungen von Brocade helfen diese<br />

Überlastung vermeiden und steigern die Rendite der Investitionen in Server-Hardware<br />

und Virtualisierungssoftware.<br />

Brocade unterteilt die Entwicklung der Virtualisierung im Rechenzentrum in die folgenden<br />

drei Phasen:


104 Brocade<br />

Phase 1. Der primäre wirtschaftliche Treiber für diese Phase ist die Reduzierung des<br />

Investitionsaufwands als Folge von Serverkonsolidierung sowie Flexibilisierung der<br />

Test- und Entwicklungsaktivitäten.<br />

Phase 2. Phase 2 ist charakterisiert durch Wachstum und den Einsatz von Disaster<br />

Recovery-(DR-)Lösungen sowie den Bedarf an Hochverfügbarkeit und automatisierter<br />

Bereitstellung von Serverkapazitäten (Server Provisioning). Primäre wirtschaftliche<br />

Treiber sind die Reduzierung des Betriebsaufwands und der Bedarf an Business<br />

Continuity (BC). Hier einige typische Nutzungsfälle:<br />

– Automatisierte Serverbereitstellung und Einsatz von vorgefertigten Virtual<br />

Machine (VM)- „Templates“<br />

– Rechenzentrumsarchitekturen und Produkte, die Hochverfügbarkeit (HV) und eine<br />

ununterbrochene Bereitstellung der Dienste während Serverwartungen oder<br />

-ausfällen bieten<br />

– Speicherreplizierung und automatische Dienstwiederherstellungen zur Realisierung<br />

der DR-Ziele<br />

Phase 3. Dies ist die Phase, in die wir im Augenblick einsteigen. Die wirtschaftlichen<br />

Treiber dieser Phase sind eine flexible IT, verifizierbare Kosten und weitere Reduzierungen<br />

bei den Betriebsaufwänden. In Phase 3 nutzen Rechenzentren ein richtlinienbestimmtes<br />

Utility Computing, Service Level Management sowie die End-to-End-<br />

Bereitstellung von Diensten.<br />

Die Virtualisierung hat die traditionellen Beziehungen zwischen Servern, <strong>Storage</strong><br />

und Fabrics grundlegend verändert. Mit der Ausführung einer Vielzahl von VMs auf<br />

einer einzelnen Hardwareplattform erhöht sich die entsprechende Input/Output- (I/O-)<br />

Belastung dramatisch. Damit wird die Auslagerung von so viel I/O-Verarbeitungskapazität<br />

wie möglich zum Gebot der Stunde – um so die CPU-Kapazität produktiver für die<br />

Applikationsverarbeitung nutzen zu können. Um im vollen Umfang von der Servervirtualisierung<br />

zu profitieren, werden daher leistungs- und durchsatzstärkere <strong>Storage</strong> Adapter<br />

benötigt.<br />

Brocades neue Familie von 8 Gbit/s-Switches unterstützt schnelles Rechenzentrumswachstum<br />

durch die Bereitstellung einer Performance von 8 Gbit/s auf jedem Port.<br />

Eine Switching-Architektur ohne Überbelegung verbessert die Server-Verfügbarkeit,<br />

indem sie das schnelle Wachstum virtueller Server ohne Beeinträchtigung der Rechenzentrumsleistung<br />

ermöglicht.<br />

Eine neue Option der Brocade DCX Backbone und Brocade 5300 und 5100 Switches<br />

ist die Freigabe des Fabric OS (FOS) 6.1 der Fabric-Service „Integrated Routing“ (IR). Ab<br />

FOS 6.1 kann IR auf FC8 Port Blades mit bis zu 128 IR Ports pro Brocade DCX-Chassis<br />

aktiviert werden. (Mit zwei per Inter-Chassis Links verbundenen Brocade DCX-Chassis<br />

stehen insgesamt 256 IR-Ports zur Verfügung.) Das Fibre Channel Routing pro Port<br />

erfordert keine zusätzliche Hardware; benötigt wird nur eine optionale IR-Softwareli-


8 Gbit/s Fibre Channel als End-to-End-Lösung im Rechenzentrum 105<br />

zenz. IR kann per Konfiguration durch den Anwender für die maximale Anzahl Ports des<br />

Brocade 5300 (80 Ports) und des Brocade 5100 (40 Ports) konfiguriert werden. Brocade<br />

8 Gbit/s-HBA-ASICs unterstützen bis zu 500k I/O per Sekunde (IOPS) pro Port (>1M<br />

IOPS auf einem Dual-Port-HBA), um die Host-Prozessoren zu entlasten und die Produktivitätsziele<br />

der Virtualisierung zu erfüllen. In Zukunft wird es mit der ISL-Trunking-<br />

Technologie von Brocade möglich sein, zwei 8 Gbit/s-HBA-Ports zu einer ultraschnellen<br />

16 Gbit/s-Verbindung zusammenzuschließen, wobei eine Performancesteuerung<br />

auf Frame-Ebene erreicht wird. Derzeit können die Vorteile der 8 Gbit/s-Switching-<br />

Technologie über die „N_Port ID Virtualization“ (NPIV) direkt von den VMs genutzt werden,<br />

sodass einzelne VMs spezielle Brocade-Funktionen wie Top Talkers und QoS Traffic<br />

Prioritization nutzen können. Diese End-to-End-Integration von Fabric und Host ist ein<br />

Alleinstellungsmerkmal von Brocade; sie bietet die höchste I/O-Leistung der Branche<br />

für virtualisierte Umgebungen.<br />

Brocade 8 Gbit/s-HBAs ergänzen führende Performance durch fortschrittliche Speicherfunktionalitäten<br />

und erlauben so eine weitere Verschlankung virtualisierter Server-<br />

Betriebsprozesse. So nutzen zum Beispiel die 8 Gbit-HBAs von Brocade für Compliance-<br />

Zwecke das den Industriestandard darstellende Fibre Channel Security Protocol (FC-SP)<br />

und werden in Zukunft für sichere Netzwerktransaktionen „in-flight“-Datenverschlüsselung<br />

unterstützen.<br />

Außerdem bietet Brocades neuer Fabric-Service „Adaptive Networking“ eine konfigurierbare<br />

Serviceleistung (QoS) für jede VM an. Mit zunehmender Nutzung von VM-<br />

Mobilität zur Verlagerung von Anwendungs-Workloads von einer Plattform auf eine<br />

andere sind konventionelle Vernetzungsmethoden nicht mehr ausreichend. Brocade<br />

erfüllt die Ansprüche dynamischerer virtualisierter Umgebungen durch die Bereitstellung<br />

einer integrierten Fabric- und HBA-Lösung, welche Anwendungen, die auf VMs<br />

laufen, nach Bedarf Sicherheits- und QoS-Stufen selektiv zuweisen kann.<br />

Brocade 8 Gbit/s-Produkte<br />

A nfang 2008 wurde als Brocades erste 8 Gbit/s-Plattform der Brocade DCX Backbone<br />

mit 16-, 32-, und 48-Port-Blades freigegeben. Im Mai 2008 komplettierte Brocade<br />

den Übergang auf die 8 Gbit/s-Technologie mit der Freigabe des Fabric OS 6.1 und einer<br />

kompletten neuen Switch- und HBA-Familie für End-to-End-Konnektivität im Rechenzentrum:<br />

Brocade 815 (Single Port) und 825 (Dual Port)-HBAs<br />

Brocade 300 Switch mit 8, 16 und 24 Ports<br />

Brocade 5100 Switch mit 24, 32 und 40 Ports<br />

Brocade 5300 Switch mit 48, 64 und 80 Ports


106 Brocade<br />

FC8-16-, FC8-32- und FC8-48-Port-Blades für den Brocade 48000 Director<br />

Brocade 8 Gbit/s-Switches entsprechen den Industriestandards, und Fabrics mit 4<br />

und 8 Gbit/s können problemlos im Verbund miteinander arbeiten. Datenblätter mit<br />

Beschreibungen dieser Produkte finden Sie auf www.brocade.com<br />

Fazit<br />

Höhere Geschwindigkeiten auf Switching-Plattformen von Brocade sind einer von<br />

zahlreichen Vorteilen von Brocades ASIC-Familie der neuesten Generation. Mehr<br />

Geschwindigkeit im Rechenzentrum bietet den direkten Vorteil leistungsfähigerer ISLs<br />

und erhöhter Skalierbarkeit; durch die Verdoppelung der ISL-Leistung können mehr<br />

Ports für Server und <strong>Storage</strong> genutzt werden. 8 Gbit/s werden außerdem für die Servervirtualisierung,<br />

die Skalierung von Fabrics, Sicherungen und für die Anforderungen des<br />

Hochleistungs-Computing benötigt. Weitere wichtige Treiber für die 8-Bit/s-Technologie<br />

sind neben der besseren Energieeffizienz der neuen Switch-Plattformen neue Funktionen<br />

wie Adaptive Networking und Integrated Routing. Auch Rechenzentrumsbetreiber,<br />

bei denen diese Anforderungen jetzt noch nicht relevant sind, werden sich auf kurz oder<br />

lang mit ihnen konfrontiert sehen, und wenn es um die Rechenzentrumsplanung geht,<br />

bietet die integrierte 8-Gbit-/s-End-to-End-Lösung das breiteste Angebot an Möglichkeiten<br />

mit der höchsten Leistung und Effizienz.<br />

Weitere Informationen finden Sie auf unserer Webseite www.brocade.com<br />

Kontakt:<br />

Brocade Communications GmbH<br />

Ralf Salzmann<br />

Altkönigstrasse 6<br />

64546 Mörfelden Walldorf<br />

ralf.salzmann@brocade.com


NetApp: innovative Lösungen<br />

für das <strong>Storage</strong>- und Datenmanagement<br />

NetApp steht für innovatives <strong>Storage</strong>- und Datenmanagement mit hervorragender<br />

Kosteneffizienz. Das Engagement für Einfachheit, Innovation und den Erfolg<br />

seiner Kunden ließ das Unternehmen zu einem der am schnellsten wachsenden<br />

<strong>Storage</strong>- und Datenmanagement-Hersteller werden. Das breite Lösungsportfolio für<br />

Server-zu-<strong>Storage</strong>-Virtualisierung, Business-Applikationen, Datensicherheit und mehr<br />

veranlassen Kunden weltweit, sich für NetApp zu entscheiden. Sie erreichen mit NetApp<br />

die konstante Verfügbarkeit geschäftskritischer Daten und können Business-Prozesse<br />

vereinfachen. Unter dem Credo „Go further, faster“ unterstützt NetApp Unternehmen<br />

weltweit in ihrem Erfolg.<br />

Der Speicherbedarf für Daten im Unternehmen wird auch in den nächsten Jahren<br />

stark anwachsen. Dies stellt IT-Verantwortliche nicht nur vor die Herausforderung,<br />

immer mehr <strong>Storage</strong> Equipment anzuschaffen, sondern diese Geräte auch zu managen.<br />

Mithilfe seiner leistungsfähigen Unified <strong>Storage</strong>-Architektur unterstützt NetApp Unternehmen<br />

dabei, diese Herausforderungen effizient zu meistern: Außerordentlich niedrige<br />

Betriebskosten (TCO), extrem schnelle Backup- und Restore-Prozesse, hohe Verfügbarkeit,<br />

die Möglichkeit der Konsolidierung und Virtualisierung sowie ein vereinfachtes,<br />

komfortables Management der gesamten <strong>Storage</strong>-Umgebung tragen zum NetApp<br />

Motto des „Go further, faster“ bei.<br />

Lösungen<br />

Microsoft, VMware, Oracle und SAP sind wichtige strategische Partner von NetApp. Für<br />

deren Datenbank- und Anwendungssoftware wurde von NetApp eine Vielzahl spezifischer<br />

Tools entwickelt.<br />

Das NetApp Konzept<br />

Data Ontap<br />

Ein kleiner, sehr effektiver Betriebssystemkern, der auf die Anforderungen von Speicherprozessen<br />

optimiert ist, liefert höchste Performance für <strong>Storage</strong>-Anwendungen<br />

und eröffnet vielseitige Einsatzbereiche: So ist mit Data ONTAP ein universeller Datenzugriff<br />

mittels Block- oder Datei-Level-Protokollen möglich. Datenzugriffsprotokolle<br />

wie NFS, CIFS, iSCSI, FC, http und FTP erlauben den Zugriff auf Datei-Level.


108 NetApp<br />

Ausserordentlich flexible Speicherzuordnung<br />

Mit Data ONTAP können alle in einem System verfügbaren Festplatten für alle Applikationen<br />

genutzt werden. Es muss nicht mehr ein bestimmter Speicherplatz bestimmten<br />

Anwendungen zugeordnet werden. Dies bedeutet, dass jede Applikation alle eingebauten<br />

Laufwerke nutzen kann, unabhängig davon, welchen Gesamtspeicherplatz die<br />

Anwendung benötigt.<br />

Snapshot<br />

Mit der von NetApp entwickelten „Snapshot”-Technologie ist es möglich, ohne Performance-Einbußen<br />

pro angelegtem Volume 255 Snapshots zu generieren. Snapshots sind<br />

Read-Only-Kopien der Daten auf dem jeweiligen Volume (d.h. die Daten im Snapshot<br />

sind auf den gleichen Platten abgelegt wie die Produktivdaten).<br />

Flexvol & Flexclone<br />

Die NetApp FlexClone TM Technologie ermöglicht echtes Klonen, eine unverzügliche Replizierung<br />

von Datenvolumes und Datensets, ohne zur Erstellung zusätzlichen Speicherplatz<br />

zu benötigen.<br />

NetApp FlexClone bietet deutliches Einsparpotenzial beim Speicherplatz, und das bei<br />

nur geringem Overhead.<br />

Metrocluster<br />

Sollen die beiden <strong>Storage</strong> Controller eines FAS Clusters in getrennten Standorten aufgebaut<br />

werden, spiegelt MetroCluster die Daten synchron (siehe SyncMirror) in beiden<br />

Rechenzentren. Zusätzlich wird eine automatische Übernahme durchgeführt, wenn ein<br />

FAS System nicht zur Verfügung stehen sollte.<br />

Das NetApp Unified-<strong>Storage</strong>-Konzept<br />

N etApp hat eine von Grund auf einheitliche <strong>Storage</strong>-Architektur konzipiert, in die<br />

sich alle <strong>Storage</strong>-Produkte nahtlos einfügen und mit einem einheitlichen<br />

Betriebssystem (Data ONTAP) verwaltet werden können. Daraus ergeben sich eine Vielzahl<br />

wirtschaftlicher Vorteile:<br />

Geringerer Administrationsaufwand – weniger Mitarbeiter können mehr Speicher<br />

und mehr Anwendungen verwalten.<br />

Bessere Auslastung vorhandener Speicher-Ressourcen – da alle Geräte in einem<br />

Netzwerk verbunden sind, können Daten und Anwendungen unabhängig vom physischen<br />

Speicherplatz nach Bedarf verteilt werden (Virtualisierung). So kann bei gleicher


Innovative Lösungen für das <strong>Storage</strong>- und Datenmanagement 109<br />

Menge gespeicherter Daten und laufender Applikationen der Speicherbedarf um bis zu<br />

30 % gesenkt werden.<br />

Langfristiger Investitionsschutz – Bei veränderten Anforderungen sind die <strong>Storage</strong>-Systeme<br />

jederzeit erweiterbar und können so an die neuen Anforderungen optimal<br />

angepasst werden. Investitionen in andere dedizierte Systeme werden vermieden.<br />

Flexible Skalierbarkeit – wenn stark wachsende Datenmengen oder neue Business-<br />

Applikationen den Speicherbedarf drastisch erhöhen, kann zusätzliches <strong>Storage</strong> Equipment<br />

„im Handumdrehen“ integriert werden.<br />

Kein Migrationsaufwand – die durchgängige NetApp Produktpalette ermöglicht<br />

den reibungslosen und schnellen Transfer von Daten, wenn weitere Systeme hinzugefügt<br />

werden.<br />

Die NetApp FAS Systeme<br />

Die leistungsstarken, skalierbaren und zuverlässigen NetApp FAS Systeme (fabric<br />

attached storage) für ein vereinfachtes Datenmanagement erfüllen die Anforderungen<br />

von Unternehmen jeder Größenordnung – angefangen bei den Global 1000<br />

über mittelgroße Unternehmen bis hin zu kleinen Abteilungen.<br />

Installation, Konfiguration und Administration dieser Systeme sind denkbar einfach.<br />

Dank des stabilen und flexiblen Microkernel-Betriebssystems Data ONTAP ist ein gleichzeitiger<br />

und kombinierter Einsatz in FC SAN-, iSCSI- und NAS-Umgebungen problemlos<br />

möglich. Dabei werden neben Windows, Unix und Linux auch Web-Daten<br />

unterstützt.<br />

Die FAS Produktreihe umfasst die Highend-Serie FAS6000 für Datenkonsolidierung<br />

im großen Umfang und Hochleistungsapplikationen, die Midrange-Serie FAS3100 mit<br />

außergewöhnlichem Preis-Leistungs-Verhältnis für SAN und NAS und die Serie FAS2000<br />

für die Datenspeicherung in Niederlassungen sowie für mittelgroße Unternehmen.<br />

Die FAS Systeme wurden entworfen, um Daten für eine breite Palette von Applikationen<br />

konsolidieren und bereitstellen zu können – einschließlich Business-Applikationen,<br />

E-Mail, Enterprise Content Management, technische Applikationen, File Shares,<br />

Home Directories und Web Content.<br />

Maximierung der <strong>Storage</strong>auslastung und Performance durch Virtualisierung<br />

Mit einer Virtualisierung der Server im Data Center können Kunden zwar die Server-<br />

Auslastung verbessern und die Verwaltung der Server vereinfachen. Doch erhöhen sich<br />

dabei die Anforderungen an <strong>Storage</strong>-Systeme, da sie höhere I/O-Raten, mehr Kapazität<br />

und das schnelle, unterbrechungsfreie Bereitstellen von Speicherplatz unterstützen<br />

müssen. Wenn bei der Server-Virtualisierung die <strong>Storage</strong>-Optimierung nicht berück-


110 NetApp<br />

sichtigt wird, findet oftmals nur eine Umschichtung der Kosten von Servern zu <strong>Storage</strong>-<br />

Systemen statt.<br />

Gemeinsam mit Anbietern wie z.B. VMware bietet NetApp Lösungen und Best Practices<br />

für die Entwicklung einer virtualisierten Infrastruktur vom Server bis zum Speicher<br />

an, die eine Reihe an Vorzügen aufweisen:<br />

Skalierbare und konsistente I/O Performance für alle ESX-Protokolle (NFS, iSCSI und<br />

FC)<br />

Flexible, schnelle, einfache und kostengünstige Provisionierungs- und Datenmanagement-Lösungen<br />

Erstklassige virtualisierte <strong>Storage</strong>-Lösung für Thin Provisioning in heterogenen <strong>Storage</strong>-Umgebungen<br />

Netapp Deduplizierung im ESX-Umfeld<br />

Die NetApp Deduplizierung zählt zu den grundlegenden Bestandteilen unseres Data<br />

ONTAP® Betriebssystems. Durch das Beseitigen redundanter Datenobjekte und die ausschließliche<br />

Referenzierung auf das Ursprungsobjekt wird der verfügbare Speicher viel<br />

effizienter genutzt.<br />

Snapmanager für virtualisierte Infrastrukturen (Vi)<br />

SnapManager für VI bietet Kunden eine automatisierte Lösung für Backup und Restore<br />

von Virtual Machines in einer VMware ESX-Umgebung. Die beiden Hauptvorteile dieser<br />

Lösung:<br />

Die Backups, die mit der Snapshot-Technologie von NetApp erstellt werden, belegen<br />

nur einen Bruchteil des Speicherplatzes, den herkömmliche Systeme benötigen.<br />

Die Systemleistung der ESX-Umgebung und damit auch die Applikationen werden<br />

durch Backup- und Restoreprozesse des SnapManagers kaum beeinträchtigt.<br />

Mehr als 5.000 Kunden (Stand: März 2008) weltweit nutzen bereits die Vorzüge einer<br />

VMware-Lösung mit NetApp <strong>Storage</strong>.<br />

Unterstützung einer Virtual Desktop Infrastructure<br />

Neben der Servervirtualisierung bietet VMware mit Virtual Desktop Infrastructure (VDI)<br />

eine weitere ressourcensparende Virtualisierungstechnologie. Applikationsumgebungen<br />

laufen nicht mehr in den Desktop-Rechnern der Anwender, sondern in virtuellen<br />

Maschinen im Rechenzentrum. Mit NetApp FlexClone lassen sich innerhalb von Minuten<br />

Tausende solcher Virtual Machines einrichten. Durch Datendeduplizierung werden<br />

Einsparungen von rund 90 Prozent bei der benötigten Speicherkapazität möglich.


Innovative Lösungen für das <strong>Storage</strong>- und Datenmanagement 111<br />

NetApp Lösungen für SAP<br />

Als weltweiter Technologiepartner der SAP hat NetApp eine erfolgreiche Historie in der<br />

Entwicklung von Lösungen, welche signifikant das SAP-Datenmanagement vereinfachen.<br />

Als einer der Gründungsmitglieder der „Adaptive Computing Initiative für SAP“<br />

erhielt NetApp zahlreiche Zertifikate für die Kompatibilität der NetApp <strong>Storage</strong>-Lösungen<br />

und ist auf der von SAP freigegebenen Compliance-Liste innerhalb des „SAP Adaptive<br />

Computing Services“ für Unix-, Linux®- und Windows®-Plattformen vertreten.<br />

NetApp gewann den SAP Pinnacle Award für technische Innovation und Zusammenarbeit<br />

in der Adaptive Computing „Netweaver Innovation“ Kategorie für die FlexFrame TM<br />

for mySAP Business Suite TM Co-Entwicklung mit Fujitsu Siemens Computers. Integrative<br />

Bestandteile hierfür sind NetApp System-Cloning und Backup/Recovery-Szenarien.<br />

Das NetApp Unified <strong>Storage</strong>-Modell bietet SAN-/IP SAN- und NAS-Anbindungen mit<br />

Block- und File-Zugriffsmöglichkeiten innerhalb einer einzigen <strong>Storage</strong>-Architektur.<br />

Datenmanagement-Lösungen wie FlexClone TM erlauben das Klonen von SAP-Produktivsystemen<br />

ohne Performanceeinfluss innerhalb weniger Minuten ohne zusätzlichen<br />

initialen Speicherbedarf und vereinfachen damit signifikant das Aufsetzen und Management<br />

von Systemen für QA, Test, Entwicklung, Reporting, Schnittstellen und Schulung.<br />

Die Kombination von NetApp SnapShot TM und SnapRestore® ermöglicht SAP-Kunden<br />

schnellstes und einfachstes Backup und Restore mehrerer TB an SAP-Daten sowie<br />

effiziente und einfache Upgrades und Migrationen von SAP-Systemen. NetApp Adaptive<br />

Computing-Lösungen versetzen SAP-Kunden in die Lage, dynamisch, flexibel und<br />

wirtschaftlich auf Geschäftsanforderungen reagieren zu können.<br />

Darüber hinaus bietet NetApp für Unternehmen, die SAP im Einsatz haben:<br />

Eine umfassende Palette an Produkten für Windows-, Unix- und Linux-Umgebungen<br />

mit Unified NAS/SAN <strong>Storage</strong>-Lösungen.<br />

ILM-Lösungen: Speicherkonsolidierung, Backup und Recovery, Archivierung und<br />

Compliance mittels ArchiveLink TM und/oder WebDAV.<br />

Hochverfügbarkeits- und Disaster Recovery-Lösungen zur Datenverschlüsselung.<br />

SnapManager für SAP: Die von SAP zertifizierte Lösung vereinfacht die Erstellung<br />

applikationskonsistenter Snapshot-Kopien, automatisiert fehlerfreie Daten-Restores<br />

und ermöglicht applikationsspezifisches Disaster Recovery.<br />

Außerdem können Clones der SAP-Datenbank automatisiert erstellt werden.<br />

Weltweite Supportvereinbarung zwischen NetApp und SAP, damit rund um die Uhr<br />

für den Support von SAP-Infrastrukturen beim Kunden gesorgt ist.<br />

Weitere Informationen über diese und andere NetApp Lösungen finden Sie unter<br />

www.netapp.com


CA RECOVERY MANAGEMENT<br />

Datenschutz und Verfügbarkeit<br />

Lösung<br />

CA Recovery Management bietet Ih nen die Funktionen und Leistungen, die Sie<br />

wirklich benötigen: umfas senden Schutz und verlässliche Re covery in einer einfachen<br />

und leicht handhabbaren Lösung.<br />

Es beinhaltet anwendungsbezogenes, leistungs starkes Backup mit Replikation,<br />

unterbrechungsfreiem Datenschutz, automatisiertem Failover und unterbrechungsfreien<br />

Disaster Re covery Tests, damit Sie den Schutz bereitstellen können, der sich an<br />

der Bedeutung der Daten für Ihr Unter nehmen orientiert. Eine vereinfachte Oberfläche<br />

und neue Funktionen der zentralen Verwaltung ermöglichen Ihnen, Ihre gesamte<br />

Backupumge bung zu organisieren, zu überwa chen und zu konfigurieren, was zu einer<br />

besseren Verwaltbarkeit und niedrigeren Betriebskosten führt. Dank des modularen<br />

Ansatzes eignet sich diese Lösung für Unternehmen jeder Größe. Sie verbindet CA ARCserve<br />

Backup mit CA XOsoft Replication und CA XOsoft High Availability, um Ihnen die<br />

Abstimmung eines mehrstufigen Datenschutzkonzepts auf Ihre Unternehmensziele zu<br />

ermöglichen.<br />

Nutzen<br />

Die Lösung lässt sich auch nahtlos in vorhan dene IT Management-Lösungen integrieren,<br />

sodass Enterprise IT Management vereinfacht und erwei tert wird.<br />

CA Recovery Management: Eine vollständige Lösung<br />

für den Datenschutz<br />

C A Recovery Management bietet die von Ihrem Unternehmen benötigten umfassenden<br />

und integrierten Datenschutz- und Wiederherstellungsfunktionen. Dafür werden<br />

robuste, bewährte Technologien eingesetzt, die über eine einzige, vereinfachte


114 CA Recovery Management<br />

Schnittstelle verbunden sind. Diese Technologien ermöglichen einen mehrstufigen<br />

Datenschutz, der auf die Ziele, Anforderungen und Richtlinien von Unternehmen abgestimmt<br />

ist und zahlreiche Hardware und Softwareplatt formen abdeckt.<br />

CA Recovery Management kombiniert bewährte, leistungsstarke Lösungen — CA<br />

ARCserve® Backup, CA XOsoft Replication und CA XOsoft High Availability.<br />

CA ARCserve Backup Release 12<br />

CA ARCserve Backup bietet den umfassendsten Datenschutz, der derzeit am Markt<br />

verfügbar ist. Die Lösung ermöglicht eine zentrale Steuerung und bietet erweiterte<br />

Funktionen, die den geänderten Anforderungen in Ihrem Unternehmen Rechnung tragen.<br />

Funktionen wie die nach FIPS zertifizierte 256-Verschlüsselung verbessern die<br />

Sicherheit, und Berichte liefern umsetzbare Informationen und optimieren das Backup<br />

und die auf SQL Express basierte Katalogdatenbank mit verbesserter Indizierung für<br />

eine schnellere Recovery. Eine Kombination dieser Funktionen bietet Unternehmen<br />

mehr Kontrolle, höhere betriebliche Effizienz, mehr Schutz und geringere Kosten. Diese<br />

Lösung ermöglicht zuverlässigen Datenschutz der „Enterpriseklasse“ für unterschiedlichste<br />

Betriebsumgebungen. Die Tatsache, dass CA ARCserve Backup integrierte Tools<br />

für den Virenschutz und die Verschlüsselung beinhaltet, macht es zur sichersten sofort<br />

einsatzfähigen Backuplösung, die derzeit auf dem Markt erhältlich ist.<br />

CA XOsoft High Availability & CA XOsoft<br />

Replication Release 12<br />

Diese Lösung für maximale Business Continuity basiert auf asynchroner Echtzeitdatenreplikation<br />

mit automatischem Failover und automatischer Zurücksetzung.<br />

Darüber hinaus ermöglicht sie integrierten kontinuierlichen Datenschutz (continuous<br />

data protection CDP) vor Korruption und automatische Disaster Recovery Tests, die<br />

sicherstellen, dass sich unternehmenskritische Daten und Anwendungen wiederherstellen<br />

lassen. CA XOsoft High Availability sorgt kostengünstig für die unterbrechungsfreie<br />

Verfügbarkeit von Servern, auf denen Microsoft Exchange, Microsoft SQL Server oder<br />

Oracle Daten banken, Microsoft Internet Information Services (IIS) WebServer, Dateiserver,<br />

BlackBerry Support und andere Anwendungen (sowohl auf 32 als auch 64Bit<br />

Windows Servern) ausgeführt werden.<br />

Kontakt: cainfo.germany@ca.com, www.ca.com/us


Sun Microsystems / <strong>Storage</strong>Tek<br />

Über 35jährige Erfahrung in<br />

dem klassischen Bereich Datensicherheit<br />

Durch die Übernahme von <strong>Storage</strong>Tek ist Sun Microsystems zu einem der weltweit<br />

führenden Anbieter von Tape Libraries und Laufwerken avanciert. Kundenorientierte<br />

Lösungen mit speziellen Serviceangeboten zeichnen das Unternehmen aus.<br />

Sun Microsystems (JAVA) entwickelt Informationstechnologie für die globale Wirtschaft.<br />

Mit der Vision „The Network is the Computer“ treibt Sun die Verbreitung des<br />

Internets voran und konzentriert sich auf offene Innovationen, Entwicklung von Communities<br />

sowie die Marktführerschaft bei Open Source. Sun ist in mehr als 100 Ländern<br />

vertreten.<br />

Märkte<br />

S un Microsystems ist ein Systemanbieter, entwickelt Hardware und Software. Weil<br />

sich die Softwareentwicklung darauf konzentriert, systemnahe Aufgaben zu lösen<br />

oder strategisch wichtige Meilensteine in Einklang zur Sun Vision zu setzen, steht Sun<br />

nicht im Wettbewerb zu den Entwicklern von Anwendungsprogrammen. Vielmehr<br />

bestehen feste Partnerschaften mit zahlreichen renommierten Softwareherstellern, um<br />

gemeinsam Angebote zu entwickeln. Auch auf diese Weise behalten Kunden ihre Freiheit,<br />

denn sie können sich für die beste Lösung am Markt entscheiden. Um die frühzeitige<br />

Integration der Systeme sicherzustellen, hat Sun Microsystems zahlreiche Partnerprogramme<br />

aufgelegt, die sowohl branchenbezogene als auch aufgabenbezogene Wege<br />

vorgedacht haben. Für Sun Systeme mit der Plattform SPARC/Solaris gibt es ein<br />

Lösungsportfolio von fast 13.000 kommerziellen und technischen Anwendungen.<br />

Neben den Partnerschaften mit unabhängigen Software-Herstellern setzt Sun sehr<br />

stark auf langfristige Vertriebspartnerschaften mit innovativen Distributoren und Resellern.<br />

Diese Partnerschaften ermöglichten flächendeckend schnelle und kompetente<br />

Lösungen für Endkunden.


116 Sun Microsystems<br />

Die Partnerschaft zwischen Fujitsu Siemens Computers und<br />

Sun Microsystems<br />

Zwischen Fujitsu Siemens Computers und Sun Microsystems/<strong>Storage</strong>Tek besteht eine<br />

langjährige Partnerschaft, welche den Nearline (Tape) Bereich umfasst und seit 2008<br />

um die SPARC basierten Systeme erweitert wurde. Durch OEM-Verträge, sowie Reseller-Vereinbarung<br />

mit Sun für Nearline, Laufwerkstypen und Sparc basierte Produkte hat<br />

Fujitsu Siemens Computers einen starken Partner für den Bereich Disaster Recovery und<br />

Backup gewonnen. Sun Nearline Produkte als Quasi-Standard überzeugen mit ihrer<br />

hoch performanten Leistung und der überdurchschnittlichen Fehlertoleranz. Durch die<br />

offene Bauweise und die vielfältigen Anschlussmöglichkeiten sind sie mit den von<br />

Fujitsu Siemens Computers vertriebenen Systemen, wie z.B. CentricStor Virtual Tape<br />

Appliance, optimal in die Backup-Umgebungen zu integrieren. Eine Zusammenarbeit<br />

zwischen Sun Microsystems und Fujitsu Siemens Computers hat sich in großen, komplexen<br />

Projekten bereits als äußerst effektiv erwiesen. Dies gilt für Unternehmen verschiedenster<br />

Art, besonders für Großunternehmen und Mittelstands-Kunden. Belege<br />

hierfür sind die vielen gemeinsamen Projekte, welche sich in Case Studies nachlesen<br />

lassen.<br />

Sun <strong>Storage</strong>Tek Open <strong>Storage</strong> Lösungen<br />

E lektronisch gespeicherte Daten sind heute für viele Unternehmen einer der wichtigsten<br />

Aktivposten. Diese Daten sicher zu speichern, intelligent zu verwalten und ständig<br />

kontrolliert zur Verfügung zu stellen, ist von vitalem Interesse für jedes Unternehmen.<br />

Das ungebremste Datenwachstum und die wachsende Anzahl gesetzlicher Regelungen<br />

zu Aufbewahrungsfristen und Zugriffskontrollen erfordern neue Wege der<br />

Datenspeicherung und Verwaltung. Sun <strong>Storage</strong>Tek Open <strong>Storage</strong> Lösungen erlauben<br />

es, diesen Herausforderungen erfolgreich zu begegnen. Sie kombinieren unsere über<br />

35jährige Erfahrung in den klassischen Bereichen wie Datensicherheit, Datenverfügbarkeit<br />

und Ausfallkonzepte mit neuen Technologien wie Zugriffsschutz durch Identity<br />

Management und <strong>Storage</strong> Virtualisierung. Damit sind zukunftsweisende Information-<br />

Lifecycle-Management-Infrastrukturen möglich, die Ihre Daten nicht nur sicher und<br />

regelkonform speichern, sondern jedem, der sie benötigt, sofort zur Verfügung stellt.


Über 35jährige Erfahrung in dem klassischen Bereich Datensicherheit 117<br />

Tape Library StreamLine® SL500<br />

Die Sun <strong>Storage</strong>Tek StreamLine SL500 Tape-Library ist die Einstiegslösung für den<br />

Mittelstand. Die bewährte LTO-Technologie garantiert einen reibungslosen Betrieb.<br />

Die modulare Ausbaufähigkeit innerhalb eines Standard-Racks gestattet es dem Kunden,<br />

die Kapazitäten seinen betrieblichen Bedürfnissen jederzeit anzupassen.<br />

Tape Library <strong>Storage</strong>Tek SL3000<br />

Das Sun <strong>Storage</strong>Tek SL3000 Modular Library System ist ein innovatives, umweltverträgliches<br />

<strong>Storage</strong>-Konzept für den Midrange-Bereich. Die Any Cartridge Any Slot<br />

Technologie ermöglicht die optimalen Laufwerke je nach Zugriffs- und Speicheranforderung<br />

einzusetzen.<br />

Highlights<br />

– Flexible Skalierung, bei der nur die tatsächlich genutzte Kapazität berechnet wird.<br />

– Kosteneinsparungen durch weniger Platz und weniger Stromverbrauch.<br />

– Einfacheres <strong>Storage</strong> Management durch Partitionierung, Sharing.<br />

– Innovative Technologien reduzieren das Risiko und eröffnen neue Möglichkeiten.<br />

– Support und Services für die erfolgreiche Installation, Optimierung und Wartung.<br />

Tape Library StreamLine® SL8500<br />

Die modulare Sun <strong>Storage</strong>Tek StreamLine SL8500 Tape-Library ermöglicht, die<br />

Organisation von Betriebsabläufen rationeller aufzusetzen, die Verfügbarkeit zu<br />

maximieren und optimale Voraussetzungen für die Revisionssicherheit zu schaffen,<br />

wobei die Kostenbelastung und die Beeinträchtigung der Abläufe absolut im Rahmen<br />

bleiben.<br />

Highlights<br />

– Datenkonsolidierung: Eine exzellente Skalierbarkeit sowie die Unterstützung von<br />

mixed Media.<br />

– Gemeinsame Ressourcen: Für den Einsatz in Mainframe, Unix, Linux und Windows<br />

konzipiert.<br />

– Höhere Verfügbarkeit: Hochrüstung ohne Ausfallzeiten. Redundanz im Betrieb.


118 Sun Microsystems<br />

– Höherer Durchsatz: Leistungsstarker Durchsatz und hohe Kapazität.<br />

– Einfache Skalierung: Ohne Ausfallzeiten, Wachstum gemäß Ihren Anforderungen.<br />

– Geringer Platzbedarf: Hohe Dichte der Medienstellplätze, optimale Auslastung.<br />

Weitere Informationen über Sun Lösungen finden Sie unter http://de.sun.com/


Symantec:<br />

Confidence in a connected world<br />

Symantec ist ein weltweit führender Anbieter von Sicherheits-, <strong>Storage</strong>- und Systemmanagement-Software,<br />

mit der Unternehmen und Privatpersonen ihre Informationen<br />

sichern und verwalten können. Symantec hat seinen Hauptsitz in Cupertino,<br />

Kalifornien, und betreibt Niederlassungen in mehr als 40 Ländern.<br />

Marktkategorien<br />

Produkte für Privatanwender; Sicherheit und Compliance; Management von <strong>Storage</strong>-<br />

Ressourcen und Verfügbarkeit; Symantec Global Services.<br />

Die Führungskräfte von Symantec verfügen über Jahrzehnte an Erfahrung und können<br />

auf eine lange Erfolgsgeschichte zurückblicken. Mit ihrer Kombination aus<br />

Geschäftssinn und technischem Know-how führen sie ein Unternehmen mit mehr als<br />

17.500 kompetenten Mitarbeitern. Kunden in der ganzen Welt setzen auf die innovativen<br />

Produkte und Lösungen von Symantec, die ihnen Sicherheit für ihre Infrastrukturen,<br />

Informationen und Transaktionen bieten.<br />

Partnerschaft zwischen Fujitsu Siemens Computers und<br />

Symantec<br />

N ahezu alle Produkte von Symantec (sowie die ehemaligen VERITAS-Produkte) sind<br />

für Produkte von Fujitsu Siemens Computers zertifiziert. In erster Linie vertreibt<br />

Fujitsu Siemens Computers die VERITAS <strong>Storage</strong> Foundation als die strategische Dateisystem-<br />

und Volume-Management-Lösung für seine PRIMEPOWER-Server.<br />

NetBackup und Enterprise Vault sind strategische Produkte und wesentliche Bestandteile<br />

des <strong>Storage</strong> Portfolio von Fujitsu Siemens Computers. Die CentricStor Virtual Tape<br />

Appliance von Fujitsu Siemens Computers ist bereits durch Zusatzfunktionen von<br />

Symantec-Produkten optimiert.<br />

Die Zusammenarbeit zwischen den Softwarelösungen von Symantec und den Plattformen<br />

von Fujitsu Siemens Computers hat sich in großen, komplexen Projekten bereits<br />

als äußerst effektiv erwiesen. Dies gilt für Unternehmen verschiedenster Art, besonders<br />

für Großunternehmen und KMU-Kunden.<br />

Für seine DeskView- und ServerView-Lösungen setzt Fujitsu Siemens Computers auf<br />

Technologien von Altiris.


120 Symantec<br />

Veritas NetBackup – hochleistungsfähige Datensicherung<br />

Veritas NetBackup Enterprise Server ermöglicht hochleistungsfähige Datensicherung<br />

für die größten Unix-, Windows-, Linux- und NetWare-Umgebungen. NetBackup<br />

fasst sämtliche Backup- und Wiederherstellungsvorgänge in einem einzigen Management-Tool<br />

zusammen und ermöglicht so einen umfassenden Schutz vom Desktop über<br />

das Rechenzentrum bis hin zum Vault-Archiv. NetBackup bietet seinen Anwendern die<br />

Möglichkeit zur Nutzung der Potenziale von sowohl Band- als auch Festplatten<br />

– unterstützt durch fortschrittliche Technologien zur Platten- und Snapshot-basierten<br />

Datensicherung, zum Offsite-Management von Datenmedien und zum automatischen<br />

Disaster Recovery. Für ein Höchstmaß an Datensicherheit bietet NetBackup eine Datenverschlüsselung<br />

zur Übertragung und Speicherung von Daten mit den neuesten Verschlüsselungstechnologien.<br />

Veritas NetBackup bietet granulare Wiederherstellungen auf Datei- und Image-<br />

Ebene von einem einzigen Backup aus, sowie die automatische Erkennung virtueller<br />

Maschinen (Gewinner der Auszeichnung “Best of VMWorld” for Data Protection 2007).<br />

Symantec Enterprise Vault – E-Mail-Archivierung<br />

Symantec Enterprise Vault bietet eine softwarebasierte, intelligente Archivierungsplattform,<br />

um Unternehmensdaten aus E-Mail-Systemen, Datei-Server-Umgebungen,<br />

Instant Messaging-Plattformen sowie Inhaltsverwaltungs- und Kooperationssystemen<br />

zu speichern, zu verwalten und leichter aufzufinden. Da nicht alle Daten gleich<br />

sind, verwendet Enterprise Vault intelligente Klassifizierungs- und Aufbewahrungstechnologien<br />

zum Erfassen, Kategorisieren, Indizieren und Speichern der Zieldaten. So<br />

können Unternehmen Richtlinien erfüllen, Unternehmenswerte schützen und gleichzeitig<br />

die Speicherkosten reduzieren sowie die Verwaltung vereinfachen. Enterprise<br />

Vault enthält auch spezialisierte Anwendungen wie Discovery Accelerator und Compliance<br />

Accelerator zum Verwalten und einfachen Durchsuchen der archivierten Daten zu<br />

verschiedenen Zwecken wie Beweisführung, Content Compliance, Wissensmanagement<br />

und Initiativen zur Informationssicherheit. Es eliminiert die mit PST-Dateien verbundenen<br />

Probleme hinsichtlich Backups, Sicherheit, Stabilität und Speicherplatzbelegung.<br />

Archivieren von Daten für die Einhaltung rechtlicher Aufbewahrungsvorschriften,<br />

sodass E-Mail-Inhalte und Unternehmensdokumente für die Einhaltung der einschlägigen<br />

Richtlinien und Vorschriften wiederhergestellt werden können.<br />

Weitere Informationen finden Sie auf unserer Webseite www.symantec.de<br />

Kontakt: Harald Derbsch: harald_derbsch@symantec.com


<strong>Storage</strong> <strong>Basics</strong><br />

Eine Einführung in die Grundlagen<br />

der Speichertechnologie<br />

Inhalt<br />

Kapitel 1 –<br />

Die Informationsgesellschaft: Daten und Wissen speichern auf neuem Niveau<br />

Kapitel 2 –<br />

Tiered <strong>Storage</strong>: intelligentes Informationsmanagement im Unternehmen<br />

Kapitel 3 –<br />

Online-<strong>Storage</strong>: von Platten und Zuverlässigkeit<br />

Kapitel 4 –<br />

Speichernetze: die Qual der Wahl<br />

Kapitel 5 –<br />

Backup & Restore: eine ungeliebte Pflichtübung<br />

Kapitel 6 –<br />

<strong>Storage</strong> Management: komplexe Speichernetze beherrschbar machen<br />

Kapitel 7 –<br />

Virtualisierung: bei Speicherthemen existiert Nachholbedarf<br />

Kapitel 8 –<br />

Die Speicherstrategie von Fujitsu Siemens Computers und seiner Partner<br />

Ausblick: Future <strong>Storage</strong> Trends<br />

Glossar<br />

Sowie Beiträge zu Speicherthemen der Partner<br />

Brocade, CA, EMC, NetApp, Sun und Symantec<br />

Preis: 14,99 Euro

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!