22.01.2015 Aufrufe

w26M2

w26M2

w26M2

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

5 Big-Data-Lösungs-Architekturen und -szenarien<br />

Herkömmliche Lösungen sind angesichts der mit Big Data assoziierten Herausforderungen (»3 V«)<br />

sowohl aus technischer als auch aus betriebswirtschaftlicher Sicht eng limitiert.<br />

Hadoop bietet eine Antwort auf diese Herausforderungen und hat sich daher als Kern einer modernen<br />

Datenarchitektur und Ergänzung herkömmlicher Lösungen fest etabliert.<br />

Aus dem Zusammenspiel von Hadoop und herkömmlichen Lösungen ergeben sich drei typische Rollen<br />

für Hadoop in einer Big-Data-Zielarchitektur – Hadoop als:<br />

• preiswerter Langzeit-Parkplatz für Daten,<br />

• Basis für die Erforschung von Daten,<br />

• unternehmensweite Plattform.<br />

Das Kapitel 5 zeigt, dass es für jedes Einsatzszenario die passende Architektur gibt. Meist bestimmen<br />

der Datentyp sowie die Anforderungen an die Verarbeitung die Auswahl der Bausteine in der Zielarchitektur.<br />

Daher orientiert sich die Diskussion der Zielarchitekturen an den Datentypen der verschiedenen<br />

Einsatz-Szenarien: Clickstream-Daten, Social-Media-Stimmungsdaten, Server-Logdaten,<br />

Sensordaten, Maschine-zu-Maschine-Kommunikation, Standortdaten und Freitext-Daten.<br />

Zum Abschluss des Kapitels wird das Zusammenspiel von Big Data und Business Intelligence thematisiert.<br />

Ein Beispiel hierfür ist die Entlastung eines traditionellen Data-Warehouses durch Hadoop.<br />

• 5.1 Warum eine neu entstehende<br />

Datenarchitektur für Big Data<br />

Herkömmliche Datenarchitekturen<br />

Gegenwärtig nutzen die meisten Unternehmen mindestens<br />

eine analytische Anwendung zur Unterstützung von<br />

Entscheidungen im täglichen Geschäft. Stark vereinfacht<br />

sieht die Architektur dieser Lösungen so aus:<br />

werden die Rohdaten meist nach kurzer Zeit gelöscht.<br />

Somit finden nur strukturierte und verdichtete Daten<br />

Eingang in das Data Warehouse.<br />

• Für die Aufgaben der Analytik und Visualisierung wird<br />

Standard-Software wie Business Objects, Hyperion,<br />

Cognos eingesetzt, die für das Zusammenwirken mit<br />

den transaktionalen Anwendungen (in diesem Fall<br />

von SAP, Oracle und IBM) optimiert ist.<br />

• Daten liegen in strukturierter Form vor und stammen<br />

überwiegend aus transaktionalen Unternehmensanwendungen<br />

wie ERP, CRM oder SCM.<br />

• Die Daten werden in relationalen Datenbanken oder<br />

Data Warehouses gehalten. Hierfür werden Rohdaten<br />

meist mit dem bekannten Prozess Extract – Transform<br />

– Load umgewandelt. Nach dieser Umwandlung<br />

Hadoop als Kern einer modernen Datenarchitektur<br />

und Ergänzung herkömmlicher Lösungen<br />

Im Unterabschnitt 4.1.1 wurde bereits ausgeführt, wie<br />

limitiert herkömmliche Lösungen sind – mit dem Ergebnis,<br />

dass die Datenmengen die verfügbaren Budgets<br />

übersteigen (vgl. S. 37). Ebenfalls in diesem Unterabschnitt<br />

100

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!