17.10.2012 Aufrufe

CeBIT 2002 – Qualität statt Quantität - Midrange Magazin

CeBIT 2002 – Qualität statt Quantität - Midrange Magazin

CeBIT 2002 – Qualität statt Quantität - Midrange Magazin

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Titelthema<br />

10 www.midrangemagazin.de Mai <strong>2002</strong><br />

Datenintegration<br />

Lösung für Datenaustausch und Data Warehouse-Umgebungen<br />

„Wissen ist Macht“: Nie war dieser Satz<br />

gültiger als heute, da Unternehmen mehr und<br />

mehr den Wert von Informationen <strong>–</strong> sowohl<br />

diejenigen in den Köpfen der Mitarbeiter als<br />

auch die im Netzwerk befindlichen <strong>–</strong> für ihren<br />

erfolgreichen Fortbestand erkannt haben.<br />

Unternehmensrelevante Informationen bilden<br />

die Grundlage für alle wichtige Entscheidungen<br />

und werden heute mit moderner Data<br />

Warehouse-Technologie geschaffen. Es handelt<br />

sich nicht mehr nur um die Auswertungssysteme<br />

mit Standardberichten, sondern um<br />

weiterentwickelte, flexible, visuelle und<br />

benutzerfreundliche Systeme für eine effiziente<br />

Entscheidungsvorbereitung.<br />

Hub-and-Spoke Architecture<br />

Alle Daten unter einem Dach<br />

Unter einem Data Warehouse versteht<br />

man im Allgemeinen einen unternehmensweiten<br />

Datenbestand, aus dem<br />

entscheidungsrelevante Informationen<br />

schnell und gezielt bereitgestellt werden.<br />

Diese Daten werden üblicherweise als<br />

redundanter und verdichteter Extrakt<br />

aus den operativen und gegebenenfalls<br />

externen Datenbanken vorgehalten.<br />

Dabei werden die Daten nach festgelegten<br />

Regeln aktualisiert, oder aber für die<br />

Auswertung wird direkt auf die operativen<br />

Daten zugegriffen.<br />

Ein sehr wichtiger Aspekt in diesem<br />

Zusammenhang ist das Befüllen des<br />

Data Warehouses mit unternehmens-<br />

nach Maß<br />

weiten Daten, die normalerweise aus<br />

ganz unterschiedlichen Systemen kommen.<br />

Diese Daten müssen zuvor bereinigt,<br />

konsolidiert, aggregiert und geladen<br />

werden. Dies geschieht im Rahmen<br />

des Extraktions-, Transformationsund<br />

Lade-Prozesses (ETL). Der ETL-<br />

Prozess wird heute häufig mit Hilfe von<br />

ETL-Tools realisiert. Am Beispiel der<br />

Genio-Suite von Hummingbird werden<br />

die allgemeine Vorgehensweise sowie<br />

einige praktische Realisierungsaspekte<br />

erläutert.<br />

Genio-Architektur<br />

Das Hub-and-Spoke-Design stellt die<br />

Grundlage dieser Architektur dar. Der<br />

Datenfluss findet grundsätzlich nur zwischen<br />

Hub (Genio Information Broker)<br />

und Spokes (Datenquellen und -zielen)<br />

<strong>statt</strong>. Dieser Ansatz vermeidet ein<br />

„Schnittstellenchaos“ in einer heterogenen<br />

Umgebung und ermöglicht den Unternehmen<br />

die volle Kontrolle über den<br />

Datenfluss und die Abläufe. Der Genio<br />

Information Broker übernimmt die<br />

Hub-Funktion in einem Data Warehouse<br />

und besteht aus mehreren Komponenten,<br />

die speziell für die einzelnen<br />

Aufgabenbereiche konzipiert wurden.<br />

Transparenz und Flexibilität<br />

Üblicherweise kommen die Daten für ein<br />

Data Warehouse aus einer Vielzahl von<br />

Systemen. Es handelt sich um ERP-,<br />

CRM-, Mainframe oder speziell entwickelte<br />

Applikationen, die auf unterschiedlichen<br />

Hardware-Plattformen laufen<br />

und verschiedene Datenbanken verwenden.<br />

Darüber hinaus müssen auch<br />

die Daten integriert werden, die in Form<br />

von Text-, Excel- oder XML-Dateien<br />

vorliegen. Als Zielsystem fungiert<br />

normalerweise ein Data Warehouse oder

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!