23.11.2012 Aufrufe

Der Weg zum Echtzeit- Data-Warehouse - Midrange Magazin

Der Weg zum Echtzeit- Data-Warehouse - Midrange Magazin

Der Weg zum Echtzeit- Data-Warehouse - Midrange Magazin

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Technik & Integration<br />

Anwendern dafür nachts einige Stunden<br />

zur Verfügung stehen und das <strong>Data</strong><br />

<strong>Warehouse</strong> offline ist. Ganz anders sieht<br />

es allerdings aus, wenn diese Vorgänge<br />

auch während der Arbeitszeit stattfinden<br />

sollen. Zur Lösung dieses Problems<br />

gibt es zwei technologische Ansätze, die<br />

praktikabel sind, sich jedoch in punkto<br />

Aktualität der Daten unterscheiden –<br />

dem eigentlichen Knackpunkt bei geschäftskritischen<br />

Anwendungen.<br />

Replizieren – aber wann?<br />

Bei der ersten Methode setzen Anwender<br />

zwar herkömmliche ETL-Tools ein,<br />

schrauben aber die Frequenz von wöchentlich<br />

oder täglich auf mehrmals täglich,<br />

beispielsweise auf stündlich hoch.<br />

Wenn sich dabei die Quelldaten extrahieren<br />

lassen, ohne Geschäftsprozesse<br />

zu stören, können diese anschließend<br />

dann wie gewohnt transformiert werden.<br />

<strong>Der</strong> Ladevorgang in ein <strong>Data</strong> <strong>Warehouse</strong><br />

gestaltet sich allerdings ein wenig<br />

problematisch, wenn sich das System für<br />

diesen Vorgang aus Geschäftsgründen<br />

nicht offline schalten lässt. Die Lösung<br />

dafür besteht nun darin, die neuen Daten<br />

in temporäre Tabellen zu laden, die<br />

von der Struktur her identisch sind mit<br />

denen der Quelldaten. Sobald der Ladevorgang<br />

abgeschlossen ist, tauscht das<br />

ETL-Tool die jeweils vorangegangenen<br />

Tabellen gegen die nunmehr aktuellen<br />

Tabellen auch tagsüber aus. Das <strong>Data</strong><br />

<strong>Warehouse</strong> befindet sich dann augenblicklich<br />

wieder auf dem neuesten<br />

Stand.<br />

<strong>Echtzeit</strong> ist nicht immer<br />

gleich <strong>Echtzeit</strong><br />

Diese Methode, bei der annähernd ein<br />

<strong>Echtzeit</strong>-Zugang besteht, lässt sich mit<br />

fast jedem bereits bestehenden <strong>Data</strong><br />

<strong>Warehouse</strong> einsetzen. Ein weiterer Vorteil<br />

ist dabei, dass herkömmliche ETL-<br />

Tools und Techniken verwendet werden<br />

können, um Daten stündlich oder<br />

<strong>zum</strong>indest mehrmals täglich zu aktualisieren.<br />

Wenn Anwender jedoch zu jedem<br />

Zeitpunkt auf tatsächliche <strong>Echtzeit</strong>-Daten<br />

in einem <strong>Data</strong> <strong>Warehouse</strong> angewiesen<br />

sind, müssen die Quelldaten<br />

permanent darin einfließen. Diese Ladefähigkeit<br />

liegt allerdings außerhalb der<br />

<strong>Der</strong> <strong>Weg</strong> <strong>zum</strong> <strong>Echtzeit</strong>-<strong>Data</strong>-<strong>Warehouse</strong><br />

Möglichkeiten traditioneller, Batch-orientierter<br />

CTF-Tools (Capture, Transform<br />

and Flow).<br />

Hier kommt die zweite Methode ins<br />

Spiel: Die neue Generation von CTF-<br />

Programmen, die bereits auf dem Markt<br />

erhältlich sind, umgeht diese Problematik.<br />

Diese neuen Tools, zu denen<br />

beispielsweise der Transformation Server<br />

von <strong>Data</strong>Mirror gehört, legen<br />

gewissermaßen eine direkte „Daten-<br />

Pipeline“ zwischen dem Quellsystem<br />

und dem <strong>Data</strong> <strong>Warehouse</strong> an und ermöglichen<br />

so einen echten Real-Time-<br />

Datenaustausch.<br />

Direkte Peer-to-Peer-Integration<br />

Die Peer-to-Peer-Architektur, die idealerweise<br />

in einem TCP/IP-Netz eingebunden<br />

sein sollte, sichert die direkte<br />

Datenbank-Kommunikation. Dadurch<br />

ist weder eine Zwischenspeicherung von<br />

Daten noch eine spezielle Gateway-<br />

Technologie erforderlich. Darüber hinaus<br />

gewährleistet sie einen optimalen<br />

und hocheffizienten Informationsaustausch<br />

zwischen Publish- und Subscribe-<br />

Systemen, also zwischen Quell- und<br />

Zieldatenbanken. In Folge davon wird<br />

die Informationsweitergabe an die Mitarbeiter<br />

maximiert.<br />

Die permanente Synchronisation garantiert<br />

immer aktuelle Daten: Die für einen<br />

reibungslosen Geschäftsablauf nötigen<br />

Informationen stehen somit tatsächlich<br />

in <strong>Echtzeit</strong> zur Verfügung. Im Vergleich<br />

zu Lösungen, die eine kostenintensive<br />

Neuprogrammierung erforderlich machen,<br />

bietet ein CTF-Tool wie der Transformation<br />

Server eine leistungsfähige Integrationsmethode<br />

auf Datenebene, die<br />

sich einfach und reibungslos implementieren<br />

und in fast jeder Systemumgebung<br />

anwenden lässt. Um Zeit und Kosten zu<br />

sparen, werden bei diesem permanenten<br />

Datenabgleich nur die Änderungen –<br />

das sogenannte Delta – erfasst und in<br />

das Subscriber-System übertragen. Die<br />

Netzwerkbelastung beläuft sich deshalb<br />

auf ein Minimum. So bleibt<br />

beispielsweise ein <strong>Data</strong> <strong>Warehouse</strong> stets<br />

auf dem neuesten Stand, und das bei einer<br />

Senkung des Leitungsverkehrs um<br />

bis zu 99 Prozent.<br />

52 www.midrangemagazin.de Juli 2002<br />

<strong>Der</strong> Vorteil der <strong>Echtzeit</strong>-Datenintegration<br />

besteht darin, wesentlich schneller<br />

Entscheidungen treffen zu können, den<br />

Kundenservice auffallend zu verbessern<br />

und dadurch eine bemerkenswerte Ertragssteigerung<br />

zu erzielen. Deshalb tun<br />

viele Unternehmen gut daran, relevante<br />

Daten in echter Real-Time-Technologie<br />

vorzuhalten. Professionelle CTF-Tools<br />

synchronisieren dabei Daten in heterogenen<br />

Netzwerken über unterschiedliche<br />

Datenbanken hinweg. Sie selektieren<br />

Daten und transformieren sie in die<br />

benötigte Form, garantieren stets die<br />

aktuelle Konsistenz der Information<br />

und eröffnen Möglichkeiten für die globale<br />

Anwendungsintegration.<br />

Vorteile der Datenintegration mittels<br />

professioneller CTF-Tools auf einen<br />

Blick:<br />

– Out-of-the-Box-Integrationslösung,<br />

die keinerlei zusätzliche Programmierung<br />

erfordert<br />

– Informationsaustausch in <strong>Echtzeit</strong>,<br />

auch über Unternehmensgrenzen hinweg<br />

– Flexibilität und Anpassungsfähigkeit<br />

an praktisch jede Netzwerkumgebung<br />

– Schnelle Implementierung und niedrige<br />

Wartungskosten zur Maximierung<br />

des ROI<br />

– Steigerung der operativen Effizienz<br />

und Optimierung der Organisationsabläufe<br />

– Erhöhung des Informationsflusses<br />

zur Verbesserung der Serviceleistungen<br />

– Enorme Ertragserhöhung und Senkung<br />

der Unternehmenskosten<br />

<strong>Der</strong> Autor Manfred Sielhorst ist<br />

Technical Services Manager bei<br />

<strong>Data</strong>Mirror in Darmstadt.<br />

<strong>Data</strong>Mirror GmbH & Co. KG<br />

D-64295 Darmstadt<br />

� (+49) 06151/8275-100<br />

� www.datamirror.com

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!