05.08.2013 Aufrufe

Download (3398Kb)

Download (3398Kb)

Download (3398Kb)

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

OPTIMIERUNG DER MATERIALISIERTEN SICHTEN IN EINEM DATAWAREHOUSE AUF DER<br />

GRUNDLAGE DER AUS EINEM ERP-SYSTEM ÜBERNOMMEN OPERATIVEN DATEN<br />

Das Grundproblem der Bestimmung der zu materialisierenden Würfel (materialized<br />

cubes) unter Betrachtung der Menge der interessanten Würfeln (required cubes), welche<br />

die benötigte Information enthalten, ist also ein Optimierungsproblem. Im einfachsten<br />

Fall, in welchem keine Restriktionen hinsichtlich Ladezeit zum Aufbau des Data<br />

Warehouse oder Speicherplatz bestehen, würden grundsätzlich die interessanten Würfel<br />

und die zu materialisierenden Würfel identisch sein. Das heißt alle benötigten Würfel<br />

würden auch physisch materialisiert. Damit wäre auch für den Benutzer die minimale<br />

Zugriffszeit auf die Information garantiert. Es kann sogar sinnvoll sein noch zusätzliche<br />

Würfel zu materialisieren, da sie die Materialisierungszeit nachfolgender Würfel<br />

minimieren.<br />

In der Praxis ist jedoch festzustellen, dass sowohl hinsichtlich des Speicherplatzes -<br />

wobei dieses Problem von Tag zu Tag an Bedeutung verliert, da die Kosten für Speicher<br />

im Zeitablauf rapide sinken - aber im besonderen hinsichtlich der Ladezeit der Daten,<br />

welche für das Data Warehouse veranschlagt werden muss, Begrenzungen gelten.<br />

Durch die immer stärker werdende multinationale Unternehmensführung wird es immer<br />

schwieriger die Zeit für die Generierung und die Updates der Daten in einem Data<br />

Warehouse zu planen. Das eigentliche Problem ergibt sich daraus, dass während des<br />

Updates oder Neuaufbaus des Data Warehouses der Zugriff auf dieses nicht möglich ist.<br />

Wurden bei nationalen Unternehmen diese Updates einfach während der Nacht erledigt,<br />

kann dies beispielsweise von einer weltweit operierenden Fluglinie, welche die Daten<br />

immer an einem bestimmten Punkt der Welt gerade benötigt, nur sehr schwer erledigt<br />

werden. So bleiben für diese Unternehmen oft nur Zeitbereiche von wenigen Stunden<br />

pro Woche oder Tag, um ihre Daten auf den neusten Stand zu bringen.<br />

Aus diesem Grund besteht ein Optimierungsproblem, welches sich aus Konflikt der<br />

schnellstmöglichen Abfragezeit und der schnellstmöglichen Aktualisierungs- bzw.<br />

Aufbauzeit ergibt. Für diese Problem einen Lösungsansatz zu finden stellt den Kern<br />

meiner Forschungsarbeit dar.<br />

7.2 DIE VORGEHENSWEISE<br />

Um das Problem angreifbar, modellierbar und damit erforschbar zu machen gehe ich<br />

von einigen Annahmen aus. Diese sind:<br />

• Bei verteilten Datenbanken, welche sich auf unterschiedlichen Servern weltweit<br />

befinden, kann die Zeit für das Abfragen und Speichern eines Cubes von Würfel<br />

zu Würfel total unterschiedlich sein. Diese Information steht dem Benutzer und<br />

auch dem Planer eines Data Warehouses oft gar nicht zur Verfügung. Deshalb<br />

gehe ich von einer durchschnittlichen Zugriffszeit pro Transaktion aus. Diese ist<br />

durch den Benutzer für jedes Data Warehouse individuell festzustellen (z. B.<br />

- 91 -

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!