Dokument 1 - RWTH Aachen University
Dokument 1 - RWTH Aachen University
Dokument 1 - RWTH Aachen University
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
84 5 Datenqualität in Data-Warehouse-Systemen<br />
2002]. Eine Studie der Universität St. Gallen stellt zwei Beispiele des „erweiterten“ Datenqualitätsmanagements<br />
in Unternehmen vor [Helfert et al., 2001]. Die Firma SwissRe setzt neben der<br />
Datenbereinigung auch auf erweiterte Metadaten. Benutzer können Datenqualitätsanmerkungen<br />
in den Metadaten ablegen, die dann auch auf weitere Aggregationen oder Transformationen einer<br />
Relation zutreffen. Andere Benutzer können dann anhand dieser Anmerkungen die Datenqualität<br />
eines Anfrageergebnisses abschätzen, wodurch bei den Anwendern gleichzeitig ein größeres<br />
Bewusstsein für Datenqualität geschaffen wird.<br />
Das Unternehmen Credit Suisse verfolgt ebenfalls einen auf Metadaten basierenden Ansatz. Anhand<br />
der Ergebnisse des ETL-Prozesses kann bestimmt werden, wie aktuell die Daten im DW<br />
sind. Wenn zum Beipsiel alle Ladevorgänge erfolgreich beendet wurden, sind im DW aktuelle<br />
Daten vorhanden (vorausgesetzt, die Datenquellen haben aktuelle Daten geliefert). Bei Fehlern<br />
ist hingegen die Aktualität der Daten beeinträchtigt.<br />
In beiden Beispielen ist jedoch die Quantifizierbarkeit der Qualitätskriterien ein Hauptproblem.<br />
Detaillierte Aussagen über die Datenqualität können nur von Experten vorgenommen werden.<br />
Dies wurde auch im Rahmen eines Workshops mit Industriepartnern im Rahmen des DWQ-<br />
Projekts deutlich. Den meisten Firmen war zwar das Problem der Datenqualität bewusst, jedoch<br />
wussten die Firmen nicht, wie Datenqualität zu messen ist und welche Schritte konkret zur Verbesserung<br />
der Datenqualität notwendig sind.<br />
5.1.4 Vergleichbare Forschungsansätze zum Datenqualitätsmanagement<br />
Bei der Klärung des Begriffs „Datenqualität“ wurden bereits verschiedene Arbeiten in diesem<br />
Bereich vorgestellt. Die Definition der Datenqualität bildet auch für diese Arbeiten nur eine<br />
Grundlage für Systeme bzw. Modelle zur Verwaltung und Verbesserung von Datenqualität. In<br />
den folgenden Abschnitten werden daher diese Ansätze kurz vorgetellt.<br />
Total Data Quality Management (TDQM)<br />
Das Projekt „Total Data Quality Management“ [TDQM Project, 2002] des MIT in Boston erforscht<br />
die Grundlagen der Datenqualität. Neben den schon in Kapitel 2 erwähnten Studien zur<br />
Definition des Datenqualitätsbegriffs und zur Identifizierung relevanter Qualitätsdimensionen beschäftigt<br />
sich das TDQM-Projekt auch mit Prozessmodellen zur Analyse und Verbesserung der<br />
Datenqualität. Ein zentraler Punkt bei den Arbeiten im TDQM-Projekt ist die Analogie zum Qualitätsmanagement<br />
in traditionellen Produktionsprozessen. Ergebnisse aus dem Bereich des Total<br />
Quality Management (TQM) in Produktionssystemen wurden auf Informationssysteme übertragen.<br />
Ein zentraler Punkt von TQM ist der Deming-Zyklus oder auch PDCA-Cycle (Plan-Do-Check-<br />
Act) [Deming, 1986]. Ziel des TQM-Ansatzes ist die Optimierung von Handlungsabläufen im<br />
Unternehmen, so dass eine schlechte Qualität im Vorfeld verhindert werden kann. Zur Erreichung<br />
dieses Zieles gehört nicht nur die Anwendung statistischer Kontrollverfahren, sondern auch eine<br />
Mitarbeiter-Motivation und die Verbesserung der innerbetrieblichen Kommunikationsstrukturen.