18.03.2015 Aufrufe

Optimierung der Datenqualität im Unternehmen - we.CONECT

Optimierung der Datenqualität im Unternehmen - we.CONECT

Optimierung der Datenqualität im Unternehmen - we.CONECT

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Datenqualität effektiv nutzen<br />

Qualitätssicherung bei externen Daten<br />

Datenqualität wird meist <strong>im</strong> Hinblick auf Informationen in Backend-Datenbanken und sonstigen<br />

internen Datenquellen diskutiert. Viele Daten kommen jedoch von außen. Sie stammen aus<br />

An<strong>we</strong>ndungen von Lieferanten, Distributoren und an<strong>der</strong>en Partnern, <strong>we</strong>rden von Websites<br />

abgerufen o<strong>der</strong> kommen von Kunden in diversen unstrukturierten Formaten.<br />

Dennoch wird dieser Umstand von <strong>we</strong>nigen Datenqualitätsinitiativen berücksichtigt, was den<br />

Erfolg solcher Initiativen durch große Lücken und risikobehaftete Umgebungen ersch<strong>we</strong>rt. Da<br />

schon ein einzelner Datensatz jede Menge an<strong>der</strong>e Systeme kontaminieren kann, sind solche<br />

externen Quellen ein erhebliches Risiko.<br />

Deshalb ist es so wichtig, bewährte Qualitätsmanagement-Techniken wie Scoringsysteme,<br />

Bereinigung, Abgleich und Zusammenführung für alle Datenquellen einzusetzen. Die Einführung<br />

einer Datenqualitätspolitik ausschließlich für interne Systeme schützt nur einen Teil <strong>der</strong> kritischen<br />

Daten und schränkt die Effektivität einer solchen Initiative stark ein.<br />

Warum es auf die Qualität bei Echtzeitdaten ankommt<br />

Die Ermittlung und Korrektur fehlerhafter Daten nach dem Eintritt in das System ist wichtig, aber<br />

das Management <strong>der</strong> Datenqualität in Echtzeit bringt erheblich größere Effekte. Der SiriusDesigns-<br />

Report stellt die „1-10-100-Regel“ vor, die den Nutzen proaktiven Handelns bei <strong>der</strong> Datenqualität<br />

veranschaulicht. Diese Regel besagt, dass es einen Dollar kostet, einen Datensatz zu überprüfen,<br />

zehn Dollar, ihn nach <strong>der</strong> Erfassung zu berichtigen und zu deduplizieren und hun<strong>der</strong>t Dollar an<br />

potenziellen Produktivitätsverlusten o<strong>der</strong> Umsätzen, <strong>we</strong>nn gar nichts unternommen wird.5<br />

Nehmen wir noch einmal das Beispiel des Flusses. Es ist <strong>we</strong>niger aufwändig, das verschmutzte<br />

Wasser an <strong>der</strong> Quelle aufzufangen, als ein großes Gewässer nach erfolgter Verschmutzung zu<br />

reinigen.<br />

Gleiches gilt für <strong>Unternehmen</strong>sdaten. Die Bereinigung von Daten, die über mehrere Quellen<br />

verteilt sind, verursacht <strong>we</strong>it mehr Aufwand als das Berichtigen eines fehlerhaften Datensatzes,<br />

bevor dieser in eine Datenbank gelangt.<br />

5 “The Impact of Bad Data on Demand Creation,” Sirius Decisions, 2008.<br />

9<br />

Information Buil<strong>der</strong>s

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!