w26M2
w26M2
w26M2
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Big-Data-Technologien – Wissen für Entscheider<br />
Master Data Management<br />
Master Data Management ist ein Konzept, um die Datenqualität<br />
der Geschäftsobjekte 149 eines Unternehmens kontinuierlich<br />
auf einem hoen Stand zu halten. Der Einsatz<br />
von Master Data Management ist auch im Rahmen von<br />
Big-Data-Lösungen vorteilhaft. So reicht es z. B. nicht mehr<br />
aus, Kundendaten nur aus eigenen Unternehmensanwendungen<br />
zu konsolidieren. Vielmehr sind auch verfügbare<br />
Daten von Geschäftspartnern oder aus sozialen Netzwerken<br />
einzubeziehen. Ein Multikanal-Vertrieb ist hierfür ein<br />
illustratives Anwendungsbeispiel: Er muss Millionen von<br />
Kunden-Masterobjekten mit anderen Informationen verknüpfen<br />
bzw. anreichern; dazu gehören z. B. die Kundenhistorien<br />
aus CRM-Anwendungen, die Nutzungsprofile<br />
aus Web-Logs oder die Kundenprofile aus LinkedIn.<br />
4.6.3 Veränderungen in der Data<br />
Governance bei Big Data<br />
Im Rahmen von Big Data ändern sich einige der klassischen<br />
Regeln und Prinzipen im Bereich der Data Governance<br />
(vgl. Tabelle 12). Aufgrund der großen Datenmengen<br />
ist es oftmals nicht mehr betriebswirtschaftlich<br />
sinnvoll, bestmögliche Datenqualität zu gewährleisten<br />
und exakte Ergebnise aus den Datenanalysen zu erhalten.<br />
Oft wird eine gewisse Unschärfe in Kauf genommen und<br />
ist für die jeweilige Fragestellung auch absolut vertretbar,<br />
geht es doch nicht um Finanzbuchhaltung, sondern z. B.<br />
Stimmungsanalysen von Kundenmeinungen, Lokalisierung<br />
von Ereignissen oder Wahrscheinlichkeiten von<br />
Vorhersagen. Ob nun 26-28% der Kunden die Farbe eines<br />
neuen Produkts mögen oder ob es genau 27,87% sind,<br />
macht keinen wirklichen Unterschied. Während im klassischen<br />
BI 2+2 immer 4 ergibt (und das Ergebnis ansonsten<br />
falsch), ist ein Ergebnis von ~3.8 in vielen Fällen von Big<br />
Data vertretbar.<br />
Traditionelle Data Governance<br />
Maximale Datenqualität<br />
Konkrete Antworten<br />
Fest Definierte Fragen<br />
Proprietäre Daten<br />
Daten-Silos<br />
Silo-Zugangs-Kontrolle<br />
Strukturierte Daten<br />
Persistente Daten<br />
ETL-Prozesse<br />
Relationale Datenmodelle<br />
Big Data Governance<br />
ÎÎ<br />
Vertretbare Datenqualität<br />
ÎÎ<br />
Wahrscheinlichkeiten<br />
ÎÎ<br />
Explorative Analyse<br />
ÎÎ<br />
Öffentliche/Web Daten<br />
ÎÎ<br />
Daten-See<br />
ÎÎ<br />
Granulare Zugangs-Kontrolle<br />
ÎÎ<br />
Unstrukturierte Daten<br />
ÎÎ<br />
Datenströme<br />
ÎÎ<br />
ELT-Prozesse<br />
ÎÎ<br />
Schemafreie Datenmodelle<br />
Tabelle 12: Neue Aspekte von Data Governance in Big-Data-Szenarien<br />
149<br />
z. B. Kunde, Produkte, Lieferanten<br />
99