Big Data erfordert Big Data Management - Uniserv
Big Data erfordert Big Data Management - Uniserv
Big Data erfordert Big Data Management - Uniserv
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
INNOVATIVE 2012 12. Juli, Radisson Blu, Frankfurt<br />
MehrWert für CRM & Co. in Zeiten von <strong>Big</strong> <strong>Data</strong>.<br />
Experten-Interview<br />
Mit Dr. Carsten Bange, Dr. Wolfgang Martin, Holger Stelz<br />
<strong>Big</strong> <strong>Data</strong> – die explodierenden Datenmengen werden für immer mehr Unternehmen zu einer großen Herausforderung.<br />
Weltweit verdoppelt sich die Datenmenge alle 18 Monate. Unternehmen müssen lernen, mit dem wachsenden Datenvo-<br />
lumen sinnvoll umzugehen. Im Vorfeld der <strong>Uniserv</strong> Innovative – der Info-Veranstaltung am 12. Juli in Frankfurt am Main<br />
mit dem Motto „Better <strong>Data</strong>. Better Business. Mehrwert für CRM & Co. in Zeiten von <strong>Big</strong> <strong>Data</strong>“ – haben sich die Experten<br />
Dr. Carsten Bange, Dr. Wolfgang Martin, und Holger Stelz über diese Herausforderungen und die damit verbundenen<br />
Chancen und Trends unterhalten.<br />
<strong>Big</strong> <strong>Data</strong> ist momentan ein Schlagwort, an dem keiner<br />
mehr vorbei kommt. Massendatenverarbeitung gibt es<br />
aber schon länger. Was ist das Neue daran, was verbirgt<br />
sich heute hinter dem Begriff?<br />
Dr. Wolfgang Martin<br />
Das Thema ist in der Tat nicht neu und geht zurück bis in<br />
die 90er Jahre. Damals sprach man von data deluge – der<br />
Datenflut. Jetzt erlebt der Begriff ein Revival, zunächst einmal<br />
als ein hauptsächlich technologisches Thema, das sich<br />
peu à peu ganz vorsichtig in Richtung Business entwickelt.<br />
Dr. Carsten Bange<br />
Mittlerweile liegt das Hauptaugenmerk nicht nur auf den<br />
Tools. Bei <strong>Big</strong> <strong>Data</strong> geht es auch immer um Verfahren und<br />
Methoden für die hochskalierbare Sammlung und Analyse<br />
von Daten, die in verschiedenen, häufig nicht vorhersagbaren<br />
Strukturen vorliegen. Große Datenmengen und<br />
Anwenderzahlen müssen sehr schnell auswertbar sein –<br />
möglichst in Real-Time.<br />
Dr. Wolfgang Martin<br />
<strong>Big</strong> <strong>Data</strong> lässt sich mit den berühmten drei V beschreiben:
ExpErtENiNtErviEW<br />
Volume, Variety und Velocity. Das Volumen betrifft die<br />
riesige Datenmenge, die zu verarbeiten ist. Zur Veranschau-<br />
lichung: Allein in 2012 wird mit einem Datenplus von 2,5<br />
Zettabyte – das sind 2,5 Billionen GB – gerechnet. Variety<br />
steht für die Vielfalt und die Unterschiedlichkeit der Quel-<br />
len. Prominenteste Datenproduzenten sind momentan die<br />
sozialen Medien. Bedenken Sie<br />
die Massen, die allein 900 Millio-<br />
nen Facebook-Mitglieder täglich<br />
erzeugen. Aber auch das mobile<br />
Internet mit seinen Verbindungs-<br />
datensätzen und Lokalisierungs-<br />
daten sowie Ablesegeräte, Sen-<br />
soren und RFID-Chips sind nicht<br />
zu unterschätzende Datenliefe-<br />
ranten. Die dritte Komponente,<br />
Velocity, trägt der Anforderung<br />
Rechnung, all diese Daten jetzt<br />
und in Echtzeit analysieren zu<br />
müssen: Viele dieser Quellen<br />
sprudeln stetig und erzeugen<br />
fortwährend Datenströme.<br />
Dr. Carsten Bange<br />
Eine wesentliche Neuerung ist<br />
die integrierte Analyse polystrukturierter<br />
Daten. Das gab es<br />
so vorher nicht. Erst durch die<br />
vielen verschiedenen Datenpro-<br />
duzenten, wie sie Herr Dr. Martin nennt, ist diese Integration<br />
von strukturierten, semi- und unstrukturierten Daten<br />
zur Analyse notwendig geworden. Diese Art der Analyse<br />
wird zwar schon lang überlegt, aber jetzt gibt es auch immer<br />
mehr konkrete nutzenstiftende Anwendungsfälle in<br />
verschiedensten Branchen.<br />
vor welche Herausforderungen stellt <strong>Big</strong> <strong>Data</strong><br />
Unternehmen?<br />
Holger Stelz<br />
Die Bearbeitung gigantischer Datenmengen ist große Herausforderung<br />
und Chance zugleich. Entscheidend sind<br />
hierbei die passenden Strategien und Lösungen. Die größte<br />
Herausforderung ist es in meinen Augen, die Daten in eine<br />
Form zu bringen, die eine effektive Analyse zulässt und<br />
diese dann auch noch in einer annehmbaren Zeit durchführen<br />
zu können. Herkömmliche Verfahren sind dabei an ihre<br />
2<br />
Dr. Carsten Bange ist geschäftsführender<br />
Gesellschafter des Business Application<br />
Research Centers (BARC).<br />
Grenzen gestoßen: Bestehende Formen der Datenhaltung<br />
und Analyse versagen bei der geforderten Geschwindigkeit.<br />
Selbst Real-Time ist oft noch nicht genug. Mammutprojekte,<br />
wie beispielsweise die Koordination des weltweit<br />
modernsten Verkehrsleit- und Steuerungssystems in Tokyo,<br />
erfordern mittlerweile „echte“ Echtzeit.<br />
Dr. Wolfgang Martin<br />
Für mich ist die erste und zunächst<br />
einmal wichtigste Herausforderung<br />
zu verstehen,<br />
welche Potenziale und welchen<br />
Nutzen <strong>Big</strong> <strong>Data</strong> meinem Unternehmen<br />
bietet. Der Nutzen,<br />
der heute bei den <strong>Big</strong>-<strong>Data</strong>-Pionieren<br />
wie Amazon, eBay, Facebook<br />
und Google erreicht wird,<br />
betrifft vor allem die Bereiche<br />
Kundenorientierung, Customer<br />
Relationship <strong>Management</strong> und<br />
Customer Experience <strong>Management</strong>.<br />
Dr. Carsten Bange<br />
Auf Anwendungsseite werden<br />
analytische Applikationen eingesetzt<br />
oder geschaffen, welche<br />
die <strong>Big</strong> <strong>Data</strong> Datenwelten nutzbar<br />
machen. In vielen Unterneh-<br />
men wird inhaltlich daran gearbeitet, Kennzahlen für neue<br />
Analysebereiche zu entwickeln oder Prozesse einzuführen,<br />
die gewonnenen Erkenntnisse auch sinnvoll zu nutzen und<br />
in einen Wettbewerbsvorteil umzusetzen.<br />
Holger Stelz<br />
Gerade der Bereich Marketing kann im Moment stark davon<br />
profitieren, unstrukturierte Datenquellen jenseits der<br />
ERP- und CRM-Systeme – beispielsweise aus Facebook,<br />
Twitter, Blogs oder Foren – einzubeziehen und die Erkenntnisse<br />
daraus in Wettbewerbsvorteile zu verwandeln. <strong>Big</strong><br />
<strong>Data</strong> erlaubt dem Marketing, die 360-Grad-Kundensicht<br />
zu einer 360-Grad-Marktsicht zu erweitern. So ermöglicht<br />
<strong>Big</strong> <strong>Data</strong> verborgene Trends sichtbar zu machen und liefert<br />
Informationen darüber, was den Kunden bewegt und wie<br />
wir besser und zeitnaher auf Kundenwünsche eingehen<br />
können. Das ist ein spannender Punkt, der in der nächsten<br />
Zeit mit Sicherheit immer weiter ausgebaut werden wird.
Welche rolle spielt information governance vor dem Hin-<br />
tergrund von <strong>Big</strong> <strong>Data</strong> und welchen Nutzen haben Unter-<br />
nehmen davon?<br />
Dr. Wolfgang Martin<br />
Hier lässt sich ganz simpel sagen, dass mit der Menge der<br />
Unternehmensdaten – wenn ich also meine Unternehmens-<br />
daten um <strong>Big</strong> <strong>Data</strong> ergänze, anreichere oder auch nur <strong>Big</strong><br />
<strong>Data</strong> ins Unternehmen für Pilotierungen hole – Information<br />
Governance immer wichtiger wird. Einfach gesagt sind<br />
immer mehr und mehr Daten zu speichern, zu verwalten<br />
und zu managen.<br />
Holger Stelz<br />
Den Nutzen von Information Governance bestätigt auch<br />
das Ergebnis der Marktbefragung zu diesem Thema, die Dr.<br />
Martin zusammen mit <strong>Uniserv</strong> durchgeführt hat. Insgesamt<br />
gaben 52% der Befragten an, dass das Thema Information<br />
Governance große bis sehr große Bedeutung in ihrem<br />
Unternehmen habe, nur 6% schätzen die Bedeutung als<br />
gering oder sehr gering ein. Bei der Frage nach den Treibern<br />
von Information Governance stellten die Befragten<br />
Datenqualität, Steigerung der Prozess-Qualität, Erfüllung<br />
von Compliance-Anforderungen und Schaffen vertrauenswürdiger<br />
Daten auf die Spitzenplätze.<br />
Dr. Wolfgang Martin ist ein international anerkannter,<br />
unabhängiger Analyst und Experte.<br />
<strong>Big</strong> <strong>Data</strong> MaNagEMENt<br />
Dr. Carsten Bange<br />
Neben den üblichen Governance Aufgaben spielt es bei<br />
<strong>Big</strong> <strong>Data</strong> eine wesentliche Rolle, einen Überblick über die<br />
Systeme, Prozesse und Nutzer zu behalten. Dies wird tendenziell<br />
schwerer für Unternehmen, da die Heterogenität<br />
von Daten und Technologien wächst. <strong>Big</strong> <strong>Data</strong> <strong>erfordert</strong> an<br />
einigen Stellen ein Umdenken. Die gewohnte relationale<br />
Datenbank reicht für <strong>Big</strong> <strong>Data</strong> Anforderungen in der Regel<br />
nicht mehr aus, sodass technologisch auch der Einsatz von<br />
analytischen Datenbanken oder NoSQL Technologien sinnvoll<br />
sein kann. Skalierbarkeit und Parallelisierung von Prozessen<br />
muss von Anfang an für alle Systeme konzipiert sein.<br />
ist der Nutzen von information governance messbar?<br />
Dr. Wolfgang Martin<br />
Er lässt sich am besten indirekt über die Prozesskosten und<br />
-risiken, die entstehen, wenn Prozesse diese Daten verwenden,<br />
bewerten. Falsche, unvollständige und dubiose<br />
Daten schaffen monetär messbare Prozesszusatzkosten,<br />
beispielsweise durch Stornos und Retouren, und hebeln<br />
Compliance-Politiken und Grundsätze aus. Das kann teuer<br />
werden!<br />
Welche technologien und plattformen sind für <strong>Big</strong> <strong>Data</strong><br />
und information governance unabdingbar?<br />
Holger Stelz<br />
Eine Information Governance setzt im Information <strong>Management</strong><br />
an. Die Information-<strong>Management</strong>-Plattform sollte<br />
dabei universelle Unterstützung leisten, so wie sie beispielsweise<br />
der <strong>Data</strong> Quality Service Hub von <strong>Uniserv</strong> bietet. Die<br />
Bearbeitung der Daten nach dem Extract-Transform-Load-<br />
Prinzip (ETL) gibt den Anwendern die Kontrolle über die<br />
Daten und Inhalte aus heterogenen Quellen zurück: Die<br />
Plattform muss in der Lage sein, polystrukturierte Daten<br />
und Informationen unterschiedlicher Quellen zu extrahieren,<br />
zu transformieren und in unterschiedlichste Zielsysteme<br />
zu laden. Zudem muss die notwendige Datenqualität in<br />
den operativen oder analytischen Business-Applikationen<br />
sichergestellt sein. So sind <strong>Data</strong> Quality und <strong>Data</strong> <strong>Management</strong><br />
eng miteinander verzahnt und erst richtig effektiv.<br />
Dr. Carsten Bange<br />
So sehe ich das auch. Den Datenmanagement-Werkzeugen<br />
fällt eine besondere Bedeutung zu. Sie dienen als Integrationspunkt<br />
zwischen verschiedenen Systemen, die Daten<br />
3
ExpErtENiNtErviEW<br />
speichern und auswerten und bilden so häufig die Klammer<br />
um die verschiedenen Daten-Welten.<br />
Dr. Wolfgang Martin:<br />
Eine <strong>Big</strong>-<strong>Data</strong>-Architektur lehnt sich an traditionelle Architekturen<br />
an. Die unterste Schicht ist die der Datenhaltung.<br />
Hier brauchen wir jetzt alternative, hoch-performante<br />
Technologien zur Datenhaltung, die die relationalen Technologien<br />
ergänzen. Auf der Datenhaltungsschicht sitzt<br />
Information <strong>Management</strong>, das zunächst einmal die traditionellen<br />
Komponenten wie Integrationsplattform, Repository<br />
und <strong>Data</strong> Quality <strong>Management</strong> enthält, dann aber<br />
auch neue wie Quellenidentifikation mittels Suchmaschinen<br />
und Extraktionswerkzeuge, die auch ohne APIs Daten extrahieren<br />
können. Hier werden verstärkt In-Memory und<br />
Parallelverarbeitung Einzug halten. Schließlich folgt die<br />
Analytik-Schicht, wo jetzt <strong>Data</strong> Discovery eine große Rolle<br />
spielt. Wichtig ist auch neben <strong>Data</strong> und Text Mining die Textanalytik,<br />
die sich insbesondere mittels linguistischer Verfahren<br />
gut für die Analyse unstrukturierter Daten eignet.<br />
Weiterhin spielen in der Analytik jetzt auch Suchmaschinen<br />
eine bedeutende Rolle. Dazu kommen noch Anreicherungsverfahren<br />
wie Geocoding, um all die Lokalisierungsdaten<br />
aus dem mobilen Internet auch gewinnbringend in Analysen<br />
und Prozessen nutzen zu können.<br />
4<br />
Holger Stelz, Director Business Development<br />
& Marketing, UNISERV GmbH.<br />
Datenqualität & Datenintegration trifft <strong>Big</strong> <strong>Data</strong>. Wie be-<br />
einflusst die Datenqualität <strong>Big</strong>-<strong>Data</strong>-<strong>Management</strong>?<br />
Holger Stelz<br />
Das Paradigma „der Prozess bestimmt die Datenqualität“<br />
ändert sich auch bei <strong>Big</strong> <strong>Data</strong> nicht. Datenqualität ist auch<br />
bei <strong>Big</strong> <strong>Data</strong> von enormer Bedeutung. Vor allem dann,<br />
wenn – wie schon von mir angesprochen – Unternehmens-<br />
daten mit Informationen aus <strong>Big</strong> <strong>Data</strong> angereichert wer-<br />
den. Wenn also beispielsweise Kundendaten durch Daten<br />
aus den sozialen Medien ergänzt werden sollen, zum Beispiel<br />
bei den benutzerangepassten Suchergebnissen einer<br />
Google-Suche. Eine hohe Datenqualität muss bereits vor<br />
der Datenanalyse gewährleistet sein – am besten schon<br />
bei der Dateneingabe beziehungsweise Datenerhebung.<br />
Denn erst eine einheitliche, qualitativ hochwertige Datenbasis<br />
versetzt die Anwender in die Lage, Daten schnell zu<br />
analysieren und so beispielsweise rechtzeitig auf Markttendenzen<br />
zu reagieren. Die Grundaufgaben von <strong>Data</strong><br />
<strong>Management</strong> in Bezug auf <strong>Big</strong> <strong>Data</strong> bleiben dabei die<br />
gleichen: Profiling, Cleansing sowie Anreichern und Abgleichen<br />
mit Referenzdaten. Aber auch hier steigt im Bereich<br />
<strong>Big</strong> <strong>Data</strong> die Bedeutung von Datenqualität: Das Schaffen<br />
des Single Point of Truth ist beim gegebenen Datenvolumen<br />
schwieriger geworden und auch die Anforderungen<br />
an die Performance der Datenqualitätslösungen sind stark<br />
angewachsen.<br />
Dr. Wolfgang Martin<br />
In der Vergangenheit hatten wir uns stets bemüht, den Single<br />
Point of Truth herzustellen und zu bewahren. Das wird<br />
nicht mehr so wie bisher, also deterministisch, im <strong>Big</strong> <strong>Data</strong><br />
machbar sein, da eine Konsistenz über alle Datenquellen<br />
in der Regel nicht mehr erreichbar sein wird. Daher wird<br />
der Single Point of Truth eher mit wahrscheinlichkeitstheoretischen<br />
Ansätzen formuliert und definiert werden<br />
müssen. Mit diesen Überlegungen stehen wir aber noch<br />
ganz am Anfang.<br />
Holger Stelz<br />
Um auch mit <strong>Big</strong> <strong>Data</strong> im Unternehmen den Single Point of<br />
Truth anzustreben, müssen neben der Performance auch<br />
die Service-Orientierung der Werkzeuge, die Services selbst<br />
und die Plattformen stimmen. Denkbar ist hier zum Beispiel<br />
der Einsatz von hybriden Cloud-Lösungen, bei denen<br />
bestimmte Services in der Cloud zur Verfügung stehen und<br />
andere wiederum on demand abgerufen werden können.
Welche Bedeutung wird in-Memory für die Zukunft der<br />
Datenverarbeitung haben?<br />
Dr. Carsten Bange<br />
Verarbeitung und Speicherung im Hauptspeicher war schon<br />
immer ein Grundkonzept der Datenverarbeitung. Dank je-<br />
her exponentiell wachsender Kapazitäten sind wir nun in<br />
der Lage, auch ganze Datenbanken bis zu einer gewissen<br />
Größe im Hauptspeicher vorzuhalten.<br />
Dr. Wolfgang Martin<br />
Technisch gesehen bedeutet In-Memory mehr als nur Da-<br />
tenbanktechnologie, denn In-Memory kann als Infrastruk-<br />
<strong>Big</strong> <strong>Data</strong> MaNagEMENt<br />
tur in den Integrations-, Entwicklungs-, Prozess- und an-<br />
deren Plattformen eingesetzt werden und hier noch viele<br />
Wege zur Innovation aufzeigen. Wir können Kosten ein-<br />
sparen, Time-to-Market steigern - es geht eben schneller<br />
- oder Wettbewerbskraft erhöhen.<br />
Holger Stelz<br />
Wir können beobachten, wie sich die Tools an die Anforde-<br />
rungen des Marktes anpassen. Der Erfolg von Toolanbie-<br />
tern in diesem Bereich wird dadurch entschieden werden,<br />
ob deren Produkte In-Memory-fähig sind. An dieser Technologie<br />
wird keiner mehr vorbeikommen.<br />
abbildung: <strong>Big</strong> <strong>Data</strong> bedeutet nicht nur Datenflut, sondern auch unterschiedlichste Quellen im Internet, die es in (Nahezu-)<br />
Echtzeit zu nutzen gilt. Daher ist neben analytischen Datenbanken und NoSQL-Systemen ein <strong>Big</strong> <strong>Data</strong> <strong>Management</strong><br />
entscheidend, um mittels Analytik Hypothesen ableiten und testen zu können. <strong>Big</strong> <strong>Data</strong> <strong>Management</strong> braucht jetzt<br />
neue Methoden, wie semantische Suchmaschinen zur Quellenidentifikation, Flat-File- und Hadoop-Verarbeitung bei der<br />
Quellenextraktion sowie eine Service-Orientierung, damit <strong>Big</strong> <strong>Data</strong> Quality bei den Stammdaten durch Echtzeit-Services<br />
erreicht werden kann.<br />
5
ExpErtENiNtErviEW<br />
Dr. Carsten Bange<br />
Durch die signifikant beschleunigten Anwendungen, wer-<br />
den in einigen Bereichen auch ganz neue Möglichkeiten<br />
der Verarbeitung und Analyse von Daten geschaffen.<br />
Dr. Wolfgang Martin<br />
Ja, jetzt können wir Dinge realisieren, die bisher nicht<br />
machbar waren. Beispielsweise im Handel eine Produkt-<br />
profitabilität pro Kunde berechnen und diese in Echtzeit<br />
zu Empfehlungen in Kundeninteraktionen nutzen. Auch<br />
ich bin mir sicher: Auf In-Memory wird man nicht mehr<br />
verzichten wollen.<br />
Was kommt nach <strong>Big</strong> <strong>Data</strong>? Wo wird ihrer Meinung nach<br />
die reise hingehen?<br />
Dr. Wolfgang Martin<br />
<strong>Big</strong> <strong>Data</strong> wird uns die nächsten Jahre als Thema begleiten.<br />
Wir werden dabei noch viele neue Technologien und Inno-<br />
vationen in den Unternehmen sehen. Mit <strong>Big</strong> <strong>Data</strong> gehen<br />
wir den nächsten Schritt in Richtung Informationsgesell-<br />
schaft und Digitalisierung der Welt. Als parallele Heraus-<br />
forderung sehe ich den fairen Umgang mit persönlicher<br />
Information im <strong>Big</strong> <strong>Data</strong>, Datenschutz, Urheberschutz und<br />
alle verwandten Themen.<br />
<strong>Big</strong> <strong>Data</strong> MaNagEMENt<br />
Dr. Carsten Bange<br />
Während die <strong>Big</strong>-<strong>Data</strong>-Diskussion momentan noch sehr<br />
technisch geführt wird, stehen die neuen Anwendungs-<br />
fälle und Möglichkeiten der Unternehmenssteuerung und<br />
-planung immer stärker im Fokus der Überlegung. Der<br />
Weg zu datengetriebenen Unternehmen erfolgt auf Basis<br />
einer Datenmanagement-Infrastruktur mit noch nie dage-<br />
wesener Leistungsfähigkeit und auf mobilen Endgeräten,<br />
welche die Zusammenarbeit von Menschen in operativen<br />
und dispositiven Aufgaben integriert unterstützen.<br />
Holger Stelz<br />
Zukünftige Technologien und die neuen Anforderungen<br />
an ein <strong>Big</strong> <strong>Data</strong> <strong>Management</strong> werden auf jeden Fall den<br />
Umgang mit Daten und damit auch die Art und Weise<br />
der Informationsnutzung in Unternehmen signifikant än-<br />
dern. Wie Unternehmen diesen Wandel in der Datenwelt<br />
für sich nutzen können und wie die neuen Technologien<br />
zum Unternehmenserfolg beitragen können, ist übrigens<br />
auch Thema der diesjährigen <strong>Uniserv</strong> Innovative am 12.07.<br />
in Frankfurt am Main. Dort werden wir uns nicht nur mit<br />
anerkannten Experten über die zukünftigen Trends und<br />
Möglichkeiten austauschen, es werden auch an Hand von<br />
Best-Practice-Beiträgen individuelle Markterfahrungen<br />
diskutiert. Alle Interessenten sind herzlich ins Frankfurter<br />
Radisson Blu zu diesem <strong>Uniserv</strong>-Infotag eingeladen.<br />
UNISERV GmbH<br />
Rastatter Str. 13, 75179 Pforzheim, Deutschland<br />
T: +49 7231 936 - 0, F: +49 7231 936 - 3002<br />
E: info@uniserv.com, www.uniserv.com<br />
© UNISERV GmbH, Pforzheim, All rights reserved