28.03.2013 Aufrufe

Big Data erfordert Big Data Management - Uniserv

Big Data erfordert Big Data Management - Uniserv

Big Data erfordert Big Data Management - Uniserv

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

INNOVATIVE 2012 12. Juli, Radisson Blu, Frankfurt<br />

MehrWert für CRM & Co. in Zeiten von <strong>Big</strong> <strong>Data</strong>.<br />

Experten-Interview<br />

Mit Dr. Carsten Bange, Dr. Wolfgang Martin, Holger Stelz<br />

<strong>Big</strong> <strong>Data</strong> – die explodierenden Datenmengen werden für immer mehr Unternehmen zu einer großen Herausforderung.<br />

Weltweit verdoppelt sich die Datenmenge alle 18 Monate. Unternehmen müssen lernen, mit dem wachsenden Datenvo-<br />

lumen sinnvoll umzugehen. Im Vorfeld der <strong>Uniserv</strong> Innovative – der Info-Veranstaltung am 12. Juli in Frankfurt am Main<br />

mit dem Motto „Better <strong>Data</strong>. Better Business. Mehrwert für CRM & Co. in Zeiten von <strong>Big</strong> <strong>Data</strong>“ – haben sich die Experten<br />

Dr. Carsten Bange, Dr. Wolfgang Martin, und Holger Stelz über diese Herausforderungen und die damit verbundenen<br />

Chancen und Trends unterhalten.<br />

<strong>Big</strong> <strong>Data</strong> ist momentan ein Schlagwort, an dem keiner<br />

mehr vorbei kommt. Massendatenverarbeitung gibt es<br />

aber schon länger. Was ist das Neue daran, was verbirgt<br />

sich heute hinter dem Begriff?<br />

Dr. Wolfgang Martin<br />

Das Thema ist in der Tat nicht neu und geht zurück bis in<br />

die 90er Jahre. Damals sprach man von data deluge – der<br />

Datenflut. Jetzt erlebt der Begriff ein Revival, zunächst einmal<br />

als ein hauptsächlich technologisches Thema, das sich<br />

peu à peu ganz vorsichtig in Richtung Business entwickelt.<br />

Dr. Carsten Bange<br />

Mittlerweile liegt das Hauptaugenmerk nicht nur auf den<br />

Tools. Bei <strong>Big</strong> <strong>Data</strong> geht es auch immer um Verfahren und<br />

Methoden für die hochskalierbare Sammlung und Analyse<br />

von Daten, die in verschiedenen, häufig nicht vorhersagbaren<br />

Strukturen vorliegen. Große Datenmengen und<br />

Anwenderzahlen müssen sehr schnell auswertbar sein –<br />

möglichst in Real-Time.<br />

Dr. Wolfgang Martin<br />

<strong>Big</strong> <strong>Data</strong> lässt sich mit den berühmten drei V beschreiben:


ExpErtENiNtErviEW<br />

Volume, Variety und Velocity. Das Volumen betrifft die<br />

riesige Datenmenge, die zu verarbeiten ist. Zur Veranschau-<br />

lichung: Allein in 2012 wird mit einem Datenplus von 2,5<br />

Zettabyte – das sind 2,5 Billionen GB – gerechnet. Variety<br />

steht für die Vielfalt und die Unterschiedlichkeit der Quel-<br />

len. Prominenteste Datenproduzenten sind momentan die<br />

sozialen Medien. Bedenken Sie<br />

die Massen, die allein 900 Millio-<br />

nen Facebook-Mitglieder täglich<br />

erzeugen. Aber auch das mobile<br />

Internet mit seinen Verbindungs-<br />

datensätzen und Lokalisierungs-<br />

daten sowie Ablesegeräte, Sen-<br />

soren und RFID-Chips sind nicht<br />

zu unterschätzende Datenliefe-<br />

ranten. Die dritte Komponente,<br />

Velocity, trägt der Anforderung<br />

Rechnung, all diese Daten jetzt<br />

und in Echtzeit analysieren zu<br />

müssen: Viele dieser Quellen<br />

sprudeln stetig und erzeugen<br />

fortwährend Datenströme.<br />

Dr. Carsten Bange<br />

Eine wesentliche Neuerung ist<br />

die integrierte Analyse polystrukturierter<br />

Daten. Das gab es<br />

so vorher nicht. Erst durch die<br />

vielen verschiedenen Datenpro-<br />

duzenten, wie sie Herr Dr. Martin nennt, ist diese Integration<br />

von strukturierten, semi- und unstrukturierten Daten<br />

zur Analyse notwendig geworden. Diese Art der Analyse<br />

wird zwar schon lang überlegt, aber jetzt gibt es auch immer<br />

mehr konkrete nutzenstiftende Anwendungsfälle in<br />

verschiedensten Branchen.<br />

vor welche Herausforderungen stellt <strong>Big</strong> <strong>Data</strong><br />

Unternehmen?<br />

Holger Stelz<br />

Die Bearbeitung gigantischer Datenmengen ist große Herausforderung<br />

und Chance zugleich. Entscheidend sind<br />

hierbei die passenden Strategien und Lösungen. Die größte<br />

Herausforderung ist es in meinen Augen, die Daten in eine<br />

Form zu bringen, die eine effektive Analyse zulässt und<br />

diese dann auch noch in einer annehmbaren Zeit durchführen<br />

zu können. Herkömmliche Verfahren sind dabei an ihre<br />

2<br />

Dr. Carsten Bange ist geschäftsführender<br />

Gesellschafter des Business Application<br />

Research Centers (BARC).<br />

Grenzen gestoßen: Bestehende Formen der Datenhaltung<br />

und Analyse versagen bei der geforderten Geschwindigkeit.<br />

Selbst Real-Time ist oft noch nicht genug. Mammutprojekte,<br />

wie beispielsweise die Koordination des weltweit<br />

modernsten Verkehrsleit- und Steuerungssystems in Tokyo,<br />

erfordern mittlerweile „echte“ Echtzeit.<br />

Dr. Wolfgang Martin<br />

Für mich ist die erste und zunächst<br />

einmal wichtigste Herausforderung<br />

zu verstehen,<br />

welche Potenziale und welchen<br />

Nutzen <strong>Big</strong> <strong>Data</strong> meinem Unternehmen<br />

bietet. Der Nutzen,<br />

der heute bei den <strong>Big</strong>-<strong>Data</strong>-Pionieren<br />

wie Amazon, eBay, Facebook<br />

und Google erreicht wird,<br />

betrifft vor allem die Bereiche<br />

Kundenorientierung, Customer<br />

Relationship <strong>Management</strong> und<br />

Customer Experience <strong>Management</strong>.<br />

Dr. Carsten Bange<br />

Auf Anwendungsseite werden<br />

analytische Applikationen eingesetzt<br />

oder geschaffen, welche<br />

die <strong>Big</strong> <strong>Data</strong> Datenwelten nutzbar<br />

machen. In vielen Unterneh-<br />

men wird inhaltlich daran gearbeitet, Kennzahlen für neue<br />

Analysebereiche zu entwickeln oder Prozesse einzuführen,<br />

die gewonnenen Erkenntnisse auch sinnvoll zu nutzen und<br />

in einen Wettbewerbsvorteil umzusetzen.<br />

Holger Stelz<br />

Gerade der Bereich Marketing kann im Moment stark davon<br />

profitieren, unstrukturierte Datenquellen jenseits der<br />

ERP- und CRM-Systeme – beispielsweise aus Facebook,<br />

Twitter, Blogs oder Foren – einzubeziehen und die Erkenntnisse<br />

daraus in Wettbewerbsvorteile zu verwandeln. <strong>Big</strong><br />

<strong>Data</strong> erlaubt dem Marketing, die 360-Grad-Kundensicht<br />

zu einer 360-Grad-Marktsicht zu erweitern. So ermöglicht<br />

<strong>Big</strong> <strong>Data</strong> verborgene Trends sichtbar zu machen und liefert<br />

Informationen darüber, was den Kunden bewegt und wie<br />

wir besser und zeitnaher auf Kundenwünsche eingehen<br />

können. Das ist ein spannender Punkt, der in der nächsten<br />

Zeit mit Sicherheit immer weiter ausgebaut werden wird.


Welche rolle spielt information governance vor dem Hin-<br />

tergrund von <strong>Big</strong> <strong>Data</strong> und welchen Nutzen haben Unter-<br />

nehmen davon?<br />

Dr. Wolfgang Martin<br />

Hier lässt sich ganz simpel sagen, dass mit der Menge der<br />

Unternehmensdaten – wenn ich also meine Unternehmens-<br />

daten um <strong>Big</strong> <strong>Data</strong> ergänze, anreichere oder auch nur <strong>Big</strong><br />

<strong>Data</strong> ins Unternehmen für Pilotierungen hole – Information<br />

Governance immer wichtiger wird. Einfach gesagt sind<br />

immer mehr und mehr Daten zu speichern, zu verwalten<br />

und zu managen.<br />

Holger Stelz<br />

Den Nutzen von Information Governance bestätigt auch<br />

das Ergebnis der Marktbefragung zu diesem Thema, die Dr.<br />

Martin zusammen mit <strong>Uniserv</strong> durchgeführt hat. Insgesamt<br />

gaben 52% der Befragten an, dass das Thema Information<br />

Governance große bis sehr große Bedeutung in ihrem<br />

Unternehmen habe, nur 6% schätzen die Bedeutung als<br />

gering oder sehr gering ein. Bei der Frage nach den Treibern<br />

von Information Governance stellten die Befragten<br />

Datenqualität, Steigerung der Prozess-Qualität, Erfüllung<br />

von Compliance-Anforderungen und Schaffen vertrauenswürdiger<br />

Daten auf die Spitzenplätze.<br />

Dr. Wolfgang Martin ist ein international anerkannter,<br />

unabhängiger Analyst und Experte.<br />

<strong>Big</strong> <strong>Data</strong> MaNagEMENt<br />

Dr. Carsten Bange<br />

Neben den üblichen Governance Aufgaben spielt es bei<br />

<strong>Big</strong> <strong>Data</strong> eine wesentliche Rolle, einen Überblick über die<br />

Systeme, Prozesse und Nutzer zu behalten. Dies wird tendenziell<br />

schwerer für Unternehmen, da die Heterogenität<br />

von Daten und Technologien wächst. <strong>Big</strong> <strong>Data</strong> <strong>erfordert</strong> an<br />

einigen Stellen ein Umdenken. Die gewohnte relationale<br />

Datenbank reicht für <strong>Big</strong> <strong>Data</strong> Anforderungen in der Regel<br />

nicht mehr aus, sodass technologisch auch der Einsatz von<br />

analytischen Datenbanken oder NoSQL Technologien sinnvoll<br />

sein kann. Skalierbarkeit und Parallelisierung von Prozessen<br />

muss von Anfang an für alle Systeme konzipiert sein.<br />

ist der Nutzen von information governance messbar?<br />

Dr. Wolfgang Martin<br />

Er lässt sich am besten indirekt über die Prozesskosten und<br />

-risiken, die entstehen, wenn Prozesse diese Daten verwenden,<br />

bewerten. Falsche, unvollständige und dubiose<br />

Daten schaffen monetär messbare Prozesszusatzkosten,<br />

beispielsweise durch Stornos und Retouren, und hebeln<br />

Compliance-Politiken und Grundsätze aus. Das kann teuer<br />

werden!<br />

Welche technologien und plattformen sind für <strong>Big</strong> <strong>Data</strong><br />

und information governance unabdingbar?<br />

Holger Stelz<br />

Eine Information Governance setzt im Information <strong>Management</strong><br />

an. Die Information-<strong>Management</strong>-Plattform sollte<br />

dabei universelle Unterstützung leisten, so wie sie beispielsweise<br />

der <strong>Data</strong> Quality Service Hub von <strong>Uniserv</strong> bietet. Die<br />

Bearbeitung der Daten nach dem Extract-Transform-Load-<br />

Prinzip (ETL) gibt den Anwendern die Kontrolle über die<br />

Daten und Inhalte aus heterogenen Quellen zurück: Die<br />

Plattform muss in der Lage sein, polystrukturierte Daten<br />

und Informationen unterschiedlicher Quellen zu extrahieren,<br />

zu transformieren und in unterschiedlichste Zielsysteme<br />

zu laden. Zudem muss die notwendige Datenqualität in<br />

den operativen oder analytischen Business-Applikationen<br />

sichergestellt sein. So sind <strong>Data</strong> Quality und <strong>Data</strong> <strong>Management</strong><br />

eng miteinander verzahnt und erst richtig effektiv.<br />

Dr. Carsten Bange<br />

So sehe ich das auch. Den Datenmanagement-Werkzeugen<br />

fällt eine besondere Bedeutung zu. Sie dienen als Integrationspunkt<br />

zwischen verschiedenen Systemen, die Daten<br />

3


ExpErtENiNtErviEW<br />

speichern und auswerten und bilden so häufig die Klammer<br />

um die verschiedenen Daten-Welten.<br />

Dr. Wolfgang Martin:<br />

Eine <strong>Big</strong>-<strong>Data</strong>-Architektur lehnt sich an traditionelle Architekturen<br />

an. Die unterste Schicht ist die der Datenhaltung.<br />

Hier brauchen wir jetzt alternative, hoch-performante<br />

Technologien zur Datenhaltung, die die relationalen Technologien<br />

ergänzen. Auf der Datenhaltungsschicht sitzt<br />

Information <strong>Management</strong>, das zunächst einmal die traditionellen<br />

Komponenten wie Integrationsplattform, Repository<br />

und <strong>Data</strong> Quality <strong>Management</strong> enthält, dann aber<br />

auch neue wie Quellenidentifikation mittels Suchmaschinen<br />

und Extraktionswerkzeuge, die auch ohne APIs Daten extrahieren<br />

können. Hier werden verstärkt In-Memory und<br />

Parallelverarbeitung Einzug halten. Schließlich folgt die<br />

Analytik-Schicht, wo jetzt <strong>Data</strong> Discovery eine große Rolle<br />

spielt. Wichtig ist auch neben <strong>Data</strong> und Text Mining die Textanalytik,<br />

die sich insbesondere mittels linguistischer Verfahren<br />

gut für die Analyse unstrukturierter Daten eignet.<br />

Weiterhin spielen in der Analytik jetzt auch Suchmaschinen<br />

eine bedeutende Rolle. Dazu kommen noch Anreicherungsverfahren<br />

wie Geocoding, um all die Lokalisierungsdaten<br />

aus dem mobilen Internet auch gewinnbringend in Analysen<br />

und Prozessen nutzen zu können.<br />

4<br />

Holger Stelz, Director Business Development<br />

& Marketing, UNISERV GmbH.<br />

Datenqualität & Datenintegration trifft <strong>Big</strong> <strong>Data</strong>. Wie be-<br />

einflusst die Datenqualität <strong>Big</strong>-<strong>Data</strong>-<strong>Management</strong>?<br />

Holger Stelz<br />

Das Paradigma „der Prozess bestimmt die Datenqualität“<br />

ändert sich auch bei <strong>Big</strong> <strong>Data</strong> nicht. Datenqualität ist auch<br />

bei <strong>Big</strong> <strong>Data</strong> von enormer Bedeutung. Vor allem dann,<br />

wenn – wie schon von mir angesprochen – Unternehmens-<br />

daten mit Informationen aus <strong>Big</strong> <strong>Data</strong> angereichert wer-<br />

den. Wenn also beispielsweise Kundendaten durch Daten<br />

aus den sozialen Medien ergänzt werden sollen, zum Beispiel<br />

bei den benutzerangepassten Suchergebnissen einer<br />

Google-Suche. Eine hohe Datenqualität muss bereits vor<br />

der Datenanalyse gewährleistet sein – am besten schon<br />

bei der Dateneingabe beziehungsweise Datenerhebung.<br />

Denn erst eine einheitliche, qualitativ hochwertige Datenbasis<br />

versetzt die Anwender in die Lage, Daten schnell zu<br />

analysieren und so beispielsweise rechtzeitig auf Markttendenzen<br />

zu reagieren. Die Grundaufgaben von <strong>Data</strong><br />

<strong>Management</strong> in Bezug auf <strong>Big</strong> <strong>Data</strong> bleiben dabei die<br />

gleichen: Profiling, Cleansing sowie Anreichern und Abgleichen<br />

mit Referenzdaten. Aber auch hier steigt im Bereich<br />

<strong>Big</strong> <strong>Data</strong> die Bedeutung von Datenqualität: Das Schaffen<br />

des Single Point of Truth ist beim gegebenen Datenvolumen<br />

schwieriger geworden und auch die Anforderungen<br />

an die Performance der Datenqualitätslösungen sind stark<br />

angewachsen.<br />

Dr. Wolfgang Martin<br />

In der Vergangenheit hatten wir uns stets bemüht, den Single<br />

Point of Truth herzustellen und zu bewahren. Das wird<br />

nicht mehr so wie bisher, also deterministisch, im <strong>Big</strong> <strong>Data</strong><br />

machbar sein, da eine Konsistenz über alle Datenquellen<br />

in der Regel nicht mehr erreichbar sein wird. Daher wird<br />

der Single Point of Truth eher mit wahrscheinlichkeitstheoretischen<br />

Ansätzen formuliert und definiert werden<br />

müssen. Mit diesen Überlegungen stehen wir aber noch<br />

ganz am Anfang.<br />

Holger Stelz<br />

Um auch mit <strong>Big</strong> <strong>Data</strong> im Unternehmen den Single Point of<br />

Truth anzustreben, müssen neben der Performance auch<br />

die Service-Orientierung der Werkzeuge, die Services selbst<br />

und die Plattformen stimmen. Denkbar ist hier zum Beispiel<br />

der Einsatz von hybriden Cloud-Lösungen, bei denen<br />

bestimmte Services in der Cloud zur Verfügung stehen und<br />

andere wiederum on demand abgerufen werden können.


Welche Bedeutung wird in-Memory für die Zukunft der<br />

Datenverarbeitung haben?<br />

Dr. Carsten Bange<br />

Verarbeitung und Speicherung im Hauptspeicher war schon<br />

immer ein Grundkonzept der Datenverarbeitung. Dank je-<br />

her exponentiell wachsender Kapazitäten sind wir nun in<br />

der Lage, auch ganze Datenbanken bis zu einer gewissen<br />

Größe im Hauptspeicher vorzuhalten.<br />

Dr. Wolfgang Martin<br />

Technisch gesehen bedeutet In-Memory mehr als nur Da-<br />

tenbanktechnologie, denn In-Memory kann als Infrastruk-<br />

<strong>Big</strong> <strong>Data</strong> MaNagEMENt<br />

tur in den Integrations-, Entwicklungs-, Prozess- und an-<br />

deren Plattformen eingesetzt werden und hier noch viele<br />

Wege zur Innovation aufzeigen. Wir können Kosten ein-<br />

sparen, Time-to-Market steigern - es geht eben schneller<br />

- oder Wettbewerbskraft erhöhen.<br />

Holger Stelz<br />

Wir können beobachten, wie sich die Tools an die Anforde-<br />

rungen des Marktes anpassen. Der Erfolg von Toolanbie-<br />

tern in diesem Bereich wird dadurch entschieden werden,<br />

ob deren Produkte In-Memory-fähig sind. An dieser Technologie<br />

wird keiner mehr vorbeikommen.<br />

abbildung: <strong>Big</strong> <strong>Data</strong> bedeutet nicht nur Datenflut, sondern auch unterschiedlichste Quellen im Internet, die es in (Nahezu-)<br />

Echtzeit zu nutzen gilt. Daher ist neben analytischen Datenbanken und NoSQL-Systemen ein <strong>Big</strong> <strong>Data</strong> <strong>Management</strong><br />

entscheidend, um mittels Analytik Hypothesen ableiten und testen zu können. <strong>Big</strong> <strong>Data</strong> <strong>Management</strong> braucht jetzt<br />

neue Methoden, wie semantische Suchmaschinen zur Quellenidentifikation, Flat-File- und Hadoop-Verarbeitung bei der<br />

Quellenextraktion sowie eine Service-Orientierung, damit <strong>Big</strong> <strong>Data</strong> Quality bei den Stammdaten durch Echtzeit-Services<br />

erreicht werden kann.<br />

5


ExpErtENiNtErviEW<br />

Dr. Carsten Bange<br />

Durch die signifikant beschleunigten Anwendungen, wer-<br />

den in einigen Bereichen auch ganz neue Möglichkeiten<br />

der Verarbeitung und Analyse von Daten geschaffen.<br />

Dr. Wolfgang Martin<br />

Ja, jetzt können wir Dinge realisieren, die bisher nicht<br />

machbar waren. Beispielsweise im Handel eine Produkt-<br />

profitabilität pro Kunde berechnen und diese in Echtzeit<br />

zu Empfehlungen in Kundeninteraktionen nutzen. Auch<br />

ich bin mir sicher: Auf In-Memory wird man nicht mehr<br />

verzichten wollen.<br />

Was kommt nach <strong>Big</strong> <strong>Data</strong>? Wo wird ihrer Meinung nach<br />

die reise hingehen?<br />

Dr. Wolfgang Martin<br />

<strong>Big</strong> <strong>Data</strong> wird uns die nächsten Jahre als Thema begleiten.<br />

Wir werden dabei noch viele neue Technologien und Inno-<br />

vationen in den Unternehmen sehen. Mit <strong>Big</strong> <strong>Data</strong> gehen<br />

wir den nächsten Schritt in Richtung Informationsgesell-<br />

schaft und Digitalisierung der Welt. Als parallele Heraus-<br />

forderung sehe ich den fairen Umgang mit persönlicher<br />

Information im <strong>Big</strong> <strong>Data</strong>, Datenschutz, Urheberschutz und<br />

alle verwandten Themen.<br />

<strong>Big</strong> <strong>Data</strong> MaNagEMENt<br />

Dr. Carsten Bange<br />

Während die <strong>Big</strong>-<strong>Data</strong>-Diskussion momentan noch sehr<br />

technisch geführt wird, stehen die neuen Anwendungs-<br />

fälle und Möglichkeiten der Unternehmenssteuerung und<br />

-planung immer stärker im Fokus der Überlegung. Der<br />

Weg zu datengetriebenen Unternehmen erfolgt auf Basis<br />

einer Datenmanagement-Infrastruktur mit noch nie dage-<br />

wesener Leistungsfähigkeit und auf mobilen Endgeräten,<br />

welche die Zusammenarbeit von Menschen in operativen<br />

und dispositiven Aufgaben integriert unterstützen.<br />

Holger Stelz<br />

Zukünftige Technologien und die neuen Anforderungen<br />

an ein <strong>Big</strong> <strong>Data</strong> <strong>Management</strong> werden auf jeden Fall den<br />

Umgang mit Daten und damit auch die Art und Weise<br />

der Informationsnutzung in Unternehmen signifikant än-<br />

dern. Wie Unternehmen diesen Wandel in der Datenwelt<br />

für sich nutzen können und wie die neuen Technologien<br />

zum Unternehmenserfolg beitragen können, ist übrigens<br />

auch Thema der diesjährigen <strong>Uniserv</strong> Innovative am 12.07.<br />

in Frankfurt am Main. Dort werden wir uns nicht nur mit<br />

anerkannten Experten über die zukünftigen Trends und<br />

Möglichkeiten austauschen, es werden auch an Hand von<br />

Best-Practice-Beiträgen individuelle Markterfahrungen<br />

diskutiert. Alle Interessenten sind herzlich ins Frankfurter<br />

Radisson Blu zu diesem <strong>Uniserv</strong>-Infotag eingeladen.<br />

UNISERV GmbH<br />

Rastatter Str. 13, 75179 Pforzheim, Deutschland<br />

T: +49 7231 936 - 0, F: +49 7231 936 - 3002<br />

E: info@uniserv.com, www.uniserv.com<br />

© UNISERV GmbH, Pforzheim, All rights reserved

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!