Intelligenz für jedermann - Computerwoche

computerwoche.de

Intelligenz für jedermann - Computerwoche

DIE TRANSFORMATION DER

GESCHÄFTSANALYSE

IM UNTERNEHMEN

Intelligenz für

jedermann

SYBASE®, EIN SAP®-UNTERNEHMEN

1


Intelligenz für jedermann

DIE TRANSFORMATION DER GESCHÄFTSANALYSE

IM UNTERNEHMEN

2 3


Intelligenz für jedermann

Die Transformation der Geschäftsanalyse

im Unternehmen

Veröffentlicht von Sybase, einem SAP®-Unternehmen

.Prinzenallee 13, 40540 Düsseldorf, Deutschland

Der Guide to Analytics ist auf folgender Website bestellbar:

sybase.com/analyticsguide

Copyright © 2011 Sybase, ein SAP®-Unternehmen. Alle Rechte vorbehalten.

Sybase und das Sybase-Logo sind registrierte Marken von Sybase, Inc oder

dessen Tochtergesellschaften. ® verweist auf eine Registrierung in den

Vereinigten Staaten von Amerika. SAP und das SAP-Logo sind Marken oder

eingetragene Marken der SAP AG in Deutschland und anderen Ländern.

Alle anderen Marken sind Eigentum der jeweiligen Inhaber.

Gedruckt in den Vereinigten Staaten.

Sofern dies durch das Urheberrechtsgesetz der Vereinigten Staaten aus

dem Jahr 1976 nicht ausdrücklich gestattet ist, darf kein Teil dieser

Publikation ohne vorherige schriftliche Genehmigung durch den

Herausgeber reproduziert oder verteilt bzw. in irgendeiner Form in einer

Datenbank bzw. auf einem anderweitigen Datenspeichersystem

gespeichert werden.

Design : Boing Design

Irfan Khan,

SVP & Chief Technology Offi cer

Sybase, ein SAP®-Unternehmen

Der Guide to Analytics zeigt anhand von Fakten und Beispielen, dass die in der Analysebranche

weit verbreitete Furcht vor massiven Datenvolumen, stetig steigenden Nutzerzahlen und immer

mehr Datentypen weit überzogen ist. Behauptungen, nach denen das so genannte Big-Data-

Phänomen die Performance und Skalierbarkeit von Analytics Data Warehouses ernsthaft gefährden

könnte, sind in dieser Schärfe schlicht nicht haltbar. Dies heißt nicht, dass die Schaffung eines

reaktionsschnellen, umfassenden und skalierbaren Analytics Data Warehouse ein leichtes

Unterfangen ist. Ganz im Gegenteil. Aber wie die folgenden Beispiele zeigen, lassen sich die

damit verbundenen Herausforderungen durchaus erfolgreich meistern.

Der Guide to Analytics schildert, wie es Unternehmen der verschiedensten Industriezweige

gelungen ist, die Analyse tief in ihre betrieblichen Abläufe einzubetten. Er erörtert Studien,

mit denen der Nutzen der Unternehmensanalyse ermittelt wird, und nennt zahlreiche

Fallbeispiele für den signifikanten ROI, der mit der Analyse erzielbar ist und von dem

besonders Unternehmen profi tieren, die mit wachsenden Datenmengen, steigenden Nutzerzahlen,

vielen verschiedenen Datentypen, zunehmender Auslastung und immer mehr Ad-hoc-Abfragen

zu kämpfen haben.

4 5


8 Kapitel 1: Die Big-Data-Lüge

11 Das Daten-Armageddon: ein Blick in die Vergangenheit

14 Vier Schritte zur Datenqualität

16 Gesucht: mehr Daten

21 Kein Grund zur Panik

22 Kapitel 2: Intelligenz für jedermann

26 EDWs: die Achillesferse des Unternehmens?

29 Eine solide Analytics-Architektur

34 Kapitel 3: Business Analytics in der Praxis

37 Die erfolgreiche Bewältigung der Datenflut

39 Die Ummünzung von Big Data in greifbare Vorteile

42 Weniger Speicherbedarf, mehr Einblicke

43 Analyse-Software in der Cloud

43 Appliances: kleine Lösungen für überschaubare Ansprüche

44 Analytics für mobile Nutzer

45 Mehr Nutzer, weniger Probleme

47 Aussagekräftige Datenstichproben

48 Kapitel 4: Best Practices und der ROI von Analyseprojekten

51 Der Proof of Concept – ein leistungsstarkes Instrument

53 Die Voraussetzungen für ein erfolgreiches Analyseprojekt

54 Jenseits des Proof of Concept

56 Die Berechnung des ROIs von Analyselösungen

58 Von der Theorie zur Praxis

59 Im Fokus: Performance und Profit

60 Quellen

62 Weitere

6 7

1515691///567

1515691///567

INHALT


Die Big-Data-Lüge

KAPITEL 1: DIE BIG-DATA-LÜGE

8 9


Einmal mehr wird ein Katastrophenszenario

an die Wand gemalt.

Dieses Mal heißt das Stichwort „Big Data“ – enorme

Datenmengen, die IT-Abteilungen unter sich zu begraben drohen. Seien Sie also gewarnt,

und wappnen Sie sich für die nächste große Katastrophe!

Aber wie Rotkäppchen und der böse Wolf oder die Mär

vom drohenden Weltuntergang ist auch das Big-Data-

Phänomen eine Fiktion. Eine Erfindung.

In den einschlägigen Medien, allen voran den

US-Publikationen, ist Big Data das Thema. Wenn man

danach googelt, erhält man drei Millionen Treffer

weltweit. Big Data ist aber nicht nur Gegenstand

zahlreicher Artikel der IT-Presse, sondern findet sich

auch in allgemeinen Publikationen wie der New York

Times oder dem Christian Science Monitor. Sogar

einen eigenen (englischsprachigen) Wikipedia-Eintrag

gibt es schon. Nicht zu vergessen die zahlreichen

Veranstaltungen auf großen Konferenzen, die sich

mit dem Thema Big Data befassen. GigaOm hat 2011

sogar eine jährliche Konferenz lanciert, die sich ausschließlich

mit Big Data beschäftigt und nun online

verfügbar ist. 1 In Deutschland widmet sich die Konferenz

“Big Data und Analytische Datenbanken” in Neuss

diesem Thema. Diese Flut von Daten und Informationen

hat viele Beobachter dazu verführt zu glauben, dass

die IT-Welt in der Big-Data-Welle untergehen wird.

Eine bekannte Analystenfirma bezeichnet das Datenwachstum

gar als die „schwierigste Herausforderung für

die Data-Center-Infrastruktur großer Unternehmen“ 2 .

Angesichts dieses Hypes verwundert es nicht,

dass IT-Leiter weltweit nervös auf ihre Analytics-

Infrastruktur blicken und sich fragen, ob sie dem Druck

der furchteinflößenden, massiven Datenmengen

gewachsen sein wird. Hier mein Rat: Entspannen Sie

sich. Big Data ist halb so schlimm, wie uns momentan

weisgemacht wird.

Das heißt nicht, dass die Datenmenge in den

Unternehmen nicht anwachsen wird. Selbstverständlich

tut sie das. Zwischen jetzt und 2020 wird sich das

Datenvolumen in den meisten Unternehmen um das

35-Fache aufblähen, prognostizieren die Analyseexperten

von IDC. 3 Allerdings ist Big Data keineswegs ein neues

Phänomen. Es kam nur nicht immer unter einem so

griffigen Namen daher, mit dem Journalisten, Analysten

und Experten machen können, was sie wollen.

Das

Daten-Armageddon:

ein Blick in die

Vergangenheit

KAPITEL 1: DIE BIG-DATA-LÜGE

10 11


KAPITEL 1: DIE BIG-DATA-LÜGE

EREITS IN DEN 1950ER Jahren beobachteten die

Unternehmen mit Sorge das Ansteigen der

Datenmengen. So erkannte IBM schon sehr

früh, dass sein aufblühendes Mainframe-Geschäft

ohne einen bedeutenden technologischen Durchbruch

sehr schnell an seine Grenzen stoßen würde, da die

Menge der Transaktionsdaten in einem Tempo zunahm,

mit dem die damaligen Speichertechnologien nicht

mithalten konnten.

Prompt präsentierte das Unternehmen 1956 das

weltweit erste magnetische Festplattenlaufwerk,

mit dem Daten auch außerhalb des Computerhauptspeichers

abgelegt werden konnten.

12 13

4 Mit

Kosten von rund 7.000 Euro pro Megabyte galt das

riesige 4,4-MByte-Laufwerk von IBM aus insgesamt

50 Platten mit einem Durchmesser von circa 60

Zentimetern, die in einer mehr als kühlschrankgroßen

Einheit untergebracht waren, als die Antwort auf die

Skalierbarkeitsprobleme der Zeit. Ein Irrtum, wie sich

bald herausstellen sollte.

Denn mehr Kapazität ermöglichte immer mehr

Daten. Und mehr Daten erforderten immer mehr

Computer zu ihrer Verarbeitung. Entsprechend rasant

stieg die weltweite Zahl der Computer von 600 im

Jahr 1956 auf 30.000 in 1966 und 400.000 in 1976,

um 1984 mit Einführung der Personal Computer

schließlich auf 6 Millionen anzuschwellen. 5 Heutzutage

verteilen sich rund 3 Milliarden Computer rund um

den Erdball, wobei allein 2010 ganze 352 Millionen

Geräte ausgeliefert wurden. 6 überwältigen. In seinem 1970 erschienenen Bestseller

„Der Zukunftsschock“ prägte Alvin Toffler den Begriff

der Informationsüberfütterung, um zu erklären,

warum es Individuen und Unternehmen angesichts

der Überfülle an Daten so schwerfällt, Entscheidungen

zu treffen. 1986 schrieb der Technologiekritiker

Theodore Roszak: „Ein Übermaß an Informationen

kann Ideen regelrecht verdrängen und dazu führen,

dass der Geist durch sterile, unzusammenhängende

Fakten abgelenkt wird, ja orientierungslos zwischen

Bergen von Daten hin und her irrt.“

Die Datenflut, die

von all diesen Computern hervorgebracht wird, ist

schwindelerregend. Nach Schätzung von IDC wurden

2009 weltweit 800.000 Petabyte an Daten erzeugt

und gespeichert; bis 2020 soll das Datenvolumen auf

runde 35 Zettabyte ansteigen.

Auf jedem Abschnitt dieses langen Wegs gab

es Befürchtungen, die von all den Computern

erzeugten Daten könnten Nutzer und Unternehmen

7 Dabei erfüllte die

Informationsflut nicht nur populärwissenschaftliche

Autoren, sondern auch Technologieexperten mit Sorge.

So stand bereits 1990 eine IEEE-Konferenzveranstaltung

unter dem Motto „Massenspeicher in der Krise“.

Große Datenmengen sind also nichts Neues.

Trotzdem wird uns gesagt, die aktuelle Big-Data-Krise

bewegt sich auf einem völlig anderen Niveau. Ein

Bericht formuliert es folgendermaßen: „Big Data

bringt Änderungen in einem nie da gewesenen,

kritischen Ausmaß mit sich, das weiter eskalieren

wird, wenn neueste Technologietrends zusätzlichen

Schwung erhalten und zusammengeführt werden.“ 8

Menge der erzeugten Daten deutlich über der Speicherkapazität liegen wird.

Eine andere Studie geht davon aus, dass 2020 die

Abb. 1 Eine Kluft entsteht

erzeugte Information > verfügbarer Speicherplatz

Petabytes

40.000.000

erzeugte digitale Information

verfügbarer digitaler Speicherplatz

35.000.000

30.000.000

25.000.000

20.000.000

15.000.000

10.000.000

5.000.000

9

Trotz der immer wieder an die Wand gemalten Weltuntergangsszenarien ist es der Computerindustrie

bisher stets gelungen, die anschwellende Datenflut zu bewältigen – durch eine IT-Infrastruktur, die besser

und schneller ist, mehr Daten aufnehmen kann, weniger kostet und weniger Raum einnimmt. Anhand der

Entwicklung der Festplattenlaufwerke lässt sich sehr gut erkennen, wie die Branche das Big-Data-Problem

in den vergangenen Jahrzehnten erfolgreich gemeistert hat:

Die Festplattenkapazität stieg

von 3,75 Megabyte auf über 1 Terabyte und ist mehr als 270.000-mal so

groß wie früher.

Die Festplattengröße sank

von 2,5 Kubikmetern (dem Format eines großen Kühlschranks) auf ganze 0,05

Kubikzentimeter (2,5-Zoll-Formfaktor mit Plattenstapel) und ist damit nur noch

ein 44.000stel so groß wie früher.

Die Speicherkosten sanken

von 10.600 Euro pro Megabyte auf weniger als 0,0001 Euro pro Megabyte

(70 Euro pro Terabyte), was einem Preissturz um das 150.000.000-Fache entspricht.

2010 2020

Die durchschnittliche Zugriffszeit reduzierte

sich von über 0,1 Sekunden auf wenige Tausendstel einer Sekunde und damit um

mehr als das 40-Fache.

Zusätzlich zur beeindruckenden Weiterentwicklung der Festplatte arbeitete die Computerindustrie erfolgreich

und mit Hochdruck an anderen Hardware-Verbesserungen wie der Mikroprozessorleistung oder der

Geschwindigkeit der internen Busse. Allerdings war und ist Hardware nur ein Aspekt zur Bewältigung der

Big-Data-Krise, insbesondere im Bereich der Unternehmensanalyse.

Quelle: IDC Studie “The Digital Universe Decade: Are You Ready?”,

mit Unterstützung von EMC, Mai 2010

10

B

Die Kluft im

digitalen

Universum


Vier Schritte

zur Datenqualität

4.

3.

2.

1.

AUF DEM WEG ZUR BEREITSTELLUNG EINES ANALYTICS DATA WAREHOUSE KOMMT DER DATENQUALITÄT HÖCHSTE

BEDEUTUNG ZU. DABEI GIBT ES FÜR DIE SICHERSTELLUNG DER DATENQUALITÄT BEWÄHRTE METHODEN – VON DER

DATENBEREINIGUNG BIS ZUM MASTER DATA MANAGEMENT. ALLERDINGS SOLLTE DAS STREBEN NACH GRÖSSTMÖGLICHER

DATENQUALITÄT AUCH DIE INTERNE PRÜFUNG DER FOLGENDEN FAKTOREN UMFASSEN:

Datenlatenz: Betrachten Sie alle drei Dimensionen der Datenlatenz im Unternehmen: das zeitliche

Auftreten der Daten, die Dauer des Ereignisses und die Zeitspanne für die Entscheidung.

Datenkorrelation: Ermitteln Sie gemeinsam mit Geschäftsanwendern den Kontext der Daten und definieren

Sie Beziehungen zwischen den verschiedenen verwendeten Datensätzen unter Berücksichtigung von

Wachstumsraten und doppelt vorhandenen Quellen.

Self-Service: Legen Sie fest, wie Power-User die Daten für ihre Abfragen nutzen können, ohne IT- und andere

Ressourcen über Gebühr zu belasten.

Chief Data Officer: Übertragen Sie die Aufgaben eines Chief Data Officer an einen erfahrenen Mitarbeiter

um sicherzustellen, dass sowohl die operative Qualität der Daten als auch die Unternehmensführung

und -kontrolle gewährleistet sind. (Ob der Mitarbeiter den Titel eines CDO führt, ist dabei zweitrangig.)

Die Wichtigkeit der Datenqualität kann gar nicht hoch genug gestellt werden. So zeigte eine Untersuchung der

University of Texas, dass die Qualität bzw. Effektivität der Daten sowohl den Umsatz als auch den Gewinn der

Unternehmen beeinflusst. Maßgebliche Einflussfaktoren sind dabei:

Finanzielle Auswirkungen auf

Bereiche wie Mitarbeiterproduktivität,

Eigenkapitalrendite (ROE), Rendite

auf das investierte Kapital (ROIC)

und Gesamtkapitalrendite (ROA)

Kundenfokussierte Auswirkungen

auf Bereiche wie Innovationsfähigkeit

und Umsatzerwirtschaftung

aus neuen Produkten sowie die

Fähigkeit zur Erweiterung der

bestehenden Kundenbasis

KAPITEL 1: DIE BIG-DATA-LÜGE

Operative Auswirkungen auf

Bereiche wie Kapazitätsauslastung,

Planungs- und Prognosegenauigkeit,

zeitgerechte Produktlieferung

bzw. Servicebereitstellung 11

14 15


Gesucht:

mehr Daten

995 FAND die erste internationale Konferenz zum

Thema Knowledge Discovery und Data Mining

in Montreal statt. Das Symposium beschäftigte

sich mit der vorherrschenden Ansicht, dass das

Potenzial der großen Datenmengen für Gesellschaft

und Unternehmen nicht ausreichend ausgeschöpft

würde, da der einzelne Anwender mit ihrer Analyse

schlicht überfordert sei.

In der Konferenzbroschüre schrieben die Veranstalter:

„Datenbanken und Datensätze haben eine Größe

erreicht, die menschlichen Nutzern selbst eine

Teilanalyse unmöglich macht, und ersticken die

Nutzer damit regelrecht. Dieses Phänomen, bei

dem Daten wie aus einem Feuerwehrschlauch auf

den Nutzer niederprasseln, findet sich in vielen

Bereichen, z. B. in der wissenschaftlichen Datenanalyse,

im Medizinsektor und Gesundheitswesen, auf

Unternehmens- und Marketingebene sowie in den

Finanzmärkten.“ 12 1

Eines der Kernziele der Konferenz

bestand darin, sich über neueste Methoden,

statistische Modelle, Technologien für maschinelles

Lernen und andere nicht Hardware-gestützte

Ansätze auszutauschen, mit denen ein Überblick

über die wachsende Datenflut erreicht werden

sollte. Die Konferenzteilnehmer diskutierten

Themen wie die Nutzung umfangreicher Datenmengen

zur Erkennung von Betrugsdelikten oder

die Rolle von Big Data bei der Entwicklung neuer

Medikamente gegen HIV. In beiden Fällen hat die

Kombination großer Datenvolumen mit modernsten

KAPITEL 1: DIE BIG-DATA-LÜGE

Analyseverfahren immense Fortschritte gebracht.

1995 war auch das Jahr, in dem spaltenorientierte

oder Column-Store-Datenbanken auf den Markt

kamen. Dieser Ansatz, der sich vom klassischen

Einheitskonzept der relationalen Datenbanken

grundlegend unterschied, war bahnbrechend für

die Schaffung eines Analytics Data Warehouse

(siehe Kapitel 2).

Dank einer spaltenorientierten Analyseinfrastruktur

brauchen sich die Unternehmen heute keine

Sorgen über Big Data zu machen und können sich

stattdessen voll auf die Vorteile dieses Phänomens

konzentrieren. Massive Datenmengen, selbst wenn

sie so heterogen sein sollten wie unstrukturierte

Daten, können in spaltenorientierten Data Warehouses

problemlos analysiert werden. Spaltenorientierte

Data Warehouses punkten zudem durch ihre hohe

Verarbeitungsgeschwindigkeit und ausgezeichnete

Skalierbarkeit, dank der Sie so viele Anwender und

Daten hinzufügen können, wie zur Erledigung der

jeweiligen Aufgabe vonnöten sind.

Dabei geht es nicht etwa um Funktionalitäten

und Performance-Gewinne, die für die Zukunft

erwartet oder prognostiziert werden. Es geht

nicht darum, Big Data in handlichere Brocken

aufzusplitten und auf Data Marts zu verteilen.

Es geht weder um die Beschränkung von Nutzergruppen

noch um die strikte Kontrolle von Workloads

oder die Vermeidung von Ad-hoc-Abfragen. Und es

geht erst recht nicht darum, die Analysefähigkeit Ihres

16 17


Vier zentrale Faktoren

für Enterprise Analytics

BIG DATA ALS UNERBITTLICHES

PHÄNOMEN

-Datenmengen werden

Speicherkapazität überschreiten

EXPLOSION DER BENUTZERZAHLEN

- Millionen von Data Minern

befinden sich in Wartestellung

NEULAND BEI UNSTRUKTURIERTEN

DATEN

- Heterogenität der Daten wird

zum Standard

NEUE DIMENSION DER GESCHWINDIGKEIT

- Datenzufluss erfolgt immer

schneller

Unternehmens von Big Data beschneiden zu lassen.

Vielmehr geht es darum, Big Data innerhalb und

außerhalb eines Unternehmens zu identifizieren

und mit diesen Daten die Business Intelligence bis ins

Innerste des Unternehmens voranzutreiben. Es geht

darum, Unternehmen agiler, wettbewerbsfähiger

und rentabler zu machen.

Ein Beispiel: comScore, ein Anbieter von Cloudbasierten

Analyseservices und -lösungen für den

E-Commerce, erkannte von Anfang an, dass sich

der Fokus beim Webmarketing weg von bloßen

Besucherzahlen hin zur Rentabilität verlagerte.

Die comScore Customer Knowledge Platform bietet

daher einen 360-Grad-Blick auf das Verhalten und

die Präferenzen der Kunden bei ihrer Shoppingtour

im Internet. Der Service überwacht das Surf- und

Kaufverhalten auf jeder besuchten Website und

verwendet dabei die Daten von Nutzern, die einer

Analyse ihres Internetverhaltens ausdrücklich

zugestimmt haben.

Da sich Millionen von Webnutzern für die Analyse

zur Verfügung stellten, sammelte comScore schnell

enorme Datenmengen. Mittlerweile analysiert

comScore mehr als 40 Terabyte an komprimierten

Daten, wobei Woche für Woche 150 Gigabyte an

Daten hinzukommen.

Trotz dieses exorbitanten Volumens ist die Reaktionszeit

bei Abfragen außergewöhnlich kurz. Laut

Ric Elert, Vice President Engineering bei comScore,

kann das Unternehmen daher „die Daten innerhalb

kürzester Zeit analysieren und den Kunden sehr viel

schneller Ergebnisse bereitstellen. Unseren Kunden

hilft das wiederum, ihre Produkte und Services

effektiver zu vermarken und mehr Geschäft

zu generieren.“

Dank Column-Store-Technologie erzielt comScore

zudem eine Komprimierungsrate von 40 Prozent.

Kurzprofil comScore

1999 Cloud

Gegründet 1999 Cloud-basierter Anbieter von Daten zum Online-Kundenverhalten

3 Millionen 150 Gigabyte

Erfasst mehr als 3 Millionen Websites Enormes Datenvolumen mit wöchentlicher Zunahme

von 150 Gigabyte

2 Millionen 40 Terabyte

Mehr als 2 Millionen Verbraucher lassen

ihr Konsumverhalten konstant erfassen

Bei einem traditionellen Ansatz wären die

Speicherkosten nach Aussage des Unternehmens

erheblich höher.

„Die Datenkomprimierung ist für uns überaus

wichtig, da gigantische Datenströme über unsere

Systeme laufen“, erläutert Scott Smith, Vice

President Data Warehousing bei comScore. „ Den

größten Teil unseres riesigen Datenpools bekommen

die normalen Benutzer ja nie zu sehen.“ Wie comScore,

ist auch Suntel durch dynamisches Wachstum

charakterisiert. Als am schnellsten wachsender

Telekommunikationsanbieter Sri Lankas verzeichnet

Suntel bereits heute 500.000 Kunden. Mit modernster

Technologie, innovativen Konzepten und einer

ausgeprägten Dienstleistungsorientierung

entwickelt das Unternehmen maßgeschneiderte

Telekommunikationslösungen, die auch den

anspruchsvollsten Anforderungen gerecht werden.

Durch die Verbindung aus Innovationsfreude und

Top-Technologie positioniert sich Suntel als führender

Wegbereiter für den Übergang Sri Lankas in die

40 Terabyte komprimierte Daten

40% Komprimierungsrate

KAPITEL 1: DIE BIG-DATA-LÜGE

Wissensgesellschaft.

Ein Wermutstropfen bestand für das Unternehmen

allerdings darin, dass seine klassische relationale

Datenbank mit den ehrgeizigen Zielen nicht Schritt

halten konnte. So kam es bei der Abfrageverarbeitung

zu inakzeptablen Verzögerungen.

„Wir waren an einem Punkt angekommen“,

erklärt Tariq Marikar, Director of Information

Technology & Solutions Delivery, „an dem unsere

Produktionsdatenbank um 20 Prozent über ihrer

Auslastungsgrenze lag – ein unhaltbarer Zustand.

Außerdem wollten wir Reports und Abfragen

anhand von Daten erstellen, die mehrere Jahre und

nicht nur wenige Monate alt waren. Wir wussten,

dass dies nur mit einem separaten Repository

möglich war, einem Data Warehouse, das speziell

für das Reporting und die Analyse ausgelegt

sein musste.“

Mit einem spaltenorientierten Data Warehouse

für modernste Analyseaufgaben gelangte Suntel

ohne Umwege ans Ziel. „In unserer Branche ist es

18 19


unabdingbar, große Mengen an historischen Daten

anzeigen und analysieren zu können“, ergänzt

Marikar. Wie der Vertreter von comScore lobt auch

er den spaltenorientierten Ansatz, der „mit seiner

hervorragenden Komprimierung den Platzbedarf

für die Daten unserer Produktionsdatenbank auf

ein Drittel verringert hat“.

Marikar weiter: „Skalierbarkeit heißt, dass wir

eine steigende Zahl von Nutzern unterstützen

können, wenn wir diesen Datenschatz in Zukunft

heben werden. So wollen wir anhand der Daten

z. B. die Kundenerfahrung für unterschiedlich

große Kunden individuell gestalten und außerdem

Programme für das Cross- und Up-Selling unserer

Services einführen.“

In Spanien organisiert das spaltenorientierte

Data Warehouse von Airtel-Vodafone den Datenpool

gemäß der Business Map des Unternehmens.

Dadurch bleiben Konsistenz und Integrität der

Kurzprofil Airtel Vodafone

2000 14 Millionen

Im Jahr 2000 aus Merger der Anteilspakete

von British Telecom und Vodafone an Airtel

Móviles hervorgegangen

1995 1000+

100% Mehrdimensionale

Daten auch dann gewahrt, wenn viele verschiedene

Abteilungen ein und dieselben Daten nutzen. Das

Data Warehouse wandelt Daten in Wissen um und

macht Fakten über eine eigene Schnittstelle zu

wertvoller Business Intelligence. Die Fähigkeit zur

präzisen Analyse und Prognose der Kundenaktivität

ist von essenzieller Bedeutung für die übergeordnete

Geschäftsstrategie des Unternehmens.

Auch das spaltenorientierte Data Warehouse

von Airtel-Vodafone bewältigt das immense

Abfrage-Aufkommen ohne Probleme. Mehr als

1.000 Beschäftigte nutzen es für die systemtechnisch

besonders anspruchsvolle mehrdimensionale

Analyse. Diese Form der Analyse, bei der eigene

Informationsstrukturen zum Einsatz kommen,

ermöglicht die Extraktion von Daten zu Kunden,

Infrastrukturen und Unternehmensprozessen

und gestattet den Nutzern die Erzeugung von

Modellierungs- und Simulationsprozessen

14 Millionen Kunden

Airtel Móviles seit 1995 am Markt 1.000+ Data Warehouse-Nutzer

Umfassende Daten-integration über alle

Abteilungen hinweg

Mehrdimensionale Analyse

-Kunden

-Infrastruktur

-Geschäftsprozesse

einschließlich spezieller, analyseergänzender

Verfahren.

Auch Data-Mining-Techniken werden herangezogen,

um mehr über das Verhaltensmuster der Kunden zu

erfahren. Mitarbeiter mit Kundenkontakt speisen

die Tag für Tag gewonnenen Informationen in das

System ein, wo sie mit den bereits im Warehouse

vorhandenen Daten integriert werden. All diese

Daten werden miteinander kombiniert und in

Informationsstrukturen umgewandelt, die dann

für Abfragen zur Verfügung stehen.

Das spaltenorientierte Data Warehouse ermöglicht

den Datenzugriff nach Workflow anstelle nach

der hierarchischen Unternehmensstruktur, was

zu einer höheren Produktivität und Effektivität der

Mitarbeiter führt. Damit stehen den Mitgliedern

der Marketingabteilung beispielsweise dieselben

Informationen zur Verfügung wie den Finanzexperten

des Unternehmens, obwohl das Data Mining unter

einem völlig anderen Blickwinkel und anhand ganz

unterschiedlicher Analysen erfolgt. Die Data-Warehouse-

Umgebung umspannt Marketingdatenbanken,

Anrufsysteme, Kundenservice, Statistikdaten

aus dem GSM-Netzwerk, Fakturierungssysteme,

Datensammlung und -abruf sowie sämtliche

Logistikinformationen.

Airtel-Vodafone verfügt damit über eine

maßgeschneiderte Lösung, mit der sich Daten

aus den verschiedensten operativen Umgebungen

schnell und kostengünstig integrieren lassen.

Informationen zu den Unternehmensaktivitäten

können im gewünschten Detailgrad direkt aus der

Data-Warehouse-Umgebung abgerufen werden.

Durch sein spaltenorientiertes Data Warehouse

konnte Airtel-Vodafone seinen Marktanteil steigern

und sich als Top-Player im europäischen Telekommunikationsmarkt

etablieren.

ButUmmm

Sorry!

Kein

Grund

zur

Panik

DIE HIER GENANNTEN BEISPIELE sind nur ein

kleiner Teil der Unternehmen, die aus

eigener Erfahrung wissen, dass Big Data

keine Katastrophe, sondern eine Chance ist.

Weitere Beispiele für ähnlich erfolgreiche

Unternehmen folgen in den späteren Kapiteln

dieses Guides. Sie illustrieren weitere wichtige

Aspekte des aktuellen Technikstands in der

Unternehmensanalyse.

Die Analysebranche hat heute keinerlei

Entschuldigungen mehr, wenn es darum geht,

Big Data für sich nutzbar zu machen. Sie hat keinerlei

Ausflüchte, wenn es darum geht, ihre Analytics

Data Warehouses für Tausende von Nutzern fit zu

machen oder die Analyse auf variable Datentypen

aus jeder nur denkbaren Quelle auszudehnen, wie

beispielsweise auf die massiven, unstrukturierten

Datenmengen von Social-Media-Websites.

Lassen Sie uns eines ganz klarstellen: Die Analysebranche

kann sich nicht mehr hinter dem Big-

Data-Schreckgespenst verstecken, denn wir wissen,

es ist lediglich das: ein Gespenst.

20 21

Ooops

My bad KAPITEL 1: DIE BIG-DATA-LÜGE


Intelligenz für jedermann

KAPITEL 2: INTELLIGENZ FÜR JEDERMANN

22 23


EINE GEMEINSAMKEIT der analysegetriebenen

Unternehmen aus Kapitel 1 besteht darin,

dass ihre IT-Leiter wissen: Moderne BI-

Umgebungen müssen steigende Informationsmengen

verarbeiten, kürzere Antwortzeiten bereitstellen

und größer werdende Nutzerzahlen unterstützen.

Die IT-Verantwortlichen sind sich bewusst, dass

wachsende Datenmengen zu wachsenden Nutzerzahlen

führen, die immer mehr geschäftliche Gründe

dafür haben, diese Datenmengen abzufragen.

Tatsächlich kann die Zunahme der Nutzerpopulation

für manche Anbieter von Data Warehouses (und

damit auch für ihre Kunden) ein sehr viel größeres

Problem sein als das so gefürchtete Big-Data-Phänomen.

Bis zu einem gewissen Grad kann jedes System

so angepasst werden, dass es auch größere Datenmengen

besser bewältigt. Anwender aber lassen

sich sehr viel weniger gut managen. Ihre Abfragen,

Analyse revolutioniert die Arbeitswelt

die von ihnen verursachten Workloads und Aktivitäten

können nicht vorhergesagt werden. Sie sind die

große Unbekannte in jeder Analytics-Umgebung.

Wenn Sie jedoch das System nicht an die Bedürfnisse

der Nutzer anpassen können, können Sie auch

nicht jedem Unternehmensanwender die benötigte

Business Intelligence bereitstellen.

Intelligenz für jedermann ist für Airtel-Vodafone,

comScore, Suntel und viele andere keine Illusion.

All diese Unternehmen können ihren rasch wachsenden

Nutzerpopulationen wertvolle Business Intelligence

bereitstellen, da sie bereits in der Frühphase der

BI-Einführung die Vorstellung von einem Universal-Tool

für alle Analyseaufgaben auf den Prüfstand

gestellt haben.

Standard-Datenbanktechnologien eignen sich

zweifellos für eine Vielzahl von Anwendungen. Ein

Enterprise Data Warehouse (EDW) ist eine hervor-

ragende Lösung für eine überschaubare Zahl von

Nutzern, die regelmäßige Reports und strategische

Einblicke benötigen, bei denen Zeit oder Performance

keine gewichtige Rolle spielen.

Wenn Sie Ihre Analyse-Tools jedoch einer großen

und weiter wachsenden Zahl von Anwendern

bereitstellen wollen, die den Umfang und die

Heterogenität der Daten zunehmend erhöht,

immer mehr Ad-hoc-Abfragen stellt und die

Systemauslastung kontinuierlich steigert, dann

stoßen Sie mit einer Universallösung schnell an

Ihre Grenzen. Wenn es um Analysen geht, lassen

sich die inhärenten Beschränkungen eines Enterprise

Data Warehouse nicht mehr „wegmogeln“, indem

Sie einfach ein neues Modul hinzufügen oder

in mühevoller Arbeit versuchen, das System zu

einzustellen. Dieser Weg ist eine Sackgasse.

Aber warum gelangen EDWs eigentlich so

schnell an die Grenzen ihrer Möglichkeiten, wenn

es um die unternehmensweite Analyse geht?

War dies denn nicht der ursprüngliche Zweck eines

Enterprise Data Warehouse? Warum prognostiziert

Gartner trotz der vielen Milliarden, die in EDW-

Investitionen gefl ossen sind: „Bis 2012 werden

35 Prozent der globalen Top-5000 regelmäßig

scheitern, wenn sie anhand ihres Daten-Pools

fundierte Entscheidungen zu signifikanten

Veränderungen in ihrem Unternehmen und ihren

Märkten treffen wollen“ 13 ?

Die Antwort führt uns zurück zur Technologie

und zu einer weiteren Frage: Warum ist die Architektur

Ihrer Data-Warehouse-Software so überaus wichtig?

Ganz einfach: Weil sie das Fundament ist, auf

dem Sie Business Intelligence für jedermann

bereitstellen können.

Geschäftsführung Manager Wissensarbeiter Marketing Vertrieb Operatives Geschäft Servicetechniker Partner

Sofortiger Einblick

in alle Sachverhalte

Smarteres

Programmmanagement

Schnellere

Ummünzung von

mehr Daten in mehr

Wissen

Metrikgestützte

Kampagnen

Schnellere, gezielte

Ansprache besonders

rentabler Kunden

Mehr Kontrolle,

weniger

Produktionspannen

KAPITEL 2: INTELLIGENZ FÜR JEDERMANN

Schnellere

Problemevaluierung

und -behebung

Bessere

Überschaubarkeit

der Supply Chain

24 25


EDWs:

die Achillesferse des

Unternehmens?

N SEINER KOLUMNE „THE STORY SO FAR “ 14 schreibt der

langjährige Branchenbeobachter Frank Hayes,

dass das Konzept des Data Warehousing mehr

als 25 Jahre zurückreicht – lange bevor der Begriff

„Data Warehouse“ überhaupt geprägt wurde.

Damals schien es machbar, alle relevanten

Geschäftsdaten in einem zeilenbasierten, universellen

und transaktionsorientierten Datenbanksystem

zusammenzufassen. Von Big Data hatte noch

keiner etwas gehört, und die Zahl der potenziellen

Analytics-Anwender war gering. Folglich investierten

IT-Verantwortliche erhebliche Summen in Enterprise

Data Warehouses als primäre Infrastruktur für

Analyseanwendungen.

Dies führte zu einem fundamentalen Problem,

wie BI-Experte Colin White herausstellt. Seiner

Ansicht nach wurden EDWs „in erster Linie eingeführt,

um konzeptionelle Schwächen von Geschäftstrasaktionssystemen

zu beheben“. Auf Betreiben der

Anbieter sei der Leistungsanspruch der Systeme

dann aber so ausgeweitet worden, dass „mittlerweile

Business Intelligence mit Data Warehousing

gleichgesetzt wird“. White weiter: „ Diese Gleichsetzung

ist falsch und muss dringend korrigiert werden.“ 15

I

Lassen Sie uns also eines der technologischen

Defizite betrachten, die ein EDW-Einheitskonzept

KAPITEL 2: INTELLIGENZ FÜR JEDERMANN

laut White für den Analysesektor hat.

Ein universelles Enterprise Data Warehouse beruht

auf einer zeilenbasierten Datenbank (siehe Kasten:

Drei Ansätze zur Speicherung von Analysedaten).

Dies ist ideal für eine transaktionsorientierte

Verarbeitung, die primär auf die Aufzeichnung

eines Ereignisses abzielt. Nehmen wir z. B. an, Kunde X

kauft ein Gerät Y. Wenn die Datenbank das Ereignis

in das Speichersystem schreibt, werden alle Attribute

der Transaktion berücksichtigt – Kundendaten,

Preisinformationen, Gerätespezifikationen, Datum/

Uhrzeit und viele andere Informationen, die alle in

der aufgezeichneten Transaktion enthalten sind.

Wenn ein Business-Analyst jedoch einen Teilsatz

dieser Attribute näher untersuchen möchte, muss

ein Universal-EDW erst alle Attribute in den Speicher

laden, bevor mit der Analyse begonnen werden

kann. Wenn Sie z. B. nur die Beziehung zwischen

Datum/Uhrzeit der Transaktion und der Art des

verkauften Gerätes ermitteln und diese Daten

dann mit externen Informationsquellen koppeln

möchten, ist das System außerstande, nur die

relevanten Daten zu extrahieren, sondern muss erst

sämtliche Kunden- und Preisdaten der Transaktion

abrufen. Dieser Mehraufwand führt zwangsläufig

zu deutlich längeren Antwortzeiten.

26 27


Abb. 2 Drei Ansätze zur Speicherung von Analysedaten

1

2

3

Column-Store- oder spaltenorientierter Ansatz

Speichert die Daten in Spaltenform und ermöglicht einen hohen Komprimierungsgrad, wodurch sich der

Speicherplatzbedarf signifi kant verringert. Der Column-Store-Ansatz verkürzt zudem die Reaktionszeit bei

Datenabfragen, da die Daten sehr viel schneller ausgelesen werden können, als dies bei herkömmlichen

Verfahrensweisen möglich ist. Beim Laden in die Datenbank werden die Daten automatisch indexiert.

In-Memory-Ansatz

Speichert alle Daten im RAM. Trotz seiner unbestrittenen Schnelligkeit ist dieser Ansatz in 32-Bit-Umgebungen

aufgrund der relativ geringen Speicherkapazität nicht effektiv. In 64-Bit-Systemen mit ihrem inhärent

größeren RAM kann er sinnvoll sein, ist aber mit höheren Kosten verbunden.

Zeilenbasierter Ansatz

Speichert die Daten in Zeilenform auf der Festplatte. Der zeilenbasierte Ansatz ist ideal für die

transaktionsorientierte Aufzeichnung der Daten, erschwert jedoch ihre Indexierung und kann bei

Performance und Skalierbarkeit mit neueren Technologien nicht mithalten.

Verfechter von universellen EDW-Lösungen

werden nun argumentieren, dass es Technologien zur

Behebung der erwähnten Defi zite gibt. Dabei setzen

sie primär auf die Generierung und Speicherung

separater Indexe, um so die längeren Antwortzeiten zu

kompensieren. Dem ist entgegenzuhalten, dass die

Performance von Universal-EDWs mit ausgeklügelten

Tricks zwar erhöht werden kann, dass dies jedoch

stets mit einem erheblichen Zeit- und Kostenaufwand

verbunden ist und das Management der Systeme

deutlich erschwert. Es beschränkt außerdem die

fl exible Erzeugung verschiedener Abfragetypen,

falls die IT-Abteilung die notwendigen Indexe nicht

sorgfältig genug generiert hat. Und selbst wenn

alles richtig gemacht wird, können Universallösungen

maßgeschneiderten Analyse-Engines hinsichtlich

Performance und Skalierbarkeit nicht das

Wasser reichen. Selbst einer der Pioniere

zeilenbasierter relationaler Datenbanken gibt mittlerweile

zu, dass die Technologie ihre besten Zeiten

hinter sich hat, und bezeichnet sie als „in die Jahre

gekommen“ 16 .

Data Warehouses wurden für Geschäftstransaktionen

entwickelt, und da so viele Unternehmensdaten

in ihnen lagern, wurden sie nach und nach mit

Analysefähigkeiten ausgestattet. Man könnte also

sagen, dass aus Universal-EDWs fast schon versehentlich

Analyse-Engines wurden.

Aus Nutzersicht sollte dieses Versehen schleunigst

korrigiert werden. Denn wenn die Reaktionszeit

ein kritischer Faktor ist oder wenn die Unterstützung

von Hunderten, ja Tausenden Nutzern über Wohl

und Wehe eines Unternehmens entscheidet, dann

werden EDW-Einheitslösungen aufgrund ihrer

mangelnden Performance und Skalierbarkeit nur

allzu leicht zur Achillesferse des Unternehmens.

Eine solide

Analyse-Architektur

Analyse- Architektur

WENN DIE GUTE ALTE RELATIONALE DATENBANK NICHT

DIE RICHTIGE WAHL IST, WAS IST IST ES DANN? WIE SEHEN DIE

ZENTRALEN ARCHITEKTURMERKMALE ARCHITEKTURMERKMALE EINES EINES ANALYTICS

DATA WAREHOUSE WAREHOUSE AUS?

KAPITEL 2: INTELLIGENZ FÜR JEDERMANN

28 29


WIE IN KAPITEL 1 BEREITS ERWÄHNT, benötigen Sie zunächst eine speziell für

diese Aufgabe entwickelte Analyse-Engine. Eine solche Engine

verwendet vermutlich einen Column-Store- oder spaltenorientierten Ansatz für

die Datenspeicherung. Einer der größten Vorteile der spaltenorientierten Tech-

nologie besteht in der ausgezeichneten Kompressionsfähigkeit. Dass dies nicht

nur in der Theorie, sondern auch in der Praxis ein handfester Vorteil ist, zeigt

das Beispiel der deutschen Citigroup-Tochter. Ihre spaltenorientierte Datenbank

enthält Handelsdaten aus vier Jahren (13,2 Millionen Transaktionen!) und erzielt

eine Komprimierungsrate von 43 Prozent. Ein herkömmliches zeilenbasiertes

System würde demgegenüber jeden Deal, den die Citigroup-Tochter in ihrer

Datenbank speichert, um 4 Prozent vergrößern. Ähnlich sieht es bei comScore

aus. Der Experte für Analysen über und für Online-Unternehmen konnte

den Speicherplatzbedarf seiner immensen Datensammlung um 40 Prozent

verringern. Andere Unternehmen erzielten mit einem zeilenorientierten

System sogar Komprimierungsraten von bis zu 70 Prozent.

Vorteile der Unternehmensanalyse

Strategie-Leitlinien

-Akquisitionen

-Bewertung von Initiativen

-Marktstrategien

Geringeres Risiko und

höhere Compliance

-Weniger Beurteilungsfehler

-Besseres Datenmanagement

und effi zientere Workfl ows

-Bessere Speicherung und

Zugänglichkeitder Daten

Geschäfts-wert

KAPITEL 2: INTELLIGENZ FÜR JEDERMANN

Verfeinerte KPIs

-Bessere Metriken

-Präzisere Messung

-Bessere Feedbackprozesse

Mehr Innovation

-Gezielte Produkt-/Service-Entwicklung

-Kürzere Markteinführungszeit

-Weniger Konstruktionsfehler

30 31


Aber die Komprimierung ist nur ein Vorteil der

Column-Store-Technologie. Schließlich geht es

Ihnen ja nicht nur um die Speicherplatzverringerung,

sondern darum, ein System mit modernsten

Analysefähigkeiten zu erhalten. Die Architektur

eines solchen Systems muss imstande sein, die

komprimierten Daten mittels Massively Parallel

Processing (MPP) zu parallelisieren – ein entscheidender

Performance-Gewinn. Denn obwohl alle

spaltenorientierten Systeme die komprimierten

Daten automatisch indexieren, verfügen keineswegs

alle über dieselbe Architektur. Einige legen eine

Meta-Ebene über die Daten, um deren Verarbeitung

durch das MPP-System zu ermöglichen. Diese

Meta-Ebene beeinträchtigt die Rohleistung, die

Verarbeitungsperformance bei Ad-hoc-Abfragen

und das Wachstum der Nutzerzahlen; zur Bewältigung

der Big-Data-Herausforderung kann sie sich gar als

völlig ungeeignet erweisen.

Das spaltenorientierte Fundament einer

maßgeschneiderten Analyse-Architektur ermöglicht

unter anderem eine schnellere Implementierung.

Verglichen mit herkömmlichen Universal-EDWs,

die für die Datenindexierung langwierige manuelle

Tuning-Schritte benötigen, indexiert eine

spaltenorientierte Datenbank die Daten automatisch,

sobald sie in das System geladen werden.

Auch bei der Skalierung schneidet eine

Spezialarchitektur sehr viel besser ab. Der Schlüssel

hierfür liegt in der Verwendung einer Shared-Everythinganstelle

einer Shared-Nothing-Technologie.

Ein MPP-gestütztes Data Warehouse mit einem

Shared-Everything-Ansatz kann Abfragelasten

über alle Netzknotenpunkte hinweg dynamisch

managen und ausbalancieren. Es verwendet einen

automatischen Load Balancer, mit dem sich die

Rivalität um kostbare Ressourcen wirksam vermeiden

lässt. Das Ergebnis ist eine berechenbar hohe

Performance und Ressourceneffi zienz für ein

breites Spektrum von gleichzeitigen Workloads.

Eine Shared-Everything-Architektur unterstützt

die unabhängige Skalierung von Datenspeichervolumen

und gleichzeitigen Nutzerabfragen und

vereint so eine hohe Leistungsfähigkeit mit einem

Unstrukturierte Daten – ein ungehobener Schatz

Flickr umfasst mehr als 5 Milliarden Bilder.

Mehr als 30 Milliarden Beiträge werden monatlich auf Facebook gepostet.

98 Millionen Tweets gehen täglich über Twitter.

YouTube-Nutzer laden jede Minute Videos mit einer Länge von insgesamt 24 Stunden hoch.

LinkedIn beinhaltet mehr als eine Million Unternehmensprofi le.

einfachen Management. Damit können Sie kontinuierlich

weitere Daten und Nutzer hinzufügen, ohne dass

bestehende Workloads und Arbeitsabläufe

darunter leiden.

Ein weiterer Vorteil von Spezialarchitekturen

besteht in ihrer Fähigkeit zur In-Database-Analyse.

Dies bedeutet, dass alle Workload-relevanten

Daten für die Verarbeitung verfügbar sind, ohne

dass das System sie von außerhalb abrufen muss.

Denn die Verschiebung von Daten ist ein echter

Performance-Killer. Wenn Sie hingegen Analysefunktionen

und Daten innerhalb der Datenbank

unterbringen, können Sie die Reaktionszeiten

drastisch verkürzen.

Eine maßgeschneiderte Analyse-Architektur

wird von vornherein für alle denkbaren Datentypen

entworfen. Demgegenüber stammt die

Architektur von Universal-EDWs aus Zeiten, in

denen BI-Anwendungen ausschließlich strukturierte

Daten nutzten. Heutzutage muss dagegen jede

ernstzunehmende Analyse-Engine in der Lage

sein, BI-Funktionen mühelos auf riesige Mengen

unstrukturierter Daten anzuwenden, die aus den

verschiedensten Quellen in das System strömen (siehe

Kasten: Unstrukturierte Daten – ein ungehobener

Schatz). Nach Schätzung von IDC liegen 90 Prozent

der Informationen im „digitalen Universum“ in

unstrukturierter Form vor. Universal-EDWs sind

schon mit den unstrukturierten Daten aus sozialen

Netzen überfordert bzw. führen dazu, dass

wichtige Informationen ignoriert werden – mit

den entsprechend negativen Folgen für die

Analysegenauigkeit.

Beim Thema Datentypen darf nicht vergessen

werden, dass relationale Systeme an der Verarbeitung

nicht relationaler Daten nur allzu leicht scheitern

können. So stellt die Analyse von hierarchischen

XML-Daten, unstrukturierten Weblogs und Punkt-zu-

KAPITEL 2: INTELLIGENZ FÜR JEDERMANN

Punkt-Diagrammen relationale Datenbanken

vor ein unlösbares Problem. Maßgeschneiderte

Analysesysteme mit einer sorgfältig konzipierten

Architektur kommen dagegen sogar mit diesen

Datentypen zurecht.

Zusätzlich zur Verarbeitung ständig anwachsender

und scheinbar unendlich vielfältiger Daten müssen

Analyse-Engines noch eine weitere Hürde nehmen:

die gleichzeitige Bewältigung zahlreicher Workloads.

Sie dürfen bei keiner Aufgabe – wie anspruchsvoll

auch immer – in die Knie gehen. Wenn der DBA neue

Daten aus externen Quellen in die Datenbank lädt und

gleichzeitig verarbeitungsintensive Batch-Berichte

zu erstellen sind, muss das System trotzdem die

Ad-hoc-Abfragen der diversen Nutzerpopulationen

mühelos abarbeiten können. Workload-Variabilität

ist eine essenzielle Voraussetzung für die Analyselandschaft

des 21. Jahrhunderts.

Zudem muss gewährleistet sein, dass Geschäftsanalysten

standardmäßige SQL-Tools für ihre

Abfragen nutzen können. Auch sollte es möglich

sein, Executive Dashboards ohne einen Wechsel des

Visualisierungs-Tools zu nutzen. Und schließlich

sollten Entwickler bei der Erstellung von BI-Apps

neueste Programmierfortschritte wie MAP Reduce

nutzen können.

Eine maßgeschneiderte Architektur stellt jedem

Unternehmensanwender die benötigten Analysefunktionen

zur Verfügung. Sie deckt das ganze

Spektrum der Datentypen ab und unterstützt

gleichzeitig eine dramatische Ausweitung des zu

verarbeitenden Datenvolumens. All dies ohne

Einbußen bei der Performance oder Skalierbarkeit.

Auf den folgenden Seiten erfahren Sie, wie

Unternehmen ihre BI-Probleme mit einer auf sie

zugeschnittenen Analytics-Technologie konkret in

den Griff bekommen haben.

32 33


Business Analytics

in der Praxis

KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS

34 35


EDE BRANCHE HAT IHRE GANZ SPEZIELLEN BESONDERHEITEN.

Das gilt auch für Unternehmen, selbst wenn sie

innerhalb ein und derselben Branche tätig sind.

Dennoch steht fast jedes Unternehmen in jeder

Branche vor denselben zwei eng miteinander

verwobenen Problemen: Was tun mit all den

Informationen, die 24 Stunden am Tag in das

Rechenzentrum strömen? Wie umgehen mit der

steigenden Zahl von Anwendern, die diese

Informationen analysieren wollen?

Im Gesundheitsweisen wird die Umstellung auf

elektronische Patientenakten und die resultierende

Analyse von Patientendaten dadurch vorangetrieben,

dass sich die Anbieter davon jährliche Einsparungen

von mehreren 707 Milliarden Euro versprechen. 17

J

In der Produktion konnte durch das Lieferketten-

Outsourcing laut McKinsey zwar viel Geld gespart

Aufgabe

Massiver Datenzufluss in Echtzeit

Extrem kurze Entscheidungszeiten

Komplexes, ständig im Wandel

befindliches Rechtsumfeld

werden; gleichzeitig ist es aber für Unternehmensleitung,

Geschäftsanalysten und Prognoseexperten

wichtiger denn je, möglichst viele Informationen

über sämtliche Aspekte von der Rohstoffverfügbarkeit

bis zu den Lagerbeständen bei Partnerfirmen zu

sammeln, abzurufen, zu speichern und zu analysieren18 .

Und Handelskonzerne wie Wal-Mart mit einem

täglichen Volumen von 267 Millionen Transaktionen19 stellen fest, dass „die Einbindung von Customer

Insight in Geschäftsentscheidungen dramatische

Wettbewerbsvorteile bringen kann“ 20 .

In diesen und anderen Branchen erwarten immer

mehr Nutzer von ihrem CIO, dass er ihnen Zugang

zu der ins Unternehmen strömenden Datenflut

gibt und deren Analyse ermöglicht. Natürlich

erwarten sie außerdem, dass die Reaktionszeit

auf ihre Abfragen dem entspricht, was sie von

Innovation im Analytics-Bereich: Finanzdienstleistungen

Innovation

Analytics Engine, die immense Datenmengen

problemlos bewältigt

Reaktionszeiten im Millisekunden-Bereich

Einfaches Management von Datenspeicherung

und -zugriff für eine zuverlässige

Einhaltung der Vorgaben zur langfristigen

Daten-aufbewahrung

Suchmaschinen wie Google oder Bing kennen. Der

sofortige Zugriff auf Informationen und Antworten

ist aber nicht nur ein Trend oder eine Erwartung,

er ist ein absolutes Muss für jedes Unternehmen.

Dabei kann das, was wir Menschen unter

„sofort“ verstehen, für manche Märkte zu langsam

sein. Unternehmen, die in diesen Märkten aktiv

sind, benötigen eine Analyse in Machine-to-

Machine (M2M)-Geschwindigkeit.

Die Beschleunigung zum Machine-to-Machine-

Takt findet sich laut Wall Street & Technology

besonders in der Finanzindustrie, wo sich die

Frist für Entscheidungen von „Mikrosekunden zu

Millisekunden und Nanosekunden immer weiter

verkürzt“. Analysefunktionen werden hier auf

Geschäftsprozesse für Finanztransaktionen

angewendet, die von Computern ausgeführt

werden, da nur noch Computer fähig sind, mit

der reißenden Geschwindigkeit des Datenstroms

mitzuhalten. Die immensen Kosten der hierfür

notwendigen Technologien führen dazu, dass nur

die ganz Großen der Branche imstande sind, dieser

Entwicklung durch immer schnellere Hardware und

Netzwerke zu begegnen. Für alle anderen besteht

laut Larry Tabb, CEO des Analysehauses Tabb Group,

„der nächste Schritt darin, komplexere Entscheidungen

zu treffen“. Wenn Ihr Unternehmen also nicht

über unbegrenzte Mittel verfügt, müssen Sie ganz

einfach smarter werden. Konkurrenzfähig wird

laut Tabb nur der sein, der „die Hürden für die

Analyse senkt“. 21

Ähnlich wie Finanzdienstleister werden auch

Telekommunikationsunternehmen unter einer

regelrechten Datenlawine begraben, aus der sie

KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS

Die

erfolgreiche

Bewältigung

der Datenflut

DIE OPTIONS PRICE REPORTING AUTHORITY (OPRA)

ist nur einer der vielen Marktdaten-Feeds,

zu denen auch Consolidated Quote System,

New York Stock Exchange Open Book, NASDAQ Trade

Data Dissemination Service und zahlreiche andere

gehören. Neben anderen essenziellen Informationen

zu den Finanzmärkten stellt sie detaillierte Daten

zu abgeschlossenen Handelstransaktionen und

aktuellen Optionen bereit. Dabei entsteht Sekunde

für Sekunde ein unvorstellbares Datenvolumen, das

ständig weiter anschwillt.

Jährliche Spitzenwerte bei den Nachrichten pro

Sekunde (MPS):

500 1995

4.000 2000

83.000 2005

2.200.000 2010

OPRA-Abonnenten müssen gigantische Datenmengen

meistern können: Bei einem Durchschnittswert von 120

Bytes pro MPS ergeben sich 264 MByte, die jede Sekunde

allein über OPRA eingespeist werden.

36 37


Innovation im Analytics-Bereich: Gesundheitswesen

Aufgabe

Unterstützung bei der Konsolidierung und

Analyse großer Datenvolumen mit dem Ziel,

die Forschung zu beschleunigen, die

Gesundheitsversorgung zu verbessern und

die Kosten zu senken

Unterstützung beim Anpassungsdruck

infolge des ständigen Wandels der gesetzlichen

Vorschriften und Regelungen

Echtzeit-BI destillieren müssen. Europäische Tier

1-Anbieter verzeichneten von 2007 bis 2010 eine

Zunahme ihres Datenvolumens um 700 Prozent.

In Lateinamerika verdoppelte sich der Datenzustrom

bei vergleichbaren Anbietern in nur vier Jahren

von 5 auf 10 Terabyte. Damit nicht genug: Der von

Smartphones erzeugte Netzverkehr wird von 18,5

Prozent 2009 auf geschätzte 56 Prozent im Jahr

2015 steigen und so die Datenmenge weiter nach

oben treiben. 22 Allein die Fülle und Geschwindigkeit,

mit der die Informationen in die Rechenzentren

der Telekommunikationsanbieter strömen,

würde – wie im Finanzsektor auch – einen menschlichen

Analysten komplett überfordern. Echtzeitentscheidungen

sind z. B. für die Sicherstellung der

Dienstgüte (QoS) relevant und müssen auf Basis

einer Analyse getroffen werden, die in Geschäftsprozesse

integriert ist, wobei Letztere wiederum von

Computern verarbeitet werden.

Angesichts dieses Big-Data-Szenarios raten

Innovation

Analytics-Technologien, die Data Mining,

statistische Analyse, Prognose, prädiktive

Modellierung und Optimierungstechniken

nutzen, um strategische und operative

Entscheidungen und Maßnahmen zu

unterstützen

Technologien, die den immer neuen

HIPAA-Anforderungen entsprechen und die

Integration von Geschäfts-prozessen

wirksam unterstützen

manche Branchenvertreter dazu, bei der Datenanalyse

nach dem Motto „Weniger ist mehr“ zu handeln.

Dieser Ratschlag kommt häufig von Anbietern, die

eben nicht über die Technologie für die Bewältigung

von Big Data verfügen und Ihnen weismachen

wollen, dass die Analyse von kleineren Datenmengen

„völlig ausreichend“ sei.

Wie Googles Chief Economist Hal Varian bemerkt,

zeigt ein genauerer Blick zwar, dass die Analyse

eines kleinen, zufällig gewählten Datenausschnitts

durchaus valide Ergebnisse erbringen kann. Um

eine wirklich zufällige Datenauswahl zu erhalten,

benötigen Sie jedoch einen gewaltigen Daten-Pool.

Ohne einen derartigen Pool sind Ihre Analyseprozesse

nicht wirklich stichhaltig. Anders ausgedrückt: Big

Data ist die beste Voraussetzung für den Erhalt

valider Daten. 23

Wenn ein Anbieter also wieder einmal argumentiert,

dass kleine Datenvolumen ausreichen, liegt das vermutlich

daran, dass er Big Data nicht gewachsen ist.

Die Ummünzung

von Big Data in

greifbare Vorteile

38 39

12B56

57>4d

KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS


KOLOSSALE DATENMENGEN sorgen schon heute für

maximale Einblicke. Weltweit lassen Unternehmen

ihr Big-Data-Aufkommen erfolgreich

analysieren, um daraus greifbare Vorteile zu ziehen.

Ein Beispiel hierfür ist CoreLogic, eine Tochter des

Fortune 500-Finanzdienstleisters First American.

Als innovativer Anbieter von Hypothekenabsicherungen

stand CoreLogic vor der Aufgabe, sein Geschäft

auszubauen und immer anspruchsvolleren Kunden

attraktive Lösungen zu offerieren, gleichzeitig jedoch

eine effiziente Technologie-Infrastruktur zu unterhalten.

Neue Web-Angebote und eine verbesserte Funktionalität

der Analyseanwendungen standen ebenfalls auf

der Bedarfsliste.

Problematisch war, dass CoreLogic bei der Analyse

bis dahin einen herkömmlichen Einheitsansatz verfolgt

hatte. Das Analysesystem war somit nicht in der

Lage, die variablen Workloads der zweistelligen

Terabyte-Volumen zu verarbeiten. Bei 20 Prozent der

Nutzerabfragen benötigte das System fünf Minuten

und länger, während es bei fünf Prozent der Abfragen

aufgrund der schieren Datenmenge einfach mitten

in der Verarbeitung ausstieg.

Heute verfügt CoreLogic über eine maßgeschneiderte

Analyse-Engine mit einer Architektur, die modernste

Column-Store-Technologie und die Fähigkeit zur

Bewältigung massiver Datenmengen aufweist. Die

Performance der BI-Anwendungen konnte damit um

glatte 800 Prozent gesteigert werden.

Für CoreLogic ging es hier nicht nur um einige

kosmetische Verschönerungen, sondern um eine

Rundumerneuerung, die den Nutzern von CoreLogic –

insbesondere den Power-Usern – eine völlig

neuartige Erfahrung verschafft hat.

Der rapide technologische Fortschritt hat auch im

traditionell heiß umkämpften Telekommunikationsmarkt

eine neue Ära eingeläutet. Dazu kommt, dass Telekommunikationsanbieter

aufgrund der weltweiten

Gesetze zur Datenaufbewahrung vor neuen

Herausforderungen stehen. Auch Taiwan Mobile,

ein großer asiatischer Mobilfunkbetreiber, ist hier

keine Ausnahme.

Bei ihrer Tätigkeit sammeln Telekommunikationsunternehmen

gigantische Mengen an Rohdaten,

die für Kundenrechnungen und Finanztransaktionen

verwendet werden. Darüber hinaus sind sie gesetzlich

verpflichtet, Verbindungsdaten (Call Detail Records,

CDRs) zu speichern und den Behörden bei Bedarf zur

Verfügung zu stellen. CDRs umfassen Angaben zu

Datum, Uhrzeit, Ziel, Rufnummer und Dauer eines

jeden Telefonats und müssen zwischen sechs und 24

Monaten aufbewahrt werden.

Taiwan Mobile ist verpflichtet, diese Verbindungsdaten

für die Dauer von sechs Monaten zu speichern. Bei

mehr als sechs Millionen Mobilfunkkunden geht

die Zahl der täglichen Rufdaten und Transaktionen

leicht in die Milliarden. Taiwan Mobile schätzt sein

Gesamtspeichervolumen auf rund 10 Terabyte – viel

zu viel für das bisherige System.

Indem es anstelle der herkömmlichen Universaltechnologie

einen modernen spaltenorientierten

Ansatz wählte, konnte Taiwan Mobile seinen

Aufbewahrungspflichten nachkommen, dank der

hohen Komprimierungsrate den Speicherbedarf

drastisch verringern und zugleich die Analysegeschwindigkeit

deutlich erhöhen.

Innovation im Analytics-Bereich: Telekommunikation

Aufgabe

Customer Analytics – Geringere

Kundenfluktuation und höherer ARPU

durch bessere, schnellere Einblicke in

umfangreiche Daten zu Kundenprofil,

-nutzung und -trends

Servicequalität – Sicherstellung der

Kundenzufriedenheit und Einhaltung

stringenter SLAs durch die Integration

und Analyse von Netzwerk- und

Kundendaten in Echtzeit

Optimierung der Netzwerkkapazität

–Optimierung von Netzwerkaufwendungen

und -auslastung durch die

Echtzeitüberwachung und -messung

von Milliarden Netzwerkereignissen

bis hinunter auf die Geräteebene

KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS

Innovation

Aktive Überwachung der Kundenfluktuation

– Erkennung von Mustern bei

der Abonnementkündigung sowie von

Chancen für die Steigerung der

Kunden-zufriedenheit

Aktive Überwachung von Netzwerkbedingungen

und Priorisierung der

Netzwerkauslastung auf Basis der

Kunden-rentabilität

Vereinheitlichung aller historischen

Kundendaten für aktuelle Einblicke durch

die Kundenbetreuer

Erfassung, Filterung und Aggregation der

Kundendaten für eine historische Analyse

nach Faktoren wie Support-Anrufen,

Zahlungsverhalten, Upgrades, Nutzung

und Gesamtrentabilität

40 41


HEALTHTRANS, eines der größten und am schnellsten

wachsenden PBM-Unternehmen (Pharmacy

Benefits Management) in den USA, unterstützt

Arbeitgeber, externe Verwaltungsstellen, Vermittler,

Berater, Managed-Care-Anbieter und andere Kunden

mit leistungsfähigen Tools und medizinischem

Know-how dabei, ihre Programme zum Management

der Arzneimittelzuschüsse effizienter und wirksamer

umzusetzen. Das Unternehmen verwaltet über 100

Terabyte an Daten und verarbeitet täglich mehr als

Kurzprofil HealthTrans

Weniger Speicherbedarf,

mehr Einblicke

2000 100 Millionen

Gegründet 2000 100 Millionen Fälle/Jahr

15,3 Millionen $4 Milliarden

eine Viertelmillion neuer Transaktionen.

Die vorhandene klassische Datenbankarchitektur

des Unternehmens kam bei diesem Volumen

regelmäßig ins Stocken und benötigte acht bis

zehn Stunden für die Report-Erstellung. Durch

den Umstieg auf ein individuell zugeschnittenes

Analysesystem ließ sich diese Zeitspanne auf zwei

bis drei Minuten verkürzen. Gleichzeitig benötigt

HealthTrans nun 69 Prozent weniger Speicherplatz

als zuvor.

15,3 Millionen Patienten Milliarden US-Dollar für verschreibungspflichtige

Medikamente

100 250.000+

100 Terabyte gespeicherte Daten 250.000+ Transaktionen/Tag

69 %

Verringerung des Speicherbedarfs um 69%

Analyse-Software in der Cloud

CLOUD-BASIERTE ANALYSE-SOFTWARE wird von

zahlreichen kleineren Firmen angeboten,

die ihren Kunden die Ausführung von

BI-Anwendungsinstanzen in einer gemeinsam

genutzten Infrastruktur ermöglichen. Cloud-Lösungen

verursachen geringe Einstiegskosten, da die Software

zwar konfigurierbar ist, jedoch nur schwer oder überhaupt

nicht angepasst werden kann. Weil der Kunde weder

Software noch Hardware anschaffen muss, fallen lediglich

Betriebskosten an; viele kleine und mittelständische

Unternehmen (KMUs) entscheiden sich für Cloud-basierte

Lösungen und umgehen somit die IT.

Allerdings haben Cloud-Analyseprogramme trotz ihrer

geringen Kosten und einfachen Implementierbarkeit auch

signifikante Nachteile. Einer der größten ist zweifellos

die Datensicherheit – ein Thema, das von vielen, aber

eben nicht allen Anbietern zufriedenstellend gelöst ist.

Big Data ist ein noch schwerwiegenderes Problem.

Selbst wenn die Analyse von Daten-Gigabytes in der Cloud

EINE DATA WAREHOUSE APPLIANCE ist ein vorkonfiguriertes

und vorabgestimmtes Produkt, das zumeist eine

Datenbank, grundlegende Modellierungs-Tools

und BI-Funktionen umfasst, die nach dem Laden der

Daten sofort nutzbar sind. Data Warehouse Appliances

werden in der Regel als taktische Lösung für Data-Mart-

Anwendungen eingesetzt.

Die Datenmenge sollte 1 Petabyte nicht überschreiten,

und auch die Nutzerpopulation sollte begrenzt sein.

KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS

problemlos funktionieren sollte, stelltdas Laden von

Terabytes in die Cloud eine erhebliche Hürde dar.

Und spätestens die Cloud-Analyse von Datenmengen

im Petabyte-Bereich endet im Desaster. Auch die

Erweiterung eines Systems auf eine größere Zahl von Anwendern

bleibt nicht ohne Schwierigkeiten. Dazu kommt,

dass Ad-hoc-Abfragen in vielen Fällen nicht machbar sind.

Eine Cloud-basierte BI ist ideal für kleine Unternehmen,

die sich keine eigene Analyse-Infrastruktur leisten

können oder wollen. Cloud-Lösungen verschaffen

ihnen wertvolle Einblicke in ihr Geschäft und ihre

Märkte. Nicht zuletzt können Cloud-Anwendungen

auch in größeren Unternehmen die IT entlasten,

wenn eine Abteilung oder Gruppe kurzfristig Zugriff

auf ein Analysesystem benötigt und das bestehende

System mit der zusätzlichen Arbeitslast überfordert ist.

Für die meisten großen Unternehmen sind die derzeit

erhältlichen Analytics-Optionen in der Cloud jedoch

keine empfehlenswerte strategische Lösung.

Appliances: kleine Lösungen für überschaubare Ansprüche

Allerdings sind einige Appliances nach Angabe ihrer

Anbieter in der Lage, auch größere Datenvolumen und

mehrere Tausend Nutzer zu unterstützen.

Zur Vereinfachung der Administration sollten

Appliances über eine einheitliche Konsole verfügen und

darüber hinaus schnell implementierbar sein. Appliances

sind kostengünstige Lösungen, die unter bestimmten

Umständen gerade für kleine bis mittelgroße

Unternehmen sehr gut geeignet sein können.

42 43


Internet-Nutzer (Mio.)

ER RUF NACH ANALYSEFUNKTIONEN für die stetig

wachsende Zahl der mobilen Nutzer wird

weltweit immer lauter. Laut Morgan Stanley

werden 2014 mehr Anwender mobil ins Internet

gehen als über herkömmliche Desktop-Rechner. 24

Gartner geht davon aus, dass bis 2013 bereits 80

Prozent der Unternehmen ihre Belegschaft mit

Tablets ausstatten werden. 25 D

Dies gilt natürlich

auch für mobile Nutzer, die unterwegs auf BI-

Applikationen zugreifen und Ad-hoc-Abfragen

2.000

1.600

1.200

800

400

Analytics für

mobile Nutzer

Abb. 3 Mobile Nutzer > Desktop-Internet-Nutzer in fünf Jahren

starten müssen.

Da die Anwender sehr wahrscheinlich die mobile

Plattform ihrer Wahl verwenden werden – seien

es iPads und iPhones oder Android- und Windows-

Geräte –, wird die IT nicht kontrollieren können,

wer was nutzt, um auf die neuen mobilen BI-Apps

zuzugreifen. Dieser Trend wird der Nachfrage nach

Analyseanwendungen zusätzlichen Schub verleihen

– eine Herausforderung, der sich die IT weltweit

stellen muss.

Prognose der weltweiten Entwicklung Mobile vs. Desktop-Internet-Nutzer bis 2015

Mobile Internet-Nutzer

Desktop-Internet-Nutzer

Mehr Nutzer,

weniger Probleme

KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS

44

2007E 2008E 2009E 2010E 2011E 2012E 2013E 2014E 2015E

2011

Quelle: Morgan Stanley Research

45


MIT DER BEWÄLTIGUNG DER BIG-DATA-HERAUSFORDERUNG

haben die meisten Unternehmen jedoch

nur die Hälfte der Analyseproblematik

gelöst. Eine ebenso große Aufgabe ist die ständig

wachsende Zahl von Anwendern. Zum Glück kann

eine maßgeschneiderte Analyse-Architektur auch hier

Abhilfe schaffen. Und zwar nicht nur am grünen Tisch,

sondern im harten Praxisalltag.

Ein Beispiel: Alvion Technologies, Inc. stellt einigen

der weltgrößten Besitzern von Marketing-Datenlisten

ausgelagerte Datenmanagement-Services bereit.

Die Kunden mit so klangvollen Namen wie Axiom,

Equifax, Experian und Dunn & Bradstreet verfügen

über Datenmengen von bis zu 190 Millionen Records

und 200 Attributen. Insgesamt verwaltet Alvion

rund ein Terabyte an Daten für Outsourcing-Kunden.

Kurzprofil BNP Paribas Securities Services

2001 6,2 Billionen 1 Billionen

Entstanden 2001 aus Zusammenschluss von

BNP und Paribas; 100-prozentige Tochter von

BNP Paribas Group SA

„Assets under Custody”:6,2 Billionen US-Dollar

Erste 10.000 200.000

Erste europäische Großbank, die die Basel

II-Anforderungen erfüllt

Täglich stellen über 12.000 registrierte Nutzer bis zu

2.000 Ad-hoc-Abfragen an das spaltenorientierte

Analysesystem. Dazu kommen zahllose regulär

generierte Berichte. Trotz dieser enormen Auslastung

liegt die durchschnittliche Antwortzeit bei weniger als

20 Sekunden.

Der global agierende französische Finanzriese BNP

Paribas Securities Services bietet mehr als 10.000

Nutzern Analysefunktionen und Zugang zu circa

200.000 Reports. Die positiven Erfahrungen mit

dem maßgeschneiderten Analysesystem haben

diese Nutzer dazu veranlasst, jeden Monat 10.000

bis 20.000 zusätzliche Reports anzufordern. Nicht zu

verachten sind auch die rund 10.000 Ad-hoc-Abfragen,

die pro Monat verarbeitet werden. Und als besonderes

Plus erhalten Kunden und interne Anwender nun

10.000 Ad-hoc-Abfragen/Monat

10.00-20.000 10.000+ Real Time

10.00-20.000 neue Berichte/Monat 10.000+ Analytics-Nutzer

Berichte und Abfragen beinahe in Echtzeit.

Banco Macro begann als regionales argentinisches

Bankhaus und entwickelte sich im Laufe der Jahre zu

einer der führenden Banken des Landes. Die noch aus

den Anfängen stammende SQL-Datenbank brach

unter der Last einer Nutzerbasis, die von sechs auf

mehr als 800 Personen angewachsen war, fast

zusammen. Selbst Basis-Abfragen dauerten bis zu

fünf quälend lange Minuten. Nach dem Umstieg

auf eine eigens konzipierte Analyse-Architektur

reduzierten sich die Antwortzeiten auf 20 bis 30

Sekunden – obwohl sich die Nutzerpopulation auf

1.700 nahezu verdoppelt hatte und Datenmengen, die

um das Doppelte über denjenigen der ursprünglichen

SQL-Datenbank lagen, einen enormen Anstieg der

Workloads mit sich brachten.

„Assets under Administration”: 1 Billion

US-Dollar

200.000 Berichte

Nahezu-Echtzeit-Reaktion

KAPITEL 3: BUSINESS ANALYTICS IN DER PRAXIS

Aussagekräftige

Datenstichproben

ALLE HIER GENANNTEN BEISPIELE veranschaulichen

das Prinzip, aus einem großen Datenpool

eine mengenmäßig begrenzte Stichprobe

zu entnehmen, um zu validen Schlussfolgerungen

zu gelangen. Sie sind nur ein kleiner Auszug

aus einer langen Liste von Unternehmen, die

sich den Herausforderungen von Big Data und

wachsenden Nutzerzahlen erfolgreich gestellt

haben. All diese Unternehmen hatten Erfahrungen

mit traditionellen, universell ausgelegten SQL-

Datenbanken gesammelt und waren dabei an

unüberwindbare Grenzen gestoßen.

Durch maßgeschneiderte Analysetechnologien

konnten sie nicht nur ihre aktuellen Aufgabenlösen,

sondern sich eine hervorragende Ausgangsbasis

für künftiges Wachstum schaffen. Anstelle die

Flut an neuartigen Daten und den stetigen Zustrom

an neuen Geschäftsanwendern als Problem zu

betrachten, sehen sie die Chancen, die sich daraus

für die Eroberung neuer Märkte, die Entwicklung

neuer Produkte und Services, die Senkung der

Kosten und die Optimierung der operativen

Abläufe insgesamt ergeben.

Unterm Strich erzielen sie so sehr viel schneller

einen substanziellen ROI aus ihren Analytics-

Investitionen. Mit dem Thema der Investitionsrentabilität

von Analyselösungen werden

wir uns im folgenden Kapitel jedoch noch

ausführlicher beschäftigen.

46 47


Best Practices und der

ROI von Analyseprojekten

48 49

1515691///567

1515691///567

KAPITEL 4: BEST PRACTICES UND DER ROI VON ANALYSEPROJEKTEN


1515691///567

1515691///567

In den vorangegangenen Kapiteln haben wir anhand von Beispielen

gesehen, wie zahlreiche Unternehmen mit Analyseanwendungen

ihren Gewinn erhöhen konnten. Geschäftsanwender sehen in

nahezu allen Bereichen des Unternehmens konsequente

Verbesserungen – von der schnelleren Produktentwicklung und

Markteinführung über den effektiveren Kundenservice bis zu

zielgenauerem Marketing und schnelleren, präziseren Aktivitäten

im Finanzsektor.

Allerdings wäre es vermessen zu behaupten, dass alle BI-

Projekte einen positiven ROI erzielen. Wie überall, gibt es auch hier

Ausreißer. Die Gründe dafür sind meist bekannt: mangelnde

Planung, unzureichende Produkt-Performance und fehlende

Skalierbarkeit. Dahinter steht häufig eine oberflächlich durchgeführte

Machbarkeitsstudie (der sog. Proof of Concept). 26 Ein gründlicher

PoC deckt die möglichen positiven Effekte eines Analytics-Projekts

auf und enthüllt zudem auch viele der Schwächen, die ein fehlerhaft

konzipiertes Vorhaben ins Straucheln bringen können.

KAPITEL 4: BEST PRACTICES UND DER ROI VON ANALYSEPROJEKTEN

Der Proof of Concept – ein

leistungsstarkes Instrument

50 51


DER PROOF OF CONCEPT ist der erste Schritt auf

dem Weg zu einem positiven ROI. Um von

vornherein die richtigen Voraussetzungen

für den Projekterfolg zu schaffen, sollte der Proof of

Concept auf Ihrem heimischen IT-Terrain stattfinden.

Die Durchführung von PoCs im Testlabor des Herstellers

ist zeitaufwändig, teuer (selbst wenn der Hersteller

die Reisekosten übernimmt) und problemträchtig.

So kann der Hersteller beispielsweise jede

Menge Experten aufbieten, die die BI-Umgebung

mit vorgefertigten Daten und Abfragen füttern.

Logischerweise schneiden die angebotenen

Produkte dann sehr viel besser ab, als dies in der

ungeschminkten Praxis Ihres Unternehmens der

Fall wäre.

Wer

Verlässlicher ROI

American Airlines

State of Sao Paulo, Brazil

Cell ©

AOK Hessen

HMV Japan

Zweitens sollten bei einem Proof of Concept – unter

Einhaltung striktester Sicherheitsvorkehrungen

– reale Daten verwendet werden. Wenn Sie von

einem Machbarkeitsnachweis ein aussagekräftiges

Ergebnis erwarten, sollten Sie keinesfalls spezielle

Testdaten akzeptieren. Zudem sollten Ihre Daten

vollständig sein; d. h. es sollte kein Teildatensatz

verwendet werden, sondern die Datenmenge sollte

so groß sein, dass sie die reale Situation abbildet, in

der das Analysesystem später eingesetzt wird.

Es versteht sich von selbst, dass ein PoC anhand

bestehender Berichte durchgeführt werden sollte.

Die dabei erzielten Antwortzeiten sollten

deutlich über den bisherigen Werten liegen.

Andernfalls können Sie den PoC genauso gut

Was

€ 727 Mio./Jahr durch Aufdeckung von Betrugs-delikten

€ 72,7 Mio. aus bis dato unversteuerten Einkommen

€ 14,5 Mio. eingespart durch ein einziges Projekt

€ 2,3 Mio. durch Aufdeckung von Betrugsdelikten

3-15x mehr Wachstum durch Online-Einkauf

abbrechen und mit der Planung Ihres Analyseprojekts

von vorn beginnen.

Wichtiger noch als bessere Resultate bei

bestehenden BI-Reports ist es, dass der PoC auch

typische Ad-hoc-Abfragen beinhaltet. Diese

Abfragen sollte der Hersteller im Vorfeld nicht zu

Gesicht bekommen. Ad-hoc-Abfragen bei einem

Proof of Concept sollten für den Hersteller genauso

schwierig zu meistern sein wie für die IT in der

realen Arbeitswelt.

Grundsätzlich sollten die getesteten Systeme

gegenüber Ihren bestehenden BI-Abläufen einen

deutlichen Performance-Sprung erzielen. Auch

sollten eindeutige Vorteile bei der Menge und

Vielzahl der analysierbaren Daten zu verzeichnen

sein. Selbst wenn Sie in der Analysepraxis (noch)

nicht mit unstrukturierten Daten arbeiten,

sollten Sie diese Daten in den PoC aufnehmen.

Nur so können Sie erkennen, welches künftige

Analysepotenzial Ihr Unternehmen hat und ob

der Hersteller in der Lage ist, mit verschiedenen

Datentypen umzugehen.

Schließlich sollten Sie bedenken, dass Hersteller,

die für einen PoC mehrere Wochen, ja einen Monat

oder mehr veranschlagen, als Lieferanten von

vornherein ausscheiden. Ein PoC in Ihrem eigenen

Unternehmen mit Ihren eigenen Daten, Berichten

und Ad-hoc-Abfragen sollte in Tagen, maximal in

einer Woche abgeschlossen sein.

KAPITEL 4: BEST PRACTICES UND DER ROI VON ANALYSEPROJEKTEN

Die Voraussetzungen

für ein erfolgreiches

Analyseprojekt

Die sieben Schritte des CIO-Magazins für das Rollout

von Enterprise-Analytics-Systemen27 1. Stellen Sie sicher, dass die Daten gründlich bereinigt sind.

2. Schulen Sie Ihre Anwender.

3. Führen Sie das System schnell ein, und nehmen Sie

dann die erforderlichen Anpassungen vor. Verwenden

Sie im Vorfeld nicht zu viel Zeit auf die Entwicklung

perfekter Reports; die tatsächlichen Erfordernisse

ändern sich parallel zu Ihrer Geschäftsentwicklung.

Stellen Sie Berichte bereit, die den Anwendern

möglichst schnell einen möglichst großen Nutzwert

bringen, und optimieren Sie diese Berichte daraufhin.

4. Verfolgen Sie bei der Erstellung Ihres Data Warehouse

von vornherein einen integrierten Ansatz. Achten Sie

darauf, dass Ihre Datenstrategie nicht früher oder später

in einer Sackgasse endet.

5. Definieren Sie den ROI vor Projektbeginn. Formulieren

Sie konkrete Vorteile, die Sie erwarten. Überprüfen Sie

dann alle drei bis sechs Monate, ob das Projekt in der

Praxis den erwarteten Nutzen bringt.

6. Konzentrieren Sie sich auf Geschäftsziele.

7. Erwerben Sie BI-Software nicht nur deswegen,

weil Sie glauben, dass Sie sie benötigen. Die richtige

Kaufvoraussetzung ist: Sie wissen, dass Sie bestimmte

Zahlen und Fakten benötigen, und Sie wissen auch, wo

sich diese Zahlen und Fakten in etwa befinden.

52 53


Jenseits des Proof

of Concept

NACHDEM DAS POC-ERGEBNIS GRÜNES LICHT

gegeben hat, können Sie eine Reihe von

bewährten Taktiken anwenden, um den langfristigen

Erfolg Ihres Analyseprojekts sicherzustellen

(siehe Kasten: Die Voraussetzungen für eine

erfolgreiche Analyse). Dabei sollten Sie unbedingt

darauf achten, dass alle Projektbeteiligten während

der gesamten Bereitstellungsphase stets auf dem

Laufenden bleiben. Sorgen Sie für eine kontinuierliche

Kommunikation. Wichtige Projektmitarbeiter dürfen nie

Abb. 4 Ein traditionelles Data Warehouse-Einheitsmodell

In einem typischen DBMS entsteht bei der Speicherung von

1 Terabyte Nutzdaten ein Datenoverhead von 150 %.

Input-DATEN:

1 TB

Quelle: Flat Files, ETL,

Replikation, ODS

LADEN

durch Fehler im Prozessablauf vom Informationsfl uss

abgeschnitten werden.

Ironischerweise spielt auch die Hardware eine

wichtige Rolle bei der Ermittlung des ROI einer

Analytics-Softwareplattform. Jede Software

benötigt Hardware zu ihrer Ausführung. Wenn sie

jedoch für eine einzige Hardware-Architektur und

-konfi guration entwickelt wird, entsteht eine fatale

Abhängigkeit, die den ROI automatisch mindert.

Spezielle Hardware ist bereits in der Anschaffung

fast immer teurer, und auch ihre Wartung verursacht

meist höhere Kosten. Notwendige Ersatzteile sind

teurer, Systemverwaltung und -administration

schlagen quasi per defi nitionem mit höheren

Kosten zu Buche. Kurz – die Gesamtbetriebskosten

dieser Systeme ziehen den ROI spürbar nach unten.

Konventionelle DBMS

zusammengefasste

Aggregate

1 - 2 TB

Indexe

0,5 - 3 TB

Basistabelle

“Rohdaten”

ohne Indexe

0,9 - 1,1 TB

2,4 - 6

TB

Ein weiteres Problem des Hardware-Lock-in

besteht darin, dass der Hersteller seine Produkte

nach seinem eigenen Zeitplan aktualisiert, der

mit Ihrem eigenen keinesfalls übereinstimmen

muss. Schlimmer noch: Möglicherweise können

Sie Fortschritte bei CPU, Bus, Speicher usw. nicht

nutzen, weil Ihr Anbieter sie schlichtweg ignoriert.

Wenn Sie sich dauerhaft Performance und

Skalierbarkeit sichern möchten, sollten Sie sich

daher Ihre Unabhängigkeit bewahren.

Bei der Auswahl der Analyse-Software ist noch

ein weiterer Hardware-Aspekt zu berücksichtigen.

Angesichts der herannahenden Big-Data-Welle

hat die Speicherkapazität offensichtliche und

gewichtige Auswirkungen auf die TCO – ganz

besonders, wenn Petabyte an Daten anfallen.

Abb. 5 Ein Column-store Datenbank-Modell

Column-Store-Datenbanken

können den Speicherbedarf

der Daten um 10 bis 75 %

reduzieren.

Input-DATEN:

1 TB

Quelle: Flat Files, ETL,

Replikation, ODS

KAPITEL 4: BEST PRACTICES UND DER ROI VON ANALYSEPROJEKTEN

54 55

LADEN

LADEN

Gleiche Eingabedaten:

“Konventionelles DW”

ist 3 – 6 mal größer als

Sybase IQ DW

0,25 - 0,9

TB

All diese Bits und Bytes müssen schließlich irgendwo

gespeichert werden. Gartner meint hierzu: „ Das

Datenwachstum ist die größte Herausforderung für

die Datacenter-Infrastruktur großer Unternehmen.“ 28

Hier hat eine maßgeschneiderte Column-Store-

Architektur eindeutige Vorteile.

In einem herkömmlichen Universal-Data-Warehouse

erhöht sich der Platzbedarf der gespeicherten

Daten (siehe Abb. 4).

Natürlich begegnen Universallösungen diesem Manko

mit zusätzlichen Modulen für die Datenkomprimierung.

Spaltenorientierte Datenbanken müssen hierfür nicht

in die Trickkiste greifen. Sie komprimieren die Daten

ganz ohne zusätzliche Plug-ins oder Module automatisch

um 10 bis 75 Prozent – eine Rate, die sich mit den

herkömmlichen veralteten Verfahren nicht erreichen

lässt (siehe Abb. 5).

Sybase

IQ

Summe Aggr.: 0 - 0,1 TB

Indexe: 0,05 - 0,3 TB

Basistabelle:

0,2 - 0,5 TB

Konventionelle DBMS

zusammengefasste

Aggregate

1 - 2 TB

Indexe

0,5 - 3 TB

Basistabelle

“Rohdaten”

ohne Indexe

0,9 - 1,1 TB

2,4 - 6

TB


ER FINANZIELLE NUTZEN, DEN UNTERNEHMEN aus

einer Analyselösung ziehen können, lässt

sich mit einer mathematischen Gleichung

berechnen (siehe Abb. 6). Wissenschaftler von

MIT und Wharton School untersuchten 179 große

börsengehandelte Unternehmen, die sich durch

„datengestützte Entscheidungen“ auszeichneten.

Dabei kamen sie zu dem Schluss, dass die verwendeten

Analyselösungen den Output- und Produktivitätswert der

Unternehmen um 5 bis 6 Prozentpunkte anhoben. 29

An der University of Texas nahmen Marktforscher

150 Fortune 1000-Unternehmen unter die Lupe um

festzustellen, welche Auswirkungen die Analyse

auf Finanzen, Kundenaktivitäten und betriebliche

Prozesse hatte. 30 D

Ihr Fazit: In einem typischen

Fortune 1000-Unternehmen rechtfertigt bereits ein

einziger Bereich – in diesem Fall die Produktentwicklung

– die Einführung einer Analyselösung.

Laut der Studie steigt die „Fähigkeit eines Unternehmens,

innovative neue Produkte und Dienstleistungen

zu entwickeln, mit der Verfügbarkeit von Daten

und Spezialprodukten bzw. -services, was

wiederum Hand in Hand mit einer besseren Data

Intelligence geht“.

Abb. 6

Gleichung zur Berechnung des

finanziellen Nutzens einer Analyselösung

n


MV = A +DDD x A

i=1

i

Die Berechnung des ROIs

von Analyselösungen

i

Aber wie hoch ist der Nutzen konkret? Laut der

texanischen Analyse könnte ein Unternehmen mit

einem Umsatz von 12 Milliarden Euro über fünf

Jahre hinweg zusätzlich 45 Millionen Euro

erwirtschaften, wenn es entsprechend kompetenten

und befugten Mitarbeitern Analyse-Instrumente zur

Hand geben würde, mit denen diese „Trends und

Nachfragemuster genauer erkennen, fundiertere

Empfehlungen für Entscheidungen aussprechen

und das Profile Matching optimieren“ könnten,

um so den Umsatzerlös der Produkte zu steigern.

Dasselbe typische Fortune 1000-Unternehmen

könnte durch Verkäufe an Neukunden außerdem

ein zusätzliches Umsatzplus von jährlich 10 Millionen

Euro realisieren.

Die Wissenschaftler der University of Texas legten

dar, dass in den operativen Bereichen Anlagennutzung,

Prognose und Planung sowie zeitgerechte Lieferung

von Produkten und Dienstleistungen der umfassende

Einsatz einer Analyselösung durchweg zu positiven

Ergebnissen führt. So kann sich die verstärkte

Analysenutzung in einer um 18,5 Prozent verbesserten

Planungs- und Prognose-Performance niederschlagen. 30

Die Gründe für diesen signifikanten ROI variieren

je nach Unternehmen und Branche. Ein genauerer

Blick auf die Analytics-Nutzung im Telekommunikationssektor

macht jedoch deutlich, wie groß der

Vorsprung einer modernen Analyse-Umgebung

gegenüber herkömmlichen Entscheidungssystemen

ist32 (siehe Abb. 8).

Abb. 7 Der Nutzen der Analyse für die Kundengewinnung

Kunde reagiert auf

Marketingbotschaft

1.Neue Kundendaten

gehen an Analytics

Engine und werden

mit anderen Daten

aggregiert, um eine

Antwort des Unternehmens

zu generieren

2.Marketing erhält

Daten zu dem Programm,

auf das der

Kunde reagiert hat.

Abb. 8 Vergleich herkömmlicher Infrastrukturen mit moderner Echtzeit-Analyse

Speicherkosten

Analyse

Daten-Ladegeschwindigkeit

Daten-Ladezeit

Administrationszeit

Antwortzeit bei komplexen Abfragen

Verfahren für die Datenkomprimierung

Support-Kosten

Herkömmliche

Analyse-Infrastruktur

Hoch

Offline

Gering

Lang

Lang

Stunden/Tage

Nicht ausgereift

56 57

Data

Warehouse

KAPITEL 4: BEST PRACTICES UND DER ROI VON ANALYSEPROJEKTEN

Angemessene Reaktion der

Vertriebs-mitarbeiter

Analytics Engine: kann ein

physisch separates Modul oder Teil

des Data Warehouse sein

Hoch

Vertriebsaktivität wird erfasst und an

das operative Geschäft/die Produktion

übergeben, wo ihr Effekt bewertet und

Prognosen über die gesamte Supply

Chain dynamisch angepasst werden

Operativer Data Mart

Supply Chain

Moderne

Echtzeit-Analyse-Infrastruktur

Gering

Echtzeit

Hoch

Durchschn. 50 % kürzer

Durchschn. 60 % kürzer

Minuten

Durchschn. 40–50 % bessere

Datenkomprimierung

Gering


UMFANGREICHE, faktenbasierte Studien von

Wissenschaftlern und Branchenanalysten

belegen, wie und warum Analyse-Anwendungen

in den allermeisten Fällen zu einem äußerst

erfreulichen ROI führen. Die Erkenntnisse aus diesen

Studien können überzeugende Argumentationshilfen

bei Ihrer Investition in BI-Projekte sein. Allerdings ist

nichts so überzeugend wie der ROI realer Unternehmen.

Natürlich wollen viele Unternehmen die Vorteile,

die sie aus ihren Analyselösungen ziehen, vor der

Konkurrenz lieber geheim halten. Einige wenige

sind jedoch bereit, die erzielten Umsatzsteigerungen

und Kostensenkungen offenzulegen. So kam der

brasilianische Bundesstaat São Paulo mit einer

maßgeschneiderten Analytics-Technologie hartnäckigen

Steuersündern auf die Spur. Das Ergebnis: die

Aufdeckung von unversteuertem Einkommen in

Höhe von 71 Millionen Euro. Ebenso positiv waren

niedrigere IT-Kosten durch geringeren Speicherplatzbedarf

und geradezu phänomenaleVerbesserungen bei der

Berichterstellungszeit, die von mehreren Tagen auf

einige wenige Sekunden schrumpfte.

American Airlines implementierte ein modernes

Analyseprogramm, um Flugticket-Fälschern das

Handwerk zu legen, die Kunden betrogen hatten

und der Fluglinie hohe Kosten verursachten. Die

Fluglinie konnte ihre direkten Verluste durch gefälschte

Tickets um durchschnittlich 707.000 Euro pro Jahr

senken. Zusätzlich konnte die IT-Abteilung ihren

Speicherbedarf um erstaunliche 70 Prozent reduzieren.

Von der Theorie

zur Praxis

Mit sieben Millionen südafrikanischen Mobilfunknutzern

verzeichnete Cell © ein signifikantes und rapide

wachsendes Datenaufkommen, ohne jedoch in

angemessenem Maße an neuen Marktchancen

partizipieren zu können. Durch eine auf seine

Bedürfnisse zugeschnittene Analytics-Infrastruktur

konnte das Unternehmen seine Reporting-Zeit von

acht Stunden auf fünf Minuten zurückfahren und

allein damit 10 Prozent Kosten einsparen. Darüber

hinaus schreibt Cell © seiner Analyselösung

Einsparungen in Höhe von über 14 Millionen Euro

zu, die bei einem einzigen, die Installation von

landesweit 80 Basisstationen umfassenden Projekt

realisiert wurden.

Enterprise Analytics ist

allgegenwärtig

Finanzmodellierung

Produktplanung und -entwicklung

Produktion und operative Analyse

Kundengewinnung

Bewertung von Marketingprogrammen

Kundenbindung

Nach der Einführung einer neuen Analyse-Anwendung

gelang es der AOK Hessen, insgesamt 179 gefälschte

Kostenabrechnungen aufzudecken und sich auf

diese Weise 2,3 Millionen Euro zurückzuholen, die

sie den Betrügern zuvor erstattet hatte. In einem

nächsten Schritt will die Krankenkasse nun Anbieter

ins Visier nehmen, die unverhältnismäßig hohe

Gebühren in Rechnung stellen.

HMV Japan ist im Musik- und Video-Geschäft

aktiv. Indem es mittels modernster Analyse-Software

sehr viel zielgenauere Marketingprogramme

entwickelte, konnte das Unternehmen die Kundenreaktion

auf seine E-Mail-Kampagnen um 50 bis 70

Prozent verbessern. In der Folge stiegen auch die

Verkaufszahlen je nach Kampagne um das 3- bis

15-Fache, während der Umsatz pro Transaktion mit

einem Plus von 150 bis 300 Prozent einen regelrechten

Quantensprung erlebte.

Auch die belgische Colruyt Group verbuchte

innerhalb von nur drei Jahren einen äußerst positiven

ROI. Die spaltenorientierte Architektur des neuen

Analysesystems führte zu einer erheblich besseren

Abfrageperformance für Tausende von Berichten.

Gleichzeitig ließ sich der Speicherplatzbedarf durch

Datenkomprimierung und Indexe um bis zu 70

Prozent verringern.

Im Fokus:

Performance und

Profit

DIES IST NUR EINE KLEINE AUSWAHL DER UNTERNEHMEN,

die mit maßgeschneiderten Analyselösungen

ihre Gewinne nach oben treiben konnten.

Sie stammen aus den verschiedensten Branchen

und Weltgegenden. Allen gemein ist jedoch die

KAPITEL 4: BEST PRACTICES UND DER ROI VON ANALYSEPROJEKTEN

Fokussierung auf Präzision, Performance und –

natürlich Profit, eine Fokussierung, die als

Antriebsfeder für ihre Investition in eine ernsthafte

Analyselösung diente.

Es versteht sich von selbst, dass jedes Unternehmen

seine eigenen Gründe für die Einführung einer

individuellen Analyse-Architektur hat. Jenseits der

offensichtlichen Vorteile eines besseren Dateneinblicks

möchte ein Unternehmen womöglich die Nutzerzahl

erhöhen, ein anderes seine Datenkapazität vergrößern

und ein drittes einfach die Performance steigern.

Sie alle erwarten von einer zeitgemäßen Analyse-

Umgebung jedoch, dass sie sich positiv auf die

Unternehmensbücher auswirkt.

Wie hier dargelegt, ist diese Erwartung sowohl

durch zahlreiche Praxisbeispiele als auch durch

objektive Marktforschungen gerechtfertigt. Der

Nachweis für den Nutzen der Analyse ist erbracht.

Allerdings bleibt auch festzustellen, dass nicht alle

Analyseplattformen über einen Kamm geschoren

werden dürfen. Klassische Einheitslösungen drohen

in der Big-Data-Welle unterzugehen und versagen,

wenn zu viele Anwender gleichzeitig das System

beanspruchen. Sie sind vergleichsweise langsam

und scheitern an komplexen Workloads.

Demgegenüber bietet eine maßgeschneiderte

Analyse-Architektur mit einer spaltenorientierten

Datenbank und den inhärenten Performance- und

Skalierbarkeitsvorteilen so vielen Unternehmensbereichen

messbare Produktivitätsvorteile, dass der

höhere ROI fast schon in den Hintergrund rückt. Fast.

Denn natürlich ist der ROI ein zentraler Faktor

und unabdingbar für die Beurteilung eines jeden

größeren IT-Projekts. Bei der Entscheidung über

eine Analytics-Investition spricht der ROI eine

eindeutige Sprache. Diese Chance zu nutzen, liegt

nun an Ihnen.

58 59


1 Structure Big Data Conference, März 2011, http://event.gigaom.com/bigdata/

2 Gartner, Inc. “Gartner Survey Shows Data Growth as the Largest Data Center Infrastructure Challenge,”

November 2010. http://www.gartner.com/it/page.jsp?id=1460213

3 IDC, The Digital Universe Decade: Are You Ready? Mai 2010, S. 2.

4 CED in the History of Media Technology, http://www.cedmagic.com/history/ibm-305-ramac.html

5 Everett M. Rogers und Judith K. Larsen, Silicon Valley Fever, Basic Books, 1984, S. 252.

6Paul Russell, 352 million computers sold worldwide in 2010,

http://www.discountvouchers.co.uk/news/85483535.html

7 Theodore Roszak, The Cult of Information, Pantheon, 1986, S. 88.

8 McKinsey Global Institute, Big data: The next frontier for innovation, competition, and productivity,

Mai 2011, S. 2.

9 IDC, The Digital Universe Decade… S. 8.

10 Wikipedia-Statistik , http://en.wikipedia.org/wiki/Hard_disk_drive#cite_note-Mee-2

11 Barua, et. al., Measuring Business Impacts of Effective Data, Chapter One, September 2010, S. 2.

12 Brochure, 1995 to the First International Conference on Knowledge Discovery and Data Mining,

http:// www.sigkdd.org/kdd1995/

13 Gartner, Inc. Reveals Five Business Intelligence Predictions for 2009 and Beyond,

http://www.gartner.com/it/page.jsp?id=856714

14 Frank Hayes, “The Story So Far,” Computerworld, 15 April 2002.

15 Colin White, Is an Enterprise Data Warehouse Still Necessary for Business Intelligence? BI Research,

23 Januar 2011, http://www.thevirtualcircle.com/2011/01/is-an-enterprise-data-warehousestill-required-for-business-intelligence/

16 Eric Lai, “Relational database pioneer says technology is obsolete,” Computerworld, 6 September 2007.

17 Hillested, et. al., “Can Electronic Medical Record Systems Transform Health Care?

Potential Health Benefits, Savings, And Costs,” Health Affairs, 24, no. 5 (2005): 1103-1117

18 Pande, et. al., “Recapturing your supply chain data,” McKinsey Quarterly, März 2006.

19 David Bollier, The Promise and Peril of Big Data, The Aspen Institute, 2010, S. 3.

20 Rama Ramakrishnan, “Impact of ‘Big Data’ on Retail,” CQuotient, 15 Mai 2011,

http://blog.cquotient.com/?p=64

21 Interview with Larry Tabb by Greg MacSweeney of Wall Street & Technology, 4 Mai 2011.

22 Ari Banerjee, Addressing ‘Big Data’ Telecom requirements for Real-Time Analytics, Heavy Reading,

März 2011.

23 Bollier, The Promise and Peril of Big Data, The Aspen Institute, 2010, S. 15.

24 Mary Meeker, Internet Trends, MorganStanley, 12 April 12 2010.

25 Gartner, Inc., “Gartner Reveals Top Predictions for IT Organizations and Users for 2011 and Beyond,”

30 November 2010.

26 Ferenc Mantfeld, “Top 10 reasons why Business Intelligence Projects fail,”

http://www.seemoredata.com/en/entry.php?12-Top-10-reasons-why-Business-Intelligence-Projects-fail

27 Compiled by Ryan Mulcahy, “Business Intelligence Definition and Solutions,” CIO, November 2007.

28 Gartner, Inc. “Gartner Survey Shows Data Growth as the Largest Data Center Infrastructure Challenge,”

1 November 2010. http://www.gartner.com/it/page.jsp?id=1460213

29 Brynjolfsson, et.al., Strength in Numbers: How Does Data-Drive Decisionmaking Affect Firm Performance?,

Sloan Management School, 22 April 2011, S. 6.

30 Barua, et. al., Measuring Business Impacts of Effective Data, September 2010.

31 Ibid, Kapitel 3, S. 9.

32 Ibid, Banerjee, Addressing “Big Data”…

60 61

SOURCES


Wir hoffen, dieser Guide zu den Vorteilen von Analytics für Ihr

Unternehmen hat Ihnen gefallen und konnte Ihnen wertvolle

Informationen zur Umwandlung massiver in verwertbare Daten liefern.

Möchten Sie mehr erfahren? Sybase bietet eine breite Palette

von Lösungen für Business-Intelligence-Berichte, Echtzeit-

Analysen, Enterprise Performance Management und Enterprise

Data Warehousing. Die innovativen Analytik-Technologien von

Sybase liefern enorm schnell Antworten auf komplexe Fragen

und erschließen so den Geschäftswert massiver Datenmengen

- gleich ob auf finanzieller, betrieblicher, verhaltenstechnischer

oder wissenschaftlicher Ebene. Entwickelt für flexibles und

effizientes Arbeiten unterstützen die Analytics-Technologien

von Sybase über 2.000 Unternehmen weltweit darin, Erkenntnisse

zu gewinnen, die eigene Leistung zu verbessern, Trends zu

verstehen, Betrugsdelikte zu erkennen, Risiken zu managen und

Kunden besser zu betreuen.

Für weitere Informationen, Referenzgeschichten, Whitepaper,

zusätzliche Ressourcen sowie zur Kontaktaufnahme mit einem

Sybase-Experten gehen Sie auf www.sybase.com/analyze.

RESOURCES

62 63


SYBASE, AN SAP COMPANY

CORPORATE OFFICE

ONE SYBASE DRIVE

DUBLIN, CA 94568-7902 U.S.A.

1 800 8SYBASE

Marketingmaterial Nr. L03337

sybase.com

64

Copyright © 2011 Sybase, ein SAP®-Unternehmen. Alle Rechte vorbehalten. Unverö entlichte Rechte nach den

Urheberrechtsgesetzen der Vereinigten Staaten bleiben vorbehalten. Sybase und das Sybase-Logo sind Marken

von Sybase, Inc oder dessen Tochtergesellschaften. ® verweist auf eine Registrierung in den Vereinigten Staaten von

Amerika. SAP und das SAP-Logo sind Marken oder eingetragene Marken der SAP AG in Deutschland und anderen

Ländern. Alle anderen Marken sind Eigentum der jeweiligen Inhaber. 11/11

Weitere Magazine dieses Users
Ähnliche Magazine