Aufrufe
vor 3 Monaten

Netzwoche 04/2018

26 Focus Big Data

26 Focus Big Data Analytics Big Data und Compliance im Griff – mit flexibler Infrastruktur Die Verwaltung, Analyse und Auswertung grosser Datenmengen ist längst nicht mehr nur Sache von Grossunternehmen. Auch KMUs sind damit konfrontiert – und müssen ihre Infrastruktur entsprechend gestalten. DER AUTOR Martin Nussbaumer Head of Product Sales Switzerland & Austria, Fujitsu Die heutigen Anforderungen an Server mit entsprechender physikalischer und virtualisierter Rechenleistung, an Speicher- sowie Netzwerkkomponenten erfordern eine Umstellung auf konvergente und damit flexibel kombinierbare Infrastrukturen. So rasant, wie sich Technologien entwickeln, verändern sich auch die geschäftlichen Anforderungen. Führungskräfte in Unternehmen befürchten Wettbewerbsnachteile, wenn die technischen Möglichkeiten der digitalen Transformation nicht genutzt werden. Und vor allem Compliance ist – insbesondere durch die Europäische Datenschutz- Grundverordnung (GDPR) – ein existenzielles Thema. Im Rahmen einer internationalen Studie hat sich gezeigt, dass sich viele Unternehmenslenker Sorgen darum machen. Für 59 Prozent ist das sogar das Hauptproblem. Bei Nicht-Einhaltung der Bestimmungen drohen harte Strafen. Die heute extrem dynamischen Anforderungen an Server mit entsprechender physikalischer und virtualisierter Rechenleistung, an Speicher- sowie Netzwerkkomponenten erfordern eine Umstellung auf konvergente und damit flexibel kombinierbare Infrastrukturen. Hier einige Beispiele, was heute möglich ist: Converged Infrastructure (CI): Solche Lösungen erlauben eine modulare Anpassung nach Bedarf und bieten konfigurierte Erweiterungen. Hersteller leisten Support aus einer Hand nach klar definierten Service-Level-Vereinbarungen. Das erleichtert die Planung, die Implementierung und den Betrieb von virtualisierten Umgebungen. CI eignet sich besonders für KMUs. Zur Verfügung sollten alle gängigen Speichertechnologien stehen – insbesondere Hybrid-Flash und Cloud-Anbindung. Je nach Bedarf lassen sich die Anzahl der Serverknoten, der Memory- und Storage-Kapazitäten anpassen, wodurch sich auch grosse Datenmengen gut verwalten lassen. Das Zusammenspiel mit bereits existenten Illustration: Rogotanie / iStock.com oder neuen Infrastrukturen und Technologien muss gewährleistet sein. SAP Hana: Es gibt eigens für SAP Hana modifizierte Lösungen, bei denen die Anzahl separater Datenleitungen, die bei einer Scale-out-Installation bislang unumgänglich waren, von drei oder mehr auf jetzt nur noch eine einzige 100-Gigabit-Ethernet-Verbindung reduziert werden können. Damit verringert sich auch die Anzahl benötigter Switch-Ports um mindestens das Dreifache. Das Ergebnis ist eine deutlich leichtere Implementierung und der problemlose Betrieb einer zuverlässigen Hochleistungs-In frastruktur. Nutzer sind so bestens für Anforderungen bezüglich Big Data, Künstlicher Intelligenz oder Internet of Things gerüstet. Nutzung der Vorteile von Deep Learning und Künstlicher Intelligenz (KI): Damit lassen sich enorme Mengen an Rohdaten und höchst anspruchsvolle Rechenumgebungen managen. Es gibt Hersteller, die ihre Server mit nativen KI-Anwendungen liefern. Solche Maschinen haben ein Performance-Potenzial von über 100 Teraflops pro Sekunde bezüglich der Leistung der eingebetteten Deep-Learning-Lösung. Entsprechende Server eignen sich für jede Art von Anwendungen, bei denen Big Data eine Rolle spielt, ausserdem für Collaboration- und Messaging-Umgebungen. Der Betrieb klassischer Datenbanken ist damit auch möglich. Gleichzeitig erfüllen die Geräte hohe Standards in puncto Funktionalität, Skalierbarkeit und Kosteneffizienz. Business-Intelligence-Anwendungen jeder Art können hier aufgesetzt werden. Compliance und GDPR: Die Europäische Datenschutz- Grundverordnung betrifft fast jedes Schweizer Unternehmen – vor allem, wenn Geschäfte in der EU gemacht werden. Die Konsolidierung von Daten aus unterschiedlichen Systemen und Clouds in ein einziges, privates Hybrid-Storage-Cloud- System bietet eine entscheidend bessere Übersicht und mehr Schutz. Darüber hinaus erleichtern spezialisierte Anwendungen die Kontrolle und Verwaltung dieser Multi-Storage-Cloud- Umgebungen. 04 / 2018 www.netzwoche.ch © netzmedien ag

Focus Big Data Analytics 27 Analysen-Wildwuchs als Chance Die hohe Geschwindigkeit im Geschäftsalltag führt in vielen Unternehmen dazu, dass neben klassischen Business- Intelligence-Produkten durch Fachabteilungen mit eigenen Datensätzen und Tools Analysen generiert werden. Das Data Quadrant Model von Ronald Damhof hilft, die Komplexität der unterschiedlichen Vorgehensweisen bis auf Ebene des Managements verständlich zu machen. Im Zusammenhang mit Daten wird oft von Assets, vom Rohstoff der Zukunft und Ähnlichem gesprochen. In der Praxis aber gehen viele Unternehmen mit den generierten Informationen sehr unstrukturiert um. Das führt dazu, dass beispielsweise neue Ideen von Data-Scientists in den Fachabteilungen zwar ein hoher Stellenwert zukommt, diese aber nicht nachhaltig betrieben werden können. Der unabhängige Data Management Consultant Ronald Damhof hat deshalb ein sowohl für Techniker als auch Manager verständliches Framework entwickelt: das Data Management Quadrant Model. Data Push Pull Point Damhof zieht auf der X-Achse die aus der Betriebswirtschaftslehre bekannten Begriffe der Push- oder Pull-Strategie heran. Gemeint ist damit, wie stark der Produktionsprozess durch die Nachfrage gesteuert und individualisiert wird. Auf der einen Seite (der linken bzw. Push-Seite) stellt etwa die BI-Abteilung die Anbindung verschiedener Quellsysteme zur Verfügung und bereitet die Daten in einem Data Warehouse auf. Dabei ist noch unklar, in welcher Form und in welchem Kontext die Fachabteilungen die Daten später auswerten wollen. Daher werden an dieser Stelle auch nur so wenige Geschäftsregeln wie unbedingt nötig angewendet. Der Fokus liegt auf Skaleneffekten und dem Bereitstellen einer stabilen Grundinfrastruktur für BI im Unternehmen. Auf der anderen Seite (der rechten bzw. Pull-Seite) werden auf Basis ganz konkreter Fachanforderungen wie etwa themenspezifische Datamarts und darauf aufbauend Informationsprodukte wie Reports und Dashboards entwickelt. Hier stehen Agilität und Fachwissen im Zentrum. Opportunistische vs. systematische Entwicklung Auf der Y-Achse steht bei Damhof die Art und Weise, wie ein Informationssystem oder -produkt «produziert» wird. Dies erfolgt in den Quadranten I und II systematisch: Hier sind Entwickler und Endbenutzer typischerweise unterschiedliche Personen. Die Daten haben eine hohe Zuverlässigkeit infolge systematischer Qualitätssicherung, Kennzahlen sind einheitlich definiert. Die meisten der heutigen BI-Systeme sind so aufgestellt. Der Nachteil: Selbst wenn agil gearbeitet wird, wartet der Nutzer manchmal mehrere Wochen auf die Umsetzung einer Anforderung. Es liegt in der Natur der Sache, dass es auch eine opportunistische Entwicklung gibt (vgl. Quadranten III und IV): Entwickler und Nutzer sind hier häufig identisch. Beispielsweise wird eine aktuelle Problemstellung mit Daten in Excel oder mit anderen Tools direkt durch den Fachanwender ausgewertet. Die Flexibilität, die etwa für Forschung, Innovation oder Prototyping gewonnen wird, geht allerdings auf Kosten der Einheitlichkeit und Wartbarkeit der Resultate. Verlässt der entsprechende Fachanwender das Unternehmen, geht häufig auch das Wissen über die Analyse und der angewandten Geschäftsregeln verloren. Reise durch die Quadranten Die eine Vorgehensweise gegen die andere auszuspielen, ist indes nicht zielführend – die richtige Kombination macht es aus. Mitarbeiter können im Quadranten IV iterativ eine Analyse unter anderem mit Daten aus dem Quadranten I (oder III) durchführen. Stellt sich die Analyse als gebrauchsfähig heraus und wird wiederholt genutzt, gilt es, dieses Informationsprodukt aus dem Quadranten IV nach II zu portieren. So erstellt beispielsweise die BI-Abteilung daraus ein Standardprodukt und gewährleistet damit auf Dauer eine hohe Datenqualität und Wartbarkeit. Unternehmen sollten diesen «IV zu II»-Prozess unbedingt aktiv bewirtschaften, um Wildwuchs und damit die «Wartungshölle» bei Datenanalysen zu vermeiden. Systematic Development Style Opportunistic Push / Supply / Source driven Facts « Shadow IT, Incubation, Ad-hoc, Once off » Data Push / Pull Point I III DER AUTOR Raphael Branger Senior Solution Architect und Partner bei IT-Logix Das Data Management Quadrant Model nach Ronald Damhof. Pull / Demand / Product driven Context Research Innovation & Prototyping Design II IV www.netzwoche.ch © netzmedien ag 04 / 2018