Aufrufe
vor 2 Wochen

Netzwoche 12/2019

20 Business Focus

20 Business Focus Vorsicht bei der Nutzung von Open- Source- Datenbanken! Bei Big-Data-Projekten steht immer auch die Frage im Raum, ob mit Open-Source-Datenbanken gearbeitet werden soll oder nicht. Die Antwort hängt vom Service-Level ab, den es zu erfüllen gilt. Denn Datenqualität und Verlässlichkeit der Systeme haben hohe Priorität. DER AUTOR Adrian Hutzli CEO, Intersys Im Zuge der Verwendung neuester Technologien wie dem Internet der Dinge, 5G und anderen Innovationen steigen die Datenvolumina weiter massiv an, was Big-Data-Anwendungen wie Predictive Maintenance, künstliche Intelligenz oder Data Mining überhaupt erst möglich macht. Der Nutzen dieser Daten steht in der Diskussion in der Regel denn auch im Zentrum. Dabei gerät manchmal leicht in Vergessenheit, dass die beste Service-Idee rund um grosse Datenvolumen nur dann sinnvoll anwendbar ist, wenn das zur Verfügung stehende Datenmaterial auch wirklich korrekt, vertrauenswürdig und verlässlich ist. In diesem Zusammenhang lohnt es sich, die Verwendung und die Art der Datenbanken für grosse Informationsmengen näher unter die Lupe zu nehmen. Denn die Datenbanksysteme sind, heute genauso wie früher, die Basis sämtlicher Datenverarbeitungsvorhaben. Hierfür stehen auch immer wieder Open-Source-Lösungen zur Diskussion. Denn immerhin gibt es mittlerweile ein Angebot an hochskalierbaren, mit kostenfreien Lizenzen erhältlichen Datenbanken, die eine Vielzahl an Funktionen zur Verfügung stellen, die einen professionellen Einsatz erlauben. So eignen sich etwa MongoDB, Elasticsearch, Apache Cassandra, MySQL oder Scylla bestens für diverse Anwendungszwecke und haben deshalb durchaus ihre Berechtigung. In den meisten Fällen garantieren regelmässige Updates, dass Fehler behoben und neue Funktionen eingeführt werden. Selbst für komplexe Fragen steht in der Regel eine breite Community zur Verfügung, die bei Problemen unterstützend zur Seite steht. Strenge SLA und Code-Weitergabe Was aber, wenn wie bei vielen Big-Data-Vorhaben ein System gebaut werden soll, das für eine sehr hohe Verfügbarkeit ausgelegt sein soll und strenge Service Level Agreements erfüllen muss? Wie steht es dann um den Support und um allenfalls notwendige Korrekturen an der Software? Probleme können dabei bereits im Konstrukt von Open Source selbst stecken, etwa wenn ein System eine Schwachstelle aufweist. Verfügt nämlich derjenige, der das Leck gefunden hat, über kriminelle Energie, kann erheblicher Schaden entstehen. Dass die Schwachstelle behoben wird, ist zwar wahrscheinlich, aber nicht garantiert. Bei der Notwendigkeit einer hochverfügbaren Anwendung muss also auch die Dauer zur Behebung eines Problems berücksichtigt werden. Deshalb sollte man sich wie bei der Verwendung einer Bezahl-Software gewahr sein, ob die Community den nötigen Support leisten kann und die Software die Aussicht hat, mehrere Jahre unterstützt zu werden. Andernfalls sollte man vielleicht besser eine proprietäre oder «Closed Source Code»-Software oder eine andere Open-Source-Lösung in Betracht ziehen. Ein weiterer Aspekt, den es zu berücksichtigen gilt, ist die Verpflichtung, Weiterentwicklungen an der Software an die Community zurückzugeben. Kommt man dieser Verpflichtung nach, besteht die Gefahr, geschäftskritische Informationen preiszugeben. Bild: Dmitry Nikolaev / Fotolia.com Fazit Open-Source-Datenbanken sind für viele geschäftliche Anwendungszwecke durchaus geeignet und valable Alternativen zu proprietären Systemen. Muss aber eine Lösung sehr verlässlich sein, benötigt es auch eine entsprechende Absicherung. Bei kostenfreien Open-Source-Datenbanken kann eine mögliche Ergänzung zur Community die Zuhilfenahme eines Entwicklungsdienstleisters sein, der die interne IT mit Serviceverträgen unterstützt und so die nötigen Anforderungen garantiert und die benötigten Gewährleistungen übernehmen kann. 12 / 2019 www.netzwoche.ch © netzmedien ag

Business Focus 21 Big Data ist nicht gleich Big Bang Mittelständische Unternehmen scheuen sich nicht selten aus Kostengründen, Big-Data-Projekte anzustossen. Dies weil sie glauben, das Thema sei nur etwas für Grossunternehmen und würde ihr Budget sowieso übersteigen. Das muss aber nicht so sein. Es ist schon bemerkenswert: Selbst nachdem bereits seit vielen Jahren die Nutzbarmachung von grossen Datenmengen in aller Munde ist und nicht bloss von der IT-Industrie zu den anhaltenden Megatrends der wirtschaftlichen Entwicklung gezählt wird, kennen viele Unternehmen – insbesondere kleinere und mittelständische – Big Data höchstens vom Hörensagen. Von künstlicher Intelligenz oder dem Internet der Dinge ganz zu schweigen. Weshalb hat die Thematik nach wie vor einen derart schweren Stand im KMU-Land Schweiz? Immerhin haben doch viele Unternehmen Analysesoftware oder zumindest -werkzeuge im Einsatz. Der Gebrauch beschränkt sich aber oftmals auf Controlling-Aufgaben oder kurzfristige Einzelinitiativen in den Fachabteilungen. Nicht selten kommen bei Letzteren Tools und Methoden zum Einsatz, die sich zwar für schnelle Einsichten eignen. Für eine qualitativ sinnvolle und langfristige Verwendung sind solche «Quick-and-Dirty»-Einsichten allerdings in der Regel mit Vorsicht zu geniessen. Dies liegt unter anderem in der mangelnden Datenqualität und nicht zuletzt an einer fehlenden Granularität, ohne die sich eine Analyse-Idee nicht in ein regelmässig zu verwendendes Produkt für die Fachanwender überführen lässt. einen Wildwuchs an Schatten-IT im Unternehmen zu vermeiden, empfiehlt sich aber auf jeden Fall, ein minimales Konzept zu Erwartungen und Zielen von Business Intelligence zu erarbeiten. Erste Gehversuche starten Last but not least muss bekannt sein, welche Daten im Unternehmen überhaupt in welcher Form vorhanden sind. Denn es können etwa Log-Daten, semi- oder unstrukturierte Bild- oder Ton- oder auch Produktdaten und andere Informationen sein, die sich für ein erstes Analyseprojekt eignen. Dazu muss man auch nicht gleich mit dem «Big Bang» in die Big-Data-Welt einsteigen. Oftmals kann ein Versuch zur Beantwortung einer einzelnen Frage inklusive eines professionellen Machbarkeitsnachweises ein geeigneter Start in die Welt der Datenanalyse sein. Umso besser, wenn dabei die IT noch ihr Wissen bezüglich der an den unterschiedlichen Stellen im Unternehmen vorhandenen Daten als bereichernden Input in die Diskussion miteinbringt. Die Informatik könnte sich dadurch über die methodische und technische Komponente hinaus als inhaltlicher Ideenbringer profilieren. DER AUTOR Marcel Messerli Data Scientist, IT-Logix Kosten werden überschätzt Die eigentliche Hemmschwelle für die Big-Data-Nutzung liegt aber in aller Regel bei einem falschen Verständnis der Kosten. Dabei stehen doch mittlerweile mit Google-Cloud, Microsoft Machine Learning und Azure und anderen Anwendungen Lösungen zu Verfügung, die ohne Initialinvestitionen und zu überschaubaren Kosten die Verrechnung grosser Datenmengen auch für den Mittelstand erschwinglich machen. Selbst für künstliche Intelligenz bieten mittlerweile alle grossen Technologieanbieter «kognitive Services», mit denen sich auch unstrukturierte Datenquellen wie etwa Bilddaten und vieles mehr auswerten lassen. Es braucht entsprechend für Big Data und Analytics nicht gleich ein ganzes Team an Datenanalysten. Was man aber auf jeden Fall benötigt, sind neben der erwähnten nötigen Datenqualität, Überlegungen dazu, wie eine mögliche Strategie zur Verwendung der unterschiedlichen Datenquellen aussehen könnte. Es ist selbstverständlich zu begrüssen, wenn Initiativen zur Erarbeitung von Analyseerkenntnissen aus den Abteilungen kommen. Um aber Bild: andresr / iStock.com www.netzwoche.ch © netzmedien ag 12 / 2019

Archiv