Aufrufe
vor 2 Wochen

Netzwoche 12/2019

40 Technology

40 Technology Fachbeitrag Streams – oder das Ende von Batch Seien es Staumeldungen, Unwetterwarnungen, die Verbreitung von Breaking News oder der Versand eines bestellten Produkts: Klassische Batch-Verarbeitung ist diesen Fluten von Meldungen und Messungen nicht mehr gewachsen. Dieser Artikel zeigt, wie dieser Herausforderung in einer modernen Realtime-Architektur begegnet wird. DIE AUTORIN Ursula Deriu Dozentin, Fernfachhochschule Schweiz (FFHS), Fachbereich Data Science; Autorin und Trainerin für Big-Data-Technologien, Tirsus Bild 1 Bild 2 Bild 3 Stream Processing (Realtime-Analyse) Webserver Die klassische Batch-Verarbeitung zur Auswertung grosser Datenmengen hat sich vielerorts bewährt. Auch kleinere Webanwendungen passen sich nahtlos ein. Bild 1 veranschaulicht die Architektur einer solchen Webanwendung: Die App in einem Smartphone etwa schickt kontinuierlich Meldungen via Internet an einen Server, wo ein Programm sie empfängt, verarbeitet, in einer Datenbank speichert und letztlich eine Antwort an die App zurückschickt. Die Gesamtauswertung aller Daten erfolgt nachgelagert, sei es mit einem Data Warehouse (DWH), sei es mit Batch-Programmen. Die Dashboards zeigen die Ergebnisse der Analysen mit relativ grosser Verzögerung. Für viele Anwendungsfälle ist diese Architektur zu träge – gerade die eingangs genannten Beispiele lassen Apps Event Log Big Data Cluster Verteilte Realtime-Analyse Verteiltes Event Log Verteiltes Filesystem Datenbanksystem Datenbank / DWH / Filesystem Apps Big Data Analytics Apps Batch Realtime Analyse DWH Batch Analyse auf historischen Daten Realtime Analyse Dashboard / Report / Statistik / Rechnung Analyse auf historischen Daten Legende Realtime Historische Daten Event Log keine langen Wartezeiten zu. Was wir brauchen, ist eine Realtime-Auswertung der Daten, die mit wachsender Datenmenge schrankenlos skaliert. Speicherung und Auswertung der Daten auf Server verteilt Bild 2 zeigt wie es geht: Die eintreffenden Nachrichten – man spricht von Events – werden zu einem Event Log zusammengefasst und sofort ausgewertet. Statt dass ein Batch-Programm nachgelagert eine grosse Menge von Daten liest und analysiert, horcht ein Stream-Processing- Programm (SP) auf dieses Log, filtert on-the-fly die Events, die es verarbeiten soll, wertet Realtime aus, generiert neue Events, führt laufend Dashboards nach, versorgt die Daten erst dann sicher in einer Datenbank. Soll die Architektur schrankenlos skalieren, dann kommen Big-Data-Technologien zum Zuge. Diese speichern Daten verteilt und ausfallsicher auf vielen parallel laufenden relativ kostengünstigen Servern in einem Cluster. Wächst die Datenmenge, dann wird der Cluster erweitert. Die Systeme skalieren von ein paar wenigen Servern bis mehrere hundert Server. Nicht nur die Speicherung der Daten, sondern auch deren Auswertung erfolgt verteilt auf diesen Servern. Solche Analysen haben naturgemäss eine hohe Latenzzeit, und so ist für Realtime-Verarbeitung spezielles Distributed Stream Processing (DSP) notwendig. Daten werden in Echtzeit bereinigt und ausgewertet Bild 3 zeigt eine typische Architektur: Die Events werden in einem verteilten Event Log gesammelt. Distributed- Stream-Processing-Programme lesen die Events kontinuierlich aus dem Log, verteilen sie auf den DSP-Cluster, werten sie dort aus, aggregieren die Teilergebnisse zu einem Gesamten, reagieren darauf, zeigen sie in Echtzeit auf dem Dashboard. Sie schreiben neue Events ins verteilte Log oder bewahren sie ausfallsicher im verteilten Filesystem auf. Diese gesammelten Daten können erneut analysiert werden – wobei die Ergebnisse dieser langlaufenden Analysen mit denjenigen der Realtime-Analysen aggregiert werden. Mit einer konsequenten event-getriebenen Stream- Processing-Architektur werden viele klassische Batch- Verarbeitungen obsolet, weil die Daten in Echtzeit bereinigt, ausgewertet und erst danach auf dem Filesystem gespeichert werden. 12 / 2019 www.netzwoche.ch © netzmedien ag

Technology Fachbeitrag 41 Der intelligente Agent – Assistent und Coach in einem Sprachkommunikation ist wieder auf dem Vormarsch. Wo wäre das wichtiger als im Contact Center? Der Fortschritt, getrieben durch neue Technologien, ist enorm. Künstliche Intelligenz macht den Kundenservice individueller und erfüllt die Bedürfnisse der Kunden rund um die Uhr. DER AUTOR Manuel Ferre- Hernandez Managing Director, Mitel Schweiz Künstliche Intelligenz, Big Data, Machine Learning finden derzeit viel Beachtung. Die unterschiedlichsten Anwendungsszenarien werden vorgestellt. Eines dieser Anwendungsfelder ist das Contact Center, mit dem ein Unternehmen mit seinen Kunden in Interaktion tritt. Chatbots sind in diesem Zusammenhang nichts Neues mehr. Die ersten Experimente mit Chatbots wiesen nur wenig (künstliche) Intelligenz auf und funktionierten lediglich im Rahmen speziell konstruierter Szenarien. Doch mittlerweile hat KI enorme Fortschritte gemacht und die Chatbots haben bereits eine beachtliche Interaktionsqualität. Vom Chatbot zum intelligenten Agenten Noch besser als Chatbots funktionieren sogenannte intelligente Agenten. Dabei werden mehrere KI-Technologien kombiniert und ein «virtueller Mitarbeiter» geschaffen, der noch effektiver und agiler arbeitet. Beispielsweise wird es durch Natural Language Processing (NLP) möglich, dass der intelligente Agent Sprachen erkennt und übersetzen kann. In diesem Bereich sind die neuesten Entwicklungen geradezu atemberaubend, zumindest was gängige europäische Sprachen anbelangt. Neben der natürlichen Sprachverarbeitung wird mehr und mehr auch Affective Computing zum Einsatz kommen, wodurch nicht nur Sprache, sondern auch kognitive und emotionale Aspekte im Kundenkontakt «lesbar» werden. Dadurch lassen sich Status und Befindlichkeit des Kunden beurteilen. Was viele noch erschreckt, doch recht viel Nutzen für die Optimierung des Kundenerlebnisses in sich birgt. Kritische Situationen in der Kundeninteraktion können so besser antizipiert und «entschärft» werden, indem der virtuelle Agent darauf programmiert wird oder ein menschlicher Ansprechpartner einspringt, wenn mehr Empathie erforderlich wird. Hier kommt auch Machine Learning ins Spiel, womit die bestehenden Unternehmens- und Kundendaten untersucht werden, um auf dieser Basis genau solche Reaktionen zu identifizieren und Antworten zu optimieren. Die fortschrittliche Technik basiert auf der kontinuierlichen Beobachtung der Kommunikation. Diese wird zusammengetragen und in das Spektrum automatisierter Antworten integriert, was wiederum die Qualität der Antworten insgesamt hebt. Das System ist in der Lage, in dem Moment ein Problem zu lösen, in dem der Kunde begonnen hat, es zu beschreiben. KI ist die Zukunft des Contact Centers KI sorgt in Contact Centern also für Innovation. Sie macht den Kundenservice individueller und erfüllt die Bedürfnisse der Kunden rund um die Uhr – mit dem Ergebnis einer gesteigerten Kundenzufriedenheit. Während die Bereitstellung eines Chatbots mehrere Monate dauert, benötigt die Implementierung eines KI- Agenten heute nur noch wenige Tage. Da der KI-Agent in Echtzeit agiert, ermöglicht die Beobachtung der Kommunikation durch Machine Learning eine zunehmend proaktive Gestaltung der Kundenbeziehung. Der KI-gesteuerte Agent bearbeitet einen «Fall» so lange automatisiert und selbstlernend, bis er ihn an einen menschlichen Kontakt übergibt. Der Vorteil dabei: Der «reale» Mitarbeitende erhält den kompletten Gesprächsverlauf, kann in Echtzeit recherchieren und sich im Zweifelsfall auch von seinem virtuellen Kollegen «coachen» lassen, der über die besseren Daten verfügt. www.netzwoche.ch © netzmedien ag 12 / 2019

Archiv