Nuvias steht für High Value Added Distribution mit EMEA-weiter Ausrichtung. Als Thought Leader in den Bereichen Cybersecurity, Advanced Networking, Application Optimisation und Unified Communications, bringen wir zweimal im Jahr unser eigenes IT-Fachmagazin, den Nuvias Guardian, heraus. Getreu dem Motto „Advise not advertise“ liefert das Medium, statt langweiliger Produktvorstellungen und Werbung, fundierte Denkanstöße und effektive Lösungsbeispiele zu aktuellen IT-Themen. Die Beiträge stammen aus der Feder von führenden Branchenexperten wie Bitdefender, Juniper Networks, Fortinet, Kaspersky und WatchGuard.
Lesen Sie die neueste Ausgabe online.
JUNIPER NETWORKS
KASPERSKY
FORTINET
NCIPHER
KI-gesteuerte Cloud-Dienste
Die Anforderungen an das Netzwerk
nehmen stetig zu. Juniper Networks zeigt
auf, welche Vorteile KI und maschinelles
Lernen jetzt bringen.
Gefahr erkannt, Gefahr gebannt
APT-Vorfälle machen nur rund 10 Prozent
aller Cyberangriffe aus. Doch sind diese
Attacken besonders schwerwiegend. Mit
EDR kommen Sie Angriffen auf die Spur.
Was Cloud-Nutzer jetzt brauchen
Die größten Herausforderungen von
Cloud-Computing liegen in der Compliance
und Sicherheit. Mehr zu Chancen,
Risiken und effektiven Lösungen.
Encryption Keys wichtiger als Daten?
Die Absicherung von Encryption Keys ist
oft der fehlende Nagel im Hufeisen, der
ein ganzes Königreich zu Fall bringen
kann. Zeit, das Bewusstsein zu schärfen.
SEITE 2
SEITE 4-5
SEITE 6
SEITE 11
Guardian
Runter von der
Bremse!
#TrueValueAdd
Neue Services – Mehr Value Add
Ausgewählte Services
für Sie und Ihr Business.
Mehr erfahren!
http://bit.ly/nuvias-TrueValueAdd
Bildquelle: Nuvias
Sechs Tipps für eine Sicherheitsstrategie,
die weniger Leistung in virtualisierten
Umgebungen frisst
Bildquelle: Shutterstock
Egal ob physisch oder virtualisiert, Endpunkte
sind in vieler Hinsicht die Achillesferse
des Netzwerks. Virtualisierte
Workloads werden darüber hinaus auch
oft noch außerhalb des eigenen Rechenzentrums
gehostet und sind somit besonders
angreifbar.
Der Hauptgrund für Unternehmen ihre Umgebungen
zu virtualisieren ist der Gewinn
an Flexibilität. Doch der erhöhten Flexibilität
stehen auf der Gegenseite neue Herausforderungen
für die Sicherheit gegenüber.
Es zeigt sich oft, dass vor allem kleinere Unternehmen
dazu neigen, die Sicherheit in ihrem
virtualisierten Anteil der Infrastruktur zu
vernachlässigen: Die Umgebungen sind agil
und leistungsstark, aber voller Schwachstellen.
Größere Unternehmen hingegen neigen
dazu, die Herausforderungen der Virtualisierung
an ihre Rechenzentren zu vernachlässigen.
Die Umgebung ist zwar sicher, dafür
aber oft langsam und teuer.
Potentiell negative Auswirkungen
der IT-Security auf virtuelle Infrastrukturen
Die Verwendung herkömmlicher Sicherheitstools
wie bei regulären physischen Endpunkten
verlangsamt virtuelle Umgebungen um
bis zu 30 Prozent und um bis zu 20 Prozent
in Bezug auf die Anwendungsleistung. In einem
Test konnte ein Host mit einer klassi-
schen Endpoint Security 35 Prozent weniger
VDI-Sessions gleichzeitig hosten als mit einer,
für diese Aufgabe entwickelten Sicherheitslösung.
Wenn ein Unternehmen hingegen
spezielle Sicherheitstools nur für die
virtuelle Umgebung verwendet, benötigt es
möglicherweise zusätzliche Teamressourcen
und Security-Kompetenz.
Speziallösungen allein für virtuelle Maschinen
erfordern zusätzliche Hardware in Form
von Speicher, Prozessorleistung oder weitere
Cloud-Kapazitäten. Hinzu kommen Lizenzkosten
für die Lösung und das darunterliegende
Betriebssystem.
Ein typisches Einfallstor in Unternehmensnetzwerke
sind virtuelle Maschinen, die
ohne Gedanken an die Sicherheit schnell zu
Testzwecken aufgesetzt wurden.
Später wird oft vergessen, die Maschinen
wieder zu löschen, die dann ohne die nötige
Sicherheit laufen und als schwächstes Glied
in der Verteidigungskette buchstäblich dazu
einladen, gehackt zu werden.
Um dies zu vermeiden, benötigen Organisationen
eine übergreifende Sicherheitsstrategie,
die alle Endpunkte beinhaltet. Eine
solche Strategie stellt sicher, dass alle Endpunkte,
und insbesondere virtuelle Endpunkte,
„von Geburt an“ sicher sind und es über
ihr gesamtes Leben bleiben.
Um moderne Netzwerke effizient abzusichern,
muss eine Sicherheitsstrategie private
und öffentliche Umgebungen, also Clouds,
umfassen und in diesen physische und virtuelle
Workloads gleichermaßen sichern.
Die folgenden sechs Technologien können
dabei helfen, dies effizient zu erreichen.
1
Ein einheitlcher Sicherheits-
Agent
Sicherheit besteht aus vielen Komponenten.
Benötigt eine Sicherheitslösung für jede
Funktion eigene Software-Agenten auf den
VMs, ist dies weder der Gesamtleistung noch
der Administrierbarkeit förderlich. Ideal ist
ein Agent für alles, der auf jeder Sicherheitsebene
Funktionen der neuesten Generation
enthält, wie Behavioral Analytics, Machine
Learning, Prozessüberwachung, automatisiertes
Patchmanagement und Sandboxing.
2
Ein ressourcensparender
Sicherheitsagent für VDI
Einer der Vorteile virtueller Desktops ist,
dass Administratoren gezielt nur die Anwendungen
freigeben, die die Benutzer wirklich
brauchen. Wenn dann aber jeder Desktop
durch ressourcenverschlingende Security-
Agenten aufgebläht wird, ist der Nutzen gering.
Unternehmen können in Vergleichstests
leicht messen, wieviel Prozessorleistung
verschiedene Sicherheits-Agenten verbrauchen
– und entsprechend entscheiden.
3
Eine gemeinsame Security-
Konsole für alle Endpunkte
Weniger Agenten bedeuten weniger Konsolen.
Der Idealzustand ist eine einzige Konsole,
die alle Aspekte der Security verwaltet,
und zwar für die gesamte IT-Umgebung des
Unternehmens, inklusive physischer Endpoints,
Server, Storage und Cloud-Instanzen.
Angesichts der heutigen Bedrohungslage
sollte auch EDR (Endpoint Detection and
Response) in der gleichen Konsole integriert
sein.
4
Zentrales Scannen auf der
Ebene des Hypervisors
Wenn man auf einem Server 200 VMs betreibt
und jede dieser VMs scannt Dateien
mit seinem eigenen Agenten, verbraucht
dies erhebliche Ressourcen. Wenn man dagegen
zentrales Scannen für den gesamten
Hypervisor nutzt, kann dies den Aufwand
stark reduzieren.
Die eleganteste Sicherheitsarchitektur für
virtualisierte Umgebungen lässt sich so skizzieren:
Es gibt pro Rechenzentrum nur eine
einzige, zentrale Installation der Sicherheitslösung.
Zu dieser Installation gehören typischerweise
ein Communication Server, der
die Kommunikation mit den Endpunkten
übernimmt, ein Webserver für die Kommunikation
mit dem Hersteller, ein Update Server,
der sich die Updates beim Betreiber holt,
und eine Datenbank. Hinzu kommt noch der
Security Server. Dies ist die Instanz, die für
das Malware-Scanning der Endpunkte zuständig
ist.
5
Überwachung des Arbeitsspeichers
des Hypervisors
Hypervisor Introspection (HVI) überprüft den
RAM des Hosts auf Hypervisor-Ebene. HVI
erkennt Manipulationen des Speichers und
auch die gebräuchlichsten Hacking-Techniken,
die bei der Ausnutzung von Zero-Day-
Exploits und bei APTs eingesetzt werden.
Dies findet außerhalb des Betriebssystems
des virtuellen Desktops statt, ist somit agen-
www.nuvias.com/de
tenlos und kompatibel mit wirklich jeder In-
Guest-Sicherheitslösung.
6 Automatisierung
Cybersicherheit entwickelt sich ständig weiter
und erfordert konstante Fortbildung.
Doch der Arbeitsmarkt für Sicherheitsspezialisten
ist komplett leergefegt. Um dieses
Problem auszugleichen, sollten Unternehmen
die Chancen der Automatisierung nutzen
und ausreizen. So lässt sich beispielsweise
die Absicherung neu geschaffener
VMs von der ersten Sekunde an Automatisieren.
Das schafft natürlich Entlastung für die
IT-Sicherheit, die sich fortan um ein komplexes
Problem weniger kümmern muss. Auch
ein EDR, das mit der Endpoint Security kommuniziert,
entlastet IT-Sicherheitsteams.
Eine solide Sicherheitsstrategie für virtualisierte
Umgebungen umfasst die frühzeitige
Berücksichtigung, der für die Sicherheit erforderlichen
Hardware- und Personalressourcen.
Geeignete Sicherheitslösungen, für gemischte
Umgebungen aus physischen und
virtuellen Maschinen sowie Cloud-Ressourcen,
müssen über weit mehr Eigenschaften
verfügen, als man anfangs vermuten mag.
Doch auch wenn Technologien dabei helfen
können, die Sicherheit von virtualisierten
Umgebungen zu erhöhen, ohne die Leistung
dessen auszubremsen, darf man den
Faktor Mensch nicht außer Acht lassen: Die
Voraussetzung für den Einsatz der richtigen
Technologie ist es, dass die Verantwortlichen
für die Virtualisierung und für die Security
miteinander sprechen und an einem
Strang ziehen.
Autor: Herbert Mayer,
Sales Engineer bei
Bitdefender
https://bit.ly/bitdefenderGravityZone
KI-gesteuerte Cloud-Dienste
Was Sie als MSP mit Mist Systems erreichen können
Der Cloud-basierte Datenverkehr führt
regelmäßig zur Überlastung von Firmennetzwerken.
Laut einer Studie von Gartner
wird der Markt für öffentliche Cloud-
Dienste im Jahr 2020 voraussichtlich
um 16,5 Prozent auf 240 Milliarden Dollar
und im Jahr 2021 um weitere 15,8 Prozent
auf 278 Milliarden Dollar wachsen.
Der Gesamtmarkt für verwaltete Dienste
wird voraussichtlich bis 2023 auf 282
Milliarden Dollar wachsen, und der Markt
für verwaltete Netzwerkdienste wird bis
2021 einen Wert von 59,3 Milliarden Dollar
erreichen.
Was wir zudem bereits alle schon einmal gehört
und/oder gespürt haben: Die IT ist zu einem
so kritischen Teil eines jeden Unternehmens
geworden und war gleichzeitig noch
nie so komplex wie heute. Dadurch ist der
Bedarf an einer modernen, KI-gesteuerten
Plattform entstanden, um einen einfachen
und zuverlässigen Betrieb zu gewährleisten
und gleichzeitig Mobilitätsdienste bereitzustellen,
die Unternehmen grundlegend voranbringen.
Bestehende Architekturen sind jedoch komplex,
anfällig und weisen häufig folgende
Mängel auf:
• Mangelnde Skalierbarkeit, Agilität und Einsicht,
um die Erwartungen der modernen
digitalen Welt zu erfüllen
• Fehlende Intelligenz zur Automatisierung
des Netzwerks und zur Verlagerung von
reaktiven zu proaktiven IT-Operationen
• Fleckenhafte integrierte Wi-Fi-, Bluetooth
LE- und IoT-Technologien, um neue, differenzierte
Geschäftsanwendungen zu ermöglichen
Go-to-Market Differenzierung
Mit Juniper Networks und Mist Systems haben
Sie die Möglichkeit, ganz neue Ansätze
bei der Erfüllung von System- und Kundenanforderungen
zu verfolgen. Durch neue
Funktionen, die andere Anbieter technisch
nicht im gleichen Umfang oder gar nicht leisten
können, differenziert sich diese Lösung
stark von den Lösungen der Mitbewerber:
• Anpassbare Service-Level-Erwartungen
(SLEs) durch kabelgebundene und drahtlose
Einblicke ins Netzwerk, die optimierte
Handlungsempfehlungen für Anwender,
Apps und Geräte bieten
• Erste und einzige KI-basierte Selbststeuerungsfunktionen,
die den Netzbetrieb
proaktiv gestalten, anstatt reaktiv Fehlermeldungen
zu folgen
• Eine auf Mikrodiensten basierende Cloud
bringt Agilität und Skalierbarkeit für Unternehmen
jeder Größe
Kunden erwarten von Ihnen, dass Sie es
besser, schneller und billiger machen
KI und
maschinelles
Lernen
verbesserte
Sicherheit
störende
Markteinführung
• Aufbau eines voll integrierten und transparenten
Netzwerks zum Anbieten von
erweiterten Standortdiensten
• Modulare SaaS-Angebote:
- Manuelle Fehlerbehebungsaufgaben
werden durch automatisierte drahtlose
Abläufe ersetzt, um die Wi-Fi-Leistung
und -Zuverlässigkeit zu maximieren
- Auch für verkabelte Geräte können automatisierte
Abläufe und Service-Levels
aufgesetzt werden
- Marvis, der virtuelle Netzwerkassistent,
ermöglicht natürlich sprachliche Anfragen
und integrierte Helpdesk-Funktionen
zur Gewährleistung eines beispiellosen
Einblicks und einer schnellen,
proaktiven Problemlösung
- Benutzererfahrungen mit standortbasiertem
Echtzeit-Kontext, einschließlich
Abbiegehinweisen, auf Nähe basierenden
Benachrichtigungen und
Warnungen durch virtuelle BLE lassen
sich wesentlich effizienter und genauer
aufsetzen
- Durch verschiedene Analysen, wie z.B.
Traffic-Analysen, lassen sich die einzusetzenden
Ressourcen besser verteilen
und Handlungsempfehlungen können
gezielter getroffen werden.
niedrigerer
Opex
… mit operativer
Einfachheit
…Service-Level-Metriken und virtuelle Beacons
Operative Einfachheit führt zu
niedrigerem OPEX
Anspruchsvolle, große Unternehmensimplementierungen
können mit einer Microservices
Cloud abgebildet werden. Es werden
keine Geräte, Controller oder eingebettete
Software, die gewartet werden muss, benötigt.
Durch die dynamische, automatische
Paketerfassung dPCAP, die bereits in der
Cloud verfügbar ist, wenn kritische Ereignisse
im Netzwerk auftreten, ist kein Truck Roll
erforderlich. Zudem ermöglicht die proaktive
Anomalie-Erkennung mit Ursachenanalyse
und automatisierten Aktionen im kabelgebundenen
und drahtlosen Netzwerk, dass
der Netzwerkbetrieb dauerhaft aufrecht erhalten
bleibt und Downtime zu einem Fremdwort
wird. Die bereits vorher erwähnte integrierte
KI-Engine in Marvis beschleunigt die
Fehlersuche und kann automatisch bei der
Lösung von Problemen helfen, so dass sie
proaktiv anstatt reaktiv arbeiten.
Mist Systems ist zudem der erste und einzige
Anbieter, der ein MSP-Dashboard liefert,
das Einblicke in die Benutzererfahrung aller
Kundenstandorte bietet, die von einem Service
Provider verwaltet werden.
Zusammenfassung
Die Anforderungen und Erwartungen an das
Netzwerk wachsen zusammen mit der Vielfalt
der Geräte. Das Management und der
Betrieb von Netzwerken im Allgemeinen
sind aufgrund der zunehmenden Komplexität
der Geräte und Anwendungen aufwändiger
geworden. Um der Nachfrage gerecht zu
werden, müssten die Fähigkeiten und Ressourcen
verbessert und erweitert werden.
Durch den Einsatz von KI- und maschinellen
Lerntechnologien liefert Mist Systems eine
Lösung, die es IT-Teams ermöglicht, sich so
zu skalieren, dass sie diese Anforderungen
erfüllen können. Mit Mist Systems machen
Sie kabelgebundene und drahtlose Netzwerke
zuverlässiger, messbarer und berechenbarer.
Herausforderungen im Netzwerkbereich
• Die Zahl der anzuschließenden Mobilund
IoT-Geräte steigt
• Dienstanbieter haben keinen Einblick in die
Endbenutzererfahrung ihrer Kunden
• Bestehenden Systemen fehlen vollständige
APIs und skalierbare Automatisierungsfunktionen
Die Lösung
• Das Juniper MSP-Dashboard und das
Mist-Dashboard zur Vereinfachung der
Verwaltung und des laufenden Betriebes
• Vereinheitlichtes Portfolio von Wi-Fi-
Access-Points und Bluetooth LE-Access-
Switches vereinfacht die Bereitstellung
des Netzwerks
• SaaS-Angebot zur Verbesserung der
Kundenanforderungen
- Wi-Fi-Sicherheitsdienst
- Kabelgebundener Assurance-Dienst
- Marvis Virtual Network Assistenzdienst
- Dienst für Nutzerbindung
- Asset-Standort-Service
Ihre Vorteile
• Gewinnen Sie durch das MSP-Dashboard
Einblick in Kundenerfahrung und Gerätenutzung
• Die speziell entwickelte Cloud erweitert die
Skalierbarkeit von kleinen Unternehmen
bis hin zu Großunternehmen
• Agilität von Mikrodiensten zur Anpassung
an die dynamische Umgebung von Benutzern,
Geräten und Anwendungen
• Tools zur proaktiven Fernfehlerbehebung
• Vereinfacht die Integration mit operativen
Systemen durch vollständige APIs
Erfahren Sie mehr über Mist Systems und
Juniper Networks auf unserem Nuvias Supercharger.
Autor: Isabella Gaafke, Marketing Manager
Juniper bei Nuvias
http://bit.ly/NuviasSupercharger
2
www.nuvias.com/de
Wenn Netzwerke auf die neue
Zukunft treffen
Bildquelle: Shutterstock
Grenzenlose Netzwerksicherheit
Vor dem Hintergrund immer häufigerer und
raffinierterer Cyberangriffe hat die COVID-
19-Pandemie eine neue Welle von Bad Actors
angespült, die sich zunutze machen
wollen, dass InfoSec-Teams häufig überlastet
sind und dass Nutzer lokal und global
nach Informationen über das Virus suchen.
Aus diesem Grund war es noch nie so wichtig
wie heute, über die richtigen Sicherheits-
Tools und reichhaltige Netzwerkdaten zu
verfügen. Beispiele für verschiedene Tools,
die sowohl kurz- als auch langfristig unterstützen
können:
1
Gefahrenerkennung und
-bekämpfung
Die Welt hat sich verändert. Innerhalb
kürzester Zeit haben unvorhergesehene
globale Ereignisse zu gewaltigen Veränderungen
in unserem Arbeits- und Alltagsleben
geführt. In Bezug auf den
Netzwerkbetrieb und der Informationssicherheit
müssen neu verteilte Belegschaften
sowie digitale Prozesse mit kleineren
Budgets zurechtkommen.
Die Netzwerkinfrastruktur und -Tools sind
bei den meisten Organisationen darauf ausgelegt,
vorwiegend im Büro tätige Mitarbeiter
zu unterstützen. Von einem Tag auf den
anderen musste die IT umgerüstet werden,
um zwei- bis dreimal so viele Mitarbeiter remote
zu unterstützen, als je eingeplant waren.
Hinzu kommt, dass die Sicherheit besonders
gewährleistet sein muss, da sich der
Netzwerkverkehr von innen nach außen verlagert
hat.
Ein neues Homeoffice-Modell
Infrastruktur- & Anwendungsaspekte stehen
vor Skalierungsherausforderungen – und
das in einem wahrscheinlich noch nie dagewesenen
Ausmaß.
Durch den plötzlichen und schnellen Wechsel
hin zum Homeoffice bleibt den IT-Teams
nur wenig Zeit, ihre Remote-Access-Infrastruktur
für die Mitarbeiter zu skalieren. Da
sie sich darum bemühen, Kapazitäten zur
Remote-Arbeit schnell online zu schalten,
indem sie ältere oder die bestehende Infrastruktur
umfunktionieren, können in den neuen
Netzwerksegmenten und der -Infrastruktur
Probleme wie Ausfälle und Engpässe
auftreten. Es ist von entscheidender Bedeutung,
solche Probleme schnell aufzudecken.
Doch angesichts der ohnehin knappen Ressourcen
werden diese Aufgaben zu einer
wirklich großen Herausforderung.
Neben der Unterstützung interner Nutzer,
wird die IT auch zunehmend mit der
Nutzung externer Apps konfrontiert. Kunden
kommunizieren mit Unternehmen jetzt
hauptsächlich über mobile Apps oder online.
Kunden aus der Finanzdienstleistungs-, Gesundheits-,
Unterhaltungs- und Einzelhandelsbranche
verzeichnen einen deutlichen
Anstieg der Nutzer und der Nutzungsfrequenz
ihrer Consumer-Apps. Da neue Anwendungscontainer,
Microservices und virtuelle
Maschinen schnell aufgestellt werden,
um der plötzlichen Zunahme der Nutzernachfrage
gerecht zu werden, laufen die
IT- und Infrastrukturteams jedoch Gefahr,
von schnell arbeitenden DevOps- und Anwendungsteams
überholt zu werden. Dieses
Ungleichgewicht in der Anpassung, kann
schwerwiegende Folgen haben. Während
die Kapazität für Applikationen möglicherweise
ansteigt, könnte die Infrastrukturkapazität
hinterherhinken. So könnten Probleme
mit der Netzwerkbandbreite und der
Benutzererfahrung entstehen; der Zugriff
sowie die Nutzung von Anwendungen und
Daten könnten möglicherweise nicht ausreichend
auf Bedrohungen hin überwacht
werden.
Grenzenlose Sicherheit über das
Netzwerk hinaus
Jede zusätzliche Aktivität von Netzwerknutzern
in neuen Netzwerksegmenten kann
zu einer potenziellen Quelle für Bedrohungen
wie Datenlecks oder Ransomware werden.
„Bad Actors“ nutzen die vorherrschende
Paranoia und Unsicherheit schnell aus, um
die Systeme der Nutzer zu kompromittieren.
Diese Bedrohungen nutzen Dropper, die
dann dazu verwendet werden, zusätzliche
Malware auf die Systeme der Nutzer herunterzuladen,
um Zugangsdaten zu kompromittieren,
was letztlich zu Ransomware-
Angriffen und potenzieller Datenexfiltration
führt.
Da Mitarbeiter im Homeoffice ihr Heimnetzwerk
und oftmals auch ihre privaten Geräte
für die Arbeit nutzen, besteht die große Herausforderung
darin, dass auf Daten nicht
mehr von innerhalb des Netzwerks, sondern
von außerhalb zugegriffen wird. Dabei kann
man sich nie sicher sein, ob jeder Arbeitnehmer
auch tatsächlich die empfohlenen Sicherheitsprotokolle
befolgt. Selbst die vorgeschriebene
Nutzung von VPN-Verbindungen
löst das Problem nicht unbedingt, insbesondere
dann nicht, wenn die Endpunkte nicht
kürzlich gepatcht wurden. Beispielsweise
gibt es Berichte zu Schwachstellen bei verschiedenen
VPN- und Firewallherstellern,
die es Varianten des Botnet-Typs Mirai ermöglichen,
die Kontrolle zu übernehmen.
Beim Bestreben, Kapazitäten zu erhöhen,
müssen Unternehmen bei älterer Ausrüstung
sicherstellen, dass diese auch tatsächlich
für ihre Zwecke geeignet sind und sowohl
gepatcht als auch gesichert werden
können.
Die Neue Zukunft
Während die Wirtschaft den Schock der
letzten Monate noch verdaut, bereiten sich
viele Organisationen bereits auf eine mögliche
Rezession vor.
Die globalen Lieferketten wurden zunächst
in Asien unterbrochen. Diese Auswirkungen
werden nun durch die dramatischen Veränderungen
in der europäischen und der USamerikanischen
Wirtschaft verstärkt und
verschärfen sich somit. Diese Veränderungen
wirken sich dramatisch auf die Reise-,
Gastgewerbe-, Einzelhandels-, Unterhaltungs-
und Dienstleistungsbranchen aus.
Auch bei Unternehmen, die nicht direkt von
erzwungenen Schließungen betroffen sind,
führen die allgemeinen Auswirkungen auf
die Wirtschaft dazu, dass fast alle IT-Organisationen
ihre Ausgabenprioritäten und Budgets
überprüfen.
Geschäftsbereiche und IT-Organisationen
der Unternehmen bewerten auf Basis der
aktuellen Unsicherheiten ihre Prioritäten:
Wie lange wird die Krise dauern? Welche
zusätzliche Netzwerkbandbreite, Anwendungen
und Dienste müssen hinzugefügt
werden? Wie sollen sie mit den Herausforderungen
und, in manchen Fällen, mit den
Chancen dieser Krise umgehen? Wird sich
das Homeoffice möglicherweise dauerhaft in
ihren Organisationen etablieren? Ein Weg,
um viele dieser Herausforderungen zu meistern,
liegt darin, die Information-in-Motion
eines Netzwerks für die Anwendungs-, Benutzer-
und Geräteerkennung, für die Fehlerbehebung,
Anwendungsperformance, das
Monitoring der Benutzererfahrung sowie die
Security zu nutzen.
Netzwerkdaten sind die „Single Source of
Truth“ (SSOT) für die wahre Performance
und Sicherheit eines Netzwerks. Sind diese
Daten zuverlässig und aktuell, müssen die
Teams nicht ständig die Log-Level auf Servern
ändern, Anwendungsentwickler daran
erinnern, Applikationen zu instrumentieren
oder neue Anwendungen zum Monitoring
hinzuzufügen. Um sicherzustellen, dass diese
Daten zuverlässig genug sind, um sie als
SSOT zu klassifizieren, ist es zwingend erforderlich,
dass diese Information-in-Motion
aus physischen, Cloud- und virtuellen Umgebungen,
Anwendungssystemen, Log Files
und anderen Datenquellen enthalten.
Zu den Best Practices zählt die Verwendung
eines „Wire Once“-Modells, bei dem alle Information-in-Motion
sofort für Security- und Performance-Monitoring-Tools
verfügbar sind,
wenn neue Netzwerksegmente online geschaltet
werden. Der Zugriff auf Netzwerkdaten
sollte schnell, mit minimalen Eingriffen
und mit wenig bis gar keiner Abhängigkeit
von Anwendungen, DevOps und anderen
Teams erfolgen.
Bleiben Sie fokussiert
Auch wenn der Ausgang der aktuellen Krise
unklar bleibt, gibt es schon jetzt Möglichkeiten,
wie Sie Ihre Organisation darauf vorbereiten
können, um erfolgreich aus der Krise
hervorzugehen.
Benutzererfahrung von Anwendungen
Mehr denn je zeigt sich, dass digitale Anwendungen
für Unternehmen von entscheidender
Bedeutung sind, um die bestmögliche
Kunden- und Benutzererfahrung sicherzustellen.
Das war noch nie so wichtig wie
heute.
Um das zu erreichen, ist es wichtig, Tools
einzusetzen, die nicht nur die Nutzung der
Anwendung und der Benutzererfahrung monitoren
und visualisieren, sondern auch in
der Lage sind, auf Basis der Performance
und des Verhaltens dieser Anwendungen
Maßnahmen zu ergreifen.
Organisationen müssen zwingend über leistungsfähige
Tools verfügen, um neue Bedrohungen
zu erkennen und darauf zu reagieren.
Beispielsweise bieten auf Ingress/
Egress-Verbindungen und auf VPN-Konzentratoren
ausgelegte Tools einen gezielten
Ansatz zur Minderung potenzieller Risiken.
2
Zentralisierte Traffic-Entschlüsselung
Während viele Tools verschlüsselten Datenverkehr
entschlüsseln können, ist der Einsatz
einer zentralisierten Lösung zur Entschlüsselung
und Überprüfung des verschlüsselten
Datenverkehrs für viele Organisationen
oft die effizienteste Lösung.
Durch die Zentralisierung der TLS-Entschlüsselungsfunktionen
kann der Datenverkehr
einmal entschlüsselt und überprüft werden,
bevor er erneut verschlüsselt und über mehrere
Tools verteilt wird.
3
Nutzen sie Metadaten, um die
SIEM-Effizienz zu steigern
Nutzen Organisationen Lösungen wie z.B.
Splunk oder andere SIEMs für das aktive
Security-Monitoring, kann die Einspeisung
von System- und Anwendungsmetadaten in
diese Lösungen eine leistungsfähige Methode
sein, um die Compliance zu gewährleisten
und gleichzeitig neue Anwendungen und
Kapazitäten online zu bringen.
4 Zero-Trust
Viele Organisationen befanden sich bereits
in der Lern-, Planungs- oder Implementierungsphase
einer Zero-Trust-Initiative. Die
aktuelle Krise könnte der Wendepunkt zur
Beschleunigung dieser Initiativen sein. Der
Grundgedanke von Zero Trust besteht darin,
das implizite Vertrauen, das mit dem Zugriffsort
verbunden ist, zu beseitigen und
die defensiven Perimeter einer Organisation
vom Rand des Netzwerks zu den Assets
zu verlagern, die das Netzwerk nutzen.
Dazu zählen Nutzer, Geräte, Daten und Anwendungen.
Ob als Folge der COVID-19-Krise oder aufgrund
einer geplanten Umstrukturierung des
Geschäftsmodells: Die Arbeitswelt verändert
sich hin zu einem flexiblen Modell, bei dem
man egal von wo und egal wann arbeiten
kann. Daher macht der Weg hin zu einer Zero-Trust-Architektur
in jedem Fall Sinn. Es
ist entscheidend für eine umfassende Zero-
Trust-Lösung, dass alle Information-in-Motion
im Netzwerk sichtbar sind.
Autor: Olaf Dünnweller,
Senior Sales Director
DACH bei Gigamon
http://bit.ly/GigamonDE
www.nuvias.com/de
3
Gefahr erkannt, Gefahr gebannt
Endpoint Security im Zeitalter dateiloser
Bedrohungen, zielgerichteter Angriffe und APTs
Gezielte Attacken sind die Königsdisziplin
unter modernen getarnten Bedrohungen:
Angreifer suchen sich ihre Opfer genau aus
und passen ihre Methoden im Detail an.
Sie verwenden maßgeschneiderte Schadsoftware,
die nur zur Schädigung eines bestimmten
Unternehmens entwickelt wurde.
So untersuchen Cyberkriminelle beispielsweise
vor einem Angriff die Endpoint Security
des Opfers, um einen passenden
Mechanismus zu finden, der das System automatisch
umgeht. Sie setzen auch Multi-
Vektor-Angriffe ein, bei denen gleichzeitig so
viele Endpoints wie möglich befallen werden,
oder verwenden zur Verbreitung von Malware
ausgeklügelte Social-Engineering-Tricks,
die auf spezifischen und persönlichen Insiderdaten
basieren.
In den vergangenen Monaten waren Unternehmen
mehr denn je darauf angewiesen,
dass ihre Belegschaft auch außerhalb
der lokalen IT-Infrastruktur agierte.
Dies führte ihnen einmal mehr vor Augen,
wie wichtig eine unterbrechungsfreie, sichere
Zusammenarbeit auch über die Büroumgebung
hinweg ist. Besonders der
Schutz von Endgeräten steht hier im Fokus.
Doch was ist anders als früher?
Die Flut einfacher Malware nimmt kein Ende:
Cyberkriminelle bombardieren Unternehmen
auf der ganzen Welt mit Phishing-Angriffen,
Viren, Trojanern und Spyware. Solche
Attacken machen etwa 90 Prozent aller
Cyberangriffe aus. Doch die starke Verbreitung
dieser Schadprogramme sollte nicht
von einer wichtigen Tatsache ablenken: Die
übrigen 10 Prozent, zu denen auch APTs
(Advanced Persistent Threats) gehören, kosten
Unternehmen nahezu hundertmal mehr
pro Vorfall. Der durchschnittliche finanzielle
Schaden einfacher Attacken liegt bei 10.000
US-Dollar; der für einen APT-Vorfall bei
926.000 US-Dollar.
Die gefährlichen 10 Prozent
Unternehmen dürfen also weder die große
Mehrheit der einfachen Bedrohungen, noch
die besonders riskanten 10 Prozent der Cyberangriffe
außer Acht lassen. Dies stellt vor
allem Betriebe und Konzerne, die sich bisher
ausschließlich auf klassische Endpoint-
Schutzlösungen verlassen haben, vor neue
Herausforderungen. Denn Cyberkriminelle
werden in Zukunft noch stärker komplexe,
zielgerichtete Angriffe und dateilose Schadsoftware
nutzen, um über Endpoints in Netzwerke
vorzudringen. Manchmal haben sie
ihre Angriffsvektoren auch so programmiert,
dass diese direkt am Endgerät Schaden anrichten.
Herkömmlicher Endpoint-Schutz
kann derartige Attacken allerdings nicht erkennen.
Hinzu kommt, dass Unternehmen oftmals
die nötigen zeitlichen und personellen Ressourcen
fehlen, um sich auch um die Abwehr
von Bedrohungen zu kümmern, die außerhalb
des alltäglichen Malware-Aufkommens
liegen. Sofern es überhaupt eine dedizierte
IT-Abteilung gibt, sind die Mitarbeiter dort
meist überlastet: Sie müssen Arbeitsplätze
für neue Kollegen einrichten, Gesetze und
Compliance-Vorgaben studieren, sich über
die neuesten Bedrohungstaktiken auf dem
Laufenden halten – all das will erledigt sein,
bevor man sich der nicht minder wichtigen
Aufgabe, der Abwehr von komplexen Cyberangriffen,
widmen kann.
Fehlen allerdings adäquate Technologien,
Zeit und Personal, geht dies unweigerlich
einher mit eingeschränktem Know-how
über die eigene Sicherheitslage. Laut einer
Kaspersky-Umfrage zu IT-Sicherheitsrisiken
mangelt es rund 40 Prozent der mittelständischen
Unternehmen und Betriebe an
der nötigen Kenntnis darüber, welchen Bedrohungen
sie tatsächlich ausgesetzt sind
(Kaspersky Global Corporate IT Security
Risks Survey (ITSRS); eine 2019 durchgeführte
weltweite Umfrage unter IT-Entscheidungsträgern
in Unternehmen).
Dateilose Bedrohungen
Häufig fangen sich Mitarbeiter dateilose Malware
auf präparierten Websites oder über E-
Mails ein. Wie der Name schon vermuten
lässt, lädt diese Bedrohung keine Dateien in
das Opfergerät. Ihr schädlicher Code kann
aber dennoch das infiltrierte System analysieren,
Daten stehlen oder andere Schadprogramme
nachladen. Dabei hinterlässt die
Malware so gut wie keine Spuren. Es existieren
auch dateilose Bedrohungen, die verschlüsselte
Daten in der Registry ablegen.
Der Anwender bekommt davon nichts mit,
da sie bei einem Neustart automatisch geladen
werden. Da die Malware nicht wirklich
als Datei existiert, ist sie für die meisten Intrusion-Prevention-Lösungen
und Antivirenprogramme
praktisch unsichtbar.
Bei dateilosen Attacken kommen unter anderem
folgende Methoden zum Einsatz:
• Schädliche Skripte, die in WMI-Konten
gespeichert werden
• Schädliche Skripte, die direkt als Befehlszeilenparameter
an PowerShell übergeben
werden
• Schädliche Skripte, die in der Registrierung
und/oder im Taskplaner des Betriebssystems
gespeichert werden
• Schädliche Programmdateien, die direkt
in den Arbeitsspeicher extrahiert und
dort ausgeführt werden, ohne zuvor auf
der Festplatte gespeichert zu werden
Aufgrund ihrer Unauffälligkeit sind dateilose
Angriffe zehnmal häufiger erfolgreich als dateibasierte.
Zielgerichtete Angriffe
Bildquelle: 2x Kaspersky
„Dauergast“ APT
Anstatt in die Unternehmens-IT einzudringen,
Daten abzugreifen und sich sofort wieder
zurückzuziehen, nutzen Cyberkriminelle
bei Advanced Persistent Threats (APT) verschiedenste
Tools, um genau das Gegenteil
zu erreichen: Es geht darum, sich möglichst
lange im angegriffenen Netzwerk horizontal
auszubreiten. Solche gut getarnten Attacken
können einen dauerhaften Kompromittierungszustand
verursachen, ohne jemals
von einer klassischen Endpoint Security aufgespürt
zu werden.
EDR: Angriffen auf der Spur
Um all diese komplexen und heimtückischen
Angriffsmethoden aufzudecken und abzuwehren,
sind neue Konzepte notwendig. Es
ist an der Zeit, eine EDR-Lösung (Endpoint
Detection and Response) einzusetzen. Mit
ihr erreichen Unternehmen eine viel höhere
Transparenz innerhalb ihrer IT-Sicherheit.
EDR-Funktionen sind darauf ausgelegt,
selbst komplexe Bedrohungen schnell
zu erkennen, diese zu untersuchen und sofort
auf sie zu reagieren. Der Schutz vor
schwer auffindbarer Malware bedeutet in der
Regel jedoch keinen Zusatzaufwand für IT-
Abteilungen. Denn die Automatisierung von
Sicherheitstasks nimmt heutzutage einen
immer höheren Stellenwert ein – so auch im
Fall von Endpoint Detection and Response.
Da hier die meisten Prozesse automatisiert
ablaufen, erhalten Unternehmen ein höheres
Schutzlevel, ohne zusätzliche Ressourcen
wie Zeit, Geld oder spezifisches Security-Wissen
investieren zu müssen.
Was ist EDR?
Endpoint Detection and Response (Erkennung
und Reaktion) ist ein Element des
Endgeräteschutzes, welche eine unterbrechungsfreie
Überwachung von Endpoints
bietet.
Die Technologie erkennt moderne Bedrohungen
sofort bei ihrer Ausführung und
stoppt den Angriff, noch bevor tiefergehende
Schäden in der IT-Infrastruktur entstehen
können. Obgleich EDR die Reichweite
herkömmlicher Endpoint-Protection-Plattformen
(EPP) erweitert, ist die Security-Software
nicht als Ersatz zu verstehen. Eine Investition
in EDR ist nur dann sinnvoll, wenn
Unternehmen bereits über ein solides Fundament
an Endpoint-Schutzfunktionen verfügen.
Es ist zudem nicht zu empfehlen, eine
mittelmäßige Endpoint-Protection-Plattform
durch das Hinzufügen von EDR-Technologie
verbessern zu wollen. In diesem Fall sollten
Unternehmen sich zunächst auf eine Modernisierung
ihres Endgeräteschutzes konzentrieren.
Transparenz und Analyse
Alle EDR-Produkte haben das gleiche Ziel:
Moderne und komplexe Malwarebedrohungen
schnell zu identifizieren, zu analysieren
und entsprechende Reaktionsmechanismen
einzuleiten. Dabei liegt das Hauptaugenmerk
solcher Lösungen auf zwei grundlegenden
Aufgaben: Transparenz und Analyse.
Es geht darum, über eine zentrale Oberflä-
4
www.nuvias.com/de
che alle Endpoints gleichzeitig zu visualisieren
und zu überwachen, damit IT-Teams sehen,
was an den Endgeräten tatsächlich vor
sich geht. Dafür liefert EDR Kontextinformationen
zu individuellen Endpoint-Aktivitäten
sowie zu Prozessen, Zeitverläufen und Korrelationen
zwischen den Endpoints im gesamten
Unternehmen. Alle wichtigen Sicherheitsdaten
werden nachvollziehbar erfasst
und für die weitere Untersuchung vorbereitet.
Weitreichende Sichtbarkeit
von Endpoints
ieren, ebenso wie die Qualität und Quellen
der Threat Intelligence. Und nicht jedes am
Markt verfügbare EDR-Tool passt zu den bestehenden
Cybersicherheitsmaßnahmen eines
Unternehmens. So muss beispielsweise
die Koordination mit dem Fachwissen und
den Prozessen der IT-Abteilung gewährleistet
sein, wenn EDR als technologische Komponente
beim Threat Hunting zum Einsatz
kommen soll.
se Informationen können bereits in den Anfangsphasen
eines Angriffs zur Erkennung
von komplexer Malware dienen.
Zeit ist hier Geld, denn wenn die Komponenten
einer Bedrohung nicht schnell genug
erkannt werden, können große finanzielle
Schäden für das betroffene Unternehmen
entstehen. Zudem ist eine möglichst automatisierte
Reaktion entscheidend, denn es geht
nicht nur darum, Bedrohungen zu erkennen
und zu analysieren, sondern sie auch nachhaltig
und ohne enormen Aufwand zu neutralisieren.
EDR durchleuchtet Angriffskette
Je mehr Malware die leistungsstarke EPP-
Lösung gleich zu Beginn abfängt, desto
mehr Kapazitäten bleiben der EDR-Lösung.
So sorgt EDR Optimum auf der nächsten
Ebene für lückenlose Transparenz und weiterführende
Analysen, damit Unternehmen
genau sehen können, wo ein Angriff begonnen
hat und in welchem Stadium er sich jetzt
befindet. Hinzu kommen mehrere hochautomatisierte
Abwehroptionen, welche die erkannten
Endpoint-Bedrohungen schnell und
effizient eindämmen.
Keine
Warnung
wird ignoriert
Schnellere
mittlere Zeit
bis zu Abwehr
Minimaler Aufwand
Zielgerichtete
menschliche
Leistung
Spart
Mitarbeitern
Zeit
Die Ergebnisse
einer effektiven
EDR-Implementierung
Automatisierung entlastet IT-Abteilungen
Eine EDR-Lösung ist nicht nur ein effektives
Sicherheitstool, sondern stellt auch durch
den hohen Automatisierungsgrad eine wahre
Entlastung für die eigenen IT-Mitarbeiter
dar. Denn wie bereits erwähnt, haben viele
Unternehmen heute mit begrenzten Ressourcen
gerade im Bereich der IT-Sicherheit
zu kämpfen.
Zudem vereinfacht EDR jene manuellen Prozesse,
bei denen eine Automatisierung nicht
ratsam oder nicht praktikabel ist. Je leichter
eine EDR-Lösung für IT-Teams zu handhaben
ist, umso schneller und präziser können
diese arbeiten und sich weiteren Kernaufgaben
widmen.
Vorteile von EDR
Automatisiertes Sandboxing
Auch Kaspersky Sandbox arbeitet nahtlos
mit der Endpoint-Security-Plattform zusammen.
Die Lösung überprüft automatisch Dateien,
die von der EPP als potenziell verdächtig
eingestuft wurden. Darüber hinaus
erkennt sie auch Bedrohungen, die speziell
dafür konzipiert wurden, Endpoint-Schutzmechanismen
zu umgehen. Die Ergebnisse
ihrer Scans meldet die Sandbox dann wieder
an die installierte Endpoint-Protection-Plattform,
die im Fall von Malware weitere Schritte
einleitet. Es sind keine manuellen Eingriffe
erforderlich. Mit der Sandbox-Technologie
können also auch Unternehmen ohne spezifische
IT-Sicherheitsexperten ihren Schutz
vor hochentwickelten und zielgerichteten
Bedrohungen stärken.
Warum Kaspersky-Partner werden?
Bei der Analyse ordnet die EDR-Lösung
dann einzelne Ergebnisse aus unterschiedlichen
Erkennungsmechanismen einem Vorfall
zu und korreliert sie miteinander, um
Taktiken, Aktivitäten und Methoden der Bedrohung
zu verstehen. Dabei lassen sich
auch Ereignisse untersuchen, die in der
„Grauzone“ zwischen vertrauenswürdigen
Prozessen und eindeutigen Angriffsszenarien
stattfinden, beispielsweise wenn legitime
Software kompromittiert wurde.
Wie funktioniert EDR?
Um flächendeckende Transparenz innerhalb
der Endgeräteinfrastruktur zu gewinnen und
auffällige Aktivitäten genauer unter die Lupe
zu nehmen, verwendet EDR unter anderem
folgende Tools:
• Eine Detection Engine mit Strukturanalyse-Funktion
erkennt Malware-Muster
auf Grundlage von maschinellem Lernen
und Sandbox-Emulation
• Technologie zur Aufzeichnung von
Ereignisdaten, um diese an die Analyse
weiterzuleiten
• Echtzeitanalyse zur Speicherüberwachung
und zur kontinuierlichen Suche nach
auffälligen Verhaltensmustern, um Exploits
sofort zu erkennen und komplexe,
zuvor unbekannte Bedrohungen schnell
diagnostizieren zu können
• Angewandte Threat Intelligence, die aus
verschiedenen separaten Quellen bezogen
wird
• Forensik-Tools zur Vorfallsuntersuchung
und zum Aufspüren von Bedrohungen,
die an einem Endpoint im Verborgenen
agieren
• Generierung automatischer Warnmeldungen
und Reaktionen auf einen Vorfall
• Vorfallsfilterung zur Vermeidung von
Fehlalarmen, damit keine Überlastung
durch unnötige Warnmeldungen entsteht.
Nicht alle EDR-Lösungen arbeiten auf die
gleiche Art und Weise. Manche führen ihre
Analysen direkt am Agenten durch, während
bei anderen der Schwerpunkt auf der
Verwaltungskonsole liegt. Latenzzeiten und
Umfang der Datenerfassung können vari-
Zusammenspiel beim Endgeräte-
Schutz
Zur durchgängigen Bekämpfung aller Arten
von Cyberbedrohungen ist ein mehrschichtiger
Ansatz ideal. Die Basis bildet hier eine
klassische Endpoint Protection Engine. Sie
wendet unterschiedliche Schutzmaßnahmen
– beispielsweise Verhaltensanalysen und andere
Erkennungstechnologien – an, mit denen
sich bereits ein großer Pool an Schädlingen
identifizieren und abwehren lässt.
Dann kommt EDR ins Spiel: Nachdem die
Mehrheit der Malware durch diese Prozesse
ausgesiebt wurde, können sich die Endpoint-Security-Ressourcen
auf den kleinen,
aber besonders gefährlichen Rest der Bedrohungen
fokussieren. Zu diesem gehören
bisher unerkannte Schadprogramme genauso
wie komplexe, zielgerichtete Angriffe.
Das Zusammenspiel beider Lösungen ist
entscheidend. Denn auch wenn mithilfe einer
Endpoint-Protection-Plattform eine Reaktion
auf einen Vorfall erfolgt ist, bedeutet
dies nicht immer, dass die Bedrohung wirklich
behoben wurde, insbesondere nicht bei
multidimensionalen Angriffen. Deshalb ist
gerade hier die tiefgreifende Untersuchung
durch eine EDR-Lösung essenziell. Nur ein
eingehendes Verständnis der Bedrohungsursache
sorgt dafür, dass etwaige noch vorhandene
Komponenten einer Attacke nicht
unbeachtet bleiben.
So kann es beim einfachen Löschen einer
schädlichen Datei vorkommen, dass der Hacker
auf andere Art und Weise immer noch
mit dem angegriffenen System verbunden
ist. Ebenso verhindert die Beendigung eines
einzelnen Prozesses keine Neuinfektion,
wenn die eigentliche Ursache nicht erkannt
und behandelt wurde.
Die Automatisierung und Vereinfachung von
Abläufen stellt Unternehmen bei ihrer Sicherheitsstrategie
auf ein ganz neues Level.
Doch wie genau profitieren IT-Fachkräfte von
den EDR-Funktionen?
• Keine gefährlichen „Überbleibsel“ von
Angriffen: Unternehmen erhalten eindeutige
Gewissheit, ob eine Bedrohung noch
in ihrem Netzwerk vorhanden ist oder
nicht
• Kürzere durchschnittliche Zeit bis zur Abwehr
(Mean Time to Respond, MTTR)
– für Ransomware ein entscheidender
Maßstab
• Vorfälle werden stets unverzüglich
behandelt – ein hoher Automatisierungsgrad
bedeutet, dass nichts vernachlässigt
oder übergangen wird
• Erhöhte Transparenz und detaillierte
Vorfallsdaten unterstützen Fachkräfte
bei ihrer Arbeit
• Keine Investitionen in zusätzliche
Schulungen oder die Einstellung weiterer
Mitarbeiter notwendig, um die EDR-
Lösung im Tagesgeschäft zu verwalten
• Weniger Routineaufgaben für Security-
Verantwortliche
• Einfaches EDR-Toolkit, welches die
Produktivität und Zufriedenheit des
IT-Personals steigert
Integrierte Endpoint Security
So vielseitig die Leistungen auch sind, EDR
kann seine volle Wirkung nur zusammen mit
einem starken Basisschutz entfalten.
Deshalb hat Kaspersky einen neuen Ansatz
für sein Endgerätesicherheitsportfolio entwickelt,
bei dem Endpoint Protection Plattform,
EDR-Lösung und Sandboxing-Technologie
vollständig integriert sind und Hand in Hand
agieren.
Im Jahr 2019 wurde Kaspersky im Worldwide
Vendor Benchmark von Canalys zur
Nummer eins in Sachen Channel-Zufriedenheit
gewählt. Das Partnerprogramm Kaspersky
United erhielt dabei Bestnoten für die
Bereiche Produktverfügbarkeit, Produktbereitstellung,
einfache Geschäftsabwicklung
und Spezialisierungsprogramme.
Folgende Punkte zeichnen
Kaspersky United aus:
• Schneller Aufstieg auf den nächsten
Partnerstatus – vom Registered Partner
zu Silber, Gold und Platin
• Einheitliches Programm, das durch die
Integration von Speziallösungen spezifische
Kundenanforderungen berücksichtigt
• Großzügige, transparente Prämien,
Incentives und Nachlässe – einschließlich
Deal-Registrierung – für durchgängig
erhöhte Gewinnmargen
• Benutzerfreundliche, vorgefertigte Marketing-Tools,
unterstützt durch MDF
• Wissenstransfer durch technische Trainings
sowie Produkt- und Vertriebsschulungen
über alle Geschäftssegmente
hinweg
• Dedizierte Kaspersky Partner Account
Manager für Gold- und Platin-Partner
Und nicht nur Partner profitieren von Kaspersky
United, sondern auch deren Kunden.
So wurde Kaspersky im Jahr 2019 zum dritten
Mal in Folge von Gartner Peer Insights
als Customers' Choice for Endpoint Protection
Platforms ausgezeichnet. Außerdem lagen
Kaspersky-Produkte 64 Mal auf dem
ersten Platz sowie zu 81 Prozent unter den
ersten drei Positionen bei insgesamt 86 unabhängigen
Tests – womit sich Kaspersky
als vielfach getesteter und ausgezeichneter
Sicherheitsanbieter
etabliert.
So deckt Kaspersky Endpoint Security for
Business die erste Sicherheitsebene ab –
unter anderem mit umfassenden Identifizierungs-
und Schutzfunktionen wie Programm-,
Web- und Gerätekontrolle, einer starken Anti-Malware-Engine,
Patch Management, Vulnerability
Assessment sowie Adaptive Ano-
EDR vereinfacht die Vorfallsanalyse, indem
Autor: Kaspersky
die Lösung automatische Scans der Gefährdungsindikatoren
(Indicator of Compromise,
IoC) durchführt. Bei IoCs handelt es sich um
forensische Daten, mit denen sich potenziell
schädliche Aktivitäten in einem IT-System
oder Netzwerk identifizieren lassen. Diemaly
Control zum Erkennen und Blockieren
von ungewöhnlichen Aktivitäten.
http://bit.ly/nuvias-Kaspersky
www.nuvias.com/de
5
Sichtbarkeit, Sicherheit
und Kontrolle für SaaS
"Cloud Access Security Broker (CASBs) sind
lokale oder Cloud-basierte Durchsetzungspunkte
für Sicherheitsrichtlinien, die zwischen
Cloud-Service-Nutzern und Cloud-
Service-Anbietern platziert werden, um
Sicherheitsrichtlinien für Unternehmen zu
kombinieren und einzuschalten, wenn auf
die Cloud-basierten Ressourcen zugegriffen
wird. CASBs konsolidieren mehrere Arten
der Durchsetzung von Sicherheitsrichtlinien.
Die beispielhaften Sicherheitsrichtlinien
umfassen Authentifizierung, einmaliges Anmelden,
Autorisierung, Zuordnung von Anmeldeinformationen,
Geräteprofilerstellung,
Verschlüsselung, Tokenisierung, Protokollierung,
Warnung, Erkennung und Verhinderung
von Malware usw."
Für CASB sehen die Gartner-Analysten einen
hohen Bedarf, denn: „Fast alle erfolgreichen
Angriffe auf Cloud-Dienste sind das
Ergebnis von Fehlkonfigurationen, Missmanagement
und Fehlern der Kunden. Führungskräfte
im Bereich Sicherheit und Risikomanagement
sollten in Prozesse und
Tools für das Management der Cloud-Sicherheit
investieren, um diese Risiken proaktiv
und reaktiv zu identifizieren und zu beheben.“
SaaS-Dienste wie Microsoft 365 stellen
Unternehmen vor immer neue Herausforderungen,
wenn es um Transparenz und
Kontrolle ihrer Daten und der damit verbundenen
Risiken geht. Mit Cloud Access
Security Brokern (CASB) können
IT-Reseller und IT-Dienstleister ihren
Kunden eine Lösung anbieten, um die
notwendige Kontrolle, Sichtbarkeit und
Sicherheit für ihre Cloud-Daten zu erlangen
und um den drohenden Risiken einer
Schatten-IT zu begegnen.
Cloud-Security gewinnt weiter an
Bedeutung
Drei von vier Unternehmen (76 Prozent) in
Deutschland nutzten im Jahr 2019 Rechenleistungen
aus der Cloud, so der Cloud-Monitor
2020 von Bitkom Research und KPMG.
Damit nimmt die Cloud-Nutzung deutscher
Unternehmen weiter zu: Im Vorjahr waren es
73 Prozent und im Jahr 2017 erst 66 Prozentdie
Cloud-Dienste eingesetzt haben.
Bei der Auswahl eines Cloud-Anbieters spielen
Datenschutz und Datensicherheit die
entscheidende Rolle: Die Konformität mit der
Datenschutz-Grundverordnung ist dabei am
wichtigsten, fast alle Unternehmen (96 Prozent)
geben dies an. Für 88 Prozent ist eine
transparente Sicherheitsarchitektur eine
Grundvoraussetzung, mehr als drei Viertel
(77 Prozent) bestehen auf die Möglichkeit,
Cloud-Daten verschlüsseln zu können. Auch
der Datenspeicherort ist für viele Cloud-Nutzer
und -Planer ein wichtiges Thema.
So wichtig den Unternehmen in Deutschland
aber die Cloud-Sicherheit auch ist, für
die Mehrheit stellt die Absicherung ihrer
Cloud-Nutzung eine große Herausforderung
dar. Gut ein Fünftel (22 Prozent) der Public-
Cloud-Nutzer gibt im Cloud-Monitor 2020
an, dass es in den letzten zwölf Monaten
zu Sicherheitsvorfällen in den von ihnen genutzten
Cloud-Lösungen gekommen ist. Für
weitere 36 Prozent bestand ein solcher Verdacht.
Offensichtlich steigt die Cloud-Nutzung an,
trotz der Sicherheitsbedenken und der Sicherheitsvorfälle.
Damit bringen sich die Unternehmen
aber mehrfach in Gefahr: Sie
setzen ihre geschäftskritischen Daten einer
Vielzahl möglicher Cloud-Attacken aus.
So berichtet das Bundesamt für Sicherheit
in der Informationstechnik (BSI) in dem Bericht
zur Lage der IT-Sicherheit in Deutschland
2019: „Der Identitätsdiebstahl wird den
Tätern nach Beobachtungen des BSI zum
Teil leicht gemacht, z.B. durch die Nutzung
von ungeschützten, öffentlichen Cloud-Speichern
oder Fehlkonfigurationen.“
Ebenso können die Unternehmen als Cloud-
Nutzer gegen Compliance-Vorgaben wie die
Datenschutz-Grundverordnung (DSGVO)
verstoßen, wonach Cloud-Nutzer in der Verantwortung
bleiben. (Auftragsverarbeitung,
Artikel 28 DSGVO).
Zudem nehmen sie ihre eigenen Sicherheitsaufgaben
nicht umfassend wahr, die ihnen
nach dem Shared-Responsibility-Modell
(Aufteilung der Sicherheitsaufgaben
unter Cloud-Anbieter und Cloud-Nutzer) zugeordnet
sind.
Nicht zuletzt setzen sich die Unternehmen
den Risiken durch eine Schatten-IT aus:
Ohne Kontrolle der Cloud-Nutzung besteht
das Risiko, dass Fachabteilungen, aber
auch einzelne Nutzer zu nicht genehmigten
Cloud-Diensten greifen, diese betrieblich
nutzen und so Unternehmensdaten in Gefahr
bringen können.
Die Cloudrisiken verschärfen sich noch aus
einem weiteren Grund: Unternehmen in
Deutschland entscheiden sich immer häufiger
für die Nutzung mehrerer Clouds (Multi-Clouds).
In der IDG-Umfrage zum Cloud
Computing 2020 gaben 48 Prozent der Befragten
an, dass eine erhöhte Komplexität
ein Hauptnachteil bei der Verwendung mehrerer
Clouds ist. Das Problem ist, dass in
vielen Unternehmen keine Tools vorhanden
sind, die die erforderliche Transparenz und
Kontrolle in ihren Netzwerken bieten.
Gleichzeitig besteht ein Mangel an Cloud-
Know-how, Security-Expertise und den
notwendigen Fachkräften in vielen der Unternehmen.
Der Bedarf an Services und
Lösungen, mit denen sich Cloud-Dienste
sicher, transparent und den Compliance-
Vorgaben entsprechend nutzen lassen, ist
deshalb hoch. Eine gute Ausgangslage, um
entsprechende Dienstleistungen für Cloud-
Sicherheit anzubieten.
Was Cloud-Nutzer besonders
benötigen
Wie der Cloud-Monitor 2020 von Bitkom Research
zeigt, bestehen die größten Herausforderungen
bei der Integration von Cloud
Computing im Bereich Compliance und Sicherheit,
mit steigender Tendenz. Für ein
zielgerichtetes Angebot an Cloud-Nutzern
unter den Kunden, empfiehlt sich eine Analyse,
wo die Herausforderungen durch SaaS
(Software as a Service) genau liegen:
1
Verlust von Sichtbarkeit und Kontrolle:
Mit der Nutzung von Cloud-Diensten verlieren
Unternehmen die Übersicht, darüber
wo sich welche der zu schützenden Daten
befinden und wer darauf zugreifen kann.
2
Bedrohungen in der Cloud: Die Daten
befinden sich außerhalb des geschützten
Perimeters und sind neuartigen Attacken
ausgesetzt.
3
Hohe Komplexität: Die Unternehmen
haben nicht genug Erfahrung und Know-how
für die Cloud-Nutzung, setzen aber häufig auf
mehrere, geschäftskritische Cloud-Dienste.
4 Bleibende Verantwortung: Obwohl die
Kontrolle, Sichtbarkeit und Sicherheit der
Cloud-Daten nicht sichergestellt ist, bleiben
die Unternehmen für die Daten verantwortlich.
Die Compliance muss auf die Cloud
ausgedehnt werden.
5
Keine passenden Security-Strategie:
Viele Security-Konzepte fußen auf einer Perimeter-basierten
Abwehr und schließen die
genutzten Cloud-Ressourcen nicht ein.
6
Verwendung ungenehmigter Cloud-
Dienste: Mit der Cloud-Nutzung erhöht sich
das Risiko für eine Schatten-IT jenseits der
Freigaben und der Kontrolle durch die IT-Abteilung.
Benötigt werden deshalb Services und
Lösungen für:
• Sichtbarkeit und Kontrolle, auch in den
Clouds, Vermeidung von Schatten-IT
• Erkennung und Abwehr von Cloud-
Attacken
• Übersichtliches Management der Cloud-
Nutzung und der Cloud-Zugriffe
• Compliance- und Sicherheitsfunktionen
auch für die genutzten Clouds
Die Lösung lautet CASB
Die von den Cloud-Nutzern benötigten Funktionen
bieten sogenannte Cloud Access Security
Broker (CASB). Das Marktforschungshaus
Gartner definiert dies so:
Bildquelle: Shutterstock
FortiCASB ist eine von Fortinet entwickelte
Lösung für Cloud-native Cloud Access Security
Broker (CASB). Die Lösung verfügt
über Cloud Security Posture Management
(CSPM)-Funktionen, welche für Transparenz,
Compliance, Datensicherheit und
Schutz vor Bedrohungen für Cloud-basierte
Dienste sorgen. Mit FortiCASB können alle
Funktionen geliefert werden, um die genannten
Herausforderungen der Cloud-Nutzer zu
meistern.
Vorteile von FortiCASB auf einen
Blick
FortiCASB eignet sich damit als Lösung
für alle Kunden,
• die in ihrer Organisation Microsoft 365,
OneDrive, Dropbox, Box, Google Drive
oder Salesforce.com einsetzen,
• die ihre Daten in einem Cloud-Service
besser überwachen und kontrollieren
wollen,
• die Compliance Audits in Bezug auf
Daten in Cloud-Diensten durchführen
müssen,
• die den Risiken einer Schatten-IT besser
begegnen wollen.
Mit FortiCASB können IT-Reseller für ihre
Kunden eine CASB-Lösung anbieten und
betreiben, die sich auszeichnet durch:
• API-Basis: Direkter Zugriff auf in der
Cloud gespeicherte Daten für Security im
Netzwerk und für Remote-Zugriffe.
• Compliance und DLP: Die anpassbare
Tools zum Schutz vor Datenverlusten und
vordefinierte Optionen für das Compliance-Reporting.
• Infos über Anwender und Richtlinien:
Transparenz und Kontrolle für Cloud-Anwendungen
mit Nutzungs-, Berechtigungs-
und Konfigurationsbewertungen.
Integriert in die Security Fabric: Scannen
von Anhängen bei der AV- und Sand-
•
box-Integration, um sie vor neuesten Bedrohungen
zu schützen.
Entdeckung von Schatten-ITs: Konsolidiertes
Reporting für FortiGate und For-
•
tiAnalyzer zur Erkennung der SaaS-Nutzung
im Netzwerk.
Moderne Analytik: Umfassende, benutzerfreundliche
visuelle Tools, um Risiken
•
und Richtlinienverstöße schnell zu identifizieren.
Autor: Fortinet Inc.
http://bit.ly/FortinetDE
6
www.nuvias.com/de
Die Transformation von SASE und WAN
Moderne Unternehmen erleben aktuell
schwierige Zeiten durch zunehmenden
Preiswettbewerb, die Erwartung der Kunden
an ein nahtloses Einkaufserlebnis
und unverzügliche Lieferung. Optimale
Zuverlässigkeit und Effizienz stehen im
Fokus bei gleichzeitiger schneller Anpassung
an die Marktdynamik. All diese
Herausforderungen lassen sich nur
meistern, wenn man eine Netzwerk- und
IT-Infrastruktur hat, die genauso agil und
dazu dynamisch ist, wie das Unternehmen
selbst.
Vergangenheit, Gegenwart und die
alternative Zukunft
IT-Teams haben traditionsgemäß schon immer
punktuelle Probleme mit punktuellen
Lösungen behoben. Im Laufe der Zeit wurde
dadurch die Agilität der IT eingeschränkt,
so zum Beispiel bei der globalen Expansion.
Hier ein Beispiel: Ein Berliner Unternehmen
expandiert in die USA. Deswegen müssen
neue Außenstellen in den USA an die Applikationen
in Berlin angebunden werden, ohne dabei
Performance, Verfügbarkeit oder Sicherheit
zu beeinträchtigen. Das bedeutet normalerweise
mehrere Projekte: Verhandlung von
MPLS-Verträgen für die globale Konnektivität,
WAN-Optimierungen zur Verbesserung
der Applikationsperformance in Übersee,
Anbindung von Niederlassungen mit lokalem
Internet-Breakout und Absicherung aller
Niederlassungen mit UTMs oder SWGs.
Dagegen konvergiert die Secure Access
Service Edge (SASE) alle Kapazitäten des
Netzwerks und der Netzwerksicherheit in ei-
nem einheitlichen und
global verteilten Cloud-
Service. Mit SASE entfällt
der Aufwand für
Suche, Evaluierung, Beschaffung,
Integration
und Wartung der vielen
Punktprodukte, die
normalerweise für den
Geschäftsbetrieb erforderlich
sind.
SASE
Edge SD-WAN
Private Global
Backbone
NGFW/UTM
SWGs
SASE richtet sich nicht nur an die aktuellen
Managementherausforderungen, vor denen
IT-Teams gerade stehen, sondern auch an
die Unsicherheiten in der Zukunft. Als cloudnativer
Service ermöglicht SASE Unternehmen
die Zukunftssicherung der IT-Infrastruktur,
auf der das digitale Business beruht.
Mit SASE sieht die Zukunft rosiger aus
Nehmen wir wieder die globale Expansion
des Berliner Unternehmens als Beispiel,
aber diesmal aus der Perspektive eines IT-
Teams, das SASE bereits nutzt: Die zuverlässige
Anbindung der Zweigstellen an
die Applikationen in Berlin erfolgt über das
globale private Backbone von SASE, einer
günstigen Alternative zu MPLS.
SASE verfügt zudem über eingebaute WAN-
Optimierungsmöglichkeiten, um zu gewährleisten,
dass die Performance der Applikationen
nicht wegen der Latenz über große
Distanzen und der begrenzten Bandbreite
von Überseeverbindungen leidet. Auch die
Sicherheitsmaßnahmen sind bereits an Ort
und Stelle und werden umgesetzt, sobald,
die amerikanischen Standorte online und
Ersatz von
MPLS/
mehr BB
Globale
Konnektivität
Sicherer
DIA
Angesichts dieser schnell herbeigeführten
Veränderungen, die sich in unserer gegenwärtigen
Landschaft vollziehen, fragen Sie
sich vielleicht, was die Zukunft für die Universitäten
bereithält. Aus der aktuellen Krise haben
wir gelernt, dass die öffentliche Gesundmit
der SASE-Cloud verbunden sind. Die IT
muss zur Unterstützung der Unternehmensexpansion
lediglich einen Internetzugang vor
Ort buchen – das war‘s.
Vergleichen wir doch einmal die Methode
von früher, mit der von heute. In der Welt
vor SASE erforderte ein globales Expansionsprojekt
die Beschaffung mehrerer Services
(MPLS, lokales Internet) und mehrerer
Produkte (WAN-Optimierung, Security etc.).
In einer Welt mit SASE benötigt man lediglich
einen oder zwei Internetanschlüsse pro
Niederlassung. Als All-in-One-Plattform eliminiert
SASE zudem die repetitiven Zyklen
für Evaluierung, Beschaffung und Integration
von Einzelprodukten und reduziert so die
Gesamtprojektzeiten deutlich.
Mit SASE sind Sie für alles Kommende
gerüstet
Die wichtigste Aufgabe der IT besteht darin,
dem Unternehmen die Erschließung neuer
Geschäftschancen zu ermöglichen. M&A,
Cloud-Migration, globale Expansion, Mobilität
oder die schnelle Eröffnung neuer Standorte
sind in fast allen Organisationen ein
Thema.
Optimierter
Zugang
zur Cloud
Optimierter
mobiler
Zugang
Nach dem herkömmlichen Ansatz musste
die IT die Lösungen so auswählen, dass
die Infrastruktur sie auch entsprechend unterstützt
aufbauen. Edge SD-WAN, um die
Beschränkungen von MLPS zu überwinden,
ein privates globales Backbone zur Anbindung
von Zweigstellen, NGFWs, UTMs,
und SWGs zur Absicherung der Zweigstellen
mit direktem Internetzugang sowie Optimierungslösungen
für Clouds und die mobilen
Mitarbeiter.
IT-Teams, welche die WAN-Transformation
leiten und umsetzen, müssen bei der Wahl
der Architektur für aktuelle und zukünftige
Unternehmensanforderungen sorgfältig
vorgehen. Zukunftssicherheit ist die Stärke
der SASE-Plattform. Nur so können IT-
Teams die Anforderungen eines modernen
und wettbewerbsfähigen
Unternehmens an
eine gleichzeitig effiziente
und agile Infrastruktur
meistern.
Autor: Cato Networks
Sehr
einfaches
Management
SASE: Eine einheitliche Plattform, die Ihre aktuellen und zukünftigen IT-Projekte unterstützt
http://bit.ly/nuvias-Cato
Universitäten und die „neue Normalität“
www.addonnetworks.com
In Zeiten der COVID-19-Pandemie stellen
sich Universitäten auf einen Zustrom von
bei E-Learning und Fernunterricht ein.
Die teils komplexen und unterschiedlichen
digitalen Infrastrukturkomponenten
müssen ordnungsgemäß funktionieren,
um den täglichen Betrieb einer
Universität zu unterstützen. Hierzu zählen
nicht nur die Einschreibung, sondern
auch die Bezahlung, die Online-Kursarbeit,
die Bibliothek und Datenbanken, die
Forschung, Webanwendungen für das
Lernen und vieles mehr.
Upstream-Verbindungen
Schülerinnen und Schüler streamen Inhalte
aus dem Internet zur Unterstützung ihrer
E-Learning-Aktivitäten. Dadurch erhöht
sich die Bedeutung geschäftskritischer
Upstream-Verbindungen gegenüber dem
traditionellen Fokus auf Downstream. Universitäten
müssen sich darauf einstellen, indem
sie neue Plattformen für Studierenden
entwickeln, wie z.B. virtuelle Campusbesuche,
neue Orientierungshilfen für Studierende
und Tools für die Zusammenarbeit. Auf
diese Weise erhalten Studierende solide
Lernmöglichkeiten. Doch diese Vorgehensweise
führt dazu, dass die Abhängigkeit von
Cloud-Kommunikations- und Kollaborationsplattformen
weiter zunimmt.
Sicherheit
Benutzer greifen von außen auf Universitätsnetzwerke
zu, wodurch sich potenzielle
Netzwerksicherheitslücken auftun. Die medizinische
Universitätsforschung trägt heutzutage
wahrscheinlich mehr denn je zu möglichen
Behandlungen, Impfstoffen und damit
vielleicht sogar zu einer Heilung des Coronavirus
bei, was dem Verständnis, warum Universitätsnetzadministratoren
Upgrades zur
weiteren Sicherung ihrer Netzinfrastruktur
nicht übersehen sollten, eine neue Bedeutung
verleiht.
Operative Intelligenz
Bildquelle: Shutterstock
heit von der Rückverfolgung von Kontakten
abhängt, um künftige Virusausbrüche innerhalb
von Gemeinschaften zu verhindern. Die
Experten von AddOn Networks sind der Meinung,
dass auch die Infrastruktur von Universitäten
skaliert werden muss, um so operative
Intelligenzmodelle zu unterstützen.
Fragen ansprechen und Lösungen
finden
AddOn arbeitet derzeit mit Universitäten zusammen,
um ihnen bei der Lösung ihrer Fragen
und Herausforderungen zu helfen. Hier
sind einige der häufigsten Fragen, die aufkamen.
AddOn hat diese durch Handlungsempfehlungen
ergänzt.
• Wie können wir hochmoderne Netzwerke
für unsere zukünftigen Bedürfnisse
schaffen?
Viele große Universitäten verwenden 100Gund
200G-DWDM-Netze mit 100G-Drops.
Außerdem gehen sie von 400G im Kern auf
100G in jedem Gebäude über. Die AddOn-
Transceiver reichen von 1G bis 400G sowie
auch die Direct-Attach-Cabel (DACs) und
aktive optische Kabel (AOCs). AddOn bietet
eine Vielzahl von Multicode-Optionen, Medienkonvertern,
Glasfaser-Patchkabeln und
Zubehör, um das Wachstum und Infrastrukturübergänge
zu unterstützen.
• Wie können wir ohne Qualitätseinbußen
Geld sparen?
AddOn-Kompatibilitäten von Drittanbietern
sind eine phänomenale Alternative zu OEM-
Geräten ohne Qualitätseinbußen. Die Qualitätsverpflichtung
wird durch das Data Traveler
System demonstriert. Die Ausfallrate
von weniger als 0,02 Prozent ermöglicht dem
Nutzer volles Vertrauen in die Anwendung.
• Wie können wir eine Umgebung mit mehreren
Plattformen und Anbietern unterstützen?
Die Antwort lautet: Multi-Code-Lösungen
für Interoperabilitätsherausforderungen. Bei
Netzwerkimplementierungen werden oft
Switches, Server, Load Balancer oder Speichergeräte
von mehreren OEM-Anbietern
gemischt. Zuverlässige Hersteller codieren
DAC- und AOC-Optionen mit mehreren
Codes, um die Herausforderung der Netzwerk-Interoperabilität
zu bewältigen, indem
Kabel angeboten werden, die mit mehreren
OEMs kompatibel sind.
Unabhängig davon, ob Sie an der Aufrüstung
eines Campus-Netzwerks oder an anderen
IT-Infrastrukturprojekten arbeiten,
sollten Sie sich über die sich entwickelnden
Konnektivitätsanforderungen und Herausforderungen
im Klaren sein.
Autor: Joachim Meurer,
Enterprise & Channel
Manager DACH bei
AddOn Networks
http://bit.ly/nuvias-addon
www.nuvias.com/de
7
Perspektivenwechsel mit dem
Riverbed SaaS Accelerator
Der Trend zur Arbeit von zu Hause aus
zeichnete sich zwar bereits vor der CO-
VID-19-Pandemie deutlich ab, doch mit
dem Lockdown hat sich dieser Wandel
deutlich beschleunigt. Egal, wie die
„neue Normalität“ auch aussehen wird:
Das Arbeiten vom Remote-Arbeitsplatz
aus gehört dazu. Doch das bringt natürlich
auch eine Flut an Herausforderungen
mit sich.
So kann die Arbeit vom heimischen Büro aus
zu unerträglichem Frust führen, wenn etwa
die Verbindung zu wichtigen Applikationen
langsam ist. Die ganzen kleinen Zeitverluste
summieren sich schnell auf, beeinträchtigen
die Produktivität und begrenzen die Flexibilität,
die Teams heute für ein erfolgreiches Abreiten
brauchen.
Einer der größten Zeitverluste entsteht für
Mitarbeiter durch langsame Verbindungen
zu unternehmenskritischen SaaS-Applikationen.
Diese Verluste beeinträchtigen die
Produktivität enorm. Nach Schätzung von
Zen Internet können Mitarbeiter durch langsame
Verbindungen bis zu 72 Minuten pro
Arbeitstag einbüßen. Das sind 14 Minuten
mehr, als der durchschnittliche Weg zur Arbeit
dauert! Bei Unternehmen, die stark auf
SaaS-Plattformen setzen, kann sich eine
langsame Verbindung daher ernsthaft negativ
auf den Geschäftsbetrieb und das Wachstum
auswirken.
Um die Auswirkungen langsamer SaaS-Applikationen
zu verdeutlichen, werfen wir einen
Blick auf den Film mit dem Titel „Sie liebt
ihn – sie liebt ihn nicht“ (Originaltitel: Sliding
Doors). Die Handlung folgt der Entwicklung
der Hauptdarstellerin aus zwei alternativen
Perspektiven, um zu zeigen, dass schon
eine kleine Änderung gewaltige Konsequenzen
nach sich zieht. Für unser Experiment
nutzen wir den Riverbed SaaS-Accelerator,
einen softwaredefinierten, cloudbasierten
Service.
Team-Meeting
Wir begleiten Sam und ihr Team, das gerade
den letzten Schliff bei einem Angebot
für einen neuen Interessenten durchführt.
Der Interessent ist seit langem ein
Wunschkunde, und wir befinden uns in der
letzten Stufe des Beschaffungsprozesses.
Heute geht es darum, die Präsentation fertigzustellen
und einzureichen.
Ohne Riverbed
SaaS-Accelerator
Sam lädt sich die Präsentation samt Änderungen von ihrer Vorgesetzten
herunter, was mehrere Minuten in Anspruch nimmt.
Sam und ihr Team teilen ihre Rollen für die Abgabe auf und laden
weitere Ressourcen herunter, was für weitere Verzögerungen
sorgt.
CHALLENGE
Unvorhergesehene Herausforderung
Das Marketingteam braucht dringend Unterstützung. Ein Teammitglied
springt ein, doch die Antwort wird durch den langsamen
Zugriff auf Salesforce und Office 365 ausgebremst. Es entsteht
eine weitere Verzögerung.
Das Team beschließt ein paar Korrekturen, um das Angebot
überzeugender zu gestalten, was aber wieder den Ablauf verzögert.
Durch die Verzögerung verpassen sie den Slot für die
Angebotsprüfung durch die Finanzabteilung, was zu noch mehr
Verzögerung führt.
Das Finanzteam beginnt mit der Angebotsprüfung, doch wegen
der Verzögerung wird die Deadline für die Abgabe nicht eingehalten.
09:00 - 4 Stunden bis zur Abgabe
11:00 – 2 Stunden bis zur Abgabe
13:00 – DE ADLINE
Mit Riverbed
SaaS-Accelerator
Sam lädt sich innerhalb einer Minute die Präsentation samt Änderungen
von ihrer Vorgesetzten herunter. Sam und ihr Team
teilen ihre Rollen für die Abgabe auf und laden ohne Verzögerung
weitere Ressourcen herunter.
CHALLENGE
Unvorhergesehene Herausforderung
Das Marketingteam braucht dringend Unterstützung. Ein Teammitglied
springt mit ein paar wichtigen Daten ein und kehrt sofort
danach ins Team zurück, um beim finalen Entwurf dabei zu sein.
Das Team beschließt ein paar Korrekturen, um das Angebot
überzeugender zu gestalten.
Der Entwurf kann an das Finanzteam weitergegeben werden,
damit diese den Entwurf Korrekturlesen und anschließend freigegeben
können.
Der Entwurf wird freigegeben und an den Kunden geschickt.
Das Team beginnt mit der Arbeit an weiteren Interessenten in
der Pipeline.
Bildquelle: 2x Shutterstock
Anhand eines Beispiels möchten
wir kurz demonstrieren, wie ein SaaS-
Accelerator einen einfachen Arbeitsprozess
optimieren kann.
Das Team ändert den Entwurf nach Feedback aus der Finanzabteilung
ab, verpasst aber einen Telefontermin mit dem Kunden.
Weil im Angebot wichtige Daten fehlen, liegen die Erfolgschancen
bei 60 Prozent.
Das Team nimmt am Telefontermin mit dem Kunden teil.
Sie schätzen ihre Erfolgschancen auf 80 Prozent.
Autor: Riverbed Technologies
Jede Minute zählt
http://bit.ly/nuvias-Riverbed
Diese einfache Story demonstriert, welchen Unterschied die App-Performance machen kann. Dank guter Performance kann das
Team das Beste aus der verfügbaren Konnektivität herausholen und bekommt ganz ohne Änderungen an der Internetbandbreite einen
deutlich schnelleren Zugriff auf SaaS-Apps – inklusive Office 365 und Salesforce.
Die gesparte Zeit summiert sich schnell, sorgt für willkommene Produktivitätsschübe und schafft obendrein die Flexibilität, die das
Team braucht, um mehr Neugeschäft unter Dach und Fach zu bringen. In einer Zeit, in der Remote-Arbeit, Ausfallsicherheit und Agilität
ganz oben auf der Agenda stehen, ist jetzt der perfekte Zeitpunkt, die Vorteile zu nutzen, die SaaS-Accelerators zu bieten haben.
8
www.nuvias.com/de
Netzwerksicherheit „zur Miete“ bietet neue
Umsatzpotenziale für den Channel
Software-as-a-Service (SaaS) ist ein Lizenz-
und Vertriebsmodell, mit dem Software-Anwendungen
als Service angeboten
werden. Die Nutzung erfolgt in der
Regel auf Abonnementbasis. Aktuell nutzen
in Deutschland bereits mehr als die
Hälfte (54 Prozent) der Industriebetriebe,
41 Prozent der Handelsunternehmen und
rund 25 Prozent der Dienstleistungsunternehmen
Software-as-a-Service. Weltweit
verzeichnet SaaS seit Jahren ein
kontinuierliches Wachstum. Neben den
bekannten Anwendungsbereichen Customer
Relationship Management (CRM),
Shopsysteme, Online-Meeting oder Office-Lösungen,
ist das Thema Netzwerkzugangskontrolle
jetzt als SaaS-Angebot
auf dem Markt.
Viele Unternehmen scheuen sich nach wie
vor in das scheinbar komplexe Thema NAC
zu investieren, mit NAC-as-a-Service benötigt
der Nutzer jedoch kein Know-how und
keine spezialisierten Mitarbeiter. Die Hürde
für eine Investition in verbesserte Netzwerksicherheit
ist niedrig, denn der Kunde
leistet keine teure Erstanschaffung, er mietet
ganz einfach den Service „Network Access
Control“. Somit werden lange Entscheidungswege
im Unternehmen umgangen
und NAC-Projekte können schnell auf Abteilungsebene
realisiert werden.
Ein weiterer positiver Aspekt ist die Zufriedenheitsgarantie
– sowohl für Partner als
auch für Kunden. Der Kunde testet den
NAC-Service und mietet diesen nur, wenn
er tatsächlich zufrieden ist und die vielfachen
Mehrwerte einer zuverlässigen NAC-
Lösung erkennt – damit müssen aber auch
MSPs nicht in Vorleistung für Lizenzen oder
Hardware gehen, sondern zahlen, genau
wie der Kunde, erst mit der tatsächlichen
Nutzung.
Network Access Control as a Service
- Lukrative Nutzungsmodelle
Managed Service Provider (MSPs) können
ihren Kunden jetzt die führende Network-Access-Control-Lösung
macmon NAC-as-a-
Service zur Verfügung stellen. Ohne jegliche
Einstiegshürde kann damit nicht mehr nur
das Netzwerk als Service angeboten werden,
sondern auch die unerlässliche Sicherheit
mit NAC.
Während für die Kunden, wie bei Services
gewohnt, nur die monatlichen Mietkosten
anfallen, hat der NAC-Experte Wert darauf
gelegt, dass die Partner mit ihrem Angebot
so flexibel wie möglich sind.
Chance für Zusatzgeschäfte und
Profilierung im Bereich IT-Security
Anhand des Reportings des MSPs an den
Distributor erfolgen die Bestellung und eine
Abrechnung auf Basis des gemeldeten Verbrauchs.
So können viele Kunden mit NAC
versorgt werden, bei gleichzeitig sinkenden
Aufwänden und somit signifikant steigendem
Profit pro Kunde.
Bildquelle: macmon
Der MSP-Partner erhält einen Lizenz-schlüssel,
der entweder das Network Bundle oder
das Premium Bundle abdeckt, und immer
auch die Skalierbarkeit ohne Mehrkosten
enthält. Das sorgt für maximale Ausfallsicherheit
durch flexible Hochverfügbarkeitsoptionen
für lokale oder verteilte Infrastrukturen,
inklusive zentralem Management und
Reporting.
Für die MSP-Modelle gibt es jeweils eine eigene
Preisliste mit eigenen Artikeln, die sowohl
die Modelle als auch die monatliche
Berechnung widerspiegeln. Es gelten die
Einkaufskonditionen aus dem regulären
Partnerprogramm.
Dazu Christian Bücker, Geschäftsführer
macmon secure GmbH: „Unsere Lösung ist
schnell und einfach zu implementieren und
bietet einen erheblichen Mehrwert für die
Netzwerksicherheit. Da es keine Mindestlaufzeit
gibt, und der Service monatlich
kündbar ist, stellt es für den IT-Entscheider
ein überschaubares Risiko dar, für das IT-
Systemhaus bietet sich jedoch eine große
Chance sich beim Kunden oder Neukunden
als Experte für IT-Sicherheit zu profilieren,
und weitere rentable Zusatzgeschäfte zu generieren
– Plus den Vorteil, nicht in Vorleistung
gehen zu müssen.“
MSH & MSO – Service zugeschnitten
für große und kleine Kunden
Das Angebot existiert in Varianten für MSHs
(Managed Service Hoster) und MSOs (Managed
Service Operator). In beiden Fällen
müssen keine Lizenzen gekauft werden.
Die Abrechnung erfolgt im Pay-as-you-go
Verfahren, also auf Basis der tatsächlichen
Nutzung, jeweils nach Ablauf eines Abrechnungszeitraums,
typischerweise monatlich.
Sowohl die virtuellen Appliances als auch
die Skalierbarkeit sind kostenfreie Bestandteile
der MSP-Lizenzen und unterstützen so
die Partner in der Erbringung stabiler Services.
Die Aufteilung in zwei Modelle ermöglicht
die optimale, nutzerorientierte Versorgung
unterschiedlicher Zielgruppen.
Partner, die mit dem MSP-Modell arbeiten,
müssen nur geringe Voraussetzungen erfüllen,
dazu zählt beispielsweise die Ausbildung
und dauerhafte Beschäftigung von
mindestens zwei zertifizierten Technikern.
Zentrale Übersicht für einfache und
übersichtliche Administration
mehrerer Kunden
macmon central ist die neue zentrale MSP-
GUI, speziell zur Verwaltung von mehreren
Kundeninstallationen. Hiermit wird den Partnern
ein Werkzeug an die Hand gegeben, um
viele, unabhängig voneinander agierende Installationen
zentral zu überwachen, wobei
jede Installation durch einen eigenen Server
abgebildet wird.
Die übersichtliche MSP-GUI, die ohne zusätzliche
Lizenzkosten Bestandteil jeder Appliance
ist, erleichtert die Administration signifikant.
So können Administratoren an
zentraler Stelle die Erreichbarkeit der Server,
die Menge der verbrauchten Lizenzen pro
Kunde und in Summe, die genutzte Version
und die Anzahl der kritischen Ereignisse auf
einen Blick sehen. All diese Details lassen
sich auch als CSV, Excel oder PDF-Datei exportieren,
um sie als Reporting zu nutzen.
Autor: Hans-Joachim
Diedrich, Director Sales
& Marketing bei der
macmon secure GmbH
https://bit.ly/nuvias-macmon
Was sind die signifikanten Veränderungen der letzten
Monate und wie erleben wir diese Zeit in der IT?
Es ist spannend zu sehen, dass viele
Menschen bereits über die Arbeitswelt
und die geänderten Anforderungen an
die IT nach Corona sprechen. Und das,
obwohl wir uns noch mitten in der Pandemie
befinden. Der deutlich kürzere Arbeitsweg
ins Büro während der Home-
Office-Phase ist zwar wieder vorbei, aber
der persönliche Kontakt zu Kunden und
Partnern ist teilweise weiterhin nur eingeschränkt
möglich. Der digitale Vertrieb
ist oft immer noch das Mittel der
Wahl, wenn eine physische Anwesenheit
vor Ort nicht möglich ist. Die Aufrechterhaltung
des Geschäftsbetriebes verlangt
derzeit in vielen Unternehmen mehr digitale
Kommunikation über Videokonferenzen
und soziale Medien als zuvor.
Prinzipiell hat die Corona-Pandemie als
Katalysator oder Brandbeschleuniger fungiert.
Die schiere Menge an Remote-Zugriffen
war im Vorfeld nicht abzusehen.
„Neuartige“ Arbeitsweisen auf Kollaborationsplattformen
wie MS-Teams, Meetings via
Zoom oder anderen Videosystemen zwingen
Unternehmen zu Anpassungen der lokalen
Infrastruktur sowie auch zur Betrachtung
des Endpoints. Mit der darüber hinaus
zunehmenden Verlagerung von Unternehmensdiensten
und -Anwendungen in die
Public Cloud, werden Endgeräte in Unternehmen
zu kritischen Punkten. Mobile Arbeitsplätze
befinden sich im Irgendwo. Services,
also Server und Dienste, werden in
Public Clouds verlagert und sind somit auch
nur noch bedingt unter der Kontrolle der eigentlichen
Unternehmensgrenzen. Andererseits
ist man sich durchaus auch bewusst,
dass der Schutz des Campus selbst schon
seit geraumer Zeit nicht mehr zu 100 Prozent
gewährleistet werden kann. Eindringlinge
könnten sich unter Umständen bereits
eingenistet haben und nur darauf warten, mit
gezielten Attacken loszulegen. Daher ist es
keine Frage, dass hier ein Wandel von „Protection“
zu „Detection & Response“ stattfinden
muss. Die IT-Security muss daher neu
gedacht werden.
Die Secure Access Service Edge, oder auch
SASE-Architektur (ausgesprochen: SASSY)
ist genau der Weg, den Unternehmen gehen
müssen, um den heutigen Kommunikationsanforderungen
gerecht zu werden. „Optimale“
Wege zu den Applikationen sowie alle
notwendigen Sicherheitswirkprinzipien lassen
sich über eine SASE-Architektur granular
abgestimmt zur Verfügung stellen.
SASE ist die Konvergenz von WAN (Wide
Area Networking) und Netzwerksicherheitsdiensten
wie CASB, FWaaS und Zero Trust
zu einem einzigen, von der Cloud bereitgestellten
Servicemodell. Laut Gartner werden
„SASE-Funktionen als Service bereitgestellt,
der auf der Identität des Unternehmens, dem
Echtzeitkontext, den Sicherheits- bzw. Compliance-Richtlinien
des Unternehmens und
der kontinuierlichen Bewertung des Risikos
und damit auch des Vertrauens während der
Sitzungen basiert. Identitäten von Entitäten
können Personen, Personengruppen
(Zweigstellen), Geräten, Anwendungen, Diensten,
IoT-Systemen oder Edge-Computing-
Standorten zugeordnet werden. Eine SASE-
Architektur identifiziert Benutzer und Geräte,
wendet richtlinienbasierte Sicherheit an und
bietet sicheren Zugriff auf die entsprechende
Anwendung oder Daten. Mit diesem Ansatz
können Unternehmen einen sicheren Zugriff
anwenden, unabhängig davon, wo sich ihre
Benutzer, Anwendungen oder Geräte befinden.
Nuvias hat es sich zur Aufgabe gemacht
das Herstellerportfolio auf SASE auszurichten
und abzustimmen und das Konzept seinen
Partnern und Kunden zugänglich zu machen.
Nahezu alle unserer Hersteller haben
es sich zur Aufgabe gemacht, das eigene
Angebot nach SASE auszurichten und anzubieten.
Gartner geht davon aus, dass „bis
2024 mindestens 40 Prozent der Unternehmen
explizite Strategien zur Einführung von
SASE haben werden, gegenüber weniger
als 1 Prozent zum Jahresende 2018.“
„Die Zukunft der Netzwerksicherheit liegt
in der Cloud“ (Gartner), gerne begleitet Sie
Nuvias auf diesem Weg.
Autor: Steffen Brieger,
Director Vendor
Management bei Nuvias
http://bit.ly/nuvias-DE
www.nuvias.com/de
9
IT-Sicherheit auf Basis leistungsstarker Werkzeuge
Um den steigenden Herausforderungen
im IT-Security-Markt begegnen zu können,
setzen Unternehmen vermehrt auf
die Nutzung von passgenauen Security-
Services und -lösungen. Diese müssen
jedoch an den spezifischen Bedürfnissen
und Anforderungen der Kunden ausgerichtet
sein und über weitreichende
Funktionalitäten verfügen. Keine leichte
Aufgabe. Im Interview erläutert Watch-
Guard-Geschäftsführer Prakash Panjwani
wie das Unternehmen dies über eine
MSP-orientierte Security-Plattform abbildet
und was der Zukauf von Panda Security
im März 2020 damit zu tun hat.
Was waren die Beweggründe für die
Übernahme des spanischen Anbieters
für Endpoint Protection?
Prakash Panjwani: Unternehmen stehen
angesichts der aktuellen Bedrohungslage
vor großen Herausforderungen. Dies liegt
zum einen daran, dass sich die Angriffsformen
konsequent weiterentwickeln und immer
ausgeklügelter gestalten. Perimeter
werden zunehmend durchlässiger. Gleichzeitig
mangelt es vermehrt an Fachkräften
im IT-Security-Umfeld. Infolgedessen kommt
Netzwerksicherheit, modernem Endgeräteschutz,
Multifaktor-Authentifizierung sowie
spezifischen Lösungen zur Erkennung und
Abwehr der einschlägigen Gefahren hohe
Bedeutung zu. Die Investitionsbereitschaft
steigt – sowohl auf Seiten der Unternehmen
als auch bei den IT-Dienstleistern, die diese
unterstützen. Durch die Zusammenführung
von Panda Security und WatchGuard bieten
wir unseren aktuellen sowie zukünftigen
Kunden und Partnern alle grundlegenden Sicherheitsdienste
aus einer Hand. Hohe Servicequalität
ist hierbei zentraler Bestandteil
der DNA beider Unternehmen. Über die Integration
unserer beider Produktspektren sind
wir in der Lage, den gemeinsamen Kunden
und Partnern fortschrittliche, weitreichende
Funktionen zur Bedrohungsabwehr und
Unternehmenssicherheit zur Verfügung zu
stellen. Diese stützen sich auf moderne KI-
Technologien, Verhaltensanalysen und Korrelationsmöglichkeiten.
Der Mehrwert liegt
dabei nicht zuletzt in der zentralisierten Verwaltung
all dieser Funktionalitäten – für konsequenten
Schutz vom Netzwerk bis zum
Endpunkt.
Welche konkreten Vorteile ergeben sich
für die Partner?
Prakash Panjwani: Unsere Kunden und
MSP-Partner benötigen Zugang zu professionellen
Security-Lösungen, die auf die besonderen
Anforderungen des Mittelstands
zugeschnitten sind. WatchGuard hat seine
MSP-orientierte Sicherheitsplattform mit
dem Ziel entwickelt, jeden Aspekt der Sicherheitsbereitstellung
zu vereinfachen und damit
exakt den Nerv mittelständischer Unternehmen
zu treffen. In dem Zusammenhang
stellt die Panda-Übernahme einen entscheidenden
Meilenstein dar, der unseren Kunden
und Partnern sofortige wie langfristige
Vorteile sichert. Kernaspekte sind die einfache
Handhabung, weitreichende Flexibilität
und eine passgenaue Bepreisung wie Paketierung.
Können Sie das näher erläutern?
Prakash Panjwani: Natürlich. Für Managed
Security Service Provider kommt es darauf
an, den Kunden fortschrittlichen und lückenlosen
Schutz vom Netzwerk bis zum Endpunkt
zu bieten. Gleichzeitig sollten Nutzung
und Verwaltung dabei so einfach wie möglich
aufgegleist sein. Indem wir die EDR-Lösung
von Panda in die WatchGuard Cloud
integrieren, schaffen wir eine nahtlose Verbindung
zwischen Netzwerk- und Endpunktschutz
– und das alles unter einer einheitlichen
Oberfläche.
Hinzu kommen die innovativen Machine-
Learning-Funktionen von Panda, wodurch
sich die Korrelation der im Netzwerk und
am Endpunkt erkannten Sicherheitsvorfälle
noch effizienter gestaltet. Das Thema Flexibilität
zielt vor allem auf den Umgang mit
sich verändernden Rahmenbedingungen ab.
Wie schnell sich eine Ausgangssituation ändern
kann, hat uns die Corona-Pandemie
eindrucksvoll vor Augen geführt. Die Arbeit
aus dem Homeoffice wurde zur neuen Normalität.
Hier ist auch in Bezug auf die Sicherheit ein
Umdenken gefragt. Der Endanwender und
die genutzten Inhalte rücken in den Vordergrund
– der Fokus liegt jenseits des Unternehmensperimeters.
Genau diese neuen
Anforderungen adressieren wir mit unserem
Paket „WatchGuard Passport“, das unterschiedlichste
Sicherheitsfunktionalitäten
zum Schutz der Endpunkte kombiniert.
Dieses wird nun gezielt um die Leistungen
von Panda rund um E-Mail-Sicherheit, Verschlüsselung,
Patch-Management und Datenkontrolle
erweitert. Und damit sind wir
auch schon beim dritten Punkt: Anwendungsfreundlichkeit
gilt für uns nicht nur im
Rahmen der Produktentwicklung.
Es spielt für uns auch eine wichtige Rolle,
wie die Lösungen sinnvoll angeboten und
vertrieben werden können. Hier versuchen
wir, es unseren Partnern so einfach wie möglich
zu machen und individuelle Präferenzen
im Kontakt zwischen Partner und Endkunde
zu beachten. In der Hinsicht wird sich für die
Partner künftig nichts ändern.
Was hat der Kunde davon?
WatchGuard-CEO
Prakash Panjwani
im Interview
Prakash Panjwani: Der Mehrwert von Lösungen
rund um Endgeräteschutz, E-Mail-
Sicherheit, Patching, Daten-Compliance und
Verschlüsselung wird immer deutlicher und
Unternehmen sehen hier zunehmend Investitionsbedarf.
Durch die Übernahme von
Panda können unsere bestehenden Kunden
sofort davon profitieren, wobei der Bezug
über ihren vertrauten IT-Servicepartner
und Reseller der Wahl möglich ist. Mittelfristig
werden sich durch die Verschmelzung
beider Produktwelten zusätzliche Vorteile im
Hinblick auf mehrschichtigen Schutz, zentralisierte
Verwaltung, Korrelation zwischen
Netzwerk- und Endpunktereignissen sowie
Automatisierung ergeben.
Was sind in Ihren Augen die wichtigsten
Trends im IT-Security-Umfeld?
Worin sehen Sie die größte Gefahr für
Partner und Kunden?
Prakash Panjwani: Das Thema Homeoffice
wurde ja bereits angesprochen. Hier wird
die COVID-19-Pandemie ganz sicher nachhaltige
Spuren hinterlassen. Der Schutz von
Nutzern und Endgeräten jenseits des klassischen
Unternehmensnetzwerks gewinnt im
Zuge dessen weiter an Tragweite. Als besonders
einschneidend betrachten wir zudem
den zunehmenden Fachkräftemangel. Qualifizierte
Spezialisten für IT-Sicherheit sind
heute bereits schwer zu kriegen. Das Nachsehen
haben vor allem mittelständische Unternehmen,
deren Ressourcen im Vergleich
zu Konzernen in der Regel deutlich beschränkter
sind. Gleichzeitig wächst die Gefahr
von außen. Und die Spirale dreht sich
Bildquelle: Shutterstock, WatchGuard
munter weiter: Laut Prognosen werden 2021
weltweit 3,5 Millionen Stellen im IT-Security-Umfeld
unbesetzt bleiben. Einer weiteren
Studie zufolge gehen fast 75 Prozent der befragten
Organisationen davon aus, dass das
Defizit bei der IT-Sicherheit erhebliche Auswirkungen
auf die Wirtschaft haben wird. Es
liegt auf der Hand, dass sich die Qualifikationslücke
nicht über Nacht schließen lässt,
auch wenn in der Branche bereits versucht
wird, gegenzusteuern.
Die Nachfrage nach Managed Security Services
wird im Zuge dessen weiter steigen.
Genau aus diesem Grund treiben wir den
Ausbau unserer einzelnen cloudbasierten
Sicherheitsfunktionalitäten so intensiv voran
und erweitern den Leistungsumfang der
WatchGuard Cloud im Hinblick auf das Security-Management
stetig. Schließlich wollen
MSPs ihre Zeit in die Weiterentwicklung
der eigenen Geschäftsaktivitäten stecken
und sie nicht mit mühsamem Verwaltungsoder
Reportingaufgaben verschwenden.
Zeitgleich brauchen Kunden mit kleinen IT-
Teams in den eigenen Reihen das Gefühl,
zu jedem Zeitpunkt umfassend geschützt zu
sein. Beiden Anspruchsgruppen wird Watch-
Guard gerecht. Für mittelständische Unternehmen
war es noch nie so einfach und
günstig, mit modernen Lösungen – die bisher
vor allem auf große Organisationen zugeschnitten
waren – umfassende IT-Sicherheit
zu gewährleisten. Parallel dazu wird die
Umsetzung auf Dienstleistungsebene zum
Kinderspiel.
„Panda Security Early Access“-
Programm
WatchGuard-Reseller haben über das
„Panda Security Early Access“-Programm
seit 1. Juni 2020 Zugang zur Sicherheitssuite
„Panda Adaptive Defense
360“ (AD360). Das Leistungsspektrum
umfasst neben der Endpoint Protection
Platform (EPP) und den EDR-Funktionen
(Endpoint Detection and Response)
auch fortschrittliche Reporting-Werkzeuge.
Damit wird das Konzept einer adaptiven
Sicherheitsarchitektur nach Gartner in
allen vier Phasen nachhaltig unterstützt:
1. Prevent – Unbekannte Prozesse werden
gestoppt, bis sie sich durch Machine-
Learning-Technologien als vertrauenswürdig
klassifizieren lassen – überwacht
wird dies durch Datenanalysten und
Malware-Experten.
2. Detect – Durch ML (Machine Learning)
und die Verhaltensüberwachung von
Prozessen werden selbst Angriffe identifiziert,
die die erste Hürde der Prävention
erfolgreich überwinden.
3. Respond – Angriffe werden eingedämmt,
eine weitere Ausbreitung unterbunden,
Auswirkungen abgeschwächt.
Gleichzeitig erfolgt eine detaillierte Analyse
der Angriffsmuster.
4. Predict – Attacken können durch die
Trendanalysen wirkungsvoll vorhergesagt
werden. Durch den Wechsel vom
reaktiven zum proaktiven Ansatz verkleinert
sich die Angriffsfläche.
Interview mit:
Prakash Panjwani,
CEO von WatchGuard
Technologies
https://bit.ly/nuvias-watchguard
10
www.nuvias.com/de
Sind die Encryption Keys wichtiger als Ihre Daten?
Der Schutz von Daten und Systemen ist
heutzutage extrem wichtig. Die Reputation
ganzer Unternehmen und damit auch
deren Geschäftserfolg können davon abhängen.
Das Thema Datensicherheit findet
auf zahlreichen Ebenen statt. Für
Unternehmen, die zu Recht den Sicherheitsmaßnahmen
am Perimeter nicht
trauen, stellt die Datenverschlüsselung
die wichtigste Ebene von allen dar. Doch
sogar auf dieser Ebene gibt es eine noch
wichtigere Ebene, die in vielen Unternehmen
nicht abgesichert ist: Den Encryption
Key. Vor diesem Hintergrund stellte
sich nCipher die Frage: Sind die Encryption
Keys wichtiger als Ihre Daten?
Bei dieser Frage lautet die direkte Antwort
höchstwahrscheinlich: „Die Daten natürlich“.
Bei weiterem Nachdenken dürften jedoch
die meisten Menschen ihre Antwort überdenken.
Der Sachverhalt ist nicht eindeutig
schwarz oder weiß, wie man auf den ersten
Blick annehmen könnte.
Stellen wir zwei weitere Fragen: Würde man
private Informationen offenlegen, wenn man
wüsste, dass diese ohnehin kompromittiert
werden? Und könnte die moderne Wirtschaft
ohne das Versprechen von Privatsphäre
funktionieren? Die Antwort auf beide Fragen
lautet selbstverständlich: „Nein“.
Gerade weil das Thema nicht sehr häufig
diskutiert wird, ist vielen die Tatsache nicht
vollständig klar, dass alle modernen Verschlüsselungsverfahren
öffentlich bekannt
sind. Die Tage, in denen Sicherheit durch
Geheimhaltung gewährleistet wurde, sind
vorbei. Die Verfahren für die heute gängigen
kryptografischen Algorithmen wie ECC,
AES, DES und RSA sind gut dokumentiert
und verstanden. Lange galten die Verschlüsselungsverfahren
selbst als geheim.
Das Problem bei dieser Praxis ist, dass die
Verfahren nicht ausreichend getestet werden
konnten. Die althergebrachten Lösungen
waren so lange sicher, bis jemand sie
knackte, danach waren sie obsolet. Somit
musste nur eine einzige Person das System
knacken. Das Tückische, niemand wusste,
wer diese Person war oder wann das Verfahren
geknackt wurde. Genau das geschah
im zweiten Weltkrieg mit der Enigma-Verschlüsselungsmaschine
des Nazi-Regimes.
Sowohl das Verfahren als auch der Schlüssel
waren geheim, bis sie von den Alliierten
geknackt wurden. Die Nazis haben nie erfahren,
wann genau ihr Verfahren kompromittiert
wurde.
Die modernen Kryptografen haben erkannt,
dass es unsinnig ist, etwas mit einem
geheimen Prozess UND einem geheimen
Schlüssel abzusichern. Man könnte nun
argumentieren, dass die doppelte Komplexität
eine gute Sache sei, doch die fehlende
Überprüfung durch Dritte ist genau der Punkt,
weshalb geheime Verfahren so anfällig sind.
Die zweite Überlegung ist die, dass es bei einem
geheimen Verfahren immer mindestens
eine Person gibt, die das Geheimnis kennt.
Wie verhindert man, dass diese Person, und
damit auch das Geheimnis, kompromittiert
wird oder glaubt, kompromittiert zu sein? Damit
eine Verschlüsselungslösung sicher ist,
darf sie nur ein einziges Geheimnis besitzen.
Deshalb musste ein neues Verfahren entwickelt
werden. Dieses Verfahren musste mit
einem einzigen Geheimnis getestet werden:
Dem Schlüssel. Das einzige Geheimnis besteht
in dem kryptografischen Schlüssel, der
von einem bekannten Verfahren erzeugt und
danach in einer komplexen mathematischen
Gleichung verwendet wird, um die Daten für
jeden unlesbar zu machen, der den geheimen
Schlüssel nicht kennt. Anders ausgedrückt:
Die Daten können vertraulich sein
oder auch nicht, doch der Schlüssel muss in
jedem Fall geheim sein. Wird der Schlüssel
offengelegt, werden auch alle Daten offengelegt.
Eine der größten Herausforderungen beim
Thema Datenschutz besteht heute darin,
dass zwar den meisten Sicherheitsexperten
klar ist, dass die Stärke der standardisierten
Verschlüsselung aus der Prüfung durch
Dritte resultiert. Allerdings fehlt oft das Bewusstsein
dafür, wie extrem wichtig es ist,
den Schlüssel dauerhaft abzusichern. In der
englischen Literatur gibt es ein kurzes Gedicht
mit dem Titel „And all for the want of a
horseshoe nail“, zu Deutsch „Weil ein Nagel
fehlte“. Darin geht es darum, wie eine kleine
Nachlässigkeit, in diesem Falle ein fehlender
Nagel für ein Hufeisen, großes Unheil
anrichten kann, nämlich den Untergang eines
ganzen Königreiches.
Die Geheimnisse in der Kryptografie werden
in gleichem Maße unterschätzt wie der Nagel
und sind dabei noch viel wichtiger. Ich
möchte hierzu mit einer modernen Version
kurz meinen Standpunkt darlegen:
• Weil ein Krypto-Schlüssel fehlte, gingen die
Daten verloren,
• Weil die Daten fehlten, ging die Reputation
verloren,
• Weil die Reputation fehlte, ging der Absatz
verloren,
• Weil der Absatz fehlte, ging der Umsatz verloren,
• Weil der Umsatz fehlte, ging das Unternehmen
verloren,
Und das alles nur, weil ein Krypto-Schlüssel
fehlte.
Im Gegensatz zu einem Hufnagel kann ein
kryptografischer Schlüssel mit so etwas Einfachem
wie einem Hardware Security Module
(HSM) geschützt werden, was aber
leider in den meisten Unternehmen nicht geschieht.
Organisationen, die ihre Daten oder
Systeme mit Hilfe der Kryptografie sichern
wollen, müssen sich darüber im Klaren sein,
dass der Schlüssel, der zum Schutz der Daten
und Systeme verwendet wird, genauso
wichtig ist, wie die Daten selbst. Bis es so
weit ist, sind unsere persönlichen Daten sowie
die Daten und Systeme des Unternehmens
gefährdet. Ist der Schlüssel wichtiger
als die Daten? Offensichtlich ist doch nicht
alles nur Schwarz oder Weiß.
Autor: Brad Beutlich, Vice President of
Sales Western US and Latin America
bei nCipher Security
So stärken Sie Ihre PII- und IP-Daten in der Cloud
Organisationen stellen immer mehr sensible
Daten in die Cloud. Laut der Global
Encryption Trends Study 2020, die
vom Ponemon Institute mit Unterstützung
durch nCipher Security und Entrust
Datacard durchgeführt wurde, gaben 58
Prozent der 6.457 Befragten aus unterschiedlichen
Branchen in 17 Ländern
an, dass ihre Organisation sensible oder
vertrauliche Daten in die Cloud überträgt
und zwar unabhängig davon, ob die Daten
verschlüsselt sind oder nicht. Weitere
25 Prozent der Befragten erwarten,
dass dies in den nächsten ein bis zwei
Jahren der Fall sein wird.
Externer Schutz
Eine Frage der Studie lautete, wie Organisationen
ruhende Daten in der Cloud schützen.
45 Prozent der Befragten, die ihre Daten verschlüsseln,
gaben an, dass die Verschlüsselung
vor der Übertragung in die Cloud lokal
erfolgt, und zwar mit den Schlüsseln, die
ihre Organisation erzeugt und verwaltet.
36 Prozent der Befragten führen die Verschlüsselung
in der Cloud durch, wobei die
Schlüssel vom Cloudanbieter erzeugt und
verwaltet werden. 20 Prozent der Befragten
verwenden irgendeine Art von Bring Your
Own Key-Ansatz (BYOK).
Für die digitale Sicherheitsbranche ergeben
sich damit zwei Probleme:
1. Offensichtlich schützt eine große Zahl der
Befragten ihre Daten in der Cloud überhaupt
nicht.
2. 36 Prozent der Befragten nutzen Schlüssel,
die vom Cloudanbieter erzeugt und verwaltet
werden.
Das Risiko durch vollständig fehlenden
Schutz
Diejenigen, die sensible Daten in der Cloud
speichern und diese in keiner Weise durch
Verschlüsselungsverfahren oder andere Methoden
unlesbar machen, bewegen sich auf
dünnem Eis.
Sie erfüllen nicht die umfangreichen gesetzlichen
Vorgaben und Branchenvorgaben,
wie zum Beispiel die Datenschutzgrundverordnung
der EU (DSGVO), die amerikanische
GLBA, HIPAA und FedRAMP, die Monetary
Authority of Singapore Guidance, PCI
DSS und viele weitere Vorgaben.
Doch was vielleicht noch wichtiger ist: Tritt
ein Datenleck auf, erfordern die Datenschutzgesetze,
dass diejenigen Personen,
deren Daten entwendet wurden, entsprechend
informiert werden. Das kann zu einem
Vertrauensverlust bei den Stakeholdern führen
sowie zu Bußgeldern, Kosten für Rechtsstreitigkeiten,
Umsatzeinbrüchen und Aktienverlusten.
Die betroffenen Organisationen müssen sich
daher selbst schützen, indem sie ihre sensiblen
Daten und ihre Schlüssel absichern.
Risiko: Schlüssel von
Cloudanbietern
Ein Grundprinzip beim Thema Sicherheit
lautet: Wenn etwas abgesperrt ist, hat man
umso mehr Kontrolle über die Sicherheit des
abgesperrten Gegenstands, je mehr Kontrolle
man über den Schlüssel hat. Wenn der
Cloudanbieter die Schlüssel verwaltet, hat
man einen zusätzlichen Bedrohungsvektor
für die Datensicherheit. Deshalb gilt es als
Best Practice, die eigenen Schlüssel selbst
zu verwalten, nämlich mit Hilfe von Hardware
Security-Modulen (HSMs).
Hardware Security-Module
Bei HSMs handelt es sich um gehärtete
und zudem manipulationsgeschützte Hardwaregeräte,
mit denen kryptografische Prozesse
abgesichert werden, und zwar durch
das Erzeugen, Schützen und Verwalten von
Schlüsseln für die Ver- und Entschlüsselung
von Daten sowie durch die Erstellung digitaler
Signaturen und Zertifikate. HSMs sind
nach höchsten Sicherheitsstandards getestet,
validiert und zertifiziert, inklusive FIPS
140-2 und Common Criteria. HSMs sind quasi
der Panzerschrank für Schlüssel.
Aber ein HSM ist doch ein Hardwaregerät –
wie kann es dann in der Cloud genutzt werden?
nShield as a Service
nShield as a Service nutzt nShield HSMs
für die Erzeugung, den Zugriff auf und den
Schutz von kryptografischem Schlüsselmaterial,
vollständig getrennt von den sensiblen
Daten. Alle nShield HSMs werden über die
einzigartige nCipher Security World Key Management-Architektur
gemanagt, die sowohl
cloudbasierte als auch lokal installierte HSM
umfasst. Damit können die Kunden ihren
HSM-Betrieb effizient skalieren und behalten
gleichzeitig die Kontrolle über ihr Schlüsselmaterial,
auch dann, wenn sie den Cloudanbieter
wechseln.
Organisationen können nShield as a Service
nutzen, um HSMs vor Ort zu ergänzen oder
abzulösen, und bewahren sich gleichzeitig
alle Vorteile als Eigentümer der HSM. Mit
dem Abonnementmodell erhalten Unternehmen
Budgetsicherheit, können ihre Kapazitäten
verwalten, den Footprint im Rechenzentrum
verringern und den Zeitaufwand für
Routinewartung und Monitoring senken.
Während der COVID-19-Pandemie ist es
eher unrealistisch, dass man zur Einrichtung
von HSMs in die eigenen Rechenzentren
reisen kann. Mit nShield as a Service können
Sie die HSMs aus der Ferne in einem
nCipher Rechenzentren in den USA oder im
Vereinigten Königreich einrichten.
Autor: Sander Tamme,
Senior Product Manager
bei nCipher Security
https://bit.ly/nuvias-ncipher
www.nuvias.com/de
11
SCHULUNGEN, WORKSHOPS UND WEBINARE
Nutzen Sie unsere Weiterbildungsmöglichkeiten
Das Nuvias Schulungsportal bietet Ihnen eine große Auswahl an
Schulungen und kostenfreien Webinaren. Unsere Trainer zertifizieren
Sie für die verschiedensten Hersteller, darunter Fortinet,
Juniper Networks, Kaspersky und WatchGuard.
http://bit.ly/nuvias-trainings
#TRUEVALUEADD - NEUE SERVICES FÜR RESELLER
Veredeln Sie Ihre Services um zuverlässige Mehrwerte
Gute Services sind das perfekte Bindeglied zwischen Ihnen und
Ihren Kunden. Mit Nuvias #TrueValueAdd erweitern Sie Ihre eigenen
Services um zusätzliche Leistungen, ohne weiteren Aufwand
oder Manpower Ihrerseits. Klingt gut? Dann lesen Sie weiter!
http://bit.ly/nuvias-TrueValueAdd
PARTNERINFORMATIONEN
Relevant. Zugeschnitten. Mehrwertig.
Mit unseren Newslettern bleiben
Sie immer auf dem Laufenden.
http://bit.ly/Nuvias-Partnernews
Bildquelle: Shutterstock
IMPRESSUM
Nuvias Deutschland GmbH · Sachsenfeld 2 · 20097 Hamburg
Geschäftsführer: Helge Scherff, Eingetragen beim Amtsgericht Hamburg: HRB 53548
E-Mail: marketing.central@nuvias.com · Telefon: +49 (0)40 - 23 73 01-0 · Webseite: www.nuvias.com/de
Redaktion: Rieke Bredehöft (V.i.S.d.R.), Alexander Weber
Art Direction: Alexander Weber
Autoren: Herbert Meyer, Bitdefender; Isabella Gaafke, Nuvias; Olaf Dünnweller, Gigamon; Kaspersky; Fortinet Inc.,
Cato Networks; AddOn Networks; Riverbed Technologies; Hans-Joachim Diedrich, macmon secure GmbH;
Steffen Brieger, Nuvias; Prakash Panjwani, WatchGuard Technologies; Brad Beutlich, nCipher Security;
Sander Tamme, nCipher Security; Daran Hermans, Cambium Networks
Druck:
Vogel Druck und Medienservice GmbH, Leibnizstraße 5, 97204 Höchberg, Deutschland, www.vogel-druck.de
Auflage September 2020: 27.600 Stück
Einsendungen: Redaktionelle Beiträge werden gerne von der Redaktion entgegengenommen. Sie müssen frei sein von Rechten Dritter.
Sollten sie auch an anderer Stelle zur Veröffentlichung oder gewerblichen Nutzung angeboten worden sein, so muss
das angegeben werden. Mit der Einsendung gibt der Verfasser die Zustimmung zur Verwertung durch die
Nuvias Deutschland GmbH. Honorare nach Vereinbarung. Für unverlangt eingesandte Manuskripte wird keine
Haftung übernommen.
Wi-Fi 6 bietet Vorteile für jedes Netzwerk
Vielleicht haben Sie schon einmal gehört,
dass "alle Wi-Fi-Netze halbduplex sind".
Doch was bedeutet das in der realen
Welt? Vielleicht haben Sie auch gehört,
dass es hieß: "Bei 802.11ax dreht sich alles
um Effizienz". Was bedeutet DAS nun
in der realen Welt? Lassen Sie uns ein
wenig über einige Schlüsselmärkte sprechen,
die von Wi-Fi 6 profitieren werden.
Bei einer Halbduplex-Übertragung kann jeweils
nur ein Gerät gleichzeitig übertragen.
Alle anderen warten, bis sie an der Reihe
sind. In einem 802.11ac-Netzwerk verwenden
kleine Sprachpakete dieselbe Bandbreite
wie ein großes Videopaket. Das ist so, als
ob man einen Hut und ein Klavier in einer
gleich großen Kiste auf zwei verschiedenen
Lastwagen verschicken würde. 802.11ac
verwendet immer noch die gleichen großen
Hutschachteln, die wir seit vielen Jahren verwenden.
Die Zukunft des WLANs: 802.11ax
Wi-Fi 6 ist die Interoperabilitätszertifizierung
für ein 802.11ax-Netzwerk. Wi-Fi 6 verfügt
über mehrere Schlüsselfunktionen, die ein
Mehrbenutzererlebnis ermöglichen, bei dem
mehrere Geräte gleichzeitig senden und
empfangen können. In beide Richtungen,
nach oben und nach unten. Die Schlüsseltechnologien
sind Multiuser-OFDMA, Multiuser-MIMO,
BSS-Coloring, Target Wait Time
und andere Funktionen, die die Leistung von
Wi-Fi sowohl innerhalb als auch außerhalb
von Netzwerken verbessern werden.
Wi-Fi 6 muss man sich so vorstellen, als
würde man ein Klavier und mehrere Hüte
gleichzeitig und auf demselben schnellen
LKW transportieren. Und es wird noch besser!
Wi-Fi 6 funktioniert in beide Richtungen,
optimiert den Durchsatz und verringert die
Latenzzeit. Wi-Fi 6 ebnet damit den Weg,
um die zur Verfügung stehende Zeit und Frequenz
effizienter nutzen zu können.
Primäre, sekundäre und postsekundäre
Bildung definiert den Begriff
"hohe Dichte"
Schon vor der COVID-19-Pandemie verwendeten
Grund- und Sekundärschulen zunehmend
mehr Online-Lehrpläne und stellten
das Lernen nach und nach um. Universitäten
setzen verstärkt auf die neuesten Technologien,
um weitere Möglichkeiten zu finden,
immer mehr Studenten zu unterstützen.
Netzwerkanwendungen und ein Wi-Fi, wel-
ches auf dem gesamten Campus zur Verfügung
steht, sind ein wesentlicher Bestandteil
in der Bereitstellung einer schnelllebigen
Lernumgebung. Wi-Fi 6-Netzwerke bieten
eine höhere Kapazität (Geschwindigkeit +
Anzahl der Geräte) und eine geringere Latenzzeit,
die für die Unterstützung mehrerer
Geräte pro Student und Klasse sowie für zukünftige
Technologien wie Augmented Reality
und Virtual Reality erforderlich sind.
Einzelhandels- und Unternehmensnetzwerke
existieren nicht in einem Vakuum. Sie
"teilen" sich den gleichen RF-Raum wie benachbarte
Unternehmen und Geschäfte.
Wi-Fi 6 ist rückwärtskompatibel, um ältere
Geräte zu unterstützen, und vorwärtskompatibel,
um unternehmenskritische Netzwerke
mit zunehmender Dichte zu liefern. In den
letzten zehn Jahren konnten die Unternehmensmärkte
eine Zunahme von 25 Prozent
gegenüber dem Vorjahr bei mobilen Endgeräten
feststellen. Auch BYOD und die Nutzung
persönlicher Geräte für geschäftliche
Zwecke konnten einen dramatischen Anstieg
verzeichnen.
Dies bedeutet: Unternehmensnetzwerke
sind auf Wi-Fi angewiesen, um Geschäfte
im Büro, zu Hause und überall zu tätigen.
Das Gastgewerbe wurde im Jahr 2020 durch
die COVID-19-Reiseeinschränkungen stark
beeinträchtigt. Anbieter von Geschäfts- und
Freizeitreisen rüsten nun aber ihr WLAN
bis zu 25 Prozent schneller auf als die allgemeine
Öffentlichkeit, so dass Wi-Fi 6 ab
Anfang 2021 die dominierende Technologie
in Hotels werden wird. Egal ob verbessertes
WLAN oder neues Bettzeug, die Hotellerie
ist bestrebt, jeden ausgegebenen Euro bestmöglich
einzusetzen.
Kein Markt kann sich gegen die unerbittliche
Flut an neuen Möglichkeiten, neuen Technologien,
neuen Kunden und Märkten behaupten.
Wi-Fi 6 wird in jedem Fall die Märkte
durchdringen. Verpassen auch Sie nicht den
richtigen Zeitpunkt, um aufzurüsten! Beginnen
Sie jetzt mit der Planung.
Wenn Sie sich für eine Wi-Fi 6-Lösung entscheiden,
gibt es viele Möglichkeiten. Anbieter
wie Cambium bieten flexible und
softwaredefinierte Lösungen an, während
Billiganbieter zwar einen oft einen niedrigeren
Preis haben, aber nicht die Wachstumsmöglichkeiten
eines besseren technischen
Produkts bieten können.
Jeder profitiert von einer Wi-Fi 6-
Lösung
Cambium setzt bei seinem Wi-Fi-Geschäftsmodell
auf drei Faktoren, die für Endkunden
und Reseller gleichermaßen Vorteile bringen.
Best-in-class RF- and Radio Performance:
Cambium ist ein RF-Engineering-Unternehmen,
das auf die leistungsfähigsten Outdoor-
Wireless-Systemen der Branche setzt.
Service Delivery Platform: Die Cambium-
Technologie bietet die Tools, die für die
Bereitstellung fortschrittlicher Dienste für
BYOD-Netzwerke, Managed Service Provider,
das Bildungswesen, den Einzelhandel
und das Gastgewerbe erforderlich sind.
So günstig wie möglich bei CAPEX und
OPEX: Cambium umfasst das Cloud oder
On-Premise-Netzwerkmanagement für ein
kabelgebundenes und drahtloses Netzwerk
oder geografisch verteilte Netzwerke ohne
Kosten und ohne wiederkehrende Gebühren.
Kein anderer Hersteller kann diese Lösung
anbieten.
Zur Erweiterung Ihres Unternehmens und
für Support-Dienstleistungsvereinbarungen
kann derselbe Wi-Fi 6 Access Point mit der
abonnementbasierten XMS-Cloud von Cambium
für eine Cloud-basierte Servicebereitstellungsplattform
mit der niedrigsten TCO
und dem höchsten Bit pro Euro in der Branche
verwendet werden.
Probieren Sie kostenlos die Cambium
WLAN-Lösung. Für weitere Details kontaktieren
Sie uns quotes.cambium@nuvias.com
Autor: Daran Hermans, Director Product
Line Management bei Cambium Networks
http://bit.ly/nuvias-cambium
Bildquelle: Shutterstock