IT Security Januar / Februar 2024
Effiziente Cybersicherheit – Ökosysteme aus Menschen, Expertise, Services und Technologie Im Visier der Cyberkriminellen – Effektive Abwehr durch sichere Authentifizierung Von wegen Drahtseilakt! So gelingt Unternehmen der sichere Einsatz von KI-Lösungen Fein-granulare Autorisierung – Warum der Hype?
Effiziente Cybersicherheit – Ökosysteme aus Menschen, Expertise, Services und Technologie
Im Visier der Cyberkriminellen – Effektive Abwehr durch sichere Authentifizierung
Von wegen Drahtseilakt! So gelingt Unternehmen der sichere Einsatz von KI-Lösungen
Fein-granulare Autorisierung – Warum der Hype?
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
8 | <strong>IT</strong> SECUR<strong>IT</strong>Y<br />
Ausblick auf <strong>2024</strong><br />
KI VERSCHÄRFT DIE BEDROHUNGSLAGE<br />
KI hat zwar das Potenzial viele Sicherheitslösungen<br />
zu verbessern, doch auch<br />
Cyberkriminelle machen sich die Technologie<br />
mehr und mehr zunutze. Ein<br />
Ausblick darauf, wie KI das <strong>Security</strong>-<br />
Business in den kommenden Monaten<br />
verändern wird.<br />
ChatGPT hat vielen Unternehmen die<br />
Augen geöffnet, wozu moderne KI-Tools<br />
inzwischen fähig sind. Sie beantworten<br />
Fragen, fassen Meetings zusammen,<br />
verbessern Präsentationen, analysieren<br />
Kennzahlen und optimieren Quellcode,<br />
und das viel schneller als Menschen es<br />
je könnten. Wurde 2023 noch viel experimentiert,<br />
werden mehr und mehr Unternehmen<br />
die KI-Nutzung in den kommenden<br />
Monaten zielgerichtet und koordiniert<br />
angehen, um ihren Mitarbeitern<br />
den Arbeitsalltag zu erleichtern. Damit<br />
dürften die Nutzerzahlen weiterhin<br />
schnell wachsen und die Dienste zunehmend<br />
für Cyberkriminelle attraktiv werden<br />
– schließlich können sie über ein<br />
einziges kompromittiertes KI-Angebot<br />
eine Vielzahl von Opfern erreichen.<br />
Ein möglicher Angriffsvektor ist das sogenannte<br />
Data Poisoning, bei dem versucht<br />
wird, die Algorithmen zu manipulieren,<br />
damit sie weniger genau arbeiten<br />
oder sogar falsche Ergebnisse liefern.<br />
Wirklich neu ist das nicht: Schon<br />
seit Jahren versuchen Cyberkriminelle<br />
auf diese Weise, Spam-Filter zu unterlaufen,<br />
und 2016 machte der Austausch<br />
mit Twitter-Nutzern einen lernenden<br />
Chatbot von Microsoft binnen weniger<br />
Stunden zum Rassisten. Mit den vielen<br />
neuen KI- oder KI-basierten Tools und<br />
dem einfachen Zugang zu Rechenleistung<br />
in der Cloud wird die Zahl solcher<br />
Manipulationen jedoch zunehmen, um<br />
beispielsweise Falschinformationen zu<br />
<strong>Januar</strong>/<strong>Februar</strong> <strong>2024</strong> | www.it-daily.net