IT Security Januar / Februar 2024
Effiziente Cybersicherheit – Ökosysteme aus Menschen, Expertise, Services und Technologie Im Visier der Cyberkriminellen – Effektive Abwehr durch sichere Authentifizierung Von wegen Drahtseilakt! So gelingt Unternehmen der sichere Einsatz von KI-Lösungen Fein-granulare Autorisierung – Warum der Hype?
Effiziente Cybersicherheit – Ökosysteme aus Menschen, Expertise, Services und Technologie
Im Visier der Cyberkriminellen – Effektive Abwehr durch sichere Authentifizierung
Von wegen Drahtseilakt! So gelingt Unternehmen der sichere Einsatz von KI-Lösungen
Fein-granulare Autorisierung – Warum der Hype?
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>IT</strong> SECUR<strong>IT</strong>Y | 9<br />
Quelle: Gerd Altmann | Pixabay<br />
verbreiten oder die Erkennungsmechanismen<br />
von Sicherheitslösungen zu<br />
schwächen.<br />
Vergiftete Trainingsdaten<br />
Grundsätzlich basiert Data Poisoning<br />
auf dem Verfälschen von Trainingsdaten.<br />
Dabei werden bereits zugewiesene<br />
Labels für Datensätze ausgetauscht<br />
oder die Datensätze selbst verändert<br />
und mit „Approved“-Labels versehen,<br />
damit die KI falsche Klassifizierungen<br />
vornimmt und False Positives oder False<br />
Negatives produziert. Je nach der Menge<br />
der Manipulationen kann das komplette<br />
KI-Modell kompromittiert sein,<br />
sodass es insgesamt ungenauer arbeitet<br />
(Availability Attacks), oder nur ein Teil<br />
– dann arbeitet es größtenteils korrekt<br />
und hat nur in einzelnen Bereichen<br />
Schwächen (Targeted Attacks und Subpopulation<br />
Attacks). Durch gezielte<br />
Manipulationen können Cyberkriminelle<br />
aber auch eine Art von Hintertür einbauen,<br />
damit das KI-Modell später im<br />
Produktiveinsatz bei einigen Inputs einen<br />
ganz bestimmten Output liefert<br />
(Backdoor Attacks).<br />
Wollen Cyberkriminelle die KI in bestimmten<br />
Bereichen schwächen oder<br />
spezifische Outputs hervorrufen, müssen<br />
sie das Modell und die Trainingsparameter<br />
genau kennen. Geht es nur<br />
darum, die Genauigkeit der KI insgesamt<br />
zu verringern, kommen sie ohne<br />
dieses Wissen aus.<br />
Unabhängig davon ist es meist schwer,<br />
ein Data Poisoning zu entdecken, solange<br />
die KI keine groben Auffälligkeiten<br />
zeigt. Zudem ist es extrem aufwendig,<br />
das KI-Modell zu reparieren, da Unternehmen<br />
alle Trainingsdatensätze analysieren<br />
und in der Lage sein müssen,<br />
die manipulierten Datensätze aufzuspüren<br />
und zu entfernen. Das anschließende<br />
Neutraining des Modells erfordert<br />
viel Rechenleistung und verursacht hohe<br />
Kosten, weshalb das beste Mittel<br />
gegen Data Poisoning ein zuverlässiger<br />
Schutz der Trainingsdaten ist. Bewährt<br />
hat sich Zero Trust, das unberechtigte<br />
Zugriffe und damit Manipulationen verhindert.<br />
Mit statistischen Methoden lassen<br />
sich darüber hinaus Anomalien in<br />
den Daten aufspüren, und während des<br />
Trainings helfen Tools wie Azure Monitor<br />
und Amazon SageMaker, die Leistung<br />
der Modelle zu überwachen und<br />
unerwartete Schwankungen in der Genauigkeit<br />
zu erkennen.<br />
Zunehmende Regulierung<br />
Nicht immer rühren Ungenauigkeiten in<br />
KI-Modellen allerdings von einer Manipulation<br />
durch Cyberkriminelle her.<br />
Manchmal sind die Trainingsdaten bereits<br />
von vornherein vorurteilsbehaftet,<br />
weil sie älteren Ursprungs sind oder von<br />
Menschen erstellt wurden. Die KI-Modelle<br />
trainieren sich diese Vorurteile an,<br />
was zu diskriminierenden oder unfairen<br />
Ausgaben und Entscheidungen führt. Im<br />
<strong>Security</strong>-Bereich könnte eine Sicherheitslösung<br />
dann beispielsweise den<br />
legitimen Zugriff auf ein System verweigern,<br />
weil der betreffende Anwender<br />
oder das betreffende System in der Vergangenheit<br />
in einen Sicherheitsvorfall<br />
involviert war.<br />
Verhindern lässt sich das durch die Auswahl<br />
von geeigneten Trainingsdaten<br />
und transparente KI-Modelle, deren<br />
Entscheidungen nachvollzogen und erklärt<br />
werden können. Solche Best Practices<br />
wollen Organisationen wie die<br />
UNESCO und Unternehmen wie Microsoft<br />
und IBM durch Frameworks für ethische<br />
KI vorantreiben. Darüber hinaus<br />
arbeiten die EU und die USA an Gesetzen,<br />
die Leitplanken für die Entwicklung<br />
und den Einsatz von KI abstecken sollen.<br />
Das dürfte zunächst zu einer uneinheitlichen<br />
Regulierungslandschaft und<br />
einem hohen Compliance-Aufwand für<br />
Unternehmen führen, das wilde Herumexperimentieren<br />
ohne Grenzen und Regeln<br />
– das manche KI-Experten schon<br />
mit dem Wilden Westen verglichen haben<br />
– jedoch unterbinden.<br />
NICHT NUR FÜR<br />
NORMALE BÜROANGE-<br />
STELLTE SIND KI-TOOLS<br />
NÜTZLICHE HELFER,<br />
SONDERN LEIDER AUCH<br />
FÜR CYBERKRIMINELLE.<br />
Fabian Glöser,<br />
Team Leader Sales Engineering,<br />
Forcepoint, www.forcepoint.com<br />
www.it-daily.net | <strong>Januar</strong>/<strong>Februar</strong> <strong>2024</strong>