19.01.2024 Aufrufe

IT Security Januar / Februar 2024

Effiziente Cybersicherheit – Ökosysteme aus Menschen, Expertise, Services und Technologie Im Visier der Cyberkriminellen – Effektive Abwehr durch sichere Authentifizierung Von wegen Drahtseilakt! So gelingt Unternehmen der sichere Einsatz von KI-Lösungen Fein-granulare Autorisierung – Warum der Hype?

Effiziente Cybersicherheit – Ökosysteme aus Menschen, Expertise, Services und Technologie
Im Visier der Cyberkriminellen – Effektive Abwehr durch sichere Authentifizierung
Von wegen Drahtseilakt! So gelingt Unternehmen der sichere Einsatz von KI-Lösungen
Fein-granulare Autorisierung – Warum der Hype?

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>IT</strong> SECUR<strong>IT</strong>Y | 9<br />

Quelle: Gerd Altmann | Pixabay<br />

verbreiten oder die Erkennungsmechanismen<br />

von Sicherheitslösungen zu<br />

schwächen.<br />

Vergiftete Trainingsdaten<br />

Grundsätzlich basiert Data Poisoning<br />

auf dem Verfälschen von Trainingsdaten.<br />

Dabei werden bereits zugewiesene<br />

Labels für Datensätze ausgetauscht<br />

oder die Datensätze selbst verändert<br />

und mit „Approved“-Labels versehen,<br />

damit die KI falsche Klassifizierungen<br />

vornimmt und False Positives oder False<br />

Negatives produziert. Je nach der Menge<br />

der Manipulationen kann das komplette<br />

KI-Modell kompromittiert sein,<br />

sodass es insgesamt ungenauer arbeitet<br />

(Availability Attacks), oder nur ein Teil<br />

– dann arbeitet es größtenteils korrekt<br />

und hat nur in einzelnen Bereichen<br />

Schwächen (Targeted Attacks und Subpopulation<br />

Attacks). Durch gezielte<br />

Manipulationen können Cyberkriminelle<br />

aber auch eine Art von Hintertür einbauen,<br />

damit das KI-Modell später im<br />

Produktiveinsatz bei einigen Inputs einen<br />

ganz bestimmten Output liefert<br />

(Backdoor Attacks).<br />

Wollen Cyberkriminelle die KI in bestimmten<br />

Bereichen schwächen oder<br />

spezifische Outputs hervorrufen, müssen<br />

sie das Modell und die Trainingsparameter<br />

genau kennen. Geht es nur<br />

darum, die Genauigkeit der KI insgesamt<br />

zu verringern, kommen sie ohne<br />

dieses Wissen aus.<br />

Unabhängig davon ist es meist schwer,<br />

ein Data Poisoning zu entdecken, solange<br />

die KI keine groben Auffälligkeiten<br />

zeigt. Zudem ist es extrem aufwendig,<br />

das KI-Modell zu reparieren, da Unternehmen<br />

alle Trainingsdatensätze analysieren<br />

und in der Lage sein müssen,<br />

die manipulierten Datensätze aufzuspüren<br />

und zu entfernen. Das anschließende<br />

Neutraining des Modells erfordert<br />

viel Rechenleistung und verursacht hohe<br />

Kosten, weshalb das beste Mittel<br />

gegen Data Poisoning ein zuverlässiger<br />

Schutz der Trainingsdaten ist. Bewährt<br />

hat sich Zero Trust, das unberechtigte<br />

Zugriffe und damit Manipulationen verhindert.<br />

Mit statistischen Methoden lassen<br />

sich darüber hinaus Anomalien in<br />

den Daten aufspüren, und während des<br />

Trainings helfen Tools wie Azure Monitor<br />

und Amazon SageMaker, die Leistung<br />

der Modelle zu überwachen und<br />

unerwartete Schwankungen in der Genauigkeit<br />

zu erkennen.<br />

Zunehmende Regulierung<br />

Nicht immer rühren Ungenauigkeiten in<br />

KI-Modellen allerdings von einer Manipulation<br />

durch Cyberkriminelle her.<br />

Manchmal sind die Trainingsdaten bereits<br />

von vornherein vorurteilsbehaftet,<br />

weil sie älteren Ursprungs sind oder von<br />

Menschen erstellt wurden. Die KI-Modelle<br />

trainieren sich diese Vorurteile an,<br />

was zu diskriminierenden oder unfairen<br />

Ausgaben und Entscheidungen führt. Im<br />

<strong>Security</strong>-Bereich könnte eine Sicherheitslösung<br />

dann beispielsweise den<br />

legitimen Zugriff auf ein System verweigern,<br />

weil der betreffende Anwender<br />

oder das betreffende System in der Vergangenheit<br />

in einen Sicherheitsvorfall<br />

involviert war.<br />

Verhindern lässt sich das durch die Auswahl<br />

von geeigneten Trainingsdaten<br />

und transparente KI-Modelle, deren<br />

Entscheidungen nachvollzogen und erklärt<br />

werden können. Solche Best Practices<br />

wollen Organisationen wie die<br />

UNESCO und Unternehmen wie Microsoft<br />

und IBM durch Frameworks für ethische<br />

KI vorantreiben. Darüber hinaus<br />

arbeiten die EU und die USA an Gesetzen,<br />

die Leitplanken für die Entwicklung<br />

und den Einsatz von KI abstecken sollen.<br />

Das dürfte zunächst zu einer uneinheitlichen<br />

Regulierungslandschaft und<br />

einem hohen Compliance-Aufwand für<br />

Unternehmen führen, das wilde Herumexperimentieren<br />

ohne Grenzen und Regeln<br />

– das manche KI-Experten schon<br />

mit dem Wilden Westen verglichen haben<br />

– jedoch unterbinden.<br />

NICHT NUR FÜR<br />

NORMALE BÜROANGE-<br />

STELLTE SIND KI-TOOLS<br />

NÜTZLICHE HELFER,<br />

SONDERN LEIDER AUCH<br />

FÜR CYBERKRIMINELLE.<br />

Fabian Glöser,<br />

Team Leader Sales Engineering,<br />

Forcepoint, www.forcepoint.com<br />

www.it-daily.net | <strong>Januar</strong>/<strong>Februar</strong> <strong>2024</strong>

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!