OCG Journal 01 26: IT-Nachwuchs in Österreich 2026
Das 1. OCG Journal 2026 präsentiert wieder interessante Nachwuchs-Forscher*innen im Bereich der Informatik aus Österreich. Themenschwerpunkte sind Security Themen, Visualisierung und Informatikdidaktik.
Das 1. OCG Journal 2026 präsentiert wieder interessante Nachwuchs-Forscher*innen im Bereich der Informatik aus Österreich. Themenschwerpunkte sind Security Themen, Visualisierung und Informatikdidaktik.
Verwandeln Sie Ihre PDFs in ePaper und steigern Sie Ihre Umsätze!
Nutzen Sie SEO-optimierte ePaper, starke Backlinks und multimediale Inhalte, um Ihre Produkte professionell zu präsentieren und Ihre Reichweite signifikant zu maximieren.
P.b.b. Verlagspostamt 1010 Wien I 02Z031460M
Ausgabe 01 • 2026 | Jg. 51 | EUR 5,00
IT-Nachwuchs in
Österreich 2026
OCG Journal Ausgabe 01 • 2026: | Coverbild: iStock/Autor*innen
OCG Förderpreise
für hervorragende Diplom-bzw. Masterarbeiten auf dem Gebiet der
Informatik, Wirtschaftsinformatik und ihren Anwendungen
OCG Förderpreis 2026
Einreichungen müssen im
Zeitraum Oktober 2024 bis
Dezember 2025 an einer österreichischen
Universität approbiert
und mit einem Sehr gut beurteilt
worden sein. Die beste Arbeit
wird von einer Jury ermittelt. Der
Preis ist mit 2.000 Euro dotiert.
OCG Förderpreis-FH 2026
Einreichungen müssen im Zeitraum
Oktober 2024 bis Dezember
2025 an einer österreichischen
Fachhochschule approbiert und
mit einem Sehr gut beurteilt worden
sein. Die beste Arbeit wird
von einer Jury ermittelt. Der Preis
ist mit 2.000 Euro dotiert.
Einreichsfrist: 14. März 2026
Heinz Zemanek Preis
für hervorragende Dissertationen auf dem Gebiet der Informatik
Akademische Einrichtungen mit Promotionsrecht können jeweils bis zu 2
Dissertationen nominieren, die im Zeitraum 1. Jänner 2024 bis 31. Dezember
2025 in Österreich abgeschlossen wurden. Die beste Arbeit wird von einer
Jury ermittelt. Der Preis ist mit 5000 Euro dotiert.
ocg.at/hzp
Nominierungsfrist: 13. März 2026
Editorial
Sehr geehrtes OCG-Mitglied,
liebe Leserin, lieber Leser!
So wie schon in den vergangenen Jahren
holen wir mit der ersten Ausgabe des OCG
Journals 2026 den IT Nachwuchs vor den
Vorhang. Europa rückt näher zusammen,
wir bündeln unsere Kräfte, um gemeinsam
den globalen Herausforderungen entgegentreten
zu können. Die Forschungstätigkeit
im Bereich der Informatik spielt für den
Erfolg und die Unabhängigkeit des gemeinsamen
Wirtschaftsraums eine wesentliche
Rolle.
So betrachtet es die OCG als eine ihrer Kernaufgaben
den Forschungsnachwuchs zu
fördern und ausgezeichnete Leistungen zu
ehren. Jedes Jahr werden die OCG Förderpreise
für mit Sehr gut bewertete Master-/
Diplomarbeiten verliehen und in Kooperation
mit der JKU der Adolf-Adam-Informatikpreis.
Jedes zweite Jahr wird der Sieger des
Heinz Zemanek Preises für hervorragende
Dissertationen gekürt. Die Gewinnerinnen
und Gewinner haben die Gelegenheit ihre
aktuelle Forschung im OCG Journal vorzustellen
– und so sind die Preise oft auch der
Anfang für eine langjährige fruchtbare Kooperation.
Auf dem Gebiet der Cybersecurity stellen
die Teilnehmerinnen und Teilnehmer des
Young Researchers´Day im Rahmen der
IKT-Sicherheitskonferenz des BM für Landesverteidigung
und organisiert vom OCG
AK IT-Sicherheit ihre Arbeit vor. Lesen Sie in
diesem Heft dazu die aktuellen Beiträge der
österreichischen Security-Expert*innen.
Freuen Sie sich auf viele spannende Beiträge
und auf einen Einblick in Österreichs IT
Nachwuchsforschung.
Herzlichst, Ihr
Wilfried Seyruck, Präsident OCG
Inhalt
3 Editorial
von Wilfried Seyruck
6 IT-Nachwuchs in Österreich
Leitartikel
von Edgar Weippl
Young Researchers´Day
7 Cybersecurity Emergency
Simulation
Nottfallsimulationen rüsten
Führungskräfte für NIS-2-Richtlinie
von Michael Fischer, Jennifer-
Marieclaire Sturlese und Edgar
Weippl
10 Anomalie-Erkennung auf
Logdaten
Cybersecurity - Logdate-Analyse
von Viktor Beck
12 Der Mensch als Schlüssel für
Informationssicherheit
Social Skills in IT-Security-
Studiengängen
von Ines Jansta
14 ChoiceJacking: Datendiebstähle
durch Handy Ladegeräte
Risiken bei der Nutzung öffentlicher
Ladestationen
von Florian Draschbacher
16 KI-basierte Honeypots
Cybersicherheit in
Produktionsanlagen
von Olaf Saßnick
18 Gamifiziertes Forensiktraining für
FINTA*
Interesse wecken, Selbstvertrauen
stärken
von Maria Kloibhofer
20 Federated Learning
Sensible Informationen schützen
von Verena Schuster
4 OCG Journal | 01 • 2026
Wettbewerbe
22 Wie wir Quantencomputer
nutzbar machen
Quantensprung nur mit Software
von Lukas Burgholzer
24 Stealing Machine Learning Models
Without Breaking In
When intended access leaks model
secrets
von Daryna Oliynyk
26 Zero Trust in IT- und OT-
Umgebungen
Grenzen klassischer
Sicherheitssysteme
von Alois Schafferhofer
29 Ein Blick in das Innere von
Programmen
Visualisierung: Was ein Bytecode-
Interpreter tatsächlich tut
von Tobias Herber
31 Was macht mein Code?
Auf Spurensuche in verteilten
Systemen
von Lukas Freiseisen
33 Maschinencode zur Laufzeit
verändern
Software anpassen ohne Quellcode
von Alexander Voglsperger
Informatik im Unterricht
35 Sicher im Digitalen: Starke
Mädchen. Starke Zukunft.
Ein Projekt zur digitalen Sicherheit
von Jugendlichen
von Corinna Hörmann und Eva
Schmidthaler
57 Was Informatikdidaktik nicht ist
Ein persönlicher Blick auf Lehre,
Lernen und Informatik
von Corinna Hörmann
Intern
39 Veranstaltungen
39 Schriftenreihe
01 • 2026 | OCG Journal
5
Leitartikel
von Edgar Weippl
IT-Nachwuchs in Österreich
Junge Forschung ist ein zentraler Motor
für Innovation; in der Informatik ebenso
wie in angrenzenden Disziplinen gibt es
immer rascher werdende Innovationszyklen,
neue Techniken und Verfahren
setzen sich zunehmend schneller durch.
Nachwuchswissenschaftler*innen bringen
neue Themen, andere Blickwinkel
und oft auch den Mut mit, ungewöhnliche
Methoden auszuprobieren. Damit
das gelingt, braucht es neben guter Ausbildung
auch Rahmenbedingungen, die
Austausch und Sichtbarkeit ermöglichen:
Konferenzen, Mentoring, Netzwerke –
und Gelegenheiten, die eigene Arbeit zu
präsentieren.
Genau hier setzt die OCG seit Jahren an.
Mit Preisen und Auszeichnungen wie
dem OCG Förderpreis, dem OCG Förderpreis
FH sowie dem Heinz Zemanek
Preis werden wissenschaftliche Leistungen
sichtbar gemacht und der Einstieg
in eine Forschungslaufbahn unterstützt.
Viele frühere Preisträger*innen sind später
selbst in Forschung und Lehre aktiv
geworden und prägen inzwischen die Informatik
in Österreich mit.
AK IT-Sicherheit
Der Arbeitskreis (AK) widmet sich den
Gebieten Informationssicherheit und
IT-Sicherheit. Dazu gehört auch die
Förderung eines kritischen Bewusstseins
gegenüber Sicherheitsfragen.
Geleitet wird der AK von Ingrid
Schaumüller-Bichl und Edgar Weippl.
Der nächste Young Researchers‘ Day
findet bei der IKT Sicherheitskonferenz
am 16. und 17. September 2026
in Linz statt.
VERNETZUNG UND AUSTAUSCH
Auch der OCG Arbeitskreis IT‐Sicherheit
hat früh erkannt, dass Vernetzung gerade
für junge Forscher*innen entscheidend
ist: Es fehlt oft an niederschwelligen
Möglichkeiten, Ideen, Daten oder
Erfahrungen auszutauschen – besonders
dann, wenn Projekte noch in einem frühen
Stadium sind. Aus diesem Bedarf heraus
wurde der Young Researchers’ Day
etabliert, der jungen Wissenschaftler*innen
eine Bühne gibt und inzwischen fest
in das Programm der IKT‐Sicherheitskonferenz
des Österreichischen Bundesheers
eingebettet ist. So gibt es nicht nur eine
Bühne, sondern die Hauptbühne der
größten jährlichen Praxiskonferenz für
IT-Sicherheit in Österreich.
Die Beiträge in dieser Ausgabe zeigen
exemplarisch, wie breit und praxisnah
Nachwuchsforschung heute sein kann:
von Logdaten‐Analyse und Anomalie‐Erkennung
über didaktisch neue Ansätze
in der Forensik‐Ausbildung bis hin zu
Notfallsimulationen für Führungskräfte
sowie Fragen der Kommunikation und
Awareness in der Security‐Ausbildung.
VIELFALT IST STÄRKE
Gerade diese thematische Vielfalt ist ein
gutes Zeichen: Informatik ist längst nicht
mehr nur Softwareentwicklung oder reine
Technik. Sie verbindet Methodik, Systeme,
Menschen und Organisationen –
und sie wirkt in nahezu alle Bereiche von
Wirtschaft und Gesellschaft.
Als Fachcommunity können wir dazu beitragen,
dass junge Forschung nicht nur
entsteht, sondern auch ankommt: durch
faire Begutachtung, durch Austauschformate,
durch gute Betreuung und vor
allem dadurch, dass wir Nachwuchsfor-
Edgar Weippl
ist Vizedekan der
Fakultät Informatik
der Universität
Wien und Leiter der
Forschungsgruppe
Security & Privacy. Seine Forschungsinteressen
sind Cybersecurity und
Privacy.
scher*innen Gelegenheiten geben, ihre
Ergebnisse einem interessierten Publikum
zu präsentieren.
Ich danke allen Autor*innen dieser Ausgabe
für ihre Beiträge und lade die Leser*innen
ein, die Vielfalt der Themen als
Einladung zu verstehen: zum Mitdenken,
zum Diskutieren – und vielleicht auch
dazu, selbst Nachwuchs zu unterstützen,
sei es in Forschung, Lehre oder Praxis.
6 OCG Journal | 01 • 2026
Young Researchers´Day
Notfallsimulationen rüsten Führungskräfte für NIS-2-Richtlinie
von Michael Fischer, Jennifer-Marieclaire Sturlese und Edgar Weippl
Cybersecurity Emergency
Simulation
In einer immer stärker digitalisierten
Welt wird Cybersicherheit zur Aufgabe
der Unternehmensführung. Was früher
vor allem in der IT-Abteilung verortet
war, betrifft heute alle, die online sind.
Besonders Führungskräfte sind durch
ihre strategische Rolle gefährdet: Sie
müssen in Krisensituationen rasch Entscheidungen
treffen, oft ohne tiefgehendes
technisches Wissen. Diese Unsicherheit
kann zu einer gefährlichen
„Bedrohungsrigidität“[1] führen – also
dazu, dass man sich auf vertraute, aber
möglicherweise unzureichende Reaktionen
beschränkt.
Mit der Einführung der NIS-2-Richtlinie,
die Unternehmen nahezu aller
Größen und Branchen zu hohen Cybersicherheitsstandards
verpflichtet und
bei Versäumnissen auch Haftungsfragen
aufwirft, wächst der Druck zusätzlich.
Deshalb ist es entscheidend, auch
nicht-technische Führungskräfte gezielt
zu schulen. Genau hier kommen Notfallsimulationen
ins Spiel: Sie schaffen eine
realistische Trainingsumgebung, in der
der Ernstfall geübt werden kann – mit
all dem Druck einer echten Krise, jedoch
ohne deren tatsächliche Folgen.
wundbarkeit. Genau hier setzt unser neues
Simulations-Framework an.
Unser Ziel ist die Entwicklung eines Prototyps
für eine Executive-Notfallsimulation,
die genau diese Wissenslücke schließen
soll. Die Mechanismen von Cyberangriffen
und die entsprechenden Schutzmaßnahmen
werden dabei so dargestellt,
dass sie auch ohne technische Expertise
verständlich sind. Durch die realitätsnahe
Inszenierung von Cyberangriffen erleben
Führungskräfte denselben Entscheidungsdruck,
den klassische Trainings bislang
fast ausschließlich IT-Spezialist*innen
vorbehalten haben. Auf diese Weise
lässt sich der Gefahr einer Bedrohungsrigidität
entgegenwirken und die Anfälligkeit
gegenüber Cyberkriminalitätsdelikten
verringern.
CYBER-SPIONAGE ALS REALISTI-
SCHES FALLBEISPIEL
Als idealer Anwendungsfall für die Executive-Notfallsimulation
wählen wir das
Szenario Cyber-Spionage, das formell
anhand des in Managementkreisen weit
verbreiteten SMART-Prinzips validiert
wurde.
Spezifisch: Cyber-Spionage umfasst
konkrete Angriffstechniken wie Identitätsdiebstahl,
Spear-Phishing oder Insider-Bedrohungen,
die zunehmend als
„Spionage-as-a-Service“ angeboten werden.
Messbar: Der finanzielle Schaden ist
messbar und beläuft sich global auf Milliarden
bis hunderte Milliarden Euro jährlich.
Attraktiv: Das Thema ist verständlich und
für Entscheidungsträger*innen auf Unternehmens-
und Staatsebene hoch-relevant.
Realistisch: Fälle wie SolarWinds oder
der Anthem-Hack zeigen die reale Bedrohung
und komplexe Angriffsmuster.
BRÜCKE ZWISCHEN MANAGE-
MENT UND TECHNOLOGIE
Die Lücke zwischen dem betriebswirtschaftlichen
Blickwinkel von Führungskräften
und dem technischen Fachwissen
der IT-Expert*innen ist seit Langem
bekannt. Besonders Unternehmen, die
sich nicht als „Tech-Giganten“ verstehen,
unterschätzen häufig ihre digitale Ver-
Diese Grafik zeigt visuell die Spieldynamik der Notfallsimulation über 5 Runden. Jede Runde
kann der Red Player zwischen 3 Cyberangriffen wählen und vor jeder Runde kann der Blue Player
eine Cybersicherheitsmaßnahme setzen, um die Angriffe abzuwehren.
Grafik: JMC Sturlese
01 • 2026 | OCG Journal
7
Diese Grafik zeigt visuell, wie sich der programmierte
Red Player im Rahmen der Notfallsimulation
zwischen verschiedenen Cyberangriffen
entscheiden soll. Die Formel links oben zeigt
die mathematische Formel dahinter.
Grafik: JMC Sturlese
Timely (Zeitbezogen, dringlich): Cyber-Spionage
ist ein aktuelles Sicherheitsparadigma
des digitalen Zeitalters,
verschärft durch globale Vernetzung und
rechtliche Grauzonen.
Die Forschungsergebnisse wurden im
Oktober 2024 in Österreich auf der Fachkonferenz
ITDRR-24 [2] - IFIP Information
Technology in Disaster Risk Reduction
vorgestellt und stießen bei internationalen
Expert*innen auf große Resonanz.
PROGRAMMIERUNG DES RED
PLAYERS „SPYBOT“
Um eine dynamische und lehrreiche
Spielumgebung zu schaffen, modellieren
wir den algorithmischen Angreifer, den
sogenannten Red Player namens „Spy-
Bot“. Die zugrundeliegende Forschungsfrage
lautet: Wie lassen sich die algorithmischen
Entscheidungen des Angreifers
relevant, rational und realistisch gestalten?
Darauf schlagen wir die folgenden
Antworten und Vorgehensweisen vor:
Relevant: Der automatisierte Angreifer
„SpyBot“ folgt den sequentiellen Regeln
eines Stackelberg-Sicherheitsspiels, bei
dem der Angreifer (Red Player) auf die
zuvor etablierten Verteidigungsmaßnahmen
des Blue Players (den menschlichen
Spieler) reagiert.
Rational: Der Gegner „SpyBot“ wählt
seine Angriffsvektoren auf Basis der
ATT&CK-Matrix aus — einem etablierten
Framework, das validierte Cyberangriffe
systematisch kategorisiert.
Realistisch: Die Entscheidungslogik
des Angreifers wird durch empirische
Marktdaten gewichtet. Hierzu fließen Erkenntnisse
aus Darknet-Quellen ein; wir
analysieren Angebote im Bereich „Spionage-as-a-Service“,
um reale Marktmechanismen
in die Simulation zu integrieren.
Diese Ergebnisse wurden im Juni 2025
in Singapur auf der Fachkonferenz
ICCMSO-25 - IEEE International Conference
on Computational Modelling,
Simulation and Optimization [3] vorgestellt
und dort mit internationalem Fachpublikum
diskutiert.
REALITÄTSNÄHE DURCH
DARK-WEB-EINBINDUNG
Um den Lerneffekt der Zielgruppe zu
maximieren, begründen wir, dass die
Entscheidungen des automatisierten Angreifers
„SpyBot“ eine empirisch fundierte
Entscheidungslogik widerspiegeln soll.
Für unser Gewichtungsschema greifen
wir auf klassische ökonomische Theorien
zurück, darunter Angebots- und Nutzenfunktionen
sowie Wahrscheinlichkeitsmodelle
zur Entscheidungsfindung, um
einen sogenannten Likelihood-Score abzuleiten.
Während die Variable Preis exogen
ist und direkt aus Dark-Web-Marktplätzen
entnommen wird, werden die
Variablen Risiko, Kosten und technisches
Niveau synthetisch erzeugt, endogen geschätzt
mithilfe der Mitre ATT&CK Matrix,
um realistische Szenarien zu garantieren.
Jennifer Sturlese auf der Hauptbühne bei ihrem Vortrag im Rahmen des Young Researcher’s Day an der IKT-Sicherheitskonferenz 2025 in Dornbirn
Foto: JMC Sturlese
8 OCG Journal | 01 • 2026
Young Researchers´Day
Das entwickelte Modell basiert auf einer
sequentiellen Dynamik über fünf
Runden. In der Anfangsphase verzichtet
der Red Player bewusst darauf, sich an
jede Verteidigungsmaßnahme des Blue
Players anzupassen. Dadurch wird der
Lernprozess gefördert und schnelle Erfolgserlebnisse
ermöglicht. In späteren
Phasen sind erweiterte Modi vorgesehen,
in denen der Gegner zunehmend adaptiv
reagiert.
Auf der Fachkonferenz ITDRR-25 - IFIP
Information Technology in Disaster Risk
Reduction [4] in Japan im Oktober 2025
stellten wir die Forschungsergebnisse
vor, die bei internationalen Fachteilnehmer*innen
auf aufgeschlossenes Interesse
stießen.
ERSTER PROTOTYP, AUSBLICK
UND WEITERE FORSCHUNG
Der erste visuelle Prototyp der Notfallsimulation
wurde bereits auf der IKT-Sicherheitskonferenz
des österreichischen
Bundesheers 2025 in Dornbirn vorgestellt.
Als nächster Schritt folgt eine umfassende
Requirements-Engineering-Phase.
Mithilfe eines Mixed-Methods-Ansatzes
bestehend aus Interviews und Umfragen
werden Expert*innen, Bedarfsträger*innen
und weitere Stakeholder aktiv in den
Entwicklungsprozess eingebunden. Ziel
ist es, die Simulation passgenau auf die
Anforderungen und Erwartungen der
Zielgruppe auszurichten.
Interessierte Leser*innen, die sich als Interviewpartner*innen
einbringen möchten,
sind herzlich eingeladen, Kontakt mit
dem Forschungsteam aufzunehmen!
jmc@fhwn.ac.at
REFERENZEN
[1) Barry M Staw, Lance E Sandelands, and Jane E Dutton. Threat rigidity effects in organizational behavior: A multilevel analysis.
Administrative science quarterly, pages 501–524, 1981.
[2] Sturlese, J. M. C., & Hochreiter, R. (2024, October). Modeling the Case of Cyber Espionage for Executive Game Simulations.
In International Conference on Information Technology in Disaster Risk Reduction (pp. 66-81). Cham: Springer Nature Switzerland.
[3] Sturlese, J. M. C., & Purgathofer, P. (2025, June). Optimizing Algorithmic Decisions in Executive Game Simulations. In 2025
4th International Conference on Computational Modelling, Simulation and Optimization (ICCMSO) (pp. 238-242). IEEE.
[2] Sturlese, J. M. C., & Weippl, E. (2025). Inference of a Weighting Scheme for Cybersecurity Emergency Simulations. In The
Information Technology in Disaster Risk Reduction Conference (ITDRR 2025) http://eprints.cs.univie.ac.at/8453/
Jennifer-Marieclaire
(JMC) Sturlese
ist Leiterin des Lehrgangs
„Cyber Crime
Investigation“ an der
Fakultät Sicherheit,
FH Wiener Neustadt und promoviert
unter Betreuung durch Univ.-Prof.
Weippl. Ihre Forschungsinteressen
sind Cybercrime und Cybersecurity.
Michael Fischer
ist Fakultätsleiter der
Fakultät Sicherheit
an der FH Wiener
Neustadt. Seine
Forschungsinteressen
sind Cybercrime und qualitative
Forschungsmethoden für Polizeiwissenschaften.
Edgar Weippl
ist Vizedekan der
Fakultät Informatik
der Universität
Wien und Leiter der
Forschungsgruppe
Security & Privacy. Seine Forschungsinteressen
sind Cybersecurity und
Privacy.
01 • 2026 | OCG Journal
9
Cybersecurity - Logdate-Analyse
von Viktor Beck
Anomalie-Erkennung auf
Logdaten
Anomale Muster in Echtzeit zu erkennen,
wird zunehmend wichtiger. Besonders
in Bereichen wie Cybersecurity
oder der Produktionsüberwachung hat
sich die Anomalie-Erkennung (engl.
Anomaly Detection) zu einem unverzichtbaren
Werkzeug entwickelt. Bei
der Anomalie-Erkennung handelt es
sich um ein Verfahren des maschinellen
Lernens, das ungewöhnliche Muster
oder Ausreißer in Datensätzen identifiziert.
Solche Abweichungen können
auf Fehler, Cyberangriffe, technische
Störungen oder andere kritische Ereignisse
hindeuten. Das Ziel besteht darin,
Auffälligkeiten frühzeitig zu erkennen,
um gezielt Gegenmaßnahmen einleiten
zu können.
wenn von vielen Entwickler*innen oft
versprochen – in der Regel nicht einfach
„out-of-the-box“. Vielmehr müssen dafür
bestimmte Voraussetzungen erfüllt sein.
wurde, von den variablen Teilen zu trennen.
Aus diesem Problem heraus hat sich
ein eigener Forschungszweig entwickelt,
der sich speziell mit der Strukturierung
von Logdaten mithilfe von Parsing-Algorithmen
beschäftigt. Ein Beispiel für diesen
Prozess zeigt Abbildung 1.
Jeder Klick auf einer Website, jede Nutzung
einer App oder jeder Start einer
Maschine in einer Fabrik kann unzählige
Event-Logs generieren. Logdaten sind
automatisch generierte Protokolle, die
von Computersystemen, Anwendungen
oder Geräten erstellt werden und alle
relevanten Ereignisse im System dokumentieren
– von Nutzeraktivitäten über
Systemfehler bis hin zu Transaktionen
oder Netzwerkverkehr. Sie enthalten oft
Zeitstempel, Fehlercodes, IP-Adressen
und andere technische Informationen.
Besonders in der Cybersecurity sind
diese Daten von zentraler Bedeutung:
Genau wie in der analogen Welt hinterlassen
auch Cyberkriminelle digitale
Spuren – und diese zeigen sich häufig als
unerwartete Ereignisse in den Logdaten.
Hier kommt die Anomalie-Erkennung ins
Spiel. Allerdings funktioniert sie – auch
Abbildung 1: Log-Parsing: von Logging-Statement im Code, zu Logs, zu strukturierten Daten ©
Viktor Beck
LOG PARSING
Bevor Logdaten effizient analysiert werden
können, müssen sie in ein strukturiertes
Format überführt werden. In der
Informatik bezeichnet der Begriff Parsing
den Prozess, bei dem rohe Daten in ein
nutzbares Format transformiert werden.
Logdaten sind semi-strukturiert: Sie enthalten
zwar strukturierte Elemente wie
Zeitstempel oder IP-Adressen, aber auch
unstrukturierte Anteile – etwa systemgenerierte
Nachrichten. Diese Nachrichten
sind zwar für Fachleute lesbar, für Computer
jedoch schwer interpretierbar. Entsprechend
schwierig ist es die statischen
Teile einer solchen Nachricht, deren Formulierung
irgendwo im Code festgelegt
Auch der Bereich des Log-Parsings bleibt
vom aktuellen Hype um Sprachmodelle
nicht unberührt. Moderne Large Language
Models (LLMs) wie ChatGPT, Mistral
oder Quen lassen sich hier besonders
effektiv – und trotz ihrer Größe überraschend
effizient – einsetzen, da sie im Vergleich
zu traditionelleren Parsing-Algorithmen
die semantischen Eigenschaften
von Logdaten „verstehen“ und somit die
statischen und variablen Teile eines Logs
klassifizieren können 1 . Wie ein solches
1
https://arxiv.org/abs/2504.04877
10 OCG Journal | 01 • 2026
Young Researcher´s Day
System typischerweise aufgebaut ist und
welche Rolle das LLM darin übernehmen
kann, veranschaulicht Abbildung 2.
LOGDATEN-GENERIERUNG MIT
LLMS
Ein zentrales Problem der Logdaten-Analyse
– und damit auch der Anomalie-Erkennung
auf Logdaten – ist der
chronische Mangel an realistischen Datensätzen,
die für Design und Evaluierung
von Algorithmen genutzt werden
können. Logdaten enthalten in der Regel
sensible Informationen.
Zwar lassen sich einige dieser Daten anonymisieren,
doch allein das Verhalten
der Logs – also genau das, was analysiert
werden soll – gibt oft Aufschluss über
das zugrundeliegende Computersystem
und dessen Nutzer. Aus Gründen der Cyber-
und Informationssicherheit geben
Unternehmen ihre Logdaten daher nur
selten frei. Für die Forschung ist dies problematisch,
da Reproduzierbarkeit ohne
reale freizugängliche Daten kaum möglich
ist. Ohne Zugang zu echten Logs ist
die Anwendbarkeit in der Realität nicht
sichergestellt.
Forscher*innen greifen daher häufig auf
Simulationen zurück, um synthetische
Logdaten zu generieren. Doch solche Simulationen
sind oft aufwändig: Gerade
in großen Infrastrukturen sorgen zahlreiche
Nutzer*innen, Applikationen und
Hintergrundprozesse für ein komplexes
Normalverhalten. Bisher wird das Problem
diese zu simulieren meist durch
starre, vorgefertigte Skripte gelöst, die
Infrastruktur und Nutzer*innen im System
abbilden. Diese Skripte sind jedoch
Abbildung 2: LLM-basiertes Log-Parsing © Viktor Beck
unflexibel und müssen für jeden Anwendungsfall
neu erstellt werden.
Hier bieten LLMs eine vielversprechende
Lösung. Ein konkretes Beispiel: Die Simulation
von Systemadministrator*innen
durch LLMs ermöglicht die automatische
Generierung realistischer Logdaten. Dabei
interagiert die KI dynamisch mit dem
Terminal – ähnlich wie ein menschlicher
Nutzer. Das LLM erhält eine konkrete
Aufgabe (z. B. Fehlerbehebung oder Wartung),
führt Befehle aus und reagiert adaptiv
auf Systemrückmeldungen. Sogar
Tippfehler oder Umwege werden dabei
protokolliert. Das Ergebnis sind Logdaten,
die nicht nur technisch korrekt, sondern
auch verhaltensbezogen authentisch
wirken. Der größte Vorteil liegt in der
Skalierbarkeit: Innerhalb kürzester Zeit
lassen sich vielfältige Szenarien simulieren
– perfekt für Sicherheitstests oder die
Evaluierung von Anomalie-Erkennungsalgorithmen.
ZUKÜNFTIGE FORSCHUNG
Zukünftige Forschung sollte sich auf
die zentralen Herausforderungen und
Voraussetzungen konzentrieren, um
Anomalie-Erkennung auf Logdaten realistischer
und anwendungsfähiger zu
machen. Unter anderem sollte der Fokus
darauf liegen, wie Algorithmen automatisch
an neue Daten angepasst werden
können 2 , oder wie die Zusammenarbeit
mehrerer Systeme, mit einem gemeinsamen
Modell, die Erkennungsleistung
steigern kann, ohne Datensouveränität
zu gefährden. Ein weiteres wichtiges Thema
wäre, wie Detektions-Algorithmen
auf verändertes Datenverhalten reagieren,
zum Beispiel bei Systemupdates.
2
https://ieeexplore.ieee.org/abstract/document/10825202
Viktor Beck
ist PhD Student an
der TU Wien und
arbeitet als Junior
Scientist am AIT
Austrian Institute of
Technology an EU-Forschungsprojekten.
Sein Forschungsschwerpunkt
liegt auf Anomalie-Erkennung und
Logdaten-Analyse im Kontext der
Cybersicherheit.
01 • 2026 | OCG Journal
11
Social Skills in IT-Security-Studiengängen
von Ines Jansta
Der Mensch als Schlüssel für
Informationssicherheit
Die Digitalisierung schreitet voran,
IT-Systeme werden komplexer und mit
ihnen wachsen die Herausforderungen
für Unternehmen und Gesellschaft.
Während Firewalls, Verschlüsselung
und technische Schutzmaßnahmen immer
ausgefeilter werden, bleibt ein Aspekt
oft im Schatten: der Mensch.
Social Engineering, Phishing und andere
Angriffsformen, die gezielt menschliches
Verhalten ausnutzen, nehmen stetig zu.
Doch wie gut sind künftige IT-Security-Expert*innen
darauf vorbereitet? Ein
Blick auf die österreichischen Studiengänge
zeigt: Psychologische und soziale
Aspekte werden bislang nur am Rande
behandelt.
DER BLINDE FLECK IN DER AUS-
BILDUNG
Eine systematische Analyse aktueller Curricula
offenbart eine deutliche Schieflage:
Im Durchschnitt entfallen nur rund 3,6 %
der ECTS auf soziale Kompetenzen, Awareness-spezifische
Inhalte machen sogar
weniger als 0,5 % aus. Damit bleibt ein
zentrales Risiko für Organisationen weitgehend
unadressiert. Die Ausbildung fokussiert
weiterhin auf Technik – obwohl
der Mensch nachweislich das schwächste
Glied in der Sicherheitskette ist.
WARUM SOCIAL SKILLS FEHLEN
Warum werden Social Skills so wenig berücksichtigt?
Interviews mit Expert*innen
aus Information Security und Social Skills
liefern Antworten:
• Viele Curricula werden von Personen
mit rein technischem Hintergrund gestaltet.
• Es fehlt an Lehrenden mit interdisziplinärem
Profil.
• Soziale Kompetenzen werden oft als
„Soft Skill“ Zusatzthema betrachtet
– nicht als integraler Bestandteil der
Ausbildung.
WAS BRAUCHT ES FÜR WIRKSA-
ME SECURITY AWARENESS?
Die Expert*innen sind sich einig: Um Security
Awareness nachhaltig zu etablieren,
braucht es mehr als klassische Vorlesungen.
Gefragt ist ein Methodenmix,
der Theorie und Praxis verbindet. Dazu
zählen:
• Phishing-Simulationen und realitätsnahe
Übungen
• Gamification-Ansätze, die Motivation
und Lernerfolg steigern
• Zielgruppenspezifische Kommunikation,
die unterschiedliche Vorkenntnisse
und Bedürfnisse adressiert
Als zentrale soziale Kompetenzen werden
Kommunikationsfähigkeit,
Empathie,
Präsentationsskills sowie Team- und Konfliktmanagement
genannt. Gerade bei
technisch orientierten Zielgruppen ist die
Vermittlung dieser Fähigkeiten jedoch
eine Herausforderung und verlangt nach
innovativen, interaktiven Lehrformaten.
EIN LEITFADEN FÜR DIE PRAXIS:
DAS KOMPETENZMODELL
Wie können Hochschulen Social Skills
gezielt und wirksam integrieren? Im Rahmen
der Masterarbeit wurde ein praxisnahes
Kompetenzmodell entwickelt, das
fünf zentrale Bereiche abdeckt:
• Kommunikations- und Präsentationsfähigkeit:
Inhalte klar, verständlich und
zielgruppengerecht vermitteln
• Strukturelle Hürden und ein traditionell
technikzentrierter Blick prägen
die Studiengänge.
Darstellung der durchschnittlichen ECTS-Verteilung der Studiengänge, Grafik: Ines Jansta
12 OCG Journal | 01 • 2026
Young Researchers´Day
• Persönliche Kompetenzen: Empathie,
Selbstreflexion und die Bereitschaft,
sich weiterzuentwickeln
• Psychologische und analytische Fähigkeiten:
Verständnis für menschliches
Verhalten, Entscheidungsprozesse
und Motivation
• Team- und Konfliktmanagement: Zusammenarbeit
fördern, Konflikte konstruktiv
lösen
• Führungs- und Managementkompetenzen:
Verantwortung übernehmen,
Teams leiten und Veränderungen gestalten
Zu jedem Bereich werden konkrete Methoden
wie Rollenspiele, Storytelling,
Simulationen oder Reflexionsaufgaben
vorgeschlagen. Das Modell ist flexibel und
kann an die jeweiligen Anforderungen
der Hochschule angepasst werden.
VOM RANDTHEMA ZUM ER-
FOLGSFAKTOR
Die gezielte Integration sozialer Kompetenzen
in IT-Security-Studiengängen ist
keine Kür, sondern eine dringende Notwendigkeit.
Nur durch eine bewusste Verankerung
dieser Inhalte in den Curricula können
künftige Fachkräfte umfassend auf die
Herausforderungen der digitalen Arbeitswelt
vorbereitet werden. Die regelmäßige
Überprüfung und Weiterentwicklung
der Studienpläne ist dabei ebenso wichtig
wie die Förderung interdisziplinärer
Lehransätze und die Sensibilisierung von
Lehrenden und Studierenden für die Bedeutung
von Social Skills.
ZUKUNFT BRAUCHT MEHR ALS
TECHNIK
Die Ergebnisse der Masterarbeit zeigen
klar: Die Entwicklung von Social Skills darf
nicht länger als „Soft Skill“ Zusatzthema
betrachtet werden. Sie ist ein integraler
Bestandteil einer modernen IT-Security-Ausbildung
und der Schlüssel, um den
menschlichen Faktor in der Informationssicherheit
wirksam zu adressieren. Wer
die Sicherheit von morgen gestalten will,
muss heute schon den Menschen in den
Mittelpunkt der Ausbildung stellen.
Ines Jansta
ist Masterabsolventin
des Studiengangs
IT-Security an der
FH Technikum Wien
und Expertin für
Information Security Governance, Risk
& Compliance bei Greiner AG.
Übersicht untersuchter Studiengänge, Grafik: Ines Jansta
IKT Sicherheitskonferenz 2025, Ines Jansta auf der Hauptbühne; Foto: SBA
01 • 2026 | OCG Journal
13
Risiken bei der Nutzung öffentlicher Ladestationen
von Florian Draschbacher
ChoiceJacking: Datendiebstahl
durch Handy Ladegeräte
Das Aufladen des Smartphones gehört
für die meisten Menschen zum Alltag.
Immer häufiger stehen dafür auch im
öffentlichen Raum – etwa an Flughäfen,
Bahnhöfen oder Hotels – Ladegelegenheiten
zur Verfügung, die in der Regel
dankbar angenommen werden. Kaum
jemand macht sich dabei Gedanken
über mögliche Sicherheitsrisiken. Das
wäre allerdings durchaus angebracht,
wie wir in unserer Forschung herausgefunden
haben.
Die grundlegende Problematik ist nicht
neu. Smartphones besitzen meist nur
eine einzige physische Schnittstelle, die
nicht nur dazu dient, das Gerät zu laden.
Derselbe Anschluss kann auch benutzt
werden, um etwa Dateien mit einem
Computer auszutauschen, oder Eingabegeräte
wie Tastaturen anzuschließen. Wie
Forscher*innen schon vor mehr als zehn
Jahren in sogenannten JuiceJacking-Angriffen
zeigten, konnte ein manipuliertes
(nun bösartiges) Ladegerät sich daher
unbemerkt als Computer ausgeben und
auf am Smartphone gespeicherte Daten
zugreifen.
Als Reaktion darauf führten Android und
iOS Sicherheitsmechanismen ein: Ein
Dateiaustausch über USB ist nur mehr
möglich, wenn der*die Nutzer*in diesen
explizit bestätigt – etwa durch einen Dialog
am Bildschirm. Diese Maßnahme galt
lange als wirksam, neue Angriffe mit vergleichbarer
Tragweite blieben aus.
VON JUICEJACKING ZU CHOICE-
JACKING
Unsere Arbeit zeigt jedoch, dass diese
Schutzmaßnahme auf einer Annahme
beruht, die in der Praxis nicht immer zutrifft:
Man ging davon aus, dass ein Ladegerät
entweder als Computer oder als
Eingabegerät auftreten kann, aber nicht
beides gleichzeitig. Damit könnte ein Ladegerät
nicht gleichzeitig als Computer
eine Verbindung zum Dateiaustausch
herstellen und als Eingabegerät den Bestätigungsdialog
akzeptieren.
Diese Annahme ist zwar bei isolierter
Betrachtung der USB-Spezifikation gültig,
nicht aber bei ganzheitlicher Betrachtung
moderner Smartphone-Betriebssysteme.
Genau hier setzen unsere
ChoiceJacking-Angriffe an. Der Name ist
bewusst gewählt: Anders als bei Juice-
Jacking wird nicht einfach heimlich eine
Datenverbindung aufgebaut, sondern
die Entscheidung der Nutzer*innen zur
Freigabe dieser Verbindung wird manipuliert
oder umgangen.
DREI WEGE ZUM ZIEL
Im Rahmen unserer Forschung konnten
wir drei unterschiedliche Angriffsvarianten
identifizieren. Alle haben gemein-
Grundprinzip von Choice Jacking - Angriffen; Foto: Florian Draschbacher
14 OCG Journal | 01 • 2026
Young Researchers´Day
sam, dass ein manipuliertes Ladegerät
über USB gleichzeitig zwei Kommunikationskanäle
aufbaut: Einen für den Dateiaustausch
selbst und einen weiteren zur
selbständigen Bestätigung des Dateiaustauschs.
Eine erste, eher naheliegende Variante
nutzt eine initiale USB-Eingabeverbindung,
um das Smartphone mit einem
Bluetooth-Eingabegerät zu koppeln, das
im Ladegerät verbaut ist. Anschließend
kann die USB-Verbindung auf Dateiaustausch
umgeschaltet werden und die
Bestätigung mittels des Bluetooth-Eingabegeräts
erfolgen. Dieser Angriff funktioniert
sowohl unter Android als auch
iOS, ist jedoch vergleichsweise langsam.
Eine zweite Variante nutzt eine Race Condition
im Eingabesystem von Android.
Das Ladegerät schickt als USB-Eingabegerät
eine schnelle Abfolge von Eingabeevents
und schaltet die Verbindung
dann rasch auf Dateiaustausch um. Während
der Bestätigungsdialog dafür schon
angezeigt wird, ist das Eingabesystem
noch damit beschäftigt, die vielen Eingabeevents
abzuarbeiten. So kann der Dialog
mit in der Vergangenheit erzeugten
Eingabeevents bestätigt werden. Dieser
Ansatz ist schneller, erzeugt aber deutlich
sichtbare Bildschirmaktivität.
Die effektivste und schnellste Variante
nutzt schließlich ein Android-spezifisches
USB-Protokoll zur Anbindung
von speziellem Zubehör. Dieses kann so
missbraucht werden, dass das Ladegerät
während einer Verbindung zum Dateiaustausch
auch Eingabeevents schicken
kann. In vielen Fällen genügt ein sehr kurzer
Moment – teils nur wenige Hundert
Millisekunden –, um vollständigen Zugriff
auf Dateien zu erlangen.
DER RICHTIGE MOMENT
Allen ChoiceJacking-Angriffen ist gemeinsam,
dass das Gerät meist während
des Ladens zumindest kurz entsperrt
sein muss. Das klingt zunächst nach einer
starken Einschränkung, ist im Alltag aber
erstaunlich realistisch. Wer sein Smartphone
unterwegs lädt, tut dies häufig aus
der Notwendigkeit heraus, erreichbar zu
bleiben. Oft wird das Gerät also entsperrt,
um Nachrichten zu lesen, Musik zu hören
oder zu telefonieren – und bleibt dabei
auch immer wieder unbeachtet.
Um diesen Moment zuverlässig zu erkennen,
kann für ChoiceJacking-Angriffe
ein Power-Line-Side-Channel ausgenutzt
werden. Dabei analysiert das Ladegerät
minimale Schwankungen im Stromverbrauch
des Smartphones. Bestimmte
Nutzungsszenarien – etwa ein laufendes
Telefonat mit abgeschaltetem Display –
lassen sich so erkennen. Das Ladegerät
kann den Angriff so gezielt dann starten,
wenn der*die Nutzer*in das Display nicht
im Blick hat.
BETROFFENE GERÄTE UND RE-
AKTIONEN
In unserer Evaluierung waren alle getesteten
Geräte anfällig – darunter Smartphones
von acht großen Android-Herstellern
sowie ein aktuelles iOS-Gerät. Je
nach Hersteller und Konfiguration war
sogar ein Zugriff auf gesperrte Geräte
oder Entwicklerfunktionen möglich. Wir
haben alle Ergebnisse verantwortungsvoll
an die betroffenen Unternehmen
gemeldet. Die meisten Hersteller, darunter
Google, Samsung, Xiaomi und Apple,
haben die Schwachstellen bestätigt und
mittlerweile behoben.
WEITERE SCHWACHSTELLEN
Im Rahmen unserer Arbeit zu ChoiceJacking-Angriffen
stießen wir auch auf einige
weitere schwerwiegende Schwachstellen,
die über USB Dateizugriff auf
gesperrte Geräte erlaubten. Eine dieser
Lücken erlaubte über USB das Löschen
sämtlicher Nutzerdaten auf gesperrten
Smartphones der Hersteller Huawei und
Honor. Ein anderer Logikfehler erlaubte
unter bestimmten Voraussetzungen das
USB-basierte Auslesen von Dateien auf
aktuellen Google-Pixel-Geräten trotz gesperrten
Bildschirms. Auch diese Sicherheitslücken
haben wir an die betroffenen
Hersteller gemeldet, sodass sie mittlerweile
behoben werden konnten.
WAS NUTZER*INNEN TUN KÖN-
NEN
Auch wenn die meisten der gefundenen
Schwachstellen mittlerweile behoben
sind, sollten sicherheitsbewusste Endnutzer*innn
dennoch vorsichtig bleiben.
Unsere wichtigsten Empfehlungen sind
einfach, aber wirksam: Öffentliche Ladegeräte
möglichst meiden, im Zweifel
lieber eine eigene Powerbank verwenden
oder das Smartphone während des
Ladens ausschalten. USB-Datenblocker,
die nur Strom durchlassen, können ebenfalls
helfen – sofern man sie konsequent
dabeihat.
Florian
Draschbacher
ist Doktorand am Institute
of Information
Security der Technischen
Universität
Graz. In seiner Forschung beschäftigt
er sich mit verschiedenen Aspekten
von Mobile Security.
01 • 2026 | OCG Journal
15
Cybersicherheit in Produktionsanlagen
von Olaf Saßnick
KI-basierte Honeypots
Produktionsanlagen sind heutzutage
hochgradig vernetzt und automatisiert.
Das erhöht die Effizienz und Flexibilität,
schafft aber auch neue Sicherheitsrisiken.
Im Folgenden wird ein Ansatz vorgestellt,
wie KI genutzt werden kann,
um Produktionsanlagen besser zu
schützen.
In den vergangenen Jahren haben sich
industrielle Produktionsanlagen im Zuge
von Industrie 4.0 durch eine fortschreitende
Digitalisierung zu hoch vernetzten
Systemen gewandelt. Fertigungsprozesse
werden durchgehend automatisiert,
besser überwacht und optimiert. Damit
einhergehend ist jedoch die virtuelle Angriffsfläche
gegenüber Cyberangriffen
erheblich gewachsen [1]. Cyberangriffe
verfolgen unterschiedliche Ziele, darunter
Monetarisierung etwa durch Erpressungssoftware
(Ransomware), Industriespionage
oder auch Sabotage durch die
gezielte Manipulation von Prozessparametern.
Zur wirksamen Abwehr sind
moderne Sicherheitskonzepte erforderlich,
die jedoch Anforderungen von OT
(Operational Technology), wie Echtzeitfähigkeit
und funktionale Sicherheit, berücksichtigen
müssen. In diesem Kontext
werden KI-basierte Honeypots für Produktionsanlagen
erforscht, die im Folgenden
vorgestellt werden.
KI-BASIERTE HONEYPOTS
Ein Honeypot ist eine scheinbar normale
Komponente im Netzwerk, die jedoch
bewusst nicht produktiv genutzt wird.
Sie existiert ausschließlich, um potenzielle
Angreifer vom realen Produktionssystem
abzulenken und soll deshalb als
Angriffsziel möglichst interessant oder
lohnenswert wirken. Eine Interaktion mit
dem Honeypot löst einen Alarm aus und
enttarnt somit den Angreifer. Aufgrund
seiner Funktionsweise kann ein Honeypot
ein herkömmliches signaturbasiertes
Intrusion-Detection-System (IDS) gut
ergänzen, da er auch bei unbekannten
Sicherheitslücken wirksam ist und durch
die Interaktion mit dem Angreifer dessen
Angriff verzögert wird. Die potenzielle
Interaktionsdauer steigt mit dem Detailgrad
des Honeypots.
Während sich das Verhalten von Servern
oder Desktop-PCs vergleichsweise leicht
imitieren lässt, da Betriebssystem, Programme
und Daten rein virtuell sind,
ist das bei Produktionsmaschinen mit
hohem Detailgrad für einen Honeypot
aufwendiger, da es sich um Cyber-Physical
Systems (CPS) handelt, die mit der
physischen Umgebung interagieren. Sie
verfügen über Aktuatoren und Sensoren,
die den Fertigungsprozess umsetzen
und überwachen. Um das Verhalten von
CPS nachzubilden, verwenden bestehende
publizierte Honeypots nahezu ausschließlich
Simulationsmodelle [2]. Das
manuelle Erstellen von Simulationsmodellen
und Anpassen an reale Abläufe für
bestehende Anlagen ist jedoch zeitaufwändig.
Mit steigender Komplexität der
abzubildenden Prozesse wird es immer
weniger kosteneffizient ein Simulationsmodell
zu erstellen. Deshalb besteht der
Ansatz dieser Forschungsarbeit darin,
mit Hilfe generativer KI-Modelle Datenschnittstellen
der realen Produktionsmaschinen
zu beobachten und so deren
Verhalten zu erlernen. Die KI-Modelle
agieren autonom, womit der Aufwand
zum Erstellen eines Honeypots stark reduziert
wird und gut skalierbar ist. Dabei
können die in der Fertigung involvierten
Prozesse physikalischer oder chemischer
Natur sein.
DYNAMISCHES DEPLOYMENT
In weiterer Folge könnten Honeypots
nicht nur permanent in einem Netzwerk
Abbildung 1 Ein Angreifer bewegt sich in einem Firmennetzwerk, welches in Planning, Supervision und Shopfloor segmentiert ist. Der Angreifer hat
Zugriff auf eine Operator Workstation, wird jedoch bei der Kommunikation in den Shopfloor vom Intrusion Detection System (IDS) als ungewöhnliche
Aktivität erkannt und dynamisch auf ein virtuelles KI-basiertes Honeynet umgeleitet.; Grafik: Olaf Saßnick
16 OCG Journal | 01 • 2026
Young Researchers´Day
positioniert werden, sondern auch dynamisch
als Reaktion auf eine verdächtige
Aktivität, die von einem IDS erkannt wird.
In der in Abb. 1 gezeigten schematischen
Darstellung versucht ein Angreifer über
eine Operator-Workstation auf eine Produktionsmaschine
zuzugreifen, um etwa
Prozessparameter zu manipulieren. Diese
ungewöhnliche Aktivität wird von dem
IDS erkannt. Statt diese Aktivität jedoch
direkt zu blockieren und damit den Angreifer
indirekt über dessen Enttarnung
zu informieren, kann eine Umleitung auf
einen Honeypot erfolgen. Dazu wird von
dem IDS aus dynamisch ein Honeypot instanziiert,
der den aktuellen Zustand der
Produktionsmaschine imitiert, anschließend
jedoch völlig isoliert arbeitet.
Weiterführend kann in einem derartigen
Szenario der Zugriff auf das industrielle
Netzwerk mit Produktionsmaschinen
völlig getrennt werden und, soweit
operativ möglich, in einem Modus ohne
Kommunikation nach außen laufen.
Währenddessen wird der Angreifer auf
ein dynamisch erstelltes virtuelles Netzwerk
umgeleitet, in dem Honeypots verschiedener
Produktionsmaschinen instanziiert
sind und miteinander agieren.
Die verschiedenen Honeypots zusammen
bilden ein Honeynet. Der Aufbau
könnte auch als eine Sandbox bezeichnet
werden. In weiterer Folge kann das
Verhalten des Angreifers isoliert studiert
werden. Zugleich wird Zeit für ein Incident-Response-Team
gewonnen. Der
Angreifer hat zwar nicht länger Zugriff
auf die Produktionsanlage (Shopfloor), jedoch
muss analysiert werden, wie der Angreifer
auf die Operator-Workstation gelangt
ist (Lateral Movement Analysis). Je
nach Bedenklichkeit des Angriffs kann es
auch sinnvoll sein, das Firmennetzwerk
vollständig zu isolieren, wobei zwischen
sicherheitstechnischen und operativen
Interessen abzuwägen ist.
AKTUELLER STAND UND AUS-
BLICK
Der Zustand eines CPS kann mit einer
definierten Menge an Variablen vollständig
beschrieben werden. Zeitlich betrachtet
bewegt sich folglich das CPS auf
einer Trajektorie in einem Zustandsraum.
Diese Trajektorie ist als eine multivariate
Zeitreihe darstellbar, wobei KI-basierte
Vorhersagemodelle zum Generieren der
Zeitreihe eingesetzt werden können. Es
erfolgte dazu bereits eine erste prototypische
Umsetzung [3], wo das Verhalten
eines CPS auf einer industriellen Kommunikationsschnittstelle
mit einem Long
Short-Term Memory (LSTM) Modell generiert
wurde. Weiterführend wurden
verschiedene universelle KI-Vorhersagemodelle
mit einem eigenen Datensatz,
der charakteristische Merkmale einer
diskreten Fertigung aufweist, in unterschiedlichen
Einsatzszenarien evaluiert
[4]. Hierbei zeigte sich besonders, dass
die mit Standard-Benchmarks entstandene
Reihung der Vorhersagemodelle
mit diesem Datensatz nicht länger zutreffend
ist. Derartige KI-Modelle sind
nicht nur für Honeypots nutzbar, sondern
auch beispielsweise, um vorausschauende
Wartung, Anomalieerkennung oder
Prozessoptimierung zu ermöglichen. Im
Vergleich dazu ergeben sich jedoch für
den Honeypot spezielle Anforderungen.
Ein trainierter Honeypot muss in der Lage
sein langzeitstabile Zeitreihendaten zu
generieren. Initial erhält er den Zustand
der realen Maschine als Eingabe und
muss anschließend isoliert Daten gene-
REFERENZEN
[1] T. Miller, A. Staves, S. Maesschalck, M. Sturdee und B. Green, „Looking back to
look forward: Lessons learnt from cyber-attacks on Industrial Control Systems,“ Int.
Journal of Critical Infrastructure Protection, Jg. 35, 2021. doi: https://doi.org/10.1016/j.
ijcip.2021.100464.
[2] J. Franco, A. Aris, B. Canberk und A. S. Uluagac, „A survey of honeypots and
honeynets for internet of things, industrial internet of things, and cyber-physical
systems,“ IEEE Communications Surveys & Tutorials, Jg. 23, Nr. 4, S. 2351–2383, 2021.
[3] O. Saßnick, G. Schäfer, T. Rosenstatter und S. Huber, „A Generative Model Based
Honeypot for Industrial OPC UA Communication,“ in Computer Aided Systems
Theory – EUROCAST 2024, Cham: Springer Nature Switzerland, 2025-04, S. 320–334.
doi: 10.1007/978-3-031-83885-9_29.
[4] O. Saßnick, T. Rosenstatter, A. Unterweger und S. Huber, „Deep Learning-based
Time Series Forecasting for Industrial Discrete Process Data,“ in 8th IEEE Conference
on Industrial Cyber-Physical Systems (ICPS), Emden, Germany: IEEE, 2025-05.
doi: 10.1109/ICPS65515.2025.11087869.
rieren. Fehler addieren sich, wodurch, die
realen und die generierten Daten auseinanderdriften.
Hier könnte der Einsatz von
Neural Ordinary Differential Equations
(Neural ODEs) zielführend sein. Anstelle
aus einem Ausgangszustand direkt den
Folgezustand zu erlernen, lernen diese
die zeitliche Ableitung des Zustands. Um
den Folgezustand zu bestimmen, wird
die zeitliche Ableitung des Zustands integriert,
womit eine bessere Stabilität
erreicht werden kann. Zudem kann das
Verhalten gewöhnlicher Differentialgleichungen,
die sich besonders zur Modellierung
physikalischer Abläufe eignen,
durch Neural ODEs gut wiedergegeben
werden.
Der Honeypot muss außerdem charakteristische
höherfrequente Signalanteile
wiedergeben können, beispielsweise
eine lastabhängige Restwelligkeit bei
einem Motorstrom. Fehlt diese, kann auf
einfache Weise zwischen Honeypot und
realem System unterschieden werden.
Modelle im Zeitbereich können diese
jedoch nur unzureichend erlernen. Ein
möglicher Ansatz könnte darin bestehen,
die höherfrequenten Signalanteile
mithilfe von Gauß-Verteilungen im Frequenzbereich
zu regenerieren.
Um letztlich ein Honeynet zu bilden, können
bereits bestehende Honeypots gemeinsam
eingesetzt werden. Zusätzlich
muss jedoch auch eine SCADA-Komponente
(Supervisory Control and Data Acquisition)
imitiert werden, die die Orchestrierung
der Honeypots wie bei einem
realen Produktionsablauf übernimmt.
Zusammenfassend zeigen KI-basierte
Ansätze vielversprechende Einsatzmöglichkeiten,
während zugleich jedoch weiterer
Forschungsbedarf besteht.
Olaf Saßnick
arbeitet als Forscher
am Josef Ressel Zentrum
für Intelligente
und Sichere Industrieautomatisierung
(JRZ ISIA) der Fachhochschule Salzburg,
mit Schwerpunkt Cybersecurity.
Daneben ist er Lehrbeauftragter im
Fachbereich Mechatronik, mit Fokus
auf Sensorik und Embedded-Systems.
01 • 2026 | OCG Journal 17
Interesse wecken, Selbstvertrauen stärken
von Maria Kloibhofer
Gamifiziertes Forensiktraining
für FINTA*
Mit rund 75 % stellen Männer immer
noch den Großteil der Arbeitskräfte in
der Cybersecurity. In der Infrastruktur
wird Diversität bereits mitgedacht, etwa
mit der „Diversity in Defense“-Strategie,
bei der verschiedene Hersteller eingesetzt
werden, um die Chancen von
Angreifern zu mindern. Eine ähnliche
Vielfalt an Sichtweisen und Lebenserfahrung
kann auch in anderen Bereichen
der Cybersecurity helfen, Probleme
zu lösen und neue Strategien zu
finden.
Im Rahmen der Bachelorarbeit „Interest,
Confidence and Murderous Animatronics
– Gamified, Story-Driven Forensics
Education“ wurde ein gamifiziertes, story-getriebenes
Training über die digitale
Forensik erarbeitet und für eine bestehende
Initiative zur Förderung von Frauen
und die gesamte Gruppe der FINTA*
in der Cybersecurity abgehalten.
GRÜNDE FÜR DIE GENDER-GAP
Warum existiert diese Geschlechterdifferenz
überhaupt? Ein Teil lässt sich aus
historischen Gründen erklären, aber auch
einige aktuelle Strukturen und Mindsets
schließen etwa Frauen aktiv sowie passiv
aus diesem Bereich aus.
Im Zuge der Arbeit wurden einige der
häufig genannten Gründe in zwei Kategorien
unterteilt.
Interesse
Durch die niedrige Frauenquote ergeben
sich automatisch weniger Vorbilder und
* FINTA* steht für Fraunen, intergeschlechtliche,
nichtbinäre, trans und agender Personen.
mögliche Repräsentation, sowohl im echten
Leben als auch in den Medien. Vielen
Berufsanfänger*innen ist auch nicht bewusst,
wie vielseitig die Cybersecurity ist
und welche Tätigkeitsbereiche sich daraus
ergeben. Obwohl sich mittlerweile
einige Initiativen darum kümmern, hier
zu informieren und zu stärken, spürt
man die Diskrepanz noch stark. Dadurch
ergibt sich weniger direkter Kontakt zu
dem Feld und damit auch die Möglichkeit,
sich selbst in diesem Berufsbild zu
sehen.
Was bleibt also übrig, wenn es keine Vorbilder
gibt? Es bleiben die Bilder im eigenen
Kopf und die Bilder, die in der Gesellschaft
generell vorherrschen. Und die sind
in der Cybersecurity einerseits männlich
geprägt, aber auch sehr klischeebehaftet
– denn woran denkt man instinktiv, wenn
man an einen „Hacker“ denkt? An einen
jungen Mann im schwarzen Kapuzenpullover.
Selbstvertrauen
Ein weiteres Problem, von dem Frauen
sowohl während der Ausbildung als auch
später im Berufsleben berichten, ist das
Imposter (Hochstapler) Syndrom. Dabei
handelt es sich um das Gefühl, an den
eigenen Fähigkeiten zu zweifeln und die
Angst, als Hochstapler entlarvt zu werden,
obwohl es keine objektiven Gründe dafür
gibt. Ein Gefühl, dass oft noch verstärkt
wird, wenn man als einzige Frau auftritt
und sich so nicht nur selbst, sondern quasi
alle Frauen repräsentiert. Hier kann das
Bilden von Netzwerken helfen, um dieses
Gefühl der Isolation zu verringern.
Zusammengefasst ergaben sich daraus
die zwei Aufgabenbereiche Interesse (wecken,
halten) und Selbstvertrauen (mit einem
niederschwelligen Angebot Selbstvertrauen
zu geben).
Die Arbeit untersucht, ob das Training etwas
an der Selbsteinschätzung in diesen
Bereichen ändert und welche Maßnahmen
den größten Einfluss nehmen.
FINTA* STÄRKEN
Mittlerweile gibt es einige Initiativen, die
FINTA* in der Cybersecurity unterstützen.
Eine davon ist Shecurity von Stephanie
Jakoubi, die kostenlose und niederschwellige
Cybersecurity-Trainings für
diese Zielgruppe anbietet. So können die
Teilnehmer*innen in einem geschützten
Rahmen in verschiedene Teilbereiche
der Cybersecurity hineinschnuppern und
sich mit anderen austauschen. Diese Initiative
war die Inspiration für die Bachelorarbeit
und in ihrem Rahmen wurde
auch das daraus entstandene Training
abgehalten.
Bei dem online abgehaltenen Training
wurden zuerst in einem Theorieteil ausgewählte
Grundlagen der digitalen Forensik
vermittelt, auch für Teilnehmer*innen
ohne Vorkenntnisse. Dabei wurde
der Fokus weniger auf umfassendes Wissen
und mehr auf grundlegendes Verständnis
des forensischen Prozesses und
ausgewählte Teilbereiche gelegt, um die
späteren Übungen auch verstehen zu
können.
Für den Praxisteil wurden sechs Übungen,
die sogenannten „Challenges“ ausgearbeitet.
Um die Übungen realitäts-
18 OCG Journal | 01 • 2026
Young Researchers´Day
naher zu gestalten, konnten forensische
Tools für die Lösung verwendet werden,
etwa zur Arbeitsspeicheranalyse oder
Datenwiederherstellung. Für die Gamifizierung
sorgten die unterliegende Geschichte,
die in den gefundenen Artefakten
erzählt wird, sowie „Auszeichnungen“
(Achievements), die durch das Absolvieren
einzelner Übungen sowie das Finden
von Easter Eggs, kleinen versteckten Zusatzartefakten,
verliehen wurden.
Beim Erstellen wurde mit einem vierteiligen
Ansatz gearbeitet:
• Gamification – die Übungen sollen
sich anfühlen wie ein Spiel, um freies
Erforschen zu fördern, weniger Leistungsdruck
aufzubauen und das „Impostor
Syndrom“ zu minimieren. Viele
andere gamifizierte Übungen bauen
vor allem auf Wettbewerb, Ranglisten
und Geschwindigkeit auf. Auf diese
Elemente wurde bewusst verzichtet.
• Story driven – eine durchgehende Geschichte
über eine vermisste Freundin
und mörderische animatronische
Figuren soll als zusätzliche Motivation
dienen. Die Geschichte wird sowohl
aktiv durch die Übungsbeschreibungen
vermittelt, als auch passiv durch
die eingesetzten Artefakte.
• Selbstständigkeit – alle Übungen sind
alleine und ohne Input/Bestätigung
von außen erledigbar, in der eigenen
Geschwindigkeit. Auch hier wurde darauf
geachtet, keinen Leistungs- und
Zeitdruck zu erzeugen, sondern die
Teilnehmer*innen so mit den Übungen
interagieren zu lassen, wie sie
möchten.
• Inklusion – ein ganzheitlicher Ansatz,
um möglichst viele Barrieren abbauen
zu können; das Training war explizit
nur für Menschen, die nicht der männlichen
Norm entsprechen. Es wurde
online abgehalten, um Menschen die
zeitlich/örtlich eingeschränkt sind zu
inkludieren. Die Hardwareanforderungen
für die Übungen waren minimal
und sowohl die verwendete Software
als auch das Training selbst sind kostenlos,
um niemanden aufgrund ihrer
finanziellen Situation auszuschließen.
Das selbstständige Arbeiten und der klare
Praxisbezug sollen Teilnehmer*innen
weiter stärken und zeigen: Ich kann das
auch.
ERGEBNISSE UND AUSBLICK
Rund 60 Teilnehmer*innen nahmen bei
diesem ersten Training, mit dem die Daten
für die Bachelorarbeit erhoben wurden,
teil.
Obwohl keine nennenswerten Unterschiede
zwischen der Selbsteinschätzung
vor und nach dem Training gefunden
werden konnten, beurteilten die Teilnehmer*innen
die gesetzten Maßnahmen
durchwegs positiv. (Zahlen aufgerundet)
Ein Großteil bevorzugte diese Art des Lernens
zu anderen Arten (77 %) und gab
an, dass die Storyelemente ihr Interesse
in die digitale Forensik positiv beeinflusst
hätten (69 %). Die bestbewerteten Faktoren,
die das Selbstvertrauen der Teilnehmer*innen
positiv beeinflussten, waren
das Schaffen eines reinen FINTA-Trainings
(62 %), der zusätzlich Kontext zum
Ablauf und Erwartungen vor dem
Training (58 %) und das Abschließen der
einzelnen Challenges (58 %). Der Motivation
zuträglich waren unter anderem die
Anwesenheit eine*r Trainer*in für Rückfragen
(69 %), das Erforschen der unterliegenden
Geschichte (62 %) und das Finden
von Easter Eggs innerhalb der Challenges
(50 %). Das qualitative Feedback spiegelt
wider, dass es besonders wichtig ist, auf
das Skilllevel der Teilnehmer*innen zu
achten, unterschiedlich viele Hilfestellungen
zu bieten und Kooperation zwischen
Teilnehmer*innen zu ermöglichen.
Mit einem einzelnen Training lässt sich an
der 25%-Quote nicht direkt etwas verändern.
Aber es wurden wichtige Erkenntnisse
für spätere Iterationen gewonnen,
um zukünftige Trainings noch besser zu
gestalten.
Maria Kloibhofer
ist Masterstudentin
an der Hochschule
für Angewandte
Wissenschaften St.
Pölten und zusätzlich
als IT Systems Engineer tätig. In ihrer
Freizeit baut sie ihr Forensiktraining
weiter aus.
Ergebnisse vom ersten Training, Grafik: Maria Kloibhofer
01 • 2026 | OCG Journal
19
Sensible Informationen schützen
von Verena Schuster
Federated Learning
In der heutigen datenzentrierten Welt
ist der Austausch von Daten für weitere
Analysen oft erforderlich. Während
der Austausch von Daten in vielen Bereichen
akzeptabel sein mag, stellt der
Schutz sensibler Informationen wie
Patientengesundheitsdaten und Finanzunterlagen
eine Herausforderung
dar und ist zudem durch Vorschriften
wie die Datenschutz-Grundverordnung
(DSGVO) vorgeschrieben.
In Szenarien, in denen Daten dezentral
erfasst werden – beispielsweise, wenn
sie von Edge-Geräten wie Sensoren,
Fahrzeugen oder mobilen Endgeräten
stammen oder in größeren Datensilos
etwa bei Gesundheitsdienstleistern vorliegen
– kann die Zusammenführung aller
Daten an einem zentralen Ort neben
datenschutzrechtlichen Aspekten auch
aus praktischen Gründen problematisch
sein. Einschränkungen hinsichtlich der
verfügbaren Netzwerkbandbreite sowie
der Verfügbarkeit der beteiligten Geräte
können eine zentrale Datensammlung
zusätzlich erschweren.
Daher ist es notwendig, Strategien zu
entwickeln, die eine Zentralisierung der
Daten vermeiden und gleichzeitig deren
Analyse ermöglichen. Der traditionelle
Ansatz von Machine Learning (ML) besteht
darin, aus einem einzelnen, zentralen
verfügbaren Datensatz zu lernen.
Im Gegensatz dazu erfolgt das Training
im Federated Learning (FL) [1] dezentral,
wobei lediglich ein zentraler Server, auch
bekannt als Aggregator, die lokal erlernten
Informationen (Modelle oder lokale
Gradienten) zusammenführt, um ein
kollaboratives Training zu ermöglichen.
Federated Learning stellt somit ein vielversprechendes
Paradigma dar, bei dem
die Daten der Clients lokal verbleiben.
Federated Learning reduziert folglich die
Federated Learning Prozess; Grafik: Verena Schuster
Notwendigkeit einer Zentralisierung der
Daten.
FEDERATED LEARNING
PROZESS
Der Ablauf des Federated Learning Prozesses
(siehe Abbildung) gestaltet sich
wie folgt:
• Initialisierung:
Der zentrale Server definiert das Modell,
das als Ausgangsmodell für alle
Clients dient. Dieses Startmodell kann
entweder neu initialisiert oder bereits
vortrainiert sein.
• Client-Auswahl:
In diesem Schritt wählt der zentrale
Server die an der jeweiligen Kommunikationsrunde
teilnehmenden
Clients aus. Abhängig vom Anwendungsfall
tragen entweder alle Clients
in jeder Runde bei, oder es wird in
jeder Runde eine vordefinierte Teilmenge
von Clients ausgewählt.
• Verteilung:
Der zentrale Server überträgt das
globale Modell an die ausgewählten
Clients.
• Client-Berechnung:
Jeder Client trainiert das globale
Modell auf seinen lokalen Daten und
sendet anschließend das aktualisierte
Modell oder ausschließlich
die berechneten Gradienten an den
zentralen Server zurück.
• Aggregation:
Der zentrale Server aggregiert die
Parameter der empfangenen Modelle
mithilfe eines ausgewählten Aggregationsverfahrens.
Verschiedene
Aggregationsmethoden werden im
Abschnitt zur verwandten Arbeit zu
Aggregationsmethoden diskutiert.
• Aktualisierung des globalen Modells:
Der zentrale Server aktualisiert das
globale Modell unter Verwendung der
aggregierten Parameter.
Anschließend wird das globale Modell
an die Clients zurückgesendet und dient
dort als Ausgangsmodell für die nächste
Trainingsrunde. Danach werden die
Schritte 2 bis 6 wiederholt, bis das Modell
konvergiert oder die maximale Anzahl an
Iterationen, auch als Kommunikationsrunden
bezeichnet, erreicht ist.
AGGREGIERUNGSANSÄTZE
Der am weitesten verbreitete Ansatz ist
Federated Averaging (FedAvg) [1], bei
dem die lokalen Modellparameter der
Clients gewichtet gemittelt werden, typischerweise
proportional zur Größe der
jeweiligen lokalen Datensätze. FedAvg
20 OCG Journal | 01 • 2026
Young Researchers´Day
zeichnet sich durch seine Einfachheit
und Effizienz aus, ist jedoch anfällig gegenüber
stark nicht-i.i.d. verteilten Daten.
Zur Erhöhung der Robustheit gegenüber
Ausreißern wurde FedMedian [2] eingeführt.
Anstelle des arithmetischen Mittels
wird hierbei der Median der Modellparameter
über alle Clients berechnet, wodurch
der Einfluss einzelner stark abweichender
Updates reduziert wird.
FedAvgM [3] erweitert FedAvg um einen
Momentum-Term auf Serverebene.
Durch die Berücksichtigung vergangener
Aggregationsschritte kann die Konvergenz
beschleunigt und die Stabilität
des Trainings verbessert werden, insbesondere
bei stark schwankenden lokalen
Updates.
Mit FedProx [4] wird ein Regularisierungsterm
in das lokale Optimierungsproblem
der Clients eingeführt, der große
Abweichungen vom globalen Modell
penalisiert. Dieser Ansatz adressiert explizit
die Herausforderungen durch statistische
Heterogenität zwischen den Clients
und ermöglicht stabileres Training in
nicht-i.i.d.-Szenarien.
FedLAW [5] (Federated Learning with
Adaptive Weights) verfolgt einen adaptiven
Aggregationsansatz, bei dem die
Beiträge der Clients dynamisch gewichtet
werden. Im Gegensatz zu FedAvg, bei
dem die Gewichtung der Clients üblicherweise
statisch erfolgt, passt FedLAW
die Gewichtung der einzelnen Beiträge
flexibel an. Ziel ist es, Clients mit qualitativ
hochwertigeren oder konsistenteren Updates
stärker zu berücksichtigen und so
die globale Modellleistung zu verbessern.
Neben parameterbasierten Mittelungsverfahren
existieren auch strukturorientierte
Aggregationsansätze, die speziell
für unterschiedliche Modellarten
zugeschnitten sind. Insbesondere für
Neuronale Netzwerke wurden Verfahren
wie PFNM [6] (Probabilistic Federated
Neural Matching) und FedMA [7] (Federated
Matched Averaging) entwickelt.
Diese Methoden verfolgen das Ziel, einzelne
Neuronen zwischen den lokalen
Modellen explizit zuzuordnen, anstatt die
Modellparameter – wie bei klassischen
Ansätzen – koordinatenweise zu aggregieren.
Neben den hier vorgestellten Aggregierungsverfahren
existieren eine Vielzahl
an weiteren Ansätzen in der Literatur.
Diese unterscheiden sich unter anderem
hinsichtlich ihrer Robustheit gegenüber
heterogenen Datenverteilungen, ihrer
Kommunikations- und Rechenkosten
sowie ihrer Widerstandsfähigkeit gegenüber
fehlerhaften oder adversarialen Clients.
Verena Schuster
ist eine Researcherin
bei SBA Research
und Masterstudentin
im Programm
Data Science an der
TU Wien. Ihre Interessen liegen bei
Federated Databases und Federated
Learning..
QUELLEN:
[1] Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, and Blaise Aguera y Arcas. Communication-Efficient Learning
of Deep Networks from De-centralized Data. In Aarti Singh and Jerry Zhu, editors, Proceedings of the 20th International
Conference on Artificial Intelligence and Statistics, volume 54 of Proceedings of Machine Learning Research, pages 1273–1282.
PMLR, April 2017.
[2] Dong Yin, Yudong Chen, Ramchandran Kannan, and Peter Bartlett. Byzantine-Robust Distributed Learning: Towards Optimal
Statistical Rates. In Jennifer Dy and Andreas Krause, editors, Proceedings of the 35th International Conference on Machine
Learning, volume 80 of Proceedings of Machine Learning Research, pages 5650–5659. PMLR, July 2018.
[3] Tzu-Ming Harry Hsu, Hang Qi, and Matthew Brown. Measuring the Effects of Non-Identical Data Distribution for Federated
Visual Classification, September 2019. arXiv:1909.06335 [cs, stat].
[4] Tian Li, Anit Kumar Sahu, Ameet Talwalkar, and Virginia Smith. Federated Learning: Challenges, Methods, and Future Directions.
IEEE Signal Processing Magazine, 37(3):50–60, May 2020.
[5] Zexi Li, Tao Lin, Xinyi Shang, and Chao Wu. Revisiting Weighted Aggregation in Federated Learning with Neural Networks.
In Andreas Krause, Emma Brunskill, Kyunghyun Cho, Barbara Engelhardt, Sivan Sabato, and Jonathan Scarlett, editors, Proceedings
of the 40th International Conference on Machine Learning, volume 202 of Proceedings of Machine Learning Research,
pages 19767–19788. PMLR, July 2023.
[6] Mikhail Yurochkin, Mayank Agarwal, Soumya Ghosh, Kristjan Greenewald, Nghia Hoang, and Yasaman Khazaeni. Bayesian
Nonparametric Federated Learning of Neural Networks. In Kamalika Chaudhuri and Ruslan Salakhutdinov, editors, Proceedings
of the 36th International Conference on Machine Learning, volume 97 of Proceedings of Machine Learning Research, pages
7252–7261. PMLR, June 2019.
[7] Hongyi Wang, Mikhail Yurochkin, Yuekai Sun, Dimitris Papailiopoulos, and Yasaman Khazaeni. Federated Learning With
Matched Averaging. In International Conference on Learning Representations, April 2020.
01 • 2026 | OCG Journal
21
Quantensprung nur mit Software
von Lukas Burgholzer
Wie wir Quantencomputer
nutzbar machen
Wenn wir in den Medien von Quantencomputern
hören, dominieren meist
Bilder von futuristischer Hardware: vergoldete
Kronleuchter-Strukturen in riesigen
Kühlaggregaten oder Laserlabore,
die an Science-Fiction erinnern. Das Versprechen
ist gigantisch: Probleme, an
denen heutige Supercomputer scheitern,
sollen in Sekunden lösbar werden.
Doch bei aller Faszination für die Physik
wird eine entscheidende Komponente
oft übersehen: die Software.
Ohne Software ist der beste
Quantencomputer nur ein teures
physikalisches Experiment.
Vergleichen Sie es mit einem modernen
Smartphone ohne Betriebssystem und
Apps – ein Stück High-Tech-Hardware,
mit dem man nichts anfangen kann. Im
Quantencomputing stehen wir heute an
einem ähnlichen Punkt. Die Hardware
macht rasante Fortschritte, aber die Software
hinkt oft hinterher. Es fehlt an stabilen
Werkzeugen, an Standards und an
etablierten Schnittstellen. Im Moment
gleicht die Landschaft einem Wildwuchs
aus inkompatiblen Insellösungen.
Genau hier setzt unsere Arbeit an. Als Informatiker
betrachten wir den Quantencomputer
nicht primär als physikalisches
System, sondern als Rechenmaschine,
die programmiert, gesteuert und kontrolliert
werden muss. Unser Ziel ist es, den
„Software Stack“ so robust zu machen,
dass Anwender*innen sich auf die Lösung
ihrer Probleme konzentrieren können,
statt sich mit der Fragilität einzelner
Qubits herumzuschlagen. Dabei ignorieren
wir die Hardware nicht – im Gegenteil.
Effektive Software muss die Eigenheiten
der zugrunde liegenden Technologie verstehen
und optimal nutzen.
DIE KUNST DER ÜBERSETZUNG:
VOM ALGORITHMUS ZUM CHIP
Ein Quantenalgorithmus existiert zunächst
oft nur als mathematisches Konzept
oder als abstrakter Programmcode.
Damit dieser auf einem realen Chip ausgeführt
werden kann, bedarf es einer
komplexen Übersetzungskette. Dieser
Prozess ähnelt dem Kompilieren klassischer
Software, ist aber ungleich schwieriger.
Die Herausforderung liegt in den physikalischen
Beschränkungen der Maschinen.
Heutige Quantenprozessoren sind
„noisy“ – also fehleranfällig – und eingeschränkt
in ihrer Konnektivität. Nicht jedes
Qubit kann direkt mit jedem anderen
kommunizieren. Wenn ein Algorithmus
eine Interaktion zwischen zwei weit entfernten
Qubits verlangt, muss der Compiler
die Informationen schrittweise über
den Chip transportieren. Das ist wie ein
komplexes Schiebe-Puzzle, das optimal
gelöst werden muss. Jeder unnötige
Schritt verlängert die Laufzeit und erhöht
die Gefahr, dass das empfindliche Quanten-Signal
im Rauschen untergeht.
Software für Quantencomputing muss
also zaubern können: Sie muss den abstrakten
Wunsch des Programmierers so
effizient wie möglich auf die imperfekte
Hardware abbilden. Wir entwickeln Algorithmen,
die genau das automatisch
erledigen – und zwar oft besser, als es
menschliche Expert*innen von Hand
könnten. Dabei greifen wir auf Methoden
zurück, die in der klassischen Chip-Entwicklung
(„Electronic Design Automation“)
seit Jahrzehnten erprobt sind, und
passen sie für die Quantenwelt an.
Anwendung
Sim ula tion
Kom pilierung
Verifika tion
Fehler -
Korrektur
Ha rdwa re
Da tenstrukturen & Methoden
Illustration wichtiger Schritte entlang des Software-Stacks von Anwendung bis Hardware, geschützt durch Datenstrukturen und Methoden;
Grafik: Lukas Burgholzer
22 OCG Journal | 01 • 2026
Heinz Zemanek Preis
EFFIZIENZ DURCH CLEVERE DA-
TENSTRUKTUREN
Ein weiteres Nadelöhr ist die Entwicklung
und das Testen neuer Ideen. Bevor man
teure Zeit auf einem echten Quantencomputer
bucht, möchte man wissen, ob
ein Algorithmus überhaupt korrekt funktioniert.
Dazu simuliert man den Quantencomputer
auf klassischen Rechnern.
Das Problem dabei: Die Komplexität eines
Quantenzustands explodiert förmlich.
Jedes zusätzliche Qubit verdoppelt
den Speicherbedarf. Um einen Zustand
von nur 50 Qubits exakt zu speichern,
bräuchte man mehr Arbeitsspeicher, als
auf der ganzen Welt existiert[KR2.1].
Sind Simulationen jenseits von 40 oder
50 Qubits also unmöglich? Nicht unbedingt.
Hier kommt die Informatik ins
Spiel. Oft enthalten die Zustände, die in
der Praxis auftreten, viele Redundanzen
und Strukturen. Statt stur eine riesige Tabelle
von Zahlen abzuspeichern, nutzen
wir graphenbasierte Datenstrukturen, sogenannte
„Entscheidungsdiagramme“.
Diese Technik, die an der JKU Linz und
der TU München intensiv erforscht wird,
erlaubt es uns, enorme Zustandsräume
extrem kompakt darzustellen, indem
gleiche Teilbäume nur einmal gespeichert
werden.
Das Ergebnis ist oft verblüffend: Simulationen,
die mit herkömmlichen Vektoren
unmöglich wären, laufen dank dieser
Technik in Minuten auf einem normalen
Laptop. Das demokratisiert die Forschung,
da man für Experimente keinen
Supercomputer mehr braucht. Natürlich
funktioniert das nicht für jeden beliebigen
Quantenzustand – das würde die
Gesetze der Physik verletzen –, aber für
viele praxisrelevante Fälle ist es ein „Game
Changer“.
VERTRAUEN IST GUT, VERIFIKA-
TION IST BESSER
Eine der brennendsten Fragen im Quantencomputing
lautet: „Ist das Ergebnis
überhaupt richtig?“ Quantencomputer
machen Fehler. Zudem ist es bei Aufgaben,
die klassisch nicht mehr lösbar sind,
schwer, das Ergebnis zu überprüfen.
Wir müssen uns also zumindest darauf
verlassen können, dass die Software keine
zusätzlichen Fehler einbaut. Wenn unser
Compiler einen Algorithmus optimiert,
darf er dessen logische Funktion nicht
verändern. In der klassischen Informatik
ist Compiler-Verifikation ein etabliertes
Feld. Für Quantenschaltungen betreten
wir Neuland.
Auch hier helfen uns Datenstrukturen
aus der Informatik wie Entscheidungsdiagramme.
Sie ermöglichen es in vielen
Fällen, analytisch zu beweisen, dass
zwei Quantenschaltungen – etwa die
ursprüngliche und die optimierte Version
– äquivalent sind. Das schafft das nötige
Vertrauen, um Quantencomputing
zukünftig auch in sensiblen Bereichen
einzusetzen. Ohne solche Verifikationsmethoden
bliebe die Technologie eine
Black Box.
VOM FORSCHUNGSPROJEKT
ZUM GLOBALEN STANDARD
Viel zu oft endet akademische Software
als „Paperware“ – veröffentlicht, aber
kaum nutzbar. Wir haben uns 2019 entschieden,
einen anderen Weg zu gehen.
Alle unsere Werkzeuge bündeln wir im
„Munich Quantum Toolkit“ (MQT).
Das MQT ist eine Open-Source-Plattform,
die Simulation, Kompilierung, Verifikation,
Benchmarking, und mehr unter einem
Dach vereint. Uns war wichtig, dass
diese Tools nicht nur funktionieren, sondern
auch einfach zu bedienen sind. Wir
investieren viel Zeit in saubere Dokumentation,
einfache Installationsprozesse und
stabile Schnittstellen.
Dieser Aufwand hat sich gelohnt. Das
MQT wird mittlerweile weltweit genutzt –
von Forschungsgruppen in Asien bis hin
zu Start-ups in den USA. Tausende Downloads
pro Monat und eine aktive Community
auf GitHub zeigen, dass der Bedarf an
robuster, zugänglicher Software riesig ist.
Es ist ein schönes Beispiel dafür, wie Forschung
aus Österreich und Deutschland
internationale Standards setzen kann.
DIE BRÜCKE IN DIE INDUSTRIE
Open Source ist der Motor der Wissenschaft,
aber industrielle Anwender benötigen
mehr: Verlässlichkeit, Support
und langfristige Roadmaps. Um diese
Lücke zu schließen, haben wir vor gut einem
Jahr die Munich Quantum Software
Company (MQSC) als Spin-off gegründet.
Die MQSC nimmt den Kern der akademischen
Forschung und schmiedet daraus
Produkte für den Unternehmenseinsatz.
Ein großes Thema ist derzeit die Integration
von Quantenprozessoren in klassische
Rechenzentren. Im Rahmen des
Munich Quantum Valley arbeiten wir daran,
dass Quantencomputer nicht isoliert
stehen, sondern als Beschleuniger in die
bestehende High-Performance-Computing
(HPC) Infrastruktur eingebunden
werden – ähnlich wie heute Grafikkarten
oder andere Beschleuniger.
Dafür braucht es offene Standards und
Kooperation. Wir wollen keine geschlossenen
Ökosysteme, sondern offene
Schnittstellen, die Innovation fördern.
Die Auszeichnung meiner Arbeit mit
dem Heinz Zemanek-Preis der OCG ist
für mich eine wunderbare Bestätigung,
dass wir mit diesem Fokus auf Software
und Design-Automatisierung auf dem
richtigen Weg sind. Am Ende wird sich
Quantencomputing nicht durchsetzen,
weil wir die besten Qubits haben, sondern
weil wir die beste Software haben,
um sie zu nutzen.
Lukas Burgholzer
ist Postdoc am
Lehrstuhl für Design
Automation der TU
München und CTO
der Munich Quantum
Software Company (MQSC). Er
promovierte an der JKU Linz zum
Thema Entwurfs-Automatisierung
und Software für Quantencomputer.
Seine Forschung wurde vielfach
ausgezeichnet, unter anderem mit
dem EDAA Outstanding Dissertation
Award und dem Heinz Zemanek Preis
der OCG.
01 • 2026 | OCG Journal
23
When intended access leaks model secrets
von Daryna Oliynyk
Stealing Machine Learning
Models Without Breaking In
Threats to the confidentiality of proprietary
assets are not new. What makes
machine learning models special is that
they can be stolen through their intended
interface, without compromising
the underlying system.
Machine learning (ML) models often require
significant resource investment
and may represent a core business asset.
Stealing such a model can therefore
result in significant economic damage,
such as enabling competitors to offer
equivalent services without comparable
development effort. At the same time,
confidentiality is not only an economic
concern: access to a model can facilitate
attacks on system integrity or enable its
misuse in unintended or malicious ways.
HOW DOES MODEL STEALING
WORK?
In the most common model stealing
scenario, an attacker interacts with a model
through its intended interface, such
as an API, and aims to reproduce its functionality.
By querying the model with
selected data samples and using the returned
predictions as labels, the attacker
can train a local substitute that approximates
the original model’s behavior. Figure
1 illustrates this process for an image
classifier that predicts the artist based on
the visual style of a painting.
KEY FACTORS IN MODEL STEA-
LING ATTACKS
In our recent study [1], we analyzed 180
different attack configurations, varying
attacker assumptions and experimental
settings to better understand which factors
actually influence model stealing attacks.
Our results show that some aspects
commonly emphasized in the literature
matter less than often assumed, while
other factors are frequently overlooked.
For instance, we found that better-performing
target models are often easier
to steal. The reason is that learning from
incorrect predictions is more difficult for
a substitute model, and therefore the
attacker benefits when stealing a model
that makes fewer mistakes. In addition,
we showed that the quality of the data
used for stealing plays a central role, whereas
the choice of the substitute model
architecture is comparatively less important.
Taken together, our observations
suggest that focusing on the right factors
can substantially improve model stealing
attacks, and that their effectiveness has
likely been underestimated.
ARE MODEL STEALING ATTACKS
PRACTICAL?
Our recent analysis of prior work [2] has
also highlighted that, despite a growing
body of proposed model stealing attacks,
it remains difficult to assess how
practical these attacks are in real-world
a. Attacker queries the API to obtain labels b. Attacker trains a local substitute model.
Model stealing attack against a classifier predicting the artist based on visual style.All images in this figure are AI-generated; Image: Daryna Oliynyk
24 OCG Journal | 01 • 2026
OCG Förderpreis
settings. Current evaluations are heavily
concentrated on small benchmark tasks
and standard model architectures, while
questions of scalability and realistic
access constraints are rarely addressed.
Many attacks are studied under assumptions
such as generous query budgets,
rich model outputs, or static target models,
which may not hold for deployed
systems. As a result, reported attack performance
often reflects carefully controlled
experimental conditions rather than
realistic usage scenarios, leaving open the
question of how effective model stealing
attacks are in practice.
SHOULD WE CARE ABOUT MO-
DEL STEALING?
The limited evidence on the practical effectiveness
of model stealing raises the
question of whether these attacks deserve
attention. A lack of convincing studies,
however, does not imply that such attacks
are infeasible, but rather that they
have not yet been sufficiently explored
under realistic conditions. Given the growing
value of deployed models, it is therefore
important to study model stealing
in more practical settings while simultaneously
developing and evaluating countermeasures.
Daryna Oliynyk
is a researcher at University
of Vienna and
SBA Research, and
a PhD student at TU
Wien. Her research
focuses on practical aspects of machine
learning security
OCG Preise
HEINZ ZEMANEK PREIS
Der Preis ist nach dem österreichischen Computerpionier Heinz Zemanek benannt und mit 5.000 Euro dotiert. Alle zwei
Jahre werden mit diesem Preis hervorragende Dissertationen auf dem Gebiet der Informatik oder fachverwandter Bereiche
ausgezeichnet.
OCG FÖRDERPREIS | OCG FÖRDERPREIS-FH
Die OCG verleiht zur Förderung der Informatik und Wirtschaftsinformatik jährlich seit 1988 den OCG Förderpreis. Der Preis
solljunge Informatiker*innen unterstützen, indem er herausragende Diplom‐ und Masterarbeiten sichtbar macht und anerkennt,
die sich durch wissenschaftliche Relevanz, Aktualität, Originalität, Methodik und Anwendbarkeit auszeichnen. Der
OCG Förderpreis-FH wird seit 2008 verliehen.
01 • 2026 | OCG Journal
25
Grenzen klassischer Sicherheitssysteme
von Alois Schafferhofer
Zero Trust in IT- und
OT-Umgebungen
Die Bedrohung durch Cyberangriffe hat
in den letzten Jahren deutlich zugenommen.
Allein in Österreich ist die Anzahl
gemeldeter Cybercrime-Fälle innerhalb
weniger Jahre stark gestiegen. Studien
zeigen zudem, dass mehr als die Hälfte
der Unternehmen Cyberangriffe mittlerweile
als existenzbedrohend einschätzt. 1
Besonders kritisch ist diese Entwicklung
für Betreiber von kritischer Infrastruktur:
Angriffe auf Energie-, Industrie- und
Produktionsumgebungen werden gezielter,
komplexer und professioneller.
Parallel dazu wächst der Druck, Operational
Technology (OT) stärker abzusichern.
Viele Unternehmen stehen vor der Herausforderung,
historisch gewachsene
und oft veraltete OT-Systeme mit modernen
IT-Infrastrukturen zu verbinden.
Gerade diese zunehmende IT-/OT-Konvergenz
erweitert die Angriffsfläche erheblich
und bringt klassische Sicherheitskonzepte
an ihre Grenzen.
Traditionelle, perimeterbasierte Sicherheitsansätze
folgen häufig noch dem
Prinzip einer „harten Außenschale und eines
weichen Kerns“ 2 . Dieses Modell setzt
voraus, dass alles innerhalb des Netzwerks
grundsätzlich vertrauenswürdig
ist. In heutigen hybriden Umgebungen
mit Cloud-Diensten, Remote-Zugriffen,
1
Lamprecht, R. (2023). “Cybersecurity in Osterreich”.
In: KPMG, p. 61. Available
from: https://www.kpmg.at/upload/MCM/Publikationen/2023/Cyberstudie%202023_final.pdf
2
Kindervag, J. (2010). “No More Chewy Centers:
Introducing The Zero Trust Model Of Information
Security”, p. 15. Available from:
https://media.paloaltonetworks.com/documents/Forrester-No-More-Chewy-Centers.pdf
mobilen Endgeräten und hochvernetzten
OT-Systemen ist diese Annahme jedoch
kaum noch haltbar. Ein einzelner
kompromittierter Zugang kann ausreichen,
um sich lateral durch das Netzwerk
zu bewegen – mit potenziell gravierenden
Folgen für die Verfügbarkeit und Sicherheit.
NEVER TRUST, ALWAYS VERIFY
Vor diesem Hintergrund gewinnt das
Sicherheitskonzept Zero Trust zunehmend
an Bedeutung. Zero Trust basiert
auf dem Grundsatz „Never trust, always
verify“: Weder Benutzer*innen noch Geräte
oder Systeme werden grundsätzlich
als vertrauenswürdig eingestuft – auch
dann nicht, wenn sie sich innerhalb des
eigenen Netzwerks befinden. Zugriffe
werden kontinuierlich überprüft, kontextabhängig
bewertet und auf das notwendige
Minimum beschränkt.
Während Zero Trust in klassischen IT-Umgebungen
zunehmend diskutiert und
teilweise umgesetzt wird, ist seine Anwendung
in OT-Umgebungen deutlich
weniger erforscht und verstanden. Insbesondere
fehlt es an Erkenntnissen darüber,
wie IT- und OT-Fachleute Zero Trust
wahrnehmen, welche Chancen sie darin
sehen und welche Risiken oder Herausforderungen
sie erwarten. Gleichzeitig ist
unklar, wie sich Zero-Trust-Prinzipien mit
etablierten Sicherheitsstandards oder
regulatorischen Anforderungen in Einklang
bringen lassen.
GRUNDIDEE VON ZERO TRUST
Kern von Zero Trust ist die konsequente
Durchsetzung des Least-Privilege-Prinzips.
Zugriffe auf Ressourcen werden
nicht dauerhaft gewährt, sondern für
jede Sitzung und auf Basis aktueller Kontextinformationen
neu bewertet. Dabei
fließen unter anderem Identität, Gerätezustand,
Zugriffsort und Risiko in die
Entscheidung ein. Authentifizierung und
Autorisierung erfolgen kontinuierlich und
nicht nur einmalig beim Verbindungsaufbau.
Konzeptionell lässt sich Zero Trust in drei
zentrale logische Komponenten gliedern:
• Policy Engine trifft kontextabhängige
Zugriffsentscheidungen auf Basis definierter
Richtlinien.
• Policy Administrator setzt diese Entscheidungen
technisch um.
• Policy Enforcement Point erzwingt
die Zugriffskontrolle an der Ressource
oder im Netzwerk.
Unterstützt werden diese Komponenten
durch umfangreiche Monitoring- und
Logging-Daten, um jederzeit Transparenz
über Nutzer*innen, Geräte und Zugriffe
zu gewährleisten.
In der Praxis existiert keine einheitliche
Referenzarchitektur für Zero Trust.
Stattdessen werden einzelne Prinzipien
schrittweise umgesetzt, beispielsweise
durch stärkere Identitätskontrollen, feinere
Zugriffspolitiken oder Netzwerksegmentierung.
ANWENDBARKEIT VON ZERO
TRUST IN IT- UND OT-UMGE-
BUNG
DDie zugrunde liegende Masterarbeit
untersucht die Anwendbarkeit von Zero
Trust in IT- und OT-Umgebungen anhand
26 OCG Journal | 01 • 2026
OCG Förderpreis-FH
Zero Trust Logical Components - Rose et al., 2020, Rose, Borchert, Mitchell&Connelly (2020). “Zero trust architecture”. In: NIST special publication, p. 9.
DOI: 10.6028/NIST.SP.800-207. Available from: https://doi.org/10.6028/NIST.SP.800-207
eines kombinierten Forschungsansatzes.
Basierend auf einer empirischen Untersuchung
mit Umfrage- und Interviewdaten
wird beleuchtet, wie Zero Trust von
IT- und OT-Expert*innen eingeschätzt
wird, welche spezifischen Anforderungen
sich für OT-Umgebungen ergeben und
warum Verfügbarkeit, Fehlertoleranz und
der Umgang mit Legacy-Systemen dabei
eine zentrale Rolle spielen.
Eine Umfrage in lokalen Industrien analysierte
die Wahrnehmung von Zero Trust
durch IT-Fachleute, den aktuellen Reifegrad
der Umsetzung sowie geplante
Strategien. Ergänzend dazu wurden Expert*innen-Interviews
durchgeführt, um
kritische Erfolgsfaktoren für die Implementierung
von Zero Trust in OT-Umgebungen
zu identifizieren.
Zusätzlich wurden Zero-Trust-Prinzipien
CSF Functions - regarding to NIST, 2024
NIST (2024). “The NIST Cybersecurity Framework
(CSF) 2.0”. In: NIST publication, p. 5. DOI:
10.6028/NIST.CSWP.29. Available from: https://
doi.org/10.6028/NIST.CSWP.29
mit bestehenden Sicherheitsstandards
und regulatorischen Anforderungen verglichen,
darunter ISO/IEC 27002:2022, IEC
62443, das BDEW-Whitepaper sowie die
NIS- bzw. NIS2-Richtlinie.
ZENTRALE ERGEBNISSE UND
ERFOLGSFAKTOREN
Die Ergebnisse basieren auf einer Umfrage
unter 46 IT-Fachkräften aus unterschiedlichen
Industriebereichen sowie
auf ergänzenden Experteninterviews.
Die Auswertung zeigt, dass Zero Trust
überwiegend positiv wahrgenommen
wird. Die überwiegende Mehrheit gab an,
dass Zero Trust die Angriffsfläche eines
Unternehmens gegenüber Cyberangriffe
verringern kann. Einige gaben an, dass
lateral Movement – also die Ausbreitung
eines Angreifers innerhalb eines Netzwerks
nach einer erfolgten Erstinfektion
– erschwert wird.
Gleichzeitig äußerten viele Befragte
Vorbehalte gegenüber der praktischen
Umsetzung. Mehr als 80 Prozent gingen
davon aus, dass Zero Trust mit einer erhöhten
Komplexität der IT-Infrastruktur
und zusätzlichen Kosten verbunden ist.
Zudem besteht Skepsis gegenüber einer
inflationären Nutzung des Begriffs Zero
Trust zu Marketingzwecken.
Ein zentrales Ergebnis ist, dass viele Organisationen
bereits einzelne Elemente einer
Zero-Trust-Architektur implementiert
haben, ohne diese explizit so zu benennen.
Dazu zählen etwa starke Authentifizierungsmechanismen,
rollenbasierte
Zugriffskontrollen, Netzwerksegmentierung
und Verschlüsselung. Der Übergang
zu Zero Trust erfolgt nicht durch einen
vollständigen Neuaufbau, sondern durch
schrittweise Anpassungen und Weiterentwicklungen
bestehender Sicherheitsmaßnahmen.
Im OT-Umfeld zeigen sich besondere
Herausforderungen durch Legacy-Systeme,
hohe Verfügbarkeitsanforderungen
und lange Lebenszyklen. Als kritische
Erfolgsfaktoren für die Anwendung von
Zero-Trust-Prinzipien in einer OT-Umgebungen
wurden identifiziert::
• inkrementelle Umsetzung zur Reduktion
von Komplexität
• starke Unterstützung durch Management
und Führungsebene
• frühzeitige Einbindung relevanter Stakeholder
• klare Kommunikations- und Governance-Strukturen
• kontinuierliches Monitoring und technische
Reife
EINORDNUNG IN BESTEHENDE
STANDARDS
Das abschließende Kapitel der Masterarbeit
befasst sich mit der Einordnung
des Zero-Trust-Ansatzes in bestehende
Sicherheitsstandards und regulatorische
Vorgaben. Analysiert wurden die
NIS2-Richtlinie, die ISO/IEC-27000-Familie,
das BDEW-Whitepaper sowie die
Norm IEC 62443. Diese Regelwerke zählen
zu den zentralen Referenzen im Bereich
der Cybersecurity und sind insbesondere
für die Energiewirtschaft sowie
die industrielle Automation von hoher
Relevanz.
Der Begriff „Zero Trust“ findet sich explizit
nur in der ISO/IEC 27002 sowie in
der europäischen NIS2-Richtlinie. Wäh-
01 • 2026 | OCG Journal
27
rend in der ISO/IEC 27002 grundlegende
Zero-Trust-Prinzipien ausdrücklich benannt
und empfohlen werden, wird Zero
Trust in der NIS2-Richtlinie lediglich als
Maßnahme der Cyberhygiene erwähnt,
ohne eine weitergehende konzeptionelle
Einordnung. In den weiteren durchsuchten
Sicherheitsleitlinien findet der Ansatz
keine explizite Erwähnung. Dies ist
vermutlich darauf zurückzuführen, dass
Zero Trust bislang nicht als etablierte
Best Practice für industrielle Automatisierungssysteme
gilt.
Für einen strukturierten Vergleich wurde
das NIST Cybersecurity Framework
(CSF) herangezogen, dessen Funktionen
Identify, Protect, Detect, Respond, Recover
sowie die übergreifende Funktion
Governance als Vergleichsmaßstab dienen.
Das Ergebnis zeigt, dass zentrale
Zero-Trust-Prinzipien in bestehenden
Standards bereits implizit abgebildet
sind, insbesondere in den Bereichen Authentifizierung,
Zugriffskontrolle und
Verschlüsselung. Der Ansatz erweitert
diese jedoch um kontinuierliche Verifikation,
feingranulare Segmentierung und
eine dynamische Richtliniensteuerung.
Damit stellt Zero Trust weniger einen
Ersatz, sondern vielmehr eine konzeptionelle
Weiterentwicklung bestehender
Sicherheitsframeworks dar.
GERINGERE ANGRIFFSFLÄCHEN
– HÖHERE SICHERHEIT
Zero Trust bietet einen wirkungsvollen
Ansatz zur Erhöhung der Cybersicherheit
in zunehmend vernetzten IT- und
OT-Landschaften. Die Forschung zeigt,
dass das Konzept insbesondere zur Reduktion
von Angriffsflächen beiträgt,
seine Anwendung in OT-Umgebungen
jedoch sorgfältig geplant werden muss,
um Verfügbarkeitsrisiken zu vermeiden.
Zukünftige Forschungsarbeiten könnten
sich auf detaillierte Fallstudien, die
Entwicklung konkreter Zero-Trust-Architekturen
für OT-Umgebungen sowie die
Bewertung von Marktprodukten im Hinblick
auf echte Zero-Trust-Konformität
konzentrieren. Mit fortschreitender Digitalisierung
bleibt Zero Trust ein zentrales
Element moderner Sicherheitsstrategien.
Alois Schafferhofer
ist Information Security
Officer bei einem
Energieversorger in
Österreich und verantwortet
das Information
Security Management System
(ISMS). Sein fachlicher Schwerpunkt
liegt auf IT- und OT-Sicherheit sowie
dem Schutz kritischer Infrastrukturen.
OCG Cybersecurity
IHR WEG ZUR DIGITALEN SICHERHEIT
Entdecken Sie unser Zertifikat zur sicheren Nutzung von IKT - für den Alltag und den professionellen
Bereich!
Mit diesem Zertifikat erwerben Sie praxisnahes Wissen zu Datenschutz, Datensicherheit und dem Schutz
vor digitalen Bedrohungen wie Malware oder Identitätsdiebstahl. Sie lernen, Passwörter, Verschlüsselung,
Netzwerke, Geräte und Online-Kommunikation wirksam abzusichern. So bewegen Sie sich sicher im
Internet und schützen Ihre Daten zuverlässig - privat wie beruflich.
Wenn Sie Interesse für das OCG Cybersecurity Zertifikat für sich oder ihr Unternehmen haben, finden Sie
hier weiter Informationen:
28 OCG Journal | 01 • 2026
Adolf-Adam-Informatikpreis
Visualisierung: Was ein Bytecode-Interpreter tatsächlich tut
von Tobias Herber
Ein Blick in das Innere von
Programmen
Computerprogramme wirken nach außen
oft erstaunlich einfach. Ein Klick
und schon reagiert das System. Doch
hinter dieser scheinbaren Einfachheit
verbergen sich viele kleine Rädchen,
die ineinandergreifen. Während ein Programm
läuft, werden in kürzester Zeit
Millionen einzelner Schritte ausgeführt,
Daten werden verschoben, Zustände
verändert und Entscheidungen getroffen.
Das Problem dabei: All diese Vorgänge
bleiben unsichtbar.
Gerade in der Informatik ist diese Unsichtbarkeit
eine besondere Herausforderung.
Entwickler*innen schreiben Programme
in einer für Menschen verständlichen
Sprache: dem Quellcode. Der Quellcode
alleine reicht für den Computer nicht aus.
Ein Computer versteht Programme auf
einer ganz anderen Ebene.
Was genau zwischen dem geschriebenen
Code und dem tatsächlichen Verhalten
eines Programms passiert, ist das
Thema meiner Masterarbeit, die ich beim
Adolf-Adam-Informatikpreis 2026 präsentieren
durfte und damit den ersten
Preis gewann.
UNSICHTBARE ABLÄUFE MIT
REALEN KONSEQUENZEN
Viele Probleme in der Softwareentwicklung
entstehen nicht durch falsche Ideen,
sondern durch falsche Annahmen
darüber, wie ein Programm tatsächlich
ausgeführt wird. Ein Codefragment sieht
logisch aus, verhält sich aber anders als
erwartet. Der Grund dafür liegt häufig in
den Details der Ausführung, zum Beispiel
der Reihenfolge von Befehlen, dem Umgang
mit Speicher oder in Optimierungen,
die im Quellcode nicht sichtbar sind.
Das mentale Modell von Entwickler*innen
ist oft anders als die Realität im Computer.
Software und Computer sind allgegenwärtig,
unter Umständen kann das
also zu realen Problemen führen. Umso
wichtiger ist das korrekte Verständnis.
WARUM VISUALISIERUNG
HELFEN KANN
Visualisierung ist ein bewährtes Mittel,
um komplexe Sachverhalte verständlicher
zu machen. Sie übersetzt abstrakte
Prozesse in sichtbare Elemente. In der Informatik
wird Visualisierung schon lange
sehr erfolgreich eingesetzt. Etwa bei Algorithmenanimationen,
Speicheranalyse
oder bei grafischen Debuggern.
Besonders hilfreich ist Visualisierung
dann, wenn Prozesse dynamisch, komplex
und abstrakt sind. Genau das ist bei
der Ausführung von Programmen der
Fall. Auch der zeitliche Verlauf kann damit
gut dargestellt werden. Anstatt nur
Anfangszustand und Endergebnis zu betrachten,
erlaubt eine Visualisierung, den
Weg dazwischen zu beobachten und zu
verstehen.
LERNEN DURCH VERSTEHEN
STATT DURCH AUSWENDIG
LERNEN
In der Lehre spielt das eine zentrale Rolle.
Nachhaltiges Lernen entsteht nicht dadurch,
dass man Definitionen auswendig
lernt, sondern dadurch, dass man Zusammenhänge
versteht.
Visualisierungen können hier gezielt unterstützen.
Sie helfen dabei, korrekte
Runtime Environment
Web- Based Interpreter Visualization
1 2
Bytecode Interpreter
2a
3
Code
Visualization
6
Visualization
Manager
7
Visualization
Spec DSL
Compiler
Trace
Collector
Bytecode Trace
& Symbol Info
4
Memory
Visualization
5 8
Stepping
Interpreter
Error
User Interaction
Workflows des webbasierten Bytecode-Visualisierungstools; Grafik: Tobias Herber
01 • 2026 | OCG Journal
29
mentale Modelle aufzubauen und zu
überprüfen. Zusammenhänge werden
nicht nur erkannt, sondern verstan-
den - wenn ich diesen Quellcode schreibe,
dann macht der Computer das, was
ich geschrieben habe.
BYTECODE: DIE UNSICHTBARE
ZWISCHENSCHICHT
Ein besonders gutes Beispiel für diese
Unsichtbarkeit ist der sogenannte Bytecode.
Programme werden oft nicht direkt
in Maschinencode übersetzt, sondern
zunächst in eine Zwischendarstellung.
Dieser Bytecode wird von einer virtuellen
Maschine oder einem Bytecode-Interpreter
ausgeführt. Für viele moderne
Programmiersprachen (z. B.: Java, C#, Python)
ist das ein zentraler Bestandteil der
Laufzeitumgebung.
Obwohl Bytecode eine Schlüsselrolle
spielt, bleibt er für Studierende meist im
Hintergrund. Die Generierung und Ausführung
erfolgt automatisch und ohne
Rückmeldung. Man führt einfach den
Compiler aus und der kümmert sich darum.
Genau hier setzt meine Arbeit an: Ziel
war es, diese verborgene Ebene sichtbar
zu machen und nachvollziehbar darzustellen,
was ein Bytecode-Interpreter tatsächlich
tut.
VOM PROGRAMM ZUR SICHTBA-
REN AUSFÜHRUNG
Im Rahmen meiner Masterarbeit habe
ich ein webbasiertes Visualisierungstool
entwickelt, das die Ausführung von
Bytecode Schritt für Schritt darstellt.
Grundlage dafür ist ein sogenanntes Trace.
Während ein Programm ausgeführt
wird, werden alle relevanten Schritte aufgenommen
und abgespeichert. Diese
Aufnahme kann anschließend interaktiv
erkundet werden.
Das Tool zeigt Quellcode und den zugehörigen
Bytecode nebeneinander an und
hebt jeweils hervor, welcher Schritt gerade
ausgeführt wird. Besonders wichtig
ist die Visualisierung des Speichers. Veränderungen
an Variablen, Objekten oder
Datenstrukturen werden animiert dargestellt.
Dadurch wird sichtbar, wie sich der
Zustand des Programms im Laufe der
Ausführung entwickelt. Jedes Mal, wenn
man von einer Instruktion zur nächsten
springt, verändert sich etwas.
Ein weiterer zentraler Aspekt ist die Interaktivität.
Man kann nicht nur die Ausführung
anhalten, sondern auch nach Belieben
vor- und zurückspringen oder gezielt
zu bestimmten Stellen navigieren. Vor
allem in der Lehre ist dies nützlich, weil so
jede*r im eigenen Tempo das Programm
bei der Arbeit beobachten kann.
EINSATZ IN DER LEHRE AN DER
JKU
Das Visualisierungstool wird inzwischen
in der Lehrveranstaltung Compilerbau an
der Johannes Kepler Universität eingesetzt.
Dort unterstützt es sowohl Lehrende
als auch Studierende. In Vorlesungen
und Übungen können komplexe Abläufe
live demonstriert werden, während Studierende
das Tool nutzen können, um
ihre selbstgebauten Compiler zu analysieren.
SICHTBARKEIT FÜHRT ZU
BESSEREM VERSTÄNDNIS
Viele zentrale Konzepte der Informatik
sind unsichtbar. Genau darin liegt ihre
Schwierigkeit, aber auch ihr Potenzial. Visualisierung
kann helfen, diese verborgenen
Abläufe zugänglich zu machen und
ein tieferes Verständnis zu ermöglichen.
Meine Arbeit zeigt, dass es möglich ist,
selbst komplexe systemnahe Prozesse
verständlich darzustellen, ohne sie zu vereinfachen.
Gerade in der Lehre eröffnet
das neue Wege, Informatik nicht nur zu
erklären, sondern erfahrbar zu machen.
Wer sieht, was im Inneren eines Programms
passiert, versteht nicht nur den
Link zur Masterarbeit:
Das zugehörige Paper wurde bei der IEEE
VISSOFT 2025 in Neuseeland veröffentlicht:
Tobias Herber
ist Absolvent der JKU
am Institut für Systemsoftware.
Seine
fachlichen Interessen
liegen im Bereich
Compilerbau und verteilte Systeme.
Aktuell arbeitet er beim Artificial Intelligence
Startup Metorial, wo er sich
auf verteilte Systeme spezialisiert hat.
30 OCG Journal | 01 • 2026
Adolf-Adam-Informatikpreis
Auf Spurensuche in verteilten Systemen
von Lukas Freiseisen
Was macht mein Code?
Die Größe und Komplexität von Software-Systemen
nimmt aufgrund immer
anspruchsvollerer Anforderungen stetig
zu. Häufig wird in diesem Zusammenhang
von „Systemen von Systemen“ gesprochen,
die sich als Netzwerk mit zahlreichen
Knoten darstellen lassen und
über diverse Schnittstellen und Netzwerke
kommunizieren. Diese verteilten
Systeme werden in der Regel von verschiedenen
Organisationen entwickelt
und bilden das Rückgrat des Internets,
der industriellen Produktion, der Logistik
und vieler anderer Bereiche (Internet
of Things).
Eine der anspruchsvollsten Herausforderungen
bei großen verteilten Systemen
ist die Transparenz ihrer inneren Abläufe.
Wer schon einmal programmiert hat, der
weiß, dass selbst bei kleinen Softwareanwendungen
das Systemverhalten oft
schwer zu verstehen ist. Bei verteilten
Software-Systemen treten viele Probleme
aufgrund ihrer Größe und Struktur
erst zur Laufzeit auf und lassen sich nur
schwer oder gar nicht in Testumgebungen
reproduzieren.
Im Software-Tracing werden Systeme
daher angepasst, um Telemetriedaten
zu generieren. Diese Daten werden anschließend
mithilfe von Process-Mining
analysiert, um die Systemeigenschaften
zu überwachen und bei Bedarf detaillierte
Einblicke zu erhalten.
In meiner Masterarbeit habe ich mit
OpenTelemetry (https://opentelemetry.io)
gearbeitet, einem Open-Source-Framework,
das einen allgemeinen Standard für
Tracing-Daten definiert und in der Praxis
zunehmend an Bedeutung gewinnt.
Software-Monitoring die Echtzeitüberwachung
auf Basis der gesammelten
Daten übernimmt. Es gibt verschiedene
Verfahren, um bei einem System zur
Laufzeit Daten über sein Verhalten zu
erfassen. Diese reichen von einfachen
Logeinträgen bis hin zur Sammlung und
Meldung wichtiger Ereignisse an einen
oder mehrere Server. Diese Meldungen
werden dann in Traces gebündelt, die
zeigen, welche Systemkomponenten an
welchen Abläufen beteiligt waren.
PROCESS-MINING
Beim Software-Tracing werden innerhalb
kürzester Zeit oft tausende Datensätze
erfasst, die aufgrund ihrer Menge und
Struktur für Menschen nur schwer zu interpretieren
sind. Darüber hinaus gibt es
verschiedene Anwendungsbereiche: Das
Wartungspersonal eines Manufacturing
Execution Systems (MES) interessiert sich
beispielsweise für Systemausfälle und die
Einhaltung von Zeitvorgaben. Führungskräfte
hingegen fokussieren sich auf
Umsatzsteigerungen und Produktivitätsgewinne
durch das System. Bei einem
Webshop steht beispielsweise das Nutzerverhalten
während des Kaufprozesses
im Mittelpunkt.
Im Process-Mining werden komplexe
Tracing-Daten verarbeitet, um einfach
verständliche Prozessmodelle zu erzeugen,
die das Systemverhalten abbilden.
Es existieren verschiedene Prozessmodellierungssprachen
(Petri-Netze, BPMN
etc.). Ich habe für meine Masterarbeit
das Prozessmodell PROB DECLARE gewählt,
mit dem durch Anwendung von
endlicher linearer temporaler Logik die
zeitlichen Abhängigkeiten von Aktivitäten
innerhalb eines Systems dargestellt
werden können. Man kann sich ein Trace
als eine Baumstruktur vorstellen, bei der
jeder Knoten einer Aktivität des Systems
entspricht. Mittels endlicher linearer temporaler
Logik kann dann etwa festgestellt
werden, ob eine Aussage über die zeitliche
Abhängigkeit von logischen Termen
zutrifft.
PROB DECLARE identifiziert Constraints,
die zeitliche Abhängigkeiten zwischen
Aktivitäten in einem Trace darstellen und
bestimmt gleichzeitig die Wahrscheinlichkeit
ihres Auftretens. Dieses Prozessmodell
zeichnet sich dadurch aus, dass
es verschiedene Systeme gut abbilden
kann, ohne das Domänenwissen der Entwickler*innen
erforderlich ist. Personen
mit entsprechendem Wissen können jedoch
aus dem Modell selbst viele Er
SOFTWARE-TRACING
Software-Tracing dient dazu, Systeme
nachvollziehbarer zu gestalten, während
Abbildung 1: Abstraktes Trace and äquivalentes PROB DECLARE Modell; Grafik: Lukas Freiseisen
01 • 2026 | OCG Journal
31
kenntnisse gewinnen. Abbildung 1 zeigt
ein abstraktes Trace und ein äquivalentes
PROB DECLARE Modell. Die Auftrittswahrscheinlichkeit
jedes Constraints beträgt
hier 100 % und ist deswegen nicht
explizit angeführt.
NUTZEN
Nach einer von System zu System unterschiedlichen
„Aufwärmphase“ ergibt sich
eine Verteilung der Auftrittswahrscheinlichkeit
der ermittelten Constraints. Diese
Verteilung dient als Grundlage für die
Vorhersage des erwarteten Verhaltens im
Normalbetrieb. Während der Echtzeitüberwachung
können unerwartete Veränderungen
dieser Verteilung auf Anomalien
des Systemverhaltens hinweisen.
Stellen Sie sich ein Modell vor, das einen
Webshop abbildet, bei dem die Wahrscheinlichkeit
von Constraints im Zusammenhang
mit Produktkäufen plötzlich
steigt. Eine mögliche Ursache könnte
ein laufender Black Friday Sale sein. In
diesem Fall wurden im Vorfeld entsprechende
Berechnungen angestellt und
die Erwartungen können mit der Realität
verglichen werden. Eine andere Ursache
könnte aber sein, dass Scalper ein neues
Produkt aufkaufen, um es später zu einem
höheren Preis auf anderen Plattformen
weiterzuverkaufen. In diesem Szenario
ist es für den Webshop-Betreiber
unerlässlich, schnell zu handeln. Durch
rechtzeitiges Erkennen können die betroffenen
Verkäufe storniert und die
Scalper identifiziert werden. Bei benutzerorientierten
Systemen wie dem beschriebenen
Webshop lässt sich das Nutzerverhalten
analysieren. Dies ermöglicht
es, Fragen zur Dauer der Katalogsuche
oder zum tatsächlichen Kaufverhalten
zu beantworten. Darüber hinaus können
Fehler und Redundanzen in wichtigen
Systemabläufen identifiziert werden. Vor
Software-Updates können etwa Modelle
in einer Testumgebung vorberechnet
und nach dem Deployment mit dem tatsächlichen
Verhalten verglichen werden.
Im praktischen Teil meiner Masterarbeit
habe ich ein echtzeitfähiges System (Abbildung
2) entworfen und implementiert,
das als Open-Source-Projekt (MIT Lizenz)
frei zur Verfügung steht.
Abbildung 2: System-Architektur; Grafik: Lukas Freiseisen
Zum Projekt
Zur Masterarbeit
Lukas Freiseisen
ist wissenschaftlicher
Mitarbeiter am
Institute of Software
Systems Engineering
an der Johannes Kepler
Universität Linz. Dort erforscht er
im Rahmen eines Doktoratsstudiums
Möglichkeiten zur automatischen
Code-Generierung für die Tracing-Instrumentierung..
32 OCG Journal | 01 • 2026
Adolf-Adam-Informatikpreis
Software anpassen ohne Quellcode
von Alexander Voglsperger
Maschinencode zur Laufzeit
verändern
Es ist ein Szenario, das wohl die meisten
kennen: Man spielt den Klassiker Snake.
Die Schlange wird länger und länger,
das Spiel von Frucht zu Frucht schwieriger
– und unvermeidlich folgt der Zusammenstoß
mit der Wand oder sich
selbst. Game Over. In diesem Moment
der Frustration keimt vielleicht der Gedanke
auf: Was wäre, wenn ich die Spielregeln
ändern könnte?
Was, wenn ich die Kollisionsabfragen einfach
deaktivieren könnte, um unsterblich
zu werden? Oder wenn das Einsammeln
einer Frucht nicht nur einen Punkt, sondern
gleich zehnt bringt? Was in der
Gaming-Szene als „Cheaten“ oder „Modding“
bekannt ist, beschreibt in der Informatik
eine der mächtigsten Techniken
Maschinencode-Instrumentierung.
der Systemprogrammierung: die Dynamische
Genau dieses „Hacken an der Basis“ war
der Kern meiner Präsentation für den
Adolf-Adam-Preis und das Thema „A
Generic Machine Code Instrumentation
Library“¹.
WENN DER QUELLCODE FEHLT
Hätten wir den Quellcode des Spiels vor
uns – etwa in einer lesbaren Sprache wie
Python oder Java – wäre die Änderung
trivial: return score + 1 wird zu return score
+ 10. Doch in der Realität, und besonders
bei performanter Software, liegt uns
meist kein Quellcode vor. Stattdessen blicken
wir auf kompilierten Binärcode.
Für den Computer sind das verständliche
1
https://epub.jku.at/obvulihs/content/titleinfo/12074964
Instruktionen aus Nullen und Einsen. Für
den Menschen eine „Black Box“ ohne verständliche
Logik. Um hier einzugreifen,
müssen wir zur Laufzeit, also während
das Spiel bereits läuft, das Gehirn des Programms
operieren, ohne den Patienten
zu töten.
DIE LUPE ANSETZEN
Um den Binärcode verständlich und manipulierbar
zu machen, benötigen wir
eine Art Lupe: einen Disassembler. Das
in der Arbeit verwendete Capstone Framework²
ermöglicht den Zahlenstrom
zurück in lesbare Assembler-Instruktionen
zu übersetzen. Erst dann kann man
die Stellen identifizieren, an denen man
ansetzen muss.
Das Ziel der Arbeit war die Entwicklung
einer generischen C++ Bibliothek, die
diesen komplexen Prozess zugänglicher
macht. Anstatt mühsam einzelne Bytes
zu modifizieren, bietet die Bibliothek eine
Schnittstelle, um sich in beliebige Funktionen
einzuklinken und zusätzlichen
Code (sogenannte „Hooks“) auszuführen.
Doch der Teufel steckt im Detail, oder
besser gesagt in der Architektur.
DAS TRAMPOLIN-PRINZIP
Wie leitet man eine laufende Funktion zu
eigenem Code um? Der Grundgedanke
ist relativ einfach, man fügt am Anfang
einen Sprungbefehl ein. Dieser Sprung
leitet den Programmfluss aus der eigentlichen
Funktion in ein sogenanntes
„Trampolin“ um.
Man kann sich dieses Trampolin wie eine
2
https://www.capstone-engine.org/
künstliche Umleitung auf einer Autobahn
vorstellen. Der Programmfluss wird
von seiner ursprünglichen Route abgeleitet
und auf einen separaten Bereich,
das Trampolin, geführt. Dort passiert ein
kontrollierter Boxenstopp, bei dem der
aktuelle Zustand des Prozessors (alle Register)
gesichert werden, damit nichts
durcheinandergebracht wird. Danach
wird der eigentliche Zusatzcode ausgeführt.
Anschließend wird der originale Zustand
wiederhergestellt und jene Befehle
nachgeholt, welche durch die Errichtung
der Umleitung – also des Sprungs – überschrieben
werden mussten. Letztendlich
leitet das Trampolin den Verkehr nahtlos
wieder zurück auf die Hauptstrecke, als
wäre nichts gewesen.
DER KAMPF MIT DEN BYTES
Was in der Theorie elegant klingt, gleicht
auf der x86-Architektur einem Minenfeld.
Im Gegensatz zu modernen RISC-Architekturen
haben Befehle hier eine unterschiedliche
Länge (1 bis 15 Bytes). Wenn
man für einen Sprung zum Trampolin 12
Bytes Platz benötigt, so darf man nicht
versehentlich mitten in einen anderen
Befehl schreiben. Die Bibliothek muss
also genau analysieren, wie viele verschoben
werden müssen, um einen sauberen
Platz zu schaffen.
Noch komplexer wird es, wenn relative
Adressierungen im Maschinencode aufkommen.
Denn viele Instruktionen sagen
im Grunde: „Lies den Wert, der 50 Bytes
hinter mir steht“. Verschiebt man so einen
Befehl in ein Trampolin, so zeigt dieser ins
Leere. Die Bibliothek erkennt automatisch
solche relativen Befehle und muss
01 • 2026 | OCG Journal
33
Modifizerter_Programmablauf_für_eine_Funktion_foo_C_Alexander_Voglsperger.
diese „reparieren“, indem sie diese in eine
absolute Adressierung umschreibt. Für
die Generierung dieses neuen Maschinencodes
kommt AsmJit³ zum Einsatz.
VON SNAKE ZU DYNATRACE
Warum betreiben wir diesen immensen
Aufwand? Natürlich nicht nur, um bei
Spielen wie Snake zu schummeln. Die
gleichen Techniken, die einen Highscore
manipulieren können, werden in der Industrie
für essenzielle Aufgaben eingesetzt:
Sicherheitsanalysen, Hot-Patching
von Fehlern oder Application Performance
Monitoring.Für Unternehmen
wie Dynatrace⁴, in deren Umfeld diese
3.https://asmjit.com/
4.https://www.dynatrace.com/
Arbeit entstand, ist diese Technik lebenswichtig.
Sie ermöglicht es, tiefgreifende
Leistungsdaten aus Kundenanwendungen
zu sammeln (z. B. „Wie lange dauert
dieser Datenbankzugriff?“), ohne dass
der Kunde seinen Code ändern oder neu
kompilieren muss. Die entwickelte Bibliothek
liefert hierfür eine moderne, wartbare
Basis.
Der 3. Platz beim Adolf-Adam-Informatikpreis
ist für mich eine große Ehre. Er zeigt,
dass tiefe Systemprogrammierung nicht
trocken sein muss – und dass der Weg
vom „Cheater“ zum Software-Ingenieur
oft nur ein paar Bytes entfernt liegt.
Alexander
Vogelsperger
ist Absolvent der
JKU am Institut für
Systemsoftware. Das
Thema der Laufzeit-Manipulation
begleitet ihn auch
beruflich weiter: Aktuell arbeitet er bei
Dynatrace an der Instrumentierung
von Node.js-Applikationen für den
OneAgent.
Adolf-Adam-Informatikpreis
Der Adolf-Adam-Informatikpreis wird seit 2011 für hervorragende Masterarbeiten am Fachbereich Informatik der Johannes Kepler
Universität Linz verliehen. Ziel des Preises ist es, die Leistungen der Linzer Informatik-AbsolventInnen einer breiten Öffentlichkeit
vorzustellen und im Rahmen einer Veranstaltung durch Schüler*innen aus Oberösterreich prämieren zu lassen.
Der Preis ist benannt nach Adolf Adam, einem österreichischen Statistiker und Informatiker, der wesentlich zur Etablierung der
Informatik als Studienrichtung in Linz beigetragen hat.
34 OCG Journal | 01 • 2026
Projekt: Sicher im Digitalen
Ein Projekt zur digitalen Sicherheit von Jugendlichen
von Corinna Hörmann und Eva Schmidthaler
Sicher im Digitalen: Starke
Mädchen. Starke Zukunft.
Mit der Initiative „Sicher im Digitalen:
Starke Mädchen. Starke Zukunft.“ wurde
ein Bildungs- und Forschungsprojekt
zur digitalen Sicherheit von Jugendlichen
im COOL Lab der Johannes Kepler
Universität umgesetzt. Ziel war es, Schülerinnen
im Alter von 11 bis 18 Jahren für
Risiken wie manipulierte, KI-generierte
Bilder, Videos und Sprachaufnahmen zu
sensibilisieren und ihnen Wissen sowie
Handlungskompetenzen zum Schutz
im digitalen Raum zu vermitteln. Das
Projekt wurde durch das Bundesministerium
für Frauen, Wissenschaft und
Forschung (BMFWF) gefördert und setzte
auf eine Kombination aus Workshops,
Online-Angeboten und umfangreichen
Unterrichtsmaterialien.
Der Projekttitel legt einen besonderen
Fokus auf die Stärkung von Mädchen, da
sie im Bereich digitaler Gewalt, Bildmanipulation
und Online-Belästigung nach
wie vor überproportional betroffen sind.
Gleichzeitig wurden die Projektangebote
bewusst geschlechterinklusiv umgesetzt
und richteten sich an alle Jugendlichen.
Ziel war es, Sicherheit und Resilienz insgesamt
zu stärken und unterschiedliche
Perspektiven im Umgang mit digitalen
Risiken mitzudenken.
WORKSHOPS FÜR SCHÜLER*IN-
NEN DER 9. UND 10. SCHUL-
STUFE
Im Zentrum des Projekts standen zwei
jeweils 2,5-stündige Workshops für Schüler*innen
der 9. und 10. Schulstufe. Der
Workshop „Mit KI und Köpfchen“ thematisierte
den Umgang mit Fake News
sowie KI-generierten Inhalten und setzte
sich mit Fragen der Glaubwürdigkeit
und Quellenbewertung auseinander. Im
Workshop „Meine Rechte im Internet“
standen Cyberkriminalität und Cybermobbing
im Fokus, ergänzt um rechtliche
Grundlagen und Handlungsmöglichkeiten
für Betroffene. Beide Workshops
wurden insgesamt nahezu 40-mal mit
unterschiedlichen Schulklassen durchgeführt.
Damit konnten über 750 Schüler*innen
direkt erreicht werden.
FORTBILDUNG VON MULTIPLI-
KATOR*INNEN
Neben der Arbeit mit Schüler*innen war
es ein zentrales Anliegen des Projekts,
auch Schülerinnnen und Lehrpersonal
als Multiplikator*innen gezielt weiterzubilden.
Zu diesem Zweck wurden mehrere
Fortbildungsformate entwickelt und
umgesetzt. Insgesamt fanden zehn Lehrer*innen-Fortbildungen
statt, in denen
256 (angehende) Lehrpersonen geschult
wurden. Ergänzend dazu wurden Einzel-
und Gruppen-Coachings für Lehrpersonen
angeboten und ein Selbstlernkurs
auf Moodle entwickelt.
PEER-LEARNING DURCH DAS
„DIGITAL HEROES“-PROGRAMM
Ein weiterer Projektbestandteil war die
Umsetzung von Peer-Learning-Ansätzen,
insbesondere durch das „Digital
Heroes“-Mentoring-Programm. In zwei
Durchgängen nahmen insgesamt über
40 Schüler*innen teil. Die Teilnehmenden
entwickelten eigenständig Unterrichtseinheiten
zu digitalen Sicherheitsthemen
und setzten diese anschließend
in ihren eigenen Klassen um. Ziel war es,
Inhalte auf Augenhöhe zu vermitteln und
Mitschüler*innen aktiv in Lernprozesse
einzubeziehen.
NACHHALTIGE MATERIALIEN
FÜR DEN UNTERRICHT
Auch über die Projektlaufzeit hinaus
sollen die erarbeiteten Inhalte nutzbar
bleiben. Zu diesem Zweck wurden Unterrichtsmaterialien
(Self Study Course
und Booklet) entwickelt, die von Lehrpersonen
eigenständig eingesetzt werden
können. Die Materialien sind bewusst fächerübergreifend
angelegt und eignen
sich neben der Informatik unter anderem
auch für Digitale Grundbildung, Politische
Bildung, Soziales Lernen oder Ethik.
Ergänzend dazu wurden Micro-Learning-Einheiten
in Form von Fact-Sheets
veröffentlicht. Diese bieten kompakte
Einstiege in einzelne Themen, eignen
sich zur Vorbereitung von Unterrichtseinheiten
in der Sekundarstufe oder als ergänzendes
Material für zu Hause.
AUSBLICK: NEUE PROJEKTE IN
VORBEREITUNG
„Sicher im Digitalen: Starke Mädchen.
Starke Zukunft.“ konnte zeigen, wie wir-
01 • 2026 | OCG Journal
35
kungsvoll die Kombination aus Workshops,
Fortbildung und Peer-Learning im
Bereich digitaler Bildung sein kann. Die
entwickelten Materialien und Konzepte
bilden eine tragfähige Grundlage für zukünftige
Bildungsangebote und Projekte.
Aktuell befinden sich drei weitere Projekte
in Vorbereitung im JKU COOL Lab.
Besonders hervorzuheben ist das Projekt
„Decoded“, das sich mit Social-Media-Algorithmen
und deren Einfluss auf das
Selbstbild von Jugendlichen auseinandersetzt.
Fact-Sheets:
Unterrichtspakete
Grafik: JKU COOL Lab
Selbstlernkurs für Lehrende:
Corinna Hörmann
ist Assistenzprofessorin
für Informatikdidaktik
an der
Universität Salzburg.
Sie beschäftigt sich
mit der Vermittlung informatischen
Denkens und der Gestaltung wirksamer
Informatiklehre.
Eva Schmidthaler
leitet das JKU COOL
Lab der School of
Education an der
Johannes Kepler
Universität Linz. Ihre
Forschungsschwerpunkte liegen in
der digitalen Bildung, den Naturwissenschaften
sowie im Einsatz
von Bildungstechnologien von der
Primar- bis zur Sekundarstufe in MINT.
36 OCG Journal | 01 • 2026
Informatikdidaktik
Ein persönlicher Blick auf Lehre, Lernen und Informatik
von Corinna Hörmann
Was Informatikdidaktik
nicht ist
Wussten Sie, dass man mit einer Karotte
Programmieren genauso gut unterrichten
kann wie mit einer Banane? In
meinen frühen Workshops baute ich
mit Schüler*innen gerne das bekannte
MakeyMakey-Bananenklavier. Makey-
Makey ist ein kleiner Controller, der über
Krokodilklemmen mit leitfähigen Materialien
verbunden wird. Dass die Bananen
in meinem Rucksack nicht lange
überleben würden, hätte ich mir denken
können.
So wurde der Workshop weiterentwickelt
und ich kam zu dem Entschluss, dass Karotten
dem Zweck genauso gut dienten
und dabei wesentlich robuster waren. Ein
großer Pluspunkt der „verbrauchten“ Karotten
zeigte sich anschließend ebenfalls:
Die Hühner meiner Schwiegermutter
hatten noch große Freude an dem durch
viele Kinderhände gegangenen Gemüse!
Didaktisch relevant war aber nicht, was
angeschlossen wurde, sondern was Lernende
dabei verstanden. Die Auseinandersetzung
mit Schaltkreisen, Eingaben
und Programmabläufen blieb gleich –
egal, ob Banane oder Karotte verwendet
wurde.
INFORMATIKDIDAKTIK IST NICHT
DAS VERWALTEN VON SOFT-
WARE
„In der Schule macht man eh nur Word,
Excel und PowerPoint. Was muss man
dabei schon können?“ Diese Aussage
höre ich oft genug. Nein, ich forsche nicht
daran, ob Schüler*innen fünf verschiedene
Überschriften formatieren können. Ob
Lernende mit einer bestimmten Umgebung,
einer Lernplattform oder einem KI-
Tool arbeiten, ist selten der entscheidende
Faktor. Entscheidend ist, was sie dabei
verstehen – und was nicht.
Gute Informatikdidaktik zeigt sich oft
gerade dort, wo die Technik in den Hintergrund
tritt und Denkprozesse sichtbar
werden.
INFORMATIKDIDAKTIK IST NICHT
PROGRAMMIERSPRACHEN-
FETISCH
Ob mit Java, Python oder einer ganz anderen
Sprache gearbeitet wird, ist selten
die entscheidende didaktische Frage.
Programmiersprachen kommen
und gehen, informatische
Denkweisen bleiben.
Informatikdidaktik interessiert sich daher
weniger für Syntax als für Konzepte – unabhängig
davon, in welcher Sprache diese
umgesetzt werden.
Bananenklavier; Foto: JKU COOL Lab
Workshop, Foto: Corinna Hörmann
01 • 2026 | OCG Journal
37
INFORMATIKDIDAKTIK IST NICHT
VEREINFACHUNG
Informatikdidaktik bedeutet nicht, Inhalte
„leichter“ zu machen oder Komplexität
zu vermeiden. Informatik lebt von Abstraktion,
Modellen und präzisem Denken.
Meine didaktische Arbeit besteht daher
nicht darin, schwierige Inhalte zu umgehen,
sondern darin, Lernende dabei zu
unterstützen, mit dieser Komplexität umzugehen.
WAS IST ALSO INFORMATIK-
DIDAKTIK?
Für mich ist sie die systematische Auseinandersetzung
mit der Frage, wie
informatisches Denken überhaupt entsteht:
Wie lernen Menschen, Probleme
zu strukturieren? Wie bauen sie mentale
Modelle von Algorithmen, Daten oder
Systemen auf? Und warum scheitern
manche Lernprozesse trotz guter Inhalte
und engagierter Lehrender?
Mit meiner Assistenzprofessur für Informatikdidaktik
an der Universität Salzburg
beschäftige ich mich genau mit diesen
Fragen - an der Schnittstelle zwischen Informatik,
Bildung und Praxis. Dabei geht
es nicht nur um Schule oder Hochschule,
sondern um Informatikbildung entlang
der gesamten Ausbildungskette.
Gute Informatikdidaktik fällt oft erst dann
auf, wenn sie fehlt: Wenn Menschen mit
Hilfe von künstlicher Intelligenz Code erzeugen
können, aber nicht erklären können,
warum er funktioniert. Oder wenn
neue Technologien eingeführt werden,
ohne dass sich das Verständnis vertieft.
Genau hier setzt meine Arbeit an – auch
wenn es manchmal nur darum geht, eine
Karotte statt einer Banane zu wählen.
Corinna Hörmann
ist Assistenzprofessorin
für Informatikdidaktik
an der
Universität Salzburg.
Sie beschäftigt sich
mit der Vermittlung informatischen
Denkens und der Gestaltung wirksamer
Informatiklehre.
Workshop; Foto: Kinderuni OÖ
Workshop; Foto: Corinna Hörmann
38 OCG Journal | 01 • 2026
Intern
Veranstaltungen
All Digital Weeks
Enhance your digital skills
09. - 25. März 2026, online
Public Lecture Series
AI in Science and Engeneering
16. - 24. März 2026, Wien und online
CreenComp in der Praxis
ComeThinkAgain Fortbildungg
07. April - 19. Mai 2026, Graz und online
RiE 2026
International Conference on Robotics in Education
15. - 17. April 2026, Wolfenbüttel, Deutschland
dHealth 2026
Health Informatics meets Digital Health
12. Mai 2026, Wien
EGOI 2026
European Girls´Olympiad in Informatics
12. - 18. Mai 2026, Cesenatico, Italien
ACSD 2026
Austrian Computer Science Day
01. Juni 2026, Wien
ICCHP 2026
20th International Conference on Computers Helping
People with Special Needs
15. - 17. Juli 2026, Brno, Tschechien
IOI 2026
International Olympiad in Informatics
09. - 16. August 2026, Tashkent, Uzbekistan
15th DACH+ Conference on Energy Informatics
Energy Informatics Conference
21. - 23. September 2026, Linz
OCG Impulse Linz
13. Oktober 2026, Linz
OCG Impulse Graz
22. Oktober 2026, Graz
OCG Impulse Wien
12. November 2026, Wien
Schriftenreihe
BürokratieabBAU. Modellregionen als innovative &
nachhaltige Lösung
Hg. von Laura Gabriele, Markus Jakob, Robert Müller-Török,
Christoph Schuhknecht, Jürgen Wunderlich
Band 347,
ISBN 978-3-903035-36-2
IMPRESSUM
Das OCG Journal ist die Mitgliederzeitschrift der Österreichischen Computer
Gesellschaft (OCG). Inhaltlich wird das Journal in völliger Unabhängigkeit gestaltet
und berichtet über die OCG Leitthemen Ausbildung und Qualität, Innovation und
Start-ups, internationale Vernetzung und digitale Zivilgesellschaft.
ISSN 1728-743X
Medieninhaber und Herausgeber:
Österreichische Computer Gesellschaft (OCG)
Präsident: DI Wilfried Seyruck
Generalsekretär und Leitung der Redaktion: Dr. Ronald Bieber
Redaktion: Irina Scheitz, Katharina Resch-Schobel, Josefine Hiebler
Layout und DTP: OCG | Josefine Hiebler
Lektorat: Katharina Resch-Schobel
Fotos: Archiv OCG, Autor*innen, Privatarchive, istock
Kontakt: info@ocg.at | URL: www.ocg.at
Alle: Wollzeile 1, 1010 Wien | Tel.: +43 1 512 02 35-0
Druck: Print Alliance HAV Produktions GmbH, 2540 Bad Vöslau
https://printalliance.at/fairprint
OCG
CERTIFICATION
ISO/IEC 27001
IT-Sicherheit zertifizieren
ISO/IEC 27001
Wir zertifizieren Ihre Informationssicherheit
nach ISO/IEC 27001 und bieten als
Qualifizierte Stelle auch Prüfungen nach
dem NISG an.
Informationen:
Österreichische Computer Gesellschaft • 1010 Wien • Wollzeile 1
istock