OCG Journal 01 2025: IT-Nachwuchs in Österreich 2025
Das 1. OCG Journal des Jahres präsentiert wieder spannende Nachwuchs-Forscher*innen im Bereich der Informatik aus Österreich. IT Security-Themen, KI, Digitalisierung der Bauindustrie, Cloud-Computing und ethische Fragestellungen sind u.a. Themenschwerpunkte in den Arbeiten der jungen Wissenschaftler*innen.
Das 1. OCG Journal des Jahres präsentiert wieder spannende Nachwuchs-Forscher*innen im Bereich der Informatik aus Österreich. IT Security-Themen, KI, Digitalisierung der Bauindustrie, Cloud-Computing und ethische Fragestellungen sind u.a. Themenschwerpunkte in den Arbeiten der jungen Wissenschaftler*innen.
Verwandeln Sie Ihre PDFs in ePaper und steigern Sie Ihre Umsätze!
Nutzen Sie SEO-optimierte ePaper, starke Backlinks und multimediale Inhalte, um Ihre Produkte professionell zu präsentieren und Ihre Reichweite signifikant zu maximieren.
OCG Journal Ausgabe 01 • 2025: | Coverbild: Autor*innen P.b.b. Verlagspostamt 1010 Wien I 02Z031460M
IT-Nachwuchs in
Österreich 2025
Ausgabe 01 • 2025 | Jg. 50 | EUR 5,00
Jetzt OCG Mitglied werden!
Nutzen Sie unser Netzwerk und profitieren Sie zusätzlich von
den exklusiven Angeboten für Mitglieder der Österreichischen
Computer Gesellschaft:
• Mitbestimmen
• Weiterbilden
• Publizieren
• Dissemination von Ihren Veranstaltungen
• Top-Räumlichkeit in der Wollzeile 1 im ersten. Bezirk (Wien)
• Ermäßigungen
FÜR STUDIERENDE BIS ZUM VOLLENDETEN 26. LEBENSJAHR GRATIS!
Mehr Informationen: ocg.at/ocg-mitgliedschaft
Editorial
Sehr geehrtes OCG-Mitglied,
liebe Leserin, lieber Leser!
Heuer ist ein besonderes Jahr für die Österreichische
Computer Gesellschaft. Wir feiern
das 50-jährige Bestehen unseres gemeinnützigen
Vereins. Auch heute sind die Vereinsziele
so aktuell wie eh und je: den Nutzen
von Information und Kommunikation
für alle zugänglich zu machen und dadurch
zu einer positiven Entwicklung der Gesellschaft
beizutragen. Als unabhängige und
gemeinnützige Organisation liefert die OCG
wichtige Impulse für Bildung, Forschung
und Entwicklung und stärkt dadurch die Innovationskraft
Österreichs.
Zum 50-jährigen Jubiläum blickt die OCG
nicht nur stolz auf ihre Geschichte zurück,
sondern auch mit Optimismus in die Zukunft.
Die vorliegende Ausgabe des OCG
Journals zeigt, dass wir in Österreich ausgezeichnete
Forscher*innen und Forschungseinrichtungen
haben. So bietet die OCG
der IT-Nachwuchsforschung in Österreich
eine Plattform, um ihre Forschungstätigkeit
vorzustellen und sich zu vernetzen. Bei
der jährlich stattfindenden IKT-Sicherheitskonferenz
des BM für Landesverteidigung
organisiert der OCG Arbeitskreis IT Sicherheit
den Young Researchers’ Day, wo ausgewählten
Jung-Forscher*innen die Möglichkeit
gegeben wird, auf der Hauptbühne
ihre Arbeiten zu präsentieren. Auch die OCG
Preise für ausgezeichnete akademische Abschlussarbeiten
fördern junge wissenschaftliche
Talente und stellen einen wichtigen
Karriereschritt dar, der erhöhte Sichtbarkeit
verspricht.
Anlässlich des OCG Festjahres veranstaltet
die OCG Reihe an Veranstaltungen, die
mit dem Jahresopening am 20. Jänner
zum wichtigen Thema Cybersicherheit in
Europa und NIS2 begonnen hat, gefolgt
vom Mailüfterl Open House am 4. März,
dem Geburtstag der OCG und schließlich
dem großen Festakt am 21. Mai im Kuppelsaal
der TU Wien.
Ich lade Sie alle ein, sich an den Feierlichkeiten
zu beteiligen und ich freue mich schon
darauf, Sie bei unseren Veranstaltungen begrüßen
zu dürfen.
Herzlichst, Ihr
Wilfried Seyruck, Präsident OCG
Inhalt
[ 10
50 Jahre OCG
3 Editorial
Wilfried Seyruck
4 Inhaltsverzeichnis
6 50 jahre OCG
OCG feiert ein halbes Jahrhundert
digitale Verbundenheit
7 Auftakt des Jubiläumsjahres
Mailüfterl Open House
Forschungsnachwuchs
8 Young Researchers´ Day
Katharina Resch-Schobel
9 Austrian Computer Science Day
Roderick Bloem
10 Angriff und Verteidigung in der
Cloud
Sebastian Chmel und Fabio
Birnegger
12 Mangelndes
Sicherheitsbewusstsein auf Social
Media
Patrick Deininger
13 KIRAS CONTAIN als motivierendes
Forschungsumfeld
Christian Luidold
15 Optimizing the Cell Assignmend
Problem
Anoki Eischer
17 Im digitalen Zeitalter der
Bauindustrie
Elisabeth Gütl
19 Hybrider Cloud Computing Ansatz
Marie Aichinger, Daniel Berger und
Adrian Hofer
21 Sicherheit und Nutzerautonomie
in der Biometrie
Philipp Hofer
23 Statistical Monitoring of Fairness
Konstantin Kueffner
24 KI-Prüfbarkeit: Kontinuierliche KI-
Adits & Knowledge Graphs
Laura Waltersdorfer
4
OCG Journal | 01 • 2025
[ 20
©istock Igor Kytyaev
Wettbewerbe und Preise
27 Visueller Java Debugger direkt im
Web
Adolf-Adam.Informatikpreis
Felix Schenk
29 OCG Preise für
Nachwuchsforscher*innen 2024
30 Netzwerkbasierte
Seitenkanalattacken
Heinz Zemanek Preis 2024
Martin Schwarzl
32 Optimal Seat Arrangement
Structure, Algorithms, and
Complexity
OCG Förderpreis 2024s
Esra Ceylan
34 Thermisch-taktiles Biofeedback
für Blinde und sehbeeinträchtige
Personen
OCG Förderpreis FH 2024
Viktoria Frank
Neuigkeiten
37 Neue Web-Studiengänge - FH
Kufstein Tirol
Lisa Berke
38 ditact women´s IT studies
Katharina Resch-Schobel
Intern
40 Veranstaltungen
40 Impressum
01 • 2022 2025 | OCG Journal
5
OCG feiert ein halbes
Jahrhundet digitale
Verbundenheit
von Irina Scheitz
Am 4. März 1975 - vor genau 50 Jahren -
wurde die Österreichische Computer Gesellschaft
(OCG) ins Leben gerufen. Das
feierten wir am 4. März 2025 mit einem
Mailüfterl Open House in der Wollzeile,
Wien Innere Stadt, gefolgt von einem
großen Festakt im Kuppelsaal der TU
Wien am 21. Mai 2025.
Bereits in den 1970er-Jahren erkannten
einige Pioniere in Österreich das immense
Potenzial von Informationstechnologien.
Einer davon war Heinz Zemanek, der
den ersten volltransistorisierten Computer
in Österreich entwickelte, das „Mailüfterl“.
Seine Vision und sein Engagement
für die Weiterentwicklung der Informationstechnologie
waren Schlüssel zur Etablierung
der OCG.
Die OCG wurde mit dem Ziel gegründet,
den Nutzen von Informations- und
Kommunikationstechnologien für alle
zugänglich zu machen und dadurch zu
einer positiven Entwicklung der Gesellschaft
beizutragen. Dies ist bis heute
unser Auftrag. Als unabhängige und gemeinnützige
Organisation liefert die OCG
wichtige Impulse für Bildung und Forschung
und stärkt dadurch die Innovationskraft
Österreichs.
Wir laden unsere Mitglieder und alle, die
der OCG partnerschaftlich verbunden
sind ein, gemeinsam mit uns am 21. Mai
2025 mit einem großem Festakt zu feiern!
50 JAHRE OCG FESTAKT
Wo: Kuppelsaal der TU Wien
Wann: 21. Mai 2025
Mehr zum Event und Programm:
6 OCG Journal | 01 • 2025
50 Jahre OCG
Auftakt des Jubiläumsjahres
Mailüfterl Open House
von Irina Scheitz
Bei der 50. Geburtstagsfeier der OCG
am 4. März kamen über 150 Gäste zusammen,
um das Jubiläum des Vereins
gebührend zu feiern. Im Mittelpunkt des
Events stand Heinz Zemaneks Mailüfterl
– der erste volltransistorisierte Computer
auf dem europäischen Festland.
Dank VR-Technologie konnten die Besucher*innen
eine virtuelle Erkundung des
legendären Rechners im Technischen
Museum Wien unternehmen. „Damals
wie heute erscheinen die USA für viele
als übermächtige Konkurrenz. Aber
auch bei uns kann man mit Tatkraft und
Kreativität enorm viel bewegen und auf
Augenhöhe agieren. Das hat Heinz Zemanek
eindrucksvoll unter Beweis gestellt“,
plädierte OCG Präsident Wilfried
Seyruck bei seiner Begrüßungsrede für
mehr Selbstvertrauen.
Zemaneks Weggefährte und ehemaliger
OCG Präsident Norbert Rozsenich
erinnerte in einem Streifzug durch die
Geschichte der OCG sowohl an die Verdienste
des Gründungsteams als auch
an Meilensteine in der weiteren Entwicklung.
Eine von TU Informatics eduLAB entwickelte
und von der OCG adaptierte
Schnitzeljagd führte durch zentrale Informatik-Konzepte,
geschichtliche Meilensteine
und aktuelle Trends. Zudem gab
es Mini-Workshops, in denen spielerisch
mit Künstlicher Intelligenz experimentiert
oder Computational Thinking mit
Aufgaben aus dem Biber-Wettbewerb
trainiert werden konnte. Beim Stand des
Arbeitskreises IT-Sicherheit versuchten
Besucher*innen eine KI auszutricksen.
Für musikalische Unterhaltung sorgte
das Bookie Mountain Jazz Trio von OCG
Ehrenmitglied Bruno Buchberger.
OCG Vizepräsidentin Ingrid Schaumüller-Bichl, OCG Präsident Wilfried
Seyruck, OCG Vizepräsidentin Eva Kühn und OCG Generalsekretär
Ronald Bieber beim Tortenanschnitt ©Scheitz/OCG
Zur Musik des Bookie Mountain Jazz Trios wurde das Tanzbein geschwungen
©Scheitz/OCG
Virtuelle Besichtigung des Mailüfterls ©Scheitz/OCG
Gäste bei der Informatik Schnitzeljagd ©Scheitz/OCG
01 • 2025 | OCG Journal
7
OCG Arbeitskreis IT-Sicherheit
von Katharina Resch-Schobel
Young Researchers´Day
Die Förderung des Forschungsnachwuchses
ist ein Kernanliegen der OCG.
Der OCG Arbeitskreis IT-Sicherheit hat in
Zusammenarbeit mit SBA Research auch
2024 wieder den Young Researchers‘ Day
im Rahmen der IKT Sicherheitskonferenz
organisiert, bei dem Jungforscher*innen
die Möglichkeit hatten, auf der Hauptbühne
und in Poster-Sessions ihre neuesten
Forschungsergebnisse zu präsentieren.
„Die Forschungstätigkeit von Young
Researchers ist von zentraler Bedeutung
für den Erfolg der österreichischen Wissenschaft
und Forschung“, bringt es
Edgar Weippl, Universität Wien und OCG
Arbeitskreis IT-Sicherheit, auf den Punkt.
Heuer hatten folgende Jungforscher*innen
Gelegenheit, ihre aktuellen Arbeiten
auf der Main Stage in der Messe Wien
am 17. und 18. September einem großen
Fachpublikum vorzustellen:
• Fabio Birnegger und Sebastian
Chmel, FH Campus Wien: Gamifizierte
Cloud-Security
• Patrick Sommer, FH OÖ Campus Hagenberg:
Automatisierte Identifikation
von Cyberbedrohungen
• Timea Pahi, FH St. Pölten: Cyber Exercises
• Ernst Leierzopf, JKU Linz: Android -
datenbasierte Sicherheitsbewertung
von BS
• Patrick A.J. Deininger, TU Graz: Unbeabsichtigte
Datenweitergabe
• Florian Holzbauer, SBA Research & Uni
Wien: Analyse rerouting Internet in
Kherson
• Tobias Pfaller, AIT Austrian Institue
of Technology: Flexible Cyber Range
Exercises
• Iris Grze, TU Wien: Bekämpfung von
Deepfakes
OCG ARBEITSKREIS IT-SICHER-
HEIT
Der Arbeitskreis widmet sich den Gebieten
Informationssicherheit und IT-Sicherheit.
Dazu gehört auch die Förderung
eines kritischen Bewusstseins gegenüber
Sicherheitsfragen.
In den letzten Jahren ist mit der Nachwuchs-Vernetzung
ein neuer Schwerpunkt
entstanden. Der Young Researchers‘
Day findet jährlich im Rahmen
der IKT-Sicherheitskonferenz des Bundesministeriums
für Landesverteidigung
(BMLV) statt.
Die nächste IKT-Sicherheitskonferenz
findet am 25. und 26. Juni 2025Messe
Dornbirn, statt.
IKT Sicherheitskonferenz 2024 Keynote © OCG
IKT Sicherheitskonferenz 2024 Poster Session © OCG
8
OCG Journal | 01 • 2025
Forschungsnachwuchs
Science and Research on Austrian Universities
von Roderick Bloem
Austrian Computer Science Day
The Austrian Computer Science Day
(ACSD) is an annual event to bring together
researchers to discuss current
trends, challenges, and advancements in
the field of Computer Science. The event
serves as a platform for networking, collaboration,
and knowledge exchange
among Computer Scientists from all Austrian
universities. It showcases the exceptional
quality of Computer Science research
in Austria.
The Austrian Computer Science Day features
mostly scientific talks, but it also
serves as a venue to recognize exceptional
quality. In particular, the OCG prize for
the best Austrian Master’s thesis and the
OCG Heinz Zemanek prize for the best
doctoral dissertation are awarded at the
Austrian Computer Science Day.
The Austrian Computer Science Day
(ACSD) was initiated in 2012 by Monika
Henzinger, Helmut Veith, and Roderick
Bloem. ACSDs were hosted at the University
of Vienna (in 2012, organized by
Monika Henzinger), ISTA (2013, Krzysztof
Pietrzak), Graz University of Technology
(2014, Thomas Pock), TU Wien (2016, Georg
Weissenbacher), JKU Linz (2016, Oliver
Bimber and Sepp Hochreiter), University
of Vienna (2017, Claudia Plant), University
of Salzburg (2018, Christoph Kirsch), WU
Wien (2019, Axel Polleres), University of
Klagenfurt (2021, Bernhard Rinner), ISTA
(2022, Dan Alistarh), Graz University of
Technology (Maria Eichlseder, 2023), and
the University of Vienna (2024, Nils Kriege).
The Austrian Computer Science Day
2025 will be held on 6 June 2025 at the
University of Innsbruck and will be organized
by Eva Zangerle and Georg Moser.
The Austrian Computer Science Day is
organized in collaboration with the Austrian
Computer Society OCG and benefits
from generous yearly grants from the
Ministry of Climate Action, Environment,
Energy, Mobility, Innovation and Technology.
Austrian Computer Science Day 2024 © Scheitz/OCG
Austrian Computer Science Day 2024 © Scheitz/OCG
01 • 2025 | OCG Journal
9
Entwicklung der Trainingsplattform „Purple Cloud“
von Sebastian Chmel und Fabio Birnegger
Angriff und Verteidigung in
der Cloud
Da immer mehr Unternehmen für ihre
IT-Infrastruktur auf Cloud-basierte Lösungen
zurückgreifen, wird der Bereich
der Cloud Security im Enterprise-Umfeld
immer wichtiger. Um auf die entsprechende
Nachfrage auf dem Arbeitsmarkt
für Fachkräfte in diesem Gebiet
reagieren zu können, benötigt es Trainings-
und Weiterbildungsmöglichkeiten.
Für die Cloud Security fällt das Angebot
an Trainings- und Weiterbildungsmöglichkeiten
weitaus geringer aus als für
andere Bereiche. Um diesen Mangel
zu adressieren, haben Sebastian Chmel
und Fabio Birnegger die Plattform „PurpleCloud“
entwickelt und dieses Projekt
auf der IKT-Sicherheitskonferenz 2024
des Bundesministeriums für Landesverteidigung
vorgestellt.
Perspektive betrachtet werden.
ABLAUF DER PURPLECLOUD
CHALLENGE
Benutzer*innen der „PurpleCloud“
durchlaufen einen vorgegebenen Ablauf.
Zuerst wird versucht, die Challenges in
chronologischer Reihenfolge aus offensiver
Perspektive zu lösen. Im Anschluss
daran, beginnt der defensive Teil. Der
Zweck dieser Reihenfolge ist es, dass die
User*innen zuerst die implementierten
Schwachstellen und Fehlkonfigurationen
in den Cloud-Ressourcen finden, verstehen
und ausnutzen und anschließend
diese Sicherheitsrisiken beheben bzw.
mitigieren.
SO FUNKTIONIERT DIE PUR-
PLECLOUD PLATTFORM
Um die Plattform zu erstellen, wurde
eine dedizierte Microsoft Azure Umgebung
aufgesetzt. Zu Beginn wurden vier
Challenges entworfen, welche jeweils
unterschiedliche Komponenten und Sicherheitsrisiken
einer Cloud Umgebung
involvieren. Anschließend wurden die folgenden
benötigten Cloud Ressourcen in
der Umgebung initiiert:
• Static Web Application (App Service)
• Storage Account (Blob Storage)
• Virtual Machine
• Managed Identity
• Key Vault
• Cosmos DB
• Function App
CLOUD SECURITY FÄHIGKEITEN
TESTEN UND VERBESSERN
Die „PurpleCloud“ wurde von den Autoren
gemeinsam im Zuge ihrer Masterarbeiten
entwickelt. Das Ziel der Plattform
ist es, User*innen eine Möglichkeit zu bieten,
in einem gamifizierten Umfeld ihre
Fähigkeiten im Bereich der Cloud Security
zu testen und zu verbessern. Dies wurde
durch realitätsnahe Challenges umgesetzt,
welche es für die Benutzer*innen
zu lösen gilt. Die Aufgaben basieren auf
Schwachstellen und Fehlkonfigurationen
in unterschiedlichen Cloud Komponenten,
welche absichtlich in eine Microsoft
Azure Umgebung eingebaut wurden.
Die Besonderheit des Projekts ist es, dass
die implementierten Challenges sowohl
aus offensiver als auch aus defensiver
Abbildung 1: IKT Sicherheitskonferenz 2024, Präsentation Sebastian Chmel und Fabio Birnegger
© Nicolas Petri
10 OCG Journal | 01 • 2025
Forschungsnachwuchs
Die Zuordnung der Ressourcen zu den
Challenges wird in Abbildung 2 dargestellt.
Nachfolgend wurden in den einzelnen
Komponenten bewusst Schwachstellen
und Fehlkonfigurationen hinzugefügt,
z. B. unzureichendes Identity and Access
Management (IAM), unsichere Application
Programming Interfaces (APIs) und
Schwachstellen in Webapplikationen. Im
Anschluss wurden auf einigen Ressourcen
spezielle Dateien (sogenannt „Flags“)
hinterlegt, welche das erfolgreiche Abschließen
einer Challenge beweisen bzw.
Informationen beinhalten, welche für die
darauffolgenden Aufgaben benötigt werden.
Wenn alle Flags gefunden wurden,
gilt der offensive Teil als abgeschlossen.
Der gesamte Pfad, welcher dafür durchlaufen
werden muss, ist in Abbildung 2
dargestellt.
Die Aufgabe für Benutzer*innen beim
defensiven Teil der Plattform ist es zu
versuchen, die bestehenden Risiken
durch unterschiedliche Maßnahmen zu
beheben. Anschließend können die Ansätze
mit einer zur Verfügung gestellten
Musterlösung verglichen werden, um
herauszufinden, ob noch weitere oder
bessere Schritte zur Behebung existieren.
Dazu gehörten Maßnahmen wie
die Einschränkung von Public Access zu
Cloud Ressourcen, die Anbindung an ein
Security Information and Event Management
(SIEM)-Tool (Microsoft Sentinel) für
Monitoring, um Anomalien zu erkennen
oder das Blockieren des SSH-Ports einer
virtuellen Maschine.
Abbildung 2: Übersicht des Attack Paths der Challenges
© Sebastian Chmel und Fabio Birnegger
Sebastian Chmel
ist Security Consultant
bei Accenture
und hat den
Master-Studiengang
IT-Security an der
FH Campus Wien abgeschlossen. Er
beschäftigt sich mit Themen rund um
die defensive IT-Security.
Fabio Birnegger
ist Penetration Tester
bei der TÜV AUSTRIA
und Masterabsolvent
des Studiengangs
IT-Security an der
FH Campus Wien. Der Fokus seiner
Tätigkeiten und Interessen liegen in
der offensiven IT-Security.
01 • 2025 | OCG Journal
11
Studie zum Risiko unbeabsichtigt Daten in Sozialen Medien offenzulegen
von Patrick Deininger
Mangelndes Sicherheitsbewusstsein
auf Social Media
In unserer digitalisierten Welt werden
soziale Medien täglich von Milliarden
von Menschen genutzt, um Informationen
zu teilen, sich auszutauschen und
Kontakte zu knüpfen. Oft bleibt unbeachtet,
dass veröffentlichte Inhalte mehr
Informationen preisgeben können, als
ursprünglich beabsichtigt.
Zu diesen Daten zählen beispielsweise
Adressen, Details von Wohngebäuden
und deren Sicherheitsmaßnahmen oder
persönliche Details, die aus Fotos, Kommentaren
oder Videos extrahiert werden
können. Der Schutz dieser Daten hat
angesichts der potenziellen Risiken für
die Privatsphäre und Sicherheit der Nutzer*innen
eine hohe Relevanz.
VIEL INTERAKTION – VIEL RISIKO
Soziale Medien fördern die Selbstdarstellung,
ohne den Nutzer*innen die
möglichen Konsequenzen ihrer Posts
ausreichend bewusst zu machen. Solche
Postings oder eine Kombination von
Postings veröffentlichen aber nicht nur
die Inhalte, die direkt geteilt werden (wie
Texte oder Bilder), sondern auch versteckte
Informationen, die durch Metadaten,
Reflektionen oder Detailausschnitte in
Bildern oder Kontextinformationen wie
GPS-Daten, enthüllt werden können.
Unsere Forschung[1] zeigt, dass viele Nutzer*innen
sich der bestehenden Risiken
aber nicht bewusst sind. Dies kann dazu
führen, dass sensible Informationen unabsichtlich
veröffentlicht werden. Moderne
Analysemethoden wie Open-Source
Intelligence (OSINT) ermöglichen die
einfache Extraktion und den potenziellen
Missbrauch solcher Informationen.
USER-VERHALTEN IN STUDIE
UNTERSUCHT
Die von uns vorgestellte Studie 1 untersucht
das Bewusstsein für die unbeabsichtigte
Veröffentlichung von sensiblen
Daten mithilfe einer Umfrage, die 192
Teilnehmer*innen aus drei Lehrveranstaltungen
der Technischen Universität Graz
einbezieht.
Den Teilnehmer*innen wurden reale Beispiele
von Social-Media-Posts präsentiert,
die potenziell sensible Daten enthalten.
Sie mussten angeben, ob sie diese Inhalte
teilen würden und welche Datentypen
sie als problematisch einstufen. Das Datenschutzbewusstsein
wurde also nicht
direkt abgefragt, sondern auch empirisch
über die Analyse realer Beispiele
von Social-Media-Posts gemessen. Die
Beispiel-Posts wurden zuvor im Rahmen
einer Vorstudie 2 mithilfe von OSINT analysiert,
um die darin enthaltenen sensiblen
Daten zu identifizieren.
Die Umfrage 1 verwendet eine Kombination
aus Likert-Skalen und offenen Fragen,
um sowohl quantitative als auch qualitative
Daten zu erheben. Die Ergebnisse
wurden statistisch ausgewertet, um Muster
und Unterschiede in der Wahrnehmung
der Teilnehmer*innen zu identifizieren.
VERHALTEN ENTSPRICHT OFT
NICHT DEM WISSEN
Wir 1 haben festgestellt, dass bis zu 21,88 %
aller Teilnehmer*innen einen Beitrag veröffentlichen
würden der sensible Daten
enthält. Im Kontrast dazu würden jedoch
zwei Drittel von ihnen diese Daten als
datenschutzgefährdend empfinden. Es
zeigte sich, dass unbewusst enthaltene
Informationen häufig übersehen werden.
Die Diskrepanz zwischen theoretischem
Wissen und praktischem Verhalten zeigt,
dass gezielte Bildungsmaßnahmen erforderlich
sind, um Nutzer*innen auf die
Gefahren aufmerksam zu machen.
Auch wenn die Umfrage[1] ein Konfidenzintervall
von 95 % erreichte, liegt die
Fehlerquote von 7,07 % bei 192 Teilnehmer*innen
immer noch über dem Standard
von 5 %. Darüber hinaus sind die
Ergebnisse hinsichtlich der Interpretation
eingeschränkt, da nur österreichische
Student*innen befragt wurden. Vor diesem
Hintergrund empfehlen die Studienautoren
eine umfassendere Umfrage
mit größerer Stichprobe.
BILDUNG IST DER SCHLÜSSEL
ZU MEHR SICHERHEIT
Die Offenlegung privater Informationen
ist für soziale Interaktionen von entscheidender
Bedeutung. Um die Risiken
unbeabsichtigter Datenexposition zu
minimieren, sollten gezielte Bildungsprogramme
entwickelt werden, die Nutzer*innen
die potenziellen Gefahren der
Veröffentlichung sensibler Daten bewusst
machen.
12 OCG Journal | 01 • 2025
Themenheader
REFERENZEN
1
Kutschera, S., Slany, W., Ratschiller, P., Gursch, S., Deininger, P., & Dagenborg, H. (2024).
Incidental Data: A Survey towards Awareness on Privacy-Compromising Data Incidentally
Shared on Social Media. Journal of Cybersecurity and Privacy, 4(1), 105-125. https://doi.
org/10.3390/jcp4010006
2
Kutschera, S. Incidental data: observation of privacy compromising data on social media
platforms. Int. Cybersecur. Law Rev. 4, 91–114 (2023). https://doi.org/10.1365/s43439-022-
00071-w
Patrick A.J.
Deininger arbeitet
an der TU-Graz an
seiner Dissertation,
ist als Hochschullektor
an der FH
JOANNEUM tätig und Geschäftsführer
der auf IT-Security spezialisierten
ARCTAROS GmbH.
Projekt für Dissertation und Nachwuchsförderung
von Christian Luidold
KIRAS CONTAIN als motivierendes
Forschungsumfeld
Mit der kommenden Umsetzung der
neuen NIS-Richtlinie (Richtlinie über
Maßnahmen für ein hohes gemeinsames
Cybersicherheitsniveau in der Union,
NIS-2) wird ein zusätzliches Augenmerk
auf die Sicherheit in Lieferketten
gelegt. Viele betroffene Organisationen
haben bereits Vorbereitungen getroffen,
jedoch wird noch auf die Novelle des
NIS-Gesetzes gewartet. Währenddessen
arbeitet auch die Forschung auf Hochtouren,
um höhere Sicherheitsstandards
ermöglichen zu können.
VON DER PRODUKTION ÜBER
DIE LIEFERKETTE BIS HIN ZU
DEN ENDKUND*INNEN
Das durch die FFG geförderte Projekt
KIRAS CONTAIN
erforscht technische,
prozessuale und organisationale Maßnahmen,
um Auswirkungen von Cyber-Angriffen
auf Lieferketten zu reduzieren
und die Resilienz der Partner zu
steigern. Der zentrale Aspekt liegt hier auf
der verbesserten Planbarkeit von Sicherheitsmaßnahmen
für Produktion und
Lieferketten.
KIRAS CONTAIN fokussiert sich hierbei auf
die Auswirkungen von Cyberangriffen auf
diese Systeme, sowie die Früherkennung,
entsprechende
Entscheidungsmodelle
und Incident Handling bei betroffenen
Organisationen. Dabei soll das Bewusstsein
von Mitarbeiter*innen in erprobten
Prozessen gestärkt werden, um im Falle
eines Vorfalls dessen Auswirkungen zu
reduzieren.
CYBER RANGE UND SERIOUS
GAMES FÜR UNIVERSITÄTEN,
UNTERNEHMEN UND BEHÖR-
DEN
Im Rahmen einer Cyber Range (einer
virtuellen Umgebung für Cybersicherheitstrainings)
können Organisationen
ihre Systeme und interne Prozesse sowie
auch ihre Abhängigkeiten in der Lieferkette
abbilden. Dabei erfolgt eine mehrstündige
Hands-on Übung, in welcher
verschiedene Rollen innerhalb einer Organisation
Vorfälle und deren Auswirkungen
erkennen und beheben sollen, während
zeitgleich Meldungen an Behörden
und offizielle Stellen, andere Lieferkettenpartner
sowie an die Öffentlichkeit trainiert
werden.
In Verbindung mit dieser Übung werden
unter anderem die darin erfolgten
Verhaltensweisen der Spieler*innen, die
Effektivität der Prozesse, das Krisenmanagement,
sowie die Koordination der
beteiligten Akteur*innen und deren
entsprechenden Verantwortlichkeiten
innerhalb und außerhalb der Organisation
analysiert, definiert und validiert. Das
dabei entwickelte Simulationsmodell
spiegelt die aktuelle Forschung der Projektpartner
wider, welches zukünftig als
Baustein für Lieferketten in der Sicherheitsforschung
dienen wird.
01 • 2025 | OCG Journal
13
FORSCHUNGSPROJEKT ALS
FUNDAMENT FÜR NACH-
WUCHSFÖRDERUNG
Die zentrale Fragestellung des Projekts
und die enge bilaterale Zusammenarbeit
von Forschungs- und Industriepartnern
in Deutschland und Österreich bieten
für die Förderung des wissenschaftlichen
Nachwuchses ein sehr motivierendes
Umfeld. In Österreich schafft dieses Forschungsprojekt
an der Universität Wien,
der BOKU und dem Austrian Institute of
Technology (AIT) eine weitere wertvolle
Möglichkeit, um wissenschaftliche Ideen
und Modelle aus dem Bereich der Sicherheitsforschung
in Kooperation mit Partnern
in Industrie und Verwaltung praxisnahe
zu erproben. Young Researchers
bietet dieses Projekt auch die Gelegenheit
zu einer ihre für die weitere Karriereentwicklung
wichtigen Vernetzung im
deutschsprachigen Raum.
Für die Dissertationen von Christoph
Jungbauer 1 und Christian Luidold 2 (Fakultät
für Informatik der Universität Wien)
und Larissa Schachenhofer 3 (Institut für
Produktionswirtschaft und Logistik der
BOKU) sowie der Nachwuchsarbeit der-
Competence Unit Security & Communication
Technologies am AIT 4 bietet dieses
Projekt somit ein sehr wertvolles anwendungsorientiertes
Umfeld. Darüber hinaus
wird auch für Studierende in Mas-
Contain Event auf der Universität Wien © OCG
terprogrammen die Chance eröffnet, an
Forschungsaktivitäten im Rahmen von
Masterarbeiten in Zusammenarbeit von
Universität Wien und AIT teilzunehmen.
REFERENZEN
1
https://ucrisportal.univie.ac.at/de/persons/christoph-jungbauer
2
https://ucrisportal.univie.ac.at/de/persons/christian-luidold
3
https://boku.ac.at/personen/person/A1DB557BA430D821
4
https://www.ait.ac.at/en/about-the-ait/center/center-for-digital-safety-security/career/security-communication-technologies
Christian Luidold
forscht als PhD-Student
an der Fakultät
für Informatik der
Uni Wien an nationalen
und internationalen
Projekten,
Forschungsschwerpunkt Information
Security Policy Management und
Security Automation .
14 OCG Journal | 01 • 2025
Forschungsnachwuchs
Automated solution methods for complex planning tasks
von Anoki Eischer
Optimizing the Cell Assignment
Problem
Decision-making in industrial manufacturing
processes can become a complex
task, since factories may consist of a
large number of machines and storage
facilities, and often many jobs need to
be planned over a long period of time.
Therefore, there is a strong need to investigate
automated solution methods
that can provide optimized solutions to
such problems.
The decisions to be made in an industrial
manufacturing process may consist of
scheduling jobs but also assigning them
to machines and storage facilities. Handling
such planning tasks manually using
human resources not only consumes a
lot of time but may also result in suboptimal
decisions.
HOW TO MANAGE A COMPLEX
PRODUCTION PROCESS
In his diploma thesis, Anoki Eischer cooperated
with an industrial partner from
the agricultural animal feed industry, who
faced a production planning problem called
the Cell Assignment Problem (CAP).
In general, the CAP consists of managing
the process in production networks composed
of multiple machines and cells,
which represent storage facilities such
as silos. An example of such a production
network can be seen in figure 1.
During the production process, the feed
is mixed by a mixing machine, represented
by M1 in the example network. Depending
on the desired end product, the
mixed feed additionally must be pressed
by a pressing machine (the example network
contains two such machines, P1 and
P2). After each production step, the feed
Figure 1: Production Network ©Anoki Eischer
is stored in a cell, which has a certain capacity
and type. Cells of type 1 represent
pre-cells, used to store intermediate products
that still need to be pressed. Cells
of type 2 are bag-loading cells and store
feed which needs to be packed into bags
before delivering it to the customers. This
is done by a bag loading machine, represented
by S1 in the example network. The
resulting bags are stored in the storage
where they are waiting to be delivered.
It is also possible to deliver feed directly
from the cells if they are of type 3 (loading
cells). A cell can only contain one material,
representing a specific type of product,
at a time. In contrast to cells, the storage
may contain an arbitrary number of different
materials and is not capacitated.
As part of the problem input, a sequence
of jobs is specified for every machine,
where a job represents one production
step, for example pressing a certain quantity
of a certain material. Each machine
needs to process its jobs in the specified
order. One part of the problem is to find
01 • 2025 | OCG Journal
15
As part of the problem input, a sequence
of jobs is specified for every machine,
where a job represents one production
step, for example pressing a certain quantity
of a certain material. Each machine
needs to process its jobs in the specified
order. One part of the problem is to find
a feasible processing schedule over all
machines. Additionally, for each job a cell
needs to be assigned, which is used to
store the produced material. Another important
part of the problem are delivery
orders, which consume certain quantities
of certain materials from cells as soon as
their requirements are satisfied, and their
due date is reached. The goal of the problem
is to minimize the total tardiness of
delivery orders, meaning that every delivery
order starts as soon as possible after
its due date.
HOW TO COMPUTE THE OPTI-
MAL SOLUTION
The main contribution of Eischer´s thesis
was finding a formal problem specification
and developing various solving
approaches for the CAP. First a constraint
programming model called M1 was formulated,
which specifies how the input
and solution is decoded as well as the
constraints that must be satisfied by a
valid solution. This model can then be
solved exactly by a constraint programming
solver, which means that the optimal
solution for a given instance can
be computed. Furthermore, Eischer developed
a more sophisticated model M2
as an alternative exact solution approach.
This model uses additional variables and
makes some assumptions on the input
which makes it possible to provide more
efficient constraint formulations.
Constraint programming solvers might
require a lot of time when solving large
instances. This is where metaheuristics
come into play. A metaheuristic is a procedure,
which generally does not provide
an optimal solution, but might be able to
find a high-quality solution fast. Eischer
chose the well-known metaheuristic Simulated
Annealing, which is a variant
of local search. Local search essentially
works as follows: Starting from an initial
solution, the current solution is iteratively
modified by applying moves, where a
move corresponds to a local change on
the solution it is applied on.
The implementation of Simulated Annealing
consisted of the following parts:
The creation of a construction heuristic
for the generation of initial solutions of
reasonable quality and subsequently the
development of a sophisticated solution
representation and four novel types of
moves to modify existing solutions. Since
Simulated Annealing relies on multiple
parameters, it only develops its full
potential when these parameters are
set in a meaningful way. Therefore, the
parameters had to be tuned, which was
accomplished by using iterated racing, a
well-established method for automated
algorithm configuration.
The industrial partner provided one real-life
instance of the CAP. Since a large
and diverse set of instances is needed to
provide a reasonable evaluation of the
implemented algorithms, the need for
artificial problem instances emerged. Therefore,
Eischer developed a randomized
instance generator which was used to
create 160 instances of the CAP. These instances
were divided into 60 tuning and
100 testing instances. While the tuning
instances were used to perform parameter
tuning for Simulated Annealing, the
final experiments were performed on the
testing instances.
ANALYSING SUCCESS RATE OF
FOUR DIFFERENT APPROACHES
An interesting result of the experiments is
that if multiple algorithms find a feasible
solution for a given instance, the respective
objective values match in most of the
cases. Therefore, the most meaningful
comparison can be made by analysing
the success rate, which is defined by the
percentage of instances for which a feasible
solution could be found within a given
time limit. The table below shows the
success rate of each of the four developed
approaches (Models M1 and M2, construction
heuristic, Simulated Annealing).
To get more detailed insights, the instances
were divided into four size categories.
It can be seen that both constraint programming
models were able to solve all
of the smallest instances. Their success
rate drops when solving larger instances,
especially for model M1. In contrast,
the construction heuristic has a relatively
constant success rate over all instance categories
and even performed better than
model M2 on large instances. Simulated
Annealing turned out to be the best of
the developed approaches with an average
success rate of 84 percent.
When testing the various algorithms on
the real-life instance, none of the constraint
programming models could solve
it, probably due to its large size. However,
the construction heuristic was able
to find a feasible solution. This solution
could not further be improved by Simulated
Annealing. One possible explanation
for this is that the solution returned by
the construction heuristic might be already
optimal.
Tabelle Erfolgsrate Algorithm © Anoki Eischer
Anoki Eischer
studierte Logic and
Computation an der
TU Wien. Im Rahmen
seiner Masterarbeit
beschäftigte er sich
mit einem komplexen, praktischen
Optimierungsproblem.
16 OCG Journal | 01 • 2025
Forschungsnachwuchs
Cybersecurity - Risikomanagement
von Elisabeth Gütl
Im digitalen Zeitalter der
Bauindustrie
Die zunehmende Digitalisierung der
Bauindustrie bringt eine Vielzahl von
Möglichkeiten, aber auch neue Herausforderungen
mit sich, nicht zuletzt im
Bereich der Cybersecurity.
Unter dem Stichwort Bauumgebung
4.0 wird eine kollaborative Baustelle
verstanden, auf der Beteiligte vernetzt
interagieren. Bislang existieren wenige
Untersuchungen zu den neuen Vulnerabilitäten
einer steigenden Digitalisierung
im Bauwesen und neu auftretende Pfade
für Cyberangriffe sind, speziell in der
Projektphase der Baurealisierung, kaum
erforscht. Eine ganzheitliche Cybersecurity-Risikomanagementstrategie
soll als
Leitfaden für das Bauwesen veranschaulichen,
wie Cyberrisiken durch geeignete
Maßnahmen präventiv gemindert werden
können, wie man im Falle eines Cyberangriffs
agiert und welche Rolle der
Sensibilisierung von Mitarbeiter*innen
zukommt.
STEIGENDE CYBERATTACKEN IM
BAUWESEN
Die Anzahl der Cyberattacken auf Unternehmen
der Bauindustrie nimmt zu und
spiegelt sich beispielsweise in Angriffen
auf Unternehmen wie Vinci SA 1 oder Bird
Construction 2 wider. In der Vergangenheit
zielten Cyberattacken auf Bauunternehmen
meist auf die Entwendung
oder Verschlüsselung von sensiblen
Daten ab, um eine Lösegeldforderung
bei Datenverschlüsselung (Ransomware-Angriff)
zu stellen. Durch die limitierte
Veröffentlichung von Informationen
zu Cyberattacken ist es oftmals schwer
nachzuvollziehen, wie Hacker in Unternehmenssysteme
eindringen konnten
und welche konkreten Maßnahmen
nachgehend vollzogen wurden, um gegen
zukünftige Cyberattacken gerüstet
zu sein. Die weiter voranschreitende Digitalisierung
im Bauwesen lässt die Annahme
zu, dass neue Vulnerabilitäten
geschaffen werden, die es Hackern vermehrt
ermöglichen ein System anzugreifen.
DIE BAUPROJEKTPHASEN
Der Bau eines Objekts kann in fünf Projektphasen
eingeteilt werden, die sich
aus Projektvorbereitung, Planung, Ausführungsvorbereitung,
Ausführung und
Projektabschluss zusammensetzen.
Die Projektphase Ausführung bezeichnet
jenen Teil eines Bauprojekts, der die
ausgeschriebenen Leistungen umsetzt
und das Bauobjekt realisiert. Durch den
Auftraggeber erfolgt in den Phasen vor
der Realisierung die Vergabe eines Bauprojekts
an den Auftragnehmer. Dem
Auftraggeber kommt im Zuge der Realisierung
des Objekts durch Fortschrittskontrollen
eine Überwachungsfunktion
zu. Dem Auftragnehmer obliegt die Erstellung
des Objekts im vorgegebenen
Zeitrahmen, wobei er, im Eigeninteresse,
möglichst kostengünstig verbleiben will. 3
Im Folgenden soll der Fokus auf diese
Phase gelegt und Beispiele der Teilelemente
der Ausführungsphase einer Bauumgebung
4.0 beschrieben werden.
3
Hofstadler, C., Kummer, M. (2017). Methoden
des Chancen- und Risikomanagements in den
Projektphasen. In: Chancen- und Risikomanagement
in der Bauwirtschaft. Springer
Vieweg, Berlin, Heidelberg.
1
https://markets.vontobel.com/de-ch/inspiration/35650/cyber-security-vinci-sa-wurde-gehackt,
Stand 4.1.2025
2
https://www.enterprotect.com/resource-center/ransomware-hits-canadian-federal-contractor-bird-construction,
Stand 4.1.2025
Beispiel einer vernetzten Baustelle © Elisabeth Gütl
01 • 2025 | OCG Journal
17
Der Informationsaustausch zwischen
den Teilelementen, welche an der Realisierung
beteiligt sind, erfolgt nach DIN
EN ISO 19650-1 4 über eine Common Data
Environment (CDE). Diese beschreibt
den Aufbau einer im Projekt genutzten
gemeinsamen Datenumgebung als Kollaborationsplattform,
welche einen Informationsaustausch
über die Phasen des
Bauprojekts ermöglicht. Unter Berücksichtigung
gesetzlicher Vorgaben arbeiten
autonome mit manuellen Baugeräten
zusammen und werden anhand des
Human-Machine-Interface von Mitarbeiter*innen
gesteuert.
Daten zur Übertragung an andere Projektteilnehmer*innen
werden drahtlos
an die CDE gesendet, in welcher diese
verarbeitet, analysiert und für Bauleiter*innen
und andere Beteiligte zugänglich
gemacht werden.
Bauleiter*innen oder Koordinator*innen
können die Zusammenarbeit von
autonomen und manuellen Maschinen
mit mobilen Geräten steuern, indem sie
dem autonomen Bauequipment über
die CDE Aufgaben oder Prioritäten zuweisen.
Das autonome Equipment kann
dann über das zentrale System informiert
werden, wie es seine Arbeit anpassen soll,
4
SO (2018): ISO 19650-1: Organization of information
about construction works – Information
management using building information
modelling – Part 1: Concepts and principles,
1. Auf., verfügbar unter: https://www.iso.org/
standard/68078.html, Stand 5.10.2024
um mit nicht-autonomen Maschinen
und Menschen zu kollaborieren. Weiters
kann eine autonome Maschine mithilfe
von Sensoren oder Kameras erkennen,
wo sich andere Maschinen in ihrem Umfeld
befinden. Diese Informationen werden
genutzt, um die Bewegungen so zu
koordinieren, dass Kollisionen vermieden
werden.
STRATEGIE FÜR CYBER-SECU-
RITY-RISIKOMANAGEMENT DER
BAUUMGEBUNG 4.0
Eine Strategie für Cybersecurity-Risikomanagement
ist als präventive Basis zu
sehen und setzt relevante Schritte zum
Schutz eines Unternehmens – sowohl
vor als auch nach einem potenziellen
Cyberangriff. Sie setzt sich aus mehreren
Teilschritten sowie Abfolgen zusammen
und bietet einen gesamtheitlichen Ansatz,
von der Analyse von Bedrohungen
bis hin zum Vorfallsmanagement infolge
eines Cyberangriffs.
Durch den Einsatz von Elementen der
Bauumgebung 4.0 ergeben sich neue
Cyberangriffspfade für das System. Der
erste Schritt, um diese zu erheben, ist
eine Bedrohungsanalyse, um die schützenswerten
Elemente eines Systems zu
ermitteln und potenzielle Angriffspfade
offenzulegen. Nachfolgend wird durch
eine definierte Bewertungsmethode ermittelt,
welche Angriffspunkte die höchste
Risikobewertung aufweisen und es
werden entsprechende Maßnahmen
definiert. Hierbei gilt es, aus einer Vielzahl
von möglichen Methoden, die passendste
für die Bedrohungsanalyse einer Bauumgebung
4.0 zu ermitteln.
Für Angriffspfade, die anhand der Bedrohungsanalyse
als besonders vulnerabel
eingestuft wurden, sind passende Cybersecurity-Maßnahmen
zu treffen, um die
Wahrscheinlichkeit eines Cyberangriffs
auf teilnehmende Elemente zu minimieren.
Insbesondere gilt es hier den Nutzenaspekt
von Security-Investitionen abzuwägen
und mit KPIs belegen zu können,
welche Maßnahmen implementiert
werden, um das System ausreichend zu
schützen. Des Weiteren muss im Falle eines
Cyberangriffs, im Rahmen des Cybersecurity-Risikomanagements,
das Vorfallsmanagement
beschrieben sein, um
schnelle Reaktionen setzen zu können.
ZUKÜNFTIGE FORSCHUNG
Im weiteren Verlauf der Dissertation erfolgt
eingehend eine Auseinandersetzung
mit den Vulnerabilitäten der Bauumgebung
4.0 sowie eine umfangreiche,
ganzheitliche Betrachtung einer Strategie
für Cybersecurity-Risikomanagement
im Bauwesen. Dabei gilt es auch
den Investitionsaspekt zu behandeln, der
durch den Return on Security Investment
(ROSI) als möglicher Indikator behandelt
wird und im Speziellen in der Baubranche
bei OT- und IT-Security-Investments
schwierig zu beziffern ist.
Elisabeth Gütl
forscht als Dissertantin
am Institut
für Baubetrieb und
Bauwirtschaft der
TU Graz (Betreuung:
Univ.-Prof. Dipl.-Ing. Dr. techn. habil.
Christian Hofstadler). Der Fokus ihrer
wissenschaftlichen Arbeit liegt auf der
steigenden Digitalisierung im Bauwesen
und den damit einhergehenden,
neu auftretenden Cyberrisiken einer
vernetzt agierenden Bauumgebung.
18 OCG Journal | 01 • 2025
Forschungsnachwuchs
Forschungsdatenmanagement im universitären Kontext
von Marie Aichinger, Daniel Berger und Adrian Hofer
Hybrider Cloud Computing
Ansatz
Moderne Forschungsprojekte sind oft
abhängig von großen Datenmengen,
die sowohl verarbeitet als auch gespeichert
und analysiert werden müssen.
Um die Sicherheit von Forschungsdaten
zu gewährleisten und zusätzlich performante
Cloud Services einsetzen zu können,
haben wir einen hybriden Ansatz
in Kooperation mit dem Zentralen Informatik
Dienst (ZID) an der Universität
Wien umgesetzt.
HANTIEREN MIT HOHEN DATEN-
MENGEN IN FORSCHUNGSPRO-
JEKTEN
Über die letzten Jahrzehnte hat sich das
Angebot von Daten drastisch erhöht.
Sensoren, IoT-Geräte und soziale Medien
sind in der Lage, in sehr kurzer Zeit eine
gewaltige Datenmenge zu produzieren.
Hierbei spricht man von Big-Data, also
großen Datensätzen, die nur schwer zu
analysieren sind. Zudem fungiert das
Internet selbst wie eine riesige Datenbank,
in der Informationen aus aller Welt
gesammelt und langfristig gespeichert
werden.
Die neuartige Verfügbarkeit von großen
Datenmengen hat auch Auswirkungen
auf die Wissenschaft. Immer öfter sind
umfangreiche Datensätze gefragt, um
noch präzisere Analysen oder Lösungen
zu erstellen. Besonderes im Bereich der
Künstlichen Intelligenz, wo Datensätze
schätzungsweise im Petabyte Bereich liegen,
zeichnet sich das hohe Angebot ab.
Jedoch verbirgt sich neben den vielfältigen
Möglichkeiten auch ein vergleichbar
komplexes Problem. Aus dem hohen Datenangebot
ergeben sich neue Herausforderungen,
wie beispielsweise die Speicherung
dieser Daten in einem für die
Analyse vorteilhaftes Format. Auch in unserer
Forschung benötigen wir eine große
Menge an Daten, die wir verarbeiten
und speichern müssen, denn diese sind
sowohl für Tests als auch den operativen
Betrieb unseres Systems unabdingbar.
Da wir weder über das Budget verfügen
noch den Wunsch hegen, ständig das
neuste und performanteste Equipment
zu ersteigern, welches wenige Jahre später
wieder obsolet wird, sind wir gezwungen
nach neuen Ansätzen zu suchen,
um mit den oben genannten Problemen
umzugehen. Eine mögliche Lösung ist
es, Hardware nicht zu kaufen, sondern zu
mieten.
MOTIVATION FÜR DIE NUTZUNG
VON CLOUD COMPUTING
Cloud Computing (CC) bezeichnet die
Anmietung und Nutzung externen Rechenressourcen
über das Internet. Der
Anbieter dieser Ressourcen wird als
Cloud Service Provider (CSP) bezeichnet.
Wir haben uns für Microsoft Azure als unseren
CSP entschieden, wobei es noch
andere Angebote, beispielsweise von
Amazon und Google gibt.
Die Gründe, warum sich Forschende für
Cloud Computing entscheiden, variieren
je nach Projekt. Es gibt jedoch einige allgemeine
Vorteile und Stärken, wie Skalierbarkeit
und Elastizität (die Möglichkeit,
Ressourcen je nach Bedarf zuzuweisen),
Kosteneffizienz (keine Anschaffungskosten,
keine Amortisierung, nutzungsbasierte
Preismodelle), Fehlertoleranz und
Notfallwiederherstellung (Bereitstellung
von Backups oder Failover-Lösungen)
sowie natürlich die Vielfalt der angebotenen
Dienste. Azure beispielsweise bietet
über 200 Dienste in verschiedenen Kategorien
wie KI und Machine Learning,
Analysen, Datenbanken, Netztechnologie
oder Speicher.
DOWNSIDES VON CLOUD APPS
Die Möglichkeit, Drittanbieter-Ressourcen
nach Bedarf zu mieten, ist sowohl
eine der größten Stärken von CC als auch
ein erhebliches Risiko. Die Abhängigkeit
von dem gewählten CSP birgt Herausforderungen
wie Vendor Lock-In (die
Schwierigkeit, einen CSP aufgrund enger
Bindung an dessen Diensten wieder zu
„verlassen“ bzw. zu wechseln) und eine
reduzierte lokale Kontrolle von kritischen
Daten und der zugrunde liegenden Infrastruktur
(OS, Hardware, Firmware usw.).
In unserem Kontext ist der Schutz sensibler
(Forschungs-)Daten von besonderer
Bedeutung. Obwohl viele CSPs gängige
Datenschutzrichtlinien einhalten, gelten
dennoch oft universitäre Sonderregelungen
(insbesondere im Umgang mit personenbezogenen
Daten).
Zusätzlich bedeutet das Entwickeln von
Cloud-basierten Applikationen einen zusätzlichen
Komplexitätsgrades, der mit
der Administration der gewählten Services
einherkommt.
Um diese Risiken und Probleme zu mindern,
haben wir uns für einen hybriden
Ansatz entschieden.
HYBRIDER ANSATZ
Im Kontext unserer Forschung bedeutet
ein hybrider Ansatz die kombinierte Ver-
01 • 2025 | OCG Journal
19
ermöglicht, also die Verbindung zwischen
zwei VPN-Gateways. Einer dieser
Gateways befindet sich in der Cloud, der
andere im Universitätsnetzwerk. Zur Aufsetzung
des VPN-Gateways in der Cloud
wurden die entsprechenden Services genutzt.
Im Universitätsnetzwerk wurde ein
VyOS-Router als Gateway konfiguriert,
welcher die Kommunikation zwischen
dem Cloudnetzwerk und einem bereitgestellten
Subnetz des Universitätsnetzwerks
ermöglicht.
Um die Funktionalität des Tunnels zu
demonstrieren, wurden Teile eines Forschungsprojekts
in die Cloud migriert.
Dabei dient eine Rest API als zentraler
Einstiegspunkt in das System, dessen
Kernlogik ein Projektserver darstellt. Die
lierbarkeit und Effizienz von Cloud-Services
mit der Sicherheit von lokal gehosteten
Daten und der Kontrolle über die
lokale Infrastruktur. Dies ermöglicht eine
flexible, leistungsstarke und datenschutzfreundliche
Lösung für Forschungsprojekte
mit großen Datenmengen. Die
Vorteile der Nutzung von Cloud Services
hängen weiterhin stark vom Projekt ab.
Außerdem werden durch den hybriden
Ansatz nicht alle Nachteile ausgehebelt.
Der administrative Aufwand bezüglich
der Cloud-Services bleibt bestehen oder
kann sich sogar erhöhen, da zusätzliche
Services für die Kommunikation benötigt
werden. Daher sind Vor- und Nachteile
dieser Ansätze grundsätzlich immer abzuwiegen.
Erst wenn die Notwendigkeit
Hybrid Network Approach ©Aichinger, Berger und Hofer
wendung von Universitärer- und Cloud
IT-Infrastruktur. Die Verwendung eines
solchen hybriden Ansatzes ermöglicht
die Nutzung von Cloud-Services und alle
damit verbundenen Vorteile, wie Skalierbarkeit
und Kosteneffizienz, ohne auf
lokale Kontrolle zu verzichten. Sensible
Daten können weiterhin auf der lokalen
IT-Infrastruktur gespeichert werden, was
einen einfacheren Umgang mit ihnen
ermöglicht und den Datenschutz sicherstellt.
Zudem können weiterhin auch
bestehende lokale Datenbanken und virtuelle
Maschinen genutzt werden, wenn
diese kosteneffizienter sind. Während der
Entwicklungsphase ist ein hybrider Ansatz
besonders vorteilhaft, da er maximale
Flexibilität bietet.
IMPLEMENTIERUNG
Die Verbindung zwischen der Cloud und
dem Universitätsnetzwerk wird durch
einen IPsec Tunnel realisiert. Dieser Tunnel
ermöglicht es den beiden ansonsten
isolierten Netzwerken miteinander zu
kommunizieren. Die Kommunikation
wird durch eine Site-to-Site Verbindung
in dem System verwendete Datenbank
mit unseren Forschungsdaten wurde aus
Sicherheitsgründen nicht migriert. Die
Kommunikation zwischen dem in der
Cloud gehosteten Projektserver und der
lokal gehosteten Datenbank wurde über
den IPsec Tunnel ermöglicht.
HYBRIDE LÖSUNG ALS CHANCE
Der hybride Cloud-Ansatz vereint die Ska-
einer Migration in die Cloud besteht, ist es
auch von Vorteil einen Hybriden Ansatz
zu verfolgen. Vorsicht ist geboten bei der
Auswahl der Leistungsfähigkeiten der
Services, um diese weiterhin mit einem
akademischen Budget zu finanzieren.
Insbesondere im akademischen Umfeld
stellt diese Architektur eine nachhaltige
und kosteneffiziente Strategie für zukünftige
Projekte dar.
Marie Aichinger
ist PraeDoc der
Forschungsgruppe
Multimedia Information
Systems an der
Fakultät für Informatik
@ UniVie, hat den Forschungsschwerpunkt
„Data Pipelines for the
Analysis and Exploration of Related
Data on the Web“.
Daniel Berger
ist PraeDoc der
Multimedia Information
Systems
Forschungsgruppe
an der Fakultät für
Informatik der Universität Wien. Sein
Forschungsfokus liegt auf “Generation
and Execution of Parameterized
Comparison Metrics in the Context of
Conflict Detection on Data available
on the Web”.
Adrian Hofer
arbeitet als wissenschaftlicher
Mitarbeiter
in der Multimedia
Information Systems
Forschungsgruppe
an der Fakultät für Informatik der Universität
Wien. Sein Forschungsfokus
liegt auf “Information Extraction as
Structured Data from Unstructured
Web Pages in the Context of Automatic
Conflict Detection”.
20 OCG Journal | 01 • 2025
Forschungsnachwuchs
Dezentrale Biometrische Authentifizierung
von Philipp Hofer
Sicherheit und Nutzerautonomie
in der Biometrie
Zentralisierte biometrische Systeme
sind aufgrund ihrer einfachen Verwaltung
und schnellen Skalierbarkeit weit
verbreitet. Sie speichern biometrische
Merkmale wie Gesichtszüge, Fingerabdrücke
oder Iris-Muster in einer zentralen
Datenbank, um eine schnelle
Verifizierung gegen einen einzigen Referenzdatensatz
zu ermöglichen. Doch
diese Architektur birgt nicht zu unterschätzende
Schwächen. Ein Hauptproblem
ist die Anfälligkeit für Datenlecks.
DIE SCHWÄCHEN ZENTRA-
LISIERTER BIOMETRISCHER
SYSTEME
Zentralisierte Systeme sind attraktive Ziele
für Angreifer, da ein erfolgreicher Angriff
auf die zentrale Datenbank massive
Mengen sensibler Daten kompromittieren
kann. Der Hack des (zentralen) indischen
Aadhaar-Systems, bei dem Daten
von über einer Milliarde Menschen kompromittiert
wurden, illustriert die Risiken.
Neben externen Angriffen besteht auch
die Gefahr des internen Missbrauchs
durch Mitarbeiter*innen oder Betreiber.
Darüber hinaus gibt es fundamentale
ethische und datenschutzrechtliche
Probleme. Zentralisierte Systeme ermöglichen
potenziell eine umfassende
Überwachung durch staatliche Stellen
oder Unternehmen. Hinzu kommt, dass
Nutzer*innen kaum Kontrolle über ihre
biometrischen Daten haben. Anders als
Passwörter, die bei Kompromittierung ersetzt
werden können, sind biometrische
Merkmale einzigartig und unveränderlich.
Eine Kompromittierung hat somit
dauerhafte Konsequenzen.
Ein weiteres Problem ist die mangelnde
Skalierbarkeit und Flexibilität in spezialisierten
Szenarien. Zentralisierte Systeme
erfordern häufig aufwendige Anpassungen,
um beispielsweise Multi-Modalitäten
wie die Kombination von Gesichtserkennung
und Stimmerkennung zu
unterstützen. Diese Einschränkung erschwert
den Einsatz in Bereichen, wo individuelle
Anforderungen an Sicherheit
und Benutzerfreundlichkeit bestehen. In
dezentralisierten Systemen gibt es hingegen
viele Komponenten, die kompatibel
miteinander sein müssen. Dies erfordert
eine deutlich strengere und klarere Spezifikation,
da die verschiedenen Elemente
unabhängig voneinander entwickelt
werden. Im Gegensatz dazu sind zentrale
Systeme oft nur durch den meist proprietären
Quellcode spezifiziert, was Änderungen
erheblich erschwert.
DEZENTRALE ANSÄTZE ZUR
STÄRKUNG VON DATENSCHUTZ
UND EFFIZIENZ
Dezentrale Systeme können diese zentralen
Datenanhäufungen adressieren, indem
sie biometrische Daten auf verschiedene
Knotenpunkte verteilen. Statt einer
zentralen Datenbank werden die Daten
lokal auf benutzereigenen Geräten wie
Smartphones oder VMs gespeichert. Dies
reduziert das Risiko eines umfassenden
Datenlecks und stärkt die Kontrolle der
Nutzer*innen über ihre eigenen Daten.
Eine zentrale technologische Herausforderung
bei dezentralen biometrischen
Systemen ist die effiziente Speicherung
und Verarbeitung biometrischer Merkmale.
In zentralisierten Systemen ist dies
vergleichsweise einfach: Biometrische
Merkmale werden in hochdimensionale
Vektoren, sogenannte Embeddings,
umgewandelt und an einer zentralen
Instanz gespeichert, wo sie direkt miteinander
verglichen werden. In dezentralen
Architekturen hingegen erschwert die
verteilte Natur die direkte Verfügbarkeit
der Daten. Oft möchten Nutzer*innen
ihre Embeddings überhaupt nicht teilen,
um ihre Privatsphäre zu wahren. In
solchen Fällen können kryptografische
Verfahren wie Multi-Party Computation
oder Zero-Knowledge-Beweise zum
Einsatz kommen. Damit diese Verfahren
(effizient) eingesetzt werden können,
sind kleinere Embeddings essenziell.
Diese hochdimensionalen Vektoren bieten
eine mathematische Repräsentation
biometrischer Daten und ermöglichen
dadurch eine kompakte und ressourcenschonende
Speicherung. In Philipp Hofers
Dissertation konnte die Größe dieser
Embeddings um 96 % reduziert werden,
ohne die Erkennungsleistung wesentlich
zu beeinträchtigen. Dies senkt den Speicherbedarf
und ermöglicht den Einsatz
auf ressourcenbeschränkten Geräten wie
eingebetteten Systemen oder Smartcards
sowie aufwändigere kryptographische
Methoden mit besseren Privatsphäre-Garantien.
01 • 2025 | OCG Journal
21
FORTSCHRITTE IN DER GE-
SICHTSERKENNUNG AUF RES-
SOURCENBESCHRÄNKTEN
GERÄTEN
Die Gesichtserkennung gilt als eine der
am häufigsten verwendeten biometrischen
Systeme. Insbesondere auf Geräten
mit begrenzter Rechenleistung stellt
dies jedoch eine rechenmäßige Herausforderung
dar. Der Prozess umfasst die
Gesichtserkennung im Bild, die Extraktion
relevanter Merkmale und den Vergleich
mit gespeicherten Embeddings.
Neuronale Netzwerke, die häufig für die
Gesichtserkennung eingesetzt werden,
benötigen oft beträchtliche Rechenressourcen,
selbst während der Inferenz.
ROBUSTE UND SKALIERBARE
LÖSUNGEN
Die entwickelten Ansätze wurden in realen
Umgebungen getestet. Prototypen
wurden in öffentlichen Gebäuden und
auf Wegen zu privaten Häusern eingesetzt.
Ein Beispiel ist die Installation von
Kameras in einem Flur, die Personen erkennen
konnten, ohne auf eine zentrale
Datenbank zuzugreifen.
Die Ergebnisse zeigen, dass die Kombination
aus kompakten Embeddings,
optimierter Gesichtserkennung und de-
Um diese Herausforderungen zu bewältigen,
wurde in Hofers Dissertation eine
spezialisierte Methode entwickelt, die
verschiedene, bereits bestehende Modelle
kombiniert einsetzt. Ein Ansatz ist die
adaptive Nutzung von kleinen Modellen
für schnelle Echtzeit-Erkennung, während
ressourcenintensivere Modelle nur
bei Bedarf für die Validierung verwendet
werden. Diese Architektur balanciert Geschwindigkeit
und Genauigkeit optimal
aus.
Zusätzlich wurden Optimierungen implementiert,
die redundante Berechnungen
vermeiden und so auch auf eingebetteten
Systemen zuverlässige Ergebnisse
liefern. Diese Fortschritte erweitern die
Anwendbarkeit der Gesichtserkennung
auf Szenarien, die zuvor leistungsstarken
Servern vorbehalten waren.
In einem dezentralen System kann sich jede*r Nutzer*in aussuchen, wo die eigenen Daten gespeichert
sind. © digidow.eu
zentraler Datenverwaltung robuste und
skalierbare Lösungen ermöglicht. Die
Systeme erwiesen sich als effizient genug,
um Anforderungen an Echtzeitanwendungen
wie Zugangskontrollen oder
sichere Identitätsprüfungen zu erfüllen.
DEZENTRALE SYSTEME FÜR
SICHERE UND BENUTZER-
FREUNDLICHE AUTHENTIFIZIE-
RUNG
Dezentrale biometrische Authentifizierungssysteme
bieten eine vielversprechende
Alternative zu zentralisierten
Ansätzen. Sie vereinen Datenschutz, Sicherheit
und Effizienz und legen den
Grundstein für nachhaltige digitale Identitätslösungen.
Die in Hofers Arbeit vorgestellten
Technologien verdeutlichen
das Potenzial, die Biometrie hin zu einem
sichereren und benutzerfreundlicheren
Paradigma zu transformieren.
Langfristig könnten dezentrale Systeme
die Grundlage für eine neue Generation
von biometrischen Anwendungen
schaffen, die nicht nur technologisch fortschrittlich,
sondern auch gesellschaftlich
akzeptabel und ökologisch nachhaltig
sind. Sie bieten eine Plattform, die sowohl
den wachsenden Anforderungen an Datenschutz
als auch der technologischen
Entwicklung gerecht wird.
Philipp Hofer
ist PostDoc Researcher
am Institut
für Netzwerke und
Sicherheit an der
Johannes Kepler
Universität Linz.
Seine Forschungsinteressen liegen in
der Kombination von Sicherheit und
Biometrie.
22 OCG Journal | 01 • 2025
Forschungsnachwuchs
Fairness, Transparenz und Zuverlässigkeit von KI-Systemen
von Konstantin Kueffner
Statistical Monitoring of
Fairness
Computer systems are integral to many
aspects of our lives, making decisions
that range from seemingly benign (e.g.
recommending videos) to critical (e.g.
filtering job applications) and even life-threatening
(e.g. controlling vehicles).
Ensuring these systems are well-aligned
and operate safely is crucial.
Often, undesirable behaviour is detected
by simulating the system on a curated set
of test cases, a process known as testing.
However, testing alone cannot guarantee
the absence of undesirable behaviour.
For such assurances, formal verification is
required.
FORMAL VERIFICATION
Formal verification is a rigorous approach
to ensure that a system adheres to
specified requirements. Static formal
verification involves creating tools to validate
a system’s compliance with these
specifications before execution. While effective
for safety-critical applications, this
approach struggles with the complexity
of large systems, especially those incorporating
machine learning components
like neural networks. This scalability issue
limits its practical use in many modern
systems. Runtime verification addresses
these limitations by evaluating a system’s
adherence to specifications on a single
execution. Online monitoring, a powerful
technique in runtime verification, uses
a lightweight monitor to assess the system’s
behaviour in real-time. Conversely,
classical runtime verification is limited to
simple properties, with complex properties
such as fairness often considered unmonitorable.
FAIRNESS
The definition of fairness varies between
fields. In formal verification, it specifies
non-starvation, ensuring that any requested
resource is eventually granted. In
machine learning, it specifies non-discrimination,
where a classifier’s acceptance
probability is the same for all groups. At
the core of general fairness properties is
the comparison of probabilities. We elaborate
with a small example. Consider
a game with two players, A and B, each
with a coin. Player A’s coin has a probability
p A of landing heads, while player
B’s coin has a probability p B . After a given
number of rounds, the player with the
most heads wins. The game’s fairness
can be quantified by comparing the bias
of the coins, i.e. |p A − p B |. In reality, we interpret
the coin tosses as decisions made
by a possibly randomized algorithm, then
p A and p B represent the positive decision
probability for an input of type A or B respectively,
and fairness is a specification
balancing those probabilities. This simple
property has broad applicability. Fairness
in video recommendation could be the
balancing of display probabilities of rightwing
and left-wing political content. Fairness
in hiring could be the balancing of
the acceptance probability between men
and women. Fairness in autonomous driving
could be the balancing of the probability
of computational resource access
between the camera feed and the lidar
(light detection and ranging). Unfortunately,
this crucial property cannot be
statically verified or classically monitored
in complex systems. However, it can be
monitored statistically.
STATISTICAL MONITORING
In statistical monitoring, we have a monitor
observing the realization of a stochastic
process. This could be a hiring process
where applications (randomly sampled
from some population) are filtered by a
classifier, or a sequence of interactions
between an autonomous vehicle and its
(possibly random) environment. The monitor
is given some property and is tasked
to estimate the property’s value from a
single realization if this stochastic process,
while at the same time quantifying the
uncertainty of the estimate.
The simplest setting is to monitor the
bias p of a coin over a sequence of independent
tosses X 1
, X 2
,…. At every point
in time the monitors´ task is to
compute
a lower bound L t
and
an upper bound U t
, estimating the coin’s
bias p from the history X 1
,…,X t
. This estimation
should be either sound or uniformly
sound. A sound monitor may occasionally
be incorrect with a small probability, guaranteeing
that the coin’s bias is within the
bounds with a probability greater than
1 − δ at every point in time:
01 • 2025 | OCG Journal
23
A uniformly sound monitor is guaranteed
to never make a mistake with a small probability,
ensuring that the coin’s bias is
within the bounds at all times with a probability
greater than 1 − δ:
FAIRNESS MONITOR
The primary challenge in developing a
statistical monitor is establishing sensible
lower and upper bounds. In our example,
it is sufficient to incrementally compute
the empirical bias of the coin, defined for
e v e r y a s a n d
quantifiying its time t from the true bias
using suitable concentration inequalities.
The lower- and upper-bounds are then
given by the interval .
More complex
properties, e.g. fairness properties can be
monitored by breaking it down into smaller
components, each monitored similarly
to the bias of a coin. The respective intervals
are combined to form an interval for
the overall property. In our game example,
the property |p A − p B | is decomposed
into p A and p B . By monitoring both, we
obtain the property interval
COMPLEX SYSTEMS
Real-world systems involve complex dynamics,
going far beyond independent
Figure 1: The monitor observes a sequence of decisions. Each decision X i
is made with a probability
of P i
. The decision outcome may influence the next decision probability. The task of the
monitor, estimate the current decision probability P t
with sufficient confidence from the past
decisions only. The decision is fair, if for example P t
= 1/2. © Konstantin Küffner
coin tosses. In hiring the acceptance probability
of group A members may change
depending on how well the previous applicants
performed.
In our coin example, we may allow the
bias of the coin to change over time, e.g.
the bias p t
at time t, could be a function
of the bias p t−1
and the toss outcome X t−1
(see Fig. 1). Depending on the dynamics
constructing a (uniformly) sound monitor
for p t
(or the long-run average over all p t
’s)
is non-trivial. So far, the statistical monitoring
techniques for fairness exist for computer
systems that behave like Markov
chains, well-behaved partially observed
Markov chains, or certain linear stochastic
dynamic systems.
CONCLUSION
Fairness is an important property with
a broad range of applications, ranging
from video recommendation, over hiring,
to autonomous driving. Unfortunately,
static verification of fairness properties for
modern computer systems is difficult. If
verification is not possible, statistical monitoring
can be used to guard against potential
fairness violations during runtime.
In our research we aim at broadening the
set of systems for which fairness properties
can be statistically monitored.
Konstantin
Kueffner
is a PhD student at
IST Austria, working
under the supervision
of Thomas
A. Henzinger. His
research interests lie at the intersection
of formal verification, statistics, and
machine learning, with a focus on fairness
and uncertainty quantification.
24 OCG Journal | 01 • 2025
Forschungsnachwuchs
Fairness, Transparenz und Zuverlässigkeit von KI-Systemen
von Laura Waltersdorfer
KI-Prüfbarkeit: Kontinuierliche
KI-Audits & Knowledge Graphs
Der Einsatz von Künstlicher Intelligenz
(KI) in kritischen Bereichen wie der Medizin,
Verwaltung und Justiz ermöglicht
innovative Lösungsansätze, bringt jedoch
auch verschiedene ethische und
regulatorische Herausforderungen mit
sich.
Oft genannte Kritik von KI-basierten System
in diesem Kontext ist die fehlende
Transparenz, insbesondere bei sensiblen
Entscheidungen. Bei Fehlentscheidungen
kann dadurch das Vertrauen in die
Technologie erheblich beschädigt werden.
Eine vielversprechende Lösung ist
die Durchführung von KI-Audits. Mithilfe
solcher KI-Audits soll festgestellt werden,
dass KI-Systeme geltende Vorschriften
(beispielsweise EU KI-Verordnung) und
ethische Prinzipien einhalten. Solch eine
Prüfbarkeit im Rahmen dieses Beitrags
ist definiert als das Bereitstellen von relevanten
Informationen, um präzise Auditfragen
zu einem KI-System zu beantworten.
Beispiele für Auditfragen sind: Wie
wurde das KI-Modell trainiert und welche
Daten wurden dafür verwendet? Dieser
Beitrag diskutiert Methoden zur Verbesserung
der KI-Prüfbarkeit durch kontinuierliche
Audits und den Einsatz von
Knowledge Graphs, um solche Fragen zu
beantworten.
DER BEDARF AN KI-PRÜFBAR-
KEIT
Fehlerhafte oder voreingenommene Entscheidungen
von KI-Systemen können
schwerwiegende Konsequenzen haben.
Beispielsweise wurden bereits verschiedenste
Vorfälle in algorithmischen Entscheidungssystemen
festgestellt – etwa
bei Gesichtserkennungssoftware aufgrund
von unausgewogenen Trainingsdaten.
Die Prüfbarkeit von KI ist daher
Übersicht des Audit MAI-framework © Laura Waltersdorfer
01 • 2025 | OCG Journal
25
entscheidend, um Vertrauen in deren
Einsatz sicherzustellen. Klar definierte
Auditprozesse sind daher eine wichtige
Methode, um die Fairness, Transparenz
und Zuverlässigkeit von KI-Systemen zu
prüfen und negative Auswirkungen auf
Gesellschaft und Individuen zu minimieren.
HERAUSFORDERUNGEN
BEI DER PRÜFBARKEIT VON
KI-SYSTEMEN
Die Durchführung von Audits bei KI-Systemen
ist aufgrund ihrer Komplexität
anspruchsvoll. Drei zentrale Herausforderungen
wurden identifiziert: Erstens
sind Audit-Artefakte (beispielsweise Dokumentation,
Logdaten, Softwarecode)
häufig über verschiedene Systemkomponenten
und Datenformate innerhalb der
IT-Architektur verteilt. Heterogene und
verteilte Datenquellen erschweren die
Integration und Auswertung der benötigten
Informationen. Zweitens erfordern
umfassende KI-Audits eine kontextuelle
Repräsentation, die eine ganzheitliche
Sicht auf Daten, Modellen und Prozessen
ermöglicht. Drittens gibt es eine hohe Diversität
der Informationsbedürfnisse, die
Interessensgruppen wie Entwickler*innen,
Auditor*innen und Behörden unterschiedliche
Anforderungen an Prüfinformationen
haben.
KONTINUIERLICHE AUDITS: EIN
NEUES PARADIGMA
Traditionelle KI-Audits beschränken sich
häufig auf einmalige Überprüfungen,
die auf Datenerhebungen zu einem bestimmten
Zeitpunkt beruhen. Im Gegensatz
dazu zielen kontinuierliche Auditsauf
regelmäßige, automatisierte Prüfprozesse
ab, um eine proaktive Kontrolle und
Evaluierung ermöglichen. Das AuditMAI
Framework bietet hierfür einen technologieunabhängigen
Ansatz, der die Organisation
und technische Umsetzung
solcher kontinuierlichen Audits unterstützt.
Es umfasst drei zentrale Sichten:
die Wissenssicht, die relevante Auditfragen
identifiziert und strukturiert; die Prozesssicht,
die auf der Modellierung eines
wiederholbaren Auditablaufs basiert; und
die Architektursicht, die die Entwicklung
einer Infrastruktur zur Automatisierung
von Audits ermöglicht. AuditMAI kann
folgendermaßen durch Knowledge Graphs
(KG1-4) verbessert werden:
KG1: Verknüpfung und Abstimmung
von Konzepten Knowledge Graphs helfen
dabei, Konzepte aus Bereichen wie
KI-Prinzipien übersichtlich darzustellen
und miteinander zu verknüpfen. Das erleichtert
den Zugang zu relevanten Wissen
und verbessert die Nachverfolgbarkeit
– insbesondere für das Aufnehmen
von neuen Themen oder Ergebnissen,
beispielsweise um Auslöser für bereits
vorgefallene KI-Vorfälle zu vermeiden.
KG2: Unterstützung für KI-Systemabläufe
KGs schaffen eine Grundlage, um
Abläufe und Systemkomponenten von
KI-Systemen zu dokumentieren und zu
beschreiben. Somit wird eine maschinenlesbare
Darstellung ermöglicht, die Systemgrenzen
und Auditkontexte präziser
definiert. Ebenso wird die Verknüpfung
verschiedener Informationsquellen ermöglicht,
die es einfacher macht, Daten
zu durchsuchen und besser zu interpretieren.
KG3: Gewährleistung von Datenqualität
und Integration KGs gewährleisten
die Integrität und Qualität der erfassten
Daten und Artefakte durch strukturierte
und semantische Datenverarbeitung.
Sie erleichtern die Automatisierung und
Qualitätskontrolle bei der Sammlung
und Verwaltung von Daten, indem sie
verschiedene Artefakte zusammenführen
und anhand von Werkzeugen
wie Resource Description Framework
(RDF) oder Shapes Constraint Language
(SHACL) validieren.
KG4: Unterstützung bei Datenabfrage
und Analyse KGs können Auditor*innen
die Abfrage integrierter Audit-Daten
erleichtern. Statt einer statischen
Durchsicht von Dokumentation und
Datensätzen, ermöglichen integrierte
REFERENZEN
Waltersdorfer, L., & Sabou, M. (2024). Leveraging Knowledge Graphs for AI System Auditing
and Transparency. Journal of Web Semantics.
Waltersdorfer, L., Ekaputra, F. J., Miksa, T., & Sabou, M. (2024) AuditMAI: Towards an Infrastructure
for Continuous AI Auditing. AIROV24 Symposium Presentation.
Datenquellen eine Übersicht und tiefere
Einblicke in verschiedenste Aspekte, wie
z. B. Lizenzfragen oder Prozessfragen.
Abfragen wie „Abrufen aller Datensatzbeschreibungen“
können Lücken aufzeigen,
während die Integration über den
gesamten Lebenszyklus eines Systems
hinaus auch Fragen wie „Welche Vorhersagefehler
treten häufig auf?“ oder
„Welche Fairnessmaßnahmen wurden in
verschiedenen Phasen eingesetzt?“ ermöglichen
kann.
TRANSPARENZ, NACHVOLL-
ZIEHBARKEIT UND QUALITÄT
VON KI-SYSTEMEN
Um die Risiken von fehlerhaften oder
voreingenommenen
Entscheidungen
zu minimieren, ist die Prüfbarkeit von
KI-Systemen essenziell. Einmalige Audits
reichen bei komplexen KI-Systemen allerdings
nicht aus. Kontinuierliche Audits,
also regelmäßige und automatisierte
Prüfprozesse sollen eine proaktive Kontrolle
der Systeme gewährleisten. Das AuditMAI
Framework bietet eine Grundlage
für kontinuierliche KI-Audits und vereint
Wissens-, Prozess- und Architektursicht.
Das Ziel von AuditMAI und kontinuierlichen
Audits ist aus vergangen Vorfällen
von KI-Systemen zu lernen und neues
Wissen in den Prüfvorgang zu integrieren.
Des Weiteren soll die Automatisierung
von zeitaufwendigen Schritten wie
Datenerfassung und Transformation im
Vordergrund stehen. Dies soll KI-Auditor*innen
mehr Zeit für die Planung des
Audits und Analyse der gesammelten
Daten ermöglichen. Kontinuierliche Audits
und Knowledge Graphs stellen vielversprechende
Ansätze dar, um wichtige
Ziele wie Transparenz, Nachvollziehbarkeit
und Qualität von KI-Systemen zu
evaluieren.
Laura Waltersdorfer
ist PraeDoc Studentin
an der TU Wien
und Projektassistentin
an der WU Wien.
Ihre Forschungsinteressen
umfassen
Semantic Web & Knowledge Graphs,
und KI-Prüfbarkeit (AI auditability).
26 OCG Journal | 01 • 2025
Wettbewerbe und Preise
Adolf-Adam-Informatikpreis
von Felix Schenk
Visueller Java Debugger direkt
im Web
Für Programmieranfänger*innen ist der
Einstieg oft schwierig: Zum einen ist
Programmieren oft mit dem Einrichten
einer Entwicklungsumgebung verbunden,
zum anderen muss man lernen,
wie ein Computer „denkt“.
Letzteres wird durch JavaWiz 1 , einem visuellen
Java-Debugger, vereinfacht. Mit
Visualisierungen und Animationen kann
ein Java-Programm schrittweise ausgeführt
werden, was das Verständnis des
Programmcodes erleichtert. Ziel meiner
Masterarbeit war es, JavaWiz über das
Web zugänglich zu machen. Damit sollte
die erste Hürde, die Einrichtung der Entwicklungsumgebung,
beseitigt werden.
Dieses Ziel habe ich mithilfe der Oracle
GraalVM 2 erreicht, welche später kurz beleuchtet
wird.
JAVAWIZ
JavaWiz ist ein visueller Java-Debugger,
welcher am Institut für Systemsoftware
an der Johannes Kepler Universität, Linz
entwickelt wird 1 . Das Tool kann als Erweiterung
in Visual Studio Code 3 installiert
werden und visualisiert dort Java-Programme
Schritt für Schritt. Dazu muss
ein Java Development Kit und Visual Studio
Code manuell installiert werden. Dies
ist mit meiner Masterarbeit nicht mehr
notwendig: JavaWiz ist direkt mit einem
Browser zugänglich.
GRAALVM
Die Oracle GraalVM ist ein erweitertes
Java Development Kit, das die Kompilierung
von Java-Programmen zu nativen
Programmen erlaubt und eine mehrsprachige
virtuelle Maschine zur Verfügung
stellt 2 . Im Folgenden werden die
verwendeten Projekte der GraalVM kurz
vorgestellt.
Espresso ist eine virtuelle Maschine für
Java und ist selbst in Java als Truffle-Interpreter
implementiert 2 Mithilfe von
Espresso kann ein Java-Programm innerhalb
eines anderen Java-Programms
ausgeführt werden.
Web Image ermöglicht die Kompilierung
von Java-Programmen zu JavaScript. So
kann der querkompilierte Java-Bytecode
von einem Browser ausgeführt werden.
JAVAWIZ IM WEB
Um JavaWiz über eine Website zugänglich
zu machen, gibt es zwei Möglichkeiten:
• Der von Benutzer*innen eingegebene
Screenshot Jawawiz im Web © Felix Schenk
01 • 2025 | OCG Journal
27
Java-Code wird an einen Server gesendet,
welcher diesen kompiliert und
ausführt. Die für die Visualisierung der
einzelnen Programmzustände notwendigen
Daten werden dann an die
Nutzer*innen zurückgesendet.
• Alternativ kann der Java-Code mit
JavaScript direkt auf der Client-Seite
kompiliert und ausgeführt werden.
Der erste Ansatz erfordert serverseitig
entsprechende Ressourcen und Sicherheit
um nicht vertrauenswürdigen Code
von Benutzer*innen auszuführen. Aus
diesem Grund haben wir uns bei meiner
Masterarbeit für den zweiten Ansatz entschieden.
UMSETZUNG
JavaWiz besteht aus zwei Komponenten:
dem Frontend für die Visualisierungen
und dem Backend für die Ausführung
des Codes. Da das Frontend bereits auf
Basis von Webtechnologien entwickelt
wurde, sind hier nur kleinere Änderungen
nötig. Das Backend wurde mit Kotlin
4 implementiert und erfordert größerer
Anpassung.
Um das Kotlin-Backend im Browser ausführen
zu können, wird es zu Java-Bytecode
kompiliert, um es anschließend
mithilfe von WebImage zu JavaScript zu
kompilieren. Um anschließend Java-Programme
ausführen zu können, wird Espresso
als virtuelle Maschine eingesetzt.
Da Espresso selbst in Java implementiert
ist, ist es mit gewissen Einschränkungen
(u. a. keine Threads oder Netzwerkabfragen)
möglich, Espresso mit WebImage
zu JavaScript zu kompilieren.
Das Ergebnis: Benutzer*innen können
einfach eine Website besuchen und JavaWiz
ohne weitere Einrichtung nutzen.
1
https://javawiz.net/ [Zugriff am 16.02.2025]
2
https://www.graalvm.org/ [Zugriff am
16.02.2025]
3
https://code.visualstudio.com/ [Zugriff am
16.02.2025]
4
https://kotlinlang.org/ [Zugriff am 16.02.2025]
Felix Schenk
ist bei Oracle Labs
in Linz tätig. Seine
Forschungsinteressen
sind virtuelle
Maschinen und die
dynamische Kompilierung.
Gabriele Kotsis (JKU), Wilfried Seyruck (OCG), Mathias Wöß, Felix Schenk, Nina Brandl und Achim
Mühlberger (Programmierfabrik). © JKU
ADOLF-ADAM-INFORMATIKPREIS
Der Adolf-Adam-Informatikpreis wird für hervorragende Masterarbeiten am Fachbereich Informatik der Johannes Kepler Universität
Linz verliehen. Die Linzer Informatik-Absolvent*innen können so ihre Arbeiten einer breiten Öffentlichkeit allgemein verständlich
vorstellen. Im Rahmen einer Veranstaltung mit Schüler*innen aus Oberösterreich werden die Arbeiten dann prämiert.
Felix Schenk überzeugte mit seiner gelungenen Präsentation die meisten der 450 Schüler*innen im Publikum und erreichte den
ersten Platz. In diesem Heft stellt er unseren Leser*innen seine Arbeit vor.
28 OCG Journal | 01 • 2025
Wettbewerbe und Preise
OCG Preise für Nachwuchsforscher*innen
2024
HEINZ ZEMANEK PREIS
Der Preis zu Ehren des österreichischen Computerpioniers Heinz Zemanek wird alle zwei Jahre von der Österreichischen Computer
Gesellschaft für herausragende Dissertationen auf dem Gebiet der Informatik vergeben. Nominierungsberechtigt sind die
Universitäten und Forschungsstätten in Österreich, die das Promotionsrecht in der Informatik bzw. in fachverwandten Bereichen
haben. Die Gewinner*innen werden in einem zweistufigen Auswahlverfahren ermittelt.
Die Preisträger des Heinz Zemanek Preis 2024 sind Lukas Burgholzer und Martin Schwarzl. Burgholzers Dissertation beschäftigt
sich mit der Entwicklung von Software für Quantencomputing (JKU, Betreuer: Robert Wille). Schwarzl forschte zu Remote
Side-Channel Attacks (TU Graz, Betreuer: Daniel Gruss). Lesen Sie in diesem Heft den Artikel von Martin Schwarzl und freuen Sie
sich auf den Artikel von Lukas Burgholzer im nächsten OCG Journal. .
OCG FÖRDERPREIS
Die OCG verleiht zur Förderung der Informatik und Wirtschaftsinformatik jährlich den OCG Förderpreis. Der Preis wird für hervorragende
Diplomarbeiten bzw. Masterarbeiten auf dem Gebiet der Informatik, Wirtschaftsinformatik und ihren Anwendungen an
Universitäten verliehen.
Mit einem - sehr praktischen - Problem der optimalen Sitzplatzanordnung (OSA) beschäftigt sich die ausgezeichnete Masterarbeit
von Esra Ceylan, eingereicht an der TU Wien. Die neunköpfige Jury unter Vorsitz von Gabriele Kotsis (JKU Linz)
wählte Ceylans Masterarbeit aufgrund der Komplexität und dem Tiefgang der Arbeit für den OCG Förderpreis 2024 aus.
OCG FÖRDERPREIS-FH
Die OCG verleiht zur Förderung der Informatik und Wirtschaftsinformatik jährlich den OCG Förderpreis-FH. Der Preis wird für hervorragende
Diplomarbeiten bzw. Masterarbeiten auf dem Gebiet der Informatik, Wirtschaftsinformatik und ihren Anwendungen
an Fachhochschulen verliehen.
Viktoria Frank erhält für ihre herausragende Masterarbeit an der FH Hagenberg über Orientierungshilfen für Blinde und
sehbeeinträchtigte Personen zur Gefahrenprävention mittels thermisch-taktilen Biofeedback im Lendenwirbelbereich den
OCG Förderpreis-FH 2024.
www.ocg.at/wettbewerbe-und-preise
01 • 2025 | OCG Journal
29
Heinz Zemanek Preis 2024
von Martin Schwarzl
Netzwerkbasierte
Seitenkanalattacken
Stellen Sie sich vor, Sie versuchen an den
Inhalt eines Safes zu gelangen, kennen
aber die Kombination nicht. Sie nutzen
ein Stethoskop und ein gutes Paar Ohren,
um sich das Klicken der Mechanik
anzuhören, während Sie die Kombination
durchprobieren. Ohne direkten
Zugriff auf die Kombination, knacken
Sie anhand des Klickens schrittweise
den Code. Ähnlich funktioniert eine Seitenkanalattacke.
Wir verwenden das Internet täglich ganz
selbstverständlich für Social Media, Online-Banking,
Entertainment und viele
weitere Zwecke. Immer mehr Nutzer*innen
verlassen sich dabei auf die Sicherheit
von Cloudsystemen. Die gemeinsame
Nutzung von Hardware-Ressourcen
in Multi-Tenant-Umgebungen birgt neue
Risiken wie Seitenkanalattacken.
Moderne Hardware und Software sind
auf einen hohen Leistungsgrad optimiert.
Abhängig von den Nutzereingaben
hinterlassen diese Optimierungen
messbare Seiteneffekte, die sich in der
Ausführungszeit, im Stromverbrauch,
Netzwerkverhalten oder in der elektromagnetischen
Strahlung des Geräts
widerspiegeln. Ein oft ausgenutzter Seitenkanal
ist der Zeitunterscheid beim Laden
von gecachten Daten, die in einem
Zwischenspeicher liegen und ungecachten
Daten, welche aus dem RAM geladen
werden.
PASSWÖRTER AUS CHROMIUM-
BASIERTEN ANWENDUNGEN
STEHLEN
Beim Cache-Templating großer Applikationen,
z. B. Browsern, kann man sich das
so vorstellen, dass dabei einzelne Tasten
in Eingabefeldern automatisiert eingegeben
werden und man über die Cacheaktivität
versucht zu erkennen, welche
Adressen zwischengespeichert wurden.
Schafft man es zu erkennen, wann eine
Eingabe passiert, ist man in der Lage,
über das Tippmusters einer Person einzelne
Zeichen zu erkennen. Durch die
Aufteilung des Templating-Prozesses in
mehrere Schichten konnte die Laufzeit
um ein Vielfaches verbessert werden.
Dabei machten wir eine interessante
Entdeckung: Optimierungen des Compilers
und Linkers haben verursacht, dass
alphanumerische Zeichen, auf jeweils
verschiedenen Cache-Lines in der Chromium
Applikation liegen. Deshalb konnten
wir nicht nur feststellen, wann genau
Tastendrücke im Browser stattfanden,
sondern waren in der Lage erfolgreich
einzelne Zeichen auszulesen. Da das
Chromiumprojekt auch in anderer Software
wie zum Beispiel Signal Desktop
oder Steam genutzt wird, ist es möglich
auch dort Eingaben wie zum Beispiel
Passwörter zu erkennen. Diese Sicherheitslücke
wurde bereits behoben aber
zeigt, dass man auch mit Hilfe von Seitenkanalattacken
einen Keylogger bauen
kann.
SEITENKANALATTACKEN IN
KOMPRESSIONSALGORITHMEN
Kompressionsalgorithmen wie zlib nutzen
reduzieren Daten, indem sie Muster
erkennen und effizient speichern. Die
häufigsten Komponenten sind dabei
LZ77 als Sequenzkompression und Huffman-Codierung,
um die einzelnen Zeichen
zu komprimieren.
Betrachten wir die Textsequenz A A B
C A B C:
• LZ77-Komprimierung:
LZ77 ersetzt wiederkehrende Muster
durch Referenzen auf vorherige Positionen
im Datenstrom. Die Sequenz wird
wie folgt komprimiert:
(0,0,A) – A wird eingefügt, da es das erste
Zeichen ist.
(1,1) – Das zweite A wird durch eine Referenz
auf das vorherige ersetzt.
(0,0,B) – B wird als neues Zeichen eingefügt.
(0,0,C) – C wird ebenfalls eingefügt.
(3,3) – Die Folge ABC wird durch eine Referenz
auf den Anfang ersetzt.
• Huffman-Codierung:
Die Huffman-Codierung versucht, um
häufige Zeichen kürzer zu kodieren. Die
Sequenz könnte beispielsweise so kodiert
werden: A = 000, B = 001, C = 010.
Beim Dekomprimieren müssen die
Schritte in umgekehrter Reihenfolge
durchgeführt werden.
Ein Angriff auf solche Algorithmen erfordert
[https://media.blackhat.com/
eu-13/briefings/Beery/bh-eu-13-a-perfect-crime-beery-wp.pdf],
dass ein*e Angreifer*in
eigene Daten mit den Zielinformationen
in einer Form kombinieren
kann, zum Beispiel Cookies in Browsern
könnten gemeinsam mit Daten von Angreifern
gemeinsam komprimiert oder
dekomprimiert werden. Ein Angreifer
versucht dann den geheimen Inhalt Byte
für Byte zu erraten und anhand der Kom-
30 OCG Journal | 01 • 2025
Wettbewerbe und Preise
pressionsrate zu unterscheiden welcher
Versuch korrekt war. Ein Spezialfall beim
Dekomprimieren kann zu messbaren
Zeitunterschieden führen.
Wenn ein Angreifer den richtigen Buchstaben
errät, wird die Sequenz nahezu
unkomprimierbar. Statt komplexer Algorithmen
wie Huffman-Decoding oder
LZ77 auszuführen wird nur ein schneller
memcpy auf diesen Bereich ausgeführt.
Falsche Versuche hingegen führen zu
einer regulären Verarbeitung, was deutlich
mehr Zeit benötigt. Für manche Algorithmen
bis zu 50us zwischen einem
korrekten und inkorrekten Rateversuch.
Dieser Angriff wurde mithilfe eines evolutionären
Fuzzers namens Comprezzor
entdeckt. Der Fuzzer erzeugt gezielt
Datenlayouts, um solche Edgecases zu
provozieren und die Zeitunterschiede
zwischen korrekten und inkorrekten Versuchen
zu verstärken. Dadurch kann ein
Angreifer, lediglich mit den entstandenen
Zeitunterschieden in den Netzwerkpaketen,
Informationen von einer PostgreSQL-Datenbank
extrahieren aus dem
Internet.
SPECTRE – EIN LANGZEITPROB-
LEM
Spectre erlaubt es, die Sprungvorhersagen
in modernen Prozessoren ausnutzen,
um Daten über einen Seitenkanal,
beispielsweise den Cache-Seitenkanal,
auszulesen. Modernste Prozessoren, in
Smartphones und PCs sind durch Spectre
verwundbar. Viele der bisher präsentierten
Attacken wurden in einem lokalen
Szenario demonstriert. In Browsern und
Webanwendungen kann der Angreifer
jedoch entweder nur eingeschränkt
Code ausführen, z. B. in einer Java-
Script-Sandbox, oder der Angreifer kann
nur mit einer bestimmten Schnittstelle
interagieren, was es schwieriger macht,
erfolgreiche Attacken durchzuführen. Mit
NetSpectre haben wir ein Szenario demonstriert,
das es erlaubt, Spectre auch
netzwerkbasiert auszunutzen.
POTENZIAL FÜR GEGENMASS-
NAHMEN
Die hier gezeigten Angriffe sind ein erster
Start in Richtung netzwerkbasierter Seitenkanalattacken
und stellen eine neue
Gefahr, insbesondere für Cloudanbieter,
dar. Effiziente Gegenmaßnahmen sind
daher dringend erforderlich. Dabei gibt
es auf vielen Ebenen Ansatzpunkte, die
ein koordiniertes Zusammenspiel zwischen
Hardware- und Softwaredesigner
erfordern. Beispiele hierfür sind sichere
Caches, constant-time Operationen und
Implementierungen, in-process Isolation
und netzwerkbasierte Anomalie-Erkennung
sowie netzwerbasierte Abwehr von
aktiven Angriffen.
Video zu Chromium-basierten Angriffen
Video zu netzwerkbasierter Seiten kanalangriff
Netzwerkbasierter Seitenkanalangriff © Martin Schwarzl
Martin Schwarzl
ist IT Sicherheitsforscher
und arbeitet
derzeit bei Cloudflare.
Seine Forschungsinteressen
liegen im
Bereich der Systems
Security. Zuvor hat er an der TU Graz
beim Institut für angewandte Informationsverarbeitung
und Kommunikationstechnologie
(jetzt Institute of
Information Security) promoviert.
01 • 2025 | OCG Journal
31
OCG Förderpreis 2024
von Esra Ceylan
Optimal Seat Arrangement
Structure, Algorithms, and
Complexity
What is a good approach to forming
teams while taking all preferences into
account? This deceptively simple task
becomes a challenging computational
problem known as Optimal Seat Arrangement.
You are about to start an exciting new
project where all colleagues will be divided
into teams. A key question is: Who will
you collaborate with? In general, there are
people you would rather work with than
others. For instance, you may prefer your
closest colleagues or those who complement
your skills. At the same time, there
may be people who are challenging to
collaborate with, possibly due to conflicting
working styles or communication
habits; hence, you may not want to be
in the same team with them. Therefore,
your choice of team members can influence
your motivation, participation, and
overall success in the project. Now, if you
were the only one with such a problem, it
would be easy to optimally solve it for you.
But everyone has their own preferences
when it comes to working with others.
THE PROBLEM IN FOCUS
The Seat Arrangement problem deals
with the task of designating n seats,
either physical or not, from a seat graph
to n self-interested agents. Depending
on what the seat graph looks like, seat
arrangement has many real-world applications.
For instance, in classroom
seating and meeting arrangement the
seat graph may consist of disjoint edges
and paths or cycles, respectively. In team
management or coalition formation, we
need to divide participants or players into
coalitions to accomplish certain tasks or
to play games. In these scenarios, the seat
graph may consist of disjoint cliques (i.e.,
complete subgraphs). In drone sensor
networks, drones are grouped, and each
group is assigned a leader drone to act
as the communication backbone. In this
scenario, the seat graph may consist of
disjoint stars.
Clearly, not all seat arrangements are
equally desirable or optimal since agents
have preferences over each other, and
their utility for a seat may depend on who
sits next to them. In many common applications
the agents’ preferences may be
restricted. Mutual acquaintances can be
represented with symmetric preferences,
where each pair of agents has exactly the
same preferences over each other. Binary
preferences, i.e., each preference is 0 or 1,
indicate if an agent likes or is indifferent
to another agent. Non-negative (resp.
positive) preferences can model that an
agent has no enemies (resp. only friends)
and shows his degree of affection to the
other agents, while negative values show
the degree of dislike.
The goal of Optimal Seat Arrangement
is to determine a seat arrangement that
satisfies a certain optimality or fairness
criterion. There are four typical types of
Optimal Seat Arrangement problems
that address different optimization goals,
each well studied in Economics, Social
Choice, Political Sciences, and Artificial
Intelligence, in particular Multiagent Systems:
• Maximum Welfare Arrangement
(MWA): Maximizing the overall satisfaction
across all agents.
• Maximin Utility Arrangement (MUA):
Maximizing the minimum satisfaction,
emphasizing fairness.
• Envy-Free Arrangement (EFA): Ensuring
no agent envies another’s seat.
• Exchange-Stable
Arrangement
(ESA): Ensuring no two agents would
benefit by swapping seats.
While these goals are intuitive, achieving
them is far from simple, especially given
the complex interplay of preferences and
the constraints of the seat graph.
COMPUTATIONAL COMPLEXITY:
WHY IT’S HARD
Ceylan´s research demonstrates that all
four problems are computationally challenging.
Specifically, they belong to the
class of NP-hard problems, meaning that
as the number of agents grows, the com-
32 OCG Journal | 01 • 2025
Wettbewerbe und Preise
putational effort required to find the optimal
arrangement increases exponentially.
The hardness reductions produce
instances, however, that may not be realistic.
This begs the question: How difficult
is Optimal Seat Arrangement in real-world
applications?
The goal of this work is, therefore, to investigate
the true cause of the NP-hardness
for each of the four problems mentioned
above and identify interesting restricted
cases that allow efficient algorithms. To
achieve this, we examine restricted yet
natural classes of seat graphs and preference
structures, and we conduct a refined
and parameterized complexity analysis
by approaching each problem from
a combination of three aspects:
• Seat Graph Classes: The structure of
the seat graph significantly affects
complexity. For instance, simpler graphs
like paths or cycles are easier to
handle than general graphs.
• Preference Structures: Restricting
preferences to binary or symmetric
values can sometimes simplify the
problem but does not eliminate the
computational challenges.
• Parameters: Factors like the number
of agents with non-zero preferences,
the number of non-isolated seats, or
the vertex cover number of the seat
graph can influence the problem’s difficulty.
One of the findings is that even under
highly restricted conditions - such as binary
preferences or simple graph structures
- the problems remain NP-hard.
BEYOND HARDNESS: FINDING
SOLUTIONS
Despite the inherent complexity, this
work provides hope for practical applications,
such as optimizing seating arrangements
in educational settings,
streamlining team assignments in corporate
environments, or managing group
dynamics in drone networks. By leveraging
parameterized complexity theory,
we identify cases where the problem becomes
more manageable. For example,
when certain parameters are small, such
as the number of non-isolated vertices in
the seat graph, fixed-parameter tractable
(FPT) algorithms can solve the problem
efficiently.
One innovative approach involves combining
advanced graph-theoretical
techniques with color-coding algorithms.
This method proved particularly effective
for finding welfare-maximizing arrangements
in scenarios with symmetric preferences.
A STEP FORWARD IN UNDER-
STANDING COMPLEXITY
Esra Ceylan‘s thesis on which this article
is based, delves into the computational
complexity of four Optimal Seat Arrangement
variants, a subject with many
real-world applications within Artificial
Intelligence, Theoretical Computer Science,
Economics, and Social and Political
Sciences. Given its broad applicability,
understanding the boundaries between
hard and easy cases of these problems
is crucial. By conducting a multivariate
complexity analysis across three dimensions
her thesis contributes to a deeper
understanding of Optimal Seat Arrangement’s
complexity landscape and identifies
interesting restricted cases that allow
for efficient algorithms.
Whether in classrooms, offices, or beyond,
the quest for optimal arrangements continues
to challenge and inspire.
Esra Ceylan
completed her
studies in Logic and
Computation at the
Vienna University
of Technology. Her
research interests include graph theory,
computational complexity, and
optimization algorithms.
Überreichung des OCG Förderpreises 2024, Esra Ceylan und Ronald Bieber (Generalsekretär
OCG) © Scheitz/OCG
01 • 2025 | OCG Journal
33
OCG Förderpreis-FH 2025
von Viktoria Frank
Thermisch-taktiles Biofeedback
für Blinde und sehbeeinträchtigte
Personen
Anhand jüngster Fortschritte bei tragbaren
elektronischen Geräten (sogenannten
„Wearables“) ist ein drastischer
Zuwachs an der Informationsmenge,
die in Echtzeit Anwender*innen zur Verfügung
stehen bemerkbar. Nutzt man
jedoch mehrere Geräte gleichzeitig, so
kann dies dazu führen, dass das Nervensystem
mit zu vielen Informationen im
selben sensorischen System überflutet
wird.
Die Überflutung sensorischer Systeme
führt zu Aufmerksamkeitsdefizite und einer
Störung im Denkprozess. Sowohl die
Optik als auch die Akustik wurden bereits
Gegenstand intensiver Untersuchungen
und das Ziel vieler Geräteentwicklungen.
In vielen Fällen sind die Grenzen der
Wahrnehmung der dargebotenen Informationen
erreicht. Daher ist es naheliegend,
einen weiteren Sinneskanal des
Menschen zur Informationsvermittlung
zu nutzen. 1 Ein Lösungsansatz, um eine
Reizüberflutung zu umgehen, ist der Einsatz
von nonverbalen Kommunikationsmethoden,
die zum Beispiel Informationen
über den Tastsinn vermitteln. 2
von statischen oder dynamischen Hindernissen
mit Schwierigkeiten verbunden
(vor allem bei noch nicht bekannten
Orten). Es bedarf weiterer Untersuchungen,
wie insbesondere Personen aus dieser
Zielgruppe taktiles Biofeedback über
Temperatur wahrnehmen und wie thermische
Interaktionshilfsmittel zukünftig
gestaltet werden können. Mit dem Einsatz
moderner Technologien (wie z. B.
Smart-Vision Kameras, Thermomodule,
Sensoren, Algorithmen) ist die Erweiterung
des „Sichtbereichs“ beziehungsweise
des Erfassungsradius von Blinden und
sehbeeinträchtigten Personen möglich.
Zum einen möchte man die Personen
zukünftig besser vor Gefahren schützen
und zum anderen besteht der Wunsch,
bessere Vorhersagen über potenzielle
Gefahrenquellen treffen zu können.
Im Human-centered-Interaktionsbereich
wird zunehmend erforscht, wie der
Einsatz von Temperatur als Interaktionsmodalität
genutzt werden kann. Eine
Herausforderung besteht darin, dass
Temperaturänderungen im Laufe von
Sekunden wahrgenommen werden. Dies
ist sowohl auf die langsame Reaktionszeit
der Thermorezeptoren der Haut als
auch auf die Latenzzeit der Technologie
zurückzuführen, die zur Erwärmung und
Kühlung der Haut verwendet wird. Hinzu
kommt, dass die Temperaturwahrnehmung
von einigen Faktoren (wie z. B. von
der Umgebungs- und Ausgangstempe-
THERMISCH-TAKTILES BIOFEED-
BACK
Neben der Erkenntnis, dass Blinde und
sehbeeinträchtigte Personen bei der
Fortbewegung mit dem Blindenstock im
Kopf- und Rückenbereich nicht ausreichend
geschützt sind, ist die Erkennung
Testaufbau: Startposition und Stoppbereiche © Viktoria Frank
34 OCG Journal | 01 • 2025
Wettbewerbe und Preise
Darstellung der unterschiedlichen
Temperaturinformationen im Lendenwirbelbereich
(Links und Rechts erfolgen Wärmesignale
und der Mitte ein Kältereiz)
© experto. Jan. 2023. URL: https://www.experto.
de/praxistipps/rueckenschule-fuer-z
u-hause-gesunder-ruecken-gesunde-haltung.
html%20[bearbeitet]
ratur, Kleidung, Alter, Body-Mass-Index,
Körperfettanteil) beeinflusst wird. 3 4 5 6 7
Auch sinnesphysiologische Eigenschaften
des Menschen spielen eine entscheidende
Rolle – denn der Mensch besitzt
mehr Kalt- als Warmrezeptoren. Aufgrund
von diskontinuierlichen Verteilungen
resultieren verschiedene thermische
Sensibilitäten in unterschiedlichen Körperregionen.
11
Bisherige Forschungsergebnisse zeigen,
dass über Temperaturinformation nachweislich
eine zuverlässigere Genauigkeit
in der Erkennung erzielt werden als mit
Vibrationen. Ein wesentlicher Vorteil besteht
auch darin, dass keine besondere
Aufmerksamkeit erforderlich ist und somit
Informationen angenehm übermittelt
werden können, auch in geräuschsensiblen
Umgebungen, da thermotaktiles
Biofeedback geräuschlos erfolgen kann
und von umliegenden Personen nicht
bemerkt wird. 2 5 6 7 8 Durch biegsame
Thermomodule (piezoelektrische Aktoren)
aus Silikon kann ein hoher Komfort
gewährleistet werden sowie ein höherer
thermischer Wirkungsgrad, da keine
keramische Isolierung mehr notwendig
ist. Anhand eines Stechzirkelexperiments
(ein Zweipunktschwellenabgleich, um
die räumliche Auflösung verschiedener
Körperregionen zu ermitteln), konnte
festgestellt werden, dass der Lendenwirbelbereich
im Vergleich zu Positionen an
der Handfläche, Unterarm, Zeigefinger
und Handrücken ein gutes räumliches
Auflösungsvermögen besitzt. 9 Weiteres
befinden sich in dieser Körperregion im
Vergleich zu den Extremitäten relativ viele
Kaltpunkte (6 bis 13cm²). 11
PROTOTYP
Der Prototyp besteht aus einer Kamerakappe
zur optischen Hinderniserkennung
(Pixy2 Kamera) und aus einem
Textilgürtel mit drei integrierten Thermoelementen,
der im Lendenwirbelbereich
getragen wird. Zwei flexible Wärmemodule
dienen zur Richtungsnavigation
und ein Element in der Mitte der Körperregion
signalisiert mittels Kaltsignal
den Stoppbefehl. Im Testbereich wurden
drei Luftballone (blau, orange, gelb) als
Hindernisse vordefiniert. Basierend auf
der optischen Hinderniserkennung wird
der optimale Ausweichpfad mithilfe von
Warmsignalen nach links und rechts
übermittelt. Werden diese Frühwarnsignale
jedoch ignoriert und es kommt zu
einer unmittelbaren Annäherung eines
Luftballons, wird die Stoppfunktion (Kältereiz)
noch rechtzeitig injiziert. 9
BENUTZERSTUDIE
Diese neuartige Form Temperaturinformationen
über die Lendenwirbelregion
zu empfangen, wurde mit insgesamt
acht Blinden und sehbeeinträchtigten
Personen im Zuge einer Benutzerstudie
getestet. Näher untersucht wurde
das Reaktionsverhalten, die absolute
Wahrnehmungsschwelle, Ermittlung einer
Standardkonfiguration, zwei unterschiedliche
Informationsvariationen, die
Zuverlässigkeit der Stoppfunktion mittels
Kältereiz, der subjektive „Mental Load“
und die Akzeptanz durch die Zielgruppe. 9
ERKENNTNISSE
Aus der näheren Analyse von zwei unterschiedlichen
Informationsvarianten (diskret
Studie 1 und kontinuierlich/wiederholend
Studie 2) geht kein klarer Favorit
hervor - denn der Großteil der Teilnehmer*innen
nahm keinen Unterschied
wahr. Basierend auf den Beobachtungen
konnte kein signifikanter Unterschied
im Reaktionsverhalten beider Signale
festgestellt werden. Beide Informationsarten
erzielten eine geringe Bewertung
hinsichtlich des „Mental Loads“. Allgemein
kann festgehalten werden, dass das
Stoppsignal eine rechtzeitige und zuverlässige
Reaktion auslöst. Die Hauptursache
für diverse Kollisionen liegt in der
Synchronisierung zwischen Kamera-Tracking,
Gehgeschwindigkeit und Temperaturinformationen.
9 „Eine mögliche
Standardkonfiguration, die aus der Benutzerstudie
und deren Bestimmungen
anhand der acht Studienteilnehmer*innen
abgeleitet werden kann, liegt bei
3.39s für den Stoppbefehl (ΔThaut/peltier
-0.50°C) und bei 3.86s für den Richtungsbefehl
(ΔThaut/Peltier +1.04°C“, so Viktoria
Frank.
Testaufbau: Testperson trägt den Prototyp und hat sich von der Startposition fortbewegt
©Viktoria Frank
01 • 2025 | OCG Journal
35
Alle Studienteilnehmer*innen sind sich
einig, dass der aktuelle Prototyp sich
noch nicht für die Fußgängerzone oder
den Einsatz im alltäglichen Straßenverkehr
eignet. Knapp die Hälfte der Personen
kann sich den zusätzlichen Einsatz
zum Blindenstock gut vorstellen, um
den Kopfbereich in der Zukunft besser zu
schützen. Alle Studienteilnehmer*innen
waren vom thermischen Biofeedback
positiv überrascht. 9
Textilprototyp: Textilgurt mit Thermomodulen und Seidenstoffüberzug
©Viktoria Frank
Viktoria Frank
ist UI/UX Designerin
bei Mopius Mobile
GmbH in Linz und
Lektorin für Usability
Engineering an der
FH Hagenberg. Ihr Forschungsinteresse
liegt im Bereich des Human-Factors
Engineering & Industrial Design.
REFERENZEN
1 A.T. Kern und et. al. Entwicklung haptischer Geräte. Ein Einstieg für Ingenieure. Heidelberg: Springer Verlag, 2009, S. 8
2 K. Seongho u. a. „Two-Dimensional Thermal Haptic Module Based on a Flexible Thermoelectric Device.“ Soft Robotics 7.6, 2020
3 E. Bruce Goldstein. Wahrnehmungspsychologie: Der Grundkurs. 7. Aufl. Heidelberg: Deutsche Ausgabe herausgegeben von Hands Irtel, Spektrum
Akad. Verlag, 2008
4 A. Rahman u. a. „Design and Development of Navigation Guide for Visually Impaired People.“ IEEE International Conference on Biomedical
Engineering, Computer and Information Technology for Health (BECITHCON), 2019
5 L. R. Peiris u. a. „ThermalBracelet: Exploring Thermal Haptic Feedback Around the Wrist.“ CHI ’19: Proceedings of the 2019 CHI Conference on
Human Factors in Computing Systems 170, 2019, S. 1–11
6 L. R. Peiris u. a. „ThermoVR: Exploring Integrated Thermal Haptic Feedback with Head Mounted Displays.“ CHI ’17: Proceedings of the 2017 CHI
Conference on Human Factors in Computing Systems (2017), S. 5452–5456
7 J. Tewell, J. Bird und G.R. Buchanan. „Heat-Nav: Using Temperature Changes as Navigational Cues.“ CHI ’17: Proceedings of the 2017 CHI Conference
on Human Factors in Computing Systems (2017)
8 A. Nasser, K.N. Keng und K. Zhu. „ThermalCane: Exploring Thermotactile Directional Cues on Cane-Grip for Non-Visual Navigation.“ The 22nd
International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS ’20), Virtual Event 20.1-12, 2020
9 Frank, V.: „Benutzerstudie: Orientierungshilfe für Blinde- und sehbeeinträchtigte Personen mittels thermisch-taktilen Biofeedback im Lendenwirbelbereich
zur Gefahrenprävention.“, Master thesis Human-centered computing, FH Hagenberg, Austria, 2023, (S.15 Kaltpunkteverteilung
am menschlichen Körper; S.23 Stechzirkelexperiment; S.31 Prototyp; S.63 Benutzerstudie; S.77 Auswertung Standardkonfiguration; S. 83
NASA TLX Index)
10 Frank, V.: „Orientation aid for blind people or people with low vision by using thermal-tactile biofeedback at the lumbar region for hazard
prevention: A user experiment.“, Section 11, OAC ICCHP, Johannes Kepler University, Linz, 2024 https://www.icchp.org/sites/default/files/24/
OAC_ICCHP2024.pdf
11 R.F. Schmidt, F. Lang und G. Threws. Physiologie des Menschen. mit Pathophysiologie.29. Aufl. Heidelberg: Springer Medizin Verlag, 2005,
(S.897 Kaltpunkteverteilung am menschlichen Körper)
36 OCG Journal | 01 • 2025
Informationen
FH Kufstein Tirol
von Lisa Berke
Neue Web-Studiengänge
Im Wintersemester 2025/26 startet an
der FH Kufstein Tirol der Bachelorstudiengang
Drone Engineering & AI-based
Innovation in Vollzeit sowie die beiden
Masterstudiengänge Data Science & Intelligent
Analytics und Smart Products
& AI-driven Development – ebenfalls in
der Vollzeit-Variante. Alle drei Programme
sind komplett in englischer Sprache.
Das Ausbildungsangebot der Fachhochschule
Kufstein wird stetig aktualisiert
und erweitert – so auch im Wintersemester
2025/26. Ab kommendem Herbst
steht ein neuer Bachelorstudiengang
und zwei neue Masterstudiengänge im
Bereich Web & IT als Vollzeit-Studium in
englischer Sprache zur Verfügung: Drone
Engineering & AI-based Innovation, Data
Science & Intelligent Analytics und Smart
Products & AI-driven Development. In allen
drei Studiengängen sind internationale
Kompetenzen sowie Praxisprojekte
mit (inter-)nationalen Unternehmen fest
im Curriculum verankert. „Unser Studienangebot
– sowohl für den Bachelor als
auch für den Master – wächst stetig und
passt sich den aktuellen Anforderungen
des Arbeitsmarktes an“, sagt Prof. (FH) Dr.
Thomas Madritsch, Geschäftsführer der
FH Kufstein Tirol. „Wir sind stets bestrebt,
aktuelle Trends in Wirtschaft und Forschung
nicht nur zu erkennen, sondern
Vorreiter in diesen zu sein – insbesondere
in den Feldern Digitalisierung, Nachhaltigkeit
und künstliche Intelligenz. Das
spiegelt sich sowohl in unserem Studienangebot
als auch in unseren Curricula
wider.“
DRONE ENGINEERING & AI-BA-
SED INNOVATION
Der neue Bachelorstudiengang Drone
Engineering & AI-based Innovation vermittelt
umfassende Kenntnisse der Drohnentechnologie
und ihrer Anwendungen.
Schwerpunkte sind Drohnendesign, Antriebssysteme
und elektronische Subsysteme,
basierend auf Grundlagen der Luftfahrt
und Aerodynamik. Verschiedene
Software- und Programmiermodule befähigen
die Studierenden zur Steuerung
von Drohnen und autonomen, unbemannten
Flugsystemen (UAS). Zusätzlich
ermöglichen Sensorik und Datenanalyse
eine sinnvolle Nutzung der gewonnenen
Informationen. Rechtliche Rahmenbedingungen
und Sicherheit runden das
Curriculum ab. Die Unterrichtssprache ist
Englisch, weitere Fremdsprachen sowie
ein verpflichtendes Auslandssemester
an einer der weltweit 235 Partnerhochschulen
und ein mehrwöchiges Berufspraktikum
verhelfen zu interkulturellen
Kompetenzen. Managementwissen und
unternehmerisches Denken verbessern
außerdem die Berufschancen auf dem
globalen Markt.
Die Absolvent*innen dieses Studiengangs
sind nach ihrem erfolgreichen
Abschluss technisch versiert, verstehen
die ethischen, rechtlichen und sozialen
Aspekte im Zusammenhang mit dem
Einsatz von Drohnen und sind geschult
in kritischem Denken, Problemlösung
und Projektmanagement.
DATA SCIENCE & INTELLIGENT
ANALYTICS
Der Masterstudiengang Data Science &
Intelligent Analytics* verbindet Informatik,
Statistik, Mathematik und verwandte
Anwendungsdisziplinen. Die Absolvent*innen
erlangen anwendungsbereite
Kompetenzen in Datenanalyse, Technologie,
Unternehmensanwendungen und
der Entwicklung innovativer Lösungen.
Durch praxisorientierte Data Science
Labs und projektbasiertes Lernen gewährleistet
die FH Kufstein Tirol ein hohes
Maß an fachlicher Tiefe und praktischer
Relevanz. Das Programm adressiert die
gesamte Wertschöpfungskette von Rohdaten
über Querschnittsfunktionen bis
hin zum wirtschaftlichen Erfolg.
SMART PRODUCTS & AI-DRIVEN
DEVELOPMENT*
Der Masterstudiengang Smart Products
& AI-driven Development verbindet technisches
und wirtschaftliches Wissen für
die Entwicklung intelligenter, vernetzter
Produkte. Der Fokus liegt auf der praktischen
Anwendung modernster KI-Methoden
wie generative Sprachmodelle,
Edge Computing und Machine Learning
zur Systemanalyse und -vorhersage. Der
vollständig englischsprachige Unterricht
bereitet Studierende auf internationale
Karrieren vor und bietet starke Praxisorientierung
durch projektbasiertes
Lernen. Der Zugang zu fortschrittlichen
Technologien, wie additive Fertigung,
fördert eine Hands-on-Mentalität. Interdisziplinäre
Zusammenarbeit erweitert
den Horizont und fördert die Expertise in
der Integration von KI in Produktentwicklungsprozesse
und die Schaffung intelligenter,
serviceorientierter Lösungen.
Start der drei Studiengänge Drone Engineering
& AI-based Innovation, Data
Science & Intelligent Analytics* und Smart
Products & AI-driven Development ist das
Wintersemester 2025/26 vorbehaltlich
der Genehmigung durch die AQ Austria.
01 • 2025 | OCG Journal
37
Mut, Neugier und Vernetzung von und für Frauen
von Katharina Resch-Schobel
ditact women‘s IT studies
Die ditact, women’s IT summer studies
von Frauen für Frauen, finden heuer von
25. August bis 5. September an der Paris
Lodron Universität Salzburg statt. Die
ditact ist ein gemeinsames Projekt der
Salzburger Hochschulen und lebt vom
Austausch zwischen den Hochschulen,
der IT-Praxis, Politik und Gesellschaft. Die
OCG ist seit vielen Jahren im Beirat vertreten
und arbeitet aktiv an der Gestaltung
mit. Dieses Jahr bietet die OCG als
ditact Außenstelle zum ersten Mal ihre
Räumlichkeiten für ausgewählte Kurse
an. Hier geht es ab Juni zu den Kursanmeldungen:
www.ditact.at
Die ditact hat sich zum Ziel gemacht,
mehr Frauen dazu zu motivieren in der IT
Fuß zu fassen, in diesen Bereichen aktiv
Gestalterinnen zu werden und sich damit
auch in meist gut bezahlten Branchen
Raum zu nehmen. Darüber hinaus
möchte die ditact für einen Paradigmenwechsel
sensibilisieren, um die IT auch für
Frauen* attraktiver zu gestalten. In allen
akademischen Einrichtungen der ditact
gibt es sehr erfolgreiche Frauen-Netzwerke,
wo Austausch in einer vertrauensvollen
und wertschätzenden Atmosphäre
möglich ist.
Bei der ditact haben auch Nachwuchslektor*innen
die Gelegenheit zum ersten
Mal im Hochschulbereich Lehrerfahrung
zu sammeln und gleichzeitig wertvolles
Wissen an junge Frauen weiterzugeben.
Eröffnungskeynote Stephanie Jakoubi, ditact 2024 © OCG
Eröffnung ditact 2024 Gruppenfoto © OCG
38 OCG Journal | 01 • 2025
Intern
Veranstaltungen
EDU|days
02. - 03.04.2025, Krems, Universität für Weiterbildung
dHealth
06. - 07.05.2025, Wien, Schönbrunn
Computer Science in Education. By Humans, for
Humans
13. - 14.05.2025, Wien; OCG
eBazar - MI(N)T allen Sinnen
20.05.2025, Wien, PH Wien
50 Jahre OCG - Großer Festakt
21.05.2025, Wien, TU Wien Kuppelsaal
Austrian Computer Science Day 2025
06.06.2025, Innsbruck
Constructionism 2025
24. - 27.06.2025; Zürich, Schweiz
IKT-Sicherheitskonferenz
25. - 26.06.2025, Dornbirn, Messe
OCG Sommercamp
30.06. - 04.07.2025, Wien, OCG
EGOI - European Girls Olympiad in Informatics
14. - 20.07.2025, Bonn
IOI - International Olympiad in Informatics
27.07. - 03.08.2025, Sucre, Bolivien
NetSys 2025
01. - 04.09.2025, Illmenau, Deutschland
OCG Sommercamp
01. - 05.09.2025, Leonding, HTL
IDIMIT - Interdisciplinary Information Management
Talks
03. - 05.09.2025, Hradec Kralove, Tschechien
SafeComp 2025
09. - 12.09.2025, Stockholm, Schweden
All Digital Summit
10. - 12.09.2025, La Valletta, Malta
CEEE|Gov Days 2025
03. - 05.12.2025, Bukarest, Rumänien
CEOI - Central European Olympiad in Informatics
07. - 13.07.2025, Cluj-Napoca, Rumänien
IMPRESSUM
Das OCG Journal ist die Mitgliederzeitschrift der Österreichischen Computer
Gesellschaft (OCG). Inhaltlich wird das Journal in völliger Unabhängigkeit gestaltet
und berichtet über die OCG Leitthemen Ausbildung und Qualität, Innovation und
Start-ups, internationale Vernetzung und digitale Zivilgesellschaft.
ISSN 1728-743X
Medieninhaber und Herausgeber:
Österreichische Computer Gesellschaft (OCG)
Präsident: DI Wilfried Seyruck
Generalsekretär und Leitung der Redaktion: Dr. Ronald Bieber
Redaktion: Irina Scheitz, Katharina Resch-Schobel, Josefine Hiebler
Layout und DTP: OCG | Josefine Hiebler
Lektorat: Katharina Resch-Schobel
Fotos: Archiv OCG, Autor*innen, Privatarchive, istock
Kontakt: info@ocg.at | URL: www.ocg.at
Alle: Wollzeile 1, 1010 Wien | Tel.: +43 1 512 02 35-0
Druck: Print Alliance HAV Produktions GmbH, 2540 Bad Vöslau
https://printalliance.at/fairprint
Computer
Science in
Education
By humans, for humans
May 13, 2025
About the Symposium
®
Call for Posters
We invite master’s and PhD students in computing, informatics, and related fields to
submit their research for the Computer Science in Education: By Humans, for Humans
Symposium, held at the Austrian Computer Society (OCG) in Vienna on May
13–14, 2025.
Poster Session and Pitch Presentations
Students can showcase their research in a poster session and a one-minute pitch on
May 14 to introduce their work and engage attendees.
Topics include, but are not limited to:
• Computing education practices
• AI, data science, and their applications in educational settings
• Ethical, societal, and human-centered perspectives on computing education
• Integration of computer science in K-12 and higher education
• Interdisciplinary research involving computing and education submission
Submission Deadline: April 4, 2025
More Information:
Österreichische Computer Gesellschaft • 1010 Wien • Wollzeile 1