22.04.2025 Aufrufe

OCG Journal 01 2025: IT-Nachwuchs in Österreich 2025

Das 1. OCG Journal des Jahres präsentiert wieder spannende Nachwuchs-Forscher*innen im Bereich der Informatik aus Österreich. IT Security-Themen, KI, Digitalisierung der Bauindustrie, Cloud-Computing und ethische Fragestellungen sind u.a. Themenschwerpunkte in den Arbeiten der jungen Wissenschaftler*innen.

Das 1. OCG Journal des Jahres präsentiert wieder spannende Nachwuchs-Forscher*innen im Bereich der Informatik aus Österreich. IT Security-Themen, KI, Digitalisierung der Bauindustrie, Cloud-Computing und ethische Fragestellungen sind u.a. Themenschwerpunkte in den Arbeiten der jungen Wissenschaftler*innen.

MEHR ANZEIGEN
WENIGER ANZEIGEN

Verwandeln Sie Ihre PDFs in ePaper und steigern Sie Ihre Umsätze!

Nutzen Sie SEO-optimierte ePaper, starke Backlinks und multimediale Inhalte, um Ihre Produkte professionell zu präsentieren und Ihre Reichweite signifikant zu maximieren.

OCG Journal Ausgabe 01 • 2025: | Coverbild: Autor*innen P.b.b. Verlagspostamt 1010 Wien I 02Z031460M

IT-Nachwuchs in

Österreich 2025

Ausgabe 01 • 2025 | Jg. 50 | EUR 5,00


Jetzt OCG Mitglied werden!

Nutzen Sie unser Netzwerk und profitieren Sie zusätzlich von

den exklusiven Angeboten für Mitglieder der Österreichischen

Computer Gesellschaft:

• Mitbestimmen

• Weiterbilden

• Publizieren

• Dissemination von Ihren Veranstaltungen

• Top-Räumlichkeit in der Wollzeile 1 im ersten. Bezirk (Wien)

• Ermäßigungen

FÜR STUDIERENDE BIS ZUM VOLLENDETEN 26. LEBENSJAHR GRATIS!

Mehr Informationen: ocg.at/ocg-mitgliedschaft


Editorial

Sehr geehrtes OCG-Mitglied,

liebe Leserin, lieber Leser!

Heuer ist ein besonderes Jahr für die Österreichische

Computer Gesellschaft. Wir feiern

das 50-jährige Bestehen unseres gemeinnützigen

Vereins. Auch heute sind die Vereinsziele

so aktuell wie eh und je: den Nutzen

von Information und Kommunikation

für alle zugänglich zu machen und dadurch

zu einer positiven Entwicklung der Gesellschaft

beizutragen. Als unabhängige und

gemeinnützige Organisation liefert die OCG

wichtige Impulse für Bildung, Forschung

und Entwicklung und stärkt dadurch die Innovationskraft

Österreichs.

Zum 50-jährigen Jubiläum blickt die OCG

nicht nur stolz auf ihre Geschichte zurück,

sondern auch mit Optimismus in die Zukunft.

Die vorliegende Ausgabe des OCG

Journals zeigt, dass wir in Österreich ausgezeichnete

Forscher*innen und Forschungseinrichtungen

haben. So bietet die OCG

der IT-Nachwuchsforschung in Österreich

eine Plattform, um ihre Forschungstätigkeit

vorzustellen und sich zu vernetzen. Bei

der jährlich stattfindenden IKT-Sicherheitskonferenz

des BM für Landesverteidigung

organisiert der OCG Arbeitskreis IT Sicherheit

den Young Researchers’ Day, wo ausgewählten

Jung-Forscher*innen die Möglichkeit

gegeben wird, auf der Hauptbühne

ihre Arbeiten zu präsentieren. Auch die OCG

Preise für ausgezeichnete akademische Abschlussarbeiten

fördern junge wissenschaftliche

Talente und stellen einen wichtigen

Karriereschritt dar, der erhöhte Sichtbarkeit

verspricht.

Anlässlich des OCG Festjahres veranstaltet

die OCG Reihe an Veranstaltungen, die

mit dem Jahresopening am 20. Jänner

zum wichtigen Thema Cybersicherheit in

Europa und NIS2 begonnen hat, gefolgt

vom Mailüfterl Open House am 4. März,

dem Geburtstag der OCG und schließlich

dem großen Festakt am 21. Mai im Kuppelsaal

der TU Wien.

Ich lade Sie alle ein, sich an den Feierlichkeiten

zu beteiligen und ich freue mich schon

darauf, Sie bei unseren Veranstaltungen begrüßen

zu dürfen.

Herzlichst, Ihr

Wilfried Seyruck, Präsident OCG


Inhalt

[ 10

50 Jahre OCG

3 Editorial

Wilfried Seyruck

4 Inhaltsverzeichnis

6 50 jahre OCG

OCG feiert ein halbes Jahrhundert

digitale Verbundenheit

7 Auftakt des Jubiläumsjahres

Mailüfterl Open House

Forschungsnachwuchs

8 Young Researchers´ Day

Katharina Resch-Schobel

9 Austrian Computer Science Day

Roderick Bloem

10 Angriff und Verteidigung in der

Cloud

Sebastian Chmel und Fabio

Birnegger

12 Mangelndes

Sicherheitsbewusstsein auf Social

Media

Patrick Deininger

13 KIRAS CONTAIN als motivierendes

Forschungsumfeld

Christian Luidold

15 Optimizing the Cell Assignmend

Problem

Anoki Eischer

17 Im digitalen Zeitalter der

Bauindustrie

Elisabeth Gütl

19 Hybrider Cloud Computing Ansatz

Marie Aichinger, Daniel Berger und

Adrian Hofer

21 Sicherheit und Nutzerautonomie

in der Biometrie

Philipp Hofer

23 Statistical Monitoring of Fairness

Konstantin Kueffner

24 KI-Prüfbarkeit: Kontinuierliche KI-

Adits & Knowledge Graphs

Laura Waltersdorfer

4

OCG Journal | 01 • 2025


[ 20

©istock Igor Kytyaev

Wettbewerbe und Preise

27 Visueller Java Debugger direkt im

Web

Adolf-Adam.Informatikpreis

Felix Schenk

29 OCG Preise für

Nachwuchsforscher*innen 2024

30 Netzwerkbasierte

Seitenkanalattacken

Heinz Zemanek Preis 2024

Martin Schwarzl

32 Optimal Seat Arrangement

Structure, Algorithms, and

Complexity

OCG Förderpreis 2024s

Esra Ceylan

34 Thermisch-taktiles Biofeedback

für Blinde und sehbeeinträchtige

Personen

OCG Förderpreis FH 2024

Viktoria Frank

Neuigkeiten

37 Neue Web-Studiengänge - FH

Kufstein Tirol

Lisa Berke

38 ditact women´s IT studies

Katharina Resch-Schobel

Intern

40 Veranstaltungen

40 Impressum

01 • 2022 2025 | OCG Journal

5


OCG feiert ein halbes

Jahrhundet digitale

Verbundenheit

von Irina Scheitz

Am 4. März 1975 - vor genau 50 Jahren -

wurde die Österreichische Computer Gesellschaft

(OCG) ins Leben gerufen. Das

feierten wir am 4. März 2025 mit einem

Mailüfterl Open House in der Wollzeile,

Wien Innere Stadt, gefolgt von einem

großen Festakt im Kuppelsaal der TU

Wien am 21. Mai 2025.

Bereits in den 1970er-Jahren erkannten

einige Pioniere in Österreich das immense

Potenzial von Informationstechnologien.

Einer davon war Heinz Zemanek, der

den ersten volltransistorisierten Computer

in Österreich entwickelte, das „Mailüfterl“.

Seine Vision und sein Engagement

für die Weiterentwicklung der Informationstechnologie

waren Schlüssel zur Etablierung

der OCG.

Die OCG wurde mit dem Ziel gegründet,

den Nutzen von Informations- und

Kommunikationstechnologien für alle

zugänglich zu machen und dadurch zu

einer positiven Entwicklung der Gesellschaft

beizutragen. Dies ist bis heute

unser Auftrag. Als unabhängige und gemeinnützige

Organisation liefert die OCG

wichtige Impulse für Bildung und Forschung

und stärkt dadurch die Innovationskraft

Österreichs.

Wir laden unsere Mitglieder und alle, die

der OCG partnerschaftlich verbunden

sind ein, gemeinsam mit uns am 21. Mai

2025 mit einem großem Festakt zu feiern!

50 JAHRE OCG FESTAKT

Wo: Kuppelsaal der TU Wien

Wann: 21. Mai 2025

Mehr zum Event und Programm:

6 OCG Journal | 01 • 2025


50 Jahre OCG

Auftakt des Jubiläumsjahres

Mailüfterl Open House

von Irina Scheitz

Bei der 50. Geburtstagsfeier der OCG

am 4. März kamen über 150 Gäste zusammen,

um das Jubiläum des Vereins

gebührend zu feiern. Im Mittelpunkt des

Events stand Heinz Zemaneks Mailüfterl

– der erste volltransistorisierte Computer

auf dem europäischen Festland.

Dank VR-Technologie konnten die Besucher*innen

eine virtuelle Erkundung des

legendären Rechners im Technischen

Museum Wien unternehmen. „Damals

wie heute erscheinen die USA für viele

als übermächtige Konkurrenz. Aber

auch bei uns kann man mit Tatkraft und

Kreativität enorm viel bewegen und auf

Augenhöhe agieren. Das hat Heinz Zemanek

eindrucksvoll unter Beweis gestellt“,

plädierte OCG Präsident Wilfried

Seyruck bei seiner Begrüßungsrede für

mehr Selbstvertrauen.

Zemaneks Weggefährte und ehemaliger

OCG Präsident Norbert Rozsenich

erinnerte in einem Streifzug durch die

Geschichte der OCG sowohl an die Verdienste

des Gründungsteams als auch

an Meilensteine in der weiteren Entwicklung.

Eine von TU Informatics eduLAB entwickelte

und von der OCG adaptierte

Schnitzeljagd führte durch zentrale Informatik-Konzepte,

geschichtliche Meilensteine

und aktuelle Trends. Zudem gab

es Mini-Workshops, in denen spielerisch

mit Künstlicher Intelligenz experimentiert

oder Computational Thinking mit

Aufgaben aus dem Biber-Wettbewerb

trainiert werden konnte. Beim Stand des

Arbeitskreises IT-Sicherheit versuchten

Besucher*innen eine KI auszutricksen.

Für musikalische Unterhaltung sorgte

das Bookie Mountain Jazz Trio von OCG

Ehrenmitglied Bruno Buchberger.

OCG Vizepräsidentin Ingrid Schaumüller-Bichl, OCG Präsident Wilfried

Seyruck, OCG Vizepräsidentin Eva Kühn und OCG Generalsekretär

Ronald Bieber beim Tortenanschnitt ©Scheitz/OCG

Zur Musik des Bookie Mountain Jazz Trios wurde das Tanzbein geschwungen

©Scheitz/OCG

Virtuelle Besichtigung des Mailüfterls ©Scheitz/OCG

Gäste bei der Informatik Schnitzeljagd ©Scheitz/OCG

01 • 2025 | OCG Journal

7


OCG Arbeitskreis IT-Sicherheit

von Katharina Resch-Schobel

Young Researchers´Day

Die Förderung des Forschungsnachwuchses

ist ein Kernanliegen der OCG.

Der OCG Arbeitskreis IT-Sicherheit hat in

Zusammenarbeit mit SBA Research auch

2024 wieder den Young Researchers‘ Day

im Rahmen der IKT Sicherheitskonferenz

organisiert, bei dem Jungforscher*innen

die Möglichkeit hatten, auf der Hauptbühne

und in Poster-Sessions ihre neuesten

Forschungsergebnisse zu präsentieren.

„Die Forschungstätigkeit von Young

Researchers ist von zentraler Bedeutung

für den Erfolg der österreichischen Wissenschaft

und Forschung“, bringt es

Edgar Weippl, Universität Wien und OCG

Arbeitskreis IT-Sicherheit, auf den Punkt.

Heuer hatten folgende Jungforscher*innen

Gelegenheit, ihre aktuellen Arbeiten

auf der Main Stage in der Messe Wien

am 17. und 18. September einem großen

Fachpublikum vorzustellen:

• Fabio Birnegger und Sebastian

Chmel, FH Campus Wien: Gamifizierte

Cloud-Security

• Patrick Sommer, FH OÖ Campus Hagenberg:

Automatisierte Identifikation

von Cyberbedrohungen

• Timea Pahi, FH St. Pölten: Cyber Exercises

• Ernst Leierzopf, JKU Linz: Android -

datenbasierte Sicherheitsbewertung

von BS

• Patrick A.J. Deininger, TU Graz: Unbeabsichtigte

Datenweitergabe

• Florian Holzbauer, SBA Research & Uni

Wien: Analyse rerouting Internet in

Kherson

• Tobias Pfaller, AIT Austrian Institue

of Technology: Flexible Cyber Range

Exercises

• Iris Grze, TU Wien: Bekämpfung von

Deepfakes

OCG ARBEITSKREIS IT-SICHER-

HEIT

Der Arbeitskreis widmet sich den Gebieten

Informationssicherheit und IT-Sicherheit.

Dazu gehört auch die Förderung

eines kritischen Bewusstseins gegenüber

Sicherheitsfragen.

In den letzten Jahren ist mit der Nachwuchs-Vernetzung

ein neuer Schwerpunkt

entstanden. Der Young Researchers‘

Day findet jährlich im Rahmen

der IKT-Sicherheitskonferenz des Bundesministeriums

für Landesverteidigung

(BMLV) statt.

Die nächste IKT-Sicherheitskonferenz

findet am 25. und 26. Juni 2025Messe

Dornbirn, statt.

IKT Sicherheitskonferenz 2024 Keynote © OCG

IKT Sicherheitskonferenz 2024 Poster Session © OCG

8

OCG Journal | 01 • 2025


Forschungsnachwuchs

Science and Research on Austrian Universities

von Roderick Bloem

Austrian Computer Science Day

The Austrian Computer Science Day

(ACSD) is an annual event to bring together

researchers to discuss current

trends, challenges, and advancements in

the field of Computer Science. The event

serves as a platform for networking, collaboration,

and knowledge exchange

among Computer Scientists from all Austrian

universities. It showcases the exceptional

quality of Computer Science research

in Austria.

The Austrian Computer Science Day features

mostly scientific talks, but it also

serves as a venue to recognize exceptional

quality. In particular, the OCG prize for

the best Austrian Master’s thesis and the

OCG Heinz Zemanek prize for the best

doctoral dissertation are awarded at the

Austrian Computer Science Day.

The Austrian Computer Science Day

(ACSD) was initiated in 2012 by Monika

Henzinger, Helmut Veith, and Roderick

Bloem. ACSDs were hosted at the University

of Vienna (in 2012, organized by

Monika Henzinger), ISTA (2013, Krzysztof

Pietrzak), Graz University of Technology

(2014, Thomas Pock), TU Wien (2016, Georg

Weissenbacher), JKU Linz (2016, Oliver

Bimber and Sepp Hochreiter), University

of Vienna (2017, Claudia Plant), University

of Salzburg (2018, Christoph Kirsch), WU

Wien (2019, Axel Polleres), University of

Klagenfurt (2021, Bernhard Rinner), ISTA

(2022, Dan Alistarh), Graz University of

Technology (Maria Eichlseder, 2023), and

the University of Vienna (2024, Nils Kriege).

The Austrian Computer Science Day

2025 will be held on 6 June 2025 at the

University of Innsbruck and will be organized

by Eva Zangerle and Georg Moser.

The Austrian Computer Science Day is

organized in collaboration with the Austrian

Computer Society OCG and benefits

from generous yearly grants from the

Ministry of Climate Action, Environment,

Energy, Mobility, Innovation and Technology.

Austrian Computer Science Day 2024 © Scheitz/OCG

Austrian Computer Science Day 2024 © Scheitz/OCG

01 • 2025 | OCG Journal

9


Entwicklung der Trainingsplattform „Purple Cloud“

von Sebastian Chmel und Fabio Birnegger

Angriff und Verteidigung in

der Cloud

Da immer mehr Unternehmen für ihre

IT-Infrastruktur auf Cloud-basierte Lösungen

zurückgreifen, wird der Bereich

der Cloud Security im Enterprise-Umfeld

immer wichtiger. Um auf die entsprechende

Nachfrage auf dem Arbeitsmarkt

für Fachkräfte in diesem Gebiet

reagieren zu können, benötigt es Trainings-

und Weiterbildungsmöglichkeiten.

Für die Cloud Security fällt das Angebot

an Trainings- und Weiterbildungsmöglichkeiten

weitaus geringer aus als für

andere Bereiche. Um diesen Mangel

zu adressieren, haben Sebastian Chmel

und Fabio Birnegger die Plattform „PurpleCloud“

entwickelt und dieses Projekt

auf der IKT-Sicherheitskonferenz 2024

des Bundesministeriums für Landesverteidigung

vorgestellt.

Perspektive betrachtet werden.

ABLAUF DER PURPLECLOUD

CHALLENGE

Benutzer*innen der „PurpleCloud“

durchlaufen einen vorgegebenen Ablauf.

Zuerst wird versucht, die Challenges in

chronologischer Reihenfolge aus offensiver

Perspektive zu lösen. Im Anschluss

daran, beginnt der defensive Teil. Der

Zweck dieser Reihenfolge ist es, dass die

User*innen zuerst die implementierten

Schwachstellen und Fehlkonfigurationen

in den Cloud-Ressourcen finden, verstehen

und ausnutzen und anschließend

diese Sicherheitsrisiken beheben bzw.

mitigieren.

SO FUNKTIONIERT DIE PUR-

PLECLOUD PLATTFORM

Um die Plattform zu erstellen, wurde

eine dedizierte Microsoft Azure Umgebung

aufgesetzt. Zu Beginn wurden vier

Challenges entworfen, welche jeweils

unterschiedliche Komponenten und Sicherheitsrisiken

einer Cloud Umgebung

involvieren. Anschließend wurden die folgenden

benötigten Cloud Ressourcen in

der Umgebung initiiert:

• Static Web Application (App Service)

• Storage Account (Blob Storage)

• Virtual Machine

• Managed Identity

• Key Vault

• Cosmos DB

• Function App

CLOUD SECURITY FÄHIGKEITEN

TESTEN UND VERBESSERN

Die „PurpleCloud“ wurde von den Autoren

gemeinsam im Zuge ihrer Masterarbeiten

entwickelt. Das Ziel der Plattform

ist es, User*innen eine Möglichkeit zu bieten,

in einem gamifizierten Umfeld ihre

Fähigkeiten im Bereich der Cloud Security

zu testen und zu verbessern. Dies wurde

durch realitätsnahe Challenges umgesetzt,

welche es für die Benutzer*innen

zu lösen gilt. Die Aufgaben basieren auf

Schwachstellen und Fehlkonfigurationen

in unterschiedlichen Cloud Komponenten,

welche absichtlich in eine Microsoft

Azure Umgebung eingebaut wurden.

Die Besonderheit des Projekts ist es, dass

die implementierten Challenges sowohl

aus offensiver als auch aus defensiver

Abbildung 1: IKT Sicherheitskonferenz 2024, Präsentation Sebastian Chmel und Fabio Birnegger

© Nicolas Petri

10 OCG Journal | 01 • 2025


Forschungsnachwuchs

Die Zuordnung der Ressourcen zu den

Challenges wird in Abbildung 2 dargestellt.

Nachfolgend wurden in den einzelnen

Komponenten bewusst Schwachstellen

und Fehlkonfigurationen hinzugefügt,

z. B. unzureichendes Identity and Access

Management (IAM), unsichere Application

Programming Interfaces (APIs) und

Schwachstellen in Webapplikationen. Im

Anschluss wurden auf einigen Ressourcen

spezielle Dateien (sogenannt „Flags“)

hinterlegt, welche das erfolgreiche Abschließen

einer Challenge beweisen bzw.

Informationen beinhalten, welche für die

darauffolgenden Aufgaben benötigt werden.

Wenn alle Flags gefunden wurden,

gilt der offensive Teil als abgeschlossen.

Der gesamte Pfad, welcher dafür durchlaufen

werden muss, ist in Abbildung 2

dargestellt.

Die Aufgabe für Benutzer*innen beim

defensiven Teil der Plattform ist es zu

versuchen, die bestehenden Risiken

durch unterschiedliche Maßnahmen zu

beheben. Anschließend können die Ansätze

mit einer zur Verfügung gestellten

Musterlösung verglichen werden, um

herauszufinden, ob noch weitere oder

bessere Schritte zur Behebung existieren.

Dazu gehörten Maßnahmen wie

die Einschränkung von Public Access zu

Cloud Ressourcen, die Anbindung an ein

Security Information and Event Management

(SIEM)-Tool (Microsoft Sentinel) für

Monitoring, um Anomalien zu erkennen

oder das Blockieren des SSH-Ports einer

virtuellen Maschine.

Abbildung 2: Übersicht des Attack Paths der Challenges

© Sebastian Chmel und Fabio Birnegger

Sebastian Chmel

ist Security Consultant

bei Accenture

und hat den

Master-Studiengang

IT-Security an der

FH Campus Wien abgeschlossen. Er

beschäftigt sich mit Themen rund um

die defensive IT-Security.

Fabio Birnegger

ist Penetration Tester

bei der TÜV AUSTRIA

und Masterabsolvent

des Studiengangs

IT-Security an der

FH Campus Wien. Der Fokus seiner

Tätigkeiten und Interessen liegen in

der offensiven IT-Security.

01 • 2025 | OCG Journal

11


Studie zum Risiko unbeabsichtigt Daten in Sozialen Medien offenzulegen

von Patrick Deininger

Mangelndes Sicherheitsbewusstsein

auf Social Media

In unserer digitalisierten Welt werden

soziale Medien täglich von Milliarden

von Menschen genutzt, um Informationen

zu teilen, sich auszutauschen und

Kontakte zu knüpfen. Oft bleibt unbeachtet,

dass veröffentlichte Inhalte mehr

Informationen preisgeben können, als

ursprünglich beabsichtigt.

Zu diesen Daten zählen beispielsweise

Adressen, Details von Wohngebäuden

und deren Sicherheitsmaßnahmen oder

persönliche Details, die aus Fotos, Kommentaren

oder Videos extrahiert werden

können. Der Schutz dieser Daten hat

angesichts der potenziellen Risiken für

die Privatsphäre und Sicherheit der Nutzer*innen

eine hohe Relevanz.

VIEL INTERAKTION – VIEL RISIKO

Soziale Medien fördern die Selbstdarstellung,

ohne den Nutzer*innen die

möglichen Konsequenzen ihrer Posts

ausreichend bewusst zu machen. Solche

Postings oder eine Kombination von

Postings veröffentlichen aber nicht nur

die Inhalte, die direkt geteilt werden (wie

Texte oder Bilder), sondern auch versteckte

Informationen, die durch Metadaten,

Reflektionen oder Detailausschnitte in

Bildern oder Kontextinformationen wie

GPS-Daten, enthüllt werden können.

Unsere Forschung[1] zeigt, dass viele Nutzer*innen

sich der bestehenden Risiken

aber nicht bewusst sind. Dies kann dazu

führen, dass sensible Informationen unabsichtlich

veröffentlicht werden. Moderne

Analysemethoden wie Open-Source

Intelligence (OSINT) ermöglichen die

einfache Extraktion und den potenziellen

Missbrauch solcher Informationen.

USER-VERHALTEN IN STUDIE

UNTERSUCHT

Die von uns vorgestellte Studie 1 untersucht

das Bewusstsein für die unbeabsichtigte

Veröffentlichung von sensiblen

Daten mithilfe einer Umfrage, die 192

Teilnehmer*innen aus drei Lehrveranstaltungen

der Technischen Universität Graz

einbezieht.

Den Teilnehmer*innen wurden reale Beispiele

von Social-Media-Posts präsentiert,

die potenziell sensible Daten enthalten.

Sie mussten angeben, ob sie diese Inhalte

teilen würden und welche Datentypen

sie als problematisch einstufen. Das Datenschutzbewusstsein

wurde also nicht

direkt abgefragt, sondern auch empirisch

über die Analyse realer Beispiele

von Social-Media-Posts gemessen. Die

Beispiel-Posts wurden zuvor im Rahmen

einer Vorstudie 2 mithilfe von OSINT analysiert,

um die darin enthaltenen sensiblen

Daten zu identifizieren.

Die Umfrage 1 verwendet eine Kombination

aus Likert-Skalen und offenen Fragen,

um sowohl quantitative als auch qualitative

Daten zu erheben. Die Ergebnisse

wurden statistisch ausgewertet, um Muster

und Unterschiede in der Wahrnehmung

der Teilnehmer*innen zu identifizieren.

VERHALTEN ENTSPRICHT OFT

NICHT DEM WISSEN

Wir 1 haben festgestellt, dass bis zu 21,88 %

aller Teilnehmer*innen einen Beitrag veröffentlichen

würden der sensible Daten

enthält. Im Kontrast dazu würden jedoch

zwei Drittel von ihnen diese Daten als

datenschutzgefährdend empfinden. Es

zeigte sich, dass unbewusst enthaltene

Informationen häufig übersehen werden.

Die Diskrepanz zwischen theoretischem

Wissen und praktischem Verhalten zeigt,

dass gezielte Bildungsmaßnahmen erforderlich

sind, um Nutzer*innen auf die

Gefahren aufmerksam zu machen.

Auch wenn die Umfrage[1] ein Konfidenzintervall

von 95 % erreichte, liegt die

Fehlerquote von 7,07 % bei 192 Teilnehmer*innen

immer noch über dem Standard

von 5 %. Darüber hinaus sind die

Ergebnisse hinsichtlich der Interpretation

eingeschränkt, da nur österreichische

Student*innen befragt wurden. Vor diesem

Hintergrund empfehlen die Studienautoren

eine umfassendere Umfrage

mit größerer Stichprobe.

BILDUNG IST DER SCHLÜSSEL

ZU MEHR SICHERHEIT

Die Offenlegung privater Informationen

ist für soziale Interaktionen von entscheidender

Bedeutung. Um die Risiken

unbeabsichtigter Datenexposition zu

minimieren, sollten gezielte Bildungsprogramme

entwickelt werden, die Nutzer*innen

die potenziellen Gefahren der

Veröffentlichung sensibler Daten bewusst

machen.

12 OCG Journal | 01 • 2025


Themenheader

REFERENZEN

1

Kutschera, S., Slany, W., Ratschiller, P., Gursch, S., Deininger, P., & Dagenborg, H. (2024).

Incidental Data: A Survey towards Awareness on Privacy-Compromising Data Incidentally

Shared on Social Media. Journal of Cybersecurity and Privacy, 4(1), 105-125. https://doi.

org/10.3390/jcp4010006

2

Kutschera, S. Incidental data: observation of privacy compromising data on social media

platforms. Int. Cybersecur. Law Rev. 4, 91–114 (2023). https://doi.org/10.1365/s43439-022-

00071-w

Patrick A.J.

Deininger arbeitet

an der TU-Graz an

seiner Dissertation,

ist als Hochschullektor

an der FH

JOANNEUM tätig und Geschäftsführer

der auf IT-Security spezialisierten

ARCTAROS GmbH.

Projekt für Dissertation und Nachwuchsförderung

von Christian Luidold

KIRAS CONTAIN als motivierendes

Forschungsumfeld

Mit der kommenden Umsetzung der

neuen NIS-Richtlinie (Richtlinie über

Maßnahmen für ein hohes gemeinsames

Cybersicherheitsniveau in der Union,

NIS-2) wird ein zusätzliches Augenmerk

auf die Sicherheit in Lieferketten

gelegt. Viele betroffene Organisationen

haben bereits Vorbereitungen getroffen,

jedoch wird noch auf die Novelle des

NIS-Gesetzes gewartet. Währenddessen

arbeitet auch die Forschung auf Hochtouren,

um höhere Sicherheitsstandards

ermöglichen zu können.

VON DER PRODUKTION ÜBER

DIE LIEFERKETTE BIS HIN ZU

DEN ENDKUND*INNEN

Das durch die FFG geförderte Projekt

KIRAS CONTAIN

erforscht technische,

prozessuale und organisationale Maßnahmen,

um Auswirkungen von Cyber-Angriffen

auf Lieferketten zu reduzieren

und die Resilienz der Partner zu

steigern. Der zentrale Aspekt liegt hier auf

der verbesserten Planbarkeit von Sicherheitsmaßnahmen

für Produktion und

Lieferketten.

KIRAS CONTAIN fokussiert sich hierbei auf

die Auswirkungen von Cyberangriffen auf

diese Systeme, sowie die Früherkennung,

entsprechende

Entscheidungsmodelle

und Incident Handling bei betroffenen

Organisationen. Dabei soll das Bewusstsein

von Mitarbeiter*innen in erprobten

Prozessen gestärkt werden, um im Falle

eines Vorfalls dessen Auswirkungen zu

reduzieren.

CYBER RANGE UND SERIOUS

GAMES FÜR UNIVERSITÄTEN,

UNTERNEHMEN UND BEHÖR-

DEN

Im Rahmen einer Cyber Range (einer

virtuellen Umgebung für Cybersicherheitstrainings)

können Organisationen

ihre Systeme und interne Prozesse sowie

auch ihre Abhängigkeiten in der Lieferkette

abbilden. Dabei erfolgt eine mehrstündige

Hands-on Übung, in welcher

verschiedene Rollen innerhalb einer Organisation

Vorfälle und deren Auswirkungen

erkennen und beheben sollen, während

zeitgleich Meldungen an Behörden

und offizielle Stellen, andere Lieferkettenpartner

sowie an die Öffentlichkeit trainiert

werden.

In Verbindung mit dieser Übung werden

unter anderem die darin erfolgten

Verhaltensweisen der Spieler*innen, die

Effektivität der Prozesse, das Krisenmanagement,

sowie die Koordination der

beteiligten Akteur*innen und deren

entsprechenden Verantwortlichkeiten

innerhalb und außerhalb der Organisation

analysiert, definiert und validiert. Das

dabei entwickelte Simulationsmodell

spiegelt die aktuelle Forschung der Projektpartner

wider, welches zukünftig als

Baustein für Lieferketten in der Sicherheitsforschung

dienen wird.

01 • 2025 | OCG Journal

13


FORSCHUNGSPROJEKT ALS

FUNDAMENT FÜR NACH-

WUCHSFÖRDERUNG

Die zentrale Fragestellung des Projekts

und die enge bilaterale Zusammenarbeit

von Forschungs- und Industriepartnern

in Deutschland und Österreich bieten

für die Förderung des wissenschaftlichen

Nachwuchses ein sehr motivierendes

Umfeld. In Österreich schafft dieses Forschungsprojekt

an der Universität Wien,

der BOKU und dem Austrian Institute of

Technology (AIT) eine weitere wertvolle

Möglichkeit, um wissenschaftliche Ideen

und Modelle aus dem Bereich der Sicherheitsforschung

in Kooperation mit Partnern

in Industrie und Verwaltung praxisnahe

zu erproben. Young Researchers

bietet dieses Projekt auch die Gelegenheit

zu einer ihre für die weitere Karriereentwicklung

wichtigen Vernetzung im

deutschsprachigen Raum.

Für die Dissertationen von Christoph

Jungbauer 1 und Christian Luidold 2 (Fakultät

für Informatik der Universität Wien)

und Larissa Schachenhofer 3 (Institut für

Produktionswirtschaft und Logistik der

BOKU) sowie der Nachwuchsarbeit der-

Competence Unit Security & Communication

Technologies am AIT 4 bietet dieses

Projekt somit ein sehr wertvolles anwendungsorientiertes

Umfeld. Darüber hinaus

wird auch für Studierende in Mas-

Contain Event auf der Universität Wien © OCG

terprogrammen die Chance eröffnet, an

Forschungsaktivitäten im Rahmen von

Masterarbeiten in Zusammenarbeit von

Universität Wien und AIT teilzunehmen.

REFERENZEN

1

https://ucrisportal.univie.ac.at/de/persons/christoph-jungbauer

2

https://ucrisportal.univie.ac.at/de/persons/christian-luidold

3

https://boku.ac.at/personen/person/A1DB557BA430D821

4

https://www.ait.ac.at/en/about-the-ait/center/center-for-digital-safety-security/career/security-communication-technologies

Christian Luidold

forscht als PhD-Student

an der Fakultät

für Informatik der

Uni Wien an nationalen

und internationalen

Projekten,

Forschungsschwerpunkt Information

Security Policy Management und

Security Automation .

14 OCG Journal | 01 • 2025


Forschungsnachwuchs

Automated solution methods for complex planning tasks

von Anoki Eischer

Optimizing the Cell Assignment

Problem

Decision-making in industrial manufacturing

processes can become a complex

task, since factories may consist of a

large number of machines and storage

facilities, and often many jobs need to

be planned over a long period of time.

Therefore, there is a strong need to investigate

automated solution methods

that can provide optimized solutions to

such problems.

The decisions to be made in an industrial

manufacturing process may consist of

scheduling jobs but also assigning them

to machines and storage facilities. Handling

such planning tasks manually using

human resources not only consumes a

lot of time but may also result in suboptimal

decisions.

HOW TO MANAGE A COMPLEX

PRODUCTION PROCESS

In his diploma thesis, Anoki Eischer cooperated

with an industrial partner from

the agricultural animal feed industry, who

faced a production planning problem called

the Cell Assignment Problem (CAP).

In general, the CAP consists of managing

the process in production networks composed

of multiple machines and cells,

which represent storage facilities such

as silos. An example of such a production

network can be seen in figure 1.

During the production process, the feed

is mixed by a mixing machine, represented

by M1 in the example network. Depending

on the desired end product, the

mixed feed additionally must be pressed

by a pressing machine (the example network

contains two such machines, P1 and

P2). After each production step, the feed

Figure 1: Production Network ©Anoki Eischer

is stored in a cell, which has a certain capacity

and type. Cells of type 1 represent

pre-cells, used to store intermediate products

that still need to be pressed. Cells

of type 2 are bag-loading cells and store

feed which needs to be packed into bags

before delivering it to the customers. This

is done by a bag loading machine, represented

by S1 in the example network. The

resulting bags are stored in the storage

where they are waiting to be delivered.

It is also possible to deliver feed directly

from the cells if they are of type 3 (loading

cells). A cell can only contain one material,

representing a specific type of product,

at a time. In contrast to cells, the storage

may contain an arbitrary number of different

materials and is not capacitated.

As part of the problem input, a sequence

of jobs is specified for every machine,

where a job represents one production

step, for example pressing a certain quantity

of a certain material. Each machine

needs to process its jobs in the specified

order. One part of the problem is to find

01 • 2025 | OCG Journal

15


As part of the problem input, a sequence

of jobs is specified for every machine,

where a job represents one production

step, for example pressing a certain quantity

of a certain material. Each machine

needs to process its jobs in the specified

order. One part of the problem is to find

a feasible processing schedule over all

machines. Additionally, for each job a cell

needs to be assigned, which is used to

store the produced material. Another important

part of the problem are delivery

orders, which consume certain quantities

of certain materials from cells as soon as

their requirements are satisfied, and their

due date is reached. The goal of the problem

is to minimize the total tardiness of

delivery orders, meaning that every delivery

order starts as soon as possible after

its due date.

HOW TO COMPUTE THE OPTI-

MAL SOLUTION

The main contribution of Eischer´s thesis

was finding a formal problem specification

and developing various solving

approaches for the CAP. First a constraint

programming model called M1 was formulated,

which specifies how the input

and solution is decoded as well as the

constraints that must be satisfied by a

valid solution. This model can then be

solved exactly by a constraint programming

solver, which means that the optimal

solution for a given instance can

be computed. Furthermore, Eischer developed

a more sophisticated model M2

as an alternative exact solution approach.

This model uses additional variables and

makes some assumptions on the input

which makes it possible to provide more

efficient constraint formulations.

Constraint programming solvers might

require a lot of time when solving large

instances. This is where metaheuristics

come into play. A metaheuristic is a procedure,

which generally does not provide

an optimal solution, but might be able to

find a high-quality solution fast. Eischer

chose the well-known metaheuristic Simulated

Annealing, which is a variant

of local search. Local search essentially

works as follows: Starting from an initial

solution, the current solution is iteratively

modified by applying moves, where a

move corresponds to a local change on

the solution it is applied on.

The implementation of Simulated Annealing

consisted of the following parts:

The creation of a construction heuristic

for the generation of initial solutions of

reasonable quality and subsequently the

development of a sophisticated solution

representation and four novel types of

moves to modify existing solutions. Since

Simulated Annealing relies on multiple

parameters, it only develops its full

potential when these parameters are

set in a meaningful way. Therefore, the

parameters had to be tuned, which was

accomplished by using iterated racing, a

well-established method for automated

algorithm configuration.

The industrial partner provided one real-life

instance of the CAP. Since a large

and diverse set of instances is needed to

provide a reasonable evaluation of the

implemented algorithms, the need for

artificial problem instances emerged. Therefore,

Eischer developed a randomized

instance generator which was used to

create 160 instances of the CAP. These instances

were divided into 60 tuning and

100 testing instances. While the tuning

instances were used to perform parameter

tuning for Simulated Annealing, the

final experiments were performed on the

testing instances.

ANALYSING SUCCESS RATE OF

FOUR DIFFERENT APPROACHES

An interesting result of the experiments is

that if multiple algorithms find a feasible

solution for a given instance, the respective

objective values match in most of the

cases. Therefore, the most meaningful

comparison can be made by analysing

the success rate, which is defined by the

percentage of instances for which a feasible

solution could be found within a given

time limit. The table below shows the

success rate of each of the four developed

approaches (Models M1 and M2, construction

heuristic, Simulated Annealing).

To get more detailed insights, the instances

were divided into four size categories.

It can be seen that both constraint programming

models were able to solve all

of the smallest instances. Their success

rate drops when solving larger instances,

especially for model M1. In contrast,

the construction heuristic has a relatively

constant success rate over all instance categories

and even performed better than

model M2 on large instances. Simulated

Annealing turned out to be the best of

the developed approaches with an average

success rate of 84 percent.

When testing the various algorithms on

the real-life instance, none of the constraint

programming models could solve

it, probably due to its large size. However,

the construction heuristic was able

to find a feasible solution. This solution

could not further be improved by Simulated

Annealing. One possible explanation

for this is that the solution returned by

the construction heuristic might be already

optimal.

Tabelle Erfolgsrate Algorithm © Anoki Eischer

Anoki Eischer

studierte Logic and

Computation an der

TU Wien. Im Rahmen

seiner Masterarbeit

beschäftigte er sich

mit einem komplexen, praktischen

Optimierungsproblem.

16 OCG Journal | 01 • 2025


Forschungsnachwuchs

Cybersecurity - Risikomanagement

von Elisabeth Gütl

Im digitalen Zeitalter der

Bauindustrie

Die zunehmende Digitalisierung der

Bauindustrie bringt eine Vielzahl von

Möglichkeiten, aber auch neue Herausforderungen

mit sich, nicht zuletzt im

Bereich der Cybersecurity.

Unter dem Stichwort Bauumgebung

4.0 wird eine kollaborative Baustelle

verstanden, auf der Beteiligte vernetzt

interagieren. Bislang existieren wenige

Untersuchungen zu den neuen Vulnerabilitäten

einer steigenden Digitalisierung

im Bauwesen und neu auftretende Pfade

für Cyberangriffe sind, speziell in der

Projektphase der Baurealisierung, kaum

erforscht. Eine ganzheitliche Cybersecurity-Risikomanagementstrategie

soll als

Leitfaden für das Bauwesen veranschaulichen,

wie Cyberrisiken durch geeignete

Maßnahmen präventiv gemindert werden

können, wie man im Falle eines Cyberangriffs

agiert und welche Rolle der

Sensibilisierung von Mitarbeiter*innen

zukommt.

STEIGENDE CYBERATTACKEN IM

BAUWESEN

Die Anzahl der Cyberattacken auf Unternehmen

der Bauindustrie nimmt zu und

spiegelt sich beispielsweise in Angriffen

auf Unternehmen wie Vinci SA 1 oder Bird

Construction 2 wider. In der Vergangenheit

zielten Cyberattacken auf Bauunternehmen

meist auf die Entwendung

oder Verschlüsselung von sensiblen

Daten ab, um eine Lösegeldforderung

bei Datenverschlüsselung (Ransomware-Angriff)

zu stellen. Durch die limitierte

Veröffentlichung von Informationen

zu Cyberattacken ist es oftmals schwer

nachzuvollziehen, wie Hacker in Unternehmenssysteme

eindringen konnten

und welche konkreten Maßnahmen

nachgehend vollzogen wurden, um gegen

zukünftige Cyberattacken gerüstet

zu sein. Die weiter voranschreitende Digitalisierung

im Bauwesen lässt die Annahme

zu, dass neue Vulnerabilitäten

geschaffen werden, die es Hackern vermehrt

ermöglichen ein System anzugreifen.

DIE BAUPROJEKTPHASEN

Der Bau eines Objekts kann in fünf Projektphasen

eingeteilt werden, die sich

aus Projektvorbereitung, Planung, Ausführungsvorbereitung,

Ausführung und

Projektabschluss zusammensetzen.

Die Projektphase Ausführung bezeichnet

jenen Teil eines Bauprojekts, der die

ausgeschriebenen Leistungen umsetzt

und das Bauobjekt realisiert. Durch den

Auftraggeber erfolgt in den Phasen vor

der Realisierung die Vergabe eines Bauprojekts

an den Auftragnehmer. Dem

Auftraggeber kommt im Zuge der Realisierung

des Objekts durch Fortschrittskontrollen

eine Überwachungsfunktion

zu. Dem Auftragnehmer obliegt die Erstellung

des Objekts im vorgegebenen

Zeitrahmen, wobei er, im Eigeninteresse,

möglichst kostengünstig verbleiben will. 3

Im Folgenden soll der Fokus auf diese

Phase gelegt und Beispiele der Teilelemente

der Ausführungsphase einer Bauumgebung

4.0 beschrieben werden.

3

Hofstadler, C., Kummer, M. (2017). Methoden

des Chancen- und Risikomanagements in den

Projektphasen. In: Chancen- und Risikomanagement

in der Bauwirtschaft. Springer

Vieweg, Berlin, Heidelberg.

1

https://markets.vontobel.com/de-ch/inspiration/35650/cyber-security-vinci-sa-wurde-gehackt,

Stand 4.1.2025

2

https://www.enterprotect.com/resource-center/ransomware-hits-canadian-federal-contractor-bird-construction,

Stand 4.1.2025

Beispiel einer vernetzten Baustelle © Elisabeth Gütl

01 • 2025 | OCG Journal

17


Der Informationsaustausch zwischen

den Teilelementen, welche an der Realisierung

beteiligt sind, erfolgt nach DIN

EN ISO 19650-1 4 über eine Common Data

Environment (CDE). Diese beschreibt

den Aufbau einer im Projekt genutzten

gemeinsamen Datenumgebung als Kollaborationsplattform,

welche einen Informationsaustausch

über die Phasen des

Bauprojekts ermöglicht. Unter Berücksichtigung

gesetzlicher Vorgaben arbeiten

autonome mit manuellen Baugeräten

zusammen und werden anhand des

Human-Machine-Interface von Mitarbeiter*innen

gesteuert.

Daten zur Übertragung an andere Projektteilnehmer*innen

werden drahtlos

an die CDE gesendet, in welcher diese

verarbeitet, analysiert und für Bauleiter*innen

und andere Beteiligte zugänglich

gemacht werden.

Bauleiter*innen oder Koordinator*innen

können die Zusammenarbeit von

autonomen und manuellen Maschinen

mit mobilen Geräten steuern, indem sie

dem autonomen Bauequipment über

die CDE Aufgaben oder Prioritäten zuweisen.

Das autonome Equipment kann

dann über das zentrale System informiert

werden, wie es seine Arbeit anpassen soll,

4

SO (2018): ISO 19650-1: Organization of information

about construction works – Information

management using building information

modelling – Part 1: Concepts and principles,

1. Auf., verfügbar unter: https://www.iso.org/

standard/68078.html, Stand 5.10.2024

um mit nicht-autonomen Maschinen

und Menschen zu kollaborieren. Weiters

kann eine autonome Maschine mithilfe

von Sensoren oder Kameras erkennen,

wo sich andere Maschinen in ihrem Umfeld

befinden. Diese Informationen werden

genutzt, um die Bewegungen so zu

koordinieren, dass Kollisionen vermieden

werden.

STRATEGIE FÜR CYBER-SECU-

RITY-RISIKOMANAGEMENT DER

BAUUMGEBUNG 4.0

Eine Strategie für Cybersecurity-Risikomanagement

ist als präventive Basis zu

sehen und setzt relevante Schritte zum

Schutz eines Unternehmens – sowohl

vor als auch nach einem potenziellen

Cyberangriff. Sie setzt sich aus mehreren

Teilschritten sowie Abfolgen zusammen

und bietet einen gesamtheitlichen Ansatz,

von der Analyse von Bedrohungen

bis hin zum Vorfallsmanagement infolge

eines Cyberangriffs.

Durch den Einsatz von Elementen der

Bauumgebung 4.0 ergeben sich neue

Cyberangriffspfade für das System. Der

erste Schritt, um diese zu erheben, ist

eine Bedrohungsanalyse, um die schützenswerten

Elemente eines Systems zu

ermitteln und potenzielle Angriffspfade

offenzulegen. Nachfolgend wird durch

eine definierte Bewertungsmethode ermittelt,

welche Angriffspunkte die höchste

Risikobewertung aufweisen und es

werden entsprechende Maßnahmen

definiert. Hierbei gilt es, aus einer Vielzahl

von möglichen Methoden, die passendste

für die Bedrohungsanalyse einer Bauumgebung

4.0 zu ermitteln.

Für Angriffspfade, die anhand der Bedrohungsanalyse

als besonders vulnerabel

eingestuft wurden, sind passende Cybersecurity-Maßnahmen

zu treffen, um die

Wahrscheinlichkeit eines Cyberangriffs

auf teilnehmende Elemente zu minimieren.

Insbesondere gilt es hier den Nutzenaspekt

von Security-Investitionen abzuwägen

und mit KPIs belegen zu können,

welche Maßnahmen implementiert

werden, um das System ausreichend zu

schützen. Des Weiteren muss im Falle eines

Cyberangriffs, im Rahmen des Cybersecurity-Risikomanagements,

das Vorfallsmanagement

beschrieben sein, um

schnelle Reaktionen setzen zu können.

ZUKÜNFTIGE FORSCHUNG

Im weiteren Verlauf der Dissertation erfolgt

eingehend eine Auseinandersetzung

mit den Vulnerabilitäten der Bauumgebung

4.0 sowie eine umfangreiche,

ganzheitliche Betrachtung einer Strategie

für Cybersecurity-Risikomanagement

im Bauwesen. Dabei gilt es auch

den Investitionsaspekt zu behandeln, der

durch den Return on Security Investment

(ROSI) als möglicher Indikator behandelt

wird und im Speziellen in der Baubranche

bei OT- und IT-Security-Investments

schwierig zu beziffern ist.

Elisabeth Gütl

forscht als Dissertantin

am Institut

für Baubetrieb und

Bauwirtschaft der

TU Graz (Betreuung:

Univ.-Prof. Dipl.-Ing. Dr. techn. habil.

Christian Hofstadler). Der Fokus ihrer

wissenschaftlichen Arbeit liegt auf der

steigenden Digitalisierung im Bauwesen

und den damit einhergehenden,

neu auftretenden Cyberrisiken einer

vernetzt agierenden Bauumgebung.

18 OCG Journal | 01 • 2025


Forschungsnachwuchs

Forschungsdatenmanagement im universitären Kontext

von Marie Aichinger, Daniel Berger und Adrian Hofer

Hybrider Cloud Computing

Ansatz

Moderne Forschungsprojekte sind oft

abhängig von großen Datenmengen,

die sowohl verarbeitet als auch gespeichert

und analysiert werden müssen.

Um die Sicherheit von Forschungsdaten

zu gewährleisten und zusätzlich performante

Cloud Services einsetzen zu können,

haben wir einen hybriden Ansatz

in Kooperation mit dem Zentralen Informatik

Dienst (ZID) an der Universität

Wien umgesetzt.

HANTIEREN MIT HOHEN DATEN-

MENGEN IN FORSCHUNGSPRO-

JEKTEN

Über die letzten Jahrzehnte hat sich das

Angebot von Daten drastisch erhöht.

Sensoren, IoT-Geräte und soziale Medien

sind in der Lage, in sehr kurzer Zeit eine

gewaltige Datenmenge zu produzieren.

Hierbei spricht man von Big-Data, also

großen Datensätzen, die nur schwer zu

analysieren sind. Zudem fungiert das

Internet selbst wie eine riesige Datenbank,

in der Informationen aus aller Welt

gesammelt und langfristig gespeichert

werden.

Die neuartige Verfügbarkeit von großen

Datenmengen hat auch Auswirkungen

auf die Wissenschaft. Immer öfter sind

umfangreiche Datensätze gefragt, um

noch präzisere Analysen oder Lösungen

zu erstellen. Besonderes im Bereich der

Künstlichen Intelligenz, wo Datensätze

schätzungsweise im Petabyte Bereich liegen,

zeichnet sich das hohe Angebot ab.

Jedoch verbirgt sich neben den vielfältigen

Möglichkeiten auch ein vergleichbar

komplexes Problem. Aus dem hohen Datenangebot

ergeben sich neue Herausforderungen,

wie beispielsweise die Speicherung

dieser Daten in einem für die

Analyse vorteilhaftes Format. Auch in unserer

Forschung benötigen wir eine große

Menge an Daten, die wir verarbeiten

und speichern müssen, denn diese sind

sowohl für Tests als auch den operativen

Betrieb unseres Systems unabdingbar.

Da wir weder über das Budget verfügen

noch den Wunsch hegen, ständig das

neuste und performanteste Equipment

zu ersteigern, welches wenige Jahre später

wieder obsolet wird, sind wir gezwungen

nach neuen Ansätzen zu suchen,

um mit den oben genannten Problemen

umzugehen. Eine mögliche Lösung ist

es, Hardware nicht zu kaufen, sondern zu

mieten.

MOTIVATION FÜR DIE NUTZUNG

VON CLOUD COMPUTING

Cloud Computing (CC) bezeichnet die

Anmietung und Nutzung externen Rechenressourcen

über das Internet. Der

Anbieter dieser Ressourcen wird als

Cloud Service Provider (CSP) bezeichnet.

Wir haben uns für Microsoft Azure als unseren

CSP entschieden, wobei es noch

andere Angebote, beispielsweise von

Amazon und Google gibt.

Die Gründe, warum sich Forschende für

Cloud Computing entscheiden, variieren

je nach Projekt. Es gibt jedoch einige allgemeine

Vorteile und Stärken, wie Skalierbarkeit

und Elastizität (die Möglichkeit,

Ressourcen je nach Bedarf zuzuweisen),

Kosteneffizienz (keine Anschaffungskosten,

keine Amortisierung, nutzungsbasierte

Preismodelle), Fehlertoleranz und

Notfallwiederherstellung (Bereitstellung

von Backups oder Failover-Lösungen)

sowie natürlich die Vielfalt der angebotenen

Dienste. Azure beispielsweise bietet

über 200 Dienste in verschiedenen Kategorien

wie KI und Machine Learning,

Analysen, Datenbanken, Netztechnologie

oder Speicher.

DOWNSIDES VON CLOUD APPS

Die Möglichkeit, Drittanbieter-Ressourcen

nach Bedarf zu mieten, ist sowohl

eine der größten Stärken von CC als auch

ein erhebliches Risiko. Die Abhängigkeit

von dem gewählten CSP birgt Herausforderungen

wie Vendor Lock-In (die

Schwierigkeit, einen CSP aufgrund enger

Bindung an dessen Diensten wieder zu

„verlassen“ bzw. zu wechseln) und eine

reduzierte lokale Kontrolle von kritischen

Daten und der zugrunde liegenden Infrastruktur

(OS, Hardware, Firmware usw.).

In unserem Kontext ist der Schutz sensibler

(Forschungs-)Daten von besonderer

Bedeutung. Obwohl viele CSPs gängige

Datenschutzrichtlinien einhalten, gelten

dennoch oft universitäre Sonderregelungen

(insbesondere im Umgang mit personenbezogenen

Daten).

Zusätzlich bedeutet das Entwickeln von

Cloud-basierten Applikationen einen zusätzlichen

Komplexitätsgrades, der mit

der Administration der gewählten Services

einherkommt.

Um diese Risiken und Probleme zu mindern,

haben wir uns für einen hybriden

Ansatz entschieden.

HYBRIDER ANSATZ

Im Kontext unserer Forschung bedeutet

ein hybrider Ansatz die kombinierte Ver-

01 • 2025 | OCG Journal

19


ermöglicht, also die Verbindung zwischen

zwei VPN-Gateways. Einer dieser

Gateways befindet sich in der Cloud, der

andere im Universitätsnetzwerk. Zur Aufsetzung

des VPN-Gateways in der Cloud

wurden die entsprechenden Services genutzt.

Im Universitätsnetzwerk wurde ein

VyOS-Router als Gateway konfiguriert,

welcher die Kommunikation zwischen

dem Cloudnetzwerk und einem bereitgestellten

Subnetz des Universitätsnetzwerks

ermöglicht.

Um die Funktionalität des Tunnels zu

demonstrieren, wurden Teile eines Forschungsprojekts

in die Cloud migriert.

Dabei dient eine Rest API als zentraler

Einstiegspunkt in das System, dessen

Kernlogik ein Projektserver darstellt. Die

lierbarkeit und Effizienz von Cloud-Services

mit der Sicherheit von lokal gehosteten

Daten und der Kontrolle über die

lokale Infrastruktur. Dies ermöglicht eine

flexible, leistungsstarke und datenschutzfreundliche

Lösung für Forschungsprojekte

mit großen Datenmengen. Die

Vorteile der Nutzung von Cloud Services

hängen weiterhin stark vom Projekt ab.

Außerdem werden durch den hybriden

Ansatz nicht alle Nachteile ausgehebelt.

Der administrative Aufwand bezüglich

der Cloud-Services bleibt bestehen oder

kann sich sogar erhöhen, da zusätzliche

Services für die Kommunikation benötigt

werden. Daher sind Vor- und Nachteile

dieser Ansätze grundsätzlich immer abzuwiegen.

Erst wenn die Notwendigkeit

Hybrid Network Approach ©Aichinger, Berger und Hofer

wendung von Universitärer- und Cloud

IT-Infrastruktur. Die Verwendung eines

solchen hybriden Ansatzes ermöglicht

die Nutzung von Cloud-Services und alle

damit verbundenen Vorteile, wie Skalierbarkeit

und Kosteneffizienz, ohne auf

lokale Kontrolle zu verzichten. Sensible

Daten können weiterhin auf der lokalen

IT-Infrastruktur gespeichert werden, was

einen einfacheren Umgang mit ihnen

ermöglicht und den Datenschutz sicherstellt.

Zudem können weiterhin auch

bestehende lokale Datenbanken und virtuelle

Maschinen genutzt werden, wenn

diese kosteneffizienter sind. Während der

Entwicklungsphase ist ein hybrider Ansatz

besonders vorteilhaft, da er maximale

Flexibilität bietet.

IMPLEMENTIERUNG

Die Verbindung zwischen der Cloud und

dem Universitätsnetzwerk wird durch

einen IPsec Tunnel realisiert. Dieser Tunnel

ermöglicht es den beiden ansonsten

isolierten Netzwerken miteinander zu

kommunizieren. Die Kommunikation

wird durch eine Site-to-Site Verbindung

in dem System verwendete Datenbank

mit unseren Forschungsdaten wurde aus

Sicherheitsgründen nicht migriert. Die

Kommunikation zwischen dem in der

Cloud gehosteten Projektserver und der

lokal gehosteten Datenbank wurde über

den IPsec Tunnel ermöglicht.

HYBRIDE LÖSUNG ALS CHANCE

Der hybride Cloud-Ansatz vereint die Ska-

einer Migration in die Cloud besteht, ist es

auch von Vorteil einen Hybriden Ansatz

zu verfolgen. Vorsicht ist geboten bei der

Auswahl der Leistungsfähigkeiten der

Services, um diese weiterhin mit einem

akademischen Budget zu finanzieren.

Insbesondere im akademischen Umfeld

stellt diese Architektur eine nachhaltige

und kosteneffiziente Strategie für zukünftige

Projekte dar.

Marie Aichinger

ist PraeDoc der

Forschungsgruppe

Multimedia Information

Systems an der

Fakultät für Informatik

@ UniVie, hat den Forschungsschwerpunkt

„Data Pipelines for the

Analysis and Exploration of Related

Data on the Web“.

Daniel Berger

ist PraeDoc der

Multimedia Information

Systems

Forschungsgruppe

an der Fakultät für

Informatik der Universität Wien. Sein

Forschungsfokus liegt auf “Generation

and Execution of Parameterized

Comparison Metrics in the Context of

Conflict Detection on Data available

on the Web”.

Adrian Hofer

arbeitet als wissenschaftlicher

Mitarbeiter

in der Multimedia

Information Systems

Forschungsgruppe

an der Fakultät für Informatik der Universität

Wien. Sein Forschungsfokus

liegt auf “Information Extraction as

Structured Data from Unstructured

Web Pages in the Context of Automatic

Conflict Detection”.

20 OCG Journal | 01 • 2025


Forschungsnachwuchs

Dezentrale Biometrische Authentifizierung

von Philipp Hofer

Sicherheit und Nutzerautonomie

in der Biometrie

Zentralisierte biometrische Systeme

sind aufgrund ihrer einfachen Verwaltung

und schnellen Skalierbarkeit weit

verbreitet. Sie speichern biometrische

Merkmale wie Gesichtszüge, Fingerabdrücke

oder Iris-Muster in einer zentralen

Datenbank, um eine schnelle

Verifizierung gegen einen einzigen Referenzdatensatz

zu ermöglichen. Doch

diese Architektur birgt nicht zu unterschätzende

Schwächen. Ein Hauptproblem

ist die Anfälligkeit für Datenlecks.

DIE SCHWÄCHEN ZENTRA-

LISIERTER BIOMETRISCHER

SYSTEME

Zentralisierte Systeme sind attraktive Ziele

für Angreifer, da ein erfolgreicher Angriff

auf die zentrale Datenbank massive

Mengen sensibler Daten kompromittieren

kann. Der Hack des (zentralen) indischen

Aadhaar-Systems, bei dem Daten

von über einer Milliarde Menschen kompromittiert

wurden, illustriert die Risiken.

Neben externen Angriffen besteht auch

die Gefahr des internen Missbrauchs

durch Mitarbeiter*innen oder Betreiber.

Darüber hinaus gibt es fundamentale

ethische und datenschutzrechtliche

Probleme. Zentralisierte Systeme ermöglichen

potenziell eine umfassende

Überwachung durch staatliche Stellen

oder Unternehmen. Hinzu kommt, dass

Nutzer*innen kaum Kontrolle über ihre

biometrischen Daten haben. Anders als

Passwörter, die bei Kompromittierung ersetzt

werden können, sind biometrische

Merkmale einzigartig und unveränderlich.

Eine Kompromittierung hat somit

dauerhafte Konsequenzen.

Ein weiteres Problem ist die mangelnde

Skalierbarkeit und Flexibilität in spezialisierten

Szenarien. Zentralisierte Systeme

erfordern häufig aufwendige Anpassungen,

um beispielsweise Multi-Modalitäten

wie die Kombination von Gesichtserkennung

und Stimmerkennung zu

unterstützen. Diese Einschränkung erschwert

den Einsatz in Bereichen, wo individuelle

Anforderungen an Sicherheit

und Benutzerfreundlichkeit bestehen. In

dezentralisierten Systemen gibt es hingegen

viele Komponenten, die kompatibel

miteinander sein müssen. Dies erfordert

eine deutlich strengere und klarere Spezifikation,

da die verschiedenen Elemente

unabhängig voneinander entwickelt

werden. Im Gegensatz dazu sind zentrale

Systeme oft nur durch den meist proprietären

Quellcode spezifiziert, was Änderungen

erheblich erschwert.

DEZENTRALE ANSÄTZE ZUR

STÄRKUNG VON DATENSCHUTZ

UND EFFIZIENZ

Dezentrale Systeme können diese zentralen

Datenanhäufungen adressieren, indem

sie biometrische Daten auf verschiedene

Knotenpunkte verteilen. Statt einer

zentralen Datenbank werden die Daten

lokal auf benutzereigenen Geräten wie

Smartphones oder VMs gespeichert. Dies

reduziert das Risiko eines umfassenden

Datenlecks und stärkt die Kontrolle der

Nutzer*innen über ihre eigenen Daten.

Eine zentrale technologische Herausforderung

bei dezentralen biometrischen

Systemen ist die effiziente Speicherung

und Verarbeitung biometrischer Merkmale.

In zentralisierten Systemen ist dies

vergleichsweise einfach: Biometrische

Merkmale werden in hochdimensionale

Vektoren, sogenannte Embeddings,

umgewandelt und an einer zentralen

Instanz gespeichert, wo sie direkt miteinander

verglichen werden. In dezentralen

Architekturen hingegen erschwert die

verteilte Natur die direkte Verfügbarkeit

der Daten. Oft möchten Nutzer*innen

ihre Embeddings überhaupt nicht teilen,

um ihre Privatsphäre zu wahren. In

solchen Fällen können kryptografische

Verfahren wie Multi-Party Computation

oder Zero-Knowledge-Beweise zum

Einsatz kommen. Damit diese Verfahren

(effizient) eingesetzt werden können,

sind kleinere Embeddings essenziell.

Diese hochdimensionalen Vektoren bieten

eine mathematische Repräsentation

biometrischer Daten und ermöglichen

dadurch eine kompakte und ressourcenschonende

Speicherung. In Philipp Hofers

Dissertation konnte die Größe dieser

Embeddings um 96 % reduziert werden,

ohne die Erkennungsleistung wesentlich

zu beeinträchtigen. Dies senkt den Speicherbedarf

und ermöglicht den Einsatz

auf ressourcenbeschränkten Geräten wie

eingebetteten Systemen oder Smartcards

sowie aufwändigere kryptographische

Methoden mit besseren Privatsphäre-Garantien.

01 • 2025 | OCG Journal

21


FORTSCHRITTE IN DER GE-

SICHTSERKENNUNG AUF RES-

SOURCENBESCHRÄNKTEN

GERÄTEN

Die Gesichtserkennung gilt als eine der

am häufigsten verwendeten biometrischen

Systeme. Insbesondere auf Geräten

mit begrenzter Rechenleistung stellt

dies jedoch eine rechenmäßige Herausforderung

dar. Der Prozess umfasst die

Gesichtserkennung im Bild, die Extraktion

relevanter Merkmale und den Vergleich

mit gespeicherten Embeddings.

Neuronale Netzwerke, die häufig für die

Gesichtserkennung eingesetzt werden,

benötigen oft beträchtliche Rechenressourcen,

selbst während der Inferenz.

ROBUSTE UND SKALIERBARE

LÖSUNGEN

Die entwickelten Ansätze wurden in realen

Umgebungen getestet. Prototypen

wurden in öffentlichen Gebäuden und

auf Wegen zu privaten Häusern eingesetzt.

Ein Beispiel ist die Installation von

Kameras in einem Flur, die Personen erkennen

konnten, ohne auf eine zentrale

Datenbank zuzugreifen.

Die Ergebnisse zeigen, dass die Kombination

aus kompakten Embeddings,

optimierter Gesichtserkennung und de-

Um diese Herausforderungen zu bewältigen,

wurde in Hofers Dissertation eine

spezialisierte Methode entwickelt, die

verschiedene, bereits bestehende Modelle

kombiniert einsetzt. Ein Ansatz ist die

adaptive Nutzung von kleinen Modellen

für schnelle Echtzeit-Erkennung, während

ressourcenintensivere Modelle nur

bei Bedarf für die Validierung verwendet

werden. Diese Architektur balanciert Geschwindigkeit

und Genauigkeit optimal

aus.

Zusätzlich wurden Optimierungen implementiert,

die redundante Berechnungen

vermeiden und so auch auf eingebetteten

Systemen zuverlässige Ergebnisse

liefern. Diese Fortschritte erweitern die

Anwendbarkeit der Gesichtserkennung

auf Szenarien, die zuvor leistungsstarken

Servern vorbehalten waren.

In einem dezentralen System kann sich jede*r Nutzer*in aussuchen, wo die eigenen Daten gespeichert

sind. © digidow.eu

zentraler Datenverwaltung robuste und

skalierbare Lösungen ermöglicht. Die

Systeme erwiesen sich als effizient genug,

um Anforderungen an Echtzeitanwendungen

wie Zugangskontrollen oder

sichere Identitätsprüfungen zu erfüllen.

DEZENTRALE SYSTEME FÜR

SICHERE UND BENUTZER-

FREUNDLICHE AUTHENTIFIZIE-

RUNG

Dezentrale biometrische Authentifizierungssysteme

bieten eine vielversprechende

Alternative zu zentralisierten

Ansätzen. Sie vereinen Datenschutz, Sicherheit

und Effizienz und legen den

Grundstein für nachhaltige digitale Identitätslösungen.

Die in Hofers Arbeit vorgestellten

Technologien verdeutlichen

das Potenzial, die Biometrie hin zu einem

sichereren und benutzerfreundlicheren

Paradigma zu transformieren.

Langfristig könnten dezentrale Systeme

die Grundlage für eine neue Generation

von biometrischen Anwendungen

schaffen, die nicht nur technologisch fortschrittlich,

sondern auch gesellschaftlich

akzeptabel und ökologisch nachhaltig

sind. Sie bieten eine Plattform, die sowohl

den wachsenden Anforderungen an Datenschutz

als auch der technologischen

Entwicklung gerecht wird.

Philipp Hofer

ist PostDoc Researcher

am Institut

für Netzwerke und

Sicherheit an der

Johannes Kepler

Universität Linz.

Seine Forschungsinteressen liegen in

der Kombination von Sicherheit und

Biometrie.

22 OCG Journal | 01 • 2025


Forschungsnachwuchs

Fairness, Transparenz und Zuverlässigkeit von KI-Systemen

von Konstantin Kueffner

Statistical Monitoring of

Fairness

Computer systems are integral to many

aspects of our lives, making decisions

that range from seemingly benign (e.g.

recommending videos) to critical (e.g.

filtering job applications) and even life-threatening

(e.g. controlling vehicles).

Ensuring these systems are well-aligned

and operate safely is crucial.

Often, undesirable behaviour is detected

by simulating the system on a curated set

of test cases, a process known as testing.

However, testing alone cannot guarantee

the absence of undesirable behaviour.

For such assurances, formal verification is

required.

FORMAL VERIFICATION

Formal verification is a rigorous approach

to ensure that a system adheres to

specified requirements. Static formal

verification involves creating tools to validate

a system’s compliance with these

specifications before execution. While effective

for safety-critical applications, this

approach struggles with the complexity

of large systems, especially those incorporating

machine learning components

like neural networks. This scalability issue

limits its practical use in many modern

systems. Runtime verification addresses

these limitations by evaluating a system’s

adherence to specifications on a single

execution. Online monitoring, a powerful

technique in runtime verification, uses

a lightweight monitor to assess the system’s

behaviour in real-time. Conversely,

classical runtime verification is limited to

simple properties, with complex properties

such as fairness often considered unmonitorable.

FAIRNESS

The definition of fairness varies between

fields. In formal verification, it specifies

non-starvation, ensuring that any requested

resource is eventually granted. In

machine learning, it specifies non-discrimination,

where a classifier’s acceptance

probability is the same for all groups. At

the core of general fairness properties is

the comparison of probabilities. We elaborate

with a small example. Consider

a game with two players, A and B, each

with a coin. Player A’s coin has a probability

p A of landing heads, while player

B’s coin has a probability p B . After a given

number of rounds, the player with the

most heads wins. The game’s fairness

can be quantified by comparing the bias

of the coins, i.e. |p A − p B |. In reality, we interpret

the coin tosses as decisions made

by a possibly randomized algorithm, then

p A and p B represent the positive decision

probability for an input of type A or B respectively,

and fairness is a specification

balancing those probabilities. This simple

property has broad applicability. Fairness

in video recommendation could be the

balancing of display probabilities of rightwing

and left-wing political content. Fairness

in hiring could be the balancing of

the acceptance probability between men

and women. Fairness in autonomous driving

could be the balancing of the probability

of computational resource access

between the camera feed and the lidar

(light detection and ranging). Unfortunately,

this crucial property cannot be

statically verified or classically monitored

in complex systems. However, it can be

monitored statistically.

STATISTICAL MONITORING

In statistical monitoring, we have a monitor

observing the realization of a stochastic

process. This could be a hiring process

where applications (randomly sampled

from some population) are filtered by a

classifier, or a sequence of interactions

between an autonomous vehicle and its

(possibly random) environment. The monitor

is given some property and is tasked

to estimate the property’s value from a

single realization if this stochastic process,

while at the same time quantifying the

uncertainty of the estimate.

The simplest setting is to monitor the

bias p of a coin over a sequence of independent

tosses X 1

, X 2

,…. At every point

in time the monitors´ task is to

compute

a lower bound L t

and

an upper bound U t

, estimating the coin’s

bias p from the history X 1

,…,X t

. This estimation

should be either sound or uniformly

sound. A sound monitor may occasionally

be incorrect with a small probability, guaranteeing

that the coin’s bias is within the

bounds with a probability greater than

1 − δ at every point in time:

01 • 2025 | OCG Journal

23


A uniformly sound monitor is guaranteed

to never make a mistake with a small probability,

ensuring that the coin’s bias is

within the bounds at all times with a probability

greater than 1 − δ:

FAIRNESS MONITOR

The primary challenge in developing a

statistical monitor is establishing sensible

lower and upper bounds. In our example,

it is sufficient to incrementally compute

the empirical bias of the coin, defined for

e v e r y a s a n d

quantifiying its time t from the true bias

using suitable concentration inequalities.

The lower- and upper-bounds are then

given by the interval .

More complex

properties, e.g. fairness properties can be

monitored by breaking it down into smaller

components, each monitored similarly

to the bias of a coin. The respective intervals

are combined to form an interval for

the overall property. In our game example,

the property |p A − p B | is decomposed

into p A and p B . By monitoring both, we

obtain the property interval

COMPLEX SYSTEMS

Real-world systems involve complex dynamics,

going far beyond independent

Figure 1: The monitor observes a sequence of decisions. Each decision X i

is made with a probability

of P i

. The decision outcome may influence the next decision probability. The task of the

monitor, estimate the current decision probability P t

with sufficient confidence from the past

decisions only. The decision is fair, if for example P t

= 1/2. © Konstantin Küffner

coin tosses. In hiring the acceptance probability

of group A members may change

depending on how well the previous applicants

performed.

In our coin example, we may allow the

bias of the coin to change over time, e.g.

the bias p t

at time t, could be a function

of the bias p t−1

and the toss outcome X t−1

(see Fig. 1). Depending on the dynamics

constructing a (uniformly) sound monitor

for p t

(or the long-run average over all p t

’s)

is non-trivial. So far, the statistical monitoring

techniques for fairness exist for computer

systems that behave like Markov

chains, well-behaved partially observed

Markov chains, or certain linear stochastic

dynamic systems.

CONCLUSION

Fairness is an important property with

a broad range of applications, ranging

from video recommendation, over hiring,

to autonomous driving. Unfortunately,

static verification of fairness properties for

modern computer systems is difficult. If

verification is not possible, statistical monitoring

can be used to guard against potential

fairness violations during runtime.

In our research we aim at broadening the

set of systems for which fairness properties

can be statistically monitored.

Konstantin

Kueffner

is a PhD student at

IST Austria, working

under the supervision

of Thomas

A. Henzinger. His

research interests lie at the intersection

of formal verification, statistics, and

machine learning, with a focus on fairness

and uncertainty quantification.

24 OCG Journal | 01 • 2025


Forschungsnachwuchs

Fairness, Transparenz und Zuverlässigkeit von KI-Systemen

von Laura Waltersdorfer

KI-Prüfbarkeit: Kontinuierliche

KI-Audits & Knowledge Graphs

Der Einsatz von Künstlicher Intelligenz

(KI) in kritischen Bereichen wie der Medizin,

Verwaltung und Justiz ermöglicht

innovative Lösungsansätze, bringt jedoch

auch verschiedene ethische und

regulatorische Herausforderungen mit

sich.

Oft genannte Kritik von KI-basierten System

in diesem Kontext ist die fehlende

Transparenz, insbesondere bei sensiblen

Entscheidungen. Bei Fehlentscheidungen

kann dadurch das Vertrauen in die

Technologie erheblich beschädigt werden.

Eine vielversprechende Lösung ist

die Durchführung von KI-Audits. Mithilfe

solcher KI-Audits soll festgestellt werden,

dass KI-Systeme geltende Vorschriften

(beispielsweise EU KI-Verordnung) und

ethische Prinzipien einhalten. Solch eine

Prüfbarkeit im Rahmen dieses Beitrags

ist definiert als das Bereitstellen von relevanten

Informationen, um präzise Auditfragen

zu einem KI-System zu beantworten.

Beispiele für Auditfragen sind: Wie

wurde das KI-Modell trainiert und welche

Daten wurden dafür verwendet? Dieser

Beitrag diskutiert Methoden zur Verbesserung

der KI-Prüfbarkeit durch kontinuierliche

Audits und den Einsatz von

Knowledge Graphs, um solche Fragen zu

beantworten.

DER BEDARF AN KI-PRÜFBAR-

KEIT

Fehlerhafte oder voreingenommene Entscheidungen

von KI-Systemen können

schwerwiegende Konsequenzen haben.

Beispielsweise wurden bereits verschiedenste

Vorfälle in algorithmischen Entscheidungssystemen

festgestellt – etwa

bei Gesichtserkennungssoftware aufgrund

von unausgewogenen Trainingsdaten.

Die Prüfbarkeit von KI ist daher

Übersicht des Audit MAI-framework © Laura Waltersdorfer

01 • 2025 | OCG Journal

25


entscheidend, um Vertrauen in deren

Einsatz sicherzustellen. Klar definierte

Auditprozesse sind daher eine wichtige

Methode, um die Fairness, Transparenz

und Zuverlässigkeit von KI-Systemen zu

prüfen und negative Auswirkungen auf

Gesellschaft und Individuen zu minimieren.

HERAUSFORDERUNGEN

BEI DER PRÜFBARKEIT VON

KI-SYSTEMEN

Die Durchführung von Audits bei KI-Systemen

ist aufgrund ihrer Komplexität

anspruchsvoll. Drei zentrale Herausforderungen

wurden identifiziert: Erstens

sind Audit-Artefakte (beispielsweise Dokumentation,

Logdaten, Softwarecode)

häufig über verschiedene Systemkomponenten

und Datenformate innerhalb der

IT-Architektur verteilt. Heterogene und

verteilte Datenquellen erschweren die

Integration und Auswertung der benötigten

Informationen. Zweitens erfordern

umfassende KI-Audits eine kontextuelle

Repräsentation, die eine ganzheitliche

Sicht auf Daten, Modellen und Prozessen

ermöglicht. Drittens gibt es eine hohe Diversität

der Informationsbedürfnisse, die

Interessensgruppen wie Entwickler*innen,

Auditor*innen und Behörden unterschiedliche

Anforderungen an Prüfinformationen

haben.

KONTINUIERLICHE AUDITS: EIN

NEUES PARADIGMA

Traditionelle KI-Audits beschränken sich

häufig auf einmalige Überprüfungen,

die auf Datenerhebungen zu einem bestimmten

Zeitpunkt beruhen. Im Gegensatz

dazu zielen kontinuierliche Auditsauf

regelmäßige, automatisierte Prüfprozesse

ab, um eine proaktive Kontrolle und

Evaluierung ermöglichen. Das AuditMAI

Framework bietet hierfür einen technologieunabhängigen

Ansatz, der die Organisation

und technische Umsetzung

solcher kontinuierlichen Audits unterstützt.

Es umfasst drei zentrale Sichten:

die Wissenssicht, die relevante Auditfragen

identifiziert und strukturiert; die Prozesssicht,

die auf der Modellierung eines

wiederholbaren Auditablaufs basiert; und

die Architektursicht, die die Entwicklung

einer Infrastruktur zur Automatisierung

von Audits ermöglicht. AuditMAI kann

folgendermaßen durch Knowledge Graphs

(KG1-4) verbessert werden:

KG1: Verknüpfung und Abstimmung

von Konzepten Knowledge Graphs helfen

dabei, Konzepte aus Bereichen wie

KI-Prinzipien übersichtlich darzustellen

und miteinander zu verknüpfen. Das erleichtert

den Zugang zu relevanten Wissen

und verbessert die Nachverfolgbarkeit

– insbesondere für das Aufnehmen

von neuen Themen oder Ergebnissen,

beispielsweise um Auslöser für bereits

vorgefallene KI-Vorfälle zu vermeiden.

KG2: Unterstützung für KI-Systemabläufe

KGs schaffen eine Grundlage, um

Abläufe und Systemkomponenten von

KI-Systemen zu dokumentieren und zu

beschreiben. Somit wird eine maschinenlesbare

Darstellung ermöglicht, die Systemgrenzen

und Auditkontexte präziser

definiert. Ebenso wird die Verknüpfung

verschiedener Informationsquellen ermöglicht,

die es einfacher macht, Daten

zu durchsuchen und besser zu interpretieren.

KG3: Gewährleistung von Datenqualität

und Integration KGs gewährleisten

die Integrität und Qualität der erfassten

Daten und Artefakte durch strukturierte

und semantische Datenverarbeitung.

Sie erleichtern die Automatisierung und

Qualitätskontrolle bei der Sammlung

und Verwaltung von Daten, indem sie

verschiedene Artefakte zusammenführen

und anhand von Werkzeugen

wie Resource Description Framework

(RDF) oder Shapes Constraint Language

(SHACL) validieren.

KG4: Unterstützung bei Datenabfrage

und Analyse KGs können Auditor*innen

die Abfrage integrierter Audit-Daten

erleichtern. Statt einer statischen

Durchsicht von Dokumentation und

Datensätzen, ermöglichen integrierte

REFERENZEN

Waltersdorfer, L., & Sabou, M. (2024). Leveraging Knowledge Graphs for AI System Auditing

and Transparency. Journal of Web Semantics.

Waltersdorfer, L., Ekaputra, F. J., Miksa, T., & Sabou, M. (2024) AuditMAI: Towards an Infrastructure

for Continuous AI Auditing. AIROV24 Symposium Presentation.

Datenquellen eine Übersicht und tiefere

Einblicke in verschiedenste Aspekte, wie

z. B. Lizenzfragen oder Prozessfragen.

Abfragen wie „Abrufen aller Datensatzbeschreibungen“

können Lücken aufzeigen,

während die Integration über den

gesamten Lebenszyklus eines Systems

hinaus auch Fragen wie „Welche Vorhersagefehler

treten häufig auf?“ oder

„Welche Fairnessmaßnahmen wurden in

verschiedenen Phasen eingesetzt?“ ermöglichen

kann.

TRANSPARENZ, NACHVOLL-

ZIEHBARKEIT UND QUALITÄT

VON KI-SYSTEMEN

Um die Risiken von fehlerhaften oder

voreingenommenen

Entscheidungen

zu minimieren, ist die Prüfbarkeit von

KI-Systemen essenziell. Einmalige Audits

reichen bei komplexen KI-Systemen allerdings

nicht aus. Kontinuierliche Audits,

also regelmäßige und automatisierte

Prüfprozesse sollen eine proaktive Kontrolle

der Systeme gewährleisten. Das AuditMAI

Framework bietet eine Grundlage

für kontinuierliche KI-Audits und vereint

Wissens-, Prozess- und Architektursicht.

Das Ziel von AuditMAI und kontinuierlichen

Audits ist aus vergangen Vorfällen

von KI-Systemen zu lernen und neues

Wissen in den Prüfvorgang zu integrieren.

Des Weiteren soll die Automatisierung

von zeitaufwendigen Schritten wie

Datenerfassung und Transformation im

Vordergrund stehen. Dies soll KI-Auditor*innen

mehr Zeit für die Planung des

Audits und Analyse der gesammelten

Daten ermöglichen. Kontinuierliche Audits

und Knowledge Graphs stellen vielversprechende

Ansätze dar, um wichtige

Ziele wie Transparenz, Nachvollziehbarkeit

und Qualität von KI-Systemen zu

evaluieren.

Laura Waltersdorfer

ist PraeDoc Studentin

an der TU Wien

und Projektassistentin

an der WU Wien.

Ihre Forschungsinteressen

umfassen

Semantic Web & Knowledge Graphs,

und KI-Prüfbarkeit (AI auditability).

26 OCG Journal | 01 • 2025


Wettbewerbe und Preise

Adolf-Adam-Informatikpreis

von Felix Schenk

Visueller Java Debugger direkt

im Web

Für Programmieranfänger*innen ist der

Einstieg oft schwierig: Zum einen ist

Programmieren oft mit dem Einrichten

einer Entwicklungsumgebung verbunden,

zum anderen muss man lernen,

wie ein Computer „denkt“.

Letzteres wird durch JavaWiz 1 , einem visuellen

Java-Debugger, vereinfacht. Mit

Visualisierungen und Animationen kann

ein Java-Programm schrittweise ausgeführt

werden, was das Verständnis des

Programmcodes erleichtert. Ziel meiner

Masterarbeit war es, JavaWiz über das

Web zugänglich zu machen. Damit sollte

die erste Hürde, die Einrichtung der Entwicklungsumgebung,

beseitigt werden.

Dieses Ziel habe ich mithilfe der Oracle

GraalVM 2 erreicht, welche später kurz beleuchtet

wird.

JAVAWIZ

JavaWiz ist ein visueller Java-Debugger,

welcher am Institut für Systemsoftware

an der Johannes Kepler Universität, Linz

entwickelt wird 1 . Das Tool kann als Erweiterung

in Visual Studio Code 3 installiert

werden und visualisiert dort Java-Programme

Schritt für Schritt. Dazu muss

ein Java Development Kit und Visual Studio

Code manuell installiert werden. Dies

ist mit meiner Masterarbeit nicht mehr

notwendig: JavaWiz ist direkt mit einem

Browser zugänglich.

GRAALVM

Die Oracle GraalVM ist ein erweitertes

Java Development Kit, das die Kompilierung

von Java-Programmen zu nativen

Programmen erlaubt und eine mehrsprachige

virtuelle Maschine zur Verfügung

stellt 2 . Im Folgenden werden die

verwendeten Projekte der GraalVM kurz

vorgestellt.

Espresso ist eine virtuelle Maschine für

Java und ist selbst in Java als Truffle-Interpreter

implementiert 2 Mithilfe von

Espresso kann ein Java-Programm innerhalb

eines anderen Java-Programms

ausgeführt werden.

Web Image ermöglicht die Kompilierung

von Java-Programmen zu JavaScript. So

kann der querkompilierte Java-Bytecode

von einem Browser ausgeführt werden.

JAVAWIZ IM WEB

Um JavaWiz über eine Website zugänglich

zu machen, gibt es zwei Möglichkeiten:

• Der von Benutzer*innen eingegebene

Screenshot Jawawiz im Web © Felix Schenk

01 • 2025 | OCG Journal

27


Java-Code wird an einen Server gesendet,

welcher diesen kompiliert und

ausführt. Die für die Visualisierung der

einzelnen Programmzustände notwendigen

Daten werden dann an die

Nutzer*innen zurückgesendet.

• Alternativ kann der Java-Code mit

JavaScript direkt auf der Client-Seite

kompiliert und ausgeführt werden.

Der erste Ansatz erfordert serverseitig

entsprechende Ressourcen und Sicherheit

um nicht vertrauenswürdigen Code

von Benutzer*innen auszuführen. Aus

diesem Grund haben wir uns bei meiner

Masterarbeit für den zweiten Ansatz entschieden.

UMSETZUNG

JavaWiz besteht aus zwei Komponenten:

dem Frontend für die Visualisierungen

und dem Backend für die Ausführung

des Codes. Da das Frontend bereits auf

Basis von Webtechnologien entwickelt

wurde, sind hier nur kleinere Änderungen

nötig. Das Backend wurde mit Kotlin

4 implementiert und erfordert größerer

Anpassung.

Um das Kotlin-Backend im Browser ausführen

zu können, wird es zu Java-Bytecode

kompiliert, um es anschließend

mithilfe von WebImage zu JavaScript zu

kompilieren. Um anschließend Java-Programme

ausführen zu können, wird Espresso

als virtuelle Maschine eingesetzt.

Da Espresso selbst in Java implementiert

ist, ist es mit gewissen Einschränkungen

(u. a. keine Threads oder Netzwerkabfragen)

möglich, Espresso mit WebImage

zu JavaScript zu kompilieren.

Das Ergebnis: Benutzer*innen können

einfach eine Website besuchen und JavaWiz

ohne weitere Einrichtung nutzen.

1

https://javawiz.net/ [Zugriff am 16.02.2025]

2

https://www.graalvm.org/ [Zugriff am

16.02.2025]

3

https://code.visualstudio.com/ [Zugriff am

16.02.2025]

4

https://kotlinlang.org/ [Zugriff am 16.02.2025]

Felix Schenk

ist bei Oracle Labs

in Linz tätig. Seine

Forschungsinteressen

sind virtuelle

Maschinen und die

dynamische Kompilierung.

Gabriele Kotsis (JKU), Wilfried Seyruck (OCG), Mathias Wöß, Felix Schenk, Nina Brandl und Achim

Mühlberger (Programmierfabrik). © JKU

ADOLF-ADAM-INFORMATIKPREIS

Der Adolf-Adam-Informatikpreis wird für hervorragende Masterarbeiten am Fachbereich Informatik der Johannes Kepler Universität

Linz verliehen. Die Linzer Informatik-Absolvent*innen können so ihre Arbeiten einer breiten Öffentlichkeit allgemein verständlich

vorstellen. Im Rahmen einer Veranstaltung mit Schüler*innen aus Oberösterreich werden die Arbeiten dann prämiert.

Felix Schenk überzeugte mit seiner gelungenen Präsentation die meisten der 450 Schüler*innen im Publikum und erreichte den

ersten Platz. In diesem Heft stellt er unseren Leser*innen seine Arbeit vor.

28 OCG Journal | 01 • 2025


Wettbewerbe und Preise

OCG Preise für Nachwuchsforscher*innen

2024

HEINZ ZEMANEK PREIS

Der Preis zu Ehren des österreichischen Computerpioniers Heinz Zemanek wird alle zwei Jahre von der Österreichischen Computer

Gesellschaft für herausragende Dissertationen auf dem Gebiet der Informatik vergeben. Nominierungsberechtigt sind die

Universitäten und Forschungsstätten in Österreich, die das Promotionsrecht in der Informatik bzw. in fachverwandten Bereichen

haben. Die Gewinner*innen werden in einem zweistufigen Auswahlverfahren ermittelt.

Die Preisträger des Heinz Zemanek Preis 2024 sind Lukas Burgholzer und Martin Schwarzl. Burgholzers Dissertation beschäftigt

sich mit der Entwicklung von Software für Quantencomputing (JKU, Betreuer: Robert Wille). Schwarzl forschte zu Remote

Side-Channel Attacks (TU Graz, Betreuer: Daniel Gruss). Lesen Sie in diesem Heft den Artikel von Martin Schwarzl und freuen Sie

sich auf den Artikel von Lukas Burgholzer im nächsten OCG Journal. .

OCG FÖRDERPREIS

Die OCG verleiht zur Förderung der Informatik und Wirtschaftsinformatik jährlich den OCG Förderpreis. Der Preis wird für hervorragende

Diplomarbeiten bzw. Masterarbeiten auf dem Gebiet der Informatik, Wirtschaftsinformatik und ihren Anwendungen an

Universitäten verliehen.

Mit einem - sehr praktischen - Problem der optimalen Sitzplatzanordnung (OSA) beschäftigt sich die ausgezeichnete Masterarbeit

von Esra Ceylan, eingereicht an der TU Wien. Die neunköpfige Jury unter Vorsitz von Gabriele Kotsis (JKU Linz)

wählte Ceylans Masterarbeit aufgrund der Komplexität und dem Tiefgang der Arbeit für den OCG Förderpreis 2024 aus.

OCG FÖRDERPREIS-FH

Die OCG verleiht zur Förderung der Informatik und Wirtschaftsinformatik jährlich den OCG Förderpreis-FH. Der Preis wird für hervorragende

Diplomarbeiten bzw. Masterarbeiten auf dem Gebiet der Informatik, Wirtschaftsinformatik und ihren Anwendungen

an Fachhochschulen verliehen.

Viktoria Frank erhält für ihre herausragende Masterarbeit an der FH Hagenberg über Orientierungshilfen für Blinde und

sehbeeinträchtigte Personen zur Gefahrenprävention mittels thermisch-taktilen Biofeedback im Lendenwirbelbereich den

OCG Förderpreis-FH 2024.

www.ocg.at/wettbewerbe-und-preise

01 • 2025 | OCG Journal

29


Heinz Zemanek Preis 2024

von Martin Schwarzl

Netzwerkbasierte

Seitenkanalattacken

Stellen Sie sich vor, Sie versuchen an den

Inhalt eines Safes zu gelangen, kennen

aber die Kombination nicht. Sie nutzen

ein Stethoskop und ein gutes Paar Ohren,

um sich das Klicken der Mechanik

anzuhören, während Sie die Kombination

durchprobieren. Ohne direkten

Zugriff auf die Kombination, knacken

Sie anhand des Klickens schrittweise

den Code. Ähnlich funktioniert eine Seitenkanalattacke.

Wir verwenden das Internet täglich ganz

selbstverständlich für Social Media, Online-Banking,

Entertainment und viele

weitere Zwecke. Immer mehr Nutzer*innen

verlassen sich dabei auf die Sicherheit

von Cloudsystemen. Die gemeinsame

Nutzung von Hardware-Ressourcen

in Multi-Tenant-Umgebungen birgt neue

Risiken wie Seitenkanalattacken.

Moderne Hardware und Software sind

auf einen hohen Leistungsgrad optimiert.

Abhängig von den Nutzereingaben

hinterlassen diese Optimierungen

messbare Seiteneffekte, die sich in der

Ausführungszeit, im Stromverbrauch,

Netzwerkverhalten oder in der elektromagnetischen

Strahlung des Geräts

widerspiegeln. Ein oft ausgenutzter Seitenkanal

ist der Zeitunterscheid beim Laden

von gecachten Daten, die in einem

Zwischenspeicher liegen und ungecachten

Daten, welche aus dem RAM geladen

werden.

PASSWÖRTER AUS CHROMIUM-

BASIERTEN ANWENDUNGEN

STEHLEN

Beim Cache-Templating großer Applikationen,

z. B. Browsern, kann man sich das

so vorstellen, dass dabei einzelne Tasten

in Eingabefeldern automatisiert eingegeben

werden und man über die Cacheaktivität

versucht zu erkennen, welche

Adressen zwischengespeichert wurden.

Schafft man es zu erkennen, wann eine

Eingabe passiert, ist man in der Lage,

über das Tippmusters einer Person einzelne

Zeichen zu erkennen. Durch die

Aufteilung des Templating-Prozesses in

mehrere Schichten konnte die Laufzeit

um ein Vielfaches verbessert werden.

Dabei machten wir eine interessante

Entdeckung: Optimierungen des Compilers

und Linkers haben verursacht, dass

alphanumerische Zeichen, auf jeweils

verschiedenen Cache-Lines in der Chromium

Applikation liegen. Deshalb konnten

wir nicht nur feststellen, wann genau

Tastendrücke im Browser stattfanden,

sondern waren in der Lage erfolgreich

einzelne Zeichen auszulesen. Da das

Chromiumprojekt auch in anderer Software

wie zum Beispiel Signal Desktop

oder Steam genutzt wird, ist es möglich

auch dort Eingaben wie zum Beispiel

Passwörter zu erkennen. Diese Sicherheitslücke

wurde bereits behoben aber

zeigt, dass man auch mit Hilfe von Seitenkanalattacken

einen Keylogger bauen

kann.

SEITENKANALATTACKEN IN

KOMPRESSIONSALGORITHMEN

Kompressionsalgorithmen wie zlib nutzen

reduzieren Daten, indem sie Muster

erkennen und effizient speichern. Die

häufigsten Komponenten sind dabei

LZ77 als Sequenzkompression und Huffman-Codierung,

um die einzelnen Zeichen

zu komprimieren.

Betrachten wir die Textsequenz A A B

C A B C:

• LZ77-Komprimierung:

LZ77 ersetzt wiederkehrende Muster

durch Referenzen auf vorherige Positionen

im Datenstrom. Die Sequenz wird

wie folgt komprimiert:

(0,0,A) – A wird eingefügt, da es das erste

Zeichen ist.

(1,1) – Das zweite A wird durch eine Referenz

auf das vorherige ersetzt.

(0,0,B) – B wird als neues Zeichen eingefügt.

(0,0,C) – C wird ebenfalls eingefügt.

(3,3) – Die Folge ABC wird durch eine Referenz

auf den Anfang ersetzt.

• Huffman-Codierung:

Die Huffman-Codierung versucht, um

häufige Zeichen kürzer zu kodieren. Die

Sequenz könnte beispielsweise so kodiert

werden: A = 000, B = 001, C = 010.

Beim Dekomprimieren müssen die

Schritte in umgekehrter Reihenfolge

durchgeführt werden.

Ein Angriff auf solche Algorithmen erfordert

[https://media.blackhat.com/

eu-13/briefings/Beery/bh-eu-13-a-perfect-crime-beery-wp.pdf],

dass ein*e Angreifer*in

eigene Daten mit den Zielinformationen

in einer Form kombinieren

kann, zum Beispiel Cookies in Browsern

könnten gemeinsam mit Daten von Angreifern

gemeinsam komprimiert oder

dekomprimiert werden. Ein Angreifer

versucht dann den geheimen Inhalt Byte

für Byte zu erraten und anhand der Kom-

30 OCG Journal | 01 • 2025


Wettbewerbe und Preise

pressionsrate zu unterscheiden welcher

Versuch korrekt war. Ein Spezialfall beim

Dekomprimieren kann zu messbaren

Zeitunterschieden führen.

Wenn ein Angreifer den richtigen Buchstaben

errät, wird die Sequenz nahezu

unkomprimierbar. Statt komplexer Algorithmen

wie Huffman-Decoding oder

LZ77 auszuführen wird nur ein schneller

memcpy auf diesen Bereich ausgeführt.

Falsche Versuche hingegen führen zu

einer regulären Verarbeitung, was deutlich

mehr Zeit benötigt. Für manche Algorithmen

bis zu 50us zwischen einem

korrekten und inkorrekten Rateversuch.

Dieser Angriff wurde mithilfe eines evolutionären

Fuzzers namens Comprezzor

entdeckt. Der Fuzzer erzeugt gezielt

Datenlayouts, um solche Edgecases zu

provozieren und die Zeitunterschiede

zwischen korrekten und inkorrekten Versuchen

zu verstärken. Dadurch kann ein

Angreifer, lediglich mit den entstandenen

Zeitunterschieden in den Netzwerkpaketen,

Informationen von einer PostgreSQL-Datenbank

extrahieren aus dem

Internet.

SPECTRE – EIN LANGZEITPROB-

LEM

Spectre erlaubt es, die Sprungvorhersagen

in modernen Prozessoren ausnutzen,

um Daten über einen Seitenkanal,

beispielsweise den Cache-Seitenkanal,

auszulesen. Modernste Prozessoren, in

Smartphones und PCs sind durch Spectre

verwundbar. Viele der bisher präsentierten

Attacken wurden in einem lokalen

Szenario demonstriert. In Browsern und

Webanwendungen kann der Angreifer

jedoch entweder nur eingeschränkt

Code ausführen, z. B. in einer Java-

Script-Sandbox, oder der Angreifer kann

nur mit einer bestimmten Schnittstelle

interagieren, was es schwieriger macht,

erfolgreiche Attacken durchzuführen. Mit

NetSpectre haben wir ein Szenario demonstriert,

das es erlaubt, Spectre auch

netzwerkbasiert auszunutzen.

POTENZIAL FÜR GEGENMASS-

NAHMEN

Die hier gezeigten Angriffe sind ein erster

Start in Richtung netzwerkbasierter Seitenkanalattacken

und stellen eine neue

Gefahr, insbesondere für Cloudanbieter,

dar. Effiziente Gegenmaßnahmen sind

daher dringend erforderlich. Dabei gibt

es auf vielen Ebenen Ansatzpunkte, die

ein koordiniertes Zusammenspiel zwischen

Hardware- und Softwaredesigner

erfordern. Beispiele hierfür sind sichere

Caches, constant-time Operationen und

Implementierungen, in-process Isolation

und netzwerkbasierte Anomalie-Erkennung

sowie netzwerbasierte Abwehr von

aktiven Angriffen.

Video zu Chromium-basierten Angriffen

Video zu netzwerkbasierter Seiten kanalangriff

Netzwerkbasierter Seitenkanalangriff © Martin Schwarzl

Martin Schwarzl

ist IT Sicherheitsforscher

und arbeitet

derzeit bei Cloudflare.

Seine Forschungsinteressen

liegen im

Bereich der Systems

Security. Zuvor hat er an der TU Graz

beim Institut für angewandte Informationsverarbeitung

und Kommunikationstechnologie

(jetzt Institute of

Information Security) promoviert.

01 • 2025 | OCG Journal

31


OCG Förderpreis 2024

von Esra Ceylan

Optimal Seat Arrangement

Structure, Algorithms, and

Complexity

What is a good approach to forming

teams while taking all preferences into

account? This deceptively simple task

becomes a challenging computational

problem known as Optimal Seat Arrangement.

You are about to start an exciting new

project where all colleagues will be divided

into teams. A key question is: Who will

you collaborate with? In general, there are

people you would rather work with than

others. For instance, you may prefer your

closest colleagues or those who complement

your skills. At the same time, there

may be people who are challenging to

collaborate with, possibly due to conflicting

working styles or communication

habits; hence, you may not want to be

in the same team with them. Therefore,

your choice of team members can influence

your motivation, participation, and

overall success in the project. Now, if you

were the only one with such a problem, it

would be easy to optimally solve it for you.

But everyone has their own preferences

when it comes to working with others.

THE PROBLEM IN FOCUS

The Seat Arrangement problem deals

with the task of designating n seats,

either physical or not, from a seat graph

to n self-interested agents. Depending

on what the seat graph looks like, seat

arrangement has many real-world applications.

For instance, in classroom

seating and meeting arrangement the

seat graph may consist of disjoint edges

and paths or cycles, respectively. In team

management or coalition formation, we

need to divide participants or players into

coalitions to accomplish certain tasks or

to play games. In these scenarios, the seat

graph may consist of disjoint cliques (i.e.,

complete subgraphs). In drone sensor

networks, drones are grouped, and each

group is assigned a leader drone to act

as the communication backbone. In this

scenario, the seat graph may consist of

disjoint stars.

Clearly, not all seat arrangements are

equally desirable or optimal since agents

have preferences over each other, and

their utility for a seat may depend on who

sits next to them. In many common applications

the agents’ preferences may be

restricted. Mutual acquaintances can be

represented with symmetric preferences,

where each pair of agents has exactly the

same preferences over each other. Binary

preferences, i.e., each preference is 0 or 1,

indicate if an agent likes or is indifferent

to another agent. Non-negative (resp.

positive) preferences can model that an

agent has no enemies (resp. only friends)

and shows his degree of affection to the

other agents, while negative values show

the degree of dislike.

The goal of Optimal Seat Arrangement

is to determine a seat arrangement that

satisfies a certain optimality or fairness

criterion. There are four typical types of

Optimal Seat Arrangement problems

that address different optimization goals,

each well studied in Economics, Social

Choice, Political Sciences, and Artificial

Intelligence, in particular Multiagent Systems:

• Maximum Welfare Arrangement

(MWA): Maximizing the overall satisfaction

across all agents.

• Maximin Utility Arrangement (MUA):

Maximizing the minimum satisfaction,

emphasizing fairness.

• Envy-Free Arrangement (EFA): Ensuring

no agent envies another’s seat.

• Exchange-Stable

Arrangement

(ESA): Ensuring no two agents would

benefit by swapping seats.

While these goals are intuitive, achieving

them is far from simple, especially given

the complex interplay of preferences and

the constraints of the seat graph.

COMPUTATIONAL COMPLEXITY:

WHY IT’S HARD

Ceylan´s research demonstrates that all

four problems are computationally challenging.

Specifically, they belong to the

class of NP-hard problems, meaning that

as the number of agents grows, the com-

32 OCG Journal | 01 • 2025


Wettbewerbe und Preise

putational effort required to find the optimal

arrangement increases exponentially.

The hardness reductions produce

instances, however, that may not be realistic.

This begs the question: How difficult

is Optimal Seat Arrangement in real-world

applications?

The goal of this work is, therefore, to investigate

the true cause of the NP-hardness

for each of the four problems mentioned

above and identify interesting restricted

cases that allow efficient algorithms. To

achieve this, we examine restricted yet

natural classes of seat graphs and preference

structures, and we conduct a refined

and parameterized complexity analysis

by approaching each problem from

a combination of three aspects:

• Seat Graph Classes: The structure of

the seat graph significantly affects

complexity. For instance, simpler graphs

like paths or cycles are easier to

handle than general graphs.

• Preference Structures: Restricting

preferences to binary or symmetric

values can sometimes simplify the

problem but does not eliminate the

computational challenges.

• Parameters: Factors like the number

of agents with non-zero preferences,

the number of non-isolated seats, or

the vertex cover number of the seat

graph can influence the problem’s difficulty.

One of the findings is that even under

highly restricted conditions - such as binary

preferences or simple graph structures

- the problems remain NP-hard.

BEYOND HARDNESS: FINDING

SOLUTIONS

Despite the inherent complexity, this

work provides hope for practical applications,

such as optimizing seating arrangements

in educational settings,

streamlining team assignments in corporate

environments, or managing group

dynamics in drone networks. By leveraging

parameterized complexity theory,

we identify cases where the problem becomes

more manageable. For example,

when certain parameters are small, such

as the number of non-isolated vertices in

the seat graph, fixed-parameter tractable

(FPT) algorithms can solve the problem

efficiently.

One innovative approach involves combining

advanced graph-theoretical

techniques with color-coding algorithms.

This method proved particularly effective

for finding welfare-maximizing arrangements

in scenarios with symmetric preferences.

A STEP FORWARD IN UNDER-

STANDING COMPLEXITY

Esra Ceylan‘s thesis on which this article

is based, delves into the computational

complexity of four Optimal Seat Arrangement

variants, a subject with many

real-world applications within Artificial

Intelligence, Theoretical Computer Science,

Economics, and Social and Political

Sciences. Given its broad applicability,

understanding the boundaries between

hard and easy cases of these problems

is crucial. By conducting a multivariate

complexity analysis across three dimensions

her thesis contributes to a deeper

understanding of Optimal Seat Arrangement’s

complexity landscape and identifies

interesting restricted cases that allow

for efficient algorithms.

Whether in classrooms, offices, or beyond,

the quest for optimal arrangements continues

to challenge and inspire.

Esra Ceylan

completed her

studies in Logic and

Computation at the

Vienna University

of Technology. Her

research interests include graph theory,

computational complexity, and

optimization algorithms.

Überreichung des OCG Förderpreises 2024, Esra Ceylan und Ronald Bieber (Generalsekretär

OCG) © Scheitz/OCG

01 • 2025 | OCG Journal

33


OCG Förderpreis-FH 2025

von Viktoria Frank

Thermisch-taktiles Biofeedback

für Blinde und sehbeeinträchtigte

Personen

Anhand jüngster Fortschritte bei tragbaren

elektronischen Geräten (sogenannten

„Wearables“) ist ein drastischer

Zuwachs an der Informationsmenge,

die in Echtzeit Anwender*innen zur Verfügung

stehen bemerkbar. Nutzt man

jedoch mehrere Geräte gleichzeitig, so

kann dies dazu führen, dass das Nervensystem

mit zu vielen Informationen im

selben sensorischen System überflutet

wird.

Die Überflutung sensorischer Systeme

führt zu Aufmerksamkeitsdefizite und einer

Störung im Denkprozess. Sowohl die

Optik als auch die Akustik wurden bereits

Gegenstand intensiver Untersuchungen

und das Ziel vieler Geräteentwicklungen.

In vielen Fällen sind die Grenzen der

Wahrnehmung der dargebotenen Informationen

erreicht. Daher ist es naheliegend,

einen weiteren Sinneskanal des

Menschen zur Informationsvermittlung

zu nutzen. 1 Ein Lösungsansatz, um eine

Reizüberflutung zu umgehen, ist der Einsatz

von nonverbalen Kommunikationsmethoden,

die zum Beispiel Informationen

über den Tastsinn vermitteln. 2

von statischen oder dynamischen Hindernissen

mit Schwierigkeiten verbunden

(vor allem bei noch nicht bekannten

Orten). Es bedarf weiterer Untersuchungen,

wie insbesondere Personen aus dieser

Zielgruppe taktiles Biofeedback über

Temperatur wahrnehmen und wie thermische

Interaktionshilfsmittel zukünftig

gestaltet werden können. Mit dem Einsatz

moderner Technologien (wie z. B.

Smart-Vision Kameras, Thermomodule,

Sensoren, Algorithmen) ist die Erweiterung

des „Sichtbereichs“ beziehungsweise

des Erfassungsradius von Blinden und

sehbeeinträchtigten Personen möglich.

Zum einen möchte man die Personen

zukünftig besser vor Gefahren schützen

und zum anderen besteht der Wunsch,

bessere Vorhersagen über potenzielle

Gefahrenquellen treffen zu können.

Im Human-centered-Interaktionsbereich

wird zunehmend erforscht, wie der

Einsatz von Temperatur als Interaktionsmodalität

genutzt werden kann. Eine

Herausforderung besteht darin, dass

Temperaturänderungen im Laufe von

Sekunden wahrgenommen werden. Dies

ist sowohl auf die langsame Reaktionszeit

der Thermorezeptoren der Haut als

auch auf die Latenzzeit der Technologie

zurückzuführen, die zur Erwärmung und

Kühlung der Haut verwendet wird. Hinzu

kommt, dass die Temperaturwahrnehmung

von einigen Faktoren (wie z. B. von

der Umgebungs- und Ausgangstempe-

THERMISCH-TAKTILES BIOFEED-

BACK

Neben der Erkenntnis, dass Blinde und

sehbeeinträchtigte Personen bei der

Fortbewegung mit dem Blindenstock im

Kopf- und Rückenbereich nicht ausreichend

geschützt sind, ist die Erkennung

Testaufbau: Startposition und Stoppbereiche © Viktoria Frank

34 OCG Journal | 01 • 2025


Wettbewerbe und Preise

Darstellung der unterschiedlichen

Temperaturinformationen im Lendenwirbelbereich

(Links und Rechts erfolgen Wärmesignale

und der Mitte ein Kältereiz)

© experto. Jan. 2023. URL: https://www.experto.

de/praxistipps/rueckenschule-fuer-z

u-hause-gesunder-ruecken-gesunde-haltung.

html%20[bearbeitet]

ratur, Kleidung, Alter, Body-Mass-Index,

Körperfettanteil) beeinflusst wird. 3 4 5 6 7

Auch sinnesphysiologische Eigenschaften

des Menschen spielen eine entscheidende

Rolle – denn der Mensch besitzt

mehr Kalt- als Warmrezeptoren. Aufgrund

von diskontinuierlichen Verteilungen

resultieren verschiedene thermische

Sensibilitäten in unterschiedlichen Körperregionen.

11

Bisherige Forschungsergebnisse zeigen,

dass über Temperaturinformation nachweislich

eine zuverlässigere Genauigkeit

in der Erkennung erzielt werden als mit

Vibrationen. Ein wesentlicher Vorteil besteht

auch darin, dass keine besondere

Aufmerksamkeit erforderlich ist und somit

Informationen angenehm übermittelt

werden können, auch in geräuschsensiblen

Umgebungen, da thermotaktiles

Biofeedback geräuschlos erfolgen kann

und von umliegenden Personen nicht

bemerkt wird. 2 5 6 7 8 Durch biegsame

Thermomodule (piezoelektrische Aktoren)

aus Silikon kann ein hoher Komfort

gewährleistet werden sowie ein höherer

thermischer Wirkungsgrad, da keine

keramische Isolierung mehr notwendig

ist. Anhand eines Stechzirkelexperiments

(ein Zweipunktschwellenabgleich, um

die räumliche Auflösung verschiedener

Körperregionen zu ermitteln), konnte

festgestellt werden, dass der Lendenwirbelbereich

im Vergleich zu Positionen an

der Handfläche, Unterarm, Zeigefinger

und Handrücken ein gutes räumliches

Auflösungsvermögen besitzt. 9 Weiteres

befinden sich in dieser Körperregion im

Vergleich zu den Extremitäten relativ viele

Kaltpunkte (6 bis 13cm²). 11

PROTOTYP

Der Prototyp besteht aus einer Kamerakappe

zur optischen Hinderniserkennung

(Pixy2 Kamera) und aus einem

Textilgürtel mit drei integrierten Thermoelementen,

der im Lendenwirbelbereich

getragen wird. Zwei flexible Wärmemodule

dienen zur Richtungsnavigation

und ein Element in der Mitte der Körperregion

signalisiert mittels Kaltsignal

den Stoppbefehl. Im Testbereich wurden

drei Luftballone (blau, orange, gelb) als

Hindernisse vordefiniert. Basierend auf

der optischen Hinderniserkennung wird

der optimale Ausweichpfad mithilfe von

Warmsignalen nach links und rechts

übermittelt. Werden diese Frühwarnsignale

jedoch ignoriert und es kommt zu

einer unmittelbaren Annäherung eines

Luftballons, wird die Stoppfunktion (Kältereiz)

noch rechtzeitig injiziert. 9

BENUTZERSTUDIE

Diese neuartige Form Temperaturinformationen

über die Lendenwirbelregion

zu empfangen, wurde mit insgesamt

acht Blinden und sehbeeinträchtigten

Personen im Zuge einer Benutzerstudie

getestet. Näher untersucht wurde

das Reaktionsverhalten, die absolute

Wahrnehmungsschwelle, Ermittlung einer

Standardkonfiguration, zwei unterschiedliche

Informationsvariationen, die

Zuverlässigkeit der Stoppfunktion mittels

Kältereiz, der subjektive „Mental Load“

und die Akzeptanz durch die Zielgruppe. 9

ERKENNTNISSE

Aus der näheren Analyse von zwei unterschiedlichen

Informationsvarianten (diskret

Studie 1 und kontinuierlich/wiederholend

Studie 2) geht kein klarer Favorit

hervor - denn der Großteil der Teilnehmer*innen

nahm keinen Unterschied

wahr. Basierend auf den Beobachtungen

konnte kein signifikanter Unterschied

im Reaktionsverhalten beider Signale

festgestellt werden. Beide Informationsarten

erzielten eine geringe Bewertung

hinsichtlich des „Mental Loads“. Allgemein

kann festgehalten werden, dass das

Stoppsignal eine rechtzeitige und zuverlässige

Reaktion auslöst. Die Hauptursache

für diverse Kollisionen liegt in der

Synchronisierung zwischen Kamera-Tracking,

Gehgeschwindigkeit und Temperaturinformationen.

9 „Eine mögliche

Standardkonfiguration, die aus der Benutzerstudie

und deren Bestimmungen

anhand der acht Studienteilnehmer*innen

abgeleitet werden kann, liegt bei

3.39s für den Stoppbefehl (ΔThaut/peltier

-0.50°C) und bei 3.86s für den Richtungsbefehl

(ΔThaut/Peltier +1.04°C“, so Viktoria

Frank.

Testaufbau: Testperson trägt den Prototyp und hat sich von der Startposition fortbewegt

©Viktoria Frank

01 • 2025 | OCG Journal

35


Alle Studienteilnehmer*innen sind sich

einig, dass der aktuelle Prototyp sich

noch nicht für die Fußgängerzone oder

den Einsatz im alltäglichen Straßenverkehr

eignet. Knapp die Hälfte der Personen

kann sich den zusätzlichen Einsatz

zum Blindenstock gut vorstellen, um

den Kopfbereich in der Zukunft besser zu

schützen. Alle Studienteilnehmer*innen

waren vom thermischen Biofeedback

positiv überrascht. 9

Textilprototyp: Textilgurt mit Thermomodulen und Seidenstoffüberzug

©Viktoria Frank

Viktoria Frank

ist UI/UX Designerin

bei Mopius Mobile

GmbH in Linz und

Lektorin für Usability

Engineering an der

FH Hagenberg. Ihr Forschungsinteresse

liegt im Bereich des Human-Factors

Engineering & Industrial Design.

REFERENZEN

1 A.T. Kern und et. al. Entwicklung haptischer Geräte. Ein Einstieg für Ingenieure. Heidelberg: Springer Verlag, 2009, S. 8

2 K. Seongho u. a. „Two-Dimensional Thermal Haptic Module Based on a Flexible Thermoelectric Device.“ Soft Robotics 7.6, 2020

3 E. Bruce Goldstein. Wahrnehmungspsychologie: Der Grundkurs. 7. Aufl. Heidelberg: Deutsche Ausgabe herausgegeben von Hands Irtel, Spektrum

Akad. Verlag, 2008

4 A. Rahman u. a. „Design and Development of Navigation Guide for Visually Impaired People.“ IEEE International Conference on Biomedical

Engineering, Computer and Information Technology for Health (BECITHCON), 2019

5 L. R. Peiris u. a. „ThermalBracelet: Exploring Thermal Haptic Feedback Around the Wrist.“ CHI ’19: Proceedings of the 2019 CHI Conference on

Human Factors in Computing Systems 170, 2019, S. 1–11

6 L. R. Peiris u. a. „ThermoVR: Exploring Integrated Thermal Haptic Feedback with Head Mounted Displays.“ CHI ’17: Proceedings of the 2017 CHI

Conference on Human Factors in Computing Systems (2017), S. 5452–5456

7 J. Tewell, J. Bird und G.R. Buchanan. „Heat-Nav: Using Temperature Changes as Navigational Cues.“ CHI ’17: Proceedings of the 2017 CHI Conference

on Human Factors in Computing Systems (2017)

8 A. Nasser, K.N. Keng und K. Zhu. „ThermalCane: Exploring Thermotactile Directional Cues on Cane-Grip for Non-Visual Navigation.“ The 22nd

International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS ’20), Virtual Event 20.1-12, 2020

9 Frank, V.: „Benutzerstudie: Orientierungshilfe für Blinde- und sehbeeinträchtigte Personen mittels thermisch-taktilen Biofeedback im Lendenwirbelbereich

zur Gefahrenprävention.“, Master thesis Human-centered computing, FH Hagenberg, Austria, 2023, (S.15 Kaltpunkteverteilung

am menschlichen Körper; S.23 Stechzirkelexperiment; S.31 Prototyp; S.63 Benutzerstudie; S.77 Auswertung Standardkonfiguration; S. 83

NASA TLX Index)

10 Frank, V.: „Orientation aid for blind people or people with low vision by using thermal-tactile biofeedback at the lumbar region for hazard

prevention: A user experiment.“, Section 11, OAC ICCHP, Johannes Kepler University, Linz, 2024 https://www.icchp.org/sites/default/files/24/

OAC_ICCHP2024.pdf

11 R.F. Schmidt, F. Lang und G. Threws. Physiologie des Menschen. mit Pathophysiologie.29. Aufl. Heidelberg: Springer Medizin Verlag, 2005,

(S.897 Kaltpunkteverteilung am menschlichen Körper)

36 OCG Journal | 01 • 2025


Informationen

FH Kufstein Tirol

von Lisa Berke

Neue Web-Studiengänge

Im Wintersemester 2025/26 startet an

der FH Kufstein Tirol der Bachelorstudiengang

Drone Engineering & AI-based

Innovation in Vollzeit sowie die beiden

Masterstudiengänge Data Science & Intelligent

Analytics und Smart Products

& AI-driven Development – ebenfalls in

der Vollzeit-Variante. Alle drei Programme

sind komplett in englischer Sprache.

Das Ausbildungsangebot der Fachhochschule

Kufstein wird stetig aktualisiert

und erweitert – so auch im Wintersemester

2025/26. Ab kommendem Herbst

steht ein neuer Bachelorstudiengang

und zwei neue Masterstudiengänge im

Bereich Web & IT als Vollzeit-Studium in

englischer Sprache zur Verfügung: Drone

Engineering & AI-based Innovation, Data

Science & Intelligent Analytics und Smart

Products & AI-driven Development. In allen

drei Studiengängen sind internationale

Kompetenzen sowie Praxisprojekte

mit (inter-)nationalen Unternehmen fest

im Curriculum verankert. „Unser Studienangebot

– sowohl für den Bachelor als

auch für den Master – wächst stetig und

passt sich den aktuellen Anforderungen

des Arbeitsmarktes an“, sagt Prof. (FH) Dr.

Thomas Madritsch, Geschäftsführer der

FH Kufstein Tirol. „Wir sind stets bestrebt,

aktuelle Trends in Wirtschaft und Forschung

nicht nur zu erkennen, sondern

Vorreiter in diesen zu sein – insbesondere

in den Feldern Digitalisierung, Nachhaltigkeit

und künstliche Intelligenz. Das

spiegelt sich sowohl in unserem Studienangebot

als auch in unseren Curricula

wider.“

DRONE ENGINEERING & AI-BA-

SED INNOVATION

Der neue Bachelorstudiengang Drone

Engineering & AI-based Innovation vermittelt

umfassende Kenntnisse der Drohnentechnologie

und ihrer Anwendungen.

Schwerpunkte sind Drohnendesign, Antriebssysteme

und elektronische Subsysteme,

basierend auf Grundlagen der Luftfahrt

und Aerodynamik. Verschiedene

Software- und Programmiermodule befähigen

die Studierenden zur Steuerung

von Drohnen und autonomen, unbemannten

Flugsystemen (UAS). Zusätzlich

ermöglichen Sensorik und Datenanalyse

eine sinnvolle Nutzung der gewonnenen

Informationen. Rechtliche Rahmenbedingungen

und Sicherheit runden das

Curriculum ab. Die Unterrichtssprache ist

Englisch, weitere Fremdsprachen sowie

ein verpflichtendes Auslandssemester

an einer der weltweit 235 Partnerhochschulen

und ein mehrwöchiges Berufspraktikum

verhelfen zu interkulturellen

Kompetenzen. Managementwissen und

unternehmerisches Denken verbessern

außerdem die Berufschancen auf dem

globalen Markt.

Die Absolvent*innen dieses Studiengangs

sind nach ihrem erfolgreichen

Abschluss technisch versiert, verstehen

die ethischen, rechtlichen und sozialen

Aspekte im Zusammenhang mit dem

Einsatz von Drohnen und sind geschult

in kritischem Denken, Problemlösung

und Projektmanagement.

DATA SCIENCE & INTELLIGENT

ANALYTICS

Der Masterstudiengang Data Science &

Intelligent Analytics* verbindet Informatik,

Statistik, Mathematik und verwandte

Anwendungsdisziplinen. Die Absolvent*innen

erlangen anwendungsbereite

Kompetenzen in Datenanalyse, Technologie,

Unternehmensanwendungen und

der Entwicklung innovativer Lösungen.

Durch praxisorientierte Data Science

Labs und projektbasiertes Lernen gewährleistet

die FH Kufstein Tirol ein hohes

Maß an fachlicher Tiefe und praktischer

Relevanz. Das Programm adressiert die

gesamte Wertschöpfungskette von Rohdaten

über Querschnittsfunktionen bis

hin zum wirtschaftlichen Erfolg.

SMART PRODUCTS & AI-DRIVEN

DEVELOPMENT*

Der Masterstudiengang Smart Products

& AI-driven Development verbindet technisches

und wirtschaftliches Wissen für

die Entwicklung intelligenter, vernetzter

Produkte. Der Fokus liegt auf der praktischen

Anwendung modernster KI-Methoden

wie generative Sprachmodelle,

Edge Computing und Machine Learning

zur Systemanalyse und -vorhersage. Der

vollständig englischsprachige Unterricht

bereitet Studierende auf internationale

Karrieren vor und bietet starke Praxisorientierung

durch projektbasiertes

Lernen. Der Zugang zu fortschrittlichen

Technologien, wie additive Fertigung,

fördert eine Hands-on-Mentalität. Interdisziplinäre

Zusammenarbeit erweitert

den Horizont und fördert die Expertise in

der Integration von KI in Produktentwicklungsprozesse

und die Schaffung intelligenter,

serviceorientierter Lösungen.

Start der drei Studiengänge Drone Engineering

& AI-based Innovation, Data

Science & Intelligent Analytics* und Smart

Products & AI-driven Development ist das

Wintersemester 2025/26 vorbehaltlich

der Genehmigung durch die AQ Austria.

01 • 2025 | OCG Journal

37


Mut, Neugier und Vernetzung von und für Frauen

von Katharina Resch-Schobel

ditact women‘s IT studies

Die ditact, women’s IT summer studies

von Frauen für Frauen, finden heuer von

25. August bis 5. September an der Paris

Lodron Universität Salzburg statt. Die

ditact ist ein gemeinsames Projekt der

Salzburger Hochschulen und lebt vom

Austausch zwischen den Hochschulen,

der IT-Praxis, Politik und Gesellschaft. Die

OCG ist seit vielen Jahren im Beirat vertreten

und arbeitet aktiv an der Gestaltung

mit. Dieses Jahr bietet die OCG als

ditact Außenstelle zum ersten Mal ihre

Räumlichkeiten für ausgewählte Kurse

an. Hier geht es ab Juni zu den Kursanmeldungen:

www.ditact.at

Die ditact hat sich zum Ziel gemacht,

mehr Frauen dazu zu motivieren in der IT

Fuß zu fassen, in diesen Bereichen aktiv

Gestalterinnen zu werden und sich damit

auch in meist gut bezahlten Branchen

Raum zu nehmen. Darüber hinaus

möchte die ditact für einen Paradigmenwechsel

sensibilisieren, um die IT auch für

Frauen* attraktiver zu gestalten. In allen

akademischen Einrichtungen der ditact

gibt es sehr erfolgreiche Frauen-Netzwerke,

wo Austausch in einer vertrauensvollen

und wertschätzenden Atmosphäre

möglich ist.

Bei der ditact haben auch Nachwuchslektor*innen

die Gelegenheit zum ersten

Mal im Hochschulbereich Lehrerfahrung

zu sammeln und gleichzeitig wertvolles

Wissen an junge Frauen weiterzugeben.

Eröffnungskeynote Stephanie Jakoubi, ditact 2024 © OCG

Eröffnung ditact 2024 Gruppenfoto © OCG

38 OCG Journal | 01 • 2025


Intern

Veranstaltungen

EDU|days

02. - 03.04.2025, Krems, Universität für Weiterbildung

dHealth

06. - 07.05.2025, Wien, Schönbrunn

Computer Science in Education. By Humans, for

Humans

13. - 14.05.2025, Wien; OCG

eBazar - MI(N)T allen Sinnen

20.05.2025, Wien, PH Wien

50 Jahre OCG - Großer Festakt

21.05.2025, Wien, TU Wien Kuppelsaal

Austrian Computer Science Day 2025

06.06.2025, Innsbruck

Constructionism 2025

24. - 27.06.2025; Zürich, Schweiz

IKT-Sicherheitskonferenz

25. - 26.06.2025, Dornbirn, Messe

OCG Sommercamp

30.06. - 04.07.2025, Wien, OCG

EGOI - European Girls Olympiad in Informatics

14. - 20.07.2025, Bonn

IOI - International Olympiad in Informatics

27.07. - 03.08.2025, Sucre, Bolivien

NetSys 2025

01. - 04.09.2025, Illmenau, Deutschland

OCG Sommercamp

01. - 05.09.2025, Leonding, HTL

IDIMIT - Interdisciplinary Information Management

Talks

03. - 05.09.2025, Hradec Kralove, Tschechien

SafeComp 2025

09. - 12.09.2025, Stockholm, Schweden

All Digital Summit

10. - 12.09.2025, La Valletta, Malta

CEEE|Gov Days 2025

03. - 05.12.2025, Bukarest, Rumänien

CEOI - Central European Olympiad in Informatics

07. - 13.07.2025, Cluj-Napoca, Rumänien

IMPRESSUM

Das OCG Journal ist die Mitgliederzeitschrift der Österreichischen Computer

Gesellschaft (OCG). Inhaltlich wird das Journal in völliger Unabhängigkeit gestaltet

und berichtet über die OCG Leitthemen Ausbildung und Qualität, Innovation und

Start-ups, internationale Vernetzung und digitale Zivilgesellschaft.

ISSN 1728-743X

Medieninhaber und Herausgeber:

Österreichische Computer Gesellschaft (OCG)

Präsident: DI Wilfried Seyruck

Generalsekretär und Leitung der Redaktion: Dr. Ronald Bieber

Redaktion: Irina Scheitz, Katharina Resch-Schobel, Josefine Hiebler

Layout und DTP: OCG | Josefine Hiebler

Lektorat: Katharina Resch-Schobel

Fotos: Archiv OCG, Autor*innen, Privatarchive, istock

Kontakt: info@ocg.at | URL: www.ocg.at

Alle: Wollzeile 1, 1010 Wien | Tel.: +43 1 512 02 35-0

Druck: Print Alliance HAV Produktions GmbH, 2540 Bad Vöslau

https://printalliance.at/fairprint


Computer

Science in

Education

By humans, for humans

May 13, 2025

About the Symposium

®

Call for Posters

We invite master’s and PhD students in computing, informatics, and related fields to

submit their research for the Computer Science in Education: By Humans, for Humans

Symposium, held at the Austrian Computer Society (OCG) in Vienna on May

13–14, 2025.

Poster Session and Pitch Presentations

Students can showcase their research in a poster session and a one-minute pitch on

May 14 to introduce their work and engage attendees.

Topics include, but are not limited to:

• Computing education practices

• AI, data science, and their applications in educational settings

• Ethical, societal, and human-centered perspectives on computing education

• Integration of computer science in K-12 and higher education

• Interdisciplinary research involving computing and education submission

Submission Deadline: April 4, 2025

More Information:

Österreichische Computer Gesellschaft • 1010 Wien • Wollzeile 1

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!