30.01.2014 Aufrufe

Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...

Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...

Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

EPILOG<br />

Die Diplomarbeitspräsentation der<br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Wintersemester 2013


Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von


EPILOG<br />

Diplomarbeitspräsentation<br />

Das breite Themenspektrum und die vielfältigen Aufgabenstellungen der Abschlussarbeiten<br />

an der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> werden jedes Semester beim EPILOG präsentiert.<br />

In einer Posterausstellung sowie in ausgewählten Vorträgen präsentieren die<br />

AbsolventInnen der <strong>Fakultät</strong> ihre Projekte und stellen sich der Diskussion mit den<br />

Anwesenden. Der EPILOG als Plattform <strong>für</strong> die Präsentation hervorragender Abschlussarbeiten<br />

dient gleichzeitig dem Austausch über die aktuelle wissenschaftliche<br />

Forschung in den unterschiedlichen Bereichen der <strong>Informatik</strong>.<br />

Auszeichnungen und Preise<br />

Die <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> vergibt den „Distinguished Young Alumna/Alumnus“-<br />

Award. Beurteilungskriterien <strong>für</strong> den mit 1.500 Euro dotierten Preis sind die Qualität<br />

der Diplomarbeit sowie des gehaltenen Vortrags. Zudem wird das beste Poster aller<br />

beim EPILOG anwesenden AutorInnen mit dem „Best Poster“-Award in der Höhe von<br />

500 Euro ausgezeichnet. Die Jury setzt sich aus ProfessorInnen zusammen, welche<br />

die Forschungsschwerpunkte der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> vertreten.<br />

Zusätzlich wird ein spezieller „Förderpreis“ vergeben: Eine Diplomarbeit wird von<br />

der Austria Section des Institute of Electrical and Electronics Engineers (IEEE) mit<br />

dem „Diploma Thesis Award sponsored by IEEE Austria Section“ in der Höhe von<br />

500 Euro ausgezeichnet.


Programm 28. November 2013<br />

15:00 Eröffnung der Posterausstellung<br />

16:00 Begrüßung und Einleitung<br />

Gerald Steinhardt, Dekan der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>, <strong>TU</strong> <strong>Wien</strong><br />

Sabine Seidler, Rektorin <strong>TU</strong> <strong>Wien</strong><br />

16:15 Vorträge zu den nominierten Diplomarbeiten<br />

17:15 [!INF]inite Graphics: Computerspiele und Demos aus der<br />

Computergraphiklehre<br />

Michael Wimmer und Reinhold Preiner<br />

Institut <strong>für</strong> Computergraphik und Algorithmen, <strong>TU</strong> <strong>Wien</strong><br />

17:45 Vergabe der Auszeichnungen an die AbsolventInnen<br />

Anschließend laden wir zum weiteren Gedankenaustausch beim Buffet ein.<br />

2


Vorträge zu den nominierten Diplomarbeiten<br />

Harald Beck<br />

Konsistenz-Management von Verkehrsregelungen<br />

Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based Systems<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 38<br />

Adrian Dabrowski<br />

Security Analysis of Metropolitan Locking Systems Using the Example of the<br />

City of Vienna<br />

Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 12<br />

Heinrich Fink<br />

GPU-based Video Processing in the Context of TV Broadcasting<br />

Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich Computergraphik<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 49<br />

Martin Perner<br />

Self-Stabilizing Byzantine Fault-Tolerant Clock Distribution in Grids<br />

Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded Computing Systems<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 8<br />

3


DIPLOMARBEITEN<br />

Institute der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> .............................................................. 6<br />

Arbeitsbereich Embedded Computing Systems .............................................. 6<br />

Institut <strong>für</strong> Rechnergestützte Automation ................................................ 10<br />

Arbeitsbereich Automatisierungssysteme ..................................................... 10<br />

Arbeitsbereich Computer Vision .................................................................. 22<br />

Institut <strong>für</strong> Informationssysteme .............................................................. 27<br />

Arbeitsbereich Distributed Systems ............................................................. 27<br />

Arbeitsbereich Database and Artificial Intelligence ....................................... 32<br />

Arbeitsbereich Knowledge Based Systems.................................................... 37<br />

Institut <strong>für</strong> Computersprachen ................................................................. 41<br />

Arbeitsbereich Programmiersprachen und Übersetzer ................................... 41<br />

Institut <strong>für</strong> Computergraphik und Algorithmen ........................................ 46<br />

Arbeitsbereich Algorithmen und Datenstrukturen ......................................... 46<br />

Arbeitsbereich Computergraphik ................................................................. 49<br />

Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung ..................................... 54<br />

Arbeitsbereich Multidisciplinary Design ........................................................ 54<br />

Arbeitsbereich Human Computer Interaction ................................................ 55<br />

Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme ............................... 59<br />

Arbeitsbereich Information & Software Engineering ..................................... 59<br />

Arbeitsbereich Interactive Media Systems .................................................... 67<br />

Arbeitsbereich Business Informatics ............................................................. 72<br />

Arbeitsbereich E-Commerce ........................................................................ 76<br />

4


Andere Institute der <strong>TU</strong> <strong>Wien</strong><br />

Department <strong>für</strong> Raumplanung ................................................................. 79<br />

Institut <strong>für</strong> Konstruktionswissenschaften und <strong>Technische</strong> Logistik ............ 80<br />

Institut <strong>für</strong> Managementwissenschaften .................................................. 81<br />

Institut <strong>für</strong> Automatisierungs- und Regelungstechnik ............................... 87<br />

Institut <strong>für</strong> Computertechnik ................................................................... 89<br />

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen<br />

Medizinische Universität <strong>Wien</strong> ................................................................. 91<br />

5


Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong><br />

Arbeitsbereich Embedded Computing Systems<br />

Andreas Hagmann<br />

Performance Aware Hardware Runtime Monitors<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />

The field of research for runtime verification (RV) deals with verification<br />

methods, classified between common testing and formal verification. In a RV<br />

setting, the system under test (SUT) is observed by a runtime monitor that<br />

checks the monitored behaviour against a specification. Based on existing<br />

approaches, this thesis presents a RV framework, capable of observing embedded<br />

real-time systems. The proposed framework features a runtime monitoring<br />

unit, implemented as micro-processor architecture. The monitoring unit<br />

is built entirely in hardware and may be used stand-alone or integrated in the<br />

target system. It evaluates claims, specified as atomic propositions, Linear<br />

Temporal Logic, and Metric Temporal Logic formulas. The connection to the<br />

system under test is established by wire-taping its external interfaces. After an<br />

introduction to RV methods, this thesis captures the state-of-the-art and<br />

provides theoretical background. It proceeds with an analysis of existing parts<br />

and proposes optimizations on them. Thereby, the influence of different<br />

improvements is compared and verified by benchmarks, conducted with a<br />

software model of the runtime verification unit. Furthermore, the runtime verification<br />

framework is extended to support natively the evaluation of future<br />

time temporal formulas. A prototype implementation, shows the feasibility of<br />

the novel approach. The design of the RV unit is done with special focus on<br />

not influencing the behaviour of the SUT and getting along with the limited<br />

resources available within embedded systems. Benchmark results compare the<br />

improved runtime verification unit to the existing design and show a speed up<br />

factor of twelve. Synthesis runs show, that the proposed design fits well into a<br />

low-end commercial off-the-shelf FPGA. A case study completes this thesis and<br />

demonstrates the benefit of a RV unit within a real-world Unmanned Aerial<br />

System to detect erroneous sensor readings.<br />

6<br />

Markus Hofstätter<br />

Solving the Labeling Problem: A Byzantine Fault-Tolerant Self-Stabilizing FPGA<br />

Protoptye based on the FATAL+ Protocol<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />

The topic of this thesis lies in the intersection of VLSI design and fault-tolerant<br />

distributed algorithms. It is devoted to the development of an FPGA implemen-


tation of the well-known synchronous Phase King consensus algorithm using<br />

single-bit serial communication and the design of a suitable testbench for<br />

verifying its operation. The implementation is finally integrated into an existing<br />

prototype and testbench of the self-stabilizing Byzantine fault-tolerant distributed<br />

clock generation scheme FATAL+, where it is used to generate 17-bit<br />

wide synchronized clocks without increasing the stabilization time of the underlying<br />

scheme. The thesis also explores implementation alternatives and provides<br />

the correctness proofs of the employed algorithm.<br />

Karoly David Pados<br />

Design and Evaluation of an AXI4 Bus System<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />

To make system integration in VLSI designs easier and modular, a common<br />

interface for IP cores is desirable. Modules with standardized interfaces can be<br />

more easily integrated into existing designs or swapped out for new parts,<br />

should the need arise. Such an interface and the bus system that connects<br />

multiple components need to comply with several non-trivial requirements, like<br />

efcient power utilization, high throughput, low latency, being easily adaptable<br />

to multiple types of IP cores and providing implementation exibility to system<br />

integrators. For this reason, a number of competing interface standards have<br />

emerged. The focus of this thesis is the implementation and evaluation of such<br />

a standard and the accompanying interconnect for the AMBA AXI4 (Advanced<br />

eXtensible Interface version 4) bus. First, system-on-a-chip (SoC) bus systems<br />

and state of the art protocols are described to establish a good understanding<br />

and broad knowledge of the topic in general. Then functional and<br />

synthesizable IP cores are developed and presented for AXI4. These cores<br />

range from simple master and slave devices to fully functional interconnects, as<br />

well as components to support interoperability with older devices of the AMBA<br />

protocol suit. Also developed in this thesis are a simulation driver and a<br />

protocol monitor/checker to support validation. The components are then<br />

applied to the Scarts microprocessor where they are tested in a live<br />

environment. A detailed comparison of AXI4 and AMBA2 AHB is provided.<br />

Matej Pavlovic<br />

Implementation of a Distributed Computation Framework<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />

A recent paper "On Dynamic Distributed Computing" by Sébastien Gambs,<br />

Rachid Guerraoui, Florian Huc and Anne-Marie Kermarrec presents new<br />

algorithms that make it possible to perform reliable distributed computation on<br />

a dynamic network of nodes, despite a Byzantine adversary controlling an important<br />

fraction of the nodes. The network is partitioned into clusters of small<br />

7


size (polylogarithmic in the size of the network) that contain a majority of<br />

honest nodes with high probability. The clusters, interconnected by a<br />

randomized overlay network, provide an abstraction which makes it possible to<br />

perform reliable computation in a network containing unreliable nodes. The<br />

algorithms handle dynamic node addition and removal, as long as the size of<br />

the network changes polynomially with respect to its initial size. This document<br />

describes the first attempt to implement these algorithms. Although the<br />

implementation is not complete, it is usable under certain assumptions and<br />

provides a solid basis for future improvements. We discuss the challenges<br />

encountered during implementation, the assumptions that had to be made on<br />

the network and the adversary and possible ways to weaken or drop these<br />

assumptions by further improving the implementation.<br />

Martin Perner<br />

Self-Stabilizing Byzantine Fault-Tolerant Clock Distribution in Grids<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />

Diese Diplomarbeit präsentiert ein selbststabilisierendes, Byzantinisch<br />

fehlertolerantes Verfahren (HEX) zur Taktverteilung in einer hexagonalen Grid-<br />

Topologie. Typische Anwendungsgebiete sind VLSI-Schaltungen und andere<br />

parallele/netzwerkgekoppelte Systemarchitekturen, die genau synchronisierte<br />

Taktsignale in benachbarten Knoten benötigen. Im Gegensatz zur Taktverteilung<br />

mittels einer Baumtopologie toleriert HEX sowohl persistente als<br />

auch transiente Fehler im Grid und unterstützt mehrfache synchronisierte Taktquellen.<br />

Um das zu bewerkstelligen, läuft auf jedem Knoten im HEX-Grid ein<br />

einfacher verteilter Algorithmus, der Takte weiterleitet und auch lokal zur Verfügung<br />

stellt. Zentraler Gegenstand der Arbeit ist eine VHDL-Implementierung<br />

des HEX-Algorithmus. Ein speziell entwickeltes Testbed er-laubt die<br />

Instantiierung, Simulation und das Post-Processing von HEX-Grids. Das gesamte<br />

Design wurde mittels einer ASIC-Standardzellen-Bibliothek synthe-tisiert, um<br />

ein <strong>für</strong> die Simulation mittels Mentor Graphics's ModelSim geeig-netes Modell<br />

zu generieren. Umfassende Experimente wurden durch-geführt, um die<br />

Resultate der ebenfalls in dieser Arbeit dokumentierten theoretischen Analyse<br />

der Synchronisationsgenauigkeit (Skew) und der Stabilisierungszeit zu<br />

verifizieren. Diese bestätigten, dass die exotischen Worst-Case Szenarien in der<br />

Praxis unwahrscheinlich sind, sodass der typische Skew viel geringer als der<br />

Worst-Case ist. Experimente mit fehlerhaften Knoten, wo analytische Resultate<br />

nicht verfügbar sind, zeigten, dass HEX auch mit einer großen Anzahl<br />

fehlerhafter Knoten im Grid hervorragende Eigenschaften aufweist. Die<br />

Resultate dieser Arbeit, die vom Österreichischen Fonds zur Förderung der<br />

wissenschaftlichen Forschung (FWF) im Rahmen des Projekts FATAL (P21694)<br />

unterstützt wurde, konnten auch in den Proceedings der 6th International<br />

Conference on Dependability und des 25th ACM Symposium on Parallelism in<br />

Algorithms and Architectures publiziert werden.<br />

8


Kyrill Winkler<br />

Easy Impossibility Proofs for k-Set Agreement<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />

This thesis is concerned with impossibility results, i.e., proofs of the fact that<br />

certain classes of algorithms cannot exist. The algorithms investigated are from<br />

the field of fault-tolerant distributed computing, which is devoted to the formal<br />

study of processing entities, modeled as communicating state machines, that<br />

may possibly fail and communicate with each other by either exchanging messages<br />

or via access to a shared memory. We investigate the problem of k-set<br />

agreement, a natural generalization of consensus. While consensus concerns<br />

itself with the task in which all processes eventually have to decide on a common<br />

value that was originally some process input value, k-set agreement allows<br />

up to k different decision values. Hence, for k = 1, k-set agreement is equivalent<br />

to consensus. Although there exist impossibility results for deter-ministic<br />

consensus in systems prone to failures, relying solely on com-binatoric<br />

arguments that might be considered classical today, the corresponding<br />

impossibility results for k-set agreement require complex argu-ments from<br />

algebraic topology. Nevertheless, there has been recent research on finding<br />

easy or non-topological impossibility proofs for k-set agreement, which may<br />

also provide a new handle on solving some long-standing open problems like<br />

the weakest failure detector for k-set agreement in message-passing systems.<br />

The focus of this thesis lies on such non-topological im-possibilities for k-set<br />

agreement. We present and discuss existing approaches and results and<br />

provide rigorous proofs for new results regarding various models and<br />

scenarios, including the important class of dynamic systems that may evolve<br />

over time. This work has been supported by the Austrian Science Fund (FWF)<br />

project RiSE (S11405).<br />

9


Institut <strong>für</strong> Rechnergestützte Automation<br />

Arbeitsbereich Automatisierungssysteme<br />

Christoph Auernig<br />

Kombinierte Formularfelder in Produktivitäts-Anwendungen: Eine<br />

vergleichende Usability-Evaluation<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Das heutzutage verwendete Formulardesign ist geprägt von der technischen<br />

Notwendigkeit <strong>für</strong> automatische Datenverarbeitung. Dies führt zu Formularen,<br />

die in viele kleine Felder aufgeteilt und mühsam auszufüllen sind. Verwandte<br />

Arbeiten im Bereich Such-Formulardesign schlagen vor, das dadurch entstehende<br />

Usability-Problem durch den Einsatz kombinierter Eingabefelder zu<br />

lösen. Die vorliegende Arbeit untersucht, ob die Idee von kombinierten<br />

Formularfeldern auch auf Formulare in Produktivitäts-Anwendungen wie z.B. in<br />

der Betriebswirtschaft oder im e-Government eingesetzt werden kann. Da<strong>für</strong><br />

wurde mit einem iterativen Designprozess ein Prototyp erstellt und mit konventionellem<br />

Formulardesign in einer Usability Evaluation verglichen. In dem in<br />

der vorliegenden Arbeit durchgeführten Usability Test wurde sechzehn<br />

Benutzern die Aufgabe gestellt, ein Benutzerprol eines sozialen Firmen-Netzwerkes<br />

auszufüllen. Die Resultate zeigen, dass die Benutzer keine Probleme im<br />

Umgang mit den kombinierten Eingabefeldern hatten. Anders als ähnliche<br />

Arbeiten zeigen die Resultate keinen signikanten Anstieg in der Ausfüll-Efzienz.<br />

Eine Langzeitstudie mit erfahreneren Benutzern könnte bessere Resultate<br />

zeigen. Jedoch waren die Testpersonen sehr zufrieden mit dem kombinierten<br />

Formular. Die Resultate bestätigen, dass die in der vorliegenden Arbeit<br />

entwickelten kombinierten Eingabefelder in Geschäfts- und Produktivitäts-<br />

Anwendungen verwendet werden können, um das visuelle Design zu verbessern<br />

und mehr Übersicht zu gewährleisten.<br />

10<br />

Florian Bartl<br />

Modelling a multi agent-system for smart homes<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Die Anzahl der Haushaltsgeräte steigt in modernen Häusern ständig. Um deren<br />

Kontrolle zu vereinfachen, wird Automatisierungstechnik eingesetzt. Durch die<br />

Integration zusätzlicher Geräte in die Steuerung/Regelung von Haustechniksystemen<br />

steigt jedoch die Komplexität des Systems weiter an. Zusätzlich wird<br />

die Energieeffizienz dieser Systeme immer wichtiger, unter anderen durch<br />

ökonomische Überlegungen sowie einem wachsenden Umweltbewusstsein.<br />

Moderne Haustechnik erlaubt es, Geräte und Funktionen im Haus zu kontrol-


lieren, ist aber komplex in Konfiguration und Bedienung. Dies macht es den<br />

Benutzern des Hauses schwer, Änderungen vorzunehmen und führt dazu, dass<br />

Einstellungen, wie Komforttemperatur, lediglich bei der Inbetriebnahme des<br />

Systems eingestellt, aber nie verändert werden. Um sicherzustellen, dass diese<br />

Systeme mit optimaler Effizienz arbeiten, ist somit ein autonomer Betrieb<br />

notwendig, bei dem die eingesetzten Systeme selbsttätig Aufgaben im Haus<br />

übernehmen und deren Umsetzung effizient gestalten. In dieser Arbeit wird<br />

eine auf künstliche Intelligenz basierende autonome Steuerung/Regelung <strong>für</strong><br />

ein Haus entwickelt. Der Systementwurf folgt einem Multi-Agenten Ansatz und<br />

wird mit Hilfe einer etablierten Agenten Methodik durchgeführt. Dabei sollen<br />

nicht nur klassische Haustechniksysteme wie Heizungs-, Lüftungs- und Klimaanlagen<br />

betrachtet werden, sondern alle Energieverbraucher sowie die<br />

Bewohner selbst in das System einbezogen werden. Dies wird mit Hilfe von<br />

Agenten, die auch die Bewohner repräsentieren, realisiert. Agenten vertreten<br />

die Interessen ihrer Abbilder und versuchen die Systeme im Haus so effizient<br />

wie möglich zu betreiben. Durch Ausnutzung des Multi-Agentenparadigmas<br />

und der Vorsehung von Kommunikationsbeziehungen zwischen Agenten wird<br />

ein dynamischer Betrieb ermöglicht, der parallel dazu die Einhaltung von<br />

Komfortparametern sicherstellt. Das System wird auf Basis einer detaillierten<br />

Spezifikation prototypisch umgesetzt und getestet.<br />

Markus Bruckner<br />

Design and Implementation of a Robust and Modular System for Monitoring<br />

and Reporting of Enterprise Storage Capacity<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

The increasing technologization of the business world yields many benefits.<br />

Various kinds of information are just accessible at any time. However,<br />

providing information requires storage space, and through the ever growing<br />

amount of digital information, the demand for additional storage space<br />

increases as well. The resulting need to cope with the continuously increasing<br />

demand for capacity is posing a considerable challenge for the information<br />

technology (IT) departments of organizations. Because of the large number of<br />

involved systems, keeping an overview of the overall consumption is hard. This<br />

problem concerns end users, which lack the ability of watching their space<br />

usage. Administrators are impeded by the lack of overview of the current<br />

situation and the consumption evolution as well. Further, capacity planning,<br />

charging user departments for consumed IT services, and justifying budget for<br />

new hardware against the executive management become more difficult. This<br />

thesis tries to address these problems. In a literature research the life cycle of<br />

data will be examined. Governance models will be explored with regard to their<br />

utilization of monitoring and reporting. Requirements will be derived from the<br />

topics of the literature research and complemented with experiences from a<br />

sample domain. Afterwards, a prototype will be implemented. The developed<br />

prototype constitutes a modular system to monitor and record resource<br />

consumption. It integrates seamlessly into existing infrastructures, for example<br />

11


y providing the ability to interface with existing directory services and<br />

authentication mechanisms. The reporting component provides the end users<br />

with personalized reports of their resource consumption. For the use by<br />

managers, administrators and other parties in charge of IT, the data can be<br />

summarized by users and departments or the whole organization. The<br />

component can be extended by additional modules and configured by an<br />

administration website.<br />

Adrian Marek Dabrowski<br />

Security Analysis of Metropolitan Locking Systems Using the Example of the<br />

City of Vienna<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

In this work, we carried out a black-box analysis of the electronic contact-less<br />

BEGEH system that has been steadily replacing the conventional mechanical BG<br />

key on multi-party houses in Vienna. The BG key has been introduced originally<br />

to allow mail delivery services to access multi-party houses but has since then<br />

aggregated additional users. We have found several vulnerabilities in the new<br />

system caused by the design, technology used, organization, and its implementation.<br />

We have further shown that the new system is circumventable with<br />

little costs.This effectively nullifies many security advantages promised by the<br />

manufacturer. We found a configuration issue, enabling access to 43% of all<br />

installations with a reprogrammed transponders worth approximately 2, such as<br />

an old ski pass. We have also shown that it is not necessary to break the<br />

encryption of the data, as it can be replayed together with its UID-derived key.<br />

Therefore, we built a card simulator for less than 20. We also conclude that the<br />

way blacklist updates are organized, raises the black market value of physically<br />

stolen keys. On two more examples (an electronic purse and an UID based<br />

access system) we demonstrated that similar issues are found in other systems<br />

as well. We show that UID based solutions offer a lower level of security than<br />

could be expected, especially when not enough attention is payed to the<br />

entropy of the UID space.<br />

Duc Hoa Do<br />

Möglichkeiten des Nachweises der funktionalen Sicherheit von technischen<br />

Systemen<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Em.O.Univ.Prof. Dr. Gerhard Helge Schildt<br />

12<br />

Die Einhaltung grundlegender sicherheitstechnische Prinzipien erhöht nicht nur<br />

die Zuverlässigkeit von technischen Systemen, sondern wird häufig auch vom<br />

Gesetz gefordert. Diese Diplomarbeit beschäftigt sich zuerst mit den zwei<br />

Normen EN 61508 und ISO 26262. Während die EN 61508 generisch ist und<br />

sich hauptsächlich mit der Risikobewertung von sicherheitsbezogenen tech-


nischen Systemen befasst, bezieht sich die ISO 26262 auf Serienfahrzeuge.<br />

Zentraler Begriff beider Normen ist das Maß der Sicherheitsrelevanz, die in SIL<br />

und ASIL angegeben wird. Danach wird das Sicheres Mikrocomputersystem<br />

SIMIS vorgestellt und Konzeption, Aufbau und Funktionsweise erläutert. Die<br />

Anwendung von FMECA ist ebenso eine anerkannte Methode, um die<br />

Sicherheit eines technischen Systems weiter zu verbessern. Hier wird auf die<br />

historische Entwicklung, Voraussetzung und Einsatzzweck, die FMECA Arbeitsblätter,<br />

Risikoprioritätszahl, Risikomatrix und die Grenzen der FMECA eingegangen.<br />

Die Verwendung von Funktionswächtern ist ein weiteres sicherheitstechnisches<br />

Prinzip. Nach zwei Einsatzbeispielen wird der grund-legende Aufbau<br />

dieser sogenannten Watchdogs erklärt sowie Architekturen und Ausführungen<br />

behandelt. Eine Skizzierung des optimalen Watchdogs wird vorgenommen<br />

und Ideen zu mehrstufigen Funktionswächtern werden angeboten.<br />

Die Funktionsweise des Ruhestromprinzips wird beschrieben und die Umsetzung<br />

in drei Anwendungsbeispielen veranschaulicht. Als letztes werden die<br />

Vorteile der Dynamisierung von Steuersignalen gezeigt. Die Um-setzung wird<br />

anhand einer Funktionsschaltung mit Transistorstufe und dem LOGISAFE<br />

Systems demonstriert.<br />

Fabian Fischer<br />

Automated Extraction of Economic Information from Underground<br />

Marketplaces Using Machine Learning<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

The Internet and e-commerce are ever-growing. This is not only the case for<br />

legitimate activities, but also for fraudulent activities. Credit cards are a<br />

convenient way of payment, on-line and in person. But credit card credentials<br />

are also an attractive target for fraudsters. This has led to a lively underground<br />

economy based around credit card data. Division of labor is also present in<br />

these underground economies. As a result, stolen credit card data are sold to<br />

those who can turn the data into cash. The places where this happens are<br />

underground marketplaces: This work tries to get a glimpse into these market<br />

places. We want to know what goods are traded at what price. And we want to<br />

know how that changes over time. To achieve this, we implemented a machine<br />

learning algorithm that can extract products in a very general sense, not<br />

confined to a certain product category. This algorithm leverages natural<br />

language processing for increased accuracy. Because we obtain the data from<br />

bulletin boards, it is known at what time an offer was posted. We also extract a<br />

products price. In a classification step, the products are narrowed down into<br />

classes and sub-classes. Additionally, location information is extracted, if<br />

present. All this enabled us to create a system that can learn from very few<br />

manually annotated documents and create a stock market-like output that<br />

shows the change of price over time. Price differences between regional<br />

origins of stolen data can be visualized, too.<br />

13


Jürgen Galler<br />

Content Aware Smart Routing<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Today's Internet has reached its scalability limits with respect to the number of<br />

participants and performance. Contemporary Internet devices are not just<br />

computers, but also tablets, smart phones and even small devices, like sensors<br />

and actuators. A variety of new technologies is inherent to these Internet<br />

appliances, like IPv6, ZigBee, 6LoWPAN or NFC. From the combination of these<br />

technologies a new paradigm arises, the so called Internet of Things (IoT). The<br />

problem of all these new services is how a service can be addressed. Typically,<br />

a client has to know the exact resource identifier (URI) in order to use a specific<br />

service hosted by a server somewhere in the Internet. This thesis provides a<br />

concept which relaxes the strong binding between service and server by the<br />

use of IPv6 focusing on the addressing of sensors and actuators. A client can<br />

place an unaddressed request to the so called content aware network. A smart<br />

router fetches the request and forwards it to a dedicated server, which is able<br />

to process the request. To this end, the request contains a semantic tag which<br />

is interpretable by participating network nodes. After the initial primary request<br />

is sent to its target server, this server examines the request and performs some<br />

secondary requests in order to set the corresponding actuators or to fetch<br />

current values from sensors. In addition to the correct routing of unaddressed<br />

requests, the content aware network is also able to route unaddressed data<br />

packets sent from sensor/actuator-units. Such a data packet can be sent for<br />

example on the change of a node's internal state. As a proof of concept, an<br />

elementary reference system is implemented which provides a reduced set of<br />

functionalities in order to evaluate the concept with respect to performance,<br />

security and fault tolerance. The network's performance, measured in the<br />

amount of messages, is compared to some theoretical alternative approaches.<br />

In order to preserve security, IPsec is investigated.<br />

Christof Kier<br />

Release- und Qualitätsmanagement (ITIL/CMMI) in Programmen mit starkem<br />

Bezug auf die Migration von Altsystemen und -prozessen<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

14<br />

Qualitativ hochwertige Softwaretechnik zu produzieren ist unerlässlich, um auf<br />

dem Markt zu bestehen und optimale Kundenzufriedenheit zu erreichen. Für<br />

diese Zielsetzung muss sich die Organisation mit Konzepten des Qualitätsmanagements<br />

und der Optimierung der eigenen Prozesse auseinandersetzen.<br />

Qualitäts- und Projektmanagement dienen als Querschnittinstanzen und Bindemechanismen<br />

zwischen den einzelnen Phasen der klassischen Softwaretechnik.<br />

Anerkannte Standards, Vorgehensweisen und qualitätsorientierte Prozesse<br />

sind gut in neu aufgesetzten Projekten anzuwenden, allerdings führt die


Einführung dieser Modelle in gewachsenen Strukturen und bei der Migration<br />

von Altsystemen vielschichtigen Problematiken. Mit diesen Fragen und dem<br />

Versuch der Beantwortung auf Basis von Praxisbeispielen setzt sich diese<br />

Diplomarbeit auseinander. Im Rahmen der theoretischen State of the Art-<br />

Grundlagenarbeit werden Methoden und Vorgehensmodelle <strong>für</strong> Softwareprojektmanagement,<br />

Qualitätsmanagement und Qualitätssicherung sowie die<br />

Kernprozesse der Service-Inbetriebnahme und das Change- und Releasemanagement<br />

aus dem De-facto-Standard ITIL dargelegt. Die organisatorische<br />

und prozessuale Anpassungsfähigkeit, besonders im Release- und Changemanagement,<br />

ist dabei ein wichtiger Bestandteil. Im Rahmen der vorliegenden<br />

Arbeit werden Effektivität und Effizienz aus in der Fachliteratur beschriebenen<br />

Vorgehensmodellen in einen Praxisbezug im Projekt- und Programmmanagement<br />

gebracht und die Alltagstauglichkeit anhand praktischer Beispiele aus<br />

dem Projektalltag aufgezeigt. Dabei werden Qualitäts- und Release-prozesse<br />

aus dem Theorieteil in der Praxis verwendeten Prozessen gegen-über-gestellt<br />

und Erweiterungen erarbeitet. Im Rahmen der vorliegenden Arbeit wurden<br />

diese Ansätze <strong>für</strong> Release- und Qualitätsmanagement in Projekten im<br />

Migrationsumfeld von Altsystemen beleuchtet und daraus ein erkennbarer<br />

Regelbetrieb <strong>für</strong> eine leane Planung und eine Planung bei maximal möglichem<br />

Ressourcenstand abgeleitet.<br />

Bernhard Miller<br />

iHoneyClient - Discovery and Analysis of Malware for Mac OS X<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Over the last few years, Apples operating system OS X has steadily increased its<br />

user base. Today, an estimated 7.5% of all computers worldwide are running<br />

OS X. One reason for this advancement is the platforms questionable reputation<br />

of being inherently safe. However, the growing popularity of Apple<br />

computers has called criminals to attention. An increasing number of malware<br />

families is specifically targeting OS X. While there is a substantial body of research<br />

and tools dealing with malware on Windows and, more recently,<br />

Android systems, OS X has received little attention from security researchers so<br />

far. To amend this shortcoming, I implemented iHoneyClient, a tool to discover<br />

and analyze Mac malware. iHoneyClient offers a high-interaction client honeypot<br />

based on OS X that simulates an end user browsing the web on an Apple<br />

computer. The honeypot is able to examine the threat a website poses to OS X<br />

users. In addition, I built a dynamic analysis sandbox based on iHoneyClient.<br />

With this sandbox it is possible to execute Mac malware samples in an isolated<br />

environment and monitor their behavior. I used iHoneyClient to evaluate over<br />

6,000 blacklisted URLs to estimate how widespread malware for OS X is today.<br />

Furthermore, I used the dynamic analysis environment to analyze 174 malware<br />

samples. The combined results give an overview of the current state of OS X<br />

malware. While several advanced malware families for OS X exist, it is highly<br />

unlikely to become infected by simply browsing the web.<br />

15


Christian Pfeifhofer<br />

Silent Installs - Studying the Dark Side of the Pay-Per-Install Business<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Ausgefeilte Geschäftsmodelle bilden heutzutage die Grundlage <strong>für</strong> den<br />

Vertrieb und die Entwicklung von Malware. Kriminelle Organisationen haben<br />

Geschäftspraktiken, die im legalen Bereich schon lange als etabliert gelten,<br />

übernommen, und an die Gegebenheiten der Schattenwirtschaft im Internet<br />

angepasst. Sie erreichen damit eine effizientere Arbeitsteilung, sodass Kernkompetenzen<br />

bestmöglich zum Einsatz gebracht werden können. Die Verteilung<br />

von Schadsoftware ist dementsprechend oft ein Unterfangen, an dem<br />

mehrere, spezialisierte Gruppen beteiligt sind. Ein Beispiel <strong>für</strong> eine solcherart<br />

spezialisierte Gruppe ist der Pay-Per-Install (PPI) Provider. PPI Provider verkaufen<br />

die Ausführung bösartiger Programme auf gekaperten Computern als Service<br />

an andere Kriminelle (Clienten), welchen die Fähigkeit zur effizienten Schadsoftwareverteilung<br />

fehlt. PPI Affiliates führen dann im Rahmen von Partnerprogrammen<br />

die tatsächliche Verbreitung durch und werden vom PPI Provider<br />

<strong>für</strong> jede Installation bezahlt. Diese Arbeit konzentriert sich auf PPI Provider mit<br />

Partnerprogrammen, und beleuchtet deren Geschäftsmodell aus unterschiedlichen<br />

Perspektiven. Wir analysieren Infra-struktur und Software von PPI<br />

Providern, um neuartige Erkenntnisse über die zugrundeliegende Wertschöpfungskette<br />

zu gewinnen. Über einen Zeitraum von sechs Monaten beobachteten<br />

wir das Verhalten von 33 PPI Supportmitarbeitern und identifizierten<br />

damit Gemeinsamkeiten von Webseiten, obwohl diese scheinbar nicht<br />

in Beziehung stehen. Darauf aufbauend beschreiben wir die Gründung und<br />

Bewerbung unseres eigenen PPI Affiliate Programms, welches letztendlich eine<br />

potenzielle Infektionskapazität von 55.000 Computern pro Tag erreicht hat.<br />

Abschließend identifizieren wir wichtige ökonomische Eigenschaften des PPI<br />

Geschäftsmodells und fassen unsere Resultate unter Anwendung der Business<br />

Model Ontology zusammen.<br />

Thomas Renner<br />

E-Learning-Plattform <strong>für</strong> <strong>Technische</strong> Grundlagen der <strong>Informatik</strong><br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ass.Prof. Dr. Monika Di Angelo<br />

16<br />

Im Rahmen dieser Arbeit wird das Konzept einer E-Learning-Plattform <strong>für</strong> die<br />

Lehrveranstaltung <strong>Technische</strong> Grundlagen der <strong>Informatik</strong> an der <strong>Technische</strong>n<br />

Universität <strong>Wien</strong> entwickelt. Die E-Learning-Plattform wurde in <strong>TU</strong>WEL umgesetzt.<br />

<strong>TU</strong>WEL ist eine Moodle Installation der <strong>Technische</strong>n Universität und<br />

steht allen Studierenden zur Verfügung. Im ersten Teil der Arbeit werden<br />

theoretische Grundlagen ausgearbeitet, auf denen die Umsetzung aufbaut.<br />

Zunächst wird das Potenzial von E-Learning im Allgemeinen erörtert, danach<br />

wird ein Vergleich zwischen papierbasiertem Lernen mit E-Learning gezogen.<br />

Ebenso werden theoretische Grundlagen <strong>für</strong> die Gestaltung von E-Learning


Plattformen aufgearbeitet. Nach Definitionen <strong>für</strong> die einzelnen Ebenen im E-<br />

Learning werden besonders die Einflussfaktoren bei der Gestaltung von E-<br />

Learning Plattformen erörtert. Des Weiteren werden wichtige Erfolgsfaktoren<br />

<strong>für</strong> die Gestaltung einer E-Learning Plattform aufgezeigt. Danach wird auf jene<br />

Funktionalitäten und deren lerntheoretische Anwendung von Moodle eingegangen,<br />

die in der konzeptionellen Umsetzung <strong>für</strong> die Lehrveransaltung<br />

<strong>Technische</strong> Grundlagen der <strong>Informatik</strong> Einsatz finden. Die konkrete Umsetzung<br />

des Konzepts erfolgt als <strong>TU</strong>WEL-Testkurs, der Einsatz von Bestandteilen obliegt<br />

der Verantwortung der Lehrveranstaltungsleitung.<br />

Gregor Ryba<br />

Authorization as a Service - Evaluating the Platform as a Service Paradigm for<br />

XACML Policy Decision Points<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

The "Internet of Things" vision refers to an Internet that is not completely<br />

dependent on humans creating information. It tries to incorporate the physical<br />

world with its objects. The smart grid is one application of this vision. It<br />

integrates ICT technology into the traditional power grid to cope with the new<br />

requirements that are arising out of its continuing expansion and the incorporation<br />

of new energy sources. Because of interoperability many of these ICT<br />

devices are relying on Web services for transportation of the data generated.<br />

Since most of this data is sensitive, privacy needs to be established. The huge<br />

number of devices that are involved in such a system requires high scalability.<br />

Based on an example scenario arising out of the smart grid, this thesis<br />

introduces an architecture offering authorization as a service. It is based on the<br />

two standards XACML and SAML. It is documented with the 4+1 view model<br />

and a software prototype is implemented. This prototype is then deployed to<br />

the PaaS framework Appscale. Appscale is an open source implementation of<br />

Google's App Engine framework. It enables the execution of applications in a<br />

cloud environment, without the need to take care of the issues arising out of<br />

the distributed computing model. For comparison a version of this architecture<br />

runnable on an on-premises system is developed. Evaluation of the prototype<br />

focuses on its scalability. Load tests are run against the system in various<br />

configurations with all distributed databases offered by Appscale. The<br />

recorded results are ranging from a very unstable behaviour to the awaited<br />

scalability dependent on the number of nodes used for Appscale deployment.<br />

17


Paul Staroch<br />

A Weather Ontology for Predictive Control in Smart Homes<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

In the past few years, the idea of creating smart homes has gained popularity.<br />

A smart home possesses some kind of intelligence that allows it to support its<br />

inhabitants. The overall goal is to increase the inhabitants' comfort while<br />

energy use and costs are reduced as well. In the context of a project aimed at<br />

building smart home systems, this thesis aims at constructing an OWL ontology<br />

for weather information, containing data about both current conditions and<br />

weather forecasts. The data described by this ontology will enable smart home<br />

systems to make decisions based on current and future weather conditions. At<br />

first, the thesis will determine in which particular ways weather data can be<br />

used within smart homes. Furthermore, possible sources for weather data will<br />

be analysed. Primary sources will be weather services that are that are accessible<br />

via Internet. Optionally, local weather stations will be able to provide<br />

further data about current weather conditions. A set of Internet-based sources<br />

for weather data will be reviewed for their suitability for use within smart<br />

homes. Afterwards, existing ontologies will be reviewed for their structure,<br />

advantages, and disadvantages in order to acquire ideas being suitable to be<br />

re-used. Several well-known approaches for building new ontologies from<br />

scratch will be discussed in detail. The thesis will follow METHONTOLOGY, the<br />

best-fitting of these approaches, to build Smart-HomeWeather, an OWL<br />

ontology that covers both the weather data being available and the concepts<br />

required to perform weather-related tasks within smart homes while always<br />

keeping the possibility of simple and efficient OWL reasoning in mind. Eventually,<br />

Weather Importer, a Java application, will be developed that gathers<br />

data from weather services and local weather stations and transforms it to<br />

comply with the SmartHomeWeather ontology.<br />

Martin Stütz<br />

Detecting Illicit Content in Picture Streams<br />

Studium: Masterstudium Information & Knowledge Management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

18<br />

Diese Arbeit beschreibt einen Algorithmus zur Erkennung von Farbbildern mit<br />

pornographischen oder gänzlich illegalen Inhalten. Dazu kann der Algorithmus<br />

eine Altersklassifizierung anhand von gesichtsbasierter Geometrie durchführen.<br />

Der Algorithmus erweitert den Algorithm for Nudity Detection von Rigan Apapid<br />

durch die Verwendung von Support Vector Machines und Methoden zur<br />

Eliminierung von Fehlalarmen. Die Nacktheits- und Pornographieerkennung<br />

basiert auf Hauterkennung. Mithilfe von Hauterkennung können Hautflächen in<br />

Bildern lokalisiert werden. Größen, Formen und Distanzen der erkannten Hautflächen<br />

zueinander werden als Features zur Beschreibung der Inhalte von<br />

Bildern verwendet. Basierend auf diesen Features und dem Gesamtanteil von


Haut wird das Bild durch eine Support Vector Machine als verfänglich oder<br />

unverfänglich klassifiziert. Die analysierten Bilder werden mittels OpenCv nach<br />

Gesichtern durchsucht. Positionen von Augen, Mund, Nase und Kinn werden<br />

innerhalb von erkannten Gesichtern ermittelt. Eine Support Vector Machine<br />

klassifiziert die Gesichter anhand der Distanzen zwischen diesen Gesichtsmerkmalen<br />

in zwei Klassen (>18 und


prozesses, basierend auf dem TMMi Bewertungsstandard, durchgeführt und in<br />

einer Tabelle zusammenfassend dargestellt.<br />

Jürgen Weidinger<br />

Integration der Gebäudeautomation in das Internet der Dinge<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Das Internet der Dinge (IoT) hat das Ziel, Komponenten der physischen Welt<br />

mit dem Cyberspace zu verbinden und Informationslücken zwischen der realen<br />

und virtuellen Welt zu minimieren. Durch die Entwicklung von Internet Protocol<br />

Version 6 IPv6 können zirka 340 Sextillionen Geräte eindeutig identifiziert<br />

werden. IPv6 ist damit ein wichtiger Wegbereiter zur Realisierung der Vision<br />

des IoT. Eine zukünftige Anwendungsdomäne im IoT betrifft die Gebäudeautomation<br />

mit Funktionen aus der Heizungs-, Lüftungs-, Klima-technik, Beleuchtung<br />

und Verschattung. Das Zusammenwirken von Komponenten der<br />

technischen Gebäudeausrüstung ermöglicht auch die Einführung von Energiemanagementsystemen.<br />

Zusätzlich besteht der Bedarf der Integration von<br />

Gebäudeautomationssystemen mit Geschäftsprozessen. Web-Services sind<br />

eine Schlüsseltechnologie zur Gewährleistung von Interoperabilität zwischen<br />

unterschiedlichen Systemen. Diese Arbeit präsentiert einen Protokollstack <strong>für</strong><br />

das IoT, der Interoperabilität unterschiedlicher Gebäudeautomationssysteme<br />

gewährleistet und eine eindeutige Identifizierung der Geräte mittels IPv6-<br />

Adressen ermöglicht. Der IoT-Stack basiert auf dem oBIX-Web-Service-Standard<br />

und erreicht Interoperabilität durch generische Typdefinitionen <strong>für</strong> zugrundeliegende<br />

Gerätschaften. Für die Optimierung hinsichtlich Effizienz des Übertragungsprotokolls<br />

wird im IoT-Stack das Constrained Application Protocol<br />

(CoAP) eingesetzt. Bezüglich Optimierung der Payloadgröße stehen unterschiedliche<br />

Kodierungsverfahren zu Verfügung. Im Rahmen der Arbeit wird ein<br />

transparentes Gateway <strong>für</strong> eine RESTful M2M-Kommunikation mit bestehenden<br />

Automationssystemen entwickelt. Evaluierungen untersuchen die Effizienz der<br />

Nutzdatenkodierungsverfahren und beziehen die Client/Gateway-Interaktion<br />

der vom IoT-Stack zur Verfügung stehenden HTTP- und CoAP-Bindings mit ein.<br />

Die Analyse zeigt deutlich, dass eine effiziente und interoperable Kommunikation<br />

durch den IoT-Stack ermöglicht wird.<br />

Boris Wrubel<br />

Planung und Implementierung von angemessenen agilen Testmethoden und<br />

Testautomatisierungsstrategien <strong>für</strong> ein teilprojektreiches<br />

Technologieintegrationsprojekt<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

20<br />

Agiles Testen ist ein in der derzeitigen Theorie und Praxis des Softwaretestens<br />

wenig behandeltes Gebiet, obwohl die agile Softwareentwicklung eine Realität


geworden ist, die nach dazu passenden Testansätzen verlangt. Damit<br />

verändern sich nicht nur die Aufgabengebiete im Test, es kommen auch ganz<br />

neue Schwerpunkte und Verantwortungen zum Tragen. Was dieser Wandel <strong>für</strong><br />

den agilen Test bedeutet, wird in der vorliegenden Arbeit anhand eines<br />

konkreten Fallbeispiels erläutert. Die Analyse zeigt diverse Probleme, die<br />

entstehen können, wenn klassisches Testvorgehen auf agile Softwareentwicklung<br />

trifft und sie macht umso mehr deutlich, dass im Softwaretest ein<br />

Paradigmenwechsel angesagt ist. Gleichzeitig werden Lösungsansätze herausgearbeitet<br />

und in Folge ein beispielhafter agiler Testansatz vorgestellt. Der hier<br />

vorgestellte agile Testansatz beinhaltet einen Testprozess <strong>für</strong> agile Vorgehensmodelle<br />

und zeigt darüber hinaus auf, wie sich Testautomatisierung effizient in<br />

diesen integrieren lässt. Im Zusammenhang damit wird dargestellt, wie sich der<br />

Softwaretest die in der iterativen Entwicklung bereits etablierte Methode der<br />

Continuous Integration zunutze machen kann. Des Weiteren wird gezeigt,<br />

welche Wichtigkeit der Einsatz von passenden Werkzeugen im agilen Test hat<br />

und welche Bedeutung daher der Evaluierung dieser Tools zukommt.<br />

Abschließend wird der Wandel des Rollenbildes des Testers im agilen Umfeld<br />

behandelt, denn agile Testmodelle verlangen auch nach einem neuen<br />

Jobprofil des Testers.<br />

Min Zheng<br />

Simulationstools <strong>für</strong> die Lehrveranstaltung <strong>Technische</strong> Grundlagen der<br />

<strong>Informatik</strong><br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ass.Prof. Dr. Monika Di Angelo<br />

Simulationen werden immer häufiger in der Wissenschaft eingesetzt. Auch in<br />

der Didaktik ist dies der Fall. Darum beschäftigt sich die hier vorliegende Arbeit<br />

mit dem Einsatz von Simulationstools <strong>für</strong> die Lehrveranstaltung <strong>Technische</strong><br />

Grundlagen der <strong>Informatik</strong>. Des Weiteren wird das didaktische Konzept des<br />

Blended Learning <strong>für</strong> diese Arbeit herangezogen, da dieses unterschiedliche<br />

Medien und didaktische Konzepte vereint. Für den näheren Selektionsprozess<br />

werden 40 Tools ausgewählt, die in dieser Arbeit evaluiert werden. Auch wird<br />

zu den jeweiligen Themengebieten dieser Lehrveranstaltung mindestens ein<br />

Tool vorgeschlagen, welches zum Einsatz kommen könnte. Daneben wird zu<br />

jedem Bereich ein Übungsbeispiel mit dem am besten bewerteten Tool<br />

geliefert.<br />

21


Arbeitsbereich Computer Vision<br />

Karin Gisperg<br />

Extraction of Geometric Objects from TLS Pointclouds of Historical Facades<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

Terrestrisches Laser Scanning (TLS) ist ein berührungsloses 3d-<br />

Datenerfassungssystem, welches z.B. in der Geomatik oder dem Denkmal- und<br />

Kulturgüterschutz verwendet wird. Abhängig vom Prinzip der Distanzmessung<br />

können Reichweiten bis zu 4000 m (RIEGL VZ-4000) oder Messraten von<br />

976.000 Punkten/Sekunde (Faro Photon 120) erreicht werden. Ziel dieser<br />

Diplomarbeit ist die Implementierung eines automatisierten und robusten<br />

Prozesses zur Verarbeitung von TLS-Punkwolken historischer Fassaden.<br />

Basierend auf einer RANSAC unterstützen Methode wird die Struktur der<br />

Fassade durch geometrische Grundformen wie Ebenen, Kugeln oder Zylinder<br />

beschrieben. Abhängig von den Aufnahmebedingungen wird mithilfe dieser<br />

Methode eine Segmentierung der Objekte erreicht. Um die Performance<br />

hinsichtlich der großen Datenmenge und die Qualität der Resultate zu steigern,<br />

werden Optimierungen im Bereich der Modellinitialisierung (gestaffelte<br />

Initialisierungsumgebung) und der Lokalisierung von Punkten (kd-tree) umgesetzt.<br />

Um Redundanz zu vermeiden, werden die Symmetrieeigenschaften<br />

der Fassade untersucht. Es wird angenommen, dass klassizistische Fenster und<br />

deren Umrandungen symmetrisch angeordnet sind. Die Konturen der Fenster<br />

werden extrahiert und die Fassade in Regions Of Interest aufgeteilt. Diese<br />

werden anschließend mithilfe des Iterative Closest Point Algorithmus<br />

miteinander verglichen und ein Similaritätsmaß anhand der gemittelten<br />

quadrierten Distanzen ermittelt. Es wird gezeigt, dass dieses Kriterium in<br />

Kombination mit Otsu's Schwellenwertermittlung einen ausreichende Klassifizierung<br />

in symmetrische und nicht-symmetrische ROIs ergibt. Sind zwei<br />

Regionen symmetrisch, so werden sie einem Fenstermodell zugeordnet,<br />

welches durch jede weitere Instanz verfeinert wird. Letztendlich wird die<br />

Fassade durch die unterschiedlichen Fenstermodelle repräsentiert, welche aus<br />

den geometrischen Grundformen, den verbleibenden Punkten und den<br />

Einfügekriterien bestehen.<br />

Manuel Keglevic<br />

Automatic Recognition of Weather Records<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

22<br />

Even before the use of computers, meteorological data was recorded for<br />

statistics by means of handwritten notes. In addition to those handwritten<br />

documents stored in historic archives, processes, as manually filling in<br />

measurement values into forms, still depend on pen and paper. However,<br />

manually digitizing this data for further processing is cumbersome. In this


thesis, a character recognition system for automatically digitizing handwritten<br />

weather records is proposed. The weather record dataset regarded in this<br />

thesis consists of known printed forms with handwritten meteorological<br />

measurements. The scope of this thesis are the numeric temperature values<br />

which are measured at three different points of time. The localization of the<br />

numerical data is achieved by first reconstructing the tabular structure of the<br />

form. Using vertical and horizontal projection profiles, the rough positions of<br />

the lines building up the table are found. Errors in the layout analysis are<br />

corrected using a-propri information of the form. Additionally, to reduce the<br />

influence of spurious lines, a stroke preserving line removal method is<br />

proposed. The extraction of the digits and signs is done using a binarization<br />

based on the Savakis filter. Using a trained PCA basis as a filterbank the<br />

features of the digits and signs are extracted and subsequently classified with<br />

multiple SVM with RBF kernels. Moreover, to allow an identification of<br />

uncertain prediction results, the class probabilities are estimated. The<br />

evaluation was conducted using three different digit databases with manually<br />

annotated ground truth, synthetically generated digit images with spurious<br />

lines and weather records from five different measurement stations. On a<br />

dataset with weather records from five different measurement stations an<br />

accuracy of 93% per digit is achieved. Furthermore, on a dataset containing<br />

only weather records from a single writer the performance is improved to over<br />

99%.<br />

Karin Kernegger<br />

Improving Error Detection Rate Using Retesting in Automated Security Testing<br />

Tools<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Privatdoz. Dr. Martin Kampel<br />

Qualitätssicherung ist ein wichtiger Teil des Softwareentwicklungsprozesses.<br />

Diese kann unter anderem mit Hilfe von Sicherheitstests hergestellt werden.<br />

Das Ziel dabei ist es, so viele Sicherheitslücken wie möglich zu finden, weil<br />

versteckte Schwachstellen von einem Angreifer entdeckt und ausgenützt<br />

werden könnten. Heutzutage existieren verschiedene Ansätze und Werkzeuge,<br />

um automatisierte Sicherheitstests durchzuführen, allerdings können diese<br />

Angriffe, wie zum Beispiel SQL Injections oder XSS Attacken, nicht aufdecken.<br />

Das Ziel dieser Arbeit ist es, ein automatisiertes Sicherheitstestwerkzeug mit<br />

Hilfe von Retesting zu verbessern, sodass auch diese versteckten Sicherheitslücken<br />

gefunden werden können. Zunächst wird eine umfassende Literaturrecherche<br />

durchgeführt, in der automatisierte Sicherheitstestwerkzeuge vergleichend<br />

dargestellt wurden. Weitere Literaturrecherchen werden durch-geführt<br />

zu dem Thema des Retestings selbst sowie zu verschiedenen Konzepten, die<br />

notwendig sind, um Retesting im Rahmen eines automatisierten Sicherheitstestwerkzeuges<br />

umzusetzen. Ein Beispiel hier<strong>für</strong> wäre automatisiertes Lernen.<br />

Basierend auf diesen Recherchen wird in dieser Arbeit ein selbst erarbeitetes<br />

Retesting Konzept vorgestellt: Zunächst erfasst das automatische Sicherheitstestwerkzeug<br />

im Rahmen einer Lernphase, wie das normale Verhalten des<br />

23


getesteten Systems wie zum Beispiel die normale Antwortzeit oder die normale<br />

CPU Auslastung ist. In der darauffolgenden Testphase werden bösartige Eingabewerte<br />

zu dem System gesendet. Wenn dabei ein abnormales Verhalten<br />

beobachtet wird, wird ein Retest durchgeführt. Das ist notwendig, um das<br />

Ergebnis des ersten Tests zu bestätigen. Dieses Konzept wird in ein schon<br />

bestehendes Sicherheitstestwerkzeug eingebaut. Die Ergebnisse im Rahmen<br />

eines Machbarkeitsnachweises zeigen, dass Retesting nicht nur hilft,<br />

Sicherheitslücken aufzuzeigen, sondern es kann auch die Anzahl der gemeldeten<br />

false positives reduzieren.<br />

Joachim Ofner<br />

Computational Analysis of Textures Related to Idiopathic Interstitial Pneumonia<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

The thesis compares texture features for fully automated quantification of<br />

Diffuse Parenchymal Lung Disease (DPLD) related pathological tissue in High<br />

Resolution Computed Tomography (HRCT) images. Features are implemented<br />

as classical local texture features and with the Bag of Features approach.<br />

Feature selection is tested as well. Furthermore, the stability of automatically<br />

generated class labels compared to ground truth labels is analyzed. The<br />

approach was evaluated on 97 HRCT images of pathological lung tissue. Slice<br />

thickness was 1mm and inter-slice distance 10mm. A ground truth containing<br />

healthy and four pathologic patterns (emphysema, ground glass, fibrosis,<br />

micromodules) with delineated regions created by three radiologists was<br />

available. We generated texture features (Gray Level Histograms, Local Binary<br />

Patterns, Haralick features, a Gaussian Filterbank and Riesz features) and<br />

evaluated the classification performance of the two texture formulations on<br />

volume level with a 10-fold cross validation. Random Forests were used as<br />

classifier, providing additional information of feature importance to be used for<br />

feature selection. Haralick features performed best as local texture features<br />

with 69.59% classification accuracy. With 76.17% Local Binary Patterns reach<br />

the highest performance in the Bag of Features formulation in manually<br />

generated regions of the ground truth. Feature selection does not improve<br />

classification results significantly. Ground truth class labels reach a stability of<br />

71%. This stability is slightly outperformed by automatically generated labels.<br />

The results suggest the use of Local Binary Patterns, as computationally<br />

efficient local texture features in combination with the Bag of Features<br />

approach. This feature formulation provides high flexibility together with<br />

efficiency. Lung texture classification applications have to get more<br />

independent of manually created ground truth.<br />

24


Michael Opitz<br />

Text Detection and Recognition in Natural Scene Images<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

Text detection and recognition in natural scene images has applications in<br />

computer vision systems such as license plate detection, automatic street sign<br />

translation, image retrieval and help for visually impaired people. Scene text,<br />

however, may have complex background, image blur, partially occluded text,<br />

variations in font-styles, image noise and varying illumination. Hence scene<br />

text recognition is a challenging computer vision problem. This work addresses<br />

the problem of dictionary driven end-to-end scene text recognition, which is<br />

divided into a text detection problem and a text recognition problem. For text<br />

detection an AdaBoost sliding window classifier is used to detect text in<br />

multiple scales. The effectiveness of several feature-sets for this classifier are<br />

compared and evaluated. A modified Local Ternary Pattern (LTP) feature-set is<br />

found as most effective for text detection. In a post-processing stage Maximally<br />

Stable Extremal Regions (MSER) are detected and labeled as text or non-text.<br />

Text regions are grouped to textlines. Textlines are split into words by a wordsplitting<br />

method build upon k-means and linear Support Vector Machines<br />

(SVM). For text recognition a deep Convolutional Neural Network (CNN) trained<br />

with backpropagation is used as one-dimensional sliding window classifier. To<br />

avoid overfitting the network is regularized by Dropout. Recognition responses<br />

are used in a Viterbi-style algorithm to find the most plausible word in a<br />

dictionary. The influence of training set size and size of convolutional layers is<br />

evaluated. The system presented outperforms state of the art methods on the<br />

ICDAR 2003 and 2011 dataset in the text-detection (F-score: 74.2% / 76.7%),<br />

dictionary-driven cropped-word recognition (F-score: 87.1% / 87.1%) and<br />

dictionary-driven end-to-end recognition (F-score: 72.6% / 72.3%) tasks.<br />

Thomas Pönitz<br />

Efficient Retrieval of Near-Duplicate Images<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Privatdoz. Dr. Martin Kampel<br />

Aufgrund der kontinuierlich steigenden Menge an digitalen Bildern und dem<br />

ständigen Wachstum an verfügbarer Speicherkapazität, sind umfangreiche<br />

Bilddatenbanken weit verbreitet. Eine spezielle Herausforderung ist eine Bilddatenbank<br />

auf nahezu identische Bilder zu durchsuchen. Ein da<strong>für</strong> konzipiertes<br />

System akzeptiert Bilder als Suchanfragen und liefert gegebenenfalls entsprechende<br />

Originale zurück. Die Schwierigkeit dabei ist eine Bildrepräsentation<br />

zu finden die robust in Bezug auf diese Transformationen ist. Gleichzeitig<br />

soll die Ähnlichkeit zweier Repräsentationen effizient zu berechnen sein<br />

oder die Repräsentationen sollten indizierbar sein. Im ersten Fall kann die<br />

Datenbank linear durchsucht werden, während im zweiten Fall eine effiziente<br />

Suchstruktur aufgebaut werden kann. Die Bags of Visual Words Methode hat<br />

25


sich als geeignet herausgestellt. Dabei wird ein Bild durch die Häufigkeiten<br />

seiner enthaltenen visuellen Worte beschrieben. Diese visuellen Worte werden<br />

von lokalen Bildmerkmalen abgeleitet. Methoden auf dem aktuellen Stand der<br />

Wissenschaft verwenden SIFT Merkmale, welche den Nachteil einer aufwendigen<br />

Berechnung haben. Um dem entgegenzuwirken werden in dieser<br />

Arbeit SIFT Merkmale durch binäre Merkmale ersetzt. Binäre Merkmale bestehen<br />

aus einer einfachen Liste an Bits und ermöglichen bestimmte Schritte der Bags<br />

of Visual Words Methode effizienter durchzuführen. Das Erzeugen der visuellen<br />

Worte ist einer dieser Schritte und äußerst zeitaufwändig. Ein alternativer<br />

Clustering-Algorithmus, kShifts, wird untersucht, um diesen Schritt effizienter<br />

durchzuführen. Weiters wird der kMeans Algorithmus <strong>für</strong> binäre Merkmale<br />

angepasst und mit kShifts verglichen. Für die Evaluierung des vorgestellten<br />

Systems werden frei verfügbare Bilddatenbanken verwendet. Ein Vergleich mit<br />

aktuellen Methoden wird gezogen. Zusätzlich wird eine Bilddatenbank mit circa<br />

1,000,000 Pressebildern als praxisorientierter Anwendungsfall untersucht.<br />

Christopher Pramerdorfer<br />

Depth Data Analysis for Fall Detection<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Privatdoz. Dr. Martin Kampel<br />

Falls are a leading cause for accidental deaths among persons aged 65 or<br />

older. Fall victims require immediate assistance in order to minimize morbidity<br />

and mortality rates. However, statistically every other fall victim is unable to get<br />

back up without help. The aim of fall detection is to ensure fast assistance by<br />

automatically informing caretakers in case of falls. Different methods have<br />

been proposed for this purpose, but there are still unresolved issues that limit<br />

the applicability of fall detection systems in practice. This thesis introduces a<br />

new fall detection system using current depth-sensing technology, with the<br />

aim of addressing these limitations. This sensor technology has several<br />

advantages over alternatives; it is unobtrusive, preserves the privacy of subjects,<br />

and works independently of lighting conditions, allowing for continuous<br />

monitoring. The generated data enables powerful scene analysis and,<br />

consequently, reliable fall detection. The applicability of this technology is<br />

verified by means of a quantitative analysis, in order to assess its limitations<br />

and data quality. In contrast to existing methods, the proposed system<br />

emphasizes person detection and tracking, which allows for robust temporal<br />

analysis and thus improves fall detection performance. To this end, this work<br />

also proposes a new motion detection algorithm optimized for depth data and<br />

fall detection. Furthermore, this work contributes to the research field of<br />

tracking by introducing effective means for tracking multiple persons. The<br />

proposed system is easy to set up, plug and play, and can run on inexpensive<br />

low-end hardware, promoting broad acceptance. This work shows that reliable<br />

fall detection in depth data is possible, as verified on a comprehensive fall<br />

database. At the time of writing, the system is tested under practical conditions<br />

in four countries, with promising first results.<br />

26


Institut <strong>für</strong> Informationssysteme<br />

Arbeitsbereich Distributed Systems<br />

Denitsa Djamiykova<br />

Monitoring the Correspondence of Physical and Virtual Network Resources in<br />

OpenFlow Based Software Defined Networks<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Mit der steigenden Popularität des Cloud Computings, nimmt auch die<br />

Notwendigkeit von leichten Bereitstellen, Migration und Voraussagen der<br />

Qualität des Netzwerks zu. Software Defined Networks (SDNs) versprechen<br />

bessere Skalierbarkeit, Flexibilität und Effizienz des Cloud-Netzwerks durch<br />

Abstraktion der Regelung von der Weiterleitungsschicht. Heutzutage ist eines<br />

der schwierigsten Probleme der Cloud-Netzwerksvirtualisierung, das auf eine<br />

SDN gebaut ist, die schlechte Verwaltung und Überwachung der Korrespondenz<br />

zwischen den hysischen und den logischen Ressourcen. Diese Arbeit<br />

präsentiert eine Erweiterung zu einem bestehenden SDN Controller, der die<br />

physikalischen Netzwerk-Ressourcen überwachen und die entsprechenden<br />

virtuellen Netzwerk Ressourcen zuweisen soll. Das Low-Level-Monitoring in<br />

jedem Cloud Setup ermöglicht eine optimale Ausnutzung der physischen<br />

Ressourcen und eine bessere und schnellere Bereitstellung des logischen<br />

Netzwerkes sowie der Tenant VMs. Das vorgeschlagene SDN Controller Plug-in<br />

ermöglicht Low-Level-Monitoring, das zentralisiert <strong>für</strong> das Netzwerk ist. Das<br />

Plug-in bietet Informationen <strong>für</strong> Änderungen und Störungen in der physischen<br />

Netzwerk Bereitstellung, gibt Feedback <strong>für</strong> alle durchsetzten Management-<br />

Strategien und hilft <strong>für</strong> eine effektive Durchsetzung der Netzwerk-QoS und<br />

schließlich <strong>für</strong> eine Vorhersage von SLA Verletzung. Weiterhin ist eine Analyse<br />

der Verbindung zwischen den physischen und den virtuellen Netzwerk<br />

Ressourcen bereitgestellt, die sich auf eine kontinuierliche Überwachung des<br />

verschiedenen Netzwerk Topologien Verhaltens berührt. Die Auswertung der<br />

unterschiedlichen Netzwerke zeigt, dass es keine universelle Lösung <strong>für</strong> die<br />

verschiedenen Arten von Netzwerk Anforderungen passen würde.<br />

Constantin-Claudiu Gavrilete<br />

Exploiting User Behavior and Markup Structures to Improve Search Result<br />

Rankings<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Popular web search engines, such as Google, rely on traditional search result<br />

ranking methods such as the vector space model probabilistic models in combination<br />

with the famous PageRank algorithm. In the last couple of years per-<br />

27


sonal document relevance got considered when ranking search results, as it<br />

improves the result quality significantly. This thesis extends related work in the<br />

area of result personalization, by providing the concept and implementation of<br />

a keyword based personal search engine. Compared to other work, the<br />

personal relevance is measured by the user's activity with keywords of one<br />

document, such as clicking or hovering. A ranking algorithm is introduced,<br />

which considers keyword and document frequencies in the vector space<br />

model, combined with the interaction of those keywords to compute the<br />

document score. The concepts are implemented as an HTML5 browser extension<br />

for Google Chrome, which actively measures the user's interaction with<br />

the visited content, without interfering with the normal surfing behavior.<br />

Querying for visited content retrieves stored documents and orders them<br />

according to their personal relevance. An evaluation is conducted to test<br />

whether the behavioral ranking factors are significant enough for personal<br />

relevance. It is shown, that the interaction of the user with the document's<br />

content correlates with its relevance. Furthermore, a benchmark of WebSQL<br />

and IndexedDB as HTML5 data storage structures for insert, update and search<br />

operations reveals that the latter technology outperforms the former in almost<br />

every configuration.<br />

Thomas Hava<br />

Optimizing Server Applications for Renewable Energy powered Data Centers<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

A constantly increasing growth of the amount of Internet users worldwide, as<br />

well as new types of web services like social networks or video services, are<br />

demanding more and more server capacities within data centers. In fact<br />

between the year 2000 and 2005 the power consumption of data centers has<br />

doubled. In the year 2010 data centers were estimated to consume 1,3% of the<br />

world wide electricity production. Since the increase of data center costs the<br />

concept of green IT developed in the field of data centers. Basic ideas of green<br />

IT are to reduce the ecological footprint and to improve the energy<br />

effectiveness. This goals can be reached by using renewable energy sources<br />

like wind power, photovoltaics or hydro power. These power sources share the<br />

issue, that the amount of energy, which they are producing depends on the<br />

current state of their environment. The key issue of this diploma thesis is to<br />

identify common data center server applications and to analyze if their power<br />

profiles can be aligned to the power production profiles of renewable energy<br />

based power sources.<br />

28


Christoph Hohenwarter<br />

Simulation des zeitlichen Störungsverhaltens vollvermaschter Netzwerke am<br />

Beispiel kritischer Infrastrukturen<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Privatdoz. Dr. Karl Michael Göschka<br />

The assignment of this diploma thesis was the observation of the characteristics<br />

of infrastructure due a disruption by using a computer model. This<br />

leaded to the designing of a simulation model, the calculation and presentation<br />

of simulation results regarding a graph representing an infrastructure<br />

network. Therefore the time-dependent behavior after the occurrence of a<br />

disruption is observed. The examined infrastructure network can be an electric<br />

supply network, a water supply network or any other kind of infrastructure<br />

network. This diploma thesis observes the simulated behavior of the infrastructure<br />

of an Austrian military base after a theoretical incident. The used data<br />

in this thesis was delivered by the Austrian Armed Forces. The relationships<br />

between the infrastructure elements are modeled using one-dimensional input<br />

and output values as there is not made any distinction between the different<br />

performance aspects of each infrastructure element. For the model development<br />

a directed graph is used. The links are defined by functions. Also the<br />

used data for this thesis are analyzed and the way of collecting this data is<br />

discussed in a critical manner. The major results of this scientific work are the<br />

performance charts of the simulated infrastructure of the observed military<br />

base during a dysfunction at which assumptions are made of a general nature<br />

and those results are interpreted.<br />

Eduard Rudolf Margulies<br />

Location Detection in Smart Home Environments with the Oracle Sun SPOT<br />

Technology<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

The term smart-home has become very popular over the last years, gaining a<br />

great deal of importance in technological fields of research, especially in the<br />

field of Ambient Assisted Living (AAL). AAL represents an important branch of<br />

the Human Computer Interaction (HCI). For disabled persons the smart-home<br />

can offer increased support and an overall better experience in everyday life.<br />

Further, non-disabled persons could also benefit from the smart-home<br />

experience with many supportive functions for day to day living. Location plays<br />

an integral role in smart-home environments, thus many functions and actions<br />

depend on the users current location in the home. For outdoor environments<br />

robust solutions like the American GPS for navigation systems, aGPS, or the<br />

European Galileo already exist. For indoor-environments such as smart-homes,<br />

only a few useable technologies are available. With this master thesis, we are<br />

interested in research on an easy-to-setup and fairly inexpensive approach for<br />

location determination systems. For that reason we use an embedded device<br />

29


from ORACLE: the Sun SPOT. This device offers a variety of mechanisms which<br />

can be used for the location determination as, for example, the accelerometer<br />

as well as offering the ability for wireless communication. First, we will show<br />

that our experiments with the accelerometer device yields imprecise localization<br />

results related to erroneous measurement-readings from the devices<br />

accelerometer-chip itself, thus not usable in indoor environments. The second<br />

part of this thesis covers the location inference based on the wireless network<br />

communication of the Sun SPOT, which in turn is based on key performance<br />

indicators and the Weighted Centroid Localization (WCL) algorithm. We will<br />

show that this inexpensive and effective approach is suitable for roughly<br />

determining location, because of its imprecise measurement values and<br />

dealings with common issues in a wireless network, like interferences and<br />

reflections.<br />

Rene Nowak<br />

Towards Providing Unified Access To Cloud Data Storage Services<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

With an increasing number of devices using applications, the amount of data<br />

that has to be managed has grown rapidly. This means, that scalability of databases<br />

gets more and more important. So in the last years so called not only<br />

SQL (NoSQL) databases have become popular because they can be distributed<br />

more easy than traditional relational databases. The problem is, that different<br />

data stores use different ways to manage their data and provide specific<br />

interfaces to persist and load this data sets. This makes it hard for application<br />

developers to use this new technologies in their applications. So using<br />

different types of persistence, as described in the polyglot persistence model,<br />

means that a lot of code has to be written for covering the different APIs. The<br />

following thesis describes and presents a solution to access different types of<br />

data storage through one interface. Therefore, the differences between the<br />

management and storage of data are described and discussed. Based on this<br />

discussion, a common interface will be designed. Because the API cannot cover<br />

all different functionalities, developers will also get the possibility to access<br />

specific libraries, to use special functions for a data store. This means, that data<br />

can be stored where it fits best, without losing any functionality or flexibility. In<br />

some cases, it is useful to move data from one data store to another. This<br />

often requires a lot of migration code to read and write data. In this thesis, we<br />

will also present a solution for this problem and a prototype implementation of<br />

this feature will be discussed.<br />

30


Bernhard Schreder<br />

Legacy Datasource Interoperability for the Semantic Web<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

This master thesis discusses the problem of integrating legacy data sources<br />

with other connected applications and data sources, one of the key issues of<br />

processes such as Enterprise Application Integration. This work examines one<br />

possible solution to this problem by leveraging semantic technologies, specifically,<br />

by mapping between ontologies which describe the legacy data sources.<br />

This solution necessitates the mediation and alignment between a data<br />

source's or application's data format and the format prescribed by the central,<br />

shared ontology. Utilizing ontologies is assumed to provide a flexible and lightweight<br />

solution to the data integration problem. In this thesis several semantic<br />

mediation approaches are surveyed, including the requisite preprocessing<br />

steps such as schema lifting and normalization. Using the Mapping Framework<br />

of the University of Karlsruhe as the underlying architecture, a comprehensive<br />

mediation tool has been developed, which supports the creation and execution<br />

of mappings between different ontologies. Several new methods of<br />

importing legacy data sources, such as relational databases and XML data, are<br />

developed and introduced as new services for the mediation tool. Finally, a<br />

number of case studies and application scenarios for these mediation services<br />

are detailed and their applicability and flexibility are evaluated.<br />

Martin Sölkner<br />

Energieeffizienter Elastizitätsmanager <strong>für</strong> Clouds<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Elastizitätsmanagement ist eines der Kernkonzepte, die Clouds von<br />

herkömmlichen Datenzentren unterscheiden und erlaubt es Clouds autonom<br />

auf die Anforderungen ihrer Kunden zu reagieren. Kunden können Ressourcen<br />

der Cloud nach Bedarf anfordern, verwenden und freigeben, wodurch der<br />

Eindruck unbegrenzter Rechenleistung entsteht. Daher kann sich die Anzahl<br />

der tatsächlich durch Kunden genutzten Ressourcen ohne langfristige Planung<br />

jederzeit ändern. Um Clouds die Möglichkeit zu bieten, rechtzeitig auf spontane<br />

Verändern zu reagieren, untersuchten wir selbstlernende Methoden die<br />

das bisherige Verhalten einer Kundenapplikation analysieren und zukünftige<br />

Anfragen an die Cloudressourcen vorhersiehen. Wird ein Anstieg der Kundenaktivität<br />

berechnet, werden rechtzeitig alle benötigten Virtuellen Maschinen<br />

(VM) gestartet. Dadurch werden Verzögerungen, die sich ergeben würden,<br />

wenn die benötigten VM erst bei Bedarf gestartet werden, verhindert.<br />

Gleichzeitig werden VM in Zeiten niedriger Kundenaktivität abgeschaltet, um<br />

Energie zu sparen. Für den Kunden wirkt es, als wenn alle jemals benötigten<br />

VM jederzeit verfügbar wären, während gleichzeitig Energiekosten <strong>für</strong> den<br />

Cloudprovider reduziert werden. Die untersuchten Methoden wurden im<br />

31


Energieeffizienten Elastizitätsmanager (E3M) implementiert, in Simulationen<br />

getestet und ihre Leistung sowohl in Hinsicht auf Energieverbrauch als auch<br />

Kundenzufriedenheit bewertet. Der E3M wurde dabei mit verschiedenen<br />

Elastizitätsmethoden, die keine selbstlernenden Methoden einsetzten, zu<br />

unterschiedlichen Testbedingungen verglichen. Die Testfälle konzentrierten<br />

sich dabei auf die Unterschiede bei langfristiger Planung als auch kurzfristigen<br />

Schwankungen und zeigten erhebliche Reduktion der benötigten Energie bei<br />

gleicher Leistung <strong>für</strong> die Kunden.<br />

Arbeitsbereich Database and Artificial Intelligence<br />

Maximilian Robert Aster<br />

Repackaging Web Pages using Advanced User Behaviour Analysis<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />

Current trends in the market of Web-enabled devices are moving the focus<br />

from desktop web pages to pages optimised for a set of other devices like<br />

smartphones or tablets. Advanced User Behaviour Analysis tries to improve the<br />

effectiveness and usability of web pages in general and for specific user<br />

groups, using information that is gained from tracking users utilizing those<br />

mobile devices. The term points out the fact that new approaches are<br />

evaluated and used in order to achieve this goal. But the user behaviour data<br />

collected this way can also be used to adapt web pages and automatically<br />

transform pages and even the web applications logic flow into a new kind of<br />

representation, specifically for a certain target group. Therefore a general<br />

process is defined to describe the various phases that have to be gone through<br />

to transform or repackage a website. It serves as the basis for the solutions,<br />

which were built as part of this thesis, and incorporates state of the art<br />

concepts and methods from various fields of Web Science. The implemented<br />

artefacts demonstrate how an appropriate architecture looks like and what<br />

additional possibilities open up. In the end the collected data about user<br />

behaviour is employed to optimise the transformation of the web pages by<br />

selecting only content which showed to be important to other users.<br />

Christoph Erkinger<br />

Rotating Workforce Scheduling as Satisfiability Modulo Theories<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Privatdoz. Dr. Nysret Musliu<br />

32<br />

Das Erstellen von geeigneten Schichtplänen ist <strong>für</strong> viele Unternehmen von<br />

entscheidender Bedeutung, um zum einen eine Produktivitätssteigerung und<br />

zum anderen eine optimale Auslastung des vorhandenen Personals zu gewährleisten.<br />

Hierbei müssen neben den Anforderungen des Unternehmens auch<br />

gesetzliche Bestimmungen und indivduelle Interessen der Arbeitnehmer


erücksichtigt werden. Dies stellt eine Herausforderung dar, welche selbst mit<br />

der Unterstützung aktueller Computersysteme im Allgemeinen nicht effizient<br />

gelöst werden kann. In den letzten 40 Jahren wurden zahlreiche computergestützte<br />

Methoden zur Lösung von Schichtplanproblemen entwickelt. Dabei<br />

wurden neben exakten Verfahren wie dem Constraint Programming auch<br />

heuristische Methoden eingesetzt. Exakte Methoden lösen zwar eine große Anzahl<br />

an Schichtplanproblemen, können jedoch Pläne <strong>für</strong> viele Mitarbeiter nicht<br />

effizient erstellen. Es ist deshalb von großem Interesse neue exakte Methoden<br />

zu entwickeln, welche diese Limitierung nicht aufweisen. In dieser Arbeit wird<br />

ein neues exaktes Verfahren <strong>für</strong> Rotating Workforce Scheduling (RWS) vorgestellt.<br />

Da<strong>für</strong> wird RWS als Satisfiability Modulo Theories (SMT) Problem<br />

modelliert. Während das Lösen von SMT Problemen mit SMT-Solvern automatisiert<br />

werden kann, stellt das Finden einer effizienten Formulierung in SMT<br />

die größte Herausforderung dar. Im Rahmen dieser Diplomarbeit wurden zwei<br />

Modellierungen <strong>für</strong> RWS entwickelt, einmal basierend auf linearer Arithmetik<br />

und einmal unter der Verwendung von Bitvektoren mit binären Operationen.<br />

Beide Ansätze wurden mit 20 Probleminstanzen aus der Literatur experimentell<br />

evaluiert, wo<strong>für</strong> verschiedene SMT-Solver eingesetzt wurden. Die Bitvektor<br />

Formulierung erzielte im Vergleich zu jener mit linearer Arithmetik bessere<br />

Ergebnisse und zeigte außerdem im Vergleich mit anderen Methoden aus der<br />

Literatur, dass SMT-Solving ein kompetitives Verfahren ist, welches Probleminstanzen<br />

löst, die andere exakte Verfahren bisher nicht lösen konnten.<br />

Wolfgang Fischl<br />

Normal Forms for Non-Relational Data<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />

Die Menge an von Informationssystemen gespeicherten Daten wächst stetig.<br />

Für diesen Zweck werden vorwiegend Datenbanksysteme eingesetzt. Jedoch<br />

gewinnen alternative Datenformate, wie XML Dokumente und Graph-basierte<br />

Datenbanken, immer mehr an Einfluss. In all diesen Datenformaten ist es<br />

wichtig, mit Hilfe des Datenbankdesigns Redundanzen zu vermeiden. Aus<br />

diesem Grund wurden Normalformen entwickelt. Für das relationale Datenmodell<br />

wird Boyce-Codd Normalform (BCNF) verwendet. Arenas und Libkin entwickelten<br />

2004 XML Normalform <strong>für</strong> XML Dokumente. Normalformen <strong>für</strong> Graphbasierte<br />

Datenbanken wurden bisher nicht untersucht. Unser Ziel ist es diese<br />

Lücke zu schließen. Wir wollen eine Normalform definieren, welche die Eigenschaften<br />

von BCNF auf Graph-basierte Datenbanken überträgt. Zuerst werden<br />

wir Boyce-Codd und XML Normalform betrachten. Ideen aus diesen Normalformen<br />

verwenden wir dazu, um eine Normalform <strong>für</strong> Graph-basierte Datenbanken<br />

zu entwickeln. Beschreibungslogiken (DLs) sind als formales Modell <strong>für</strong><br />

Graph-basierte Datenbanken überaus passend. Da BCNF mittels funktionaler<br />

Abhängigkeiten definiert ist, muss es uns möglich sein solche auch über DL<br />

Wissensbasen (DL KBs) auszudrücken. Ein naheliegender Kandidat sind die von<br />

Calvanese et al. 2008 eingeführten path-based identification constraints<br />

(pIdCs) verwenden. Allerdings zeigen wir, dass pIdCs nicht ausdrucksstark<br />

33


genug sind, um funktionale Abhängigkeiten in DLs zu modellieren. Deshalb erweitern<br />

wir pIdCs zu tree-based identification constraints. Mittels diesen<br />

untersuchen wir Redundanzen in DL KBs. Der Hauptbeitrag dieser Arbeit ist<br />

eine Definition der Beschreibungslogik Normalform (DLNF), welche eine sinnesgetreue<br />

Erweiterung der BCNF zu DLs ist. Zusätzlich stellen wir eine direkte Abbildung<br />

von relationalen Schemata auf DL KBs vor. Wir zeigen, dass jedes relationale<br />

Schema genau dann in BCNF ist, wenn auch die direkte Abbildung<br />

dieses Schemas auf eine DL KB in DLNF ist und umgekehrt.<br />

Iraklis Kordomatis<br />

Machine Learning Algorithms for Visual Pattern Detection on Web Pages<br />

Studium: Masterstudium Information & Knowledge Management<br />

BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />

In this thesis the question how to robustly identify web objects across different<br />

sites is tackled. TAMCROW introduces a novel approach exploiting visually<br />

perceivable characteristics of a web object and its surrounding objects. This approach<br />

is entirely independent of textual labels, and hence has the noteworthy<br />

advantage of being language-agnostic. Another main advantage of the visual<br />

detection approach is sample parsimony. Fewer examples are required for the<br />

learning process to learn how to find certain web objects on previously<br />

unknown pages. Moreover, visual cues are crucial for the human perception<br />

and as a consequence also for the usability of a web page. Therefore, web<br />

designers create web pages coherent with the human perception in order to<br />

yield a high usability. Supervised machine learning techniques are applied for<br />

the object identification process. The knowledge is limited to features representing<br />

the visual appearance of the different web objects. An additional<br />

question is whether it is possible to predict the role of a web object by its visual<br />

appearance which is formally a classification problem. Within the scope of this<br />

master thesis, the following machine learning techniques are investigated in<br />

detail: logistic regression, k~nearest-neighbor, classification trees (in particular,<br />

c4.5 of Quinlan) and support vector machines. The evaluation results are<br />

illustrated in chapter \ref{ch:evaluationResults} indicating that the approach<br />

developed within the TAMCROW project is very fruitful. The workflow on web<br />

object identification is evaluated with different scenarios. These scenarios<br />

include searches for train, bus and flight connections as well as for accommodations.<br />

K-page cross-validation is used as evaluation technique. The mean<br />

precision is chosen as performance measure, since it fits best for the used<br />

scenarios. The results are significant for all classification techniques.<br />

34


Thomas Linsbichler<br />

On the Limits of Expressiveness in <strong>Abstract</strong> Argumentation Semantics:<br />

Realizability and Signatures<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Privatdoz. Dr. Stefan Woltran<br />

In recent years the research field of argumentation, in particular the formal<br />

approach of abstract argumentation introduced by Dung, has become a major<br />

topic in the study of AI. A so-called abstract argumentation framework is a<br />

directed graph where nodes represent arguments and arrows represent conflicts<br />

between arguments. The question of which arguments can be accepted<br />

out of an argumentation framework, called extension-sets, is answered by<br />

argumentation semantics. Surprisingly, a systematic comparison of their capability<br />

in terms of multiple extensions has been neglected so far. Understanding<br />

which extensions can, in principle, go together when a framework is evaluated<br />

with respect to a semantics of interest not only clarifies the "strength" of that<br />

semantics but also is a crucial issue in several applications. The aim of the<br />

master's thesis is to study the expressiveness of the naive, stage, stable, preferred,<br />

semi-stable, and complete semantics, by characterizing their signatures.<br />

The signature of a semantics is defined as the set of all possible sets of extensions<br />

one can obtain from the semantics, given an arbitrary argumentation<br />

framework. For each semantics we give necessary conditions for an extensionset<br />

to be in the signature, i.e. properties which are fulfilled by the outcomes of<br />

the semantics for each framework, as well as (corresponding) sufficient conditions<br />

for an extension-set to be in the signature, which make the extensionset<br />

realizable under the semantics. The thesis provides constructions of argumentation<br />

frameworks realizing extension-sets under the various semantics.<br />

The characterizations of the signatures of the semantics give rise to a<br />

systematic comparison of their expressiveness. We show that, with one exception,<br />

all semantics we deal with possess different levels of expressiveness.<br />

Finally the thesis investigates strict realizability, i.e. realizing an extension-set<br />

by a framework by not using additional arguments.<br />

Johannes Maschler<br />

Data Exchange of Relational Data and Beyond<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />

Data exchange has been a very active area of database research over the past<br />

decade. In the first place, data exchange of relational data has been investigated.<br />

More recently, data exchange research has been extended to other data<br />

models such as knowledge bases and XML. The goal of this thesis is to<br />

summarize the state of the art in data exchange. We thus compare the results<br />

for the main problems in data exchange of relational data, knowledge bases,<br />

and XML data.<br />

35


Sebastian Morgenbesser<br />

Web Interaction Archiving and Replay using Advanced User Behaviour Analysis<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />

Aktuelle Verfahren um Nutzerverhalten aufzuzeichnen, mit dem Ziel Webseiten<br />

zu optimieren konzentrieren sich hauptsächlich auf Desktop Benutzer und<br />

beachten dabei die spezielle Gruppe der mobilen Benutzer fast überhaupt<br />

nicht. Wegen der steigenden Zahl an Smartphones im World Wide Web ist es<br />

von großer Wichtigkeit, Webseiten und deren Benutzer zu analysieren und anhand<br />

der Ergebnisse diese auf die Bedürfnisse der Benutzer hin zu optimieren.<br />

Diese Arbeit stellt eine neue Technologie mit dem Namen Mobile Viewport<br />

Tracking vor, die es ermöglicht, diverse Aktionen die von Benutzern von<br />

mobilen Endgeräten getätigt werden, aufzuzeichnen, diese zu analisieren und<br />

in einer grafischen Form wiederzugeben. Die Daten die durch Mobile Viewport<br />

Tracking verfügbar sind, können einerseits verwendet werden um Webseiten<br />

zu optimieren, auf der anderen Seite wird in dieser Arbeit basierend auf diesen<br />

Daten ein komplett neuer Ansatz <strong>für</strong> Web Archiving präsentiert. Dieser Ansatz<br />

verzichtet auf das reine Archivieren von Webseiteninhalt, stattdessen stehen<br />

der Benutzer und seine Interaktionen auf der Webseite im Vordergrund. Das<br />

Design eines Konzeptes und einer Architektur <strong>für</strong> ein solches benutzerorientiertes<br />

Web Archiv ist wesentlicher Bestandteil dieser Arbeit. Außerdem wird<br />

auch ein Konzept <strong>für</strong> mögliche Datenlieferanten vorgestellt da dieser Ansatz<br />

abhängig von externen Institutionen ist, die das Archiv mit aktuellen Daten<br />

versorgen. Ein weiterer Teil dieser Arbeit beschäftigt sich mit der Optimierung<br />

von Webseiten , ebenfalls auf Basis einer benutzerorientierten Analyse und der<br />

Wiedergabe von aufgezeichneten Benutzerinteraktionen im Internet.<br />

David Neukam<br />

Case Studies, Automatic Reporting, Evaluation and Optimization of Usability<br />

using Advanced User Behaviour Analysis<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />

36<br />

Current approaches to track user behaviour in order to improve web pages are<br />

mainly focused on desktop users and do not consider the special group of<br />

mobile users. Because of the increasing domination of smartphones in the<br />

World Wide Web these days, it is very important to analyse and optimize web<br />

pages according to those devices. Advanced User Behaviour Analysis tries to<br />

improve the effectiveness and usability of web pages in general and for specific<br />

user groups, using information that is gained from tracking users utilizing<br />

mobile devices. The term Advanced User Behaviour Analysis points out the fact<br />

that new approaches are evaluated and used in order to achieve this goal. The<br />

main focus is to use mobile devices to track typical user interactions that can be<br />

archived and further interpreted, in order to analyse or adapt web pages. The<br />

key concept of this project is the limited viewport (visible area) of a website on


a mobile device acting as a surrogate for the attention of a user. By tracking<br />

this small area, it can be reconstructed what a user has read. With this approach,<br />

studies are made which show possibilities of usage of such a tool. Also a<br />

prototype of an analysis-portal was created that can be used to analyze the<br />

recorded data. This tool was used to analyze the data from a study done with<br />

students of the course Applied Web Data Extraction and Integration. Metrics<br />

and indicators for web usability are identified that are not available with<br />

traditional 'inter-page-level' approaches like Google Analytics focusing on the<br />

navigation path between web pages. The analysis shows how people behave<br />

differently when accessing a desktop or mobile version of a website with their<br />

smartphone and which differences and similarities can be found when comparing<br />

different websites of one domain to each other. Some key performance<br />

indicators are theoretically discussed and some were implemented and their<br />

results are shown.<br />

Arbeitsbereich Knowledge Based Systems<br />

Shqiponja Ahmetaj<br />

Planning in Graph Databases under Description Logic Constraints<br />

Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />

BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />

In this thesis, we propose a framework for planning in graph databases. To the<br />

best of our knowledge, this is the first attempt to formally define planning in<br />

such setting. We use an expressive action language that is already defined by<br />

an earlier work. This language is expressed through a DL that has the feature to<br />

introduce new values to the data. Graph databases are seen as finite DL<br />

interpretations. We identify some interesting reasoning tasks, relevant for the<br />

setting we consider. The standard one is plan-existence, which corresponds in<br />

trying to find a plan for a given instance of a planning problem. We investigate<br />

two variants of the problem. The difference between them is that in one of<br />

them we do not allow the transactions to introduce fresh constants. We prove<br />

that deciding plan-existence for the variation without fresh constants is PSpacecomplete.<br />

After applying several syntactic restrictions, we are able to determine<br />

NlogSpace and NP-hard cases. We are also able to provide several polynomial<br />

algorithms for some other cases. In addition, to get some insights to<br />

the relationship between our formalism and STRIPS, which is a classical approach<br />

to planning, we investigate whether planning in our setting can be<br />

reduced to STRIPS. We show that such encoding is possible under some<br />

syntactical restrictions. In this way, STRIPS planners can be exploited to solve<br />

our planning problem. Furthermore, we study the variation, where the transactions<br />

are allowed to introduce fresh constants. Intuitively, this makes<br />

planning more involved. We are able to single out some cases in this setting<br />

that can be reduced to planning without fresh constants. In this way we prove<br />

that those cases are in PSpace.<br />

37


Harald Beck<br />

Inconsistency Management for Traffic Regulations<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />

Die Straßenverkehrsordnung (StVO) ist das Bundesgesetz, welches den Verkehr<br />

auf öffentlichen Straßen regelt. Verordnungen verkehrlicher Maßnahmen<br />

werden rechtlich wirksam, indem sie durch entsprechende Verkehrszeichen<br />

kundgemacht werden. Dies kann zu Widersprüchen mit bestehenden Vorschriften<br />

führen, die dann durch Entfernung der entsprechenden Verkehrszeichen<br />

außer Kraft gesetzt werden müssen. Derzeit werden Beamte der Straßen- und<br />

Verkehrsverwaltung in <strong>Wien</strong> und Niederösterreich durch eine Webanwendung<br />

unterstützt, welche die Editierung und Visualisierung von verkehrlichen<br />

Maßnahmen und Verkehrszeichen auf einer digitalen Straßenkarte ermöglicht.<br />

Allerdings fehlt es noch an Werkzeugen, um die Konformität solcher Vorschriften<br />

bezüglich der StVO sicherzustellen. Das Ziel dieser Arbeit ist es, Methoden<br />

zu entwickeln, um dies auf Basis einer erweiterbaren Spezifikation zu ermöglichen.<br />

Dazu entwickeln wir auf Basis einer Domänenanalyse ein formales<br />

Modell, das erlaubt, Beziehungen zwischen Maßnahmen und Verkehrszeichen<br />

und deren Konformität bezüglich einer Spezifikation zu untersuchen, ohne an<br />

bestimmte Verkehrszeichen, Vorschriften, oder Datenmodelle konkreter Umsetzungen<br />

gebunden zu sein. Wir identifizieren praxisrelevante Aufgabenstellungen,<br />

die im Zusammenhang mit der Korrektheit von Verkehrsvorschriften<br />

stehen, und defineren diese als logische Probleme (reasoning tasks). Es wird<br />

gezeigt, wie Verkehrszeichen auf einer digitalen Straßenkarte aufgrund von<br />

Regelsätzen evaluiert werden können. Im Fehlerfall wird erkannt, welche Konflikte<br />

existieren, wo diese auftreten und wodurch sie zustande kommen. Wir<br />

zeigen, wie Korrekturvorschläge erzeugt werden können, die Maßnahmen und<br />

Verkehrszeichen gleichzeitig berücksichtigen. Wir bestimmen die Komplexität<br />

von zugehörigen Entscheidungsproblemen und präsentieren eine prototypische<br />

Implementierung mittels Answer Set Programming, die sich durch<br />

hohe Wartbarkeit auszeichnet.<br />

Paula-Andra Busoniu<br />

On Supporting the Development of Answer-Set Programs using Model-driven<br />

Engineering Techniques<br />

Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />

BetreuerIn: Ao.Univ.Prof. Dr. Hans Tompits<br />

38<br />

In this thesis, we address the issue of the usage of graphical models for the<br />

automation of ASP code generation and for the representation of answer sets.<br />

The proposed graphical modelling environment is a round-trip tool that provides<br />

the user with a graphical editor to represent the problem domain using a<br />

subset of the UML class diagram. From the model, a description of an ASP<br />

language signature (predicates, arities, types, and meaning of the argument<br />

terms) is automatically generated. The signature, together with the constraints


of the domain, is expressed in Lana, a meta-language for annotating answerset<br />

programs. Based on the signature in Lana, the programmer proceeds to<br />

develop ASP encodings. After computing the answer sets of the answer-set<br />

program, the user is able to visualise the problem solutions by means of UML<br />

object diagrams. Violations of constraints in the solutions can be seen either<br />

by checking for certain error-indicating atoms in answer sets or can be<br />

visualised directly in the graphical representation of the solution.<br />

Oleksandr Stashuk<br />

Integrating Constraint Programming into Answer Set Programming<br />

Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />

BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />

Many declarative problems exploit hard computational nature that need to be<br />

evaluated effectively. Examples of such problems are task scheduling,<br />

optimization problems, database transaction management. This thesis presents<br />

a hybrid constraint answer-set programming solver that provides a modeling<br />

language and solving capabilities of Answer-Set Programming (ASP) and<br />

special relations over variables called constraints from area of Constraint<br />

Programming (CP). The proposed framework provides a custom syntax for<br />

supporting constraint and answer-set constructions and in addition it provides<br />

a support for a special type of global constraints. We then show how such<br />

programs can be transformed to HEX programs with external atoms and<br />

evaluated. Several formal properties of such transformation are provided. The<br />

thesis provides several optimizations for the original approach. The first<br />

improvement relies on reducing the size of the transformed program. This is<br />

based on the observation of the redundancy in some of the translated rules.<br />

This translation reduction does not affect answer sets of the programs. Another<br />

optimization is related to the program evaluation. The key idea is to find the<br />

small irreducible inconsistent set of constraints and add it as a nogood to the<br />

program. This way we will introduce user defined learning for the program. We<br />

also show that the learning functions for HEX programs based on these<br />

algorithms are correct. This thesis additionally provides the implementation of<br />

such approach as a plugin for dlvhex system. We show the plugin architecture,<br />

ideas of the implementation and describe required algorithms. We describe<br />

how main components, namely CASP converter, rewriter, external atom<br />

evaluation and learning can be implemented.<br />

Simon Steyskal<br />

Towards an Alternative Approach for Combining Ontology Matchers<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Privatdoz. Dr. Axel Polleres<br />

The existence of a standardized ontology alignment format promoted by the<br />

Ontology Alignment Evaluation Initiative (OAEI) potentially enables different<br />

39


ontology matchers to be combined and used together, exploiting their<br />

respective strengths in a combined matching approach. In the present thesis,<br />

we present a novel architecture for combining off-the-shelf ontology matchers<br />

based on iterative calls and exchanging information in the form of reference<br />

alignments. Unfortunately though, only a few of the matchers contesting in the<br />

past years' OAEI campaigns actually allow the provision of reference alignments<br />

in the standard OAEI alignment format to support such a combined<br />

matching process. We bypass this lacking functionality by introducing an alternative<br />

approach for aligning results of different ontology matchers using<br />

simple URI replacement to “emulate” reference alignments in the aligned ontologies.<br />

While some matchers still consider classes and properties in ontologies<br />

aligned in such fashion as different, we experimentally prove that our iterative<br />

approach benefits from this emulation, achieving the best results in terms of F-<br />

measure on parts of the OAEI benchmark suite, compared to the single results<br />

of the competing matchers as well as their combined results. The new<br />

combined matcher -- Mix'n'Match -- integrates different matchers in a multithreaded<br />

architecture and provides an anytime behaviour in the sense that it<br />

can be stopped anytime with the best combined matchings found so far.<br />

Gerald Weidinger<br />

OMiGA An Open Minded Grounding on-the-fly Answer Set Solver<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />

Answer Set Programming (ASP) is nowadays a well-known and well acknowledged<br />

declarative problem solving paradigm. ASP originates from the area of<br />

artificial intelligence and is often used in knowledge-based reasoning and logic<br />

programming, where its main purpose is solving search and optimization problems.<br />

There are many solvers that solve ASP in a two-step manner, where they<br />

first ground the input program and then in the second step solve the resulting<br />

grounded program. From this approach one problem arises: the exponential<br />

blowup. In order to face this problem some answer set solvers use a grounding<br />

on-the-fly approach where rules are only grounded when needed during<br />

solving. Solvers that use this approach show that they indeed can solve some<br />

instances where standard solvers run out of memory. But on problem instances<br />

where exponential blow up is no issue, these solvers are much slower than<br />

standard solvers, because they have troubles finding applicable rules. Within<br />

this thesis we present the OMiGA solver, which combines the grounding onthe-fly<br />

approach with a Rete network that enables us to efficiently find those<br />

rules and therefore outperform other grounding on-the-fly solvers and even<br />

compare to standard solvers on certain instances.<br />

40


Institut <strong>für</strong> Computersprachen<br />

Arbeitsbereich Programmiersprachen und Übersetzer<br />

Johann Binder<br />

Introducing the XVSM Micro-Room Framework<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />

Nowadays, all popular online social networks in the World Wide Web are based<br />

on a client-server architecture. This leads to severe privacy issues as the<br />

provider of the online social network holds all data and could easily misuse it.<br />

Other contributions already showed how to resolve this problem by decentralizing<br />

the data with a peer-to-peer architecture. Yet these solutions have their<br />

own drawbacks, e.g. many complex technologies, bad extensibility or a lack of<br />

important privacy and security features. A cause for these drawbacks is that no<br />

satisfying high-level peer-to-peer frameworks exist, allowing users to develop<br />

complex peer-to-peer applications in an easy way. Available frameworks are<br />

rather low-level, concentrating on the communication layer. Therefore, all of<br />

the peer-to-peer online social networks analysed have been created more or<br />

less from scratch. To overcome this issue, we introduce the XVSM Micro-Room<br />

Framework which focuses on ensuring those aspects, not covered sufficiently<br />

by the existing peer-to-peer online social networks. This framework allows to<br />

create peer-to-peer applications based on configurable, shared data rooms. We<br />

then use the XVSM Micro-Room Framework for creating a proof of concept<br />

peer-to-peer online social network settled in an e-learning environment. By<br />

comparing our solutions (both the XVSM Micro-Room Framework and the<br />

generated peer-to-peer online social network) with the analysed related work,<br />

we demonstrate the benefits of our solutions regarding functionality, simplicity,<br />

extensibility, privacy and security. Finally, several performance benchmarks<br />

show the practicability of the XVSM Micro-Room Framework even in heavy-load<br />

scenarios.<br />

Andreas Brückl<br />

Relaxed non-blocking Distributed Transactions for the eXtensible Virtual<br />

Shared Memory<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />

In the development of distributed applications, especially communication and<br />

coordination are complex tasks. Therefore developers are using middleware<br />

technologies which are hiding the complexity and providing enterprise features<br />

like transactions out-of-the box. Especially middlewares which are following the<br />

space-based computing (SBC) paradigm are often used for coordination tasks.<br />

41


But although space-based middlewares are simplifying the development of<br />

distributed applications, most of them can not be used for complex<br />

applications because they do not provide an essential enterprise feature: distributed<br />

transactions. Other middlewares which already provide this feature often<br />

rely on old commit algorithms which are having known problems in certain<br />

scenarios. Therefore this work provides a flexible and concurrent distributed<br />

transaction model which is aligned on the space-based computing paradigm.<br />

The new model supports long-lived transactions and provides a high degree of<br />

consistency. As a positive side effect the evaluation shows that in certain<br />

scenarios the new transaction model performs better than a standard local<br />

transaction system.<br />

Gerald Grötz<br />

Implementation of XVSM for the iOS platform<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />

Due to the increasing complexity of software systems there comes the need of<br />

technologies that help developers to simplify the programming process.<br />

Middleware systems in general can offer this functionality. One type of middleware<br />

is based on the Space Based Computing paradigm. It offers a shared<br />

memory data space that can be accessed concurrently by different users. The<br />

eXtensible Virtual Shared Memory (XVSM) architecture uses this approach and<br />

provides an easy extendable solution for developers. Actual implementations<br />

are based on Java (MozartSpaces) and .NET (XCOSpaces). With the rapid<br />

growth of smartphones based on Apples iOS operating system comes the need<br />

of an implementation for that platform. The goal of this thesis is the provision<br />

of an implementation for the iOS platform that is fully compatible to Mozart-<br />

Spaces, the actual reference implementation of XVSM. A research process<br />

concerning possible solutions is followed by a ready to use implementation for<br />

software developers. The output is evaluated by different kind of performance<br />

benchmarks. The compatibility to MozartSpaces is evaluated by integration<br />

tests and presented by an application scenario where the new implementation<br />

works hand in hand with MozartSpaces. The new implementation is based on<br />

the native programming language of Apple, Objective C and works well in<br />

association with MozartSpaces.<br />

Arthur Oberhauser<br />

Entscheidungsfindung im Roboterfußball mittels Neuroevolution<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Jens Knoop<br />

42<br />

Während eines Fußballspiels befinden sich die Spieler einer Mannschaft in<br />

einer Reihe unterschiedlicher Spielsituationen. Jede dieser Spielsituationen<br />

erfordert die Ausführung einer Aktion, die der Spieler autonom bestimmen


muss. Dabei sollte die gewählte Aktion jene sein, welche <strong>für</strong> die gesamte<br />

Mannschaft langfristig den größten Erfolg bringt. Manuelle Lösungen <strong>für</strong> dieses<br />

Problem der Entscheidungsfindung im Roboterfußball sind durch die enorme<br />

Komplexität der Domäne nur mit hohem Aufwand implementierbar, wartbar<br />

und auf unterschiedliche Spielvarianten übertragbar. Diese Arbeit untersucht<br />

die Anwendbarkeit der Neuroevolution zum automatisierten Erlernen performanter<br />

und flexibler Lösungen <strong>für</strong> das Entscheidungsfindungsproblem in zwei<br />

populären Spielformen des Roboterfußballs, dem Ballhalte- und Halbfeldspiel.<br />

Als virtuelle Umgebung dient dabei der Simulator der RoboCup 2D-<br />

Simulationsliga. Mithilfe der Neuroevolutionsmethode "Hypercube-based<br />

NeuroEvolution of Augmenting Topologies (HyperNEAT)" wurden Strategien<br />

zur Aktionsselektion sämtlicher Spieler der Offensiv- und Defensivmannschaft<br />

mit Ausnahme des Torwarts erlernt. Alle erzeugten Lösungen konnten die<br />

Spielstärke vordefinierter, manuell erstellter Benchmark-Lösungen übertreffen.<br />

Außerdem wurden die entwickelten Lösungen durch Ausnutzung der von<br />

HyperNEAT verwendeten indirekten Kodierung "Compositional Pattern<br />

Producing Network" in Spielvarianten mit unterschiedlichen Mannschafts- und<br />

Spielfeldgrößen ohne zusätzliche Evolutionszyklen eingesetzt. Die erlernten<br />

Strategien konnten automatisch übertragen werden, allerdings traten dabei<br />

teilweise Leistungseinbußen auf. Weiters wurden Experimente durchgeführt,<br />

um die Auswirkung der kooperativen Koevolution auf die Performanz einer<br />

Mannschaft zu untersuchen. Die Resultate dieser Experimente zeigten einen<br />

negativen Einfluss auf die resultierende Spielstärke des Teams.<br />

Thomas Schmid<br />

Dynamic Migration of Cloud Services on the Basis of Changeable Parameters<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />

Cloud computing is a popular possibility for service providers to host their<br />

applications. It enables the usage of scalable, elastic infrastructures that are<br />

charged according to their usage, and do not have to be maintained. Due to<br />

the increasing demand for such services, lots of cloud providers are entering<br />

the market. Their offerings are differing strongly and many parameters are used<br />

to describe them. It gets more difficult for users to compare clouds and choose<br />

a proper provider for a specific service. Furthermore, the demand of changing<br />

the provider and migrating existing services results from the growing market.<br />

Two major technical aspects of a migration have to be considered: 1) Cloud<br />

providers are using own platforms or APIs so services have to be adapted to<br />

them. 2) Services cannot be migrated seamlessly without an interruption. This<br />

master thesis proposes the dynamic Platform as a Service (dynPaaS), a new<br />

form of Platform as a Service provider that addresses these issues. The dynPaaS<br />

framework abstracts existing clouds, including their pricing parameters and<br />

their technical issues. It finds the optimal cloud for a service according to its<br />

requirements and provides transparency about the underlying clouds. It<br />

monitors clouds and hosted services and dynamically migrates services<br />

between clouds on the basis of changing parameters. In addition the frame-<br />

43


work optimizes the resource usage of integrated clouds and migrates services<br />

according to it. The result is a price reduction for both, the service providers<br />

and the dynPaaS provider.<br />

Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />

Nadja Lederer<br />

Using Mobile Technology for Monitoring Behavior of Self-Injurious Patients:<br />

Requirements and Concept System Design<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />

In der vorliegenden Arbeit wird der Themenbereich der Selbstverletzungen bei<br />

Borderline-Patienten fokussiert und ein Konzept <strong>für</strong> eine Smartphone App<br />

entworfen, das Therapeuten in ihrer Arbeit mit Borderline-Patienten unterstützt.<br />

Zunächst werden neben umfangreichen Literaturrecherchen Anforderungen<br />

von Psychologen, Psychotherapeuten, Psychiatern und Wissenschaftlern<br />

erfasst und analysiert. Dabei wurden 18 Experten auf dem Gebiet von selbstverletzendem<br />

Verhalten und Borderline Persönlichkeitsstörung aus Österreich,<br />

Deutschland und den USA hinsichtlich konkreter Anforderungen an eine<br />

unterstützende App befragt, die als Android-Prototyp umgesetzt wurde.<br />

Interviews wurden nach dem Konzept der Grounded Theory Methodologie und<br />

dem IKIWISI Vorgehen geplant und analysiert. Der Prototyp orientiert sich an<br />

der Dialektisch Behavioralen Therapie (DBT) mit dem Fokus auf der Vermittlung<br />

und Provokation von Skills und Skills-Training. Die Mehrheit der Interviewpartner<br />

empfand das App-Konzept als sinnvoll und nützlich. Eine zu detaillierte<br />

Dokumentation der Selbstverletzung könnte jedoch dazu führen, dass<br />

dysfunktionales Verhalten von Patienten sogar unterstützt / verstärkt wird.<br />

Neben Datenschutz und Datensicherheit ist auch der Einsatz eines motivationalen<br />

Systems von Bedeutung, um Akzeptanz und Verwendung der App zu<br />

forcieren. Des weiteren werden kontext-sensitive Interventionen auf Basis von<br />

Spannungsleveln, kontinuierliche Spannungsabfragen sowie die individuelle<br />

Anpassung der App gefordert. Für eine sinnhafte Einbindung der App in den<br />

Therapieprozess ist eine interdisziplinäre Zusammenarbeit unabdingbar.<br />

Zukünftige Untersuchungen sollen zeigen, wie sich das konkrete Befinden des<br />

Patienten auf die Motivation, die vorgestellte App zu verwenden, auswirkt und<br />

inwieweit diese App positiv verstärkend eingesetzt werden kann.<br />

44


Marian Lux<br />

Entwurf und Entwicklung eines mehrdimensionalen vorschlagsbasierten<br />

Suchsystems <strong>für</strong> konsumorientierte E-Markets<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />

Suchsysteme spielen eine wesentliche Rolle in der <strong>Informatik</strong>, da die Anzahl<br />

verfügbarer digitaler Inhalte stetig zunimmt. Man denke hier nur an E-Market-<br />

Systeme, wie den Software-Market Google Play oder den Online-Market<br />

Amazon. Daher reichen klassische Ansätze, wie eine schlagwortbasierte Suche,<br />

oft nicht mehr aus, um die richtigen Inhalte zu finden. Viele Benutzer sind auch<br />

wegen fehlender Kenntnisse über die Inhalte im System nicht in der Lage, ihr<br />

Suchbedürfnis auszudrücken. Aufgrund der angeführten Problematik stellt<br />

diese Diplomarbeit ein Modell vor, das <strong>für</strong> vorschlagsbasierte, konsumorientierte<br />

E-Market-Systeme universell und kostengünstig einsetzbar ist. Im<br />

Zuge dessen werden in diesem Kontext relevante Elemente sowie deren<br />

Verbindungen vorgestellt. Ergebnisse der Literaturrecherche zeigten klar auf,<br />

dass sich semantische Technologien am besten <strong>für</strong> intelligente Vorschlagsgenerierungen<br />

von Suchbegriffen als Unterstützung <strong>für</strong> die suchenden<br />

Benutzer eignen. Dabei konnten zwei relevante Grundmodelle identifiziert<br />

werden. Dies ist zum einen das Vektorraum-Modell und zum anderen die Beschreibungslogik,<br />

die zur Erstellung einer Wissensbasis in Form einer Ontologie<br />

Anwendung findet. Für die Ontologie erwies sich das vom World Wide Web<br />

Consortium (W3C) standardisierte Datenformat Web Ontology Language (OWL)<br />

als am besten geeignet. Damit können Suchbegriffe, deren Beziehungen<br />

zueinander sowie Regeln <strong>für</strong> Vorschläge weiterer Suchbegriffe abgebildet<br />

werden. Für die Suchfunktion kommt im Modell der Open Source Suchserver<br />

Solr zum Einsatz, der auch von namhaften Onlinediensten eingesetzt wird.<br />

Einblicke aus dem im Jahr 2003 stammenden DOPE System erwiesen sich als<br />

richtungsweisend <strong>für</strong> den Umgang mit semantischen Technologien sowie zur<br />

Gestaltung des User Interfaces im Modell dieser Arbeit. Abseits der technischen<br />

Lösung wurden auch weitere Themenbereiche - wie rechtliche Aspekte,<br />

Usability-Kriterien oder Methoden <strong>für</strong> bessere Suchergebnisse diskutiert.<br />

George Sabau<br />

Der Prozess des Engineerings der Migration von Web2(Native)App<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />

In der vorliegenden Arbeit wird ein Konzeptmodell <strong>für</strong> den Prozess des<br />

Engineerings der Migration von Web nach Native App vorgestellt. Es berücksichtigt<br />

die wichtigsten Anforderungen des mobilen Kontexts und integriert<br />

diese systematisch und plattformunabhängig. Dieses Konzept soll Entwicklern<br />

als Best-Practice-Leitfaden und Entscheidungsinstrument dienen.<br />

45


Institut <strong>für</strong> Computergraphik und Algorithmen<br />

Arbeitsbereich Algorithmen und Datenstrukturen<br />

Christopher Bacher<br />

Metaheuristic optimization of electro-hybrid powertrains using machine<br />

learning techniques<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />

Der Kraftstoffverbrauch von elektrohybriden Kraftfahrzeugen ist von der<br />

verwendeten Betriebsstrategie abhängig. Für diese können optimalen<br />

Parametereinstellungen meist nicht einfach bestimmt werden können. In dieser<br />

Diplomarbeit werden die Parameter von zwei Hybridfahrzeugmodellen mit Hilfe<br />

von Metaheuristiken optimiert. Das Hauptaugenmerk liegt auf der Reduzierung<br />

der benötigten Simulationsdurchläufe, da diese viel Zeit benötigen. Dazu<br />

werden Suchraumeinschränkungen angewandt wo dies möglich ist. Weiters<br />

wird der Suchraum diskretisiert um den Optimierungsmethoden die Verwendung<br />

eines Lösungs-Caches zu ermöglichen. Zuletzt werden verschiedene, auf<br />

neuronalen Netzwerken und Ensemble-Methoden basierende, Regressionsmodelle<br />

trainiert um die Simulation aus der verwendeten Fitnessfunktion zu<br />

entfernen. Unterschiedliche Metaheuristiken wie Particle Swarm Optimization,<br />

Active Cov. Matrix Adaption Evolution Strategy und genetische Algorithmen<br />

werden zur Verwendung von Regressionsmodelle adaptiert. Dazu wird eine<br />

zwei-phasige Optimierungsstrategie entwickelt. Die erste Phase sammelt<br />

Trainingsdaten <strong>für</strong> Regressionsmodelle. Die zweite Phase verwendet die<br />

Regressionsmodelle zur Approximation von Fitnesswerten. Verschiedene<br />

Möglichkeiten zu deren Integration, wie die abwechselnde Verwendung von<br />

Regression und Simulation, sowie das Filtern mittels Regression, werden<br />

analysiert. Abschließend werden die Ergebnisse der zwei-phasigen Optimierung<br />

mit Referenzlösungen von unmodifizierten Optimerungsalgorithmen verglichen.<br />

Dabei findet die zwei-phasige Optimierung ähnlich gute Lösungen wie<br />

die Referenzmethoden. Die gefundenen Modellparametereinstellungen<br />

korrespondieren mit den Gebieten in denen gute Lösungen erwartet werden.<br />

Die erforderliche Simulationszeit konnte mit der zwei-phasigen Optimierung<br />

um bis zu 27% verringert werden. Die evaluierten Modellparametereinstellung<br />

werden <strong>für</strong> ein Modell mit Hilfe von Self-Organizing Maps analysiert.<br />

46


Markus Putzenlechner<br />

Analyse und Implementierung von Fallzusammenführungen<br />

diagnosebezogener Fallgruppen aus Sicht eines<br />

Krankenhausinformationssystems<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />

Bei Diagnosis Related Groups (DRGs) handelt es sich um ein medizinisches<br />

Klassifikationssystem, um Diagnosen, Prozeduren und weitere patientenbezogene<br />

Daten in Fallgruppen zu gruppieren. Damit können Krankenhausaufenthalte<br />

einfacher und strukturierter abgerechnet und ausgewertet werden.<br />

Eine der Herausforderungen in der IT ist die Bestimmung der richtigen DRG<br />

und somit der zu bezahlenden Fallpauschale. Diagnosen werden gemäß der<br />

internationalen Klassifikation ICD10 codiert Operationen und Untersuchungen<br />

(als Prozeduren bezeichnet) werden nach einer Variante der internationalen<br />

Prozedurenklassifikation ICPM codiert. Weiters beeinflussen Nebendiagnosen,<br />

Komplikationen, Beatmungszeiten, Alter, Geschlecht etc. eine DRG. Eine Fallgruppe<br />

gilt dann als klassifizierbar, wenn der Patient entlassen wurde. Als Fall<br />

bezeichnet man eine Behandlungsepisode von der Aufnahme bis zur<br />

Entlassung. Wenn ein Patient jedoch nach einer Entlassung innerhalb einer<br />

Frist wieder in dasselbe oder ein anderes Krankenhaus aufgenommen wird,<br />

trifft man auf das Problem der Fallzusammenführungen. Hierbei muss man die<br />

Daten zu einem Fall zusammenführen und neu im DRG-System klassifizieren. In<br />

Deutschland und in der Schweiz kommen Fallzusammenführungen im Zusammenhang<br />

mit stationären Akutfällen vor. Jedoch sind die Regeln und die<br />

Bedingungen <strong>für</strong> Fallzusammenführungen in den einzelnen Ländern unterschiedlich.<br />

Aufgrund dieser Rahmenbedingungen ist eine Umsetzung dieses<br />

Regelwerks in einem Krankenhausinformationssystem (KIS) sehr komplex.<br />

Fallzusammenführungen sind abhängig von den einzelnen Fällen oder von<br />

DRGs bereits gekoppelter Fälle. Ab 2013 werden in Deutschland zusätzlich<br />

psychiatrische Fälle klassifiziert und können auch <strong>für</strong> Fallzusammenführungen<br />

in Frage kommen. Im Rahmen dieser Arbeit werden die Regelungen und<br />

Bedingungen <strong>für</strong> Fallzusammenführungen von Deutschland, Schweiz und<br />

Österreich analysiert und eine exemplarische Integration von Fallzusammenführungen<br />

in ein KIS dargestellt.<br />

Thomas Schnabl<br />

Critical Links Detection using CUDA<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />

The Critical Links Detection (CLD) Problem consists of nding for the smallest set<br />

of edges in a graph to be protected so that if a given number of unprotected<br />

edges are removed the diameter does not exceed a given value. The diameter<br />

of a graph is dened as the length of the All-Pair-Shortest-Path (APSP). This<br />

thesis presents an algorithm that takes an instance of a graph and calculates<br />

47


the minimal set of protected edges. For k simultaneously failing edges it checks<br />

all possible tuples of k edges if after temporarily removing them the diameter<br />

of the graph exceeds the limit. Afterwards a Integer Linear Programming (ILP)<br />

model is built up and solved, which is equivalent to choosing the minimal<br />

amount of edges from these sets to get a feasible solution. Since the calculation<br />

of diameters takes most of the process time, the thesis presents an<br />

improvement on the performance of the algorithm. A massive parallel approach<br />

is implemented using CUDA, a framework to run calculations on graphic<br />

cards, also called GPGPU. The chosen algorithm solves one Single Start<br />

Shortest Paths (SSSP) algorithm on one GPU processor, running one thread per<br />

vertex of the graph. The performance of the algorithm shows a speedup of<br />

30% using this approach on small instances and 70% improvement on large<br />

instances with over 1000 edges.<br />

Claus-Dieter Volko<br />

Selective Graph Coloring Problem<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />

Beim Selective Graph Coloring Problem (SGCP) geht es darum, einen Teilgraphen<br />

mit spezieller Struktur zu finden, dessen chromatische Zahl so niedrig<br />

wie möglich ist. Der Ursprungsgraph ist in mehrere Cluster unterteilt, und von<br />

jedem Cluster muss der Teilgraph genau einen Knoten enthalten. Dieses<br />

Problem ist NP-schwer und wird daher meistens mit Heuristiken gelöst. Ich habe<br />

mehrere Varianten eines Algorithmus implementiert, der Variable Neighborhood<br />

Search (VNS) benutzt, um den Lösungsraum zu durchsuchen, und dann<br />

die gefundene Lösung mit heuristischen oder exakten Methoden evaluiert.<br />

Jede Variante kann mit oder ohne ein Lösungsarchiv verwendet werden. Ein<br />

Lösungsarchiv ist eine Datenstruktur, in der bereits gefundene Lösungen<br />

gespeichert werden, so dass Duplikate nicht neu evaluiert werden müssen,<br />

sondern effizient zu neuen Lösungen konvertiert werden können. Um eine<br />

obere Schranke zu errechnen, wurde eine Variante von Greedy Coloring<br />

verwendet. Eine weitere Variante des Algorithmus zählt auch die Anzahl der<br />

Konflikte, die entstünden, würde eine Farbe weniger verwendet werden.<br />

Schließlich wurden zwei Methoden umgesetzt, um eine untere Schranke zu<br />

berechnen: maximale Clique und lineare Programmierung mit Spaltengenerierung.<br />

Das Programm wurde mit verschiedenen Instanzen aus der Literatur<br />

getestet. Mein Algorithmus beendete die Berechnungen oft schon nach sehr<br />

kurzer Laufzeit, führte aber im Allgemeinen zu geringfügig schlechteren<br />

Ergebnissen.<br />

48


Arbeitsbereich Computergraphik<br />

Clemens Arbesser<br />

Large-Scale Noise Simulation and Visualization of Moving Point Sources<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />

Noise pollution is an ever increasing problem not just in urban environments<br />

but also in more rural areas such as small villages, along country roads or even<br />

in very sparsely populated regions. The demands of the industry and local<br />

governments often clash with the interests of people in the neighborhood,<br />

creating areas of conflict that often end up in court. Though in many countries<br />

noise assessments are mandatory in order to obtain building permission, these<br />

documents are usually not suited or sometimes conceivably not even intended<br />

to convey the impact of projects on their environment to the general public.<br />

The purpose of this master's thesis is to propose ways to simulate and visualize<br />

noise pollution in large-scale, non-urban environments in order to help communicate<br />

the impact of new sound emitters on affected neighbors. Knowledge<br />

of noise propagation, the influence of the terrain and other obstacles as well<br />

as how different emitters add up can provide valuable insights and help in the<br />

decision-making process. This knowledge may be particularly helpful when<br />

trying to decide on suitable locations for noise screens and/or when trying to<br />

find good places to offset some of the local noise emitters. The tool developed<br />

uses NVIDIA's CUDA architecture and the European norm "ISO 9613-2:<br />

Attenuation of sound during propagation outdoors" to create real-time visualizations<br />

in both 2D and 3D. Results are compared against ground truth data<br />

obtained by taking noise measurements in the field.<br />

Heinrich Fink<br />

GPU-based Video Processing in the Context of TV Broadcasting<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />

This thesis investigates GPU-based video processing in the context of a<br />

graphics system for live TV broadcasting. Upcoming TV standards like UHD-1<br />

result in much higher data rates than existing formats. To reach these data<br />

rates, the transfer of image data between main and graphics memory need to<br />

be overlapped with CPU-based and GPU-based processing. In this thesis, we<br />

therefore investigate the following questions: Which methods are available to<br />

a software implementation in order to reach this level of parallelism? Which<br />

data rates can actually be reached using these methods? We implement a<br />

prototype of a software for rendering TV graphics. To take advantage of the<br />

GPUs ability to efficiently process image data, we use the OpenGL application<br />

programming interface (API). We implement the transcoding between RGB and<br />

the professional video format V210, which is more complex to process than<br />

conventional consumer-oriented image formats. In our software, we apply the<br />

49


pipeline programming pattern in order to distribute stages of the video<br />

processing algorithm to different threads. As a result, those stages execute<br />

concurrently on different hardware units of the system. Our prototype exposes<br />

the applied degree of concurrency to the user as a collection of different<br />

optimization settings. We integrate a profiling mechanism directly into the<br />

execution of the pipeline, which allows us to automatically create performance<br />

profiles while running our prototype with various test scenarios. The results of<br />

this thesis are based on the analysis of these traces. Our prototype shows that<br />

the methods described in this thesis enable a software program to process<br />

high-resolution video in high quality. When optimizing performance, different<br />

driver implementations and hardware features require our prototype to apply<br />

different optimization settings for each device. The ability of our software<br />

structure to dynamically change the degree of concurrency is therefore an<br />

important feature.<br />

Rene Fürst<br />

Real-Time Water Simulation Using the Finite Element Method<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />

Water simulation in computer graphics has been the focus of many research<br />

papers in the last years. The proposed algorithms can be classified into offline<br />

simulation algorithms and realtime simulation algorithms, which have a big<br />

difference in their capabilities. Offline simulation algorithms can mostly<br />

simulate water with full detail in 3D because the processing time per frame is<br />

not limited very much. Real-time simulation algorithms, on the other hand,<br />

impose a hard limit on the processing time per frame and therefore many<br />

applications only rely on approximating water with 2D surfaces. While this<br />

works well for still water, effects such as breaking waves or simply pouring<br />

water into a tank, cannot be simulated. To accomplish this one has to rely on<br />

3D water simulation algorithms, which require a massive amount of processing<br />

resources, such that even when using current graphics processing units (GPUs)<br />

an optimized algorithm is required. There are two types of 3D water simulation<br />

approaches: particle-based Lagrangian and gridor mesh-based Eulerian<br />

approaches, of which the latter will be the main focus of this thesis. Current<br />

real-time capable Eulerian water simulation algorithms rely on many approximations<br />

which either cause water to leak without reason or decrease the<br />

generality of the algorithm. In this thesis a novel Eulerian fluid simulation<br />

algorithm is proposed, which relies on on a octreebased mesh that automatically<br />

adapts to any given water geometry. By this it is made sure that the<br />

algorithm is very general and that it provides good performance in almost any<br />

given situation. The equations evolved in 3D water simulation are discretized<br />

with the finite element method in a way, such that the resulting linear equation<br />

system can be solved efficiently. Therefore it is possible to let the algorithm<br />

run in real-time on current GPUs.<br />

50


Ivan Maricic<br />

Visual Feature Exploration for ssTEM Image Segmentation<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />

Der Forschungsbereich Computational Neuroanatomy verwendet rechnergestützte<br />

Techniken wie Visualisierung, Modellierung und Analyse, um die<br />

neuronalen Strukturen von Gehirnproben aus Bild-Stapeln (semi-)automatisch<br />

abzuleiten. Für die Gewinnung der Bilder, in der relevante Strukturen hoch<br />

genug aufgelöst sind, verwendet man die sogenannte Transmissionselektronenmikroskopie<br />

(TEM), die eine Pixelauflösung von unter 5 nm ermöglicht. Die<br />

manuelle Segmentierung dieser hochaufgelösten aber kontrastarmen und mit<br />

Aufnahmefehlern behafteten Bilder wäre allein wegen der hohen Auflösung<br />

der 200.000 Bilder mit 2.000.000×2.000.000 Pixel pro Bild in einem Kubikzentimeter<br />

Gehirnprobendatensatz impraktikabel. Da die Pixel einen geringen<br />

Wertebereich (8 Bits pro Pixel) haben und verschiedenste Aufnahmeartefakte<br />

beinhalten, ist eine vollautomatische Segmentierung fehleranfällig. Deshalb ist<br />

es wichtig, die Ergebnisse aufwendiger automatischer Segmentierungsverfahren<br />

zu quantifizieren, zu visualisieren und reproduzieren zu können. Diese<br />

Arbeit basiert auf dem Membran-Segment-ierungsverfahren von Kaynig-Fittkau<br />

[2011], welches <strong>für</strong> ssTEM Hirngewebe-Bilder unter anderem folgende Ausgaben<br />

liefert: (a) ein Zuversichtswert <strong>für</strong> jeden Pixel (bezüglich des analytischen<br />

Modelles der Benutzerwahl der Zellmembranen) der angibt, wie sicher sich das<br />

zugrundeliegende statistische Modell ist, dass das Pixel zur Membran gehört<br />

und (b) die nach der Optimierung erhaltenen Kanten, welche die Zellmembranen<br />

repräsentieren. Wir setzen genau hier an und verwenden Benutzerwissen<br />

ein weiteres Mal, um entscheiden zu können, welche und in welcher Form man<br />

Daten dem Random-Forest-Klassifizierer zur Verfügung stellen muss. Das Ziel<br />

dabei ist es, die Segmentierungsergebnisse zu verbessern, indem man die<br />

Qualität der Segmentierung verbessert, die Segmentierung beschleunigt oder<br />

den Speicheraufwand reduziert.<br />

Aaron Meier-Stauffer<br />

Realistic Local Lighting in Dynamic Height Fields<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />

This thesis presents a method to compute soft shadows from environment maps<br />

and local light sources on dynamic height fields, extending the work of Snyder<br />

and Nowrouzezahrai (Fast Soft Self-Shadowing on Dynamic Height Fields). While<br />

direct illumination in static scenes is very common in video games and 3D<br />

applications, realtime globalillumination methods supporting dynamic scenes<br />

and lights are still an active field of research. In this work, a short general<br />

introduction to global illumination and spherical harmonics is presented as well<br />

as an overview of the state of the art methods in interactive global illumination<br />

for height fields. In our method, visibility at each receiver point of a height field is<br />

51


determined by the visible horizon, which can be approximated efficiently using a<br />

multiresolution sampling approach. Local light sources are represented by<br />

spherical lights and the incident radiance at receiver points is projected into the<br />

spherical harmonic basis. Hence, this method produces convincing shadows on<br />

dynamic height fields more efficiently than global illumination methods for<br />

general geometry.<br />

Johannes Novotny<br />

Application of Smart Visibility on Medical 3D Ultrasound Datasets<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />

Ultrasonography is one of the standard medical imaging techniques used in<br />

pregnancy examinations. It is widely available due to its low cost, portability and<br />

simple diagnostic procedure. Three-dimensional ultrasound (US) imaging has been<br />

gaining popularity in the area of prenatal care recently. It provides examiners with a<br />

coherent visualization of the fetus. However, within scanned 3D data sets, the fetus<br />

is often surrounded by occluding structures which reduce its visibility in the<br />

resulting visualizations. Current ultrasound machines provide several methods to<br />

remove these occluders from visualizations. These methods are in general difficult<br />

to control. As a result, the work flow of US examinations has to be interrupted in<br />

order to apply occlusion removal to selected scans. To reduce the required user<br />

interaction, this thesis evaluates a recently developed occlusion removal technique.<br />

The smart visibility method for prenatal ultrasound uses a heuristic approach to<br />

identify anatomic features within a data set. From these features, a clipping surface<br />

that separates the fetus from its occluders is calculated. The use of the clipping<br />

surface in combination with cutaway and ghosting visualization techniques allows<br />

an unoccluded view of the fetus. The clipping surface calculated by the smart<br />

visibility method is obtained by using a surface reconstruction algorithm. Within this<br />

thesis, different surface reconstruction techniques were evaluated for their<br />

occlusion removal quality and performance. It was possible to show that one of the<br />

evaluated approaches provides good results in a majority of test cases. This<br />

approach also reduces the required user interaction to a single parameter. By using<br />

the hardware controls of an US machine to manipulate the adjustable parameter,<br />

the smart visibility method can be used in realtime scenarios. GE Healthcare is<br />

evaluating the smart visibility method and considers to include it in upcoming<br />

versions of their US machine firmwares.<br />

Simon Parzer<br />

Irrational Image Generator<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />

52<br />

Mit Hilfe eines von Hofstetter Kurt entwickeltem Verfahren, genannt Inductive<br />

Rotation (IR), kann auf einer zweidimensionalen Ebene aus einem einzigen


Startelement durch wiederholte Translation und Rotation ein komplexes,<br />

lückenloses Kachelmuster erzeugt werden. Diese Muster sind allem Anschein<br />

nach nicht periodisch und haben sowohl aus mathematischer als auch<br />

künstlerischer Sicht interessante Eigenschaften. Das IR-Verfahren wurde noch<br />

nicht in der wissenschaftlichen Literatur behandelt, aber ist am ehesten<br />

vergleichbar mit aperiodischen Kachelmustern wie sie z.B. bereits von Penrose<br />

beschrieben wurden. Die Diplomarbeit beschäftigt sich näher mit den durch<br />

Inductive Rotation erzeugten Mustern. Es wurden Algorithmen entwickelt, mit<br />

denen es möglich ist, die Rotationsschritte in einem Computerprogramm zu<br />

automatisieren. Die Implementierung schließlich ist der Irrational Image<br />

Generator, ein Programm, das einerseits als Referenzimplementierung <strong>für</strong> das<br />

genannte Verfahren dient, andererseits aber vom Künstler verwendet wird, um<br />

durch weiteres Experimentieren das IR-Verfahren künstlerisch auszureizen. Dem<br />

Irrational Image Generator gehen eine Reihe von Prototypen voraus, die dazu<br />

entwickelt wurden, um das Laufzeitverhalten und die Ergebnisse abschätzen zu<br />

können. Sowohl die Prototypen als auch das Endprodukt wurden von Hofstetter<br />

Kurt getestet. Dieser iterative Entwicklungsprozess führte dazu, dass das fertige<br />

Programm zwei unterschiedliche Implementierungen beinhaltet, die beide ihre<br />

Vor- und Nachteile haben. Es hat sich herausgestellt, dass sowohl Laufzeit als<br />

auch Speicherbedarf des IR-Algorithmus abhängig von der Anzahl der Iterationen<br />

exponentiell ansteigen. Dadurch sind Iterationszahlen nach oben hin begrenzt,<br />

reichen aber <strong>für</strong> künstlerische Zwecke aus.<br />

Günther Voglsam<br />

Real-time Ray Tracing on the GPU - Ray Tracing using CUDA and kD-Trees<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />

In computer graphics, ray tracing is a well-known image generation algorithm<br />

which exists since the late 1970s. Ray tracing is typically known as an offline<br />

algorithm, which means that the image generation process takes several seconds<br />

to minutes or even hours or days. In this thesis I present a ray tracer which runs in<br />

real-time. Real-time in terms of computer graphics means that 60 or more images<br />

per second (frames per second, FPS) are created. To achieve such frame rates,<br />

the ray tracer runs completely on the graphics card (GPU). This is possible by<br />

making use of Nvidias CUDA-API. With CUDA, it is possible to program the<br />

processor of a graphics card similar to a processor of a CPU. This way, the<br />

computational power of a graphics card can be fully utilized. A crucial part of any<br />

ray tracer is the acceleration data structure (ADS) used. The ADS is needed to<br />

efficiently search in geometric space. In this thesis, two variants of so called kD-<br />

Trees have been implemented. A kD-Tree is a binary tree, which divides at each<br />

node a given geometric space into two halves using an axis aligned splitting<br />

plane. Furthermore, a CUDA library for the rendering engine Aardvark, which is<br />

the in-house rendering engine at the VRVis Research Center, was developed to<br />

access CUDA functionality from within Aardvark in an easy and convenient way.<br />

The ray tracer is part of a current software project called HILITE at the VRVis<br />

Research Center.<br />

53


Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung<br />

Arbeitsbereich Multidisciplinary Design<br />

Simon Diesenreiter<br />

Awareness im Enterprise 2.0 - Empirische Untersuchung über Awareness im<br />

Arbeitsumfeld einer Softwareentwicklungsfirma<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Associate Prof. Dr. Hilda Tellioglu<br />

Der Begriff Awareness in der CSCW-Forschung wird durch technische<br />

Neuerungen stetig vorangetrieben. Die Verwendung von Web 2.0-Technologien<br />

in Unternehmen auch bekannt als Enterprise 2.0 stellt eine solche<br />

Neuerung dar. Das Ziel der vorliegenden Arbeit ist es zu zeigen, wie Enterprise<br />

2.0-Systeme gemeinsam mit klassischen Informationssystemen im Arbeitsumfeld<br />

eingesetzt werden, um Awareness zwischen ArbeitskollegInnen herzustellen.<br />

Durch eine theoretische und empirische Analyse wird ein Modell von<br />

Awareness konstruiert, welches darstellt, welche Variablen, Mechanismen und<br />

Faktoren bei der Arbeit mit Awarenessinformationssystemen wirken und<br />

welche Beziehungen zwischen ihnen bestehen. Für die empirische Untersuchung<br />

wurde ob der Komplexität des Themas ein qualitativer Forschungsansatz<br />

im Stile der Grounded Theory gewählt. Zur Datenerhebung wurden in einer<br />

Softwareentwicklungsfirma eine Intranetrecherche, teilnehmende Beobachtung<br />

und ExpertInneninterviews durchgeführt. Die Analyse resultiert in einem<br />

Modell von Awareness, das aus den vier Kategorien Awarenessbedürfnisse,<br />

Awarenessmechanismen, Toolverwendung und Faktoren besteht und auf der<br />

Zusammenarbeit von KollegInnen und Teams in und mit einem Ökosystem von<br />

Anwendungen begründet ist. Das erarbeitete Modell baut in seinem Ursprung<br />

auf vorhandenen Modellen von Awareness auf, erweitert diese aber in einigen<br />

Punkten: Ereignis- und Kontextmodelle werden in der Kategorie Awarenessbedürfnisse<br />

durch die Inhalte von Awareness verfeinert und um den Begriff des<br />

Zustandes erweitert. Die Erfassung, Verarbeitung und Präsentation von<br />

Ereignissen und Zustand wird durch verschiedene Awarenessmechanismen<br />

ausdifferenziert. Toolverwendung nennt die Formalisierung von Awarenessinhalten<br />

als Grundvoraussetzung <strong>für</strong> die Umsetzung von Awareness mittels<br />

Tools. Bestehende Modelle von Awareness werden um organisatorische, toolund<br />

informationsbasierte Faktoren ergänzt.<br />

54


Andreas Hörmann<br />

Usability von benutzbaren Bewertungssystemen am Beispiel Tanzsport<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Associate Prof. Dr. Hilda Tellioglu<br />

Im Sport werden unterschiedliche Bewertungssysteme <strong>für</strong> die Unterstützung<br />

der WertungsrichterInnen eingesetzt. Die WertungsrichterInnen treffen subjektive<br />

Entscheidungen durch objektive Bewertungskriterien, um "zwischen" oder<br />

"<strong>für</strong>" TeilnehmerInnen im Wettkampf zu werten. Je schwieriger eine Entscheidung<br />

ist, umso länger dauert der Bewertungsprozess. Um Zeit zu sparen und<br />

den Fokus auf die TeilnehmerInnen zu richten, sollen Bewertungssysteme eine<br />

schnelle und einfache Bedienung bieten. Dabei stellt sich die Frage: Welche<br />

Veränderungen gibt es im Wertungsprozess durch die Verwendung von neuen<br />

Technologien? Die neuen Smartphone- und Tablet-Technologien offerieren<br />

eine immer größer werdende Vielfalt an Möglichkeiten <strong>für</strong> die Entwicklung<br />

neuer mobiler Anwendungen. Einfache Interaktion und eine gute Usability<br />

tragen zu einer guten User Experience bei und die BenutzerInnen sind<br />

verleitet, die Anwendung weiter zu benutzen und zu empfehlen. Der Fokus<br />

dieser Arbeit liegt auf der Prototypisierung und Evaluierung eines benutzbaren<br />

Bewertungssystems <strong>für</strong> den Tanzsport mit dem Schwerpunkt Usability. Der<br />

Bewertungsprozess im Tanzsport ist sehr komplex und unterscheidet sich stark<br />

von anderen Sportarten. Die Vor- und Nachteile der unterschiedlichen<br />

Bewertungsmethoden wurden ermittelt und deren Potential <strong>für</strong> die Zukunft<br />

festgestellt.<br />

Arbeitsbereich Human Computer Interaction<br />

Katharina Hartl<br />

Lern-Apps <strong>für</strong> Vorschulkinder - Entwicklung von Gestaltungs-Guidelines und<br />

Evaluation bestehender Systeme<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />

Da in den letzten Jahren die Anzahl der Benutzer von Tablets und Smartphones<br />

geradezu explodiert ist und sie in nahezu jeder Tasche zu finden sind,<br />

erschließen sich immer wieder neue Anwendungsfelder. Durch den häufigen<br />

Einsatz dieser Devices wird die stets vorhandene natürliche Neugierde von<br />

Kindern geweckt. Immer Jüngere zählen zur Konsumentengruppe sogenannter<br />

Apps, weshalb es vermehrt Anwendungen gibt, die auf diese Zielgruppe<br />

zugeschnitten sind. Besonders die Nische der Lern-Apps, in denen während der<br />

Verwendung Wissen vermittelt werden soll, ist eine stetig Wachsende. In gut<br />

entwickelter Kindersoftware wird Rücksicht auf die Bedürfnisse und den<br />

Entwicklungsstand der Kinder, z.B. bezüglich der Aufmerksamkeitsspanne oder<br />

der Kommunikationsweise, genommen. Da die Entwickler von Apps oft nur<br />

beschränktes Wissen über diese Umstände haben, werden in dieser Arbeit<br />

Guidelines erarbeitet, die ihnen entscheidende Informationen zur optimalen<br />

55


Implementierung von Lern-Apps <strong>für</strong> Kinder zwischen 4 und 7 Jahren liefern<br />

sollen. Dazu wird zuerst die Zielgruppe durch eine systematische wissenschaftliche<br />

Literaturstudie analysiert und so entscheidende Erkenntnisse gewonnen.<br />

Nach dem Erstellen des Guidelinessets wird dieses durch den Test von einigen<br />

Apps mithilfe der heuristic walkthrough-Strategie validiert. In einer Überarbeitung<br />

des Guidelinekatalogs können mögliche Lücken oder Fehlformulierungen<br />

entdeckt und ausgemerzt werden. Das Ergebnis dieser Arbeit stellt ein 41<br />

Richtlinien umfassender Guidelinekatalog dar, der auf die besonderen Herausforderungen<br />

im Zuge der Entwicklung von Apps <strong>für</strong> Vorschulkinder hinzuweisen<br />

versucht.<br />

Daniel Kececi<br />

Towards a Unified Solution for Course-Related Communication<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

The possibility of communicating online within the context of courses in Higher<br />

Education is essential, especially for lectures aimed at a large number of<br />

students and not least because of the evolution of so-called Massive Open<br />

Online Courses. Within this thesis, aspects of web-based, course-related communication<br />

are investigated in order to explore the difficulties and challenges<br />

in this field of subject. A practical project was designed, implemented and evaluated<br />

with the aim of providing a unified and new, contemporary approach to<br />

course-related communication. This thesis focuses on theoretical foundations,<br />

a detailed state-of-the-art review as well as on design principles derived from<br />

Exploratory Research which are, in consequence, integrated into the practical<br />

project in terms of a prototype.<br />

Stephanie Kühnl<br />

AAL Economy Compass - Analysis of the economic potential of Ambient<br />

Assisted Living projects/products in Austria<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />

56<br />

The population of Austria is getting older. Due to this demographic ageing a<br />

lot of work is done in the area of Ambient Assisted Living (AAL). AAL includes<br />

technical resources that enable older people in need of care to live independently<br />

in their own homes. Therefore, it is of interest which economic benefits<br />

Austria could have through the use of Ambient Assisted Living. One aim of this<br />

thesis is to show these benefits. For this, informations about care costs in<br />

Austria will be gathered and a survey is made to get information about<br />

companies and their Ambient Assisted Living projects and the costs related to<br />

the development of these projects. After an analysis of the collected information<br />

with regard to the benefit for Austria, it can be seen that there are major<br />

possible savings through the use of Ambient Assisted Living. Due to the fact


that the change of living environment could be postponed for over one year,<br />

the independent life of people in need of care is extended. Thus, Austria can<br />

save a lot of financial support. The other aim of the theses was to create a<br />

single point of resource. A database has been extended to contain all gathered<br />

information about the AAL projects.<br />

Andreas Lenzhofer<br />

Theorie und Praxis der Gamification am Beispiel des IIASA Geo-Wiki-Projekts<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

In den vergangenen Jahren haben sich die Anforderungen an Crowdsourcing-<br />

Projekte stark geändert. Die Generierung von Aufmerksamkeit stellt <strong>für</strong> viele<br />

Projekte nicht mehr die zentrale Fragestellung dar. Vielmehr geht es um die<br />

Frage, wie die Aufmerksamkeit der Masse in Engagement, Partizipation und<br />

Motivation umgewandelt werden kann. Das Geo-Wiki-Projekt, eine partizipative<br />

Plattform zur Validierung von globalen Landbedeckungskarten, steht vor ähnlichen<br />

Problemen. Game-Designerinnen und -Designer haben sich in den<br />

letzten 30 Jahren Werkzeuge und Methoden angeeignet, mit denen sie die<br />

Massen begeistern und unterhalten. Eine mögliche Antwort auf das Engagement-Problem<br />

kann daher der strategische Einsatz von Game Design-Methoden<br />

sein. Seit Anfang 2011 ist ein Trend in diese Richtung erkennbar, der unter<br />

dem Neologismus Gamification eine breite Aufmerksamkeit erreicht hat. Gamification<br />

beschreibt im Allgemeinen den Einsatz von Game Design-Elementen in<br />

spielfernen Umgebungen mit dem Ziel, sämtliche Lebensbereiche, digital wie<br />

analog, motivierender, unterhaltsamer und interessanter zu gestalten. In der<br />

vorliegenden Arbeit werden folglich die Konzepte der Gamification beleuchtet<br />

und anhand theoretischer Grundlagen aus den Feldern der Game Studies und<br />

der Motivationspsychologie analysiert. Das Ergebnis dieser Arbeit ist ein<br />

Gameful Design-Konzept, das das Geo-Wiki in einen spielerischen, unterhaltsamen<br />

und motivierenden Kontext einbettet und das Engagement der Nutzerinnen<br />

und Nutzer nachhaltig fördern kann.<br />

Martin Sereinig<br />

Integration von Vorlesungsaufzeichnungen in »Slidecasting«<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

Die aktive Einbindung von Studierenden in großen Vorlesungen ist schon<br />

lange Gegenstand der Forschung. Am Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung<br />

der <strong>TU</strong> <strong>Wien</strong> wird bereits seit Jahren eine Web-Applikation Slidecasting<br />

entwickelt, die es Studierenden ermöglicht, sich während und nach der<br />

Vorlesung durch das Verfassen von Beiträgen einzubringen. In den letzten<br />

Jahren ist außerdem das Interesse an der Aufzeichnung und Auslieferung von<br />

Vorlesungen im universitären Umfeld gestiegen. Auch an der <strong>TU</strong> <strong>Wien</strong> ist<br />

57


mittlerweile Infrastruktur vorhanden, um Vorlesungen aufzuzeichnen und über<br />

das Internet abrufbar zu machen. Ziel dieser Diplomarbeit ist es, diese beiden<br />

Themengebiete zu verbinden. Durch die Integration von Vorlesungsaufzeichnungen<br />

in Slidecasting soll eine Lernumgebung entstehen, die es Studierenden<br />

nicht nur erlaubt Vorlesungen nochmals anzuhören, sondern auch eine Umgebung<br />

schafft, die es Studierenden ermöglicht, sich gemeinsam mit anderen<br />

Studierenden konstruktiv mit den Inhalten der Vorlesung auseinanderzusetzen.<br />

Die im Rahmen der Diplomarbeit entwickelte Anwendung wurde im<br />

Sommersemester 2013 in zwei Lehrveranstaltungen des Instituts <strong>für</strong> Gestaltungs-<br />

und Wirkungsforschung eingesetzt. Dieser Einsatz der Software diente<br />

zum einen der Detailgestaltung der Anwendung im laufenden Betrieb. Zum<br />

anderen wurden während dieses Einsatzes Daten über das Nutzungs-verhalten<br />

der Studierenden erhoben, die als Anhaltspunkt <strong>für</strong> weitere Entwickl-ungen an<br />

diesem Projekt dienen können.<br />

Thomas Wruß<br />

Guidelines to Support Design and Development of Trust in Mobile Community<br />

Applications<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

Diese Diplomarbeit setzt sich mit dem Thema der Vertrauensbildung in sozialen<br />

Netzwerken <strong>für</strong> Smartphones auseinander. Es wird die mobile Applikation<br />

Open-Share-It, welche im Zuge dieser Diplomarbeit erstellt wurde, beschrieben.<br />

Sie ist ein gutes Beispiel <strong>für</strong> eine mobile Applikation in der Vertrauen<br />

eine wichtige Rolle spielt. Ansätze um besseres Vertrauen in solchen<br />

Applikationen zu erzeugen werden mittels Recherche, Interviews und einer<br />

Umfrage erforscht. Die daraus resultierenden Ergebnisse sind in Guidelines<br />

zusammengefasst. Diese Guidelines sollen helfen, sowohl das Vertrauen der<br />

User in die Applikation zu stärken, als auch das Vertrauen zwischen den Usern<br />

mithilfe der mobilen Applikation zu unterstützen. Neben der Beschreibung des<br />

Open-Share-It Projektes wird auch auf Zusammenhänge des Projektes mit der<br />

Diplomarbeit näher eingegangen und die mobile Applikation mit den<br />

Guidelines verglichen.<br />

58


Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme<br />

Arbeitsbereich Information & Software Engineering<br />

Stefanie Beyer<br />

Towards automated digital alibis<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />

In recent years, society is using media and communication technology more.<br />

One consequence of this is that there is more opportunity for its abuse, as well<br />

as use in crime. If there is more criminal usage of digital communication<br />

technology, we need to reliably be able to use digital evidence in both prosecutions<br />

and criminal defence cases. The main focus of this study is to show that<br />

forging of digital alibis is possible, which can impact on the reliance on digital<br />

evidence. The creation of a digital alibi using automation is the focus of other<br />

studies, and we are also looking at: social interaction during the simulation of a<br />

users behaviour, and whether behaviour can be simulated realistically and with<br />

limited computer evidence of the simulation. For this purpose an alibi framework<br />

is created that mimicked a typical users behaviour. This automation is<br />

intended to be implemented in such a way that it may not be possible to<br />

decide whether the traces of exercising actions recorded on the computer<br />

originate from either: a human user or a simulated user. Furthermore, forensic<br />

analysis is applied to verify whether the framework leaves any traces behind<br />

that could indicate the usage of a simulator. Social interaction is simulated by<br />

using a chatbot which used email and messaging and analysed the computers<br />

for their performance in creating a digital alibi. The performance criteria for the<br />

framework was based on metrics taken from real person computer behaviour.<br />

By evaluating the forensic analysis of simulated users hard drive and the real<br />

persons behaviour, it turned out that the simulator fits in the average range of<br />

real persons for nearly all categories. Therefore, simulation of users behaviour<br />

is possible, on condition that determining the sources of digital evidence is<br />

hard to verify. However, having a closer look at social communication, there is<br />

room for improvement, e.g. the chatbots text comprehension and email<br />

content.<br />

Peter Michael Bodesinsky<br />

Visualization of Compliance with Medical Guidelines<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />

Clinical guidelines recommend applicable actions in a specific clinical context.<br />

Computer Interpretable Guidelines (CIG) aim to achieve guideline integration<br />

into clinical practice and to increase health care quality. Analyzing compliance<br />

59


with a CIG can facilitate implementation and assist in the design of CIGs, but<br />

enabling medical experts to derive insights from this wealth of data is a<br />

challenging task. In this thesis the procedural checking of compliance with an<br />

example guideline (artificial ventilation of newborn infants) is combined with<br />

interactive visualization. The approach suggested in this thesis covers actionbased<br />

checking of compliance with a CIG, three types of actions considering<br />

compliance are defined: invalid actions, valid actions and missing actions.<br />

Visual mappings and encodings for compliance information found in the<br />

course of this work have been integrated into views for patient, treatment and<br />

guideline data. Highlighting and visual abstraction inside views for timeoriented<br />

patient parameters are supported. The plan-execution view, showing<br />

the executed actions during a treatment session, is enriched with encodings<br />

for invalid actions and interval-based representations of repeatedly missing<br />

actions. Furthermore aggregated compliance information is represented visually<br />

inside a view showing the guideline structure. The approach presented in<br />

this thesis is based on the extension of the CareCruiser prototype and implemented<br />

in Java. A low scale evaluation was conducted with a physician to<br />

gather qualitative data and feedback. Results indicate that the visual encodings<br />

for compliance information seem to be intuitive and useful in general,<br />

suggestions and found issues give input for future adaptions and refinements.<br />

Christian Bors<br />

Storage and Visualization of Heterogeneous Data from Online Social Networks<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />

60<br />

Analyzing the information provided by the users in Online Social Networks<br />

(OSNs) is on the one hand a tedious task but on the other hand people lose<br />

control of the information they have shared with the network, this leaves the<br />

door open for criminals and their counterpart: Forensic investigators. The<br />

context of this thesis is to develop a software tool which facilitates analysis of<br />

Social Snapshots split up into two major modules, the first one being a storage<br />

solution and the other one dealing with visualization and analysis assignments.<br />

Utilizing a database solution we make the usually complex data set easily<br />

accessible and available to be further processed. In terms of visualization we<br />

are focusing on automated graph representations of social networks providing<br />

high usability. This is paired with an export functionality generating comprehensive<br />

reports of a single social snapshot. To store and access such a heterogeneous<br />

set of data efficiently we assess different database concepts and<br />

implement a traditional relational database as well as a modern NoSQL database<br />

to determine an optimal solution regarding performance and accessibility.<br />

An abstract access model delivers queried data to the - visualization as well as<br />

statistics related - processing modules, coverting the underlying physical database<br />

connection. These processing modules are integrated into Gephi, a<br />

comprehensive graph visualization tool, harboring all snapshot analysis related<br />

functionality. Efficient graph representations and clustering methods provide<br />

an easily comprehendible social network overview. After having analyzed a


social snapshot the user can choose to generate a comprehensive report<br />

containing general snapshot information, graph visualizations and statistic<br />

results. The thesis is finalized with an evaluation of the proposed function set<br />

emphasizing the performance of the storage modules, the information content<br />

of the provided visualizations and the user interface's usability.<br />

Robert Krejci<br />

Storage and Visualization of Heterogeneous Data from Online Social Networks<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />

Analyzing the information provided by the users in Online Social Networks<br />

(OSNs) is on the one hand a tedious task but on the other hand people lose<br />

control of the information they have shared with the network, this leaves the<br />

door open for criminals and their counterpart: Forensic investigators. The<br />

context of this thesis is to develop a software tool which facilitates analysis of<br />

Social Snapshots split up into two major modules, the first one being a storage<br />

solution and the other one dealing with visualization and analysis assignments.<br />

Utilizing a database solution we make the usually complex data set easily<br />

accessible and available to be further processed. In terms of visualization we<br />

are focusing on automated graph representations of social networks providing<br />

high usability. This is paired with an export functionality generating comprehensive<br />

reports of a single social snapshot. To store and access such a heterogeneous<br />

set of data efficiently we assess different database concepts and<br />

implement a traditional relational database as well as a modern NoSQL<br />

database to determine an optimal solution regarding performance and accessibility.<br />

An abstract access model delivers queried data to the – visualization as<br />

well as statistics related - processing modules, coverting the underlying<br />

physical database connection. These processing modules are integrated into<br />

Gephi, a comprehensive graph visualization tool, harboring all snapshot analysis<br />

related functionality. Efficient graph representations and clustering methods<br />

provide an easily comprehendible social network overview. After having<br />

analyzed a social snapshot the user can choose to generate a comprehensive<br />

report containing general snapshot information, graph visuali-zations and<br />

statistic results. The thesis is finalized with an evaluation of the proposed<br />

function set emphasizing the performance of the storage modules, the<br />

information content of the provided visualizations and the user interface's<br />

usability.<br />

61


Josef Dabernig<br />

Geocluster: Server-side clustering for mapping in Drupal based on Geohash<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

This thesis investigates the possibility of creating a server-side clustering<br />

solution for mapping in Drupal based on Geohash. Maps visualize data in an<br />

intuitive way. Performance and readability of mapping applications decreases<br />

when displaying large amounts of data. Client-side clustering uses JavaScript to<br />

group overlapping items, but server-side clustering is needed when many<br />

items slow down processing and create network bottle necks. The main goals<br />

are: implement real-time, server-side clustering for up to 1,000,000 items<br />

within 1s and visualize clusters on an interactive map. Clustering is the task of<br />

grouping unlabeled data in an automated way. Algorithms from cluster analysis<br />

are researched in order to create an algorithm for server-side clustering with<br />

maps. The proposed algorithm uses Geohash for creating a hierarchical spatial<br />

index that supports the clustering process. Coordinates are encoded as string<br />

identifiers with a hierarchical spatial structure. The use of a Geohash-based<br />

index allows to significantly reduce the time complexity of the clustering<br />

process. Three implementations of the clustering algorithm are realized as the<br />

Geocluster module for the free and open source web framework Drupal. The<br />

first algorithm implementation based on PHP, Drupals scripting language,<br />

doesnt scale well. A second, MySQL-based clustering has been tested to scale<br />

up to 100,000 items within one second. Finally, clustering using Apache Solr<br />

scales beyond 1,000,000 items and satisfies the main research goal of the<br />

thesis. In addition to performance considerations, visualization techniques for<br />

putting clusters on a map are evaluated in an exploratory analysis. Map types<br />

as well as cluster visualization techniques are presented. The evaluation<br />

classifies the techniques for cluster visualization on maps and provides a<br />

foundation for evaluating the visual aspects of the Geocluster implementation.<br />

Peter Frühwirt<br />

Defence side reconnaissance: Preliminary surveying of an attacker's profile<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />

62<br />

Die steigende Komplexität von Systemen und die dadurch resultierende<br />

Vergrößerung des Angriffsvektors macht es Angreifern leichter, in Systeme<br />

einzudringen. Als Verteidiger ist man oft dazu gezwungen, die Lage vorab<br />

schnell einschätzen und eine passende Verteidigungsstrategie entwickeln zu<br />

müssen. Die bekannteste Möglichkeit zur Absicherung der eigenen Netzwerke<br />

sind Intrusion Detection Systeme (IDS). IDS erkennen Angriffe anhand von<br />

vordefinierten, statischen Signaturen oder anhand von Verhalten von<br />

Benutzern. Bestehende System haben oft das Problem, dass sie auf Grund von<br />

Signaturen relativ unflexibel sind und dadurch von Angreifern leicht umgangen<br />

werden können. Diese Arbeit befasst sich mit den theoretischen Konzepten der


Erkennung von Angreifern und erweitert bestehende Modelle durch Machine<br />

Learning Mechanismen. Durch Verbesserung und Kombination von statischen<br />

Signaturen mit einem Machine Learning Ansatz, konnte eine neue Technik zur<br />

Erkennung von Angriffen entwickelt werden, welche die Fehlerzahl bei der<br />

Erkennung stark reduziert. Unser Ansatz ermöglicht die Erstellung von Signaturen<br />

ohne Expertenkenntnissen durch manuelle Klassifikation von Netzwerkpaketen.<br />

Mit Hilfe von Machine Learning Techniken können neue Pakete<br />

anhand dieses Models erkannt werden. Gleichzeitig kann das bestehende<br />

Modell durch die neuen Pakete weiter verbessern werden.<br />

Harald Hofstätter<br />

A Datapipe Engine for Smartphones based on XProc - For building (Context<br />

aware) Workflows<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Einer der Erfolgsfaktoren von Smartphones ist die hohe Anzahl an mobilen<br />

Applikationen (Apps). Jedes mobile Betriebssystem besitzt seinen eigenen<br />

App-Markt mit bis zu mehreren hunderttausenden Apps. Trotz dieser enormen<br />

Anzahl kann nicht <strong>für</strong> jeden Use Case eine existieren, wobei besonders hoch<br />

personalisierte Anwendungsfälle nicht abgedeckt werden. Findet ein Benutzer<br />

keine App die seine Anforderungen erfüllt, ist er in den seltensten Fällen in der<br />

Lage eine eigene, auf Grund von (1) fehlenden Programmierkenntnissen, zu<br />

hohem Zeitaufwand und (3) Kosten <strong>für</strong> bestimmte Platformen, zu entwickeln.<br />

In dieser Arbeit wurde eine Workflow Engine <strong>für</strong> Android erstellt, die es<br />

Benutzern ohne großem technischem Wissen erlaubt, mobile Workflows zu<br />

erstellen um persönliche Use Cases abzudecken. Da<strong>für</strong> wurde die XProc<br />

Referenzimplementierung Calabash auf Android portiert und um smartphonespezifische<br />

Steps, wie zum Beispiel das Auslesen der aktuellen Position,<br />

Versenden von Kurzmitteilungen oder Erstellen von Benutzeroberflächen,<br />

erweitert. Zusätzlich wurde ein Trigger-Mechanismus implementiert um Workflows<br />

aufgrund von Änderungen des Benutzerkontexts, wie zum Beispiel Zeit,<br />

Ort oder das empfangen einer Kurzmitteilung, auszuführen. Eine Leistungsmessung<br />

bestätigte, dass das Ausführen eines bereits in Objektrepräsentation<br />

vorliegenden Workflows keine Geschwindigkeitseinbußen gegen-über nativ<br />

entwickelten Android Apps aufweißt. Das entwickelte System erlaubt es<br />

Benutzern Workflows platformneutral und standardisiert (XProc) zu erstellen.<br />

Kommunikationsmöglichkeiten (zum Beispiel SMS oder Twitter) erlauben<br />

verteilte Workflows welche mehrere Geräte umfassen. Ein zentrales Workflow-<br />

Repository ermöglicht das Veröffentlichen von Workflows, so dass andere<br />

Benutzer diese benutzen können. Des Weiteren fungiert es als Registrierung<br />

<strong>für</strong> "Workflows as a Service", welche wiederum "Human Services" ermöglichen,<br />

wie zum Beispiel Restaurantempfehlungen <strong>für</strong> eine bestimmte Stadt.<br />

63


Manuel Maly<br />

Retrieval and Visualization of Subjective Artist Similarity for Music Libraries on<br />

Android Devices<br />

Studium: Masterstudium Information & Knowledge Management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Music has long been an important part of human culture, and its playback has<br />

become an integral cultural component of high importance. Digitalization of<br />

music recordings has not only introduced superior sound quality to everybody's<br />

living room, but has also enabled transmission of large music<br />

collections via the internet. Since user interfaces for music playback software<br />

have not changed much in the last years, they are not necessarily optimized for<br />

the exploration of collections of millions of music files. The scope of this<br />

master's thesis is to investigate a promising visualization of artists in 2D space<br />

(through integration of artist similarity) for mobile applications. The main<br />

questions this thesis asks are whether the chosen method to compute music<br />

similarity is feasible in the context of mobile apps, and whether 2D visualization<br />

is well suited for search and exploration of objects therein. These questions are<br />

investigated on their technical feasibility by finding and optimizing methods for<br />

the efficient retrieval of music similarity, and through the construction of an<br />

Android app prototype. A user study is planned and carried out, comparing<br />

important aspects of the prototype with other existing music apps for Android.<br />

The study shall find out whether contents can be found quicker within a<br />

collection. Hints and explanations can be derived: The implemented 2D<br />

visualization of music artists (incorporating their similarity) seems to positively<br />

affect the users' memorization ability of contained objects. A better mental<br />

model can be built in this context. Search of objects in a music collection seem<br />

to not be positively affected by the proposed visualization, as compared to<br />

other forms. However, leaving aside list-based visualization forms, the<br />

prototype performed comparably well for search and exploration. It is<br />

concluded that the proposed concepts are promising, but that further research<br />

is necessary to resolve the problems which have been found.<br />

Felix Mayerhuber<br />

A Dynamic Java-Based Model-To-Model Transformation Environment<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

64<br />

This thesis deals with the theoretical concept and the practical approach of the<br />

model transformation solution used in the Open Engineering Service Bus<br />

(OpenEngSB) project, a tool integration platform with the goal of archiving<br />

efficient interoperation between tools in multidisciplinary environments. The<br />

proposed approach provides an easy to use model transformation solution<br />

which is also flexible and runtime extensible. The approach is based on Java.<br />

Transformation operations are Java methods and models are realised as Java<br />

classes' structures (specifically, in means of classes, their attributes and their


elations to other classes). The advantage of this approach is that it can be<br />

adapted by every Java developer to address project requirements and their<br />

changes (e.g. by adding new operations). In addition, no expertise in formal<br />

high-level abstraction modelling and meta modelling is needed; only<br />

knowledge about Java is required. Based on the introduced transformation<br />

solution, an approach is introduced to enable a simple form of automatic<br />

model update propagation. With this approach, it is possible to define relations<br />

between model instances and enforce data integrity between them. The<br />

prototype has been tested by its application in practical use-cases out of the<br />

OpenEngSB domain and the OpenEngSB customer area. In addition to these<br />

use-case tests, the introduced transformation definition language has been<br />

compared with other existing approaches and the prototypes performance has<br />

been tested.<br />

Barbara Müllner<br />

Die Didaktik des Biber-Wettbewerbs<br />

Studium: Unterrichtsfach <strong>Informatik</strong>/<strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />

Die vorliegende Arbeit befasst sich mit der Didaktik des internationalen<br />

SchülerInnenwettbewerbs Biber der <strong>Informatik</strong>. Vorgesehen ist der Wettbewerb<br />

<strong>für</strong> alle SchülerInnen von der 5. bis zur 13. Schulstufe und erfordert keinerlei<br />

Vorwissen auf dem Gebiet der <strong>Informatik</strong>. Der Wettbewerb zielt darauf ab das<br />

Interesse der SchülerInnen bezüglich der <strong>Informatik</strong> zu wecken und darauf<br />

aufmerksam zu machen. Um diese wertvolle Idee zu unterstützen, steht im<br />

Zentrum dieser Arbeit die Frage „Wie kann der Biber der <strong>Informatik</strong> in den<br />

Schulunterricht integriert werden?“. Konkrete Literatur zur Didaktik des Biber-<br />

Wettbewerbs gibt es leider keine, deswegen musste ich auf vorhandenes<br />

Wissen zurückgreifen. Mittels Fragebögen und eigener Kreativität konnte ich<br />

bereits erprobte Techniken eruieren und weitere erstellen. Durch Interviews mit<br />

Experten wurde es möglich einen Vergleich zu anderen Ländern herzustellen.<br />

Das eine oder andere Interview brachte sogar neue Ideen auf. Es wurden<br />

Möglichkeiten gefunden, wie der Biber der <strong>Informatik</strong> zusätzlich zu der<br />

Wettbewerbswoche in den Schulunterricht integriert werden kann. Die verschiedenen<br />

Techniken der Integration können in verschiedenen Anwendungsgebieten<br />

und Situationen eingesetzt werden. Dazu gibt es mögliche<br />

Stundenbilder, die übernommen oder verändert werden können. In den<br />

Bildungsstandards Digitaler Kompetenzen und sowohl im Allgemeinen als auch<br />

im fachspezifischen Lehrplan wurden einige Passagen gefunden, die mit den<br />

Aufgaben des Bibers konform gehen.<br />

65


Paul Panhofer<br />

Ein Technologieentwurf <strong>für</strong> eine Klasse skalierender Webapplikationen<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />

Web 2.0 is becoming the Buzz Word in the Distributed Systems community.<br />

The technological standards for Web Applications are continually changing<br />

resulting in a new stack of non-functional requirements. The focus of the thesis<br />

is to find a scaleable architecture for a special class of distributed softwaresystems.<br />

The processing of large amounts of data in a timely manner is key.<br />

The CAP Theorem helps us to establish a classification of dataprocessing<br />

distributed systems. This classification is key to understand the different<br />

properties and requirements in the process of developing the software<br />

architecture in question. The comparison of different classes of dataprocessing<br />

systems gives us an idea of the problem. RDBMS and NoSQL Systems are the<br />

current dataprocessing technologies. We have created two Softareprototypes.<br />

One prototype has been created as a NoSQL System the other one is using<br />

RDBMS for dataprocessing. We have been running different tests to learn<br />

about the performance, scalability and elastic speed up of the prototypes}. We<br />

have learned that RDBMS as a dataprocessing technology is not able to give us<br />

the scalability we need. On the other hand NoSQL solutions are a tool that<br />

helps us to develop a scalable architecture.<br />

Matthias Rainer<br />

Digital archiving, processing, and didactic use of historical source documents.<br />

The case of the Stock collection.<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Karl Fröschl<br />

66<br />

A large amount of information still dwells in archives, printed on paper and out<br />

of reach of todays search engines. While it might not be necessary (or even<br />

possible) to manually process all that data, it could still prove useful to have it<br />

indexed and available for search. Such digitized information archives could be<br />

used as reference in research and educational projects. This thesis is the<br />

documentation of such a digitization project. The analog media used for this<br />

project is the Stock collection: twelve cardboard boxes filled with approximately<br />

1400 articles, information material, and other papers with a focus on<br />

automation and information technology in libraries. The state of the art is<br />

evaluated based on the U.S. Library of Congress American Memory Project. The<br />

best practices learned in the American Memory Project are freely available<br />

online as guidelines for anybody planning to digitize paper media. These<br />

guidelines will be evaluated in an attempt to transfer the Stock collection from<br />

its original paper form to a hypertext system. The digitized articles of the Stock<br />

collection will then be made available online as part of the "Die Informatisierung<br />

Österreichs" project, hosted by the Austrian Computer Society. The<br />

motivation to do so is to preserve this collection and make it available for fur-


ther research. Since only a fraction of the Stock collection was transferred during<br />

the evaluation, a manual for further processing will be provided as part of<br />

this project, with the intention that the process steps can be applied to other<br />

projects as well.<br />

Christian Weiss<br />

Transferring Open Government Data into the global Linked Open Data Cloud<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Linked Open Data (LOD) bezeichnet Daten, die unter Verwendung eines<br />

offenen und maschinenlesbaren Formates im Web publiziert werden und mit<br />

anderen offenen Datenquellen verlinkt sind. Die Verfügbarkeit von LOD ist<br />

eine der wichtigsten Voraussetzungen <strong>für</strong> die Realisierung der Vision des<br />

Semantic Web. Initiativen wie DBpedia und das Linking Open Data community<br />

project haben die Verbreitung von Linked Open Data deutlich vorangetrieben.<br />

Richtlinien <strong>für</strong> Datenqualität und Inhalt von offenen Daten sind mittlerweile<br />

verfügbar und eine Vielzahl von verschiedene Datenquellen ist bereits in der<br />

Linked Open Data Cloud enthalten. Regierungen in verschiedenen Regionen<br />

der Welt haben ebenfalls begonnen, Daten offen über das Internet zu publizieren.<br />

Die Stadt <strong>Wien</strong> z.B. hat Datensätze im Rahmen ihrer Open Government<br />

Data Initiative (OGD) veröffentlicht. Diese Datensätze wurden in verschiedenen<br />

Formaten online gestellt, sind allerdings untereinander isoliert und wurden<br />

nicht nach den Richtlinien <strong>für</strong> Linked Open Data entworfen. Seitens der <strong>Wien</strong>er<br />

OGD Initiative ist die Veröffentlichung der Daten in LOD geplant, durch die<br />

angestrebte Koordination mit anderen OGD Initiativen befindet sich dieses<br />

Vorhaben aber noch in einer frühen Planungsphase. Das Ziel dieser Diplomarbeit<br />

ist es, anhand einer Auswahl von Daten der OGD Initiative der Stadt<br />

<strong>Wien</strong> zu zeigen, dass diese in Linked Open Data konvertiert werden können.<br />

Die konvertierten Daten müssen dabei den Richtlinien bzgl. LOD entsprechen<br />

und werden auf einem Webserver veröffentlicht um neue Anwendungsfälle<br />

wie komplexe Abfragen mittels SPARQL zu ermöglichen.<br />

Arbeitsbereich Interactive M edia Systems<br />

Sebastian Böhm<br />

BCI-Based Cursor Control Using EEG Sensorimotor Rhythms<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />

Brain-computer interfaces (BCIs) are human-computer interaction systems in<br />

which users communicate with a computer via a direct neural interface. Braincomputer<br />

interfaces have historically been closely associated with assistive<br />

technology for persons with disabilities, but the past few years have seen an<br />

increase in publications on human-computer interfaces for people without<br />

67


disabilities. The goal of a cursor control BCI is to control the position of a cursor<br />

via brain signals. While there have been a number of publications on cursor<br />

control using BCIs, most of them focus on controlling a cursor in custom-built<br />

experimental applications. The present thesis describes the design and<br />

implementation of a cursor control BCI prototype that translates EEG sensorimotor<br />

input into one-dimensional cursor movement and can be accessed using<br />

standard input interfaces. Since the BCI is accessible via standard input<br />

interfaces, existing input libraries can be used to create experimental<br />

applications and the BCI can be used to control existing applications.<br />

Michael Bressler<br />

A Virtual Reality Training Tool for Upper Limb Prostheses<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Privatdoz. Dr. Hannes Kaufmann<br />

Der Gebrauch von myoelektrischen Handprothesen ermöglicht es, Steuersignale<br />

<strong>für</strong> die Prothese mittels Elektroden zu erfassen, welche direkt auf der<br />

Haut platziert werden. Allerdings muss der Betroffene den Heilungsprozess der<br />

Amputation abwarten, bevor er damit anfangen kann, eine Prothese zu<br />

verwenden. Außerdem kann dieser Prozess vor allem am Anfang schwierig und<br />

frustrierend sein. In dieser Arbeit wird eine Trainingsanwendung vorgestellt,<br />

welche es erlaubt, in einem virtuellen Raum mit einer Hand nach Kugeln zu<br />

greifen, wo<strong>für</strong> eine jeweils der Kugel enstprechende Griffkraft aufgewendet<br />

werden muss. Um die virtuelle Realität zu erschaffen, wird das Tracking-System<br />

ioTracker verwendet, welches an der technischen Unversität <strong>Wien</strong> entwickelt<br />

wurde. Mit diesem System werden die Bewegungen von Kopf und Arm des<br />

Akteurs in 6 Freiheitsgraden aufgezeichnet (Position und Orientierung) und an<br />

eine Anwendung übertragen, welche mit der Game Engine Unity3D entwickelt<br />

wurde. Hier werden die Bewegungsdaten in eine virtuelle 3D Umgebung<br />

übertragen und visualisiert. Das Bild der virtuellen Kamera, welche mit dem<br />

Kopf des Akteurs mitbewegt wird, wird drahtlos an ein am Kopf des Akteurs<br />

befestigtes Display (Head mounted display, HMD) übertragen. Da diese Arbeit<br />

in Zusammenarbeit mit Otto Bock durchgeführt wurde, konnte <strong>für</strong> die<br />

Steuerung der virtuellen Hand die gleiche Technologie verwendet werden, wie<br />

sie in der von Otto Bock entwickelten Michelangelo Handprothese eingebaut<br />

ist. Das Ziel dieser Arbeit bestand sowohl in einer Trainingsumgebung als auch<br />

in einer Testumgebung <strong>für</strong> Handprothesen. Daher gibt es mehrere Optionen,<br />

die elektromyographischen Steuersignale auf die virtuelle Hand anzuwenden.<br />

Weiters können diverse Simulationsarten <strong>für</strong> die Erzeugung von Griffkraft<br />

verwendet werden. Ebenfalls wurden Optionen implementiert, um das<br />

Erstellen und Durchführen von unterschiedlichen Test- und Trainingsszenarion<br />

zu ermöglichen.<br />

68


Jakob Matthias Fellner<br />

Pattern-Based MIDI Composing<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />

Die vorliegende Diplomarbeit beschäftigt sich mit Ansätzen des algorithmischen<br />

Komponierens. Verfahren aus diesem Bereich sollen dabei mit der<br />

Disziplin der Mustererkennung vereint werden. Das Ziel der Arbeit ist die<br />

Generierung von neuen Musikstücken, welche deutliche Parallelen zu zuvor<br />

ausgewählten Kompositionen aufweisen. Zu diesem Zweck werden kurze und<br />

prägnante Notenfolgen, sogenannte Motive, aus diversen Liedern extrahiert.<br />

Die so gewonnenen Teile dienen anschließend als Input <strong>für</strong> Verfahren der<br />

algorithmischen Komposition. Die erstellten Musikstücke sollen einen möglichst<br />

harmonischen Klangeindruck hinterlassen. Im Zuge dieser Diplomarbeit wurde<br />

ein Software-System implementiert, welches in der Lage ist, Motive in Musikstücken<br />

zu finden und diese im Anschluss zu extrahieren. Weiters wurden zwei<br />

unterschiedliche Verfahren der algorithmischen Komposition ausgewählt,<br />

welche sich in der umgesetzten Software aus den Ergebnissen der Motiv-<br />

Erkennung bedienen. Auf dieser Basis können Musikstücke im MIDI-Format<br />

generiert werden. Als Hinführung auf das Thema der Motiv-Extraktion und der<br />

algorithmischen Komposition werden zunächst unterschiedliche Verfahren und<br />

Ansätze im Detail erläutert. Im Anschluss wird das Konzept der implementierten<br />

Software vorgestellt. Am Ende der Arbeit erfolgt die Präsentation der erzielten<br />

Ergebnisse anhand der Evaluierung einer quantitativen Umfrage.<br />

Christoph Fuchs<br />

Videosegmentierung durch Analyse audiovisueller Merkmale<br />

Studium: Masterstudium Visual Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />

Die Segmentierung und Klassifikation von Videos ist aufgrund der steigenden<br />

Anzahl von digitalen Videos manuell nicht mehr zu beherrschen. Es werden<br />

Algorithmen benötigt, die in der Lage sind aus dem Videomaterial relevante<br />

Informationen zu extrahieren, welche <strong>für</strong> aussagekräftige Beschreibungen<br />

geeignet sind. In der vorliegenden Diplomarbeit wird ein System zur Klassifikation<br />

von Videos durch Analyse audiovisueller Merkmale vorgestellt. Ein solches<br />

Vorhaben stellt auf beliebigem Videomaterial ein komplexes Problem dar, da<br />

diese Merkmale in der Lage sein sollen, die semantische Bedeutung von<br />

Bildern und Audiosignalen aus Videos zu erfassen. Aus diesem Grund wird in<br />

dieser Arbeit der Anwendungsbereich der Videoklassifikation auf Szenen der<br />

Muppet Show beschränkt. Zunächst werden grundlegende Ansätze und<br />

Methoden zur Videoanalyse in einer umfassenden Literaturstudie erklärt. Nach<br />

einem kurzen Überblick über die Entstehung der Muppet Show, zeigt eine<br />

Analyse des Videomaterials die charakteristischen Eigenschaften auf. Basierend<br />

auf den gewonnenen Erkenntnissen werden aussagekräftige audiovisuelle<br />

Merkmale und geeignete Klassifikationsmodelle vorgestellt, die <strong>für</strong> die Ent-<br />

69


wicklung eines Prototyps herangezogen worden sind. Zuletzt wird die Qualität<br />

der Klassifikationsresultate mit Hilfe verschiedener Evaluierungstests ausgewertet.<br />

Dabei wird aufgezeigt, dass sowohl visuelle Merkmale, wie die<br />

Verteilung von Farbe, als auch die Segmentierung des Audiosignals in Musik,<br />

Sprache und Umgebungsgeräusche in der Lage sind, die semantische Bedeutung<br />

von Videoszenen aus der Muppet Show zu erfassen.<br />

Christoph Kaltenriner<br />

Autonome Lokalisierung und Navigation eines unbemannten Luftfahrzeugs<br />

(UAV) mithilfe eines Smartphones als zentrale Recheneinheit<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Privatdoz. Dr. Hannes Kaufmann<br />

Als UAV (Unmanned Aerial Vehicle) werden Fluggeräte bezeichnet, die ohne<br />

Pilot an Board gelenkt werden. Meist werden UAVs von einer Person per<br />

Fernsteuerung oder einem Computer über eine Basisstation gesteuert. Voraussetzungen<br />

da<strong>für</strong> sind eine permanente Verbindung zum UAV, Sichtkontakt und<br />

zusätzliche Infrastruktur sowie Hardware <strong>für</strong> die Basisstation. In vielen Fällen ist<br />

es jedoch nicht möglich, diese Kriterien zu erfüllen. Hier ist es notwendig, dass<br />

sich das UAV in einer unbekannten Umgebung autonom lokalisieren und<br />

navigieren kann. Zur Lokalisierung kann speziell in Innenraum-Anwendungen<br />

nur selten ein GPS-Signal herangezogen werden. Eine alter-native Möglichkeit<br />

zur Lokalisierung ist die Verwendung von Landkarten. Eine solche Karte ist<br />

allerdings in den seltensten Fällen im Vorhinein (a-priori) vorhanden, weshalb<br />

es sich anbietet, diese automatisch während des Flugs zu erstellen. Hier<strong>für</strong> ist<br />

zusätzlich eine leistungsstarke Hardware notwendig, die entsprechend leicht<br />

sein muss, um vom UAV getragen werden zu können. Die Autoren zeigen im<br />

Rahmen dieser Arbeit, dass ein UAV <strong>für</strong> Innenraum-Anwendungen aus<br />

preisgünstigen Komponenten gebaut werden kann und ein handelsübliches<br />

Smartphone an Bord des UAVs als Einheit zur autonomen Steuerung<br />

verwendet. Zu diesem Zweck wurde ein entsprechender Prototyp konstruiert.<br />

Dieser Prototyp ist in der Lage, sich mithilfe speziell da<strong>für</strong> ent-wickelter<br />

Algorithmen in einer <strong>für</strong> das UAV unbekannten Testumgebung aus 2D-Markern<br />

zu lokalisieren. Durch eine Tracking-Software werden diese Marker eindeutig<br />

identifiziert und ermöglichen das Erstellen einer Karte zur Laufzeit. Anhand<br />

dieser Karte kann sich das UAV lokalisieren und während des Flugs<br />

Steuerbefehle <strong>für</strong> die autonome Navigation generieren. Die durchgeführten<br />

Tests zeigen, dass ein handelsübliches Smartphone eine sehr gute Möglichkeit<br />

bietet, die notwendigen Komponenten wie Prozessor, Kamera und Kommunikationseinheit<br />

in einem leichten und kostengünstigen Gerät zu vereinen.<br />

70


Michael Leichtfried<br />

Autonome Lokalisierung und Navigation eines unbemannten Luftfahrzeugs<br />

(UAV) mithilfe eines Smartphones als zentrale Recheneinheit<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Privatdoz. Dr. Hannes Kaufmann<br />

UAVs (Unmanned Aerial Vehicle) sind Fluggeräte, die ohne menschlichen<br />

Piloten an Bord gesteuert werden. Sie werden vorrangig zur Erkundung schwer<br />

oder nicht erreichbarer Gebiete eingesetzt. Dazu müssen sich diese in einer<br />

unbekannten Umgebung autonom orientieren können. Oft dient dabei GPS als<br />

externe Referenz <strong>für</strong> die Positionsbestimmung. In Innenräumen und Gebieten<br />

ohne GPS-Abdeckung müssen jedoch alternative Methoden in Betracht gezogen<br />

werden. Ein Ansatz sind sogenannte SLAM-Algorithmen (Simultaneous<br />

Localization and Mapping), die beispielsweise mit Hilfe von on-Board Kameras,<br />

markante Punkte in der Umgebung erkennen und daraus während des Flugs<br />

eine Landkarte zur Orientierung aufbauen. Die dazu notwendige Hardware<br />

muss sowohl leistungsstark sein um die Algorithmen in Echtzeit zu verarbeiten<br />

als auch ein geringes Gewicht aufweisen, um vom UAV getragen werden zu<br />

können. In dieser Arbeit wird gezeigt, dass ein aktuelles handelsübliches Smartphone<br />

als zentrale on-Board Recheneinheit diesen Anforderungen gerecht<br />

werden kann. Es wurde ein UAV-Prototyp konstruiert, der sich ohne GPS in<br />

einer unbekannten Innenraumumgebung lokalisieren und während des Flugs<br />

eine Karte dieser Umgebung erstellen kann. Diese Karte dient anschließend als<br />

Grundlage <strong>für</strong> die autonome Navigation. Als Testumgebung dienen 2D<br />

Markierungspunkte (Marker), die beliebig auf dem Boden ange-bracht wurden.<br />

Die Marker werden mit der Smartphone-Kamera aufgenommen und<br />

anschließend <strong>für</strong> das Kartieren und Lokalisieren verarbeitet. Sämtliche Algorithmen<br />

<strong>für</strong> den autonomen Flug werden vom Smartphone verarbeitet, eine<br />

zusätzliche Bodenstation ist nicht notwendig. Da das Smartphone alle notwendigen<br />

Komponenten <strong>für</strong> den autonomen Flug integriert, können sowohl<br />

Gewicht als auch Kosten gespart werden.<br />

Thomas Tschach<br />

Kontrollflusstransformation von BPMN zu Asbru<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />

BPMN ist eine weitverbreitete und gut verständliche, grafische Beschreibungssprache<br />

<strong>für</strong> Geschäftsprozesse und wird von einer Vielzahl von Modellierungswerkzeugen<br />

unterstützt, während Asbru eine XML-basierte Beschreibungssprache<br />

<strong>für</strong> ausführbare, medizinische Leitlinien ist, die nur durch wenige<br />

grafische Modellierungswerkzeuge unterstützt wird. Durch Definieren einer<br />

Modelltransformation zwischen BPMN und Asbru könnte die durch ausgereifte<br />

Werkzeuge gut unterstützte, standardisierte und wohlbekannte Notation herangezogen<br />

werden, um medizinische Leitlinien und Behandlungspläne in Asbru<br />

zu modellieren. Da die beiden Modelle unterschiedliche Paradigmen zur Re-<br />

71


präsentation des Kontrollflusses nutzen, müssen einige Probleme in Bezug auf<br />

deren Transformation gelöst werden. Ziel dieser Arbeit ist es, diese Probleme<br />

aufzuzeigen und Lösungsansätze in verwandten Bereichen zu finden. Daher<br />

werden (1) Transformationsstrategien diskutiert, die Lösungen <strong>für</strong> diese<br />

Transformationsprobleme auf Basis von Übersetzungen zwischen graforientierten<br />

Prozessbeschreibungssprachen und BPEL aufzeigen. Des Weiteren wird<br />

(2) beschrieben, wie und welche Kontrollflussmuster von BPMN und Asbru<br />

unterstützt werden, um etwaige Diskrepanzen aufzuzeigen. Anschließend wird<br />

(3) ein Mapping von BPMN-Elementen auf Asbru-Elemente definiert, und (4) die<br />

Eignung der oben angesprochenen Transformationsstrategien <strong>für</strong> die Umsetzung<br />

in einem BPMN-zu-Asbru Transformationssystem überprüft. Abschließend<br />

wird (5) das implementierte Transformationssystem anhand der Übersetzung<br />

der einzelnen Kontrollflussmuster beschrieben. Die gewonnen Erkenntnisse<br />

und gezogenen Parallelen können verwendet werden, um eine Transformation<br />

zwischen BPMN und Asbru zu realisieren, wie dies am implementierten<br />

Prototypen gezeigt wurde.<br />

Arbeitsbereich Business Informatics<br />

Thomas Franz<br />

Automatisiertes White-Box Testen <strong>für</strong> regelbasierte Modelltransformationen<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

72<br />

Softwaremodelle werden nicht mehr nur <strong>für</strong> Entwurfszwecke genutzt, sondern<br />

sind ein Hauptelement im Software Engineering Prozess geworden. Modellierungssprachen<br />

werden genutzt um Modelle darzustellen, die eine Basis <strong>für</strong><br />

die weitere Entwicklung bilden. Neben den Modellierungssprachen spielen in<br />

der modellgetriebenen Softwareentwicklung auch Modelltransformationen<br />

eine entscheidende Rolle. Das Ziel einer Modelltransformation ist ein bestimmtes<br />

Quellmodell in ein gewünschtes Zielmodell zu transformieren. Oftmals<br />

schlagen Modelltransformationen fehl und die Fehlersuche ist mühsam und<br />

langwierig, da diese in der Transformation selbst oder in den Metamodellen<br />

liegen können. Eine weitere Herausforderung ist es eine hohe Testabdeckung<br />

zu erreichen. Ziel dieser Arbeit ist das Auffinden eines automatisierten Ablaufs,<br />

der regelbasierte Transformationen testen kann. Dabei soll ein Tool in Java<br />

implementiert werden, welches auf der Metamodellierungssprache Ecore und<br />

regelbasierten Modelltransformationen in der ATL aufbaut. Es wird ein automatisierter<br />

White-Box Testing Ansatz entwickelt. Außerdem sollen mit Hilfe<br />

einer automatischen Generierung von Testinstanzen eine hohe Testabdeckung<br />

sichergestellt und verschiedene Fehler, vor allem Laufzeitfehler in der Transformation<br />

aufgezeigt werden. Basierend auf einem objektiven Testdatenset<br />

von Modelltransformationen der Übungs-aufgaben aus der Lehrveranstaltung<br />

"Model Engineering" der <strong>Technische</strong>n Universität <strong>Wien</strong> der Jahre 2009 bis<br />

2012 wird eine Evaluierung in Form einer Fallstudie durchgeführt. Die Ergebnisse<br />

zeigen, dass das entwickelte WBT-Tool viele verschiedene Fehler, sowohl<br />

bei der Validierung der Modelle, als auch in der Transformation selbst aufzeigt.


Das Tool birgt den Vorteil auch komplexere Testdatensets automatisch testen<br />

zu können, da bis auf die Anfangseinstellungen keine weitere Interaktion notwendig<br />

ist.<br />

Sabine Wolny<br />

Automatisiertes White-Box Testen <strong>für</strong> regelbasierte Modelltransformationen<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Softwaremodelle werden nicht mehr nur <strong>für</strong> Entwurfszwecke genutzt, sondern<br />

sind ein Hauptelement im Software Engineering Prozess geworden. Modellierungssprachen<br />

werden genutzt um Modelle darzustellen, die eine Basis <strong>für</strong> die<br />

weitere Entwicklung bilden. Neben den Modellierungssprachen spielen in der<br />

modellgetriebenen Softwareentwicklung auch Modelltransformationen eine<br />

entscheidende Rolle. Das Ziel einer Modelltransformation ist ein bestimmtes<br />

Quellmodell in ein gewünschtes Zielmodell zu transformieren. Oftmals<br />

schlagen Modelltransformationen fehl und die Fehlersuche ist mühsam und<br />

langwierig, da diese in der Transformation selbst oder in den Metamodellen<br />

liegen können. Eine weitere Herausforderung ist es eine hohe Testabdeckung<br />

zu erreichen. Ziel dieser Arbeit ist das Auffinden eines automatisierten Ablaufs,<br />

der regelbasierte Transformationen testen kann. Dabei soll ein Tool in Java<br />

implementiert werden, welches auf der Metamodellierungssprache Ecore und<br />

regelbasierten Modelltransformationen in der ATL aufbaut. Es wird ein automatisierter<br />

White-Box Testing Ansatz entwickelt. Außerdem sollen mit Hilfe<br />

einer automatischen Generierung von Testinstanzen eine hohe Testabdeckung<br />

sichergestellt und verschiedene Fehler, vor allem Laufzeitfehler in der Transformation<br />

aufgezeigt werden. Basierend auf einem objektiven Testdatenset<br />

von Modelltransformationen der Übungsaufgaben aus der Lehrveranstaltung<br />

"Model Engineering" der <strong>Technische</strong>n Universität <strong>Wien</strong> der Jahre 2009 bis<br />

2012 wird eine Evaluierung in Form einer Fallstudie durchgeführt. Die<br />

Ergebnisse zeigen, dass das entwickelte WBT-Tool viele verschiedene Fehler,<br />

sowohl bei der Validierung der Modelle, als auch in der Transformation selbst<br />

aufzeigt. Das Tool birgt den Vorteil auch komplexere Testdatensets automatisch<br />

testen zu können, da bis auf die Anfangseinstellungen keine weitere<br />

Interaktion notwendig ist.<br />

Gerald Margreiter<br />

SERAPIS 2 Ecore - Bridging Two Modeling Spaces in Eclipse<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

As the approach of Model-Driven Engineering (MDE) is becoming mainstream<br />

in modern software development practices, there is a growing variety of tools<br />

to support the lifecycle of modeling artifacts. Standards such as Meta-Object<br />

Facility (MOF) defined by the Object Management Group (OMG) help to avoid<br />

73


information loss when trying to integrate multiple modeling tools across their<br />

technical boundaries. The Eclipse-based modeling tool SERAPIS by Sphinx IT<br />

Consulting defines a proprietary meta-language which is not compliant to MOF<br />

or any other modeling standard. As a consequence, metamodels specified in<br />

this meta-language and therefore also the instantiations of these metamodels<br />

cannot be interchanged with existing tools based on standards such as MOF<br />

which results in a vendor-lock for customers. The contribution of this master<br />

thesis is to develop a transformation approach allowing to translate metamodels<br />

and models from the SERAPIS technical space to the Eclipse Modeling<br />

Framework (EMF), which employs the meta-language Ecore as the de facto<br />

standard corresponding to MOF. The strategy to achieve this is based on an<br />

approach presented in the Ph.D. thesis by Dr. Manuel Wimmer who suggests a<br />

semi-automatic transformation for metamodels by mapping the corresponding<br />

meta-languages. Moreover, we specialize this approach to also enable the<br />

automatic transformation of SERAPIS models based on the mappings of their<br />

metamodels. The transformation approach developed in this work is implemented<br />

in the Eclipse DIE in order to prove its feasibility and to evaluate the<br />

generated results.<br />

Michal Skackov<br />

Web-based B2B documents mapping and transformation using Smooks Data<br />

Integration Framework hosted as cloud service<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Christian Huemer<br />

74<br />

This thesis aims to enable SMEs and non-profit organisations to trade within<br />

electronic markets using modern, freely available information technologies and<br />

systems. These businesses are not capable of investing in integration, but are<br />

forced by larger business partners or governments to produce business<br />

documents of a certain standard. To help address these issues a free of charge,<br />

cloud-hosted transformation between two different business document types<br />

is explored. Related research questions are addressed in order to enable direct<br />

transformation using the Smooks Data Integration Framework by applying<br />

current technology to offer transformation as SaaS with the help of a Webbased<br />

mapping tool. This thesis follows the guidelines of design science<br />

research methodology. The main parts consist of related work relevant to B2B<br />

electronic exchange of structured business documents, their mapping and<br />

subsequent transformation. In summary, this thesis provides an overview of<br />

related work on B2B business document standards, their mapping and<br />

transformation, as well as current integration tools. The major contribution is<br />

the prototype implementation of a Web-based system using Smooks to<br />

transform business documents. The most complex part relates to the actual<br />

interpretation of mapping and consecutive transformation. The implementation<br />

of the Web-based editor for mapping models for the data integration<br />

framework Smooks relates to a wide range of technologies. The jQuery<br />

framework, a library for JavaScript, is used for the user interface. The<br />

transformation works with help of FreeMarker, a template engine, and is hosted


as a freeof-charge cloud computing service within a Google App engine using<br />

Java. In conclusion, the prototype although not an out-of-the-box solution,<br />

allows users to define schema mapping with functionality comparable to that<br />

offered by products already on the market.<br />

Christoph Zehetner<br />

An Adaptable OCL Engine for Validating Models in Different Tool Environments<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

The need for validating models automatically, in the early design phase arose<br />

with the emergence of the Model-Driven Development (MDD) paradigm.<br />

Models are not any longer used just for brainstorming and communication<br />

purposes. The Object Management Group (OMG) suggests the usage of the<br />

Unified Modelling Language (UML) to define platform-independent models.<br />

UML has been widely accepted as the de facto standard for modelling objectoriented<br />

systems. This master thesis pointed out that UML models are not<br />

necessary expressive enough to provide all complex aspects of a system. Some<br />

aspects of the domain are more expressed in natural language, which will lead<br />

to ambiguities and to errors. There-fore the Object Constraint Language (OCL)<br />

can be used to specify conditions on models that must hold for the system.<br />

Apart from the development of standards for modelling systems, several<br />

vendors developed modelling tools or so called Computer-Aided Software<br />

Engineering (CASE) tools to provide a wide range of instruments to support the<br />

MDD approach. The support depends on the ven-dors realization of the<br />

standards. In general there is a lack of validating models in CASE tools, which is<br />

essential in the early design phase. Additionally, there is only little support for<br />

writing OCL expressions for models. Thus, models defined by users of such<br />

tools are not nec-essarily valid against the wellformedness rules (WFR). The<br />

contribution of this masters thesis is to provide an adaptive solution for<br />

managing OCL transformation in different environments or CASE tools.<br />

Mappings patterns are defined to manage the schema matching between<br />

selectable environments (source and target schema). The OCL expressions are<br />

applied to a selectable source schema, which is mapped to a target schema.<br />

The goal of this work is to analyse the OCL expression and generate a<br />

semantically equivalent expression in the target schema depending on predefined<br />

trans-formation patterns.<br />

75


Arbeitsbereich E-Commerce<br />

Ilker Baltaci<br />

Service Recommendation<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

Empfehlungssysteme werden als ein wichtiges Management- und<br />

Marketinginstrument betrachtet, die nicht nur sowohl <strong>für</strong> die Online-Kunden als<br />

auch <strong>für</strong> Dienstleister sehr viele Vorteile bieten können. Ein effizientes<br />

Empfehlungssystem kann fast alle Aufgaben von einem Verkaufsberater<br />

erfüllen. In Folge der einzigartigen Eigenschaften von Dienstleistungen wie die<br />

Teilnahme der Kunden und der Dienstleistungsmitarbeiter an dem Service-<br />

Prozess sowohl die unterschiedlichen Dienstleistungsqualitätsabmessungsmodelle<br />

gelten die Services mehr als immaterielle Güter. Bei der Implementierung<br />

eines dienstleistungsorientierten Empfehlungssystems sind die speziellen<br />

Eigenschaften und Dimensionen von Dienstleistungen explizit zu berücksichtigen.<br />

Diese Masterarbeit befasst sich mit den generischen Dimensionen der<br />

Dienstleistungen, die sich bei den herkömmlichen gut-orientierten Empfehlungssystemen<br />

nicht befinden. Potentielle Probleme der Dienstleistungskunden<br />

während des Kaufprozesses können mit Hilfe von Empfehlungssystemen<br />

beseitigt werden, die auf Grund der immateriellen, untrennbaren,<br />

verderblichen und variablen Natur von Dienstleistungen auftreten können.<br />

Diese Arbeit beschäftigt sich mit den zusätzlichen Rollen der Empfehlungssysteme<br />

<strong>für</strong> Dienstleistungskunden in Bezug auf die sogenannten Eigenschaften<br />

von Dienstleistungen. Der empirische Teil der Masterarbeit beschreibt<br />

ein generisches Empfehlungsmodel, das gezielt auf die Anforderungen von<br />

Dienstleistungskunden und Empfehlungssystembenutzern implementiert wird.<br />

Das generische Modell wird in einer Restaurantempfehlung-Anwendung eingesetzt<br />

und mit Hilfe von einem vordefinierten Daten-Set evaluiert.<br />

Öncü Pinar Kaya<br />

Online Learning Communities and Business Strategies<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

76<br />

Due to economic and technological changes, eLearning sector had finally been<br />

able to take his place in the business world, and undoubtedly, it will continue<br />

to grow in governments, universities, companies and professional associations.<br />

ELearning is now a part of the organizational infrastructure to increase the productivity<br />

of companies such as sales effectiveness, improving companys<br />

competency, and to build better customer relationship. The most important<br />

factor to deliver an eLearning service and to be successful is an efficient<br />

eLearning strategy, which need to act in response to the rapid changes in the<br />

technology. The purpose of this research is to give ideas about the definition<br />

of an online learning community, characteristics and types of online learning


communities, community of practice (CoP), and the motivation behind it. After<br />

giving fundamental literature about online learning communities, the research<br />

will be set up with building and growing eLearning communities. The question<br />

is when building an online learning community, who participates, and their<br />

technologies that are used today. Further research introduces the Business<br />

Model Ontology (BMO) by Osterwalder&Pigneur for eLearning, and analyzes<br />

nine building blocks of BMO including monetization strategies and success<br />

factors with case studies of eight online learning communities.<br />

Philip Messlehner<br />

Conceptualization of Feature Models for multi-client capable mobile<br />

Applications<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Christian Huemer<br />

Die Datenspeicherung wird zunehmend in die Cloud verlagert. Gleichzeitig<br />

bauen viele Unternehmen auf mobile Applikationen, um Ihre Geschäftsprozesse<br />

abzubilden und abzuwickeln. Die bereitgestellten mobilen Applikationen<br />

der Cloud-Anbieter erfüllen jedoch nicht die Anforderungen dieser<br />

Unternehmen. Dabei verhindern folgende drei Probleme den Einsatz<br />

bestehender Applikationen. An erster Stelle sind die Applikationen nicht um<br />

die notwendigen Funktionen erweiterbar die benötigt werden, um diese sinnvoll<br />

im Geschäftsumfeld einzusetzen. Des Weiteren gibt es keine Anpassungsmöglichkeiten,<br />

um die Benutzeroberfläche an die Corporate Identity einer<br />

Firma anzupassen. Der Vertrieb dieser Applikationen wird über AppStores<br />

abgewickelt, die Firmen selbst können somit auch nicht steuern, welche<br />

BenutzerInnen diese Applikationen nutzen. Die Lösung <strong>für</strong> diese Probleme ist<br />

ein systematischer Umgang mit Variabilität in Applikationen, welche durch die<br />

unterschiedlichen Anforderungen der Unternehmen entstehen. Hierbei sollen<br />

Konzepte der Produktlinienentwicklung in die Domäne der mobilen Applikationen<br />

übertragen werden. Aus diesem Grund wird in dieser Arbeit ein Feature<br />

Modell erarbeitet, welches die Anforderungen der Unternehmen widerspiegelt.<br />

Des Weiteren werden Mechanismen entwickelt, um die unterschiedlichen Arten<br />

von Variabilität in Objective-C abzubilden. Sowohl das Feature Modell als auch<br />

die entwickelten Werkzeuge werden verwendet, um eine mobile Software-<br />

Produktlinie zu schaffen. Von dieser Software-Produktlinie sollen die<br />

verschiedenen Applikationen <strong>für</strong> Unternehmen effektiv abgeleitet werden. Mit<br />

der entwickelten Software-Produktlinie ist es möglich flexible Applikation<br />

abzuleiten, die um Module und Komponenten je nach Wunsch der KundInnen<br />

erweitert werden können. Somit können die Applikationen auch auf die<br />

jeweiligen Geschäftsprozesse perfekt zugeschnitten werden.<br />

77


Christina Stödtner<br />

Poking Cultural Institutions: Social Media Analysis for Museums in Vienna<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />

People share their opinions and stories with friends and strangers over various<br />

platforms. The connections that users create while interacting with each other<br />

influence them in their daily decisions. Moreover, information gathered on<br />

social media platforms offers valuable clues of what people are interested in. In<br />

my thesis, I explored 32 cultural institutions located in Vienna and how they<br />

use social media. I observed both the institutions and users on social media<br />

platform. I performed the following steps for my analysis: First, I studied what<br />

kind of information is public available for analysis. I found out what platforms<br />

are used by cultural institutions and how many people they reach with their<br />

messages on them. Furthermore, I compared how active the selected museums<br />

participated in social networks, how many users they attracted and if those<br />

numbers correlate. At the other end of the spectrum, I intended to investigate<br />

the characteristics and behaviour of users who interacted with cultural<br />

institutions on social media platforms in general. I illustrated what kind of<br />

content people like in order to create a successful social media strategy. After<br />

data collection, I performed statistical tests to evaluate my research questions<br />

and hypothesis. I explored that social media activities have a positive effect on<br />

the popularity of cultural institutions. Therefore, I compared the activity of<br />

museums with the activity and behaviour of people interacting with them. My<br />

results also demonstrated that users who interact with cultural institutions on<br />

social networks show different characteristics than the overall user population<br />

of those networks. In conclusion, I give insights in how social media analysis<br />

can be valuable for businesses in general and cultural institutions in particular.<br />

78


Department <strong>für</strong> Raumplanung<br />

Chin-Han Yan<br />

Predictive Analytics - Anwendungsperspektiven <strong>für</strong> die österreichische<br />

Finanzverwaltung<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ass.Prof. Dr. Johann Bröthaler<br />

Business Analytics ist die Evolution des traditionellen Business Intelligence in<br />

Form von Predictive Analytics. Während Business Intelligence sich noch im<br />

Bereich der Auswertung und der Visualisierung von Informationen aus der<br />

Vergangenheit und Gegenwart beschäftigt, liegt der Fokus von Predictive<br />

Analytics darin, aus Business Intelligence mögliche Aussagen über zukünftige<br />

Entwicklungen zu treffen. Der Einsatz von Predictive Analytics ermöglicht es<br />

Unternehmen bzw. Organisationen auf der Basis von Vorhersagemodellen<br />

vorausschauend zu agieren und künftige Entwicklungen rechtzeitig zu erkennen.<br />

Dabei geht es nicht mehr nur darum beispielweise globale Umsatzziele<br />

zu prognostizieren, sondern spezifische Entwicklungen <strong>für</strong> einzelne Kundensegmente<br />

oder sogar das Verhalten individueller Kunden zu prognostizieren.<br />

Die österreichische Finanzverwaltung befindet sich im Moment in der Phase der<br />

Modernisierung. Im Rahmen der E-Government-Offensive wurde in den<br />

vergangenen Jahren viel Wert auf das E-Administration und FinanzOnline<br />

gelegt. Aus diesem Bekenntnis zur Innovation steht die österreichische Finanzverwaltung<br />

seither ein breiter Basis-Datenbestand <strong>für</strong> Business-Intelligence-<br />

Analyse zur Verfügung. Aus Sicht der österreichischen Finanzverwaltung wurde<br />

bisher die richtige Richtung eingeschlagen. Die Leistungssteuerung wurde<br />

etabliert. Nun geht der Fokus um das Erkennen und das Verringernvon Gefahrenpotenzialen<br />

(FraudDetecion, Risk Management). Für dieses Etappenziel<br />

sind Erfahrungswerte unter anderem aus der Privatwirtschaft näher zu betrachten<br />

und mögliche Anwendungsperspektiven zu entwickeln.Auf welcher<br />

Weise können die mit Erfolg zu Ende gebrachte Predictive Analytics Projekte<br />

aus der Privatwirtschaft als Grundlage <strong>für</strong> einen Einsatz in der österreichischen<br />

Finanzverwaltung dienlich sein? Auf diese und weitere Fragestellungen werden<br />

im Rahmen vorliegender Arbeit zu beantworten versucht.<br />

79


Institut <strong>für</strong> Konstruktionswissenschaften und<br />

<strong>Technische</strong> Logistik<br />

Paul Christian Weissenbach<br />

Semantische Features in Quality Function Deployment basierter<br />

Anforderungsmanagementsoftware<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Detlef Gerhard<br />

Die Entwicklung von erfolgreichen Produkten und Dienstleitungen ist schwierig.<br />

Ein wichtiger Teil eines Entwicklungsprozesses ist es herauszufinden, was<br />

der Kunde will, wie er danach sucht und vor allem was er letztendlich kauft. Die<br />

Qualität solcher Informationen und deren Aufnahme im Entwicklungsteam<br />

haben starken Einfluss auf das Ergebnis des Entwicklungsprojektes. Aufgaben<br />

die in diesen Bereich fallen werden üblicherweise als Anforderungsmanagement<br />

(engl. requirements engineering) bezeichnet. Die Kernaufgabe von<br />

Anforderungsmanagement ist die Erstellung von konsistenten Produkt-/ Dienstleistungsspezifikationen.<br />

Nachdem der state-of-the-art von Anforderungsmanagement<br />

mit semantischer Technologieunterstützung begutachtet wird<br />

und die Fähigkeiten von Anforderungsmanagementsoftware generell und in<br />

Bezug zu semantischen Technologien analysiert werden, wird in dieser Arbeit<br />

ein Ansatz zur Verbesserung des vorherrschenden Kundenbildes vorgestellt.<br />

Dieser Ansatz bedient sich "semantic web" Technologien und integriert sich in<br />

die Quality Function Deployment Methode, genauer, in eine Auswahl von<br />

Houses of Quality. Diese Auswahl ermöglicht es dem QFD Team, sein Kundenbild<br />

zu hinterfragen und auch zu rechtfertigen. Ein unerwartetes Ergebnis<br />

dieser Arbeit ist, dass der vorgestellte Ansatz bei linearen Entwicklungsvorgehensmodellen<br />

hilft, den Zeitpunkt festzustellen, wann von einer<br />

Anforderungs-/Spezifikationsphase zu einer Implementierungsphase übergegangen<br />

werden kann. Eine <strong>für</strong> das Team selbst und auch <strong>für</strong> Projektaußenstehende,<br />

wie zum Beispiel das Management, hilfreiche Information.<br />

80


Institut <strong>für</strong> Managementwissenschaften<br />

Manuel Djalili<br />

Using RFID in learning factories. A Case study research of opportunities,<br />

benefits and challenges at the FhA Lean Assembly<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Companies are highly interested in optimizing their processes (e.g. logistic,<br />

manufacturing) in order to increase their productivity or to reduce costs.<br />

Different optimization concepts and technologies have been developed, but<br />

their implementation with purely theoretical knowledge can be challenging.<br />

Learning factories bridge theory and praxis by simulating specific scenarios to<br />

easily and efficiently illustrate optimization possibilities in practice. Therefore,<br />

the company staff learns about direct benefits and application of the previously<br />

learned theory. RFID is a technology that can be used to optimize manufacturing<br />

processes but it has not yet been adapted or used by many learning<br />

factories. Especially in manufacturing processes further research is needed. The<br />

goal of this thesis is to research opportunities, benefits and challenges of RFID<br />

used in learning factories as well as to exploit the possible use of RFID in a<br />

learning factory and show its implementation. To achieve this goal, existing<br />

learning factories and RFID applications were analysed as well as RFID was<br />

integrated into an existing learning factory, the FhA Lean Assembly, and a<br />

software to exploit the potential of this technology was developed. The results<br />

are three software tools to support the various setups of the lean assembly, to<br />

communicate with the RFID hardware, to support staff during the practical<br />

exercise (assembly) and to prepare and display data generated by the RFID<br />

system. In this scenario four main benefits and three challenges have been<br />

identified.<br />

Ömer Faruk Dural<br />

Produktionsplanung und -steuerung unter Unsicherheit: Design und<br />

Implementierung in integrierten ERP-Systemen<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />

Am Institut <strong>für</strong> Managementwissenschaften der <strong>TU</strong> <strong>Wien</strong> wird ein integriertes<br />

ERP-System namens ERPControl entwickelt. Als Hauptmodul des ERPControls<br />

befasst sich diese Arbeit mit folgenden Konzepten, um optimale Produktionplanung<br />

und steuerung exemplarisch anzuwenden. - Design eines Informationssystems<br />

<strong>für</strong> die Produktionsplanung und Steuerung unter expliziter<br />

Einbeziehung von mit der Zukunft verbundenen Unsicherheiten - Prototypische<br />

Implementierung des Informationssystems in einer modernen IT-Architektur -<br />

Dokumentation einer der Hauptkomponenten von ERPControl, welche die<br />

Produktions-planung und -steuerung, sowie die Kostenrechnung und Produk-<br />

81


tionsanalyse umfasst. Ausgehend von den Anforderungen <strong>für</strong> den Produktionsplanungs<br />

und steuerungsprozess wird das Informationssystem mittels Klassendiagrammen<br />

und Aktivitätsdiagrammen designet. In den Klassendiagrammen<br />

werden die Informationen über Jahrespläne, Quartalpläne und Monatspläne<br />

modelliert. Zur Einbeziehung der mit der Planung verbundenen Unsicherheit<br />

werden die Quartals- und Monatspläne als stochastische binäre Bäume<br />

designet. Stochastische Informationen dieser Bäume werden im Zeitablauf in<br />

den Klassenmodellen dynamisch abgebildet. Diese Software Anwendung wird<br />

durch die Unterscheidung von drei architektonischen Ansichten auf Basis der<br />

Enterprise Management Information System realisiert: Business & Management<br />

Semantik, Informationssystem, Informationstechnik. Das Design des Informationssystems<br />

basiert auf der REA-Ontologie und dem ECSI Standard, welcher<br />

Ressourcen, Geschäfts- und Managementprozesse in Produktionsunternehmen<br />

explizit modelliert, um eine konsistente Daten- und Prozessmodellierung zu<br />

gewährleisten. Durch das Design und die prototypische Implementierung des<br />

Informationssystems mit Hilfe der Business Operationen des JBoss Seam<br />

Frameworks unter Java EE Technologie soll ein objekt- und prozessorientiertes<br />

IT System entstehen, das als Modul in der ERPControl Software zu sehen ist.<br />

Aqif Nasufi<br />

Produktionsplanung und -steuerung unter Unsicherheit: Design und<br />

Implementierung in integrierten ERP-Systemen<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />

82<br />

Am Institut <strong>für</strong> Managementwissenschaften der <strong>TU</strong> <strong>Wien</strong> wird ein integriertes<br />

ERP-System namens ERPControl entwickelt. Als Hauptmodul des ERPControls<br />

befasst sich diese Arbeit mit folgenden Konzepten, um optimale Produktionplanung<br />

und steuerung exemplarisch anzuwenden. - Design eines Informationssystems<br />

<strong>für</strong> die Produktionsplanung und Steuerung unter expliziter<br />

Einbeziehung von mit der Zukunft verbundenen Unsicherheiten - Prototypische<br />

Implementierung des Informationssystems in einer modernen IT-Architektur -<br />

Dokumentation einer der Hauptkomponenten von ERPControl, welche die<br />

Produktionsplanung und -steuerung, sowie die Kostenrechnung und Produktionsanalyse<br />

umfasst. Ausgehend von den Anforderungen <strong>für</strong> den Produktionsplanungs<br />

und steuerungsprozess wird das Informationssystem mittels<br />

Klassendiagrammen und Aktivitätsdiagrammen designet. In den Klassendiagrammen<br />

werden die Informationen über Jahrespläne, Quartalpläne und<br />

Monatspläne modelliert. Zur Einbeziehung der mit der Planung verbundenen<br />

Unsicherheit werden die Quartals- und Monatspläne als stochastische binäre<br />

Bäume designet. Stochastische Informationen dieser Bäume werden im Zeitablauf<br />

in den Klassenmodellen dynamisch abgebildet. Diese Software Anwendung<br />

wird durch die Unterscheidung von drei architektonischen Ansichten auf<br />

Basis der Enterprise Management Information System realisiert: Business &<br />

Management Semantik, Informationssystem, Informationstechnik. Das Design<br />

des Informationssystems basiert auf der REA-Ontologie und dem ECSI<br />

Standard, welcher Ressourcen, Geschäfts- und Managementprozesse in Produk-


tionsunternehmen explizit modelliert, um eine konsistente Daten- und Prozessmodellierung<br />

zu gewährleisten. Durch das Design und die prototypische Implementierung<br />

des Informationssystems mit Hilfe der Business Operationen des<br />

JBoss Seam Frameworks unter Java EE Technologie soll ein objekt- und prozessorientiertes<br />

IT System entstehen, das als Modul in der ERPControl Software<br />

zu sehen ist.<br />

Florian Ernstbrunner<br />

Graphisches Entscheidungsunterstützungssystem zur Ermittlung der optimalen<br />

Strategie zur Kapazitätsanpassung <strong>für</strong> eine Kapazitätseinheit<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Im Maschinen- und Anlagenbau sind KMUs im Vergleich zu Großunternehmen<br />

stärker von den Nachfrageschwankungen betroffen. Das Modell Kostenoptimale<br />

Kapazitätsanpassung durch ein Entscheidungsunterstützungssystem<br />

(EUS) nach Morawetz bietet eine Herangehensweise an diese Problematik. Um<br />

eine beispielhafte Umsetzung des Modells der kostenoptimalen Kapazitätsanpassung<br />

durch ein EUS zu zeigen, wird im Rahmen dieser Arbeit ein Prototyp<br />

- genannt Flexation-EUS (engl.: DSS, Decision support system) - entwickelt. Im<br />

Zuge der Entwicklung werden zwei Konzepte eingeführt. Das eine Konzept<br />

beschreibt eine Methodik, um manuell einen Kapazitätsplan anzupassen. Es<br />

wurde eine Anleitung verfasst, wie Maßnahmen ohne Optimierungsalgorithmus<br />

iterativ gesetzt werden können, bis das gewünschte Kapazitätsniveau<br />

erreicht wird. Diese Anleitung besteht aus fünf Fragenblöcken und entsprechenden<br />

Handlungsmöglichkeiten. Der Prototyp unterstützt den Benutzer<br />

bei der Beantwortung dieser Fragen. Das zweite graphisch-basierte Konzept<br />

beschreibt, wie der Kapazitätsplan aufgebaut ist und wie die Benutzer ihn<br />

bearbeiten können. Jenes bedient sich der Konzepte der Kapazitätshüllkurven,<br />

der Balkendiagramme und dem Verschieben von Elementen am Bildschirm<br />

durch ein visuelles Drag&Drop-Verfahren. Die Flexibilisierungsmaßnahmen, um<br />

deren bestmöglichen Einsatz es sich in dieser Arbeit dreht, beeinflussen<br />

einander in unterschiedlicher Weise und Umfang. Das Konzept der Maßnahmenbeeinflussungsmatrix<br />

(MBM) ist ein Hilfsmittel, um die gegen-seitigen<br />

Einflussnahmen festzuhalten. Es konnte, über die Methode Experten-interview,<br />

festgestellt werden, dass das Flexation-EUS zwar noch nicht <strong>für</strong> den operativen<br />

Einsatz gerüstet ist, jedoch einen Schritt in die richtige Richtung darstellt, und<br />

es überdies dabei hilft, die Anzahl der Fehler zu reduzieren.<br />

83


Kadriye Kaya<br />

Übersetzung des ISO 31000 Risikomanagement-Standards in Prozess- und<br />

Datenmodelle<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />

Mit der Globalisierung und in folge, dem steigenden Wettbewerbsdruck finden<br />

sich Unternehmen mit erhöhten, existenzbedrohenden Risiken konfrontiert.<br />

Unternehmen erkennen die Wichtigkeit, Risiken frühzeitig zu identifizieren und<br />

entsprechend zu reagieren. Wir sehen, dass seit einigen Jahren von verschiedenen<br />

Seiten versucht wird Risikomanagementbegriffe, -prozesse und -abläufe<br />

zu standardisieren, sodass unterschiedlichste Unternehmen diese je nach ihren<br />

Anforderungen in ihre Organisation integrieren und so effektives Risikomanagement<br />

betreiben können. Eines der wichtigsten und umfangreichsten dieser<br />

Versuche, stellt der ISO 31000 Standard <strong>für</strong> Risikomanagement dar, welches<br />

Thema dieser Arbeit ist. In dieser Arbeit werden Managementprozesse des<br />

Risikomanagements, nach dem ISO 31000 Standard als implementierbare<br />

Prozessmodelle vorgestellt. Es wird anhand eines Beispiels gezeigt, wie ein<br />

Risikomanagementsystem nach dem ISO 31000 Standard operieren kann.<br />

Alexander Plank<br />

Innovationsmanagement an renommierten technischen Universitäten<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Univ.Prof. Dr. Sabine Theresia Köszegi<br />

84<br />

Um dem vermehrten internationalen Wettbewerb adäquat begegnen zu können,<br />

sind Innovationen, nachhaltige Innovationsprozesse, sowie die Intensivierung<br />

des Wissens- und Technologietransfers in zukunftsorientierten Branchen<br />

und Unternehmen von essentieller Bedeutung. Die erforderlichen Maßnahmen<br />

zur stetigen Wachstumssicherung und strategischen Differenzierung,<br />

sowie die Identifizierung der notwendigen Faktoren zur Festigung und<br />

Erhöhung der Innovationsfähigkeit und die gezielte Entwicklung von Innovationen<br />

sind wesentliche Bestandteile eines strategisch geregelten Innovationsmanagements.<br />

Da der Fokus bisheriger Untersuchungen weitestgehend auf<br />

das betriebliche Innovationsmanagement ausgerichtet ist, erhebt diese Arbeit,<br />

wie renommierte technische Universitäten in Europa das Management von<br />

Innovationen und den damit verbundenen Wissens- und Technologietransfer<br />

handhaben. Es werden hierbei jene Faktoren ermittelt, die <strong>für</strong> erfolgreiche<br />

Leistungen in diesen Bereichen von essentieller Bedeutung sind und welche<br />

Einflüsse auf diese Leistungen einwirken. Die sich aus diesem Kontext<br />

abgeleitete erste Forschungsfrage beschäftigt sich somit mit der Definition<br />

relevanter Leistungskriterien, anhand derer man ein erfolgreiches Innovationsmanagement<br />

bzw. einen effektiven Wissens- und Technologietransfer messbar<br />

machen kann. Eine zweite Forschungsfrage analysiert schließlich den Umgang<br />

ausgewählter Universitäten mit diesem Themenbereich und deckt mögliche<br />

Zusammenhänge zu den zuvor definierten Leistungsgrößen auf. Nach einer


sekundären und primären Datenerhebung wird eine empirische Untersuchung,<br />

sowohl mit Hilfe einer quantitativen, als auch qualitativen Benchmarkanalyse<br />

durchgeführt, welche durch den Vergleich der technischen Universitäten die<br />

Beantwortung beider Forschungsfragen ermöglicht. Im Rahmen des Universitätsvergleichs<br />

werden die Leistungsunterschiede zwischen den untersuchten<br />

Benchmarking Partnern aufgezeigt.<br />

Armin Preis<br />

Integrated Enterprise Risk and Resilience Management - Integrated Planning<br />

and Control Framework<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />

The postmodern socioeconomic system is coined by an unprecedented<br />

interdependency of organizations around the whole globe. Companies have to<br />

become more resilient to survive crises and more efficient to stay successfully<br />

in business under the pressure of worldwide competition at the same time. The<br />

goal of this thesis is to develop a cybernetic risk and resilience management<br />

framework that allows to plan and control internal risks and to prepare for<br />

external risks so that a more competitive business strategy can be applied. The<br />

scientific research approach is the Design Science Methodology that is divided<br />

into three major parts. The first one is a literature analysis on risk and resilience<br />

management to evaluate current standards and trends in these management<br />

domains. In the second part cybernetic risk and resilience management<br />

frameworks are developed. The integration of the developed management<br />

frameworks into a cybernetic enterprise wide risk and resilience management<br />

framework as well as an evaluation constitute the final part of the research<br />

process. As results, the ISO 31000 Risk Management Standard and the ASIS<br />

Organizational Resilience Management Standard were modeled as Cybernetic<br />

Management Frameworks, existing management theories were integrated into<br />

the new Recursive Cybernetic Management Model (RCMM), and the Enterprise<br />

Resilience Management Meta-Framework (ERM-MF) was developed. The ERM-<br />

MF facilitates the steering of enterprise resilience by managing risks on and<br />

resilience of assets as well as the quality of management processes.<br />

Thomas Womser<br />

Are Trademarks an Indicator for Innovation?<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Privatdoz. Dr. Karl-Heinz Leitner<br />

The relevance of trademarks has significantly increased within innovation literature.<br />

However the motives behind the application of trademarks for innovations<br />

are currently barely investigated. Therefore this master thesis aims at<br />

analysing Austrian firms trademarking behaviour to reveal novel insights<br />

regarding the relationship between trademarks and innovation. Thereby the<br />

85


esearch questions about the appropriateness of trademarks as innovation<br />

indicator and the revelation of factors which influence firms trademarking<br />

behaviour are discussed in detail. Within an extensive literature analysis<br />

trademarks are analysed from three different literature strands marketing,<br />

strategic and innovation literature. Further descriptive statistics of the Community<br />

Trademark Database are conducted. Methodologically the empirical part of<br />

the study is based on qualitative interviews of Austrian firms. The sample of<br />

interviewed firms is carefully selected from the Community Trademark Database<br />

with the assistance of a multiple criteria catalogue, drawn up from insights<br />

of the literature and statistical analysis. Thereby a qualitative assessment of the<br />

relationship between innovation and trademark registration has been undertaken.<br />

Furthermore multiple factors of trademarking behaviour for innovations<br />

could be qualitatively observed and a framework for assessing innovative<br />

trademarking behaviour, which consists of factors of the competitive environment<br />

and internal firm factors, is proposed.<br />

Stefan Zimper<br />

Alignment of process, product and organisational innovations in the<br />

manufacturing industry<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: Privatdoz. Dr. Karl-Heinz Leitner<br />

Innovation is considered the base for economic success, what requires an<br />

active managerial commitment to establish environmental conditions that<br />

facilitate innovative behaviour and therefore ensure a sustainable existence of<br />

the firm. However, there is much debate in the literature whether companies<br />

should focus on one form of innovation or combine different innovative<br />

activities at the same time. Only a few publications have focussed on this multidimensional<br />

and combinatory perspective of innovation strategy yet, whereas<br />

less empirical studies have been conducted so far that also took financial<br />

performance into consideration. Based on broad recent empirical data of the<br />

European Manufacturing Survey (EMS) 2009 and 2012 for Austria this thesis<br />

should provide insight into the innovation strategy financial performance<br />

relation to find out if companies that focus on more dimensions of innovation<br />

actually achieve better financial results. Furthermore it is a focus of this work to<br />

assess factors that significantly influence strategic innovation choices and to<br />

find out whether industry classification also plays an important role in that<br />

sense. The literature research as well as the empirical part of this thesis<br />

highlighted that a more comprehensive view of innovation within the firm is<br />

needed, to properly react to environmental changes and ensure a sustainable<br />

existence of the firm. This paper found many determinants of firms innovative<br />

behaviour, whereas competitive/industry environment and international<br />

orientation have been identified as key factors influencing the choice of an<br />

appropriate innovation strategy. As a last key result it has been observed that<br />

companies that distribute their efforts across all types of innovations are likely<br />

to achieve better financial performance in terms of profitability.<br />

86


Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />

Yaroslav Barsoukov<br />

Development of GPICP, a GPU-only registration algorithm based on Iterative<br />

Closest Point<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Markus Vincze<br />

Der von Besl and McKay entwickelte ICP Algorithmus ist längst zum Goldstandard<br />

<strong>für</strong>s Lösen des Reqistrierungsproblems geworden. Nachdem sich die<br />

Programmierbarkeit der GPUs in der letzten Zeit erhöht hat, ist ihr paralleles<br />

Programmierungsmodel nun <strong>für</strong> ICP perfekt geeignet. Die vorliegende Arbeit<br />

setzt sich zum Ziel, eine Implementierung von ICP zu entwerfen, die völlig auf<br />

GPU ausgeführt werden könnte; die dabei entstehenden Probleme mit GPU<br />

Architektur werden gelöst, und die erhöhte Leistung wird da<strong>für</strong> benutzt, den<br />

Algorithmus selbst präziser zu machen.<br />

Bernhard Mathias<br />

Object modelling with a robot arm<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Markus Vincze<br />

Object learning and object recognition are general research topics in the<br />

robotics. This thesis deals with the problem of automating the learning process.<br />

A robot should be able to explore its environment and to learn new<br />

objects autonomously. For object modelling, an implementation of the V4R<br />

library (of the Vision for Robotics group, ACIN, <strong>TU</strong> Vienna) is used. A model<br />

combines image descriptors (SIFT) representing textures and point cloud<br />

descriptors (SHOT) to describe the 3-D shape of the object. The information<br />

stored in such models can be used to recognize objects in other scenarios<br />

again (even amongst many other objects). In order to get 2-D RGB as well as 3-<br />

D depth images, the Microsoft Kinect camera is used within this project. To<br />

move the objects in front of the camera, a robotic arm of the type Neuronics<br />

Katana 450 is used. A trajectory as optimally as possiple is necessary to receive<br />

a complete model. The completeness of a model can be checked with the<br />

probability sphere already implemented in V4R. The probability sphere is a<br />

platonic body where the surface consists of several triangular faces. These<br />

faces represent different viewpoints relative to the object. Colours represent<br />

the completeness of the model from the according direction. White faces<br />

indicate a high probability to detect the object from this viewpoint and black<br />

faces indicate missing viewpoints. Grey-shaded faces represent partially<br />

observed viewpoints. There are several subproblems within this project, for<br />

example, the determination of the robot arm pose within the camera<br />

coordinates (camera calibration) or the topic of how to control the arm with an<br />

optimal trajectory. Also image processing is an important topic within this<br />

87


thesis. For example, the object must be segmented out of the 3-D data stream<br />

received from the Microsoft Kinect sensor. It is not allowed to learn parts of the<br />

arm or some background information together with the object.<br />

Matthias Rodler<br />

Visualization of a Multi-Agent System<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Univ.Prof. Georg Schitter<br />

Zurzeit werden Batch-Prozesse sehr häufig in der chemischen und pharmazeutischen<br />

Industrie eingesetzt. Durch die festgelegten Vorgaben im Ablauf haben<br />

sie aber nur sehr eingeschränkte Möglichkeiten um sich einem stetig<br />

ändernden Umfeld anzupassen. Der Einsatz von autonomen Agenten bietet<br />

hier eine neue Möglichkeit um Prozesse bei Veränderungen im Umfeld zu<br />

adaptieren und deren Vorgänge zu optimieren. Leider hat sich dieser neue<br />

Ansatz noch nicht durchgesetzt. Dies wird vor allem darauf zurückgeführt, dass<br />

die Steuerung komplexer Anlagen - durch autonome Agenten - <strong>für</strong> den Anwender<br />

schwer durchschaubar ist und dadurch das nötige Vertrauen in<br />

autonome Agenten noch nicht gewonnen werden konnte. Um ein Multi-<br />

Agenten System jedoch verstehen zu können sollte der Anwender zum einen<br />

das Verhalten jedes einzelnen Agenten und zum anderen das Verhalten des<br />

Gesamtsystems überblicken können. Im Zuge dieser Magisterarbeit wurde eine<br />

Visualisierung entwickelt, welche das Verhalten und die Kommunikation eines<br />

Multi-Agenten Systems <strong>für</strong> den Anwender verständlich grafisch wiedergibt. Das<br />

Institut <strong>für</strong> Automatisierungs- und Regelungstechnik (ACIN) nutzt Automationsagenten,<br />

um die physikalischen Komponenten einer Anlage zu steuern<br />

und die Batchprozesse zu optimieren. Ein Automationsagent, das Kernstück<br />

ihrer Architektur, agiert selbstständig basierend auf seinem Wissen, indem er<br />

Produktionsumfeld und -bedingungen analysiert und einen Schlussfolgerungsprozess<br />

auslöst. Diese Anlage wurde als Referenz herangezogen um die<br />

Funktionstauglichkeit der Visualisierung zu testen und soll im Weiteren<br />

gemeinsam mit der Visualisierung dazu dienen, um Studenten Multi-Agenten<br />

Systeme näher zu bringen.<br />

88


Institut <strong>für</strong> Computertechnik<br />

Rene Formanek<br />

Triebgesteuerte Fauna <strong>für</strong> Artificial Life Simulation<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />

Bei der triebgesteuerten Fauna <strong>für</strong> Artificial Life Simulation handelt es sich um<br />

Software-Agenten, welche die Simulationsumgebung des Artificial Recognition<br />

System (ARS) Projekts des Instituts <strong>für</strong> Computertechnologie der <strong>Technische</strong>n<br />

Universität in <strong>Wien</strong> erweitern. Im ARS-Projekt wird eine kognitive Architektur<br />

entwickelt, deren Entscheidungsfindung an die des menschlichen mentalen<br />

Apparats angelehnt ist. Hier<strong>für</strong> werden psychoanalytische Theorien als Basis <strong>für</strong><br />

die Architektur verwendet. Das Verhalten der Agenten, die diese Kontrollarchitektur<br />

verwenden, soll dabei menschenähnlich sein. Da Architekturen <strong>für</strong> künstliche<br />

Intelligenz - insbesondere jene, deren Agenten menschenähnliches Verhalten<br />

zeigen sollen - nicht ausreichend durch klassische Software Engineering-Techniken<br />

getestet werden können, müssen menschliche Beobachter das Verhalten der<br />

Agenten bewerten. Diesen Beobachtern muss zur Beurteilung der Fähigkeiten und<br />

Verhaltensweisen eine Simulationsumgebung mit ausreichend vielfältigen und<br />

komplexen Möglichkeiten <strong>für</strong> Testszenarien zur Verfügung gestellt werden. In der<br />

vorliegenden Arbeit wurde eine triebgesteuerte Fauna entwickelt, deren Agenten<br />

mit einer künstlichen Intelligenz ausgestattet sind, die auf die grundlegenden<br />

körperlichen Bedürfnisse von Tieren reagiert. Diese Agenten wurden in einem<br />

Belief-Desire-Intention-Framework entwickelt und werden über Properties-Dateien<br />

angepasst. In der Simulationsumgebung wird das Verhalten der Agenten<br />

visualisiert, um Änderungen der Konfiguration nachzuvollziehen. Da sie den<br />

gleichen Simulator <strong>für</strong> die Simulationsumgebung verwenden, können die<br />

Agenten in die Artificial Life Simulation des ARS-Projekts integriert werden.<br />

Dadurch werden die Möglichkeiten, die Testern im Simulator geboten werden,<br />

erweitert und die Erstellung von zusätzlichen Testszenarien wird vereinfacht.<br />

Michael Jahoda<br />

Eine berührungslose Benutzerschnittstelle in der Gebäudeautomation und<br />

Analyse ihrer Benutzbarkeit<br />

Studium: Masterstudium Business Informatics<br />

BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />

Die Mehrheit der Benutzerschnittstellen im Bereich der Gebäudeautomation<br />

basiert auf handbetätigten Steuerelementen. Körperlich eingeschränkten<br />

Personen hingegen fehlt oft die Fähigkeit bzw. die Kraft, Schalter oder Knöpfe<br />

selbstständig zu betätigen. Eine neue Form der Interaktion mit Systemen der<br />

Gebäudeautomation wird benötigt, um Personen mit körperlichen Einschränkungen<br />

in ihrem Alltag zu unterstützen. In dieser Arbeit wurde eine berührungslose<br />

Benutzerschnittstelle erstellt, die es Benutzern mit einem Mangel an<br />

89


physischer Kraft und mangelnder Bewegungsfreiheit erlaubt, mit klassischen<br />

Kontrollelementen der Gebäudeautomation zu interagieren. Die Benutzerschnittstelle<br />

kann berührungsfrei mit Kopfgesten bedient werden. Der Benutzer<br />

kann mit definierten Gesten, die mit einer Standard-Webcam erfasst werden, mit<br />

dem System interagieren. Weiters soll es jedem Benutzer ermöglicht werden,<br />

individuelle Befehlsgesten zu definieren, um unabhängig von der Art der<br />

Beeinträchtigung, die bestmögliche Benutzbarkeit sicherzustellen. Die Umsetzung<br />

der Gestenerkennung basiert auf den empfangenen Daten der Facetracking-<br />

Engine faceAPI von SeeingMachines. Die Bewegungen des Kopfs werden erfasst<br />

und mit den im System gespeicherten Befehlsgesten verglichen. Wurde eine<br />

Geste eindeutig identifiziert, wird der korrespondierende Befehl vom System<br />

ausgeführt. Es wurde weiters ein Aufzugssimulator implementiert, mit dem das<br />

Verhalten eines echten Aufzugs simuliert werden soll. Anhand des Aufzugsimulators<br />

wurde das System mit Hilfe von Testpersonen, unter anderem mit körperlich<br />

beeinträchtigten Benutzern, bezüglich ihrer Benutzbarkeit evaluiert. Im Rahmen<br />

des Benutzertests hat sich die Praxistauglichkeit dieser Benutzerschnittstelle<br />

erwiesen. Durchschnittlich wurden 95% aller durchgeführten Gesten korrekt von<br />

der gestenbasierten Benutzerschnittstelle erfasst.<br />

Andreas Platschek<br />

Hypervisor Based Composable Systems for the Automotive Industry<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />

90<br />

Genau wie die Luftfahrt Industrie ist derzeit auch die Automobil Industrie im<br />

Umbruch, und beginnt mehrere ECUs (Error Containment Units) in einen Hardware<br />

Knoten zu integrieren. Bei diesem Ansatz ist es jedoch äußerst wichtig, dass die<br />

Unabhängigkeit der Applikationen die meist auch unterschiedliche Sicherheitsanforderungen<br />

(sowohl Safety als auch Security) haben erhalten bleibt. Die<br />

Unabhängigkeit wird durch Isolation, das heißt zeitliche sowie räumliche<br />

Trennung erreicht und wird durch geeignete Kommunikationsmechanismen, die<br />

keines dieser Isolationskriterien stören dürfen, ergänzt. Der Ansatz erlaubt, durch<br />

die Isolation die Safety- und Security-Eigenschaften zu erhalten und ermöglicht so<br />

die modulare Validierung sowie die modulare Zertifizierung von Software. Die<br />

Arbeit versucht, die Safety-Kriterien, die von der Automobil Industrie gefordert<br />

werden, mit Hilfe von FLOSS (free/libre open source software) zu erfüllen. Die<br />

gewählte Vorgehensweise ist, basierend auf dem XtratuM2 Hypervisor mehrere<br />

unabhängige Instanzen einer FLOSS-Implementierung der OSEK-Spezifikation<br />

(Offene Systeme und deren Schnittstellen <strong>für</strong> die Elektronik im Kraftfahrzeug)<br />

laufen zu lassen, wobei jede dieser Instanzen eine typische Applikation aus dem<br />

Automobil Bereich ausführt. Die resultierende Plattform erlaubt es, mehrere<br />

unabhängige Applikationen parallel laufen zu lassen, anstatt einen Hardware<br />

Knoten <strong>für</strong> jede der Applikationen zu verwenden. Dieser Ansatz reduziert die<br />

Anzahl der Knoten im Fahrzeug und führt so zu einer Reduktion des Gewichtes<br />

sowie des Stromverbrauchs. Weiters wird die Ausnutzung der Ressourcen, die<br />

moderne CPUs zur Verfügung stellen, verbessert und die Kommunikation<br />

zwischen Applikationen vereinfacht.


Medizinische Universität <strong>Wien</strong><br />

Mario Brandmüller<br />

Design und Realisierung eines Versionierungssystems <strong>für</strong> das<br />

Tumordokumentationssystem HNOOncoNet - Versionierbares<br />

Persistenzframework<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster<br />

Diese Diplomarbeit beschreibt die Erstellung eines versionierbaren Persistenz-<br />

Frameworks zur versionierten Speicherung von hierarchischen Objektstrukturen.<br />

Da<strong>für</strong> werden zu versionierende Entitäten des Tumordokumentationssystems<br />

HNOOncoNet als Ausgang herangezogen, um auf deren Grundlage ein<br />

allgemeines Versionierungskonzept <strong>für</strong> das Persistieren hierarchischer Objektstrukturen<br />

zu entwerfen und in weiterer Folge in Form einer Implementierung<br />

einer Persistenz-Framework-Erweiterung umzusetzen. Exemplarisch werden<br />

anhand des existierenden HNOOncoNet-Systems Anforderungen an ein<br />

solches Versionierungskonzept <strong>für</strong> dynamische Web-Anwendungen erstellt. Zu<br />

diesen Anforderungen wird ein Konzept zur versionierten Speicherung von<br />

hierarchischen Objektstrukturen auf Basis des Hibernate-Erweiterungsmoduls<br />

names Envers vorgeschlagen. Dieses vorgestellte Konzept wird dann in Hinblick<br />

auf seine Speicherplatznutzung optimiert. Diese Optimierung zielt auf das<br />

Unterbinden der ungewollten mehrfachen Speicherung von identen Zuständen<br />

der zu persistierenden Entitäten ab, das bedingt durch die notwendige<br />

Aufrechterhaltung einer Ordnung der Revisionsnummern von Objekten<br />

innerhalb einer Objektstruktur im Falle des ersten Ansatzes auftreten kann.<br />

Erreicht wird dies durch eine Teilung der Zustandsbeschreibung in einen<br />

Verwaltungsteil und in einen Datenteil. Für diesen optimierten Ansatz wird<br />

dann noch eine Implementierung in Form einer Erweiterung des Hibernate-<br />

Erweiterungsmoduls Envers präsentiert. Diese bietet als Bestandteil der<br />

Persistenzschicht die angestrebte Funktionalität zur versionierten Speicherung<br />

von hierarchischen Objektstrukturen <strong>für</strong> auf Hibernate aufbauende dynamische<br />

Web-Anwendungen.<br />

91


Index der Autorinnen und Autoren<br />

Ahmetaj Shqiponja - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />

Based Systems<br />

Arbesser Clemens - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Aster Maximilian Robert - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database<br />

and Artificial Intelligence<br />

Auernig Christoph - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Bacher Christopher - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Baltaci Ilker - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-<br />

Commerce<br />

Barsoukov Yaroslav - Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />

Bartl Florian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Beck Harald - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />

Systems<br />

Beyer Stefanie - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Binder Johann - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Bodesinsky Peter Michael - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Böhm Sebastian - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Bors Christian - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Brandmüller Mario - Medizinische Universität <strong>Wien</strong><br />

Bressler Michael - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Brückl Andreas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Bruckner Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Busoniu Paula-Andra - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />

Based Systems<br />

Dabernig Josef - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Dabrowski Adrian Marek - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Diesenreiter Simon - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Multidisciplinary Design<br />

Djalili Manuel - Institut <strong>für</strong> Managementwissenschaften<br />

Djamiykova Denitsa - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />

Systems<br />

92


Do Duc Hoa - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Dural Ömer Faruk - Institut <strong>für</strong> Managementwissenschaften<br />

Erkinger Christoph - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Ernstbrunner Florian - Institut <strong>für</strong> Managementwissenschaften<br />

Fellner Jakob Matthias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Fink Heinrich - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Fischer Fabian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Fischl Wolfgang - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Formanek Rene - Institut <strong>für</strong> Computertechnik<br />

Franz Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Business Informatics<br />

Frühwirt Peter - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Fuchs Christoph - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Fürst Rene - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Galler Jürgen - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Gavrilete Constantin-Claudiu - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich<br />

Distributed Systems<br />

Gisperg Karin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />

VisionKeglevic Manuel - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Computer Vision<br />

Grötz Gerald - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen<br />

und Übersetzer<br />

Hagmann Andreas - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Hava Thomas - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />

Hofstätter Harald - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Hofstätter Markus - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Hohenwarter Christoph - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />

Systems<br />

Hörmann Andreas - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Multidisciplinary DesignHartl Katharina - Institut <strong>für</strong> Gestaltungs- und<br />

Wirkungsforschung, Arbeitsbereich Human Computer Interaction<br />

Jahoda Michael - Institut <strong>für</strong> Computertechnik<br />

Kaltenriner Christoph - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Kaya Kadriye - Institut <strong>für</strong> Managementwissenschaften<br />

93


Kaya Öncü Pinar - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

E-Commerce<br />

Kececi Daniel - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Kernegger Karin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Computer Vision<br />

Kier Christof - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Kordomatis Iraklis - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Krejci Robert - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Kühnl Stephanie - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Lederer Nadja - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />

<strong>Informatik</strong> und Logik<br />

Leichtfried Michael - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Lenzhofer Andreas - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Linsbichler Thomas - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Lux Marian - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische <strong>Informatik</strong><br />

und Logik<br />

Maly Manuel - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Margreiter Gerald - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Business Informatics<br />

Margulies Eduard Rudolf - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich<br />

Distributed Systems<br />

Maricic Ivan - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Maschler Johannes - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Mathias Bernhard - Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />

Mayerhuber Felix - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Meier-Stauffer Aaron - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Messlehner Philip - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

E-Commerce<br />

Miller Bernhard - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Morgenbesser Sebastian - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database<br />

and Artificial Intelligence<br />

Müllner Barbara - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Nasufi Aqif - Institut <strong>für</strong> Managementwissenschaften<br />

94


Neukam David - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Novotny Johannes - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Nowak Rene - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />

Oberhauser Arthur - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Ofner Joachim - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />

Vision<br />

Opitz Michael - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />

Vision<br />

Pados Karoly David - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Panhofer Paul - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Parzer Simon - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Pavlovic Matej - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Perner Martin - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Pfeifhofer Christian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Plank Alexander - Institut <strong>für</strong> Managementwissenschaften<br />

Platschek Andreas - Institut <strong>für</strong> Computertechnik<br />

Pönitz Thomas - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />

Vision<br />

Pramerdorfer Christopher - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Computer Vision<br />

Preis Armin - Institut <strong>für</strong> Managementwissenschaften<br />

Putzenlechner Markus - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Rainer Matthias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Renner Thomas - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Rodler Matthias - Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />

Ryba Gregor - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Sabau George - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />

<strong>Informatik</strong> und Logik<br />

Schmid Thomas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Schnabl Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Schreder Bernhard - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />

Systems<br />

Sereinig Martin - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

95


Skackov Michal - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Business Informatics<br />

Sölkner Martin - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />

Staroch Paul - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Stashuk Oleksandr - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />

Based Systems<br />

Steyskal Simon - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />

Systems<br />

Stödtner Christina - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

E-Commerce<br />

Stütz Martin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Tschach Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Valy Viktor Albert - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Voglsam Günther - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Volko Claus-Dieter - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Weidinger Gerald - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />

Based Systems<br />

Weidinger Jürgen - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Weiss Christian - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Weissenbach Paul Christian - Institut <strong>für</strong> Konstruktionswissenschaften und<br />

<strong>Technische</strong> Logistik<br />

Winkler Kyrill - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Wolny Sabine - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Business Informatics<br />

Womser Thomas - Institut <strong>für</strong> Managementwissenschaften<br />

Wrubel Boris - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Wruß Thomas - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Yan Chin-Han - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und Umweltplanung<br />

Zehetner Christoph - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Business Informatics<br />

Zheng Min - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Zimper Stefan - Institut <strong>für</strong> Managementwissenschaften<br />

96


Alle in diesem <strong>Band</strong> angeführten <strong>Abstract</strong>s stammen von den AutorInnen<br />

der jeweiligen Diplomarbeit. <strong>Abstract</strong>s der Diplomarbeiten werden von den<br />

BetreuerInnen approbiert.<br />

IMPRESSUM<br />

Zentrum <strong>für</strong> Koordination und Kommunikation<br />

der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

1040 <strong>Wien</strong>, Favoritenstraße 9/195<br />

www.informatik.tuwien.ac.at<br />

Konzept: DI Karin Hraby<br />

(c) 2013 <strong>Technische</strong> Universität <strong>Wien</strong><br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>


<strong>Technische</strong> Universität <strong>Wien</strong><br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

1040 <strong>Wien</strong>, Favoritenstraße 9-11/195<br />

T: +43-1-58801-19501<br />

F: +43-1-58801-19599<br />

E: sek@zkk.tuwien.ac.at

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!