30.01.2014 Aufrufe

Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...

Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...

Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

EPILOG<br />

Die Diplomarbeitspräsentation der<br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Wintersemester 2011


Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von


EPILOG<br />

Diplomarbeitspräsentation<br />

Das breite Themenspektrum und die vielfältigen Aufgabenstellungen der<br />

Abschlussarbeiten an der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> werden jedes Semester beim<br />

EPILOG präsentiert. In einer Posterausstellung sowie in ausgewählten Vorträgen<br />

präsentieren die AbsolventInnen der <strong>Fakultät</strong> ihre Projekte und stellen sich der<br />

Diskussion mit den Anwesenden. Der EPILOG als Plattform <strong>für</strong> die Präsentation<br />

hervorragender Abschlussarbeiten dient gleichzeitig dem Austausch über die<br />

aktuelle wissenschaftliche Forschung in den unterschiedlichen Bereichen der<br />

<strong>Informatik</strong>.<br />

Auszeichnungen und Preise<br />

Die Jury setzt sich aus den BetreuerInnen der nominierten Diplomarbeiten des<br />

letzten halben Jahres zusammen. Sie verleiht an eine/n der Vortragenden den mit<br />

4.000 Euro dotierten „Distinguished Young Alumnus/Alumna”-Award der <strong>Fakultät</strong><br />

<strong>für</strong> <strong>Informatik</strong>. Beurteilungskriterien sind die Qualität der Diplomarbeit sowie des<br />

gehaltenen Vortrags.<br />

Das beste Poster aller beim EPILOG anwesenden AutorInnen wird mit dem „Best<br />

Poster“-Award in der Höhe von 1.000 Euro ausgezeichnet. Zudem vergibt die Bank<br />

Austria den Firmenpreis „Poster-Award sponsored by Bank Austria“ in der Höhe von<br />

1.000 Euro an ein weiteres Poster.<br />

Lehrenden-Award<br />

Die Fachschaft <strong>Informatik</strong> zeichnet Lehrende der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> in den<br />

Kategorien Beste Lernunterlagen, Beste Übungsunterstützung, Bester Vortrag und<br />

Beste Wissensvermittlung aus.<br />

1


Programm 1. Dezember 2011<br />

15:00 Eröffnung der Posterausstellung<br />

16:00 Begrüßung und Einleitung<br />

Gerald Steinhardt, Dekan der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>, <strong>TU</strong> <strong>Wien</strong><br />

16:15 Vorträge zu den nominierten Diplomarbeiten<br />

17:15 Videopräsentation aus der Lehrveranstaltung<br />

Multimedia-Produktion<br />

Julian Pölsler<br />

Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, <strong>TU</strong> <strong>Wien</strong><br />

17:45 Verleihung des Lehrenden-Award<br />

18:00 Vergabe der Auszeichnungen an die AbsolventInnen<br />

2


Vorträge zu den nominierten Diplomarbeiten<br />

Angelika Garz<br />

Efficient Layout Analysis of Ancient Manuscripts Using Local Features<br />

Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer Vision<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 68<br />

Georg Gerstweiler und Emanuel Vonach<br />

Development of an Active Motion Capture Suit for Teaching Motion Skills<br />

Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive<br />

Media Systems<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 16<br />

Markus Kammerstetter<br />

Real-time Encrypted Speech Communication Over Low <strong>Band</strong>width Channels<br />

Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 74<br />

Patrick Sabin<br />

Implementing a Reversible Debugger for Python<br />

Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen und<br />

Übersetzer<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 57<br />

Georg Seitz<br />

Logics for Coalitional Games of Imperfect Information<br />

Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />

<strong>Abstract</strong> der Diplomarbeit siehe Seite 52<br />

3


DIPLOMARBEITEN<br />

Institute der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme ........................................... 7<br />

Arbeitsbereich E-Commerce ........................................................................... 7<br />

Arbeitsbereich Business Informatics .............................................................. 12<br />

Arbeitsbereich Interactive Media Systems ...................................................... 14<br />

Arbeitsbereich Information & Software Engineering ...................................... 20<br />

Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung............................................... 32<br />

Arbeitsbereich Human Computer Interaction ................................................. 32<br />

Arbeitsbereich Multidisciplinary Design ......................................................... 37<br />

Institut <strong>für</strong> Computergraphik und Algorithmen ................................................. 39<br />

Arbeitsbereich Computergraphik .................................................................. 39<br />

Arbeitsbereich Algorithmen und Datenstrukturen .......................................... 45<br />

Institut <strong>für</strong> Computersprachen ........................................................................ 51<br />

Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik ......................................... 51<br />

Arbeitsbereich Programmiersprachen und Übersetzer .................................... 54<br />

Institut <strong>für</strong> Informationssysteme ...................................................................... 60<br />

Arbeitsbereich Knowledge Based Systems ..................................................... 60<br />

Arbeitsbereich Database and Artificial Intelligence ........................................ 62<br />

Arbeitsbereich Distributed Systems ............................................................... 64<br />

Institut <strong>für</strong> Rechnergestützte Automation ......................................................... 68<br />

Arbeitsbereich Computer Vision ................................................................... 68<br />

Arbeitsbereich Automatisierungssysteme ...................................................... 69<br />

Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> .................................................................... 90<br />

Arbeitsbereich Embedded Computing Systems ............................................. 90<br />

Arbeitsbereich Real Time Systems................................................................. 91<br />

5


Andere Institute der <strong>TU</strong> <strong>Wien</strong><br />

Institut <strong>für</strong> Computertechnik ........................................................................... 94<br />

Institut <strong>für</strong> Managementwissenschaften ........................................................... 95<br />

Department <strong>für</strong> Raumentwicklung, Infrastruktur- und Umweltplanung .............. 101<br />

Institut <strong>für</strong> Geoinformation und Kartographie ................................................. 104<br />

Institut <strong>für</strong> Wirtschaftsmathematik ................................................................. 105<br />

Institut <strong>für</strong> Analysis und Scientific Computing ................................................. 107<br />

Institut “integriert studieren” ........................................................................ 111<br />

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen<br />

Universität <strong>Wien</strong> .......................................................................................... 114<br />

Medizinische Universität <strong>Wien</strong> ....................................................................... 115<br />

Wirtschaftsuniversität <strong>Wien</strong> ........................................................................... 119<br />

6


Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme<br />

Arbeitsbereich E-Commerce<br />

Johannes Daxböck<br />

Competence Cockpit<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

Competences management plays an important role in efforts to achieve<br />

certain goals and nowadays overlaps with related domains like knowledge<br />

management and learning management. But often it does not take into<br />

account that everyday actions can provide valuable resources for competence<br />

management processes. These actions need to be formalized and made<br />

actionable through different measurement and aggregation methods.<br />

Competence Cockpit, a framework to support different resources and<br />

methods for competence management processes is presented in this thesis.<br />

The framework is based on the content management system Drupal and<br />

fulfills requirements for openness, customizability and modularity to ensure<br />

the carrying out of four core competence management processes: (1)<br />

competence identification, (2) competence measurement, (3) competence<br />

development and (4) competence usage. It can be used to build specific<br />

competence management systems for certain domains, allowing to focus<br />

their development on intrinsically domain specificities. To achieve this,<br />

Competence Cockpit can tap into different internal and external resources for<br />

either competence measurement, development or usage. These resources,<br />

managed by the underlying content management system, are used to build<br />

evidences, which subsequently can be used for competence profile<br />

calculations. The methods for competence measurement from different<br />

resources and profile calculation are exchangeable. Further the framework<br />

allows concepts of already existing competence ontologies to be imported<br />

and reused. The customizability and modularity of term{Competence Cockpit}<br />

was evaluated by setting up an example system in the university domain, with<br />

domain specific resources and measurement methods as well as by<br />

implementing additional modules using the interface opportunities provided<br />

by the framework. Finally ideas and approaches for additional enhancements<br />

and future development of Competence Cockpit are discussed.<br />

7


Igor Fodor<br />

Usability-Analyse des Oracle SOA Composers mit Fokus auf die Business Rules<br />

Verwaltung<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Univ.Ass. Dr. Marco Zapletal<br />

In der SOA Suite 11.1.1.3.0 wurde erstmals der SOA Composer veröffentlicht<br />

- ein Webinterface <strong>für</strong> die Überwachung und Bearbeitung von Oracle Business<br />

Rules. Dieses Interface ist besonders interessant, da es Modifikationen der<br />

Business Rules beim laufenden Prozess ermöglichen soll. Business Rules sind<br />

Entscheidungspunkte bzw. In dieser Arbeit wird die Nutzbarkeit von Oracle<br />

Business Rules und des SOA Composers anhand eines praktischen Beispiels<br />

evaluiert. Im speziellen soll herausgefunden werden, ob Oracle Business<br />

Rules auch von nicht IT-Profis während der Laufzeit mit Hilfe des SOA<br />

Composers bearbeitet werden können. Für diesen Zweck wird ein<br />

Geschäftsprozess aus der Printmedienbranche formalisiert und anschließend<br />

mit Hilfe der Implementierungs- und Laufzeittools aus der Oracle SOA Suite<br />

implementiert. Der Geschäftsprozess ist aus einer Sitzung mit Vertretern eines<br />

Zeitungsverlags entstanden. Der gesamte Implementierungsprozess wird<br />

ausführlich diskutiert und einzelne Implementierungsdetails herausgegriffen.<br />

Besonderes Augenmerk wird auf die Implementierung der Business Rules<br />

gerichtet. Nach der Implementierung eines lauffähigen Prototyps werden die<br />

Begriffe Usability und Usability Engineering untersucht und passende<br />

Evaluierungsmethoden <strong>für</strong> die Usability- Analyse des SOA Composers<br />

ausgesucht. Um die Schwachstellen im Userinterface des SOA Composers<br />

aufzudecken, werden zwei realitätsnahe Szenarios und eine Persona<br />

entworfen. Danach wird der SOA Composer mit Hilfe von Cognitive<br />

Walkthrough und Heuristic Evaluation analysiert. Die Resultate aus diesen<br />

Analysen werden in einer tabellarischen Form präsentiert und mit Severity<br />

Ratings bewertet. Die Analyse deckt viele Problembereiche im Userinterface<br />

des SOA Composers auf und zeigt, dass sich die Usability-Schwachstellen des<br />

Composers negativ auf die Bedienung durch nicht IT-Personal auswirken<br />

können.<br />

Erich Heil<br />

Wissenserwerb und Data Mining anhand von österreichischen<br />

Sozialversicherungsdaten am Beispiel des touristischen Arbeitsmarktes<br />

Studium: Masterstudium Information & Knowledge Management<br />

Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl<br />

8<br />

Durch die rasante technische Entwicklung der letzten Jahre und den Umstand,<br />

dass heutzutage fast jede Handlung durch ein elektronisches Gerät erfasst<br />

und als Eintrag in einer Datenbank gespeichert wird, gibt es in unserer Zeit<br />

eine Vielzahl an elektronischen Informationen über jede Person. Mit der<br />

Arbeitsmarktdatenbank (AMDB) des bmask1/AMS2 steht wissenschaftlichen


Institutionen in Österreich eine äußerst umfangreiche und detaillierte<br />

Datenquelle <strong>für</strong> Analysen und zur Visualisierung des österreichischen<br />

Arbeitsmarktes zur Verfügung. In der AMDB sind die<br />

sozialversicherungsrechtlich relevanten Arbeitsmarktpositionen der<br />

Österreicherinnen und Österreicher verzeichnet. Dadurch ist es möglich den<br />

Verlauf von Arbeitsmarktkarrieren auf Individualebene nachzuvollziehen. Es<br />

kann zum Beispiel der Wechsel von Arbeitslosigkeit in Beschäftigung, der<br />

Wechsel von einer Branche in die andere oder auch das erzielte Einkommen<br />

eines Individuums ausgemacht und analysiert werden. In dieser Arbeit wird<br />

der KDD3 Prozess auf einen Ausschnitt dieser Daten angewandt, um die<br />

Beschäftigung im Tourismus zu beleuchten. Schrittweise werden relevante<br />

Daten aus der Datenbank selektiert, Datenfehler und Ausreißer bereinigt und<br />

die Rohdaten in ein, <strong>für</strong> Data Mining Algorithmen nutzbares Format<br />

aggregiert und transformiert. Als letzer Punkt wird ein K-Means Algorithmus<br />

verwendet, um Gruppen in den Neueinsteigern und den Beschäftigten der<br />

Tourismusbranche eines Kalenderjahres zu finden.<br />

Matthias Hutterer<br />

Enhancing a Job Recommender with Implicit User Feedback<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

Recommender systems assist individual users in finding the right items in<br />

large option space. Absolventen.at, an Austrian job board for graduates, uses<br />

such a system for recommending appropriate jobs to applicants. So far, this<br />

system has only considered the resume as input for the user profile, which is<br />

compared with the available jobs. However, only around half of the registered<br />

job seekers fill out the resume, for the other half no personalized<br />

recommendations can be generated. To improve this, the recommender<br />

system has been enhanced with implicit relevance feedback and the impacts<br />

of this approach have been examined in this thesis. Implicit feedback can be<br />

captured in an unobtrusive way and allows the system to infer user<br />

preferences. Four different user actions for implicit feedback have been<br />

identified on Absolventen.at, including reading of a job description,<br />

bookmarking, applying and searching for jobs. All of them provide different<br />

levels of evidence for interest, as an application is a more reliable indicator<br />

for interest than just reading a job description, which is taken into account<br />

with individual weighting parameters. In addition to that, gradual forgetting<br />

factors are used for adapting the profile over time. All of this information is<br />

included in the hybrid user profile, which is represented as hyperdimensional<br />

vector and calculated by a linear combination of the resume and the<br />

preferred jobs. To evaluate the new approach, the preferred jobs of 46 job<br />

seekers were compared with the recommendations. The results show that<br />

including implicit feedback helps to increase the user coverage, as well as the<br />

accuracy of the recommendations.<br />

9


Thomas Neuböck<br />

Process Mining: Design und Implementierung eines Ansatzes zur zeitnahen<br />

Integration von Ereignisprotokolldaten<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Univ.Ass. Dr. Marco Zapletal<br />

Enterprise information systems store information about executed processes in<br />

log structures. These event logs can be used for discovering business<br />

processes. Process Mining techniques extract process information out of the<br />

existing event logs, analyze and interpret the data and use it in corresponding<br />

algorithms for deriving models. The resulting models are visualized and<br />

presented to the decision makers, which are able to make further decisions.<br />

The process mining algorithms deliver the process model in three different<br />

perspectives: (1) process perspective, (2) organizational perspective and (3)<br />

case-perspective. Existing Process Mining techniques perform the extraction<br />

based on historical process information. These traditional Process mining<br />

application scenarios typically require manual extraction and transferring of<br />

the process data, which is usually complex and expensive. Such a proceeding<br />

is inapplicable, if the take-over of data shall be done frequently. Moreover, a<br />

real time monitoring of running processes isnt realizable. A real time or nearreal<br />

time integration of event-logs in existing Process Mining techniques<br />

would require to solve supplementary challenges. This master thesis<br />

discusses two approaches for using Process Mining in real time: (1) Real time<br />

Process Mining as operational support and (2) Using traditional process<br />

mining algorithms in a near-real time manner (the work is focused on this<br />

aspect). Furthermore, the work introduces an implementation for using<br />

traditional scenarios in a near-real time manner. The implemented<br />

architecture includes a Plugin for the ProM Framework, which converts and<br />

imports event-logs into ProM. The second implementation artifact is a<br />

mechanism for recording occurring events. The resulting implementation of<br />

the designed architecture shows, whether a near-real time integration of<br />

event-logs for traditional process mining could be achieved and which further<br />

challenges have to be solved.<br />

Hauke Schuldt<br />

Optimizing ITSM Processes by Knowledge Management<br />

Studium: Masterstudium Information & Knowledge Management<br />

Betreuer: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

10<br />

This thesis evaluates how the operative processes of IT service management<br />

(ITSM) can be supported and optimized by the introduction of selected<br />

knowledge management methods. For this reason, the applicability and<br />

usefulness of existing recommendations for knowledge management within<br />

ITSM are evaluated against the requirements of the individual ITSM processes<br />

and the theoretical findings of knowledge management. After the evaluation,


these general recommendations are subsequently modified where<br />

appropriate to be able to actually increase the efficiency and effectiveness of<br />

the ITSM processes. As ITSM organizations can differ considerably, these<br />

generally applicable knowledge management methods have to be adopted<br />

for any specific ITSM organization. This is done for the specific case of<br />

DeLaval Information Services.<br />

Philip Staud<br />

Identifying design directions for social network goal sharing applications<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl<br />

Personen haben oft Probleme persönliche Ziele zu verwirklichen, wie z.B.<br />

Neujahrsvorsätzen treu zu bleiben. Eine Möglichkeit diesem Trend<br />

entgegenzuwirken ist die Verwendung von sozialen Netzwerken. Das Ziel<br />

dieser Arbeit besteht darin, Design-Richtungen zu konzipieren, die das<br />

Mitteilen von persönlichen Zielen in sozialen Netzwerken verbessern soll um<br />

Zielerreichung zu unterstützen. Basierend auf einer Hintergrundrecherche<br />

wurden Interviews mit sechs Benutzern durchgeführt. Als nächster Schritt<br />

wurde eine Webapplikation entwickelt, die es Benutzern erlaubt ihre eigenen<br />

Ziele anderen zu zeigen sowie Ziele anderer zu beobachten. Daraufhin wurde<br />

ein neuartiges Experiment mit 32 Teilnehmern unter drei Bedingungen<br />

durchgeführt: Ziele sind gegenseitig einsichtig unter unbekannten Benutzern,<br />

unter Freunden und Ziele sind nicht einsichtig. Es wurden vier persönliche<br />

Ziele im Bereich Gesundheit von jedem Benutzer gesetzt. Gemessen wurden<br />

die persönliche Verpflichtung, das Selbstvertrauen sowie der Fortschritt<br />

bezüglich den Zielen. Das Experiment hat keine substantiellen Unterschiede<br />

bezüglich Verpflichtung zum Ziel, Selbstvertrauen oder der Erreichung der<br />

kurzfristigen Ziele gezeigt, egal ob die Ziele anderen über eine Webseite<br />

kommuniziert wurden oder nicht. Durch den Wegfall von fast der Hälfte der<br />

Teilnehmer, können die Ergebnisse nur als indikativ betrachtet werden.<br />

Zusammenfassend aus den Interviews und dem Experiment wurden folgende<br />

Design-Richtungen entwickelt: Benutzern Kontrolle über Information geben;<br />

Mitteilen von Zielen kann einen scheinbar positiven Effekt haben; Kreative<br />

Interaktion und Repräsentation der Ziele sollte unterstützt werden;<br />

Ermöglichen des Heraushebens von Information, auf die der Benutzer stolz<br />

ist; Kreative Darstellung von Erfolglosigkeit oder langsamen Fortschritt<br />

ermöglichen; Ähnliche Tendenzen beobachtbar bezüglich Fortschritt;<br />

Zufriedenheit und Leichtigkeit der Zielerreichung unabhängig davon ob Ziele<br />

mitgeteilt werden oder nicht.<br />

11


Arbeitsbereich Business Informatics<br />

Thomas Halmetschlager<br />

Interactive Modeling for the Eclipse Modeling Framework<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel<br />

The high complexity of modern software makes it unavoidable to develop<br />

software with the help of graphical, model based editors. Software models<br />

serve not only as documentation or as a rough system overview. They are<br />

also the fundament to generate a executable system. The larger the<br />

application the more persons are involved in the design and development<br />

process. Simultaneous changes on a model are very common. With these<br />

concurrent changes conflicts can occur. There is a need of interpersonal<br />

communication to solve appearing questions and avoid misunderstandings.<br />

Specially in the early stage of software development diversities in<br />

interpretation can occur easily because the semantics of models can be<br />

interpreted different. To avoid such problems the communication channels<br />

within the team should be supported as much as possible. With good<br />

communication it should be possible to conclude a consolidated solution of<br />

the problem in a collaborative way. Within this thesis ways and means are<br />

sought to enable interactive model-driven software development with the<br />

Eclipse Modeling Framework. It turned out that there are already several<br />

approach for this interactive development method. These budding<br />

candidates where reviewed and analyzed. Unfortunately each of the tested<br />

systems had some disadvantages or they were not mainly designed for<br />

model-driven software development. When the analysis of various existing<br />

approaches was finished, a list of requirements was created. The search for a<br />

tool that matches the requirements as good as possible and that can be<br />

extended easily was started and finished with an acceptable result. Therefore<br />

the implementation part consists of a extension of a existing tool. The chosen<br />

tool is CDO, Connected Data Objects, a plugin for Eclipse. CDO was selected<br />

because it is the best match to our requirements. We think we found the<br />

optimal candidate to develop a sustainable solution.<br />

Tanja Mayerhofer<br />

Breathing New Life into Models - An Interpreter-Based Approach for Executing<br />

UML Models<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel<br />

12<br />

Over the past years Model-Driven Development (MDD) gained significant<br />

popularity. With the usage of this paradigm the software engineering process<br />

becomes more model-centric, i.e., models become the main artifact and<br />

therewith the whole software development process relies on these models


and their correctness. For this reason the need for executable models that can<br />

be tested and validated arose. The de facto standard for modeling software<br />

systems is OMGs Unified Modeling Language (UML). The problem is that UML<br />

models are not executable because UML has no precise and completely<br />

specified semantics. Because of this situation, ambiguities arise and models<br />

can be interpreted and executed in different ways. OMG has recognized the<br />

need for executable models in an unambiguous way and has developed a<br />

new standard called Semantics of a Foundational Subset for Executable UML<br />

Models or foundational UML (fUML) that was released in February 2011. This<br />

standard defines the precise execution semantics of a subset of UML 2. The<br />

research question of this thesis is as follows. Is the semantics definition of the<br />

fUML standard sound and applicable for building tools that enable the<br />

execution of UML activity diagrams? To answer this question, a prototype of a<br />

model interpreter has been developed in this thesis that is able to execute<br />

and debug UML activity diagrams according to the execution semantics<br />

defined in the fUML standard. The experiences gained during the<br />

implementation of the model interpreter prototype led to the following<br />

conclusion. The fUML standard is applicable for implementing tools that support<br />

the execution of UML activity diagrams, however, high efforts are necessary<br />

to develop a user-friendly and efficiently usable tool supporting features<br />

like the debugging of models or the execution of incomplete models.<br />

Andrea Randak<br />

ATL4pros: Introducing Native UML Profile Support into the ATLAS<br />

Transformation Language<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel<br />

Whereas in the past models were only used for communication and<br />

brainstorming purposes, this philosophy has shifted drastically. Model-Driven<br />

Engineering (MDE) is the keyword that is guiding the current engineering<br />

direction. Models are the key artifact and all development steps are aligned to<br />

these models. The Unified Modeling Language (UML) was introduced by the<br />

Object Management Group (OMG) to standardize and support different<br />

modeling aspects like structural, behavioral, and architectural models. The<br />

huge success of UML is not only due to the versatility of the language but<br />

also because of the highly-developed language extension mechanism in form<br />

of UML profiles. UML profiles may be defined for tailoring UML to specific<br />

domains and technological platforms. Apart from modeling languages, the<br />

technique of model transformation plays a crucial role for the model-driven<br />

approach. Model transformations aim at transforming an existing source<br />

model into some desired target model. The ATLAS Transformation Language<br />

(ATL) is currently one of the most widely used transformation languages.<br />

While modeling languages defined by metamodels are directly supported in<br />

an ATL transformation, the use of UML profiles demands for a complex workaround.<br />

It would be desirable, however, to simplify the handling of UML<br />

13


profiles in such a way that profiles are, like metamodels, represented as<br />

language definitions. The contribution of this master's thesis is to extend ATL<br />

for a native UML profile support. New language constructs are integrated into<br />

the abstract and concrete syntax of ATL to ease the use of profile-specific<br />

information within a model transformation. Apart from the extension of the<br />

ATL syntax, also an operational semantics for the new constructs is defined by<br />

translating the extended ATL to standard ATL. The goal of this work is to enrich<br />

the ATL language with new language-inherent constructs and keywords.<br />

Arbeitsbereich Interactive Media Systems<br />

Simone Arnberger<br />

Die Bedeutung von Alpha-Matting <strong>für</strong> die Darstellung von Bildern auf 3D-<br />

Bildschirmen: eine Benutzerstudie<br />

Studium: Masterstudium Medieninformatik<br />

Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />

Ziel der Arbeit war es zu untersuchen, inwieweit Alpha-Matting-Information<br />

die Qualität der Bilddarstellung auf 3D Bildschirmen beeinflusst. Um diese Frage<br />

zu beantworten, wurde im Zuge dieser Arbeit eine Benutzerstudie durchgeführt.<br />

In der Studie wurden mehrere Stereobildpaare, welche sowohl mit<br />

als auch ohne Alpha-Matting erstellt wurden, auf einem 3D-Monitor dargestellt.<br />

Die Betrachter wurden befragt, ob sichtbare Unterschiede in der<br />

Bildqualität zwischen den 3D-Bildern erkennbar sind. Ein weiteres Ziel der<br />

Untersuchung war die Feststellung, ob die wahrgenommenen Unterschiede<br />

mit speziellen Hintergründen oder einzelnen Motiven in Verbindung gebracht<br />

werden können. Die Analyse der Ergebnisse hat gezeigt, dass die Probanden<br />

eine bessere Bildqualität bei den mit Alpha-Matting erstellten Bildpaaren gegenüber<br />

den ohne Alpha-Matting erstellten Stereobildpaaren feststellen<br />

konnten. Das Ergebnis der Studie spricht somit eindeutig <strong>für</strong> einen Einsatz<br />

von Alpha-Matting bei der Generierung von synthetischen Ansichten, da eine<br />

korrekte Darstellung der transparenten Regionen Grundvoraussetzung <strong>für</strong><br />

qualitativ hochwertige 3D-Bilder ist.<br />

14<br />

Anita Bogner<br />

Evaluierung von Epipolarrektifizierungsverfahren zur Verwendung in einem<br />

Stereo Vision Framework<br />

Studium: Masterstudium Medieninformatik<br />

Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />

Epipolarrektifizierung ist ein Verfahren, das häufig im Zuge der Stereo Vision<br />

eingesetzt wird. Das zentrale Problem der Stereo Vision - das Korrespondenzproblem<br />

- ist das Finden zusammengehörender Punktpaare in einem Stereo-


ildpaar. Epipolarrektifizierung ist ein Verfahren, dessen Ziel es ist, Stereobildpaare<br />

so zu transformieren, dass demselben Objektpunkt entsprechende<br />

Bildpunkte in den rektifizierten Bildern auf derselben horizontalen Linie<br />

liegen. Unter dieser Voraussetzung wird das Korrespondenzproblem<br />

wesentlich vereinfacht. Da die Epipolarrektifizierung keine eindeutige Lösung<br />

besitzt, liegt die Schwierigkeit darin, eine Lösung zu finden, die möglichst<br />

keine unnötigen Verzerrungen in den rektifizierten Bildern verursacht.<br />

Ausgangspunkt dieser Diplomarbeit ist ein Stereo Vision Framework, das alle<br />

Arbeitsschritte umfasst, die notwendig sind, um Tiefeninformation aus<br />

unkalibrierten Stereobilddaten zu gewinnen. Inhalt des praktischen Teils der<br />

Arbeit ist die Nachimplementierung der Quasi-Euclidean Uncalibrated Epipolar<br />

Rectification von Fusiello und Irsara. Die Qualität der Rektifizierungsergebnisse<br />

dieses Verfahrens wird evaluiert und mit jenen des weit<br />

verbreiteten Rektifizierungsverfahrens von Hartley verglichen. Anhand von<br />

generierten Testmatches wird zunächst untersucht, welchen Einfluss das Ausmaß<br />

der Transformationen zwischen den Inputbildern oder Ungenauigkeiten<br />

in den Punktkorrespondenzen auf die Qualität der Rektifizierung haben. In<br />

einem weiteren Schritt werden gängige Feature-Detektoren in die Evaluierung<br />

einbezogen, um zu untersuchen, welche dieser Verfahren am besten zur<br />

Bestimmung der als Input <strong>für</strong> die Rektifizierung benötigten Punktkorrespondenzen<br />

geeignet sind. Ziel der Evaluierung ist es herauszufinden, wie die<br />

Rezeptur <strong>für</strong> ein Rektifizierungsverfahren aussehen muss, um möglichst optimale<br />

Ergebnisse zu erzielen. Die aus der Evaluierung gewonnenen Erkenntnisse<br />

werden soweit als möglich in das Stereo Vision Framework integriert.<br />

Mattias Eisenbarth<br />

Evaluierung von Algorithmen zur Novel-View-Generierung aus Stereobildern<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />

Diese Arbeit beschäftigt sich mit dem Vergleich von State-of-the-Art-Algorithmen<br />

zur Erzeugung von virtuellen Ansichten (Novel-Views) auf Basis von<br />

Stereobildern. Novel-Views (NV) sind künstlich generierte Blickwinkel auf eine<br />

Videoszene, die im Originalvideo noch nicht existiert haben. Sie finden im<br />

Bereich der 3D-Technik bei der Darstellung eines Videos auf autostereoskopischen<br />

und stereoskopischen Bildschirmen, sowie bei Korrekturen der<br />

Stereobasis (Abstand zwischen den Stereokameras) Anwendung. Das Ziel der<br />

Arbeit ist es, mehrere NV-Methoden bezüglich ihrer visuellen Qualität (Artefakte,<br />

Tiefeneindruck ) zu analysieren und zu vergleichen. Dabei werden im<br />

Speziellen die Methoden <strong>für</strong> das Image Warping (Verschieben von Bildpunkten<br />

auf ihre neuen Positionen) und das Image Inpainting (Rekonstruktion<br />

fehlender Bildteile) untersucht. Die Resultate ermöglichen es, eine NV-Methode<br />

zu entwickeln, die einen angenehmen Tiefeneindruck erzielt und Artefakte<br />

soweit reduziert, dass sie von der menschlichen visuellen Wahrnehmung<br />

nicht mehr als störend empfunden werden. Die Vermessung des möglichen<br />

Tiefeneindruckes eines Bildschirms dient als Voraussetzung <strong>für</strong> eine optimale<br />

15


Evaluierung und wird ebenfalls näher behandelt. Dabei werden Methoden<br />

vorgestellt, mit denen sich die räumliche Größe einer 3D-Szene verändern<br />

lässt und an das wiedergebende Display angepasst werden kann. Zunächst<br />

sollen vielversprechende Methoden zur NV-Generierung gefunden und implementiert<br />

werden. Diese werden dann evaluiert und verglichen, wobei das<br />

Hauptaugenmerk auf der visuellen Wahrnehmung von Artefakten und Bildfehlern<br />

im bewegten Video liegt. Dazu werden mehrere Testdatensätze zusammengestellt,<br />

die zur Analyse der NV-Algorithmen herangezogen werden.<br />

Die Ergebnisse zeigen, welchen Einfluss die Positionierung der neuen Kameraansichten<br />

auf den optischen Gesamteindruck hat und welche der analysierten<br />

Verfahren sich von den anderen durch eine bessere visuelle Qualität<br />

unterscheiden.<br />

Georg Gerstweiler<br />

Emanuel Vonach<br />

Development of an Active Motion Capture Suit for Teaching Motion Skills<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Privatdoz. Dr. Hannes Kaufmann<br />

Die multimediale Unterstützung <strong>für</strong> das Lehren und Ausüben von motorischen<br />

Fähigkeiten ist oft auf Videos oder Grafiken beschränkt. Vor allem in<br />

Bereichen wie Rehabilitation oder Sport könnte der Einsatz von Virtual Reality<br />

Anwendungen <strong>für</strong> pädagogische Zwecke beachtliche Vorteile eröffnen, wie<br />

detailliertes Feedback über Trainingsfortschritte. Aber unverzichtbar <strong>für</strong><br />

Virtual Reality ist eine Möglichkeit zum Erfassen der Bewegungsdaten. Die<br />

meisten Motion Capture Systeme sind entweder auf eine bestimmte Anwendung<br />

zugeschnitten oder aus verschiedenen Gründen <strong>für</strong> Sport ungeeignet.<br />

Gerade bei sportlichen Anwendungen treten spezielle Anforderungen<br />

auf. Zum Beispiel können Methoden bei denen der Anwender mit relativ großen<br />

Vorrichtungen ausgestattet ist, zu Schmerzen bei Kontakt mit harten<br />

Oberflächen führen. Des Weiteren müssen auch mögliche schnelle Bewegungen,<br />

ausreichende Bewegungsfreiheit und hygienische Aspekte bedacht<br />

werden. Die Autoren werden im Rahmen dieser Arbeit zeigen, dass ein Anzug<br />

<strong>für</strong> Motion Capture mit aktiven infraroten Markern gebaut werden kann, der<br />

den speziellen Herausforderungen gerecht wird. Zu diesem Zweck weden Anforderungen<br />

zusammengestellt und Konzepte entwickelt welche beim Bau<br />

eines voll funktionsfähigen Prototyp angewendet werden. Um die Leistung<br />

des aktiven Motion Capture Anzugs in einem pädagogischen Kontext einschätzen<br />

zu können und das Potential des Einsatzes von Virtual Reality zu demonstrieren,<br />

wurde der konstruierte Anzug in einer tatsächlichen Virtual<br />

Reality Anwendung <strong>für</strong> das Lehren von motorischen Fähigkeiten verwendet.<br />

Es zeigt sich, dass der entwickelte Motion Capture Anzug, <strong>für</strong> Sport und Rehabilitation<br />

geeignet ist, sich aber nicht auf diese spezifischen Anwendungsbereiche<br />

beschränkt. Den Autoren ist es vor allem gelungen die nötigen<br />

elektronischen Komponenten unscheinbar zu integrieren. Außerdem kann das<br />

16


Layout aufgrund der individuell steuerbaren Marker <strong>für</strong> unterschiedliche<br />

Systeme und Algorithmen optimiert werden.<br />

Birgit Gneiss<br />

Erstellung eines Datensatzes zur Evaluierung von Stereo-Matching-<br />

Algorithmen<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />

Stereo-Matching-Algorithmen verfolgen das Ziel, Tiefeninformationen aus<br />

Stereobildpaaren anhand übereinstimmender Merkmale zu gewinnen. Durch<br />

die leicht voneinander abweichenden Blickwinkel (Views) der Stereobilder<br />

wird derselbe Szenenpunkt in den einzelnen Views an unterschiedlichen<br />

Pixelkoordinaten abgebildet. Das Ausmaß dieser Verschiebung wird als<br />

Disparität bezeichnet und stellt die Grundlage <strong>für</strong> die Gewinnung von<br />

Tiefeninformationen dar. Zur quantitativen Evaluierung von Stereo-Matching-<br />

Algorithmen, ist die Verfügbarkeit von Referenzlösungen (Ground Truth)<br />

unerlässlich. Trotz aktiver Forschungstätigkeit im Bereich Stereo Matching<br />

existieren nur relativ wenige frei verfügbare Referenzlösungen, da ihre<br />

Erstellung ein sehr aufwändiger Prozess ist. Die Hauptanforderungen an<br />

Ground-Truth-Tiefenkarten sind eine hohe Exaktheit sowie eine hohe Dichte.<br />

In dieser Arbeit wird ein System zur Erstellung von Referenzdatensätzen <strong>für</strong><br />

Stereo-Matching-Algorithmen vorgestellt, welches diesen Kriterien gerecht<br />

wird. Um die Komplexität der Zuordnung korrespondierender Merkmale zu<br />

erleichtern, wird die Methode der strukturierten Beleuchtung eingesetzt. Mit<br />

Hilfe einer Beleuchtungsquelle werden dabei <strong>für</strong> jede View nacheinander<br />

verschiedene Streifenmuster auf die Szene projiziert, wodurch eindeutige<br />

Pixelkodierungen erzeugt werden und Korrespondenzen zwischen den Views<br />

leichter zugeordnet werden können. Um die Verlässlichkeit und Exaktheit des<br />

Gesamtergebnisses zu erhöhen, werden zusätzliche Korrespondenzen<br />

zwischen der Geometrie der Beleuchtungsquelle und den beiden Views<br />

berechnet. Die Evaluierung der auf diese Weise gewonnenen Tiefenkarten<br />

anhand von manuell ermittelten Disparitäten zeigt, dass mit dem<br />

vorgestellten System subpixelgenaue Tiefenkarten erzielt werden können, die<br />

verlässliche Ground-Truth-Informationen darstellen.<br />

Manfred Grünling<br />

Entwicklung eines multitouchfähigen Schaufensters<br />

Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />

Betreuer: Privatdoz. Dr. Hannes Kaufmann<br />

In der vorliegenden Arbeit wird ein Hard- und Softwaresetup präsentiert, mit<br />

dem es möglich ist, beliebige Schaufenster mit Multitouch-Funktionalität<br />

auszustatten. Die Arbeit fasst zunächst die theoretischen Grundlagen im<br />

17


Bereich optischer Sensorik und Lichtquellen zusammen. Danach wird ein<br />

Überblick über die zur Verfügung stehenden Multitouch-Technologien<br />

geschaffen. Kamera-basierte Technologien, die <strong>für</strong> den Eigenbau und zur<br />

Realisierung von großformatigen Multitouch-Displays geeignet sind, liegen<br />

dabei im Fokus. Weiters werden verschiedenste Software-Komponenten<br />

beschrieben, die zur Umsetzung von Multitouch-Anwendungen eingesetzt<br />

werden können. Daraufhin wird das implementierte Hardwaresetup, sowie<br />

die verwendete und entwickelte Software, vorgestellt.<br />

Thomas Hahn<br />

Event-Driven 3D Vision for Human Activity Analysis in Context of Dance and<br />

Fitness Training of Elderly People<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Privatdoz. Dr. Hannes Kaufmann<br />

Over the last years many implementations concerning the recognition of<br />

human motion have been developed. Systems that are designed for elderly<br />

people are becoming more important, especially in the physical training<br />

application area. In this thesis a system for recognition of human motion in<br />

the area of dance and fitness training for elderly people is introduced. This<br />

module within the EU project Silvergame is thereby intended to help elderly<br />

people to keep their level of health as well as to gain a higher fitness level so<br />

that they can stay healthy to an older age. With the system the users can then<br />

be encouraged to move more by performing the dance which they see on<br />

their home TV screen. In doing so such a dance consists of different human<br />

activities which the system recognizes. Furthermore, it also provides some<br />

sort of feedback via the given output device. As the input device, a novel<br />

event-driven 3D vision sensor, developed at the AIT Austrian Institute of<br />

Technology is used in this approach. What is special in this case is that only<br />

data is transferred if an intensity change in the field of view is detected.<br />

Therefore, less data then with ordinary video systems is generated as the<br />

information is communicated not frame-based but pixel wise. Through a<br />

detailed research of the literature about the up-to-date classification<br />

methods, the most promising technique and features for the motion<br />

detection system were chosen. This thesis thereby shows the performance of<br />

the designed application and points out the opportunity for further<br />

employments. Though it was significant how the chosen classification<br />

method can be used for the obtained features from the received data.<br />

Additionally first performance measurements were done. To obtain<br />

representative experimentation results a cross validation was applied and<br />

different settings were used to compare the results. The best results thereby<br />

reached an average correct recognition rate of around 96%.<br />

18


Richard Kloibhofer<br />

Rauschunterdrückung in einer nicht ausgerichteten Bildfolge<br />

Studium: Masterstudium Medieninformatik<br />

Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />

Die Entfernung störender Rauschartefakte in Bildern ist ein wichtiger<br />

Vorverarbeitungsschritt <strong>für</strong> viele Aufgabenstellungen in der digitalen<br />

Bildverarbeitung. Die meisten Rauschunterdrückungsverfahren arbeiten auf<br />

Einzelbildern. Stehen jedoch mehrere Aufnahmen derselben Szene zur<br />

Verfügung, können Redundanzen in dieser Bildfolge dazu verwendet<br />

werden, um bessere Resultate zu erzielen. Ein Problem bei der Aufnahme<br />

solcher Bildsequenzen stellt die durch Kamerabewegungen bedingte<br />

Verschiebung der Einzelbilder dar. Bestehende Methoden zur<br />

Rauschunterdrückung in Bildsequenzen sind daher auf eine aufwändige und<br />

oft fehleranfällige Registrierung der verschobenen Einzelbilder angewiesen.<br />

Folglich besteht das Ziel dieser Arbeit darin, Bildrauschen in einer Bildsequenz<br />

zu unterdrücken ohne eine Bildregistrierung durchzuführen. Die in dieser<br />

Arbeit vorgestellte Methode berechnet die Farbe eines Pixels im rauschfreien<br />

Bild als eine gewichtete Mittelung aller Pixel der Bildfolge. Um die<br />

Gewichtung zu berechnen wird ein Referenzbild aus der Sequenz ausgewählt.<br />

Der Einfluss (Gewichtung) eines Bildpunktes der Bildsequenz auf die Mittelung<br />

wird durch dessen Farbähnlichkeit zum jeweiligen Pixel des Referenzbildes<br />

bestimmt. Pixel mit hohem Einfluss können auch an Stellen im Bild auftreten,<br />

welche nicht mit den Pixelkoordinaten im Referenzbild übereinstimmen.<br />

Dadurch werden Verschiebungen im Bild toleriert.Im Kontext dieser Arbeit<br />

wurde des Weiteren das Problem von atmosphärisch bedingten Trübungen<br />

behandelt. Solche Eintrübungen entstehen durch die Streuung des<br />

einfallenden Lichtes durch Staub- oder Nebelpartikel. Dadurch erreicht das<br />

Licht die Kamera nur in abgeschwächter Form.<br />

Katharina Schiffl<br />

Bestimmung von Hominoidsegmenten aus 3D - Bodyscannerdaten<br />

Studium: Masterstudium Medieninformatik<br />

Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />

Models of the human body are used to analyze and simulate body movements<br />

in a variety of fields, including sports science and computer games.<br />

These models vary in detail and accuracy, depending on their field of<br />

application. In this work, we focus on the hominoid of Hatze, which was<br />

originally developed in the context of biomechanical applications. This thesis<br />

investigates the utility of a 3D body scanner for the automatic segmentation<br />

of scan data into the 17 segments of Hatzes anthropomorphic model. We<br />

propose a scan procedure and a set of data processing algorithms that ease<br />

the process of measuring a body and speed up the calculation of the related<br />

segment parameters. These parameter values can be employed afterwards for<br />

19


the simulation of human movements in areas such as sports, orthopedics or<br />

medicine. As part of our investigations, we assess the accuracy of the used<br />

scanner (Vitronic VI<strong>TU</strong>S smart 3D Bodyscanner). Basic sources of error such as<br />

the distance between scan lines, scan holes and geometric distortions are<br />

discussed, and their influence on the body measurements is further explored.<br />

We finally demonstrate the performance and repeatability of our automatic<br />

measurements in xperiments with several test persons and compare the<br />

results with manual reference measurements.<br />

Arbeitsbereich Information & Software Engineering<br />

Thomas Baumann<br />

Trusted Backups Prototyp eines Backup Tools zum Erstellen von<br />

vertrauenswürdigen Backups mittels TPM (TC)<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Privatdoz. Dr. Edgar Weippl<br />

Presently a higher and higher value is attached to data security. Companies<br />

become aware of the importance of protecting their data against illegal thirdparty<br />

access. One area that is often overlooked or underestimated is the one<br />

of the security of backups. They must also be protected from unauthorized<br />

access. One approach to achieve this level of security is to encrypt the<br />

backups. A particularly promising approach in this area is the encryption using<br />

Trusted Computing. Data is tied to a hardware chip of a specific physical<br />

hardware and can only be restored on this very platform on which it was<br />

previously made. Despite the number of backup programs that can be found<br />

on the market, there are none that fulfil this security requirement<br />

satisfactorily. Therefore this thesis describes scenarios that were developed in<br />

order to represent the basic use cases for the procedure of backup. The<br />

backup systems already on the market as well as the use cases are analysed.<br />

Based on the obtained findings, basic requirements for a backup program<br />

that is optimal in terms of trustworthiness are developed. Using these criteria,<br />

a concept for a prototype of an ideal backup program is created. The paper<br />

discusses the problems which arise in the development of such a program<br />

and describes the solutions to overcome these problems. The solutions lead<br />

to the creation of specifications and the choice of technologies in order to<br />

use them for the backup prototype. Furthermore, the prototype is<br />

implemented and this paper describes which tools are used for this<br />

implementation and what operations are performed. The reader should thus<br />

be enabled to understand this program as well as to adjust it to his own<br />

needs. After the implementation of the prototype extensive tests of this<br />

program and the abstract concept of trusted backups are conducted. In order<br />

to do so, abuse cases were developed and applied to the previously created<br />

scenarios.<br />

20


Seyed Amir Beheshti<br />

Business Process on-Demand; Studying the Enterprise CloudComputing and<br />

its Role in Green IT<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />

Unfortunately, lack of guidelines and varying and limited services from<br />

different cloud providers, have made the adoption of appropriate Cloud<br />

services a challenge for many organizations. In this regard, there is a vital<br />

need to study and analyze available services from different cloud vendors and<br />

provide enterprises with the best solutions available regarding their specific<br />

business requirements.In This thesis different cloud providers and their<br />

available services are analyzed.The results of this market analysis are<br />

presented in form of two different matrixes: One for business processes and<br />

functions, and the other for PaaS, IaaS in addition to other cloud services<br />

available on the market. Due to the huge size of the proposed matrix, the<br />

investigation of specific services and their corresponding cloud providers in<br />

the matrix is a challenging issue.For this reason I develop an ontology for<br />

cloud computing based on the market analysis.Cloud Ontology is an<br />

approach to help organizations understand and explore available cloud<br />

services in a meaningful and easier way. There are a large number of cloud<br />

providers available and finding the appropriate solution for different<br />

enterprises is a challenging process. In other words, the cloud ontology helps<br />

organizations to find their way through the jungle of cloud services in<br />

accordance with their specific business requirements.This thesis is an attempt<br />

to make the process of mapping business processes/functions to cloud<br />

services easier by providing organizations with a matrix of cloud<br />

services/business processes (distribution of market) and an ontology for<br />

cloud Computing.<br />

Dominik Manfred Berchtold<br />

Visualisierung von Metadaten in Suchergebnissen<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Die Menge an digital gespeicherten Daten steigt rasant an, dadurch werden<br />

Möglichkeiten zur effizienten Suche nach Informationen immer wichtiger. An<br />

der Präsentation von Suchergebnissen als Liste von Treffern in Textform hat<br />

sich in den letzten Jahren kaum etwas geändert. Eine graphische<br />

Aufbereitung könnte den Suchprozess oft entscheidend unterstützen. Ein<br />

möglicher Ansatz bietet die ikonisierte Darstellung der Ergebnisse mit Hilfe<br />

von graphischen Metaphern. Dabei werden die in den Treffern enthaltenen<br />

Metadaten verwendet, um das Aussehen einzelner Ausprägungen der<br />

Metapher zu beeinflussen. Eine der Schwierigkeiten bei dieser Methode<br />

besteht in der Auswahl einer passenden Metapher sowie dem Festlegen der<br />

21


Regeln die den Einfluss der Metadaten auf deren Aussehen steuern. Dieses<br />

Problem wird noch verschärft, durch den oft nicht unerheblichen Aufwand der<br />

getrieben werden muss, um eine graphische Darstellung konkret umzusetzen.<br />

Um diesen Prozess der Metapher-Auswahl zu unterstützen, aber vor allem, um<br />

eine Möglichkeit zu schaffen, Erkenntnisse darüber zu erlangen, welche<br />

Kriterien bei der Wahl der Metapher von Bedeutung sind, wurde der<br />

metaViewer entwickelt. Mit seiner Hilfe können mit relativ wenig Aufwand<br />

unterschiedliche Visualisierungen ausprobiert werden. Dabei bietet er die<br />

Möglichkeit, Daten aus verschiedenen Quellen einzubinden. Außerdem stellt<br />

er mehrere Schnittstellen zur Verfügung die <strong>für</strong> weitere Untersuchengen die<br />

Entwicklung zusätzlicher Visualisierungsmöglichkeiten unterstützen. Somit<br />

können die beim Umgang mit dem metaViewer gesammelten Erfahrungen<br />

sofort genutzt und beim Entwurf neuer Metaphern angewendet werden. Der<br />

metaViewer bildet somit die ideale Basis, um eine Vielzahl an<br />

Visualisierungen auszuprobieren und deren Tauglichkeit zur Präsentation von<br />

Suchergebnissen bewerten zu können.<br />

Andreas Bernauer<br />

PPJ - A polymorphic Runtime Packer in Java<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Privatdoz. Dr. Edgar Weippl<br />

22<br />

Üblicherweise nutzt schadhafte Software eine oder mehrere Techniken zum<br />

Verschleiern von ausführbaren Dateien, um den eigenen Code zu verstecken.<br />

Es ist schwierig, <strong>für</strong> eine solche Art von Programmen Signaturen <strong>für</strong> statische<br />

Virenscanner zu erstellen, da die Eindeutigkeit nicht mehr mithilfe vom<br />

Programmcode auf dem Speichermedium ermittelt werden kann, sondern<br />

vorrangig durch den Code im Speicher oder durch das dynamische Verhalten<br />

gegegeben ist. Diese Arbeit gibt einen Einblick in aktuelle<br />

Verschleierungstechniken und deren Gegenmaßnahmen. Weiters wird gezeigt,<br />

dass effektive Verschleierungstechnologien, die auf nativen<br />

Programmcode angewendet werden, auch auf die Java-Umgebung<br />

übertragen werden können. Neben einer Zusammenfassung und<br />

Besprechung von aktuellen Verschleierungstechniken, wird im Rahmen dieser<br />

Arbeit ein neuartiger "Runtime-Packer", vorgestellt. Dieser implementiert eine<br />

effektive Technik zum Verschleiern von Java-Programmen. Der Packer basiert<br />

auf polymorpher Verschleierung, die eine Hülle, einen "Wrapper", um das<br />

originale Programm legt, und so dessen Eigenschaften vor Virenscannern<br />

versteckt. Um die Effektivität unseres Packers zu testen, wurde ein Prototyp<br />

entwickelt. Als Ziel sollten die implementierten Techniken so geschaffen sein,<br />

dass sie die Ausführungsgeschwindigkeit des gepackten Programms nicht<br />

signifikant verlangsamen. Trotzdem soll eine signatur-basierte Überprüfung<br />

<strong>für</strong> ein gepacktes Programm sehr schwierig werden oder sich die Analyse<br />

desselben durch einen menschlichen "Reverse Engineer" erheblich<br />

zeitaufwändig gestalten. Letztendlich soll der Packer die Funktionalität des<br />

originalen Programms nicht verändern. In einer Evaluierungsphase konnte


gezeigt werden, dass unser Packer alle drei dieser Anforderungen erfüllt. Die<br />

Effektivität des Packers wurde mit Hilfe eines definierten Schemas evaluiert,<br />

welches den Grad der Verschleierung, die Ausführungsgeschwindingkeit und<br />

die Bewahrung der originalen Funktionalität berücksichtigt.<br />

Alexander Fuchs<br />

Entwurf und Konzeption einer Service-orientierten Architektur zur IT-<br />

Systemintegration<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Die Integration von IT-Systemen ist vor allem im Unternehmensumfeld von<br />

enormer Bedeutung. Der Informationsaustausch zwischen den Kernsystemen<br />

eines Unternehmens kann dabei mit dem Nervensystem des menschlichen<br />

Körpers verglichen werden. Ähnlich wie der menschliche Organismus bei<br />

einer Störung seiner natürlichen Steuerungs- und Informationswege sehr<br />

empfindlich reagiert, bringt auch eine Störung der Informationswege,<br />

zwischen den wichtigsten Systemen eines Unternehmens, oft immense<br />

Schäden mit sich, sowohl finanzieller Natur, als auch <strong>für</strong> das Ansehen und die<br />

Reputation. Im Laufe der Zeit haben sich Konzepte etabliert um IT-<br />

Systemintegrationen möglichst einfach, verlässlich und reibungsfrei<br />

durchzuführen. Diese Konzepte und deren Umsetzungen sind jedoch oft nicht<br />

ausreichend flexibel genug und meist tief in den jeweiligen Losungen<br />

verwurzelt. Dies führt zur Fragestellung nach möglichen neuen Konzepten<br />

und Architekturen, die die Integration von IT-Systemen strukturiert, losgelöst<br />

vom Integration Client und Service-orientiert ermöglichen. Im Rahmen dieser<br />

Arbeit werden existierende Konzepte und Ansätze evaluiert und darauf<br />

aufbauend eine neuartige Architektur entworfen, die sich der bewährtesten<br />

Teilbereiche bedient. Als eines der grundlegendsten Ziele der "Service-<br />

Oriented Adapter Architecture" (SOAA) kann dabei die Trennung der<br />

Integrationsprozesse von deren Einzelaktivitäten angesehen werden, um so<br />

Flexibilität und Wiederverwendbarkeit zu erhöhen. Die vorliegende Arbeit<br />

erläutert zunächst allgemeine Konzepte der IT-Systemintegration, um<br />

anschließend auf die Zielsetzungen der konzipierten Architektur einzugehen.<br />

Darauf aufbauend werden Details des architekturellen Aufbaus und des<br />

Zusammenspiels der Komponenten dargestellt. Weiters wird die entwickelte<br />

Architektur mit der Integrationsarchitektur einer etablierten EAI und BPM<br />

Plattform verglichen um relevante Unterschiede zu diskutierten. Abschließend<br />

erfolgt eine kritische Betrachtung der Ergebnisse.<br />

23


Alexander Fuchs<br />

Client unabhängige Integration von IT-Systemen am Beispiel von SAP und<br />

Datenbanken<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Die Funktionen von IT-Systemen müssen in zahlreichen Fällen anderen IT-<br />

Systemen zur Verfügung gestellt werden. Nach wie vor erfolgt dies oft über<br />

spezifische Integrationslösung. Dies führt zu einer hohen Anzahl an<br />

individuellen Lösungen und erschwert die Wartung einer gesamtheitlichen<br />

Integration wesentlich. Auch Anpassungen existierender Lösungen gestalten<br />

sich dadurch komplexer und risikoreicher. Aus diesem Grund sollte ein Ansatz<br />

verfolgt um gekapselte Integrationslogik, strukturierter und unabhängig vom<br />

Client zur Verfügung zu stellen. Eine ähnliche Problemstellung wurde auch im<br />

Forschungsprojekt "FFF-DMS-EAI" vorgefunden, bei dem es <strong>für</strong> das Document<br />

Management System (DMS) "InStruct" und die Business Process Management<br />

(BPM) Plattform "InSpire" einen Integration Layer zu entwickeln galt, um<br />

gezielt auf Informationen oder Funktionen spezifischer IT-Systeme zugreifen<br />

zu können. Daraus entstand die Anforderung an einen vom Integration Client<br />

unabhängigen und gleichzeitig Service-orientierten Ansatz und in weiterer<br />

Folge das Konzept der "Service-Oriented Adapter Architecture" (SOAA). Diese<br />

bisher rein konzeptionelle Architektur galt es exemplarisch umzusetzen.<br />

Einerseits um ihre Relevanz und Praxistauglichkeit zu bestimmen und<br />

andererseits um den Produkten "InSpire" und "InStruct" einen initialen<br />

Integration Layer zur Verfügung zu stellen. Dazu wurden zunächst<br />

grundlegende Anforderungen und Ziele definiert und darauf aufbauend eine<br />

Vorgehensweise, in Form eines iterativen Entwicklungsprozesses, erarbeitet.<br />

Anschließend fand eine Darstellung der Umsetzung allgemeiner Architekturkomponenten,<br />

sowie spezifischer Komponenten zur Integration von SAP<br />

Systemen und Datenbanken, statt. Eine kritische Betrachtung der Ergebnisse<br />

und Erkenntnisse der Umsetzung, das Aufzeigen möglicher Etablierungsstrategien,<br />

die Diskussion der Relevanz <strong>für</strong> Produkt Hersteller und die Darstellung<br />

von zukünftigen sinnvollen Erweiterungen bilden den Abschluss der<br />

Arbeit.<br />

Marcel Grabher<br />

Webserver-Sicherheit und Virtualisierung<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Privatdoz. Dr. Edgar Weippl<br />

24<br />

Nearly every week attacks on websites are reported by the media. Even<br />

transnational corporations like Sony, Banks (Citigroup) or credit card<br />

companies are affected. Motivated by a recent software project, the author of<br />

this paper shows current attacks and best-practice-countermeasures<br />

concerning webservers and websites. Furthermore the security aspects of


hosting, virtualization and cloud-computing are shown. The results were<br />

categorized in network, operating system, services and webapplication and<br />

were deduced through expert-interviews, case studies, published vulnerabilities,<br />

publicly known attacks on companies, comparison of security-solutions,<br />

experiments executed in a virtual labor and a detailed study of literature. In<br />

the context of this paper there have been discovered vulnerabilities (institute<br />

of computer science of the <strong>TU</strong>-Vienna, Ruby on Rails), which are proven by<br />

proof-of-concept-exploits and documented by recorded screencasts.<br />

Markus Hamm<br />

Impact Assessment of Decision Criteria in Multi Criteria Decision Analysis for<br />

Digital Preservation<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Decision making is a complex issue. Although we all have a lot of practice we<br />

are not good at it. Multi Criteria Decision Analysis faces this issue and<br />

supports decision makers by specifying decision problems in a formal model<br />

which guides the way to the optimal decision. This formal problem<br />

specification adds transparency to the whole decision process. Digital<br />

preservation is the active management of digital content over time to sustain<br />

its accessibility. Active management means that preservation decision have to<br />

be taken. The process of finding optimal preservation decisions for a set of<br />

digital objects is called Preservation Planning. Digital content to preserve<br />

contains most of the time sensitive information like cultural heritage, business<br />

contracts or historical images. Thus preservation decisions are always critical<br />

which requires a trustworthy and therefore transparent decision finding<br />

process. Bringing this together Multiple Criteria Decision Analysis can be used<br />

to make preservation decisions in a transparent and therefore trustworthy<br />

way. The Preservation Planning tool Plato uses this approach to support the<br />

responsible planner at making the optimal decision in his scenario. Its<br />

decision finding process evaluates several possible preservation actions by a<br />

set of given criteria to identify the best action to take. Several institutions use<br />

Plato to take real world preservation decisions. Even though we have a lot of<br />

case study data we currently do not know a lot about the criteria used to<br />

make these decisions. The goal of this thesis is to identify the criteria used to<br />

take preservation decisions in detail and assess their quantitative impact on<br />

final decisions. This gained knowledge about decision criteria is aimed to<br />

help us improving the overall Preservation Planning process. To achieve this<br />

goal we present a method for criteria impact assessment based on analysing<br />

empirical collected case study data.<br />

25


Thomas Kern<br />

Feature Selection with Entropy in Patent Classification<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Privatdoz. Dr. Allan Hanbury<br />

In this thesis a framework for auto classification of patents is developed.<br />

Emphasize lies on a comparison between several linear classifiers including an<br />

SVM and an L2-regularized linear classifier. Furthermore, a feature selection is<br />

implemented to reduce the cost of training albeit keeping the level of<br />

precision and recall steady on the level of classification with all the features<br />

intact. The number of features was reduced by 4%. In 2010 Montemurro and<br />

Zanette proposed a method to identify important words in a text. On this<br />

method a feature selection metric was built to distinguish between valuable<br />

and negative features. Furthermore a new filter selection algorithm based on<br />

the new metric is proposed.<br />

Andreas Marchart<br />

Einsatz von Business Continuity Management Tools <strong>für</strong> Krisenmanagement in<br />

der Industrie sowie eine Umsetzung an Hand von KRIMA Use-Cases<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />

26<br />

Die Diplomarbeit beschäftigt sich mit der Fragestellung, wie Business<br />

Continuity Management Systeme in der Industrie eingesetzt werden können,<br />

um zu einer Steigerung der Resilienz eines Unternehmens beitragen zu<br />

können. Aus diesem Grund wurden zuerst die verschiedenen Begriffe, sowie<br />

die Teilbereiche des BCM abgegrenzt. Anschließend wurde untersucht, wie<br />

weit Business Continuity Management im Allgemeinen bzw.<br />

Krisenmanagement im Speziellen bereits bei Industrieunternehmen verbreitet<br />

ist. Hier hat sich gezeigt, dass bei der Verbreitung ein Zusammenhang mit der<br />

Unternehmensgröße besteht und dass dies mit unterschiedlichen<br />

Anforderungen zu begründen ist. Neben der Analyse von Krisensituationen<br />

aus der Vergangenheit wurde auch untersucht, ob es durch neue gesetzliche<br />

Anforderungen und Vorschriften zu einer erhöhten Nachfrage nach BCM<br />

Systemen kommen könnte. Ein weiterer Teil der Diplomarbeit war es<br />

außerdem, konzeptuelle Erweiterungs-möglichkeiten vorzustellen. Hier hat<br />

sich vor allem gezeigt, dass der Bedarf besteht, weg von einem Stand-Alone<br />

Ansatz zu gehen und das BCM in die zentralen Unternehmenssysteme zu<br />

integrieren. Darüber hinaus wurde vorgestellt, wie Software as a Service <strong>für</strong><br />

BCM Systeme genutzt werden könnte. Dazu wird das traditionelle<br />

Softwaremodell mit dem Softwaremodell Software as a Service verglichen,<br />

bei dem die Software als Service genutzt wird, welches durch einen externen<br />

Dienstanbieter zur Verfügung gestellt wird. Der letzte Teil der Diplomarbeit<br />

zeigt anhand einer Referenz Use-Case Implementierung, wie Workflows <strong>für</strong><br />

das Krisenmanagement aussehen könnten, sowie einen möglichen typischen


Ablauf im Falle einer Krise. Darüber hinaus wurde eine prototyptische Erweiterung<br />

eines Krisenmanagementsystems um BCM Funktionalitäten vorgenommen,<br />

die anhand der Umsetzung einer Risikoanalyse beschrieben wird.<br />

Klaus Purer<br />

Web Service Composition in Drupal<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />

Das Erstellen von Webapplikationen ist mittlerweile eine komplexe Aufgabe<br />

und erfordert oftmals die Integration mit anderen Webapplikationen, im<br />

speziellen mit Webservices. Drupal ist ein freies Open Source Content<br />

Management System und Framework, das eine umfassende Plattform <strong>für</strong><br />

schnelle Web-Entwicklung bereitstellt. Die modulare und erweiterbare<br />

Charakteristik von Drupal erlaubt EntwicklerInnen die Kernfunktionalität<br />

anzupassen und auszunutzen, um neue Funktionalitäten zu erstellen. Diese<br />

Diplomarbeit beschäftigt sich mit der Erforschung und Implementierung eines<br />

Webservice Client Moduls <strong>für</strong> Drupal, welches in der Lage ist, sowohl<br />

klassische WS* Webservices als auch RESTful Webservices zu konsumieren.<br />

Wir werden ein Abstraktionsmodell <strong>für</strong> Webservices präsentieren, das<br />

verschiedene Webservice-Typen unterstützt und welches die Integration von<br />

Webservice-Daten in Drupal Workflows ermöglicht. Diese Workflows werden<br />

mit Hilfe eines regelbasierten Moduls (Rules) konstruiert, mit dem Event-<br />

Condition-Action Regeln erstellt werden können. Wir werden eine Lösung<br />

diskutieren, die eine Webservice-Operation als Rules Action zur Verfügung<br />

stellt und die damit die Komposition von Webservices erreicht, indem<br />

mehrere Webservices in einem Rules Workflow aufgerufen werden. Das ist<br />

wichtig <strong>für</strong> Webapplikationen, die mit vielen externen Webservices<br />

kommunizieren müssen und den Datenfluss zwischen diesen orchestrieren<br />

müssen. Zusätzlich wurde eine Benutzeroberfläche implementiert, womit<br />

Webservices auf Drupal Adminstrationsseiten beschrieben und benutzt<br />

werden können. Dadurch werden keine Programmierkenntnisse benötigt,<br />

wenn Webservices angesprochen werden sollen. Die Implementierung wurde<br />

mit einem Anwendungsfall zur automatischen Übersetzung evaluiert, der aus<br />

einem Workflow mit mehreren Webservice Aufrufen besteht.<br />

Günther Rest<br />

Condition-Monitoring in der Logistik mittels RFID<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />

Die lückenlose Überwachung von Umgebungsparametern (z.B. Temperatur)<br />

über die gesamte Logistikkette dient heute meist nicht mehr nur der Erfüllung<br />

gesetzl. Vorschriften sondern auch als wichtige Informationsquelle <strong>für</strong> QM-<br />

27


Maßnahmen. Die Tatsache, dass die Mehrzahl der produz. Unternehmen<br />

Logistik sehr oft an externe Spediteure auslagern und zumeist auch keine<br />

Informationsschnittstellen zum Austausch der Messdaten zwischen den<br />

Beteiligten vorhanden sind, erschweren diese Bemühungen erheblich. Nicht<br />

selten kommt es daher vor, dass ohne Wissen des jeweils anderen gleich<br />

mehrere verschiedene Systeme parallel eingesetzt werden. Die <strong>Band</strong>breite<br />

reicht dabei von teuren Onlinesystemen über integrierte Aufzeichnungsgeräte<br />

der Kühlaggregatehersteller, Datenlogger, bis hin zu<br />

einfachsten Stechthermometern. Immer häufiger findet man auf den<br />

Websites führender Logistik-Dienstleister in diesem Zusammenhang bereits<br />

viel versprechende RFID basierte Systeme. Auch die Umsatzprognosen <strong>für</strong><br />

RFID-Technologie (jährl. Steigerungsraten von 19%-25%) machen deutlich<br />

welch hohe Erwartungen in diese Technologie gesetzt werden. Nach einem<br />

kurzen geschichtl. Einblick in das Themengebiet und einer grundlegenden<br />

Einführung in die RFID-Technologie hinterfragt diese Arbeit, was heutige RFID<br />

Sensoriksysteme bereits zu leisten im Stande sind, wie die Anforderungen in<br />

den versch. Branchen aussehen und welche Hürden einem breiten Einsatz<br />

noch im Weg stehen. Bezüglich der techn. Probleme werden jeweils mögliche<br />

Lösungsansätze sowie wissenschaftl. Auseinandersetzungen präsentiert.<br />

Weiters wurden 2 konkrete Systeme ausgewählt, in der Lebensmittellogistik<br />

einem Praxistest unterzogen und in weiterer Folge ein Prototyp eines<br />

möglichen Temp.-Monitoring Systems erarbeitet und in Grundzügen<br />

umgesetzt. Zuletzt geht die Arbeit noch auf weitere<br />

Anwendungsmöglichkeiten von RFID Sensorik <strong>für</strong> Condition Monitoring<br />

anderer Zustands- und Umgebungsparameter ein und gibt einen kurzen<br />

Ausblick auf zukünftige Entwicklungen.<br />

Homa Rezaie<br />

Applying Semantic Web Concepts to GeoRSS<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />

This thesis introduces the concept of Semantic GeoRSS as an information<br />

integration approach that is based on and combines Semantic Web and<br />

GeoRss. The creation of a Semantic GeoRss requires the presentation of<br />

GeoRss with a formal semantics. For this purpose, appropriate domain ontologies<br />

provide a formal vocabulary for describing the GeoRss information. By<br />

means of these GeoRss ontologies, complex queries can be formally described<br />

and run on semantically described resources. In this case, ontologies<br />

are used for representing the annotations and the domain of interest. Meshing<br />

the two approaches to create a Semantic GeoRss increases the potential<br />

uses of Geospatial information for more serious use-cases. The thesis will explore<br />

this potential by discussing four use cases of Semantic GeoRss in order<br />

to clarify the relation between the Semantic Web and GeoRss information.<br />

28


Rene Schakmann<br />

Planung und Entwicklung eines Tools <strong>für</strong> Reporting, Monitoring und<br />

Unterstützung der Durchführung von Tests von Schnittstellen in heterogenen<br />

Systemlandschaften<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />

Im Gegensatz zu früher sind Geschäftsprozesse, die durch IT unterstützt<br />

werden, nicht mehr an lokale oder unternehmerische Grenzen gebunden.<br />

Zahlreiche Partnerschaften, Auslagerung von Systemen oder die Verteilung<br />

von Standorten führen dazu, dass sich heterogene Systemlandschaften<br />

bilden, die durch unterschiedlichste Schnittstellen miteinander verbunden<br />

werden müssen. Nicht nur die Entwicklung solcher Systeme stellt Herausforderungen,<br />

auch der Test dieser verteilten Anwendungen beinhaltet<br />

sowohl organisatorische als auch technische Aspekte. Bei Tests, die Schnittstellen<br />

betreffen, welche Daten in mehreren Schritten über unterschiedliche<br />

Systeme transportieren, sind Fehler oft nur schwer nachzuvollziehen, da sich<br />

das System <strong>für</strong> den meist fachlichen Tester ohne technisches Hintergrundwissen<br />

als Blackbox darstellt. Das Auffinden des Fehlers ist oft nur mit hohem<br />

zeitlichem und organisatorischem Aufwand möglich. Unterschiedliche<br />

Systeme können unter unterschiedlichen organisatorischen Verantwortungen<br />

stehen oder unterschiedliche Technologien verwenden. Diese Arbeit zeigt<br />

einen Ansatz wie diese Integrationstests sowohl organisatorisch als auch<br />

technisch durch ein Framework unterstützt werden können um eine<br />

Beschleunigung und Vereinfachung des Testvorgangs zu erreichen und die<br />

Tests von verteilten Systemen transparenter zu gestalten.<br />

Bernhard Tinkl<br />

Vergleich unterschiedlicher Ansätze zur Implementierung eines Business<br />

Continuity Management<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Privatdoz. Dr. Edgar Weippl<br />

Business Continuity Management (BCM) ist eine der zentralen und zukunftsträchtigsten<br />

Managementstrategien. Spätestens seit den Ereignissen vom 11.<br />

September 2001 gibt es wenig große Unternehmen, die nicht die eine oder<br />

andere Art von betrieblichem Kontinuitätsmanagement in Ihrem Unternehmen<br />

implementiert haben. Auch bei kleinen Unternehmen wird dieses Thema<br />

aktueller. Eine längere Unterbrechung kann möglicherweise eine Gefährdung<br />

<strong>für</strong> den Fortbestand des Unternehmens bedeuten. Das Problem welches sich<br />

Experten stellt, die ein BCM in ihr Unternehmen einführen wollen ist, dass es<br />

da<strong>für</strong> eine große Anzahl an verschiedenen Standards gibt. Es sind Kriterien zu<br />

erarbeiten, welche einen Vergleich der einzelnen Standards ermöglichen.<br />

Diese Kriterien werden erstellt. Da sich die Standards mit der Zeit ändern, soll<br />

es neben dem eigentlichen Vergleich der Standards zusätzlich als Ziel dieser<br />

29


Arbeit gesehen werden, neue Standards mit einem in der gegeben Arbeit zu<br />

vergleichen. Die Kriterien sind so ausgewählt, dass sie auch in den nächsten<br />

Jahren einen Großteil der Bedürfnisse abdecken und damit auch einen Vergleich<br />

von neuen Standards vereinfachen. Es werden einige der derzeit wichtigsten<br />

Standards ausgewählt. Diese Auswahl wurde vom Autor so getroffen,<br />

dass eine möglichst breite Auswahl verfügbar ist. Anschließend wurden diese<br />

miteinander verglichen. Da<strong>für</strong> werden zuerst diese Standards allgemein beschrieben,<br />

daran anschließend werden die erwähnten Kriterien herangezogen.<br />

Zuerst werden die Werke einzeln bewertet, im Anschluss daran werden<br />

sie in den zentralen Punkten miteinander verglichen. Damit wird entweder<br />

ein kompletter Überblick über die Werke gewährleistet oder der Nutzer<br />

kann die <strong>für</strong> sich selber relevanten Kriterien entnehmen. Als abschließendes<br />

Resultat wird eine Übersicht präsentiert, in welcher auf einen Blick die <strong>für</strong> die<br />

ausgewählten Kriterien passendsten Standards gezeigt werden.<br />

Elisabeth Weigl<br />

Mitigating the Bias of Retrieval Systems by Corpus Splitting - An Evaluation in<br />

the Patent Retrieval Domain<br />

Studium: Masterstudium Information & Knowledge Management<br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Typical information retrieval systems retrieve a low number of documents that<br />

are preferably close to the query. In contrast to that stands the patent domain<br />

as a recall oriented field where missing one single document in the patentability<br />

process can lead to costly law suits afterwards if a granted patent is<br />

invalidated. However, research showed that retrieval engines cannot find<br />

certain documents because they show a bias towards other document<br />

characteristics. Thus the goal of this work is to look further into one approach<br />

that deals with retrievability of documents and splits a single corpus in two<br />

corpora, one containing high, the other low findable documents. For this, the<br />

experimental setup has to be provided and the split done again. Afterwards<br />

merging strategies that combine the low and high result sets in different ways<br />

are tested with the presumption that low retrievable documents are now<br />

higher ranked and thus improve recall. This is tested with several models of<br />

three different retrieval engines, namely Terrier, Lemur and Solr. Evaluation<br />

shows that in most cases the models do not seem to be suitable for this<br />

merging, regarding recall and MAP values. Only precision at high rank seems<br />

to improve in general. The few models that perform better and which<br />

attributes make them more suitable are explained.<br />

30


Edin Zvizdic<br />

Software Defect Prediction Models: Optimizing Test Resource Allocation<br />

Based on Prediction of Defect Risks<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Ever since the software quality assurance cleared its path to become a<br />

significant discipline in the software development, experienced software<br />

professionals have been making an effort to research new possibilities for<br />

improvement of software quality. One shift importance between various<br />

aspects of software quality, but one is definite: a prerequisite for a high<br />

quality product is a low number of defects. There are many techniques<br />

developed which lead to reduction of defects, but namely defect prediction<br />

has gained a very significant role in the previous decade. By building complex<br />

models with numerous software measures and metrics, researchers were<br />

aiming to develop a baseline and draw conclusions which would set rules and<br />

increase accuracy of defect prediction. In this thesis we analyze the state of<br />

the art in the area of defect prediction, and discuss various aspects which are<br />

represented in the literature. We discover that traditional defect prediction<br />

models concentrate on the simple binary predictions or the prediction of<br />

defect counts, but neglect the impact of defects, namely their severities. We<br />

see these models as simplification of reality since all defects are treated the<br />

same. We recognize further that this is possible threat to the benefits of the<br />

predictions since they may provide information about defectiveness which is<br />

not accurate. For these reasons we introduce a new prediction measure:<br />

defect risk. Defect risk encapsulates information on number of defects and<br />

their severities. The model handles the cases where number of defects does<br />

not necessarily imply the level of the quality of the system. We set up the<br />

hypothetical NASA Test Management Scenario where we predict defect<br />

severities and calculate resource allocation coefficients for testing. The results<br />

show that altogether resource allocation was better if we used defect risks as<br />

basis for prediction.<br />

31


Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung<br />

Arbeitsbereich Human Computer Interaction<br />

Peter Holzkorn<br />

Discuss. New Designs for Asynchronous Online Discussion for E-Learning in<br />

Higher Education<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

Diskussion und Argumentation im Lehrveranstaltungskontext sind in allen akademischen<br />

Disziplinen essentiell. Im Rahmen dieser Arbeit wurde spezifisch<br />

<strong>für</strong> den Einsatz mit dem bestehenden E-Learning Framework am Institut <strong>für</strong><br />

Gestaltungs- und Wirkungsforschung der <strong>TU</strong> <strong>Wien</strong> (HCI group) ein asynchrones<br />

Online-Diskussionssystem namens discuss entwickelt, in dem die Qualität<br />

der Partizipation, die Höhe des Lernertrags und die benutzer-freundliche<br />

Handhabung im Vordergrund stehen. Die Hypothese ist, dass Verbesserungen<br />

an Diskussionssystemen im E- Learning-Kontext gegenüber etablierten<br />

Designs durch Veränderungen der visuellen Struktur und der Interaktionsmuster<br />

möglich sind. Im Rahmen der Diplomarbeit wurde ein Repertoire an<br />

Designstrategien erarbeitet und in Zusammenhang mit dem Designprozess<br />

des zu entwickelnden Systems gstellt. Der vorliegende Text gibt einerseits die<br />

Verknüpfung sozialwissenschaftlicher Grundlagen, Studien und Analysen bestehender<br />

Systemen wieder. Andererseits werden Konsequenzen <strong>für</strong> das Design<br />

gezogen und der Entwicklungsprozess des neuen Systems geschildert.<br />

Schließlich wird das System im Lichte der erarbeiteten Prinzipien evaluiert.<br />

Anatol Knotek<br />

Hypertext, Digitale und Konkrete Poesie - Bausteine <strong>für</strong> eine multimediale,<br />

interdisziplinäre Didaktik<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />

32<br />

Speziell in der heutigen Zeit, nachdem das Internet seinen Siegeszug<br />

angetreten hat und die Computertechnologie bereits weit fortgeschritten ist,<br />

bieten sich neue Möglichkeiten <strong>für</strong> Kunstschaffende, aber auch <strong>für</strong><br />

Professoren und Lehrer im Bereich der Didaktik. Das Ziel der Arbeit ist es,<br />

computerunterstützten Unterricht aus einem anderen Blickpunkt zu betrachten.<br />

Neue Möglichkeiten werden anhand von Hypertexten, Konkreter und<br />

Digitaler Poesie aufgezeigt, um Einsichten in mehrere Wissensgebiete wie die<br />

<strong>Informatik</strong>, die experimentelle Dichtung bzw. Literatur und die bildende Kunst<br />

zu geben. Der Schwerpunkt liegt auf der Herausarbeitung der unterschiedlichen<br />

Potentiale verschiedenster Disziplinen <strong>für</strong> die Didaktik und stellt somit<br />

eine Art Bausteinsystem <strong>für</strong> einen modernen Unterricht dar. Es werden ge-


genwärtige Beispiele Digitaler Poesie und Medienkunst vorgestellt und Parallelen<br />

zu Neuen Medien in der Didaktik und aktuellen Unterrichtspraxis gezogen.<br />

Zur Evaluierung wurden international tätige Professoren und Medien-<br />

Künstler zu ihren Erfahrungen befragt, um einen Einblick in die derzei-tige<br />

didaktische und künstlerische Praxis, aber auch einen Ausblick in die Zukunft<br />

zu geben.<br />

Eliza Makaruk<br />

e-Learning in the Form of an Interactive Multimedia German Course<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />

In this work e-learning methods have been discussed on the example of a<br />

computer language course. After short discussion of the e-learning characteristic<br />

and advantages, the work focuses on the psychological and pedagogical<br />

aspects of learning as also on the didactic learning theory. The technical<br />

realisation of the e-learning methods is reviewed. The issue of the interactivity<br />

in e-learning programs is tackled. Subsequently, e-learning software<br />

evaluation methods were analysed. The work finishes with an evaluation of<br />

an e-learning application for foreign language course in the context of<br />

interactivity. For the evaluation, opinions of software users were investigated<br />

As far as the results of the evaluation are concerned, it was found out that<br />

not every level of interactivity was implemented in the investigated<br />

application. The guidelines for the interactivity were realised in a reasonable<br />

way. The features like graphical navigation, clickability and simulation are<br />

well-implemented, however the feedback signals could be optimised.<br />

Clemens Mautner Markhof<br />

Game Design as Gameplay<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

The recent success of video games that focus on creating content, rules and<br />

new solutions instead of just playing-through them reveal that the current<br />

research on game design and theory needs to be adapted. The mechanics<br />

behind these games are yet unknown territory. In our thesis we identify and<br />

analyse game features, mechanics and dynamics that transform the process<br />

of creating the content and rules of a game into a series of player's<br />

challenges. We provide an overview and insight how game design elements<br />

can be used as gameplay by comparing traditional game literature, discussing<br />

the influence and impact of social interaction features, and reviewing game<br />

design as gameplay games while developing an explorative game prototype.<br />

Finally we propose some first theorems and rules about games and<br />

mechanics that focus on creating rather than consuming.<br />

33


Hanieh Moshki<br />

Exploring the adoption and use of social networking websites in SMEs<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

Betreuerin: Univ.Prof. Geraldine Fitzpatrick, PhD<br />

This thesis explores a rarely addressed topic in IT adoption literature, namely<br />

the adoption and use of public social networking websites (SNS) in small and<br />

medium sized enterprises (SME). Eight different SMEs located in Vienna which<br />

are using Facebook as their main SNS were studied. Apart from semistructured<br />

interviews, the content of the organizational posts are analysed to<br />

understand why and how these organizations are using SNS. The analysis of<br />

the interviews showed that six factors influence the adoption of SNS in<br />

studied SMEs which are; the attitude of manager’s real-life social network<br />

toward SNS, relative perceived ease of use and maintenance simplicity,<br />

understanding customer’s needs, willingness to define and share<br />

organizational identity, perceived social approval of SNS among target<br />

customers and dynamic nature of the business and regular changes. Posts<br />

which inform the customers about new products, services or events are the<br />

most popular message type among the studied cases. Based on the findings,<br />

this study debates the capability of rational adoption models for explaining<br />

this phenomenon and recommends the adoption models and theories with<br />

social constructs as models which can be adapted to answer why SMEs are<br />

using SNS.<br />

Katharina Pichler<br />

Eine Usability- und Utility- Evaluierungsstudie über das Monitoring of<br />

nosocomial infections in intensive care units-System (Moni) <strong>für</strong> den Einsatz<br />

auf Intensivstationen<br />

Studium: Masterstudium Information & Knowledge Management<br />

Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />

34<br />

Moni ist ein medizinisches Expertensystem, das zum frühzeitigen Erkennen<br />

von nosokomialen Infektionen am AKH <strong>Wien</strong> auf der Intensivstation<br />

eingesetzt wird. Entwickelt wurde Moni von der Medizinischen Universität<br />

<strong>Wien</strong> und Medexter Healthcare GmbH. Die vorliegende Arbeit befasst sich mit<br />

den Fragen ob sich Moni in den Routinebetrieb eines Krankenhauses<br />

übernehmen lässt und damit eine Unterstützung der Ärzte erwirken kann. Wie<br />

gut können Ärzte mit dem System arbeiten, genügen die Usability<br />

Anforderungen den heutigen Standards? Wie umgeht Moni die bekannten<br />

Probleme der Diagnosesysteme, Wissen formal darzustellen. Der erste Teil<br />

der Arbeit umfasst eine Literaturrecherche über den aktuellen<br />

Forschungsstand zum Themenbereich Expertensysteme in der Medizin. Es<br />

folgt die Erarbeitung der Grundstruktur <strong>für</strong> den Kriterienkatalog anhand der<br />

Literatur von Ben Shneiderman und Jakob Nielsen. Durch die Analyse der<br />

Systembenutzung mit Unterstützung von Dr. Harald Mandl und einer


Vorführung des Routine Systemeinsatzes durch Dr. Alexander Blacky vom AKH<br />

<strong>Wien</strong> wurden die praktischen Analysen durchgeführt. Am Ende wird der<br />

Kriterienkatalog ausgewertet. Das Ergebnis der Arbeit zeigt, dass Moni in<br />

Bezug auf Usability noch vereinzelt Schwächen aufweist, auf die in der Studie<br />

noch näher eingegangen wird. Hinsichtlich der Utility ist Moni jedoch bereits<br />

ausgereift. Die formale Darstellung der Regeln wird durch die Arden Syntax<br />

und deren Erweiterung Fuzzy Arden Syntax realisiert. Dadurch können<br />

Ergebnisse in Wertbereichen angegeben werden, was ein exakteres Resultat<br />

zulässt.<br />

Verena Spiteller<br />

Evaluation einer Sprachlernsoftware<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />

Gegenstand der Arbeit ist die Evaluation eines kommerziellen Sprachlern-<br />

Softwareprodukts zum selbstständigen Lernen von Französisch. Die<br />

Bewertungskategorien sind Usability, pädagogische Gestaltung,<br />

Spracherkennung und Akzeptanz. Dazu wurde eine zweiteilige empirische<br />

Studie durchgeführt. Sechs Testpersonen nahmen an einem Usability-Test<br />

teil, der auch Ausspracheübungen enthielt. Durch einen Pretest wurden die<br />

möglichen Testszenarien eingeschränkt. Zur Beurteilung der pädagogischen<br />

Gestaltung lernte eine Testperson einen Monat lang selbstständig mit dem<br />

Lernmaterial, wobei Lernprotokolle geführt wurden. Der Lernfortschritt wurde<br />

anhand eines Tests zu Beginn und am Ende der Lernphase ermittelt. Mit allen<br />

Testpersonen wurden Abschluss-Interviews durchgeführt. Die Resultate in<br />

den Kategorien Usability und pädagogische Gestaltung wurden anhand von<br />

Guidelines analysiert und dargestellt. Das evaluierte Produkt weist Mängel in<br />

Bezug auf Spracherkennung, Usability und pädagogische Gestaltung auf. Vor<br />

allem die Unzuverlässigkeit der Spracherkennung, die nicht-intuitive<br />

Benutzerschnittstelle, das mangelhafte Feedback und die Unübersichtlichkeit<br />

des Lernmaterials beeinträchtigen die Akzeptanz. Dennoch werden die<br />

Möglichkeiten, die das getestete Sprachlernprogramm <strong>für</strong> das Erlernen einer<br />

Sprache bietet, von den Testpersonen positiv bewertet. Die Ergebnisse der<br />

empirischen Studie bestätigen die Bedeutung von Guidelines und Usability-<br />

Tests <strong>für</strong> die Entwicklung von Sprachlernprogrammen.<br />

35


Claus Stachl<br />

Theoretische Aspekte der Ästhetik und deren Diskurs sowie Evaluation<br />

anhand pragmatischer Casual InfoVis<br />

Studium: Masterstudium Medieninformatik<br />

Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />

Auch die Informationsvisualisierung (InfoVis) bemüht sich nunmehr um<br />

richtungsweisende Fortschritte auf dem Gebiet der Ästhetik. Zum einen sollen<br />

hier allgemein gültige Gesetze einer objektiven Ästhetik zu gleichsam<br />

schönen wie effektiv wahrnehmbaren Visualisierungstechniken führen. Zum<br />

anderen bieten die jüngst zahlreich im Internet kursierenden Datenvisualisierungen<br />

viel Zündstoff <strong>für</strong> Diskussion innerhalb einer pragmatisch-analytisch<br />

orientierten InfoVis. Neue Taxonomien und adäquate Evaluationsmodelle bezüglich<br />

der Effekte von Ästhetik in der InfoVis sind gefordert. Es soll somit<br />

Aufgabe dieser Arbeit sein, wesentliche Aspekte der Ästhetik zusammenzuführen<br />

und <strong>für</strong> eine Betrachtung innerhalb der InfoVis zu erörtern. Das zentrale<br />

Erkenntnisinteresse liegt dabei ganz klar auf Entwürfen eines modernen<br />

Schönheitbegriffes zwischen rationaler Analytik und emotionaler Subjektivität.<br />

Ein umfassender Literaturvergleich bietet hier<strong>für</strong> breite theoretische Grundlagen.<br />

Schließlich werden letztere anhand einer umfassenden Evaluation<br />

eines Casual-InfoVis-Prototypen empirisch erfasst. Der erste Teil der Studie<br />

umfasst einen Reihungstest nach ästhetischen Präferenzen. Das Resultat bestätigt<br />

dabei weitgehend die auf Basis der Theorie gestützten Hypothesen.<br />

Nicht nur Ordnungsstrukturen, auch Komplexität wirkt sich zugunsten eines<br />

ästhetischen Maximums aus. Der zweite Teil der Studie beinhaltet eine<br />

eingehende Betrachtung von 5 Thinking-Aloud-Sitzungen in Bezug auf die<br />

Beobachtungskriterien Motivation und Nutzungsverhalten sowie Usability und<br />

Vielseitigkeit. Die Aufgabe der Ästhetik in der InfoVis darf demnach nicht<br />

bloß darauf beschränkt werden, ein visuell schönes Erscheinungsbild zu<br />

prägen.Vielmehr dient Ästhetik als initialer Motivationsfaktor, als emotionales<br />

Bindeglied zwischen Publikum und Anwendung, als Medium von<br />

Aufforderungscharakter und Funktion, als metaphorischer Rahmen <strong>für</strong><br />

Storytelling und Interpretation und nicht zuletzt der effektiven und effizienten<br />

Wahrnehmung.<br />

36


Arbeitsbereich Multidisciplinary Design<br />

Simon Brugner<br />

Über die Realität im Zeitalter digitaler Fotografie<br />

Studium: Masterstudium Medieninformatik<br />

Betreuerin: Univ.Prof. Dr. Ina Wagner<br />

Die digitale Bilderproduktion hat sich, so wie digitale Technologien<br />

überhaupt, gegenüber ihrem analogen Pendant durchgesetzt. Auf dem<br />

Siegeszug der digitalen Technik wurde die analoge Fotografie <strong>für</strong> obsolet<br />

erklärt. Die Relevanz der analogen Fotografie liegt heute nur mehr in ihrer<br />

kulturgeschichtlichen Bedeutung, nicht aber in ihrer im Alltag praktizierten<br />

Form. Mit dem Triumph der digitalen Bilder geht auch ein Vertrauensverlust<br />

fotografischen Bildern gegenüber einher. Das objektive Bild der Wirklichkeit<br />

scheint gemeinsam mit der analogen Fotografie begraben worden zu sein.<br />

Die digitale Bildmanipulation ermöglicht den Einzug einer Virtualität in die<br />

fotografischen Bilder, welche die dort zuvor verortete Realität zu verdrängen<br />

scheint. Die vorliegende Arbeit untersucht den Wandel der Realität bzw. des<br />

Realitätsbegriffes, der sich durch die Verdrängung der analogen durch die<br />

digitale Bilderproduktion vollzogen hat. Das Hauptaugenmerk dieser<br />

kritischen, auf Materialien aus dem Überschneidungsfeld von Erkenntnis-,<br />

Fotografie- und Medientheorie zurückgreifenden, Literaturanalyse liegt in der<br />

Untersuchung des Realitätsbegriffs im Zeitalter der digitalen Fotografie. Die<br />

Natürlichkeit des fotografischen Bildes wird widerlegt und das Bild als<br />

wissenschaftliche, industrielle und kulturelle Konstruktion ausgewiesen.<br />

Ebenso wie das fotografische Bild ist auch die dadurch vermittelte objektive<br />

Realität eine Konstruktion. Mit der Verbreitung der digitalen Bilderproduktion<br />

kommt das Bewusstsein über die Konstruiertheit der fotografisch vermittelten<br />

Realität in der breiten Öffentlichkeit an.<br />

Agnes Kahofer<br />

MusicTheoryTable - Ein Tangible User Interface zur Unterstützung des<br />

Musikkundeunterrichts an Musikschulen<br />

Studium: Masterstudium Medieninformatik<br />

Betreuerin: Associate Prof. Dr. Hilda Tellioglu<br />

Die Vermittlung von musiktheoretischen Grundlagen begleitend zum<br />

Instrumentalunterricht erweitert die Fähigkeiten und Kompetenzen von<br />

Musikschülerinnen und Musikschülern. Deshalb beschäftigt sich diese Arbeit<br />

mit dem Entwurf und der daraus folgenden Umsetzung eines Prototyps zur<br />

Unterstützung des Musikkundeunterrichts an Musikschulen, um eine<br />

kollaborative, intuitive Lernumgebung mit modernen Interaktionsmöglichkeiten<br />

aufzuzeigen. In einem iterativen Designprozess mit benutzerzentrierten<br />

Methoden wurde eine Anwendung mit einem Tangible User Interface<br />

konzipiert, welche mit einem optischen Trackingsystem, einer Projektion und<br />

37


einer akustischen Wiedergabe umgesetzt wurde. Daraus entstand der<br />

Prototyp MusicTheoryTable (MTT), der verschiedene Aufgabenstellungen<br />

generiert, die durch Schreiben von Noten und Vorzeichen mittels optischer<br />

Marker gelöst werden können. Zudem wurden Evaluierungen mit<br />

Musikschülerinnen und Musikschülern des Musikkundeunterrichts einer<br />

niederösterreichischen Musikschule mittels Videobeobachtungen, offenen<br />

Interviews und einem teilstandardisierten Fragebogen durchgeführt, um<br />

Anforderungen und Bedürfnisse zu identifizieren und Erkenntnisse über<br />

Verbesserungs- und Einsatzmöglich-keiten zu gewinnen. Diese Erkenntnisse<br />

bilden die Basis <strong>für</strong> mögliche Weiter-entwicklungen und zeigen die Potenziale<br />

einer derartigen Anwendung auf.<br />

Peter Smejkal<br />

Die Bedeutung von Instant Messaging in der Alltags-Kommunikation von<br />

Studierenden<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />

Instant Messaging ist in den letzen Jahren ein fixer Bestandteil der<br />

zwischenmenschlichen Kommunikation geworden. Bei der Kommunikation<br />

über dieses Medium werden Textnachrichten mittels eines Client-Programms<br />

über ein Netzwerk zwischen mehreren Personen versandt. Diese Diplomarbeit<br />

geht der Frage nach, wie diese neue Kommunikationsweise des Instant<br />

Messagings in den Alltag der Benutzer eingebaut wird, welche Bedeutung sie<br />

<strong>für</strong> die handelnden Individuen hat und wie sich das Alltagshandeln durch die<br />

Nutzung verändert. Da es in Bezug auf Studierende bislang vorwiegend<br />

quantitative Studien gibt, wurde zur Beantwortung der Forschungsfrage<br />

dieser Diplomarbeit die Methode des qualitativen Interviews gewählt, um der<br />

Frage nach der Bedeutung der neuen Kommunikationsmöglichkeit des Instant<br />

Messagings <strong>für</strong> die Nutzer nachzugehen. Es wurden hier<strong>für</strong> mit Hilfe des<br />

problemzentrierten Interviews nach Witzel elf Studierende interviewt. Zur<br />

Datenerfassung wurden die Interviews mittels Aufnahmegerät aufgezeichnet.<br />

Nach vollständiger Transkription dieser Aufnahmen erfolgte die Analyse und<br />

Interpretation des Datenmaterials nach dem Grundsatz der<br />

sozialwissenschaftlichen Hermeneutik, wobei die Methode der<br />

Kernsatzfindung nach Leithäuser und Volmerg und das theoretische Modell<br />

des Symbolischen Interaktionismus nach Blumer und Mead verwendet wurde.<br />

Die zentralen Ergebnisse dieser Arbeit zeigen, dass Instant Messaging<br />

mittlerweile eine wichtige Rolle im Alltag von Studierenden eingenommen<br />

hat. Die Vorteile von Instant Messengern helfen den Kontakt mit Freunden<br />

und Bekannten aufrecht zu erhalten und zu intensivieren. Es zeigt sich, dass<br />

durch die Kommunikation über Instant Messenger eine Anpassung des<br />

Nutzungsverhaltens stattfindet. Auch im Vergleich mit den anderen<br />

technischen Kommunikationsmöglichkeiten zeigt sich das die Wahl des<br />

Mediums an die jeweilige Situation und Dringlichkeit angepasst wird.<br />

38


Institut <strong>für</strong> Computergraphik und Algorithmen<br />

Arbeitsbereich Computergraphik<br />

Thomas Bruckmayer<br />

The Creation of a Methodology for the Architectural Design Phase of a<br />

Scenario-Driven Software Development Environment<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Univ.Prof. Dr. Hermann Kaindl<br />

Das Ziel des ReDSeeDS-Projekts mit Unterstützung der Europäischen Union,<br />

war die Schaffung einer auf Szenarien basierenden Software-<br />

Entwicklungsumgebung. Diese Umgebung ermöglicht Software-Entwicklern<br />

Informationen (Modelle und Code) zu ähnlichen Problemstellungen abzurufen,<br />

und die abgerufenen Informationen <strong>für</strong> die weitere Wiederverwendung<br />

anzupassen. Die Anwendung des ReDSeeDS-Projekts erweitert jede Entwicklungsphase<br />

um weitere Möglichkeiten, das wiederum bedeutet, dass<br />

zusätzliche Aktivitäten koordiniert werden müssen. Eine ausführliche Anleitung<br />

<strong>für</strong> die Abwicklung jeder Phase wird durch die ReDSeeDS-Methodik, die<br />

von mehreren Entwicklern aus verschiedenen europäischen Ländern erstellt<br />

wurde, zur Verfügung gestellt. Die Entwicklung einer solchen Methodik ist<br />

eine komplexe Aufgabe und daher beschreibt diese Magisterarbeit im Detail<br />

die ReDSeeDSArchitekturentwurfsphase und deren Dokumentation in der<br />

ReDSeeDS-Methodik. Darüber hinaus ist die ReDSeeDS-Methodik eng an das<br />

ReDSeeDS-Tool gekoppelt, um die Lücke zwischen der allgemeinen<br />

Beschreibung der Methodik und der detaillierten, toolspezifischen Beschreibung<br />

zu überbrücken. Zum Beispiel beschreibt die Methodik, dass ein bestimmtes<br />

Resultat innerhalb einer bestimmten Tätigkeit erstellt werden muss. Die<br />

allgemeine textuelle Beschreibung dieser Tätigkeit ist direkt mit dem Tool<br />

verknüpft, um die konkrete Vorgehensweise im Tool durch automatisierte<br />

Benutzeraktionen aufzuzeigen. Diese Arbeit befasst sich auch mit den<br />

theoretischen Grundlagen und der technischen Umsetzung dieses Methodik-<br />

Tool-Kopplungsansatzes.<br />

Tobias Fechter<br />

Deformation Based Manual Segmentation in Three and Four Dimensions<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />

Segmentation of medical image data has grown into one of the most<br />

important parts in medicine. The main elds of segmentation in the area of<br />

medicine are surgical planning, diagnosis, therapy planning and simulation.<br />

The focus was in the last years mainly on automatic and semi-automatic<br />

segmentation methods for 3D and 4D datasets. Most of them are highly<br />

39


specialized as they need a lot of prior knowledge and often the results have<br />

to be corrected manually. An alternative to automatic and semi-automatic<br />

methods is to perform the segmentation manually. The main drawbacks of<br />

this approach are that it is very tedious and time consuming, the user<br />

knowledge has a very high impact on the results and it is very hard to<br />

reproduce specific results. This work presents a tool that enables the user to<br />

enhance results of automatic and semi-automatic algorithms and to do fast<br />

manual segmentation of shapes of arbitrary topology from scratch. The tool<br />

can deal with three and four dimensional image datasets captured by<br />

different modalities. The segmentation is mesh based and performed with a<br />

2D cut approach. To achieve a better alignment of the edges to a specific<br />

shape the edge class based Sticky Edges algorithm is introduced.<br />

Furthermore, well known mesh optimization algorithms were implemented to<br />

accomplish better results. To achieve a faster segmentation of 4D datasets<br />

two methods are presented. With the rst one the user can record its<br />

interactions on one volume in the 4D dataset and apply them automatically to<br />

the other volumes. The other one enables the user set an already segmented<br />

mesh as start position for the segmentation of other volumes. The approach<br />

presented in this work is up to 25 times faster than the evaluation approach.<br />

Moreover, the mesh quality regarding smoothness, curvature and triangle<br />

quality are at eye level with the evaluation meshes. The geometric distance to<br />

the ground truth meshes is on average 2 mm and the normal deviation is<br />

between 0.3 and 0.4 degree.<br />

Axel Goldmann<br />

Towards GPU Speech Coding<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Associate Prof. Dr. Michael Wimmer<br />

Speech transmission is the central service in many telecommunication<br />

infrastructures. The encoding of many channels according to modern<br />

standards requires a fair amount of processing capacity. With the recent GPU<br />

product lines, powerful platforms have become available as supplement to<br />

desktop CPUs. This thesis tries to leverage these developments and examines<br />

the possibilities of general purpose GPU employment in the context of<br />

speech coding. The speech codec used in the TETRA mobile radio system is<br />

implemented using the CUDA programming model. The main question is,<br />

how many channels can be encoded in real time on current GPUs. Results<br />

show that through careful implementation and with some effort, a substial<br />

number of channels can be processed. It seems however that modern<br />

multicore CPUs are much better qualified for the task. The presented<br />

optimizations are far from complete and further research directions are<br />

suggested.<br />

40


Andreas Grünauer<br />

Coronary Artery Tracking with Rule-based Gap Closing<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />

Coronary artery diseases are among the leading causes of death in the<br />

industrial countries. The high death rate leads to an increased demand of<br />

diagnosis and treatment of these diseases. Additional to the conventional<br />

coronary angiography, the CT angiography is mainly used in the extended<br />

diagnostics of coronary artery diseases. This modality allows a detailed<br />

assessment of the coronary vessels and potentially present stenoses. For<br />

supporting the radiologist during the evaluation of the coronary arteries by the<br />

help of computer-aided diagnostic methods, robust and efficient proce-dures<br />

for the tracking of coronary arteries are needed. The approach presen-ted in<br />

this thesis unifies the strong points of existing methods delivering high accuracy<br />

with the strong points of methods achieving high overlap. Therefore the<br />

approach presented in this thesis aims at highly accurate results in combi-nation<br />

with high overlap of the investigated coronary artery vessel tree. The approach<br />

is divided into three phases: 1) calculation of seed points, 2) track-ing of vessel<br />

segments, and 3) construction of the coronary artery trees. Pha-se 1 & 2 are<br />

executed in an automatic manner. First potential seed points for the tracking of<br />

vessel segments are identified. During the second phase, ves-sel segments<br />

located at these seed points are tracked by use of a cylindrical shape model. By<br />

use of rule-based anatomical heuristics, the third and final phase combines<br />

vessel segments to form complete coronary artery trees. This phase requires<br />

minimal user interaction, as the location of the root of the left and right<br />

coronary artery tree needs to be specified. Beside the detailed description of<br />

the algorithm, the integration into a professional radiology workstation is<br />

demonstrated. The results obtained by the evaluation on 24 CTA datasets show<br />

a high overlap (OV) of 89.5\% in combination with very precise accuracy (AI) of<br />

0.24 mm in comparison to an expert-annotated reference segmentation.<br />

Michael Hanzl<br />

Spontaneous Social Networks<br />

Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />

Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />

Soziale Netzwerke sind ein gut erforschtes Gebiet, mit entsprechend viel<br />

wissenschaftlicher Literatur. Soziale Netzwerke werden heutzutage <strong>für</strong> viele<br />

verschiedene Anwendungsfelder, wie z.B. im geschäftlichen Umfeld, <strong>für</strong> den<br />

Unterricht und die Lehre, in der Medizin und um andere Personen kennen zu<br />

lernen, verwendet. Diese Anwendungsgebiete machen Soziale Netzwerke<br />

sehr populär. Das zugrunde liegende Konzept eines Sozialen Netzwerks ist ein<br />

Graph, der aus Knoten und Kanten besteht. Personen werden als Knoten<br />

dargestellt und die sozialen Beziehungen zwischen diesen Personen als<br />

41


Kanten. Der soziale Graph ist semantisch sehr starr und mühsam zu verändern.<br />

Eine Verbindung zwischen zwei Personen muss normalerweise von beiden<br />

Personen akzeptiert werden und erfordert ein manuelles Eingreifen der<br />

Benutzer. Spontane Soziale Netzwerke - Spontaneous Social Networks (SSNs) -<br />

verwenden im Gegensatz zu Sozialen Netzwerken viel flexiblere Graphen, bei<br />

denen das Eingreifen des Benutzers auf ein Minimum reduziert wird. Kanten<br />

werden in Echtzeit von Geräten, wie z.B. Smartphones und Desktop PCs erzeugt<br />

und gelöscht. Auf den SSNs operieren Applikationen, die den Zweck und die<br />

Eigenschaften des Spontanen Sozialen Netzwerkes festlegen. Außerdem bieten<br />

sie dem Benutzer eine Schnittstelle zur Benutzung von SSNs. Das Ziel dieser<br />

Diplomarbeit ist das Design eines Standards und die Implementierung eines<br />

Frameworks <strong>für</strong> SSNs. Etliche Beispielapplikationen demonstrieren die<br />

Funktionen und Fähigkeiten des Frameworks. Für die Kommunikation in SSNs<br />

wird das Extensible Messaging and Presence Protocol (XMPP) und das Publish-<br />

Subscribe Modell verwendet. Die Eigenschaften und Ansätze <strong>für</strong> das Auffinden<br />

von SSNs werden behandelt. Die Implementierung wird mit Hilfe des System<br />

Usability Scale (SUS) in Bezug auf die Brauchbarkeit bzw. Benutzerfreundlichkeit<br />

evaluiert. Außerdem wird die Tauglichkeit von XMPP, die Skalierbarkeit sowie<br />

der Datenschutz in SSNs und der Beispielimplementierung diskutiert.<br />

Martin Kinkelin<br />

Variational Reconstruction and GPU Ray-Casting of Non-Uniform Point Sets<br />

using B-Spline Pyramids<br />

Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />

Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />

42<br />

In this work, we focus on the problem of reconstructing a volume (scalar 3D<br />

field) based on non-uniform point samples and then rendering the volume by<br />

exploiting the processing power of GPUs. In the first part involving the<br />

reconstruction, we motivate our choice of tensor-product uniform B-splines<br />

for the discretized representation of the continuous volume. They allow for<br />

highly efficient, scalable and accurate reconstruction at multiple scales<br />

(resolution levels) at once. By subdividing the volume into blocks and reconstructing<br />

them independently, current desktop PCs are able to reconstruct<br />

large volumes and multiple CPU cores can be efficiently exploited. We focus<br />

on linear and cubic B-splines and on how to eliminate otherwise resulting<br />

block discontinuities. Once we have reconstructed the volume at multiple<br />

scales, we can derive different Levels of Detail (LoDs) by subdividing the volume<br />

into blocks and selecting a suitable scale for each block. We present a<br />

fusion scheme which guarantees global C^0 continuity for linear LoDs and<br />

C^2 continuity for cubic ones. The challenge here is to minimize visual block<br />

interscale discontinuities. A LoD, consisting of a hierarchical spatial subdivision<br />

into blocks and an autonomous B-spline coefficient grid for each block,<br />

is then rendered via a GPU ray-caster. We achieve interactive frame-rates for<br />

qualitative Direct Volume Renderings (DVRs) and real-time frame-rates for isosurface<br />

renderings.


Christian Niederreiter<br />

Spectral Mipmapping<br />

Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />

Betreuer: Univ.Prof. Dr. Werner Purgathofer<br />

Full-spectral color rendering capability of global illumination renderers is still<br />

in need of improvement, particularly regarding performance, which is a<br />

reason why many modelling programs for global illumination are focused on<br />

three-component based color representation (e.g. RGB). Full-spectral color<br />

representations are the basis for realistic color appearance in realistic image<br />

synthesis. Currently, if compared to common three-component rendering, the<br />

major disadvantage of full-spectral rendering comes from higher computation<br />

costs because of the greater amount of processed information. This thesis<br />

investigates promising approaches of spectral color representation in the<br />

context of a multi-level color rendering model called Spectral Mipmapping,<br />

focused on the trade-off between time-efficiency and resulting image quality<br />

in terms of perceived color difference. A test implementation in a basic ray<br />

tracing renderer is used to evaluate results and make suggestions concerning<br />

appropriate code design optimizations and spectral sampling strategies. The<br />

influence of compiler optimization and vector instruction use (based on SSE<br />

instructions) is discussed.<br />

Marcel Nürnberg<br />

Cell-Based Object Representation<br />

Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />

Betreuer: Associate Prof. Dr. Michael Wimmer<br />

Today's real-time applications, such as computer games or virtual<br />

environments, need to display more and more geometrically complex<br />

surfaces. Texturing mapping is insufficient to produce such high geometric<br />

complexity. This thesis proposes a cell-based approach to model and render<br />

repetitive fine scaled details with a high visual quality providing local parallax,<br />

correct occlusions and convincing silhouettes. Since cell-based objects are<br />

displayed with a ray tracing sophisticated effects such as specular selfreflection<br />

and refraction are also possible to render. Decomposition of the<br />

object into a low frequent geometry (the rough representation called the<br />

basic mesh) and high frequent surface details (stored in a 3D texture map<br />

called the cell map). A cell map contains voxel-based components the socalled<br />

cells. The idea is to tile these cells regularly over the 3D object space.<br />

Consequently the set of all inside cells make up the final cell-based object.<br />

The precomputed cell-based objects are displayed with ray tracing. By<br />

rendering the basic mesh, the objects surface is the entry point for the ray<br />

tracing algorithm. Rays are shot in eye direction to hit an inside cells<br />

boundary by performing a linear search with a subsequent binary search.<br />

43


Martin Stingl<br />

Robust Hard Shadows<br />

Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />

Betreuer: Associate Prof. Dr. Michael Wimmer<br />

Die Generierung von Schatten in großen virtuellen Umgebungen <strong>für</strong><br />

Echtzeitrendering Anwendungen wie z.B. Videospielen ist nach wie eine<br />

große Herausforderung <strong>für</strong> die Computergraphik. In den letzten Jahren haben<br />

sich Shadowmapping und verschiedene Varianten davon in großem Umfang<br />

als geeignete Methode zur Schattenerzeugung durchgesetzt, was in letzter<br />

Zeit zur Einführung sehr vieler erweiterter Shadowmapping Techniken geführt<br />

hat. Aus diesem Grund ist es manchmal schwierig <strong>für</strong> Entwickler die passende<br />

Methode <strong>für</strong> bestimmte gegebene Szenarios auszuwählen. Diese<br />

Diplomarbeit konzentriert sich auf die Analyse von einigen gebräuchlichen<br />

komplett hardware-beschleunigten Shadowmapping Techniken und die<br />

Möglichkeit sie zu kombinieren. Wir präsentieren ein interaktives Framework,<br />

dass es dem Anwender erlaubt mit den gewählten Methoden zu<br />

experimentieren und fast alle interessanten Aspekte des Schattenerzeugungsprozesses<br />

<strong>für</strong> beliebige Szenen zu visualisieren. Es unterstützt die Möglichkeit<br />

der Schattengenerierung durch die Verwendung von mehreren Shadowmaps,<br />

durch Umverteilung der Samples oder beides gemeinsam, und bietet größt<br />

mögliche Flexibilität durch zahlreiche veränderbare Parameter. Außerdem<br />

enthält es die Möglichkeit die finalen Resultate aus unterschiedlichen<br />

Blickpunkten zu analysieren, was es Entwicklern ermöglichen sollte <strong>für</strong> die<br />

gegebenen Szene den am besten geeigneten Algorithmus zu finden.<br />

Le Zhang<br />

Improving the Visibility of In-game Advertisements<br />

Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />

Betreuer: Associate Prof. Dr. Michael Wimmer<br />

44<br />

Computerspiele sind zu einer der wichtigsten Branchen der<br />

Unterhaltungsindustrie geworden. Aber die intensive Interaktion des<br />

Benützers interferiert mit seiner Wahrnehmung und Aufmerksamkeit, da die<br />

Spieler primär auf die gegenwärtig auszuführende Aufgabe fokussiert sind.<br />

Daher werden Informationen, die nicht direkt mit der Aufgabe des Spiels<br />

zusammenhängen, wie z.B. Werbebanner, nicht bemerkt werden. Dieses<br />

Verhalten, bekannt als inattentional blindness (Blindheit durch Ablenkung) ist<br />

ein Hauptproblem <strong>für</strong> die optimale Platzierung von Informationen<br />

(insbesondere spielrelevante Nachrichten) oder Werbung in der virtüllen<br />

Umgebung des Spieles. Meine Diplomarbeit wird einen Rückblick auf die<br />

Entwicklungsgeschichte, einen Überblick über gegenwärtige Methoden und<br />

Themen von Werbung in Computerspielen geben, wobei inbesondere<br />

dieWahrnehmung von in die Spielumgebung eingebettetenWerbebannern<br />

diskutiert wird und eine Methode vorschlagen wird, um die Inattentional


Blindness zu durchbrechen um solche Werbebanner im Spiel sichtbarer zu<br />

machen. Der zugrundeliegende Ansatz basiert aufWolfes Theorie der Guided<br />

Search, die eine relativ verlässliches Modell <strong>für</strong> top-down kontrollierte visuelle<br />

Aufmerksamkeit während visueller Suchaufgaben bietet. Da sich in<br />

Computerspielen häufig visuelle Suchaufgaben ergeben, ist unsere<br />

Hypothese dass dieses Modell auch in umgekehrter Richtung angewendet<br />

werden kann, so dass die Salienz einiger Werbebanner soweit erhöht wird<br />

dass sie vom Spieler gesehen werden, auch während dieser Aufgaben<br />

erledigt die seine Aufmerksamkeit besonders in Anspruch nehmen. Um diese<br />

Hypothese zu Testen, wurde ein Computerspiel implementiert und eine<br />

Benutzerstudie durchgeführt, wo der Effekt unsere Methode mit einem<br />

Gedächnistest überprüft wurde.<br />

Arbeitsbereich Algorithmen und Datenstrukturen<br />

Karl-Michael Edlinger<br />

Optimierung der periodischen Tourenplanung in der Müllentsorgung<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />

Das Müllaufkommen in Österreich steigt stetig an. Den produzierten Müll zu<br />

entsorgen, stellt ein großes logistisches Problem dar. Viel Knowhow und Zeit<br />

werden in die Planung investiert, und trotzdem werden nicht immer<br />

zufriedenstellende Lösungen gefunden. In der Fachliteratur existieren einige<br />

Lösungsverfahren <strong>für</strong> die Müllsammlung, doch keines, das auch die vielen<br />

Voraussetzungen <strong>für</strong> den Praxiseinsatz erfüllen würde. Sollte es aber nicht<br />

doch möglich sein, die Planungsbeauftragten bei ihren Aufgaben zu<br />

unterstützen und dadurch die Kosten zu reduzieren? Geplant wird die<br />

regelmäßige Müllabholung <strong>für</strong> einen gewissen Zeitraum (z.B.: eine<br />

Arbeitswoche). In diesem Planungszeitraum müssen einige Behälter mehrmals<br />

entleert werden. Aus der Anzahl der notwendigen Entleerungen im<br />

Planungszeitraum ergeben sich Besuchsmuster. Für jeden Müllcontainer muss<br />

ein Besuchsmuster ausgewählt werden. Daraus ergibt sich <strong>für</strong> die Fahrzeuge<br />

jeden Tag eine Liste an Behältern, die sie entleeren. Hat ein Fahrzeug einige<br />

Müllbehälter entleert und seine maximale Ladekapazität fast erreicht, so muss<br />

das Fahrzeug zu einer Entladestation fahren. Modelliert werden kann die<br />

Müllsammlung als Multi-Depot Periodic Vehicle Routing Problem with<br />

Intermediate Facilities (MDPVRP-IF). Nach einer zufälligen Auswahl eines<br />

Besuchsmusters <strong>für</strong> alle Abfallbehälter wird mit der Savings-Heuristik eine<br />

Startlösung erstellt. Das Variable Neighborhood Search-Verfahren (VNS) hat<br />

schon bei ähnlichen Problemen seine Vorzüge bewiesen und wurde <strong>für</strong> die<br />

Müllsammlung adaptiert. Als lokale Suche kommt 2-Opt zum Einsatz und als<br />

Akzeptanzkriterium wird Simulated Annealing (SA) verwendet. Getestet wurde<br />

das VNS mit Echtdaten eines Entsorgungsunternehmens. In weniger als 60<br />

Minuten lieferte das VNS-Verfahren <strong>für</strong> alle Testszenarien Lösungen, die von<br />

45


einem Disponenten als Verbesserungen im Vergleich zu den bisherigen<br />

Lösungen bezeichnet wurden. Ein Praxis-Einsatz des Lösungsverfahrens in der<br />

nächsten Planungsperiode ist angedacht.<br />

Gernot Fritz<br />

Heuristic Methods for the Hop Constrained Survivable Network Design<br />

Problem<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />

In der vorliegenden Arbeit werden heuristische und metaheuristische<br />

Lösungsalgorithmen <strong>für</strong> das Hop Constrained Node Survivable Network<br />

Design Problem (HNSND) und das Hop Constrained Edge Survivable Network<br />

Design Problem (HESND) präsentiert und miteinander verglichen. Hop<br />

Constrained Survivable Network Design ist ein NP-schweres Problem.<br />

Nachdem die Lösung in der vorliegenden Arbeit als Subgraph repräsentiert<br />

wird, ist bereits der Test, ob eine Lösung gültig ist, NP-schwer. Daher liegt der<br />

erste Schwerpunkt der Arbeit auf der Entwicklung eines fortgeschrittenen<br />

Tests, welcher in polynomieller Zeit zumindest ungültige Lösungen<br />

ausschließen kann, dies am besten mit einer sehr kleinen Fehlerrate, um die<br />

Anwendungen des zeitintensiven exakten Gültigkeitstest zu minimieren. Die<br />

Ergebnisse auf den getesteten Instanzen zeigen, dass der polynomielle<br />

"Advanced Check" eine Fehlerrate von rund 1% in Bezug auf "False Positives"<br />

hat, mit anderen Worten rund 1% der durchgelassenen Lösungen keine<br />

gültige Lösung darstellen. Darüber hinaus liegt der Algorithmus insgesamt in<br />

rund 0,40% aller getesteten Instanzen mit seiner Bewertung falsch. Danach<br />

werden 27 verschiedene Lösungsalgorithmen entwickelt, darunter zehn<br />

Konstruktionsheuristiken, zehn Variable Neighborhood Descent (VND)<br />

Varianten, sechs Multi-Start VND Varianten, sowie ein Greedy Randomized<br />

Adaptive Search Procedure Ansatz. Weiters wird ein verbesserter exakter<br />

Gültigkeitstest präsentiert. Die Ergebnisse auf den getesteten Instanzen<br />

zeigen, dass einige Verfahren optimale Ergebnisse erzielen. Überblicksmäßig<br />

ergibt sich <strong>für</strong> das HESND im Schnitt eine Abweichung von 5-25% von der<br />

Optimallösung, <strong>für</strong> das HNSND gibt es keine Vergleichswerte auf den<br />

getesteten Instanzen. Zusammenfassend ist zu sagen, dass die vorliegende<br />

Arbeit eine große Toolbox an heuristischen Methoden <strong>für</strong> Hop Constrained<br />

Survivable Network Design Probleme präsentiert, welche gute Resultate in<br />

vernünftiger Zeit erzielen.<br />

46


Christian Gruber<br />

Ein Lösungsarchiv mit Branch-and-Bound-Erweiterung <strong>für</strong> das Generalized<br />

Minimum Spanning Tree Problem<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />

In dieser Arbeit wird ein Algorithmus <strong>für</strong> das Generalized Minimum Spanning<br />

Tree-Problem (GMST) entwickelt. Bei diesem Verfahren wird ein Evolutionärer<br />

Algorithmus (EA) mit zwei verschiedenen Lösungsarchiven verwendet. Die<br />

Lösungsarchive werden dazu benutzt Lösungen zu speichern, um Duplikate<br />

zu erkennen und diese in neue Lösungen umzuwandeln. Diese Archive<br />

werden in dieser Arbeit durch eine Bounding-Strategie basierend auf dem<br />

Branch and Bound Verfahren erweitert. Dabei wird versucht im Archiv an<br />

günstigen Positionen geeignete Bounds zu berechnen, die Auskunft darüber<br />

geben, wie gut die Lösungen in diesem Bereich des Archivs höchstens sein<br />

können. Wird eine Bound gefunden, die schlechter als die beste gefunden<br />

Lösung ist, sind diese Lösungen im weiteren Verlauf des Algorithmus<br />

uninteressant und erden nicht mehr berücksichtigt. Das führt dazu, dass<br />

mehrere Lösungen von vornherein als schlecht erkannt werden können und<br />

somit nur Lösungen verfolgt werden, die auch Verbesserungen bringen<br />

können.<br />

Thorsten Krenek<br />

Verbrauchsminimierung eines Hybridfahrzeuges im Neuen Europäischen<br />

Fahrzyklus<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />

Für ein Computermodell eines Hybridelektrokraftfahrzeugs (Hybrid Electric<br />

Vehicle, HEV) soll der Verbrauch im Neuen Europäischen Fahrzyklus (NEFZ)<br />

minimiert werden. Eine Besonderheit bei der Verbrauchsbestimmung von<br />

HEVs ist die Forderung eines nahezu gleichen Batterieladezustands am<br />

Beginn und am Ende des NEFZs. Es soll u.a. die Schaltstrategie, die rein<br />

elektrische Fahrt, Boosten und die Lastpunktanhebung optimiert werden.<br />

Dadurch ergeben sich in etwa zehn zu optimierende Parameter. Die Aufgabe<br />

besteht nun darin, eine Optimierungsstrategie zu finden, die es ermöglicht, in<br />

möglichst geringer Laufzeit ein Parameterset zu finden, das möglichst nahe<br />

am globalen Optimum liegt. Durch die hohe Komplexität des Modells können<br />

konkrete Parametersets nur durch relativ zeitaufwändige Simulationen des<br />

Modells bewertet werden. Ausgehend von bereits vorhandenen einfacheren<br />

Standardoptimierungsmethoden wurden unterschiedliche teils deutlich<br />

effizientere Algorithmen entwickelt, die spezielle Eigenschaften der<br />

Problemstellung ausnutzen. Es wurde zuerst ein Algorithmus entwickelt, der<br />

die Auswahl der zu optimierenden Parameter reduziert bzw. festlegt. Weiters<br />

wurde <strong>für</strong> die Erzeugung von Ausgangslösungen ein Monte-Carlo<br />

47


Suchverfahren entwickelt. In weiterer Folge wurden ein genetischer<br />

Algorithmus, ein Downhill-Simplex Verfahren und ein Algorithmus, der auf<br />

Schwarmintelligenz beruht (PSO), implementiert. Beim PSO wurde die beste<br />

Lösung mit einem Surface-Fitting Algorithmus verbessert. Schlussendlich<br />

wurden die einzelnen Metaheuristiken in einem gesamten<br />

Optimierungsprozess unter Berücksichtigung der Stärken und Schwächen der<br />

einzelnen Verfahren <strong>für</strong> die Problemstellung miteinander kombiniert. Für das<br />

Modell des zu optimierenden HEVs konnte eine Treibstoffersparnis von etwa<br />

33 Prozent im Vergleich zu einem konventionell betriebenen vergleichbaren<br />

Kraftfahrzeug erzielt werden. Der Anteil unseres kombinierten Ansatzes liegt<br />

dabei etwa bei fünf Prozentpunkten.<br />

Thomas Seidl<br />

A Multilevel Refinement Approach to the Rooted Delay-Constrained Steiner<br />

Tree Problem<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />

48<br />

Das Rooted Delay-Constrained Steiner Tree Problem (RDCSTP) ist eine<br />

Variante des bekannten Steinerbaum-Problems auf einem Graphen in welcher<br />

die Pfade zu allen Zielknoten durch eine bestimmte maximale Verzögerung<br />

beschränkt sind. Das Problem tritt hauptsächlich im Bereich des Netzwerk-<br />

Routings auf. Da das RDCSTP zur Klasse der NP-schwierigen Probleme gehört<br />

ist es allgemein nicht möglich die exakte Lösung einer großen Probleminstanz<br />

in vertretbarer Zeit zu finden. Der Fokus der Forschung liegt daher großteils<br />

auf der Entwicklung guter Heuristiken. In dieser Arbeit wird hier<strong>für</strong> die<br />

Multilevel-Refinement-Heuristik als Verbesserungsheuristik <strong>für</strong> das RDCSTP<br />

entwickelt. Grundsätzlich werden bei dieser Metaheuristik in einem ersten<br />

Schritt Knoten sukzessive zusammengefasst um den Graphen auf höheren<br />

Levels, mit weniger Knoten, darzustellen. Das so vereinfachte Problem kann<br />

dann auf der höchsten Abstraktionsebene in simpler Weise gelöst werden.<br />

Dann wird diese Lösung schrittweise wieder soweit verfeinert, bis eine<br />

Lösung <strong>für</strong> das ursprüngliche Problem erreicht wird. Der hier vorgestellte<br />

Algorithmus <strong>für</strong> das RDCSTP implementiert diesen Multilevel-Ansatz als<br />

Verbesserungsheuristik, die eine existierende Lösung iterativ verändert. Eine<br />

weitere Besonderheit ist, dass wegen der zusätzlichen Verzögerungs-<br />

Einschränkung weitere Datenstrukturen benötigt werden, um auf höheren<br />

Levels gültige Lösungen zu erzeugen. Außerdem wird während der<br />

Verfeinerung der Lösung auf jedem Level eine weitere<br />

Verbesserungsheuristik angewandt, das Key Path Improvement, welches die<br />

Lösungsqualität drastisch verbessert. Umfangreiche experimentelle Tests<br />

wurden durchgeführt um die Leistungsfähigkeit des Algorithmus bei großen<br />

Instanzen zu messen und ihn mit anderen Algorithmen aus der Literatur zu<br />

vergleichen. Die hierbei erhaltenen Ergebnisse sind durchwegs sehr positiv<br />

und weisen somit darauf hin, dass der verfolgte Ansatz tatsächlich eine<br />

konkurrenzfähige Heuristik <strong>für</strong> das RDCSTP darstellt.


Markus Sinnl<br />

Branch-and-Price for the Steiner Tree Problem with Revenues, Budget and<br />

Hop Constraints<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />

Diese Diplomarbeit behandelt das Steiner tree problem with revenues,<br />

budget and hop constraints (STPRBH), ein NP-schweres kombinatorisches<br />

Optimierungsproblem mit Anwendungen unter anderem im Design von<br />

Telekommunikationsnetzen. Eine Instanz des STPRBH besteht aus einem<br />

ungerichteten Graphen mit einem Wurzelknoten, Terminalknoten, die<br />

positiven Ertrag generieren, falls sie in einer Lösung mit dem Wurzelknoten<br />

verbunden sind und Kanten mit positivem Gewicht. Weiters ist ein Budget B<br />

und ein Hoplimit H Teil einer Instanz. Erlaubte Lösungen sind alle Steiner-<br />

Bäume dieses Graphen, die den Wurzelknoten enthalten und in denen jeder<br />

Pfad vom Wurzelknoten bis zu einem anderen Knoten im Baum höchstens aus<br />

H Kanten besteht. Weiters darf die Summe der Gewichte der Kanten im Baum<br />

höchstens B betragen. Ziel ist es, eine gültige Lösung mit möglichst hohem<br />

Gewinn, der durch die Summe der Erträge der in der Lösung vorhandenen<br />

Knoten definiert ist, zu finden. Es werden mehrere Formulierungen <strong>für</strong> das<br />

STPRBH als ganzzahliges lineares Programm mit exponentiell vielen Variable<br />

vorgeschlagen. Außerdem werden branch-and-price Verfahren, die auf<br />

diesen Formulierungen basieren und das exakte Lösen von Instanzen des<br />

STPRBH erlauben, eingeführt. Die Anwendbarkeit verschiedener<br />

Möglichkeiten deren Effizienz zu verbessern wird analysiert. Tests auf schon<br />

existierenden Benchmark-Instanzen zeigen, dass die vorgeschlagenen branchand-price<br />

Ansätze kompetitiv mit schon existierenden exakten Verfahren, die<br />

auf branch-and-price basieren, sind, falls das Hoplimit oder die Anzahl der<br />

Terminalknoten vergleichsweise klein ist. Für Instanzen mit großem Hoplimit<br />

oder einer großen Anzahl von Terminalknoten sind die vorgeschlagenen<br />

branch-and-price Verfahren noch nicht kompetitiv mit den branch-and-cut<br />

Verfahren. Durch die implementierten Beschleunigungsmethoden wurde aber<br />

eine signifikante Beschleunigung der branch-and-price Verfahren erreicht.<br />

Thomas Winkler<br />

Anwendung von kombinatorischen Optimierungsmethoden zur<br />

Rekonstruktion von in Streifen geschnittenen Papierdokumenten<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />

Die Diplomarbeit behandelt das Thema der Rekonstruktion von in Streifen<br />

geschnittenen Textdokumenten. Das Wiederherstellen solcher Seiten wird als<br />

ein kombinatorisches Optimierungsproblem interpretiert, bei dem die<br />

einzelnen Streifen in die ursprüngliche Reihenfolge gebracht werden müssen.<br />

Zuerst werden einige Ansätze zur Behandlung des Problems der unbekannten<br />

49


50<br />

Orientierung der einzelnen Streifen vorgestellt. Anhand des Bereichs<br />

zwischen den Textzeilen aber auch mit einer einfachen Erkennung von<br />

markanten Buchstaben wird versucht eine Zuordnung der Orientierung zu<br />

bewerkstelligen. Weiters wird eine Methode zur Erkennung der Randstücke -<br />

also jene beiden Streifen, die sich im Original links und rechts auf der Seite<br />

befunden haben - angewandt, um die Lesbarkeit und die Qualität der Lösung<br />

zu erhöhen. Im Zuge der Arbeit wird die Rekonstruktion mittels einer<br />

variablen Nachbarschaftssuche durchgeführt. Es werden zusätzlich<br />

unterschiedliche Methoden gezeigt, wie man bei der Rekonstruktion eine<br />

Verbesserung erhält, indem man die bereits richtig angeordneten Streifen zu<br />

Blöcken zusammenfasst. Drei unterschiedliche Ansätze werden beschrieben<br />

und getestet. Als Testinstanzen werden zehn Dokumente mit je vier<br />

verschiedenen Streifenbreiten zerschnitten und die drei Ansätze darauf<br />

getestet. Es zeigt sich, dass bei einem Viertel aller Testinstanzen eine<br />

vollständige und bei mehr als der Hälfte der Testinstanzen eine lesbare<br />

Rekonstruktion möglich ist.


Institut <strong>für</strong> Computersprachen<br />

Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />

Sebastian Krinninger<br />

Combining Supervaluation and Fuzzy Logic Based Theories of Vagueness<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Ao.Univ.Prof. Dr. Christian Fermüller<br />

Supervaluationismus ist eine von mehreren Theorien der Vagheit, die in der<br />

analytischen Philosophie diskutiert werden. Im Supervaluationismus werden<br />

alle Möglichkeiten berücksichtigt, eine vage Aussage vollständig präzise zu<br />

machen. In jeder Präzisierung werden Formeln wie in der klassischen Logik<br />

interpretiert. Vagheit wird durch Präzisierungsräume, d.h. durch Mengen<br />

verschiedener Präzisierungen, modelliert. Der supervaluationale Wahrheitsbegriff<br />

ist Superwahrheit, d.h. Wahrheit in allen Präzisierungen. Fuzzy-Logiken<br />

stammen ursprünglich aus der Kontrolltechnik und haben zwei Charakteristika:<br />

Das Einheitsintervall ist die Menge der möglichen Wahrheitswerte und der<br />

Wahrheitswert von Formeln ergibt sich durch Wahrheitsfunktionen. Wir<br />

betrachten jene Fuzzy-Logiken, bei denen die Wahrheitsfunktion der<br />

Konjunktion eine stetige T-Norm ist und auch die restlichen Wahrheitsfunktionen<br />

vollständig durch die Wahl der T-Norm bestimmt werden. Wir<br />

kombinieren Supervaluationismus und Fuzzy-Logik zu einer hybriden Logik,<br />

indem wir jeden Präzisierungsraum mit einem Maß auf seinen Präzisierungen<br />

ausstatten. Wir bestimmen den Wahrheitswert jeder propositionalen Variable<br />

durch das Maß jener Präzisierungen, in denen sie als wahr erachtet wird. Die<br />

Wahrheitsfunktionen der Konnektive werden, wie in der Fuzzy-Logik, durch<br />

eine stetige T-Norm bestimmt. Weiters fügen wir einen modalen Operator S<br />

hinzu, der angibt, ob eine Formel im Präzisierungsraum superwahr ist. Wir<br />

betrachten bestimmte Einschränkungen <strong>für</strong> Präzisierungsräume und zeigen<br />

Folgendes: Die hybride ukasiewicz-Logik ist die einzige hybride Logik, in der<br />

Wahrheit in allen Präzisierungsräumen äquivalent ist zu Wahrheit in allen<br />

Präzisierungsräumen, bei denen das Maß einen strikt positiven Wertebereich<br />

hat. Sowohl in der hybriden ukasiewicz-Logik als auch in der hybriden Gödel-<br />

Logik ist Wahrheit in allen Präzisierungsräumen mit einem strikt positiven Maß<br />

äquivalent zu Wahrheit in allen Präzisierungsräumen mit einem uniformen<br />

Maß.<br />

51


Georg Seitz<br />

Logics for Coalitional Games of Imperfect Information<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Ao.Univ.Prof. Dr. Christian Fermüller<br />

Koalitions-Spiele (Coalitional games) dienen als Modell <strong>für</strong> Multi-Agenten-<br />

Systeme, in denen die Agenten die Möglichkeit haben, Koalitionen zu bilden<br />

um bestimmte Ziele zu erreichen. Alternating-Time Temporal Logic (ATL) ist<br />

eine etablierte Logik zur Formalisierung solcher Spiele <strong>für</strong> den Fall dass die<br />

Spieler durchgehend perfekte Information über den tatsächlichen Zustand<br />

des Spiels besitzen. Für Spiele mit imperfekter Information scheint keine<br />

derartige Standard-Logik zu existieren, aber in aktueller Literatur finden sich<br />

verschiedenste Ansätze. In dieser Arbeit diskutieren und vergleichen wir<br />

einige dieser Ansätze im Hinblick auf Ausdruckskraft, Komplexität und etwaige<br />

Probleme. Es stellt sich heraus, dass im Fall von gedächtnislosen Agenten<br />

sehr ausdrucksstarke Logiken existieren, die es erlauben, verschiedene<br />

Begriffe strategischer Fähigkeiten in Koalitions-Spielen zu beschreiben. Ganz<br />

im Gegenteil dazu führt die Annahme von perfektem Gedächtnis schnell zu<br />

dem Problem, dass einigermaßen aussagekräftige Logiken <strong>für</strong> solche Spiele<br />

unentscheidbar sind. Als unseren eigenen Beitrag zu der Thematik<br />

präsentieren wir einen Ansatz zur Entschärfung dieses Problems durch<br />

Approximation solch einer unentscheidbaren Logik durch entscheidbare.<br />

Lara Katharina Spendier<br />

Systematic Proof Theory for Non-Classical Logics: Advances and<br />

Implementation<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuerin: Privatdoz. Dr. Agata Ciabattoni<br />

52<br />

Nichtklassische Logiken nahmen in den letzten Jahren in vielen Gebieten, vor<br />

allem in der <strong>Informatik</strong>, an Bedeutung zu. Mittlerweile existiert bereits eine<br />

große Anzahl nützlicher und interessanter nichtklassischer Logiken, wie<br />

beispielsweise Fuzzy-Logiken oder Substrukturelle Logiken. Zudem führen<br />

Wissenschaftler verschiedener Fachbereiche weiterhin neue Logiken ein, um<br />

ihre Anforderungen zu erfüllen. Nichtklassische Logiken definiert man<br />

üblicherweise, indem man Hilbert-Axiome zu bereits bekannten Systemen<br />

hinzufügt. Die Nützlichkeit dieser Logiken hängt jedoch stark von der<br />

Verfügbarkeit sogenannter analytischer Kalküle ab, in welchen Beweise durch<br />

schrittweises Zerlegen der Formeln geführt werden. Den analytischen Kalkül<br />

einer Logik definiert man durch die Wahl eines passenden Formalismus,<br />

sowie das Festlegen geeigneter Regeln zur Formalisierung der Logik.<br />

Zusätzlich müssen Korrektheit, Vollständigkeit und Schnittelimination des<br />

definierten Kalküls bewiesen werden. Mit der Definition neuer Logiken wächst<br />

daher auch die Anzahl solcher Beweise und eine automatisierte Prozedur zur<br />

Einführung analytischer Kalküle in systematischer Weise wäre somit


erstrebenswert. In dieser Diplomarbeit erweiterten wir eine systematische<br />

Prozedur, die Hilbert-Axiome in äquivalente analytische Regeln umformt, auf<br />

die Familie der Axiome (Bdk) mit k 1. Um die Prozedur auf diese Axiome zu<br />

erweitern, definierten wir zunächst einen neuen Formalismus, den<br />

Nichtkommutativen Hypersequenzkalkül, und erstellten geeignete Regeln<br />

entsprechend den Axiomen (Bdk). Für diese Regeln bewiesen wir Korrektheit,<br />

Vollständigkeit und Schnittelimination. Zusätzlich entwickelten wir einen<br />

Algorithmus auf Basis der systematische Prozedur und implementierten<br />

diesen in PROLOG.<br />

Harald Andreas Zumpf<br />

Theorien und Modelle der Kommunikation<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund<br />

Die vorliegende Magisterarbeit befasst sich mit der Betrachtung und Analyse<br />

gängiger Theorien und Modelle der Kommunikationstheorie. Der<br />

Schwerpunkt liegt hierbei auf der Systembetrachtung von Wechselwirkungen<br />

zwischen weit verbreiteten Modellen der Analyse, deren Kongruenz und der<br />

daraus resultierenden Anwendbarkeit im Kontext der didaktischen Implikation.<br />

Es wird untersucht, inwieweit gebräuchliche Modelle im Lehr- und<br />

Vortragsbereich sinnvoll umgesetzt und logisch verknüpft werden können.<br />

Des Weiteren werden neue Modelle und Hilfsmodelle erstellt, die sich durch<br />

eine bessere Anwendbarkeit in den Bereichen der Erwachsenenbildung und<br />

der Lehre auszeichnen. Zu diesem Zweck ist es mein Ziel, die von mir<br />

erstellten Brücken- und Metamodelle anhand von exemplarischen<br />

Anwendungen auf Ihre Umsetzbarkeit zu überprüfen. Dabei wird besonderes<br />

Augenmerk auf das Fragestellen gelegt, weil dadurch oftmals eine Steuerung<br />

bei verbal-kommunikativen Wechselwirkungen stattfindet. Durch meine<br />

langjährige Tätigkeit im Bereich der Erwachsenenbildung bieten sich<br />

zahlreichen Möglichkeiten, die hier vorgestellten Modelle zu erproben, um<br />

möglichst effiziente Wege zu deren Vermittlung und Anwendbarkeit zu<br />

realisieren. Die hier vorgestellten und entwickelten Modelle können zwar<br />

oftmals auch auf andere Sprachen angewendet werden, jedoch konzentriert<br />

sich diese Arbeit ausschließlich auf die Implikationen und Effekte im Kontext<br />

der deutschen Sprache.<br />

53


Arbeitsbereich Programmiersprachen und Übersetzer<br />

Tim Blechmann<br />

Supernova - A Multiprocessor Aware Real-Time Audio Synthesis Engine For<br />

SuperCollider<br />

Studium: Individuelles Masterstudium aus Medieninformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Martin Ertl<br />

These days, most computer systems are built with multi-core processors.<br />

However, most computer music systems use a single-threaded synthesis<br />

engine. While the single-core performance for current CPUs is sufficient for<br />

many computer music applications, some demanding applications benefit<br />

from using multiple processors simultaneously. Real-time audio synthesis<br />

imposes specific constraints regarding real-time safety, since the synthesis<br />

engine needs to be tuned for worst-case latencies below one millisecond. As<br />

a result, no blocking synchronization can be used and the signal processing<br />

graph needs to be split into reasonably sized parts, that provide enough<br />

parallelism without introducing a significant scheduling overhead. During the<br />

work on this master thesis, I developed Supernova as a multiprocessor aware<br />

synthesis engine for SuperCollider. SuperCollider is a computer music system<br />

based on a dynamic scripting language with a real-time garbage collector,<br />

that is used to control a separate audio synthesis server. Supernova replaces<br />

the original audio synthesis engine. It is not possible to automatically<br />

parallelize the synthesis graph of SuperCollider without fundamentally<br />

changing the semantics of the SuperCollider class library. Therefore a the<br />

programming model for the synthesis graph was extended, exposing<br />

parallelism explicitly to the user. To achieve this, I propose two simple<br />

concepts, `parallel groups' and `satellite nodes'.<br />

Tobias Dönz<br />

Design and Implementation of the next Generation XVSM Framework:<br />

Runtime, Protocol and API<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn<br />

54<br />

The development of software for distributed systems is often carried out with<br />

middleware that provides programming abstractions to ease the<br />

implementation. Space-based middleware systems are based on tuple spaces<br />

and allow loosely coupled components of a distributed system to coordinate<br />

over a shared data store. They provide synchronization, time and space<br />

decoupling. However, tuple spaces offer no order for the stored data objects<br />

which limits the coordination capabilities. eXtensible Virtual Shared Memory<br />

(XVSM) is a space-based middleware architecture that allows for more and<br />

flexible coordination and can be easily extended. Recently, it has been<br />

specified with a formal model in several layers, of which the lower ones have


een implemented in Java as previous work. This thesis describes the design<br />

and implementation of the upper layers of the formal model in MozartSpaces<br />

2.0, the Java implementation of XVSM. They comprise the runtime, remote<br />

communication and the API. The runtime supports blocking operations with<br />

timeouts and aspects to extend the middleware functionality. Important is the<br />

fast scheduling of requests and the efficient handling of internal events for<br />

blocking operations. As example for the extensibility of XVSM we implement<br />

publish/subscribe notifications with aspects. We also present an XML protocol<br />

for the interoperable remote access to XVSM spaces and a synchronous and<br />

asynchronous API. Benchmark results show that MozartSpaces 2.0 is<br />

considerably faster than the previous version 1.0 for all operations and scales<br />

better.<br />

Wolfgang Gelbmann<br />

Design and Implementation of LinqSpace<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuerin: Ao.Univ.Prof. Dr. eva Kühn<br />

Im .NET Umfeld hat sich LINQ (Language Integrated Query) als Komponente<br />

zur universalen Abfrage von Datenquellen durchgesetzt. Das Erzeugen der an<br />

SQL angelehnten Anfrage ist konsequent von der Ausführung und der<br />

Interpretation getrennt, was eine geeignete Basis <strong>für</strong> Erweiterungen darstellt.<br />

Das Space Based Computing oder Shared Data Spaces Paradigma dient als<br />

Grundlage <strong>für</strong> die XVSM (eXtensible Virtual Shared Memory) Middleware<br />

Lösung, welche durchgängig Koordinatoren einsetzt um Abfragelogik vom<br />

Anwendungscode in das Framework zu verschieben. Die einleitende<br />

Intention dieser Arbeit resultierte in den Bestrebungen XVSM LINQ-tauglich<br />

zu machen und folglich die Interaktionsschnittstelle um eine vielseitige und<br />

ausdruckstarke Abfragesprache zu erweitern. Ein Teilbereich dieser Arbeit<br />

präsentiert einen LINQ Adapter <strong>für</strong> die .NET Referenzimplementierung von<br />

XVSM (XcoSpaces). Dieser wandelt LINQ Abfragen, sogenannte Expression<br />

Trees, in den <strong>für</strong> XcoSpaces erfassbaren Linda-Koordinator um. Da dieser<br />

Koordinator auf Template-Matching basiert, sind die unterstützen LINQ<br />

Anweisungen stark eingeschränkt und umfassen im Wesentlichen Abfragen<br />

auf Gleichheit. Als Konsequenz der erlangten Einsichten richtet sich der Fokus<br />

dieser Arbeit auf die Neuimplementierung der XVSM Spezifikation<br />

(LinqSpace) mit LINQ als primärer Schnittstelle <strong>für</strong> Abfragen. Zur Datenspeicherung<br />

wäre prinzipiell jedes LINQ-fähige System geeignet, jedoch<br />

wurde im Sinne neuer Evaluierungsmöglichkeiten auf eine, im XVSM Umfeld<br />

eher unkonventionelle Speicherform zurückgegriffen: die relationale<br />

Datenbank. Abschließend wird der neue LinqSpace mit XcoSpaces verglichen<br />

und der Paradigmenwechsel von Einträgen im Space zu einem Arbeiten direkt<br />

an einem Domain-Model erläutert. Ein Beispiel zeigt wie die Entitäten eines<br />

Entity-Relationship-Modells und deren Beziehungen ohne zusätzliche<br />

Adaptionen als Grundlage <strong>für</strong> verteilte Koordination genutzt werden kann.<br />

55


Christoph Leiter<br />

Typestate Tracking <strong>für</strong> sichere nebenläufige Programmierung<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Franz Puntigam<br />

Diese Diplomarbeit befasst sich mit nebenläufiger Programmierung in<br />

objektorientierten Programmiersprachen. In aktuellen Sprachen wird<br />

Nebenläufigkeit oft nur zweitrangig und orthogonal zum Objektkonzept<br />

behandelt. Durch die unzureichende Integration ist die korrekte Implementierung<br />

von nebenläufigen Programmen kompliziert und fehleranfällig. Das<br />

Ziel dieser Arbeit ist die Frage zu klären, wie Konzepte der Nebenläufigkeit<br />

mit Methoden des Typestate Trackings besser in das objektorientierte<br />

Paradigma integriert werden können, und welche Vor- und Nachteile ein<br />

solches Modell mit sich bringt. Zur Untersuchung dieser Punkte wird eine<br />

Java-ähnliche Programmiersprache entworfen, die diesen Ansatz zum Ausdruck<br />

nebenläufiger Aspekte verfolgt. Es wird ein Prototyp eines Compilers<br />

<strong>für</strong> diese Sprache entwickelt. Dieser wird dazu benutzt, um die Machbarkeit zu<br />

demonstrieren und um das Konzept zu bewerten. Zur Evaluierung werden<br />

nebenläufige Programme mit der neu erstellten Sprache und mit Java erstellt.<br />

Die daraus resultierenden Implementierungen werden anhand vordefinierter<br />

Kriterien miteinander verglichen. Die Arbeit zeigt, dass durch eine bessere<br />

Integration von Nebenläufigkeit in objektorientierte Sprachen der<br />

Implementierungsaufwand von Programmen gesenkt werden kann. Ebenso<br />

kann die Fehleranfälligkeit verringert und die Ausdruckskraft erhöht werden.<br />

Die Ausführungszeit solcher Programme ist zur Zeit länger, aber es ist noch<br />

offen, wie effizient eine optimierte Implementierung wäre.<br />

Andreas Neumann<br />

Deployment and Visualisation of the XVSM Core Configuration<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn<br />

56<br />

eXtensible Virtual Shared Memory (XVSM) stellt <strong>für</strong> die Kommunikation und<br />

Zusammenarbeit von mehreren Prozessen einen gemeinsamen Datenraum<br />

bereit. Generell läuft ein XVSM Space innerhalb eines XVSM Cores. Das Team<br />

der Space Based Computing Gruppe der <strong>Technische</strong>n Universität <strong>Wien</strong>s ist<br />

daran interessiert XVSM Cores auf einfache Art und Weise zu konfigurieren<br />

bzw. zu visualisieren. Des Weiteren sollte eine einfache Monitoring<br />

Funktionalität integriert werden. In der vorliegenden Arbeit wird der XVSM-<br />

Editor vorgestellt. Mittels dieses XVSM-Editors kann eine XVSM Core<br />

Konfiguration zu einem oder mehreren XVSM Cores verteilt werden. Der<br />

Benutzer kann entweder die Konfiguration im XVSM-Editor erstellen, oder er<br />

kann auch einfach eine existierende Konfiguration von einem entfernten<br />

XVSM Core laden. Im letzteren Fall kann der Benutzer natürlich die<br />

Konfiguration anschließend seinen Bedürfnissen anpassen. Der XVSM-Editor


zeigt die einzelnen Werte der Variablen innerhalb der Komponenten eines<br />

XVSM Cores an, und diese können auch geändert werden. Des Weiteren stellt<br />

der XVSM-Editor eine einfache Monitoringfunktion bereit. Auch auf die<br />

Erweiterbarkeit des XVSM wurde eingegangen und eine Technik integriert,<br />

mit der man den Inhalt von selbst geschriebenen Aspekten oder<br />

Koordinatoren anzeigen kann. Der entwickelte Prototyp wurde an Hand von<br />

Ergebnissen der untersuchten verwandten Arbeiten und einer Literaturrecherche<br />

kreiert. Mit Hilfe des Editors ist es sehr einfach eine Konfiguration von<br />

einem XVSM Core zu laden, zu bearbeiten, und diese auf weitere XVSM Cores<br />

zu verteilen. Das Erstellen einer Konfiguration ist in diesem Fall auch weniger<br />

fehleranfällig, da der Benutzer nur bestimmte vorgegebene Komponenten<br />

hinzufügen oder entfernen kann. Der besondere Nutzen dieser Lösung liegt<br />

darin, dass man die Visualisierung und die Verteilung der Konfiguration in<br />

einem einzigen Editor auf einfache Art und Weise erledigen kann.<br />

Patrick Sabin<br />

Implementing a Reversible Debugger for Python<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Martin Ertl<br />

There are two different methods of implementing a reversible debugger, i.e.,<br />

a debugger which can run the program forwards and backwards. The first one<br />

is the logging-based approach, which records the state of the program after<br />

every instruction and allows inspection after the program has finished<br />

running. The second one is the replay-based approach, where the debugger<br />

runs the debuggee interactively. For this purpose it makes periodic snapshots.<br />

The debugger runs the debuggee backwards by restoring a previous snapshot<br />

and then running the program forward until it reaches the desired<br />

position. In this thesis, I show that it is possible to implement a reversible debugger<br />

by continuous snapshotting of the program state. There are indeed<br />

some challenges with using such a feature. For example, there are non-deterministic<br />

instructions, which execute differently each instance the interpreter<br />

executes them, e.g., a function, which returns the system time. Therefore I<br />

present some methods of treating these problems. Accompanying this thesis,<br />

I have developed a proof-of-concept implementation of a reversible<br />

debugger called epdb for the Python programming language, which solves<br />

most of the problems of reversible debugging. In order to support reversible<br />

debugging of programs which have non-deterministic instructions in it, I<br />

introduce the new concept of timelines. With timelines, the user can decide<br />

which execution path he wants to take. I also introduce stateful resource<br />

management to support the management of the external state. This allows<br />

the user to investigate the environment corresponding to the actual position<br />

inside the program, when he executes the program backwards.<br />

57


Michael Starzinger<br />

Exact Garbage Collection for the Cacao Virtual Machine<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Krall<br />

Every virtual machine capable of executing Java byte-code needs to perform<br />

some sort of automatic memory management, commonly referred to as<br />

garbage collection. However, it is not specified how this garbage collection<br />

process actually has to be performed. So far the Cacao Virtual Machine<br />

(CacaoVM) used a conservative garbage collector that was designed for<br />

uncooperative environments, thus it has been unable to take full advantage<br />

of the information already present in the runtime infrastructure. This<br />

conservative garbage collector was replaced by an exact one, which has been<br />

tailored to the specific needs of a Java Runtime Environment. In the context<br />

of Java several different components of the virtual machine need to be<br />

orchestrated for exact garbage collection to work. The application threads act<br />

as mutators on the heap and need to be prevented from interfering with the<br />

collector. Another central aspect is identifying the actual references which<br />

point into the heap and prevent objects from being collected. These<br />

references are referred to as the root-set and keep objects alive. The actual<br />

collection algorithms are in charge of cleaning up dead objects and<br />

reorganizing the heap, so that free memory is made available again. Those<br />

algorithms have already been researched in depth over the past decades,<br />

exhibiting vastly different characteristics. All of the above aspects need to be<br />

considered from the perspective of a pure Just-In-Time compilation approach<br />

as taken by CacaoVM. Some crucial simplifications, which rely on fallbacks<br />

into an unoptimized interpreter mode, cannot be applied and need to be<br />

revisited in this setting. Special care was taken to allow future development<br />

towards a generational garbage collection approach by providing the<br />

necessary infrastructure.<br />

Michael Vögler<br />

SILCA - Self-Initiative Load Clustering Agents<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn<br />

58<br />

To handle the load of a service more efficiently load clustering can be used to<br />

cluster a set of loads into smaller subsets, where each of this so called clusters<br />

captures a specific aspect of the load. There exist many clustering algorithms<br />

reaching from unintelligent to intelligent ones. However most approaches are<br />

very problem oriented and therefore hard to compare. In this thesis we<br />

propose a generic architectural pattern for a load clustering framework that<br />

allows the plugging of different clustering and classification algorithms.<br />

Furthermore this pattern should ease the selection of the best algorithm for a<br />

certain problem scenario. The presented pattern assumes autonomous


agents and a blackboard based communication mechanism to achieve a high<br />

software architecture agility. The pattern can be composed towards more<br />

complex network topologies which supports the combination of different<br />

algorithms. To prove the concept, the pattern and several clustering<br />

algorithms have been implemented and benchmarked, as part of this thesis.<br />

59


Institut <strong>für</strong> Informationssysteme<br />

Arbeitsbereich Knowledge Based Systems<br />

Peter Haberl<br />

GQBF and Proof Complexity<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Ao.Univ.Prof. Dr. Uwe Egly<br />

Das Erfüllbarkeitsproblem <strong>für</strong> quantifizierte boolesche Formeln - das ist, zu<br />

entscheiden ob alle existentiell quantifizierten Variablen einer geschlossenen<br />

quantifizierten boolschen Formel in einer Form belegt werden können, so<br />

dass die Formel damit wahr wird - ist von besonderem beweistheoretischen<br />

und komplexitätstheoretischen Interesse. Es generalisiert das aussagenlogische<br />

Erfüllbarkeitsproblem und bietet <strong>für</strong> jede Stufe der polynomiellen<br />

Hierarchie prototypische Probleme. Weiters lassen sich viele Probleme der<br />

künstlichen Intelligenz und der Spieltheorie als Erfüllbarkeitsproblem <strong>für</strong><br />

quantifizierte boolesche Formeln kodieren. Derzeit existieren mehrere<br />

Beweiser <strong>für</strong> dieses Problem, basierend auf einer Vielzahl unterschiedlicher<br />

Lösungsansätze. Ein kürzlich vorgestellter Beweiser konstruiert Beweise mit<br />

Hilfe eines Sequenzkalküls. In diesem Papier untersuchen wir die Fähigkeiten<br />

dieses Kalküls kurze Beweise erzeugen zu können und vergleichen<br />

verschiedene Konstruktionsmerkmale des Kalküls diesbezüglich. Wir vergleichen<br />

diesen Kalkül weiters mit einem weit verbreiteten Resolutionskalkül und<br />

untersuchen die Auswirkungen von Pränexierung auf die Länge von Beweisen.<br />

Wir zeigen, dass eine strenge Ordnung von Sequenzkalkülen existiert<br />

was ihre Fähigkeit betrifft, kurze Beweise erzeugen zu können. Manipulationen<br />

im Inneren von Formeln - zusätzlich zu Manipulationen die streng der<br />

Struktur von Formeln folgen - können Beweise exponentiell verkürzen. Beweise<br />

in Form eines gerichteten, azyklischen Graphen können expontiell<br />

kürzer sein als Beweise in Baumform. Weiters zeigen wir obere und untere<br />

Schranken <strong>für</strong> Fähigkeiten, die ein Sequenzkalkül besitzen muss, um ebenso<br />

kurze Beweise erzeugen zu können wie Resolutionskalküle. Das Papier<br />

beweist auch, dass eine gute Pränexierungsstrategie essentiell ist, um kurze<br />

Beweise erzeugen zu können.<br />

Giorgio Stefanoni<br />

Explaining Query Answers in Lightweight Ontologies<br />

Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />

Betreuer: O.Univ.Prof. Dr. Thomas Eiter<br />

60<br />

In order to meet usability requirements, most logic-based applications<br />

provide explanation facilities for reasoning services. This holds also for DLs,<br />

where research focused on the explanation of both TBox reasoning and,


more recently, query answering. Besides explaining the presence of a tuple in<br />

a query answer (explanation of positive answer), it is important to explain also<br />

why a given tuple is missing (explanation of negative answer). We first<br />

address the problem of explaining positive query answers by providing an<br />

algorithmic solution to the procedure already outlined in the literature.<br />

Additionally, we employ the new algorithm to solve the explanation problem<br />

for inconsistency in DL-Lite ontologies. In solving the problem of explaining<br />

negative answers to (U)CQ over ontologies, we adopt abductive reasoning,<br />

that is, we look for additions to the ABox that force a given tuple to be in the<br />

result. As reasoning tasks, we consider existence and recognition of an<br />

explanation, and relevance and necessity of a certain assertion for an<br />

explanation. We characterize the computational complexity of these problems<br />

for subset minimal and cardinality minimal solutions.<br />

Trung Kien Tran<br />

Query Answering in the Description Logic Horn-SHIQ<br />

Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />

Betreuer: O.Univ.Prof. Dr. Thomas Eiter<br />

Ontologies can be used to formally represent knowledge of an application<br />

domain. This enables machines to make use of the knowledge, to discover<br />

new knowledge, or to exchange knowledge with others. In the context of<br />

database systems, an ontology can be seen as the conceptual view over data<br />

repositories, and data can be accessed by query answering services. To build<br />

such ontologies, we need ontology languages. Among formalisms for<br />

ontology languages, Description Logics (DLs) are the most prominent ones.<br />

DLs underlie the foundation for the current Web Ontology Language (OWL)<br />

standard recommended by World Wide Web Consortium (W3C). DLs are a<br />

family of knowledge representation languages with different expressive<br />

capabilities and computational complexities. It seems that only lightweight<br />

languages i.e., language with low complexity, are suitable for applications<br />

dealing with a large amount of data. The first family of lightweight DLs is DL-<br />

Lite, specially designed to capture data modeling formalism while keeping<br />

very low complexity. The second collection of lightweight languages is the EL<br />

family. Both of these families are subsumed by the Description Logic Horn-<br />

SHIQ. Horn-SHIQ is the Horn fragment of the expressive Description Logic<br />

SHIQ underlying the OWL-Lite standard. There exist practical algorithms for<br />

query answering in EL and DL-Lite but there is no such algorithms for Horn-<br />

SHIQ. In this thesis, we investigate this issue and propose a query rewritingbased<br />

approach for answering conjunctive queries over ontologies in Horn-<br />

SHIQ. Apart from providing a sound and complete algorithm, we have<br />

implemented a prototype system and performed experiments on well-known<br />

ontologies.<br />

61


Tri Kurniawan Wijaya<br />

Top Down Evaluation Techniques for Modular Nonmonotonic Logic Programs<br />

Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />

Betreuer: O.Univ.Prof. Dr. Thomas Eiter<br />

Answer Set Programming (ASP) ist ein sehr nützliches Werkzeug <strong>für</strong> die<br />

Wissensrepräsentation und zum Lösen von deklarativen Problemstellungen.<br />

In letzter Zeit werden Modularitätsaspekte in ASP zunehmend interessant, bei<br />

dem es darum geht, (Sub-)Programme zu einem (kombinierten)<br />

Logikprogramm zusammenzusetzen. Modularität erlaubt nicht nur das<br />

gegebene Problem in seine Teilproblem zu zerlegen, sondern erleichtert auch<br />

die Wiederverwendbarkeit von logischen Programmen und bietet bessere<br />

Unterstützung <strong>für</strong> große Softwareprojekte. Zu den gegenwärtigen Ansätzen<br />

in diesem Bereich zählen Modular Nonmonotonic Logic Programs (MLP),<br />

welche einige Stärken aufweisen: Sie erlauben wechselseitige rekursive<br />

Aufrufe und nutzen Prädikatensymbole als Modul-Input, wodurch<br />

dynamischere Kodierungen der Probleme entstehen. MLPs sind sehr<br />

ausdrucksstark und haben eine hohe computationale Komplexität, deswegen<br />

ist es sehr anspruchsvoll, eine praktikable Implementierung <strong>für</strong> diesen<br />

Formalismus zu erstellen. In dieser Arbeit entwickeln wir TD-MLP, einen<br />

konkreten Algorithmus zur Berechnung von Modellen <strong>für</strong> MLPs. TD-MLP<br />

basiert auf Top-down-Auswertungstechniken, die nur relevante Modulaufrufe<br />

berücksichtigen. Wir integrieren eine Optimierungstechnik, die Modulinstanzen<br />

separiert und damit redundante Berechnungen vermieden werden. Wir<br />

haben diese Optimierungstechnik implementiert und Experimente auf<br />

Benchmark Instanzen zeigen vielversprechende Resultate. Darüber hinaus<br />

evaluieren wir auch unterschiedliche Kodierungen <strong>für</strong> Probleme, um<br />

modularen und mit einfachen logischen Programmen zu vergleichen.<br />

Experimente zeigen, dass in einigen Fällen die modulare Kodierung die<br />

gewöhnlichen Programme übertreffen können.<br />

Arbeitsbereich Database and Artificial Intelligence<br />

62<br />

Martin Kronegger<br />

Efficent Planning with QBF-Solvers<br />

Studium: Masterstudium Computational Intelligence<br />

Betreuer: Univ.Prof. Dr. Reinhard Pichler<br />

Für alltägliche Probleme haben wir gute Lösungsmethoden entwickelt. Wird<br />

das Problem komplexer, so erkennen wir, wie schwer dessen Planung ist.<br />

Automatisches Planen mithilfe von Computerunterstützung soll genau da<br />

ansetzen, wo durchschnittliche Personen keine guten Lösungen mehr finden.<br />

Planen ist eine der klassischen Gebiete der Künstlichen Intelligenz.<br />

Prominente Anwendungsgebiete reichen vom Remote Agent in der Deep


Space One Mission bis hin zu Entscheidungsunterstützungssytemen <strong>für</strong><br />

Katastrofenhilfe. Planen ist die Aufgabe, eine Sequenz von Aktionen zu<br />

finden, die zu einem Zustand führen, in dem das Ziel erfüllt ist. Klassisches<br />

Planen mit vollständiger Information, deterministischen Aktionen, Pläne mit<br />

polynomieller Länge, etc. ist schon NP-vollständig. Diese Form wurde in den<br />

letzten Jahrzehnten sehr intensiv erforscht. In der Realität haben wir jedoch<br />

nur unvollständige Information, was die Komplexität auf die zweite Stufe der<br />

polynomiellen Hierarchie anhebt. In letzter Zeit wird auch diesem Gebiet in<br />

der Forschung mehr Aufmerksamkeit gewidmet. In dieser Arbeit zeigen wir,<br />

wie eine Planungssprache <strong>für</strong> klassisches Planen geschickt erweitert werden<br />

kann, um unvollständige Information auszudrücken. Zusätzlich werden wir<br />

eine schwache Form von Ungleichheit einführen und beweisen, dass Planen<br />

in dieser Sprache Sigma2P-vollständig ist. Weiters werden wir ein<br />

Planungstool entwickeln, welches das Planungsproblem auf das<br />

Erfüllbarkeitsproblem von quantifizierten, aussagenlogischen Formeln<br />

reduziert. Die Pläne von diesem Tool ist optimal bezüglich der Planlänge.<br />

Dieses Planungstool kann sowohl Planungsprobleme mit vollständiger als<br />

auch mit unvollständiger Information lösen. Wir werden einige<br />

Herausforderungen aufzeigen, um diesen exakten Ansatz wettbewerbsfähig<br />

zu machen. Hier<strong>für</strong> werden wir eine Reihe von Optimierungen vorstellen, die<br />

diese Herausforderungen unter Kontrolle bringen. Zusätzlich werden wir<br />

einen Benchmark entwickeln, um unser Tool zu testen.<br />

Lam Tung Nguyen<br />

An Efficient Algorithm For Phylogeny Reconstruction By Maximum Likelihood<br />

Studium: Masterstudium Information & Knowledge Management<br />

Betreuer: Privatdoz. Dr. Nysret Musliu<br />

Understanding the evolutionary relationships among species has been of<br />

tremendous interest since Darwin published the Origin of Species (Darwin,<br />

1859). The evolutionary history of species is typically represented as a<br />

phylogenetic tree. Nowadays, the reconstructing of the evolutionary history is<br />

still a major research topic. With the rise of molecular sequencing<br />

technologies, computational approaches have been proposed to reconstruct<br />

phylogenies. Maximum likelihood is a statistical approach for reconstructing<br />

phylogeny that gives better estimate of the true tree than other methods.<br />

However, the method is highly computational expensive. Therefore, different<br />

heuristics haven been proposed to solve this NP-hard problem. Among these<br />

IQPNNI (Vinh and von Haeseler, 2004) has been shown to have highly<br />

regarded results. Nevertheless, it requires a lot of computation time. In the<br />

present work we introduce an improved version of the IQPNNI algorithm<br />

called IQ-Tree. Here we focus on improving the run time performance of<br />

IQPNNI by proposing a fast and reliable search algorithm for phylogeny<br />

reconstruction. To this end, we used the metaheuristic Iterated Local Search<br />

(ILS) as our underlying search framework, from which the possibility of using<br />

the search history to improve performance has been identied. Based on the<br />

63


search history we propose a strategy that directs the search to move quickly<br />

through regions, in which better trees are unlikely found. Furthermore, we<br />

present a vectorization technique to speed up computations in the tree<br />

evaluation function. Our results showed that IQ-Tree runs two to four times<br />

faster than IQPNNI, while keeping the accuracy of the reconstructed<br />

phylogenies.<br />

Arbeitsbereich Distributed Systems<br />

Gabriel Kittel<br />

Survey and Taxonomy of Autonomic Large-scale Computing<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />

In the area of distributed systems, several approaches have emerged with the<br />

objective to deliver computing power as a public utility like water, gas,<br />

electricity and telephony. Cloud computing is the latest of those approaches<br />

where virtual computing infrastructure, software development platforms and<br />

applications are provisioned on demand over the Internet. Autonomic<br />

computing is a computing paradigm that promises to deliver systems<br />

adapting themselves to environmental changes by employing selfmanagement<br />

mechanisms guided by policies as an eort to address the<br />

management complexity that arises from the dynamics of resource availability<br />

and system load in large-scale computing systems. The Foundations of Selfgoverning<br />

ICT Infrastructures project (FoSII) at <strong>TU</strong> Vienna intends to enhance<br />

self-management support in existing service-oriented architectures. A survey<br />

of existing projects that introduce autonomic computing to large-scale<br />

computing systems like grids and clouds, and a taxonomy that provides<br />

classication criteria for that research eld would allow to assess the current<br />

state of research by suggesting criteria to help identify application areas,<br />

subproblems and approaches within that eld. However, such a survey and<br />

taxonomy have not yet been proposed to this day. The goal of this thesis is to<br />

systematically investigate the state of art of self-management by providing a<br />

taxonomy of autonomic large-scale computing. It presents a survey of<br />

projects and theoretical work in that eld and proposes a taxonomy that<br />

classies autonomic large-scale computing. Survey and taxonomy allow to<br />

assess the current state of research in autonomic large-scale distributed<br />

systems, thus supporting further advancements in the eld of autonomic largescale<br />

distributed computing.<br />

64


Manfred Krasnitzky<br />

Entwickeln einer Web-GUI <strong>für</strong> Service Compositions<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />

Service Orientierte Architektur (SOA) hat ein neues Paradigma in die<br />

Geschichte der Softwareentwicklung eingebracht. Neue Services können<br />

leicht erstellt werden durch das Zusammenfügen von bestehenden Services.<br />

Dies nennt man Service Composition. Herkömmliche SOA Entwicklungstools<br />

sind aber weiterhin ausschließlich <strong>für</strong> den professionellen Softwareentwickler<br />

gestaltet und konzipiert. Hier setzt die Service Composition basierend auf<br />

Mashups an. Das Hauptaugenmerk bei der Entwicklung von Mashup Tools<br />

liegt darauf, dass vor allem Personen mit entsprechendem Fachwissen aber<br />

ohne irgendwelche IT-Kenntnisse in der Lage sind, neue Service<br />

Compositions zu erstellen. Einen Schritt weiter geht die Mashup Plattform,<br />

welche am Institut <strong>für</strong> Informationssysteme der <strong>TU</strong>-<strong>Wien</strong> entwickelt wurde.<br />

Zwei neue Aspekte wurden hier <strong>für</strong> die Entwicklung von Mashups zum ersten<br />

Mal berücksichtigt: Context Awareness und Socially Enrichment. Dies führt zu<br />

dem Namen Socially Oriented Mashup (SOM). Context Awareness bedeutet,<br />

dass Kontext-Informationen berücksichtigt werden. Socially Enrichment<br />

bedeutet, dass menschliche Tätigkeiten in ein Service einbezogen werden.<br />

Die Diplomarbeit beschäftigt sich mit der Entwicklung einer graphischen<br />

Weboberfläche mit der Context Aware SOM Mashups modelliert werden<br />

können. Nach Fertigstellung des Mashup-Modells, kann auf Basis dieses<br />

Modells konkreter Programmcode generiert werden.<br />

Iwona Les<br />

Trusted Information Sharing<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />

Die Herausforderung bei kollaborativen Plattformen besteht heutzutage im<br />

Teilen von vertraulichen Informationen. Herkömmliche Lösungen <strong>für</strong> dieses<br />

Problem sind statisch definierte Zugriffsmechanismen, die einen<br />

Administrator benötigen, welcher erforderliche Berechtigungen manuell<br />

zuweist. In flexiblen kollaborativen Plattformen mit steigenden Anzahl von<br />

Benutzern werden durch ständig wechselnden Aufgaben auch die<br />

Zuständigkeitsbereiche verändert. Weiters erhöht sich die Anzahl von<br />

Interaktionen insbesondere die Datenmenge aufgrund des Informationsaustausches<br />

zwischen den Kollaborationspartnern und den serviceorientierten<br />

Applikationen erheblich. Durch ständige Beobachtungen und<br />

Analysen der Interaktionen ist das System in der Lage einen vertrauenswürdigen<br />

Kollaborationspartnern aufgrund vorhergehender Hand-lungen zu<br />

erkennen. Die als zuverlässig eingestuften Kollaboratipartnern wird ein Zugang<br />

und Austausch von Dokumenten ermöglicht. Das in diesem dyna-<br />

65


mischen Vertrauensmodell verbundene Teilen von Informationen wird in<br />

dieser Diplomarbeit erläutert. Das Konzept bezüglich der Informationsverteilung<br />

basiert auf einem Regelwerk mit dessen Hilfe die Benutzer die<br />

Bedingungen <strong>für</strong> die selektive Offenlegung von Informationen definieren. In<br />

Kombination mit der Interaktionsanalyse und dieser vorhergehenden Bedingungen<br />

wird eine Abstufung des Zugriffslevels innerhalb der einzelnen Dokumenten<br />

erreicht. Diese Arbeit beschäftigt sich mit einem Konzept, welches die<br />

selektive Offenlegung von vertrauenswürdigen Informationen umfasst. Um<br />

die Funktionalität dieses Konzeptes dazulegen wurde eine Web Anwendung<br />

entwickelt, welche eine Definition der Zugriffsbedingungen durch den<br />

Benutzer ermöglicht. Verschiedene, vorstellbare Szenarien werden in dieser<br />

Arbeit simuliert und hinreichend dokumentiert. Des weiteren erfolgt eine ausführliche<br />

Darlegung der Funktionen, welche von den Benutzern in Bezug auf<br />

die einzelnen Datenabschnitte konfiguriert und angezeigt werden können.<br />

Boris Mesetovic<br />

Comet.NET, Design and Implementation of a Bayeux Server for the .NET<br />

platform<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />

Modern Web applications increasingly rely on real-time server-initiated<br />

delivery of data to browsers. It increases the responsiveness of the<br />

application, improves the overall user experience and allows various real-time<br />

collaboration scenarios between users. This application model, in which the<br />

server delivers data to a browser via HTTP without the browser explicitly<br />

requesting it, is called Comet. Protocols and techniques defined by the<br />

Comet application model are essential for Web applications that need to<br />

asynchronously deliver events to clients. One of the recent developments in<br />

the domain of Comet Web applications is an opensource application protocol<br />

called Bayeux. It provides means of two-way and low-latency communication<br />

between the server and the client and is typically used to deliver notifications<br />

directly to Web browsers as soon as they occur. In this thesis, we present a<br />

native .NET implementation of a Bayeux server called Comet.NET. Comet.NET<br />

is a stand-alone, high-performance Bayeux server with support for both<br />

streaming and polling communication techniques. It offers synchronous and<br />

asynchronous application programming interfaces, is very scalable and robust<br />

and is designed to be easily embeddable in any .NET application. Features of<br />

Comet.NET are demonstrated by presenting Teletrader HTTP Push Service, a<br />

fully functional enterprise stock market ticker application built on top of it.<br />

Furthermore, the thesis provides a detailed evaluation of the performance<br />

and scalability of the presented solution and discusses how it compares with<br />

the reference Bayeux server implementation.<br />

66


Sanjin Sehic<br />

COPAL: An Adaptive Approach to Context Provisioning<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />

Context-awareness is one of the cornerstones of mobile and ubiquitous<br />

computing. It refers to the idea that an application can understand its context<br />

to reason about its current situation and perform suitable operations based<br />

on this knowledge. Moreover, as the situation changes over time, the<br />

application should adapt its behavior according to new circumstances, which<br />

would increase its usability and effectiveness. This thesis introduces the<br />

COPAL (COntext Provisioning for ALl) middleware an adaptive approach to<br />

context provisioning. The COPAL middleware is a flexible and scalable<br />

context-aware service platform that provides a new publish-process-listen<br />

programming model. Its loosely-coupled and modular implementation allows<br />

the system to be customized for different use-cases and deployed on<br />

different platforms. The COPAL programming model separates the task of<br />

context-awareness into three independent steps supported by three looselycoupled<br />

components: publishers, processors, and listeners. This component<br />

design enables developers to progressively extend the system to support new<br />

types of context information and various context-aware applications.<br />

Furthermore, the thesis presents a customizable processing mechanism that<br />

dynamically couples context information with its processing. This mechanism<br />

is the key concepts in the COPAL middleware by which a wide range of<br />

operations can be carried out. Most importantly, it can be used to infer new<br />

context information and to provide some context information at different<br />

levels of granularity.<br />

67


Institut <strong>für</strong> Rechnergestützte Automation<br />

Arbeitsbereich Computer Vision<br />

Angelika Garz<br />

Efficient Layout Analysis of Ancient Manuscripts Using Local Features<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

A binarization-free layout analysis method for ancient manuscripts is<br />

proposed, which identifies and localizes layout entities exploiting their<br />

structural similarities on the local level. Thus, the textual entities are<br />

disassembled into segments, and a part-based detection is done which<br />

employs local gradient features known from the field of object recognition,<br />

the Scale Invariant Feature Transform (SIFT), to describe these structures. As<br />

the whole entity cannot directly be inferred from the mere positions of the<br />

interest points, a localization algorithm is needed that expands the interest<br />

points according to their scales and the classification score to regions that<br />

encapsulate the whole entity. Hence, a cascading algorithm is proposed that<br />

successively rejects weak candidates applying voting schemes. Layout<br />

analysis is the first step in the process of document understanding; it<br />

identifies regions of interest and hence, serves as input for other algorithms<br />

such as Optical Character Recognition. Moreover, the document layout<br />

allows scholars to establish the spatio-temporal origin, authenticate, or index<br />

a document. The evaluation shows that the method is able to locate main<br />

body text in ancient manuscripts. The detection rate of decorative entities is<br />

not as high as for main body text but already yields to promising results.<br />

Karl-Heinz Nenning<br />

Mirror Visual Feedback Therapy for Phantom Pain: Changes in Functional<br />

Connectivity Patterns<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

68<br />

Mirror Visual Feedback Therapy (MVFT) offers efficient non-invasive treatment<br />

for patients suffering from phantom limb pain. It is hypothesized to cause<br />

functional remodeling of neural networks in the patients brain, what induces<br />

a relief in phantom pain. However, details about the functional remodeling of<br />

the brain are not yet fully understood and are a current topic of research. In<br />

this thesis, subject-specific parcellation of functional Magnetic Resonance<br />

Imaging (fMRI) data is utilized and subsequent model map analysis is<br />

employed to quantify changes of functional connectivity patterns related to<br />

MVFT success. Subject-specific functional parcellation is employed in order to<br />

form functionally homogeneous working regions of interest, which adapt to


the functional and anatomical characteristics of every subject in the study<br />

population. Moreover, a dimensionality reduction of the datasets is achieved,<br />

facilitating further computationally intensive analysis. The functional<br />

connectivities between the obtained parcels are quantified by mapping their<br />

affinities in a new metric space of Euclidean distances. Thus, the functional<br />

relations between the fMRI signals are translated into spatial distances in the<br />

functional geometry. Applying subject-specific functional parcellation and<br />

furthermore the quantification of the parcel-wise functional connectivities on<br />

a group of interest, comprising pre- and post-MVFT data, allows to identify<br />

differentiating functional connectivity patterns related to MVFT success. The<br />

results obtained endorse the hypothesis of functional reorganization of the<br />

brain. The results show that brain regions, responsible for the movement of<br />

the amputated leg, are involved with the brains functioning during the<br />

movement of the healthy leg after the MVFT. However, due to the small<br />

dataset (a maximum of 5 pre- and 5 post-MVFT data for left leg amputees) the<br />

results can only be hypothesized.<br />

Arbeitsbereich Automatisierungssysteme<br />

Jasmin Adamer<br />

Evaluation Criteria for Security Testing Tools<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Testen von Software ist heutzutage essentiell, um den Sicherheitsgrad von<br />

Software-Produkten möglichst hoch zu halten. Da<strong>für</strong> stehen bereits diverse<br />

automatisierte Testwerkzeuge zur Verfügung. Durch die Vielzahl an angebotenen<br />

Werkzeugen ist es schwierig, einen Überblick über die unterschiedlichen<br />

Funktionalitäten zu erhalten. Daher wurde ein Kriterien-katalog<br />

erarbeitet, der auf definierten und in der Community publizierten Auswahlkriterien<br />

<strong>für</strong> Sicherheitswerkzeuge aufbaut. Darauf basierend wird ein Auswahlverfahren<br />

erarbeitet, das den Tester bei der Auswahl eines optimal geeigneten<br />

Testwerkzeugs unterstützt, um Sicherheitslücken rasch und effizient<br />

aufzudecken. Der Schwerpunkt wurde auf Sicherheitswerkzeuge gesetzt, die<br />

auf fuzz testing spezialisiert sind. Beim fuzz testing werden ungültige, unerwartete<br />

oder falsche Eingabewerte verwendet um ein Fehlverhalten der Applikation<br />

beziehungsweise einen Systemabsturz zu verursachen und dadurch<br />

Sicherheitsschwachstellen aufzudecken. Der Punkt Automatisierung spielt<br />

eine wichtige Rolle, da die Werkezuge im Stande sein sollen, sowohl die Testfälle<br />

selbstständig zu erstellen und durchzuführen als auch die Ergebnisse zu<br />

analysieren und vergleichen. Die Evaluierungskriterien werden ausführlich<br />

beschrieben, um Nachvollziehbarkeit zu erreichen. Weiters wird <strong>für</strong> jedes<br />

Kriterium angegeben, wie auf dessen Erfüllbarkeit überprüft werden kann.<br />

Der Prozess wird an vier verschiedenen Werkzeugen angewandt, um beispielhaft<br />

dessen Verwendung darzustellen. Mit Hilfe der vorgestellten Kriterien<br />

69


soll es jedem Tester möglich sein, Sicherheitswerkzeuge zu vergleichen und<br />

ein <strong>für</strong> die bevorstehenden Tests geeignetes Werkzeug auszuwählen. Außerdem<br />

konnte gezeigt werden, dass keines der gewählten Sicherheitswerkzeuge<br />

vollautomatisiert ist, da stets manueller Eingriff notwendig ist,<br />

um die Testresultate mit den gewünschten Ergebnissen zu vergleichen.<br />

Thomas Artner<br />

Konzeption und Entwurf eines Frameworks zur Unterstützung der<br />

Testdurchführung in sicherheitskritischen serviceorientierten Umgebungen<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Serviceorientierte Architekturen gelten bei Neuentwicklungen im<br />

Unternehmensbereich meist als die erste Wahl. Eigenschaften dieses<br />

Architekturstils, wie z.B. lose Kopplung, ermöglichen eine Vielzahl von<br />

unvorhergesehenen Integrationsszenarien, die nicht in jeder möglichen<br />

Ausprägung getestet werden können. Durch diesen Umstand wird die<br />

Relevanz sorgfältig geplanter Testdurchführung stark erhöht. In<br />

sicherheitskritischen serviceorientierten Architekturen wird die<br />

Testdurchführung durch den Einsatz kryptografischer Methoden noch weiter<br />

erschwert. Der Zugriff auf Applikationsdaten ist nicht mehr ohne weiteres<br />

möglich, und eine gänzliche Deaktivierung der Kryptografie würde das<br />

Gesamtverhalten des Systems zu stark beeinträchtigen. Die vorliegende<br />

Arbeit beschreibt Konzepte, die es ermöglichen, Applikationsdaten zu<br />

entschlüsseln, ohne das Gesamtsystem in zu hohem Maße zu belasten. Das<br />

erste Konzept beschreibt ein Verfahren zur Entschlüsselung von SSL/TLS<br />

Datenströmen zur Extraktion der Applikationsdaten, nachdem diese<br />

aufgezeichnet wurden. Das zweite Konzept beschreibt einen Ansatz, bei dem<br />

Proxies zwischen Servicekomponenten die ausgetauschten Nachrichten<br />

mitprotokollieren und zur Verifikation zur Verfügung stellen. Vor- und<br />

Nachteile sowie die Einsatzmöglichkeiten des jeweiligen Konzept werden in<br />

einer Testumgebung evaluiert und beschrieben.<br />

Stefan Bachl<br />

Effects of Personal Displays and Transfer Techniques on Collaboration in<br />

Multi-touch Based Multi-display Environments<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

70<br />

Computerumgebungen mit mehreren Bildschirmen (Multi-display environments,<br />

MDE) bestehen aus ein oder mehreren gemeinsam verwendeten<br />

Displays und zusätzlichen Geräten mit Bildschirmen <strong>für</strong> jeden Kollaborator.<br />

Die zunehmende Verfügbarkeit von mobilen Geräten, wie zum Beispiel<br />

Mobiltelefone oder Tablet Computer (Tablets), bietet eine Möglichkeit deren


Integration in MDEs zu untersuchen. Jedoch existieren kaum Informationen,<br />

wie digitale Dokumente zwischen mehreren multi-touch Geräten<br />

ausgetauscht werden können, sowie über die Bedeutung von persönlichen<br />

Geräten in digital unterstützten Computerumgebungen. In dieser Arbeit wird<br />

die Implementierung einer MDE mit multi-touch Eingabemöglichkeit auf<br />

sowohl der geteilten multi-touch Arbeitsfläche als auch auf den persönlichen<br />

Tablets präsentiert. Das entwickelte System wurde in Bezug auf Effizienz,<br />

Benutzerpräferenzen und Kollaborationsstrategien evaluiert und mit einem<br />

herkömmlichen multi-touch System verglichen. Eine Bedingung stellte<br />

ausschließlich die geteilte multi-touch Arbeitsfläche zur Verfügung, drei<br />

weitere Bedingungen inkludierten zusätzlich die persönlichen multi-touch<br />

Tablets. In den Bedingungen mit den Tablets konnten Teilnehmer digitale<br />

Dokumente mit je einer von drei spezifisch entwickelten Technik von der<br />

geteilten Arbeitsfläche auf ihre Tablets transferieren. Basierend auf der<br />

Analyse von Beobachtungen, Protokollen, Videoaufnahmen, Interviews und<br />

Fragebögen wurden vier unterschiedliche Kollaborationsstrategien im Bereich<br />

von MDEs identifiziert. Obwohl die Benutzer die Kollaboration mit den Tablets<br />

bevorzugten, ist die Effizienz und die Intensität der Zusammenarbeit höher in<br />

der Bedingung ohne Tablets. Die zusätzliche Verwendung von Tablets<br />

bewirkte keine Verschlechterung des Bewusstseins über die Aktivitäten der<br />

Arbeitspartner. Die Verwendung der Tablets ermöglichte den Benutzern,<br />

unterschiedliche Strategien zur Lösung der Aufgabe zu verfolgen.<br />

Klaus Bayrhammer<br />

Design and Implementation of an Integration Framework for an Electronic<br />

Health Record Based Hospital Information System<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

The purpose of this thesis was to design and implement an architecture for a<br />

hospital information system, which provides an infrastructure for easy<br />

integration of external systems. Because of the complexity of managing<br />

information in hospital environments, there are several specialized systems<br />

which may have different architectures as well as different scopes of<br />

functions and therefore incompatible interfaces. In order to allow those<br />

specialized systems to exchange data they have to be integrated into an<br />

information system. Therefore, the hospital's core information system has to<br />

provide an open architecture which supports integration on a system level.<br />

During the course of this thesis an integration framework for a hospital<br />

information system has been developed. The system uses persistent one-way<br />

messaging which supports loose coupling and complies with the style of<br />

service oriented architectures. In addition, the architecture is based on a<br />

complex rule based event system which is responsible for the distribution of<br />

the messages. This system has been connected to a data storage, which<br />

holds patient information based on the OpenEHR standard. Considering the<br />

low complexity that is required for integrating systems as well as the technical<br />

71


enefits which come along using this architecture, the usage of service<br />

oriented architectures in the health care context seems to be promising. In<br />

addition, a message distribution which is controlled by a rule engine enables<br />

the system to exchange or integrate new subsystems at runtime.<br />

Ufuk Dikme<br />

Web 2.0 als digitale Präservierungsmethode gegen linguistische Extinktion<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />

Das Hauptthema dieser Arbeit ist das Eruieren der<br />

Verwendungsmöglichkeiten von Web-2.0-Tools und Anwendungen im<br />

Bereich der Sprachpräservierung. Die Arbeit gibt einen Überblick über die<br />

Relevanz der menschlichen Sprache in Hinsicht auf Kultur und Wissenschaft.<br />

Zudem wird der im Zuge der Arbeit entwi-ckelte Sprachpräservierungsprozess<br />

beschrieben. Die Resultate der Recherche über den Status Quo der Tools und<br />

Anwendungen im Web 2.0 werden präsentiert und ihre didaktische<br />

Bedeutung wird angeführt. Danach werden die herausgearbeiteten Web-2.0-<br />

Tools und Anwendungen auf Verwendbarkeit <strong>für</strong> die Sprachpräservierung<br />

geprüft. Den Abschluss der Arbeit bildet die konzeptionelle Darstellung und<br />

Beschreibung der Lernplattform Zaza. Die Plattform dient als Beispiel <strong>für</strong> die<br />

Verwendung von Web 2.0 zur Sprachpräservierung anhand der bedrohten<br />

Sprache Zazaki. Sie beinhaltet multimediale Artikel in Form eines Blogs <strong>für</strong><br />

Lehrende, Lernende und Interessierte. Des Weiteren beinhaltet die Plattform<br />

auch Inhalte <strong>für</strong> den Unterricht, wie z. B. Übungsbeispiele zum Erlernen der<br />

Sprache, ein einsprachiges und ein mehrsprachiges Online-Wörterbuch.<br />

Markus Gassner<br />

Global Joint Artifacts for Outsourced Software Testing<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

72<br />

Soziale Netzwerke wie Facebook, Xing oder LinkedIn fördern unter anderem<br />

die Vernetzung von einander unbekannten Menschen basierend auf geteilten<br />

Interessen und Aktivitäten. Es gibt allerdings heutzutage noch keine Plattform,<br />

die einen Austausch und Vernetzung hinsichtlich gemeinsamer Aufgabenstellungen<br />

ermöglicht. Die vorliegende Arbeit setzt sich als Ziel, die<br />

Anforderungen an eine solche Plattform zu erheben, die die bestehenden<br />

Netzwerke erweitert. Dabei wurde der Begriff Global Joint Artifacts (GJA) neu<br />

eingeführt. In der Software-Entwicklung werden un/fertige Arbeitspakete<br />

bzw. Projektteile häufig als Artefakte bezeichnet. GJAs sind somit global<br />

verteilte, aber miteinander verbundene Artefakte. Neben diesem abstrakten<br />

Konzept trägt auch die zu entwerfende Plattform den Namen "Global Joint<br />

Artifacts". Zunächst wurde eine theoretische Recherche durchgeführt, um


unterschiedliche Trends, den State of the Art und technologische<br />

Möglichkeiten aufzuzeigen. Dabei fokussiert die vorliegende Arbeit den<br />

global verteilten Softwaretest, wenn Menschen mit ihren Artefakten, sowie<br />

die Artefakte miteinander verbunden werden. GJA soll im Software-Test<br />

verwendet werden können, um Arbeitspakete, Bestandteile der Software-<br />

Entwicklung, Software-Fehler und grundsätzlich das Wissen im Projekt zu<br />

verwalten. Zur praktischen Anwendung der theoretischen Erkenntnisse wurde<br />

ein Prototyp von GJA implementiert, der die erarbeiteten Anforderungen<br />

erfüllt. Er soll aufzeigen, dass der Wert ursprünglich alleinstehender<br />

Information durch die Verbindungen erhöht wird. Auch Benutzer an verteilten<br />

Standorten können so am Wissensaustausch und der Wissensverteilung<br />

teilnehmen. Als Ergebnis der Arbeit wurde der GJA Prototyp mit<br />

ausgewählten Systemen der Software-Entwicklung und -Test verglichen,<br />

wobei deutlich gezeigt werden konnte, dass GJA deutlich dazu beiträgt, rasch<br />

auf ähnliche Daten zuzugreifen und Wissensträger aufzufinden, Redundanzen<br />

vermeidbar und Synergien nutzbar gemacht.<br />

Johann Grabner<br />

Entwurf und Entwicklung eines semantisch gestützten<br />

Dokumentenmanagementsystems <strong>für</strong> eine große dezentrale Organisation<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Das World Wide Web befindet sich im Übergang vom Web 2.0 zum Semantic<br />

Web, und die Berücksichtigung der Semantik von Informationen bei der<br />

Verarbeitung gewinnt zunehmend an Bedeutung. Im Rahmen der<br />

vorliegenden Arbeit werden die Grundlagen des Semantic Webs diskutiert<br />

und die aktuelle wissenschaftliche Auseinandersetzung mit dem Bereich des<br />

Dokumentenmanagements dargestellt. Im praktischen Teil dieser Arbeit wird<br />

<strong>für</strong> die Organisationseinheiten Organisation und Koordination und Gebäude<br />

und Technik der <strong>Technische</strong>n Universität <strong>Wien</strong> ein Dokumentenmanagementsystem<br />

in Form einer semantischen Web-Applikation entworfen und als<br />

Prototyp implementiert. Anhand der Bewältigung der Aufgabestellung aus<br />

der Praxis wird gezeigt, welche Möglichkeiten sich beim Einsatz semantischer<br />

Technologien im Dokumentenmanagement eröffnen. Das abgebildete<br />

Wissen aus dem Anwendungsbereich liefert die Basis und den Kontext <strong>für</strong> die<br />

automatisierte Verarbeitung von Daten. Die Arbeit resultiert in der<br />

Entwicklung eines Systems zur kollaborativen Beschlagwortung von<br />

Dokumenten, das den Benutzer bei der Ablage und Suche mit fachlichen<br />

Empfehlungen assistiert.<br />

73


Ingrid Kail<br />

Game Based Learning <strong>für</strong> Programmieranfänger/innen<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />

E-Learning ist heutzutage ein geläufiger Begriff und hat sich heute<br />

weitgehend in österreichischen Bildungsstätten etabliert. Eine Unterkategorie<br />

ist Digital Game Based Learning. Nach wie vor wird häufig unterschätzt,<br />

welche positive Auswirkungen Lernspiele auf Motivation und Lernbereitschaft<br />

haben können. Ein Problem vieler Lernender ist das Verständnis von<br />

Programmabläufen. Im Rahmen der Arbeit soll ein Konzept eines Lernspiels<br />

entwickelt werden. UserInnen sollen auf Basis des Spiels bzw. der Spielregeln<br />

zu einem besseren Verständnis <strong>für</strong> die Algorithmuslogik gelangen. Mit Hilfe<br />

der Theorieteile werden sie an die Programmiersprache Java herangeführt.<br />

Die Besonderheit dieses Konzepts ist der Vorrang der Freude am Spiel,<br />

wodurch das Lernen unterbewusst und intuitiv passiert. Das Konzept soll sich<br />

nicht nur durch einen schnelleren Fortschritt beim Erlernen eines neuen<br />

Programms bewähren, sondern auch ein besseres Verständnis <strong>für</strong><br />

Programmierlogik zur Folge haben. Der aktuelle Wissensstand von<br />

psychologischen Erkenntnissen des menschlichen Lernprozesses wird<br />

analysiert. Vorhandene Definitionen, Grundlagen und Methoden des Game<br />

Based Learning werden untersucht und der Lehrplan des <strong>Informatik</strong>unterrichts<br />

in der 9. Schulstufe AHS, sowie häufig auftretende Barrieren von Anfänger-<br />

Innen evaluiert. Auf Basis der zugrunde liegenden Erkenntnisse wird<br />

schließlich ein Spiel konzipiert und teilweise tatsächlich umgesetzt, welches<br />

die aus der Literaturanalyse gewonnenen Resultate bestmöglich<br />

berücksichtigt und integriert. Es gibt bereits zahlreiche Lernspiele <strong>für</strong><br />

ProgrammieranfängerInnen, welche jedoch Grundkenntnisse über die<br />

jeweilige vorausgesetzen. Dadurch bleiben Verständnisfragen oft<br />

unbeantwortet. Das konzipierte Lernspiel unterscheidet sich von anderen<br />

Lernspielen durch die Herangehensweise. Die SpielerInnen benötigen keine<br />

Vorkenntnisse und erlernen erst durch das Spielen die Programmierlogik. Das<br />

Verständnis <strong>für</strong> die Vorgehensweise beim Programmieren soll intuitiv<br />

erfolgen.<br />

Markus Kammerstetter<br />

Real-time Encrypted Speech Communication Over Low <strong>Band</strong>width Channels<br />

Studium: Indivdiuelles Masterstudium: Computer and Network Security<br />

Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

74<br />

Today, electronic speech-telephony and -communication is broadly available<br />

through a number of different media and technologies. However, even<br />

though billions of users use these systems every day, the technologies<br />

employed may have security vulnerabilities allowing potential attackers to<br />

eavesdrop on the conversation, impersonate users or mount other attacks.


Hence to protect their users, it is of utter importance that these<br />

communication systems have a robust design involving strong cryptography<br />

to ensure information security properties like confidentiality, integrity or<br />

authenticity. If users need to a have private conversations over those media,<br />

they usually need to use secure phone products that offer end-to-end<br />

encryption between the involved parties. However, as these systems are<br />

often based on closed designs, the users have to trust these products to be<br />

secure. We show that there are bogus products on the market that bring no<br />

significant security improvements, resulting in users who merely think that<br />

their conversations are secure, although in reality they are not. To tackle<br />

these issues, we developed a new and versatile stand-alone system that has a<br />

number of advantages over existing secure telephony products. The working<br />

prototypes comprise of customly designed embedded hard- and software that<br />

can be connected to a broad range of communication media. One of the key<br />

features is the ultra low bandwidth requirement of 9600 baud and below,<br />

enabling its use over very low bandwidth channels. We based our design<br />

entirely on standardized, established and widely-used cryptographic<br />

primitives providing a high amount of security. In fact, our system does not<br />

only allow secure conversations with the information security properties<br />

confidentiality, integrity and authenticity, but it also provides Perfect Forward<br />

Secrecy (PFS), repudiation and a certain degree of plausible deniability.<br />

Harald Köstinger<br />

Entwurf und Entwicklung der klinischen Anwendung eines EHR-basierten<br />

Krankenhausinformationssystems<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Im Bereich eines Krankenhausinformationssystems (KIS) sind verschiedene<br />

Einzelsysteme im Einsatz, die den Arbeitsalltag im Krankenhaus erleichtern<br />

sowie das Personal in ihrer Arbeit unterstützen. Ein wichtiger Bestandteil<br />

solcher KIS sind zentral gespeicherte elektronische Patientenakten (EPA).<br />

Zunächst werden im Rahmen der vorliegenden Arbeit die aktuellen Trends in<br />

diesem Forschungsbereich sowie verbreitete Standards und deren<br />

Eigenschaften beleuchtet und diskutiert. Für KIS existieren heute praktisch<br />

keine Open Source Software Pakete, die <strong>für</strong> den wissenschaftlichen Bereich<br />

geeignet sind. Das Ziel dieser Arbeit ist somit der Entwurf und die<br />

Entwicklung einer klinischen Anwendung eines Electronic Health Record<br />

(EHR)-basierten KIS auf Basis von openEHR, die auf eine existierende<br />

Integrationsarchitektur <strong>für</strong> openEHR aufbaut. Im Rahmen der Umsetzung<br />

wurde eine patientensynchronisierte Anwendung erstellt, die die Darstellung<br />

medizinischer Daten aus dem openEHR Backend ermöglicht. Der Fokus<br />

hierbei lag auf der Entwicklung einer Komponente, die dynamisch die<br />

Darstellung der archetypbasierten Patientenakten, wie sie im openEHR<br />

Standard definiert sind, übernimmt. Zugleich wurde aufbauend auf die<br />

existierende Integrationsarchitektur und deren Services eine serviceorientierte<br />

75


Komponente entwickelt, die exemplarisch einen Anonymisierungsservice <strong>für</strong><br />

die medizinischen Daten anbietet, systemunabhängige Schnittstellen <strong>für</strong> eine<br />

patientensychronisierte Anwendung zur Verfügung stellt und einen Patienten<br />

Master-Index (PMI) implementiert. Das entwickelte Frontend <strong>für</strong> die medizinischen<br />

Daten implementiert einen Großteil der in openEHR vorgesehenen<br />

Eingabeelemente und unterstützt die Darstellung von Templates. Die<br />

implementierte serviceorientierte Architektur ermöglicht die systemunabhängige<br />

Verwaltung und Verarbeitung von patientensynchronisierten Anwendungen<br />

innerhalb eines KIS und stellt Methoden bereit, welche Anbindungen<br />

<strong>für</strong> webbasierte, Intra- und Internet basierte Software bieten.<br />

Andrej Lehotsky<br />

Structuring and Enhancing IT Security in Core Mobile Phone Use Cases<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Mobile phones are emerging to personal mobile devices, which can already<br />

replace a personal computer in many use cases. But their overall security<br />

mechanisms are not sufficient. The data stored in today's devices are much<br />

more personal then data stored on any other device we use. The focus in this<br />

thesis are operating systems and additional installed applications. The mobile<br />

phone attack surface is examined and based on it, possible and by<br />

researchers documented examples of threats are summarized. Since the<br />

mobile and fixed environments have their differences, these are outlined as<br />

the consideration for improvement approaches. Because of the human factor,<br />

some results of awareness surveys are presented and discussed. Due to<br />

limited resources of mobile phones (mainly power supply and size and/or<br />

weight), the current research in this field mainly concentrates on off-device<br />

(cloud) security services. These off-device security services are now the only<br />

solution to save power supply consumption while inferring possible attacks.<br />

Another focus is the virtualization and problems interconnected with<br />

installation of new applications. Summing up, this thesis proposes a mobile<br />

phone attack surface including open problems, which have to be solved to<br />

improve the overall security of mobile phones.<br />

Martina Lindorfer<br />

Detecting Environment-Sensitive Malware<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Privatdoz. Dr. Engin Kirda<br />

76<br />

Malware poses one of the Internets major security threats today. Due to the<br />

vast amount of new malware samples emerging every day, researchers and<br />

Anti-Virus vendors rely on dynamic malware analysis sandboxes such as<br />

Anubis to automatically analyze malicious code in a controlled environment.


In order to evade detection by these sandboxes, environment-sensitive<br />

malware aims to differentiate the analysis sandbox from a real user's<br />

environment. In the absence of an "undetectable", fully transparent analysis<br />

sandbox, defense against sandbox evasion is mostly reactive: Sandbox developers<br />

and operators tweak their systems to thwart individual evasion<br />

techniques as they become aware of them, leading to a never-ending arms<br />

race. In this thesis we present DISARM, a system that automates the screening<br />

of malware for evasive behavior using different analysis sandboxes. We<br />

present novel techniques that normalize malware behavior across these<br />

analysis sandboxes and detect malware samples that exhibit semantically<br />

different behavior. We further present a light-weight monitoring technology<br />

that is portable to any Windows XP environment. Nevertheless, our<br />

techniques are compatible with any monitoring technology that can be used<br />

for dynamic malware analysis and are completely agnostic to the way that<br />

malware achieves evasion. In a large-scale evaluation on real-world malware<br />

samples we demonstrate that DISARM can accurately detect evasive malware,<br />

leading to the discovery of previously unknown evasion techniques.<br />

Markus Oberreiter<br />

Evaluierung, Konzipierung und Härtung eines Testprozesses <strong>für</strong><br />

automatisierte Regressionstests in einem mittelgroßen Entwicklungsszenario<br />

Studium: Masterstudium Medieninformatik<br />

Betreuer: Em.O.Univ.Prof. Dr. Gerhard Helge Schildt<br />

Softwaretests kommt heutzutage bei den schnelllebigen Entwicklungszyklen<br />

von unterschiedlichen Softwareprodukten besonders große Bedeutung zu.<br />

Softwareprojektmanager sind heutzutage mit immer engeren Terminvorgaben<br />

konfrontiert und stehen unter dem Druck, Kosten zu reduzieren.<br />

Dadurch wird oft zu wenig Aufmerksamkeit auf das Testen von Software<br />

gelegt, sodass die nachträgliche Korrektur von Fehlern beim marktreifen<br />

Produkt häufig mit hohen Kosten verbunden ist. Im Rahmen der vorliegenden<br />

Arbeit wird nach einem Überblick zum aktuellen Forschungsstand im Bereich<br />

des Software Testens und einem Vergleich vorhandener State-of-the-Art<br />

Testwerkzeuge ein Kriterienkatalog erarbeitet und darauf basierend ein effizienter<br />

Testprozess definiert. Speziell bei einer inkrementellen Softwareentwicklung<br />

ist es notwendig, automatisierte Regressionstests mit einem<br />

Testwerkzeug durchzuführen. Die Vorteile automatisierter gegenüber manueller<br />

Regressionstests werden eingehend erläutert. Im Rahmen eines Fallbeispiels<br />

werden etablierte Softwaretestprozesse eines Unternehmens exemplarisch<br />

näher untersucht und Schwachstellen identifiziert. Basierend auf den<br />

Analysen wurde ein neu definierter Testprozess erarbeitet und prototypisch<br />

umgesetzt. Dabei konnte gezeigt werden, dass die Qualität des User-Acceptance-Tests<br />

durch den neuen Prozess deutlich gesteigert werden konnte,<br />

da durch die Einführung des Integrations- und Systemtests schon viele Fehler<br />

vor dem Abnahmetest beseitigt werden konnten. Eine wesentliche Verbesserung<br />

im Testprozess brachte der Regressionstest, wobei einige Testfälle mit<br />

77


dem Tool HP QuickTest Professional umgesetzt und Kernfunktionalitäten der<br />

betrachteten Businessprozesse abgedeckt wurden. Diese Regressionstests<br />

stehen nun <strong>für</strong> weitere Tests zur Verfügung, wodurch sich eine enorme Zeitund<br />

somit Kostenersparnis ergibt.<br />

Daniela Popovic<br />

Exemplarische Sicherheitsanalyse und Sicherheitsmaßnahmen am Beispiel der<br />

Österreichischen Hochschülerinnen und Hochschülerschaftswahl<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Sicherheit in E-Voting Systemen bezieht sich nicht nur auf die verwendete<br />

Wahlsoftware, sondern auf die gesamte Infrastruktur, einschließlich<br />

organisatorischer und menschlicher Aspekte. Damit die Sicherheit bei<br />

elektronischen Wahlen garantiert werden kann, müssen Maßnahmen geschaffen<br />

werden, um die Schutzziele Vertraulichkeit, Integrität und Verfügbarkeit<br />

zu gewährleisten und in Folge mögliche Sicherheitsrisiken zu minimieren. Um<br />

diese Hypothese zu prüfen, wird der E-Voting Prozess der Österreichischen<br />

Hochschülerinnen- und Hochschülerschaft mit Hilfe des, vom Deutschen<br />

Bundesamt <strong>für</strong> Sicherheit in der Informationstechnik zur Verfügung gestellten<br />

Sicherheitsprozesses analysiert. Dabei wird zuerst eine Sicherheitsanalyse des<br />

IST-Zustands vorgenommen, die sich mit exemplarischen Bedrohungen und<br />

Risiken <strong>für</strong> sensible Daten im Kontext des E-Voting Systems (clientseitig, in<br />

der Übertragungsphase und serverseitig) beschäftigt, um schlussendlich aus<br />

den Ergebnissen der Analyse ausgewählte Sicherheitsmaßnahmen abzuleiten.<br />

Cornelia Preier<br />

Analyse und Entwurf eines Anforderungs- und Kriterienkatalogs <strong>für</strong> ein<br />

telemedizinisches Notrufsystem (Caritas)<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Em.O.Univ.Prof. Dr. Gerhard Helge Schildt<br />

78<br />

Ein Notrufsystem ist ein unterstützendes System, das Notrufe von Hilfsbedürftigen<br />

weiterleitet, sodass zuverlässig und rasch Hilfe geleistet werden<br />

kann. In diesem System erfolgt die Bereitstellung von Gesundheitsdaten mit<br />

Hilfe von Informations- und Telekommunikationstechnologien, die die Versorgung<br />

und Unterstützung des Patienten gewährleisten. Die Technik hat sich in<br />

den letzten 30 Jahren nicht grundsätzlich verändert. Dies stellt alle Beteiligten<br />

zunehmend vor Probleme. Es wird der Fokus auf das Fallbeispiel Caritas und<br />

Notruf 144 NÖ gelegt. Aufbauend auf einer Anforderungsanalyse wird die<br />

Gebrauchstauglichkeit analysiert. Ziel ist die Ermittlung von Mindestanforderungen,<br />

die erfüllt sein müssen, damit das System <strong>für</strong> alle Beteiligten benutzbar<br />

ist. Die vorgeschlagenen Verbesserungen sollen durch eine Erhebung<br />

bei den involvierten Akteuren auf Tauglichkeit überprüft werden. Die er-


mittelten Mindestanforderungen werden hinsichtlich Gebrauchstauglichkeit<br />

an den Usability-Kriterien Effektivität, Effizienz und Zufriedenheit gemessen.<br />

In Anlehnung an den DATech Leitfaden <strong>für</strong> Usability werden die Anforderungen<br />

auf Basis der Informationen, die aus der Analyse der Vor- und<br />

Nachteile stammen, überprüft. Der Nichterfüllungsgrad der Anforderungen<br />

wird ermittelt. Das derzeitige System baut auf eine rein subjektive Ablaufsteuerung,<br />

Einschätzung der Situations- und Informationsweitergabe, als<br />

auch auf der redundanten Ermittlung der Notfalldaten auf. Essentiell sind die<br />

ungenügend genutzte Möglichkeit des elektronischen Datenaustausches und<br />

die fehlende Integration von verfahrensunterstützenden Maßnahmen. Die<br />

Ergebnisse der Erhärtungsanalyse zeigen auf, dass dringender Handlungsbedarf<br />

hinsichtlich der Integration von GPS und Biosignalen in einem<br />

integrierten Systemablauf besteht. Ausgehend der Ergebnisse der Erhärtungsanalyse<br />

erfolgt die Skizzierung von Maßnahmen, welche eine<br />

Verbesserung der Prozessabläufe und somit schlussendlich der Gebrauchstauglichkeit<br />

bewirken.<br />

Reinhard Raschbauer<br />

Methoden zur Positionsbestimmung <strong>für</strong> autonome Fahrzeuge<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Autonome selbstfahrende Roboter, so genannte Automated Guided Vehicles<br />

(AGVs), finden in der heutigen Zeit immer weitere Verbreitung. Sie werden in<br />

vielen Bereichen der Wirtschaft und Industrie, aber auch zunehmend im<br />

städtischen Verkehr oder der Landwirtschaft eingesetzt. Damit ein AGV seine<br />

Aufgaben bestmöglich erfüllen kann, ist es fundamental, dass seine Position<br />

hochgenau bestimmt werden kann. Global Positioning System (GPS) ist die<br />

gegenwärtig am häufigsten verwendete Lösung zur Positionsbestimmung.<br />

Konventionelle GPS-Empfänger verfügen aber nicht über die notwendige<br />

Genauigkeit, um sie <strong>für</strong> AGVs verwenden zu können. Ziel der vorliegenden<br />

Diplomarbeit ist es, Methoden zu entwickeln, mit denen es möglich ist, die<br />

Position von AGVs hochgenau zu bestimmen. Dazu sollen konventionelle<br />

GPS-Empfänger sowie zusätzliche Sensordaten des AGVs zum Einsatz kommen.<br />

Durch die Verwendung spezieller Algorithmen soll diese Positionsgenauigkeit<br />

erreicht werden. Einleitend werden die Grundlagen Satellitenbasierter<br />

Positionsbestimmung anhand von GPS erläutert. Aufbauend darauf<br />

werden hochgenaue Positionierungssysteme diskutiert. Kernpunkt dieser<br />

Arbeit ist der Entwurf von neuen Methoden zur Realisierung solcher Systeme.<br />

Zur Steigerung der Genauigkeit der GPS-Messung werden Real Time Kinematic<br />

(RTK)-Algorithmen verwendet. Weiters wird die Geschwindigkeit des<br />

AGVs mittels der Dopplerfrequenz der GPS-Signale berechnet. Die so<br />

erzeugten Daten werden anschließend mit einem stochastischen Systemintegrationsfilter<br />

optimal mit den lokalen Sensordaten kombiniert. Zwei<br />

Ansätze wurden verfolgt, die sich darin unterscheiden, wie die Messwerte<br />

kombiniert werden. Einerseits werden die Subsysteme einzeln umgesetzt und<br />

79


anschließend ihre Ausgangswerte kombiniert. Andererseits werden alle Subsysteme<br />

direkt im stochastischen Filter integriert. Zur Evaluierung des<br />

entwickelten Konzepts wurden beide Algorithmen implementiert und mit<br />

einer kommerziellen RTK-basierten Positionierungslösung verglichen.<br />

Stefan Reiterer<br />

Design and Development of a task-based Code Review Tool for an Air Traffic<br />

Management System<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Software reviews are one of the most efficient quality assurance techniques<br />

in software engineering. They are used to find defects in early stages of a<br />

projects progress and help team members to get a better understanding of<br />

the code. Undetected defects during the software development process can<br />

have significant consequences, such as reduced customer satisfaction,<br />

increased safety risk and decreased productivity of the users. In order to avoid<br />

them, development teams use software reviews to improve the quality of the<br />

product by reviewing interim deliverables during the development. In the last<br />

thirty years several formal and less formal approaches for the application of<br />

reviews were developed. Despite their advantages, they are not universally<br />

used because in many cases a review tool that assists a companys review<br />

process does not exist. This is presented in a case study with the company<br />

Frequentis, whose task-based development process is not sufficiently<br />

supported by an existing review tool. The internationally acting company<br />

develops software in the field of civil air traffic management (ATM), and<br />

therefore has to fulfill the DO-278/ED-109 software standard. A significant<br />

part of the standard is devoted to the application of code reviews. This work<br />

describes a lightweight task-based review process which was developed<br />

based on theoretical analyses and company specific requirements. It is related<br />

to a peer deskcheck or passaround method and consists of four phases. A<br />

case study shows how the process can be used by Frequentis for the<br />

assurance of software quality. Based on this, a custom review plug-in for the<br />

popular Eclipse development environment was designed and implemented.<br />

This plug-in is used to apply the task-based review process. Furthermore, it<br />

supports the planning of reviews by suggesting qualified reviewers for parts<br />

of the source code. For the verification of the review results and the review<br />

coverage, it also allows the generation of reports.<br />

80


Martin Reiterer<br />

Design and Development of Eclipse-integrated support for<br />

Internationalization of Java Applications<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

This work presents a tool-based approach for making the concept of Java<br />

internationalization more convenient for practical development projects.<br />

Internationalization denotes a pervasive programming approach for building<br />

multilingual applications efficiently. However, dramatically often, the<br />

expected advantages get lost. Reasons for this fact are a lack of understanding<br />

of cultural, geographical and political differences as well as a<br />

missing overview of the concepts provided in the Java programming language.<br />

In addition, once a product is fully internationalized, it becomes tedious<br />

for developers to keep all the language-specific artifacts up to date and<br />

consistent. The theoretical part of this work addresses the topic of software<br />

internationalization and localization. Based on analyzing the state-of-the-art<br />

of Java internationalization and typical problems occurring in practice, the<br />

practical part focuses on the implementation of development tools for<br />

supporting the internationalization of software-artifacts. For assisting engineers<br />

in the day-to-day development work, the presented tooling is<br />

integrated into one of the most widely used open source development platforms<br />

for Java. The created reference implementation is named TapiJI<br />

(Tooling for agile and process integrated Java Internationalization) and can<br />

be seamlessly integrated into existing development processes. With the use<br />

of context-sensitive as well as general helps, which represent internationalization<br />

tasks transparent, TapiJI reduces both the effort and the<br />

problems due to improper handling of internationalization. Even engineers<br />

with little experience in writing multilingual applications are permanently<br />

advised to ensure high and uniform code quality. The resulting tool suite is<br />

successfully presented in special-interest magazines, published for free usage<br />

and receives a wide acceptance in the open source community.<br />

Bernhard Scheuer<br />

Architecting a revised Governmental Tax Management System<br />

Studium: Masterstudium Information & Knowledge Management<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Diese Diplomarbeit beschäftigt sich mit der technischen Planung eines<br />

großen Softwaresystems im öffentlichen Verwaltungsdienst. Zusätzlich wird<br />

eine grobgranulare Architektur <strong>für</strong> das österreichische softwarebasierte<br />

System zur Finanzverwaltung vorgeschlagen. Landläufig werden solche<br />

Projekte, bzw. der Einsatz eines solches Systems als eGovernment Initiative<br />

tituliert. Es scheint eines der vielen Modewörter des aktuellen Informationszeitalters<br />

zu sein. Daher werden auch kritische Grundlagen zu diesem<br />

81


Thema in dieser Arbeit erörtert. Eine überarbeitete softwarebasierte Finanzverwaltung<br />

führt zu einem komplexen Softwaresystem, das zusätzlich noch<br />

eine breite Landschaft von Altsystemen einbezieht. Es ist unbestritten, dass<br />

mit hoher Komplexität auch große Risiken einhergehen. Daher ist es<br />

besonders wichtig mit größter Sorgfalt und angemessener Herangehensweise<br />

voranzuschreiten. In diesem Zusammenhang setzt diese Arbeit auf fundierte<br />

Techniken und Instrumente aus der Disziplin der Software Architektur. Die<br />

konkrete grobgranulare Architektur setzt sich aus unterschiedlichen Best<br />

Practices und Standards zusammen, die sich in architektonischen Prinzipien<br />

und Entscheidungen widerspiegeln und manifestieren. Das vorgeschlagene<br />

softwarebasierte System zur Finanzverwaltung setzt auf eine serviceorientierte<br />

Architektur, gepaart mit einer geschäftsprozess-orientierten<br />

Implementierung. Diese versprechen, neben gesteigerter Effektivität und<br />

Effizienz, ein schnelles Reagieren bzw. Umsetzen etwaiger Änderungen. Der<br />

Einsatz dieser zeitgemäßen Technologien und innovativen Techniken liefert<br />

den Grundstein <strong>für</strong> Agilität im Verwaltungsapparat.<br />

Michael Schmöllerl<br />

IT-Governance mit Cobit am Beispiel Leistungsverrechnung in Banken<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

82<br />

Gerade die Finanzindustrie ist wegen der aktuellen Wirtschaftslage unter<br />

Druck geraten. Konfrontiert mit schrumpfenden Märkten, müssen Kosten<br />

gesenkt und die effiziente Nutzung der Ressourcen sichergestellt werden. Im<br />

Fokus dabei steht die IT, da diese eng mit den Geschäftsprozessen<br />

verflochten ist und einen wesentlichen Kostenfaktor darstellt. IT-Governance<br />

ermöglicht die effektive Ausrichtung der IT auf die Unternehmensstrategie.<br />

Kernaufgaben der IT-Governance sind die Generierung von Unternehmenswert<br />

sowie das Management von IT-Risiken. In diesem Zusammenhang<br />

stellt Cobit, als Vertreter der IT-Governance Frameworks, Messgrößen und<br />

Reifegradmodelle zur Verfügung, um die Wirksamkeit der Kontroll- und<br />

Steuerungsmaßnahmen zu erfassen. Im Rahmen dieser Arbeit soll die<br />

Anwendbarkeit von Cobit an zu prüfenden Geschäftsabläufen im Bankenbereich<br />

gezeigt werden. Der Fokus wird dabei auf den Prozess der Leistungsverrechnung<br />

gelegt. Ziel ist es, die Effektivität der eingesetzten Kontroll- und<br />

Steuerungsmaßnahmen zu messen. Dazu wird ein Vorgehensmodell erarbeitet,<br />

welches an einem Fallbeispiel angewandt wird. Das <strong>für</strong> die Analyse<br />

herangezogene Unternehmen ist ein österreichischer Finanzdienstleister mit<br />

Hauptsitz in <strong>Wien</strong>. Als Ergebnis der Analyse kann die Wirksamkeit der<br />

vorhandenen Kontroll- und Steuerungsmaßnahmen eingeschätzt werden.<br />

Infolgedessen wird eine Risikoeinschätzung getroffen und der Umsetzungsgrad<br />

der von Cobit definierten Kontroll- und Steuerungsmaßnahmen<br />

beurteilt. Anhand der Risikoanalyse werden resultierende Verbesserungsmaßnahmen<br />

identifiziert. Zusammenfassend soll die Anwendung von<br />

IT-Governance Frameworks, im speziellen Cobit, aufgezeigt werden. Die


Vorgehensweise soll zeigen, ob die von Cobit definierten Ergebnis- und<br />

Leistungsmessungen universell anwendbar sind und eine durchgängige Prüfungsplanung<br />

und -durchführung unterstützen.<br />

Handan Sentürk<br />

Konzeption einer Business Activity Monitoring Lösung <strong>für</strong> die Umsetzung von<br />

Business Performance Measurement in virtuellen Organisationen am Beispiel<br />

Vendor Managed Inventory<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Eine Möglichkeit zur Bewertung des Erfolgs eines Vendor Managed Inventory<br />

(lieferantengesteuerte Bedarfsermittlung) Ansatzes in virtuellen<br />

Organisationen ist der Einsatz eines Business Activity Monitoring Systems. Ein<br />

solches System bewertet und überwacht Geschäftsprozesse unter<br />

Verwendung von definierten Kennzahlen. Damit verschafft das System der<br />

virtuellen Organisation einen Überblick über den aktuellen Stand der<br />

unternehmensübergreifenden Prozesse, identifiziert deren Schwachstellen<br />

und unterstützt die Entscheidungsfindung zur Optimierung der Prozesse. Die<br />

Integration wirtschaftlicher und technischer Anforderungen aller beteiligten<br />

Unternehmen stellt die besondere Herausforderung bei der Realisierung<br />

eines Business Activity Monitoring Systems innerhalb einer virtuellen<br />

Organisation dar. Wirtschaftliche Anforderungen umfassen primär die<br />

Überwachung unternehmensübergreifender Kennzahlen in Echtzeit. Da<strong>für</strong><br />

müssen einheitliche und aussagekräftige Kennzahlen definiert werden. Durch<br />

das regelmäßige Speichern der Daten sollen historische Abläufe abgebildet<br />

und analysiert werden. Das Ziel der Überwachung ist einerseits das Erkennen<br />

von Soll-Ist Abweichungen und andererseits die Unterstützung <strong>für</strong><br />

Entscheidungsfindungen. Um Kennzahlen besser im Blick zu behalten, sollen<br />

in kritischen Fällen automatisch Benachrichtigungen über den Zustand der<br />

Kennzahlen versandt werden. Da virtuelle Organisationen dynamische<br />

Kooperationen sind, soll die Integration neuer Unternehmen in das System<br />

ohne großen Kostenaufwand realisiert werden können. <strong>Technische</strong>n<br />

Anforderungen wie automatisierter und manueller Datentransfer und<br />

Kennzahlenberechnung zu jedem Zeitpunkt, Definition von<br />

Berechnungsalgorithmen, automatisierte Datenspeicherung in regelmäßigen<br />

Abständen, Aufstellen von Grenzwerten, übersichtliche Darstellung der<br />

Kennzahlen, automatisches Versenden von Benachrichtigungen und<br />

Skalierbarkeit, um neue Unternehmen einbeziehen zu können, müssen<br />

ebenso erfüllt werden.<br />

83


Fakhteh Sohrabi-Moayd<br />

Publishing in der Schule<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />

In der heutigen Zeit, in der sich die Gesellschaft auf dem Gebiet der digitalen<br />

Medien immer rasanter entwickelt, ist es wichtig den Jugendlichen<br />

Grundkenntnisse dieser Technologien zu vermitteln. Von entscheidender<br />

Bedeutung ist es auch, SchülerInnen auf eine medientechnische Arbeitswelt<br />

vorzubereiten. Im Rahmen dieser Diplomarbeit wird ein Unterrichtskonzept<br />

entwickelt, das Jugendlichen ein besseres Verständnis von Publishing Software<br />

und entsprechende Kompetenz bezüglich digitaler Medien vermittelt.<br />

Dadurch sollen die SchülerInnen in der Lage versetzt werden, die <strong>für</strong> das<br />

Publishing relevanten Medien entsprechend der gegebenen Anforderungen<br />

zu verstehen, zu nutzen und einzusetzen. Mittels Software-Evaluation werden<br />

drei DTP-Programme <strong>für</strong> den Einsatz im Schulunterricht einander gegenüber<br />

gestellt, um die am besten geeignete Software auszuwählen. In neun<br />

Lehreinheiten wird den SchülerInnen ermöglicht, ihr Basiswissen über Medien<br />

wie zum Beispiel Text, Grafik, Bild und Animation zu vertiefen, um diese<br />

zweckorientiert in DTP-Programmen anzuwenden. Für die Umsetzung werden<br />

didaktische Methoden ausgewählt, welche die SchülerInnen animieren sollen<br />

aktiv am Unterricht mitzuwirken. Ferner wird auch durch die eingesetzten<br />

Unterrichtsmethoden die soziale Kompetenz der SchülerInnen gestärkt.<br />

Bertram Stemer<br />

A Model for Synchronized Distributed Test and Measurement<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

84<br />

Durch die Entwicklung von immer komplexeren Systemen wachsen auch die<br />

Anforderungen an die Test- und Messanwendungen. Diese Anwendungen<br />

kommunizieren über Busse mit einer Vielzahl von verteilten Sensoren und<br />

Aktoren, teilweise über weite Distanzen und produzieren bzw. sammeln<br />

große Datenmengen. Somit steigen die Anforderungen an neue Bustechnologien<br />

<strong>für</strong> Test- und Messanwendungen. Bestehende Technologien<br />

wie z.B. der General Purpose Instrumentation Bus (GPIB) stoßen heutzutage<br />

an ihre Grenzen aufgrund der geringen <strong>Band</strong>breite und der geringen Anzahl<br />

an Geräten, die angeschlossen werden können. Die Entwicklung von IEEE<br />

1588 Precision Time Protocol (PTP) und LAN eXtensions for Instrumentation<br />

(LXI) bietet nicht nur Ansätze <strong>für</strong> diese Problematik sondern auch Lösungen<br />

zur genauen synchronen Zeitmessung von verteilten Daten. Durch IEEE 1588<br />

kann Ethernet als Kommunikationsmedium verwendet werden, wobei eine<br />

Uhrzeitsynchronisation im Nanosekunden-Bereich erreichbar ist. Diese Arbeit<br />

geht einen Schritt weiter in verteilten Test- und Messanwendungen und<br />

beschäftigt sich mit der Entwicklung eines neuen Konzeptes, das ein


Feedback der Messumgebung in die Instrumente zulässt. Es umfasst Messung<br />

der Netzwerk-Latenz, verzögertes synchronisiertes Triggern, Vermeidung oder<br />

Erkennung von verlorenen Paketen und Fehlerbeseitigung.<br />

Christian Thomas<br />

Technical Criteria for the Productivity of Rapid Web Development Frameworks<br />

in Enterprise Java<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

In recent years, the World Wide Web has emerged as a central part of our<br />

lives. Accordingly, Web Engineering nowadays is among the main activities in<br />

software development. However, due to their special characteristics,<br />

developing Web Applications is a complex task. Web Application Frameworks<br />

aim at easing this task. On the one hand, the proliferation of these softwaretools<br />

has made the selection of a framework a challenging task. On the other<br />

hand, the competition also led to an ongoing equalization in the market.<br />

Today, the existing Web Frameworks hardly differ regarding their functional<br />

expressiveness, making it a insignificant criterion when choosing a framework.<br />

However, when Ruby on Rails was released in the end of 2005, it<br />

unmasked that Web development till then lacked an important factor:<br />

Productivity. Since that time, also Web Frameworks in the Java environment<br />

are increasingly facing rapid development. Five years after the first version of<br />

Rails, this thesis describes the current state-of-the-art in rapid Web<br />

development with Java. It analyzes the technical factors that altogether<br />

define a Web Application Frameworks productivity. The resulting catalog<br />

encompasses more than 120 criteria. This way, it can answer the question of<br />

which particular Web Framework to choose in an upcoming project. The<br />

catalog can also be used to base new comparisons on it and it may even<br />

foster further developments in the market.<br />

Raoul Vallon<br />

Lean and Agile Software Development: Planung und Realisierung einer<br />

Verbindung von Kanban und Scrum<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Lean Development, auch bekannt als Just in Time Produktion verwirklicht ein<br />

dynamisches Pull-System, das jedoch auch zahlreiche Gemeinsamkeiten zu<br />

agilen Prozessen aufweist. Ziel dieser Arbeit ist die Erarbeitung eines Konzepts,<br />

das Lean Development anhand des Vertreters Kanban und den agilen<br />

Softwareprozess Scrum verbindet, sodass die Stärken der beiden Prozesse<br />

vereint werden. Der erste Teil der Arbeit befasst sich mit der Erstellung eines<br />

Konzepts, in dem sowohl Kanban- als auch Scrum-Elemente enthalten sind.<br />

85


Den zweiten Teil stellt die praktische Erprobung des Konzepts dar. Als<br />

Fallbeispiel wurden Teile des Konzepts <strong>für</strong> eine Umsetzung im Rahmen einer<br />

Praxisphase ausgewählt. Diese Prüfung der Praxistauglichkeit bietet weiteres<br />

Feedback <strong>für</strong> eine abschließende Verbesserung des Konzepts. Die Ergebnisse<br />

aus der praktischen Erprobung zeigen, dass die Kombination von Kanban und<br />

Scrum einen sinnvollen Ansatz <strong>für</strong> ein effizientes Projektmanagement<br />

darstellt. Beispielsweise kommt es in Software Projekten aus verschiedensten<br />

Gründen zu Änderungen der Priorisierungen. Mit dem dynamischen Kanban<br />

Workflow wird den Projektmitarbeitern ein Werkzeug gegeben, das aufgrund<br />

seiner Flexibilität die Möglichkeit bietet, dennoch eine effiziente Umsetzung<br />

des Projekts zu gewährleisten. Auf der anderen Seite konnten die in der Praxis<br />

erprobten Scrum-Elemente des Konzepts, wie Retrospektive oder Review,<br />

Raum schaffen, auch im dynamischen Kanban-Prozess regelmäßig über den<br />

Prozess zu reflektieren und den Fortschritt zu überprüfen. Für den Einsatz<br />

dieser beiden Scrum-Elemente wurde ein im Rahmen des Konzepts<br />

entwickelter Sprint ohne Commitment eingeführt, der sich als ideales Mittel<br />

herausstellte, um einen Zeitpunkt <strong>für</strong> Retrospektive und Review zu bestimmen<br />

und gleichzeitig jedoch vom Scrum-üblichen Commitment abzusehen, mit<br />

dem ein Kanban Workflow nicht durchführbar wäre.<br />

Bence Vass<br />

Konzepte und Prototypen zur Etablierung von Workflows in einer großen,<br />

historisch gewachsenen Verwaltungsinstitution<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Seit Unternehmen betriebliche Informationssysteme einsetzen, um ihre<br />

Geschäftsprozesse abzuwickeln, rückt die Ablauforganisation im Vergleich zur<br />

Aufbauorganisation immer mehr in den Mittelpunkt. Die Methoden zur Erfassung,<br />

Gestaltung, Optimierung und Etablierung dieser Prozesse werden<br />

durch Geschäftsprozessmanagement bzw. Business Process Management<br />

(BPM) unter einem Begriff vereint. Besonders bei der Einführung neuer<br />

Informationssysteme ist die Betrachtung der betroffenen Prozesse essentiell.<br />

Unter dem Titel <strong>TU</strong> Informations-Systeme und Services (TISS) erfolgt derzeit<br />

an der <strong>Technische</strong>n Universität (<strong>TU</strong>) <strong>Wien</strong> die Etablierung einer neuen IT-<br />

Strategie, welche die Ablösung zahlreicher Insellösungen durch ein<br />

einheitliches Gesamtsystem vorsieht. Das Ziel dieser Arbeit ist zu zeigen, dass<br />

die Methoden und Paradigmen von BPM auch in einer großen, historisch<br />

gewachsenen Verwaltungsinstitution eingesetzt werden können und einen<br />

Mehrwert bringen. Dies erfolgt in der Form von drei Fallbeispielen, in denen<br />

Prozesse und IT-Systeme des TISS-Projekts analysiert, optimiert, spezifiziert<br />

und, falls durch die erhobenen Anforderungen möglich, als Workflows<br />

etabliert werden.<br />

86


Mark Volcic<br />

Sicherheitskritische Modelleisenbahnsteuerung in Ada<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Johann Blieberger<br />

Das Ziel dieser Diplomarbeit ist die Entwicklung einer sicheren und<br />

zuverlassigen Steuerung von Zügen in einem abgeschlossenen leissystem.<br />

Für die Implementierung und die Testphase wurde eine Modelleisenbahn<br />

gewählt, die den sicherheitskritischen Ansprüchen von realen Zügen und<br />

Gleisen entsprechen muss. Hard- und Software sind zum Teil schon<br />

vorhanden, allerdings müssen diese weiterentwickelt bzw. geändert werden.<br />

Die vorhandene Software der Microcontroller wurde in C geschrieben, die<br />

Lösung soll ausschließlich in Ada entwickelt werden. Bei der Hardware muss<br />

das Design der Controller geändert und ein neuer Prozessor gewählt werden,<br />

der den aktuellen Anforderungen entspricht. Für die Steuersoftware am<br />

Master-PC gibt es erste Testversionen, die allerdings nicht mehr dem<br />

aktuellen Stand der Technik entsprechen; diese muss ebenfalls überarbeitet<br />

werden.<br />

Nikolas Johannes Wageneder<br />

Online Configurator for Variable Message Signs<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

As the worldwide number of automotive vehicles grows the need for<br />

advanced traffic management increases every year. On this way, Intelligent<br />

Transport Systems address the problems of road safety and congestion.<br />

Situated at key decision points on road networks, Variable Message Signs<br />

come into play. They are used to manage the traffic by providing traffic<br />

information and warnings to traffic participants. Online configurators serve<br />

the purpose enabling a user to design an individual product based on his<br />

personal preferences. Besides positive marketing effects a configurator helps<br />

a manufacturer to follow the mass customization strategy. For the customer<br />

this means better comparability between different vendors. The goal of this<br />

master thesis was to design and implement an online configurator for<br />

Variable Message Signs based on current Web technologies. The Agile<br />

Unified Process was chosen as software development process. From the<br />

technological viewpoint, "Web 2.0" has been taken into account. Developing<br />

a stepwise wizard based online configurator with large degrees of freedom is<br />

not without challenges. Most important, a flexible graphical user interface is<br />

necessary allowing a customer to intuitively design the desired Variable<br />

Message Sign based on his preferences. XML configuration files provide a<br />

solid base for the dynamical structure. Within the configurator, a JavaScript<br />

based "Rule Engine" has been chose as core element to define complex<br />

dependencies, whereas within a "Plausibility Check Engine" mutually<br />

87


exclusive configurators attributes can be determined. Upon every user input a<br />

validation is performed to minimize the risk of wrong handling. Further<br />

challenges to be handled included the integration of a rudimentary E-<br />

commerce application following an editable electronic shopping cart. Besides<br />

the benefits for external users, the configurator can be used for corporate<br />

internal calculations based on daily updated pricing data from an ERP system.<br />

Alexander Wagner<br />

Ressourcen zur Unterstützung beim Erlernen von Unity zur Entwicklung von<br />

3D-Anwendungen<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />

Interaktive 3D-Anwendungen sind Programme, die unmittelbar auf die<br />

Eingaben ihres Benutzers reagieren und die Ergebnisse dieser Eingaben<br />

mittels dreidimensionaler Grafiken in Echtzeit darstellen können.<br />

Anwendungsgebiete von 3D-Programmen sind multimediale Spielsoftware,<br />

Software zur Erkundung architektureller Entwürfe oder interaktive<br />

Lernsoftware. Die Entwicklung von interaktiven 3D-Anwendungen ist ein<br />

besonders anspruchsvolles Gebiet der Softwareentwicklung. Das notwendige<br />

Vorwissen kann durch den Einsatz geeigneter Tools reduziert werden. Ein<br />

solches Tool zur Entwicklung interaktiver 3D-Anwendungen ist Unity. Es<br />

erlaubt die einfache Erstellung eines 3D-Projekts mittels graphischem<br />

Interface und enthält eine integrierte 3D-Engine, die die mathematischen<br />

Komplexitäten der Computergraphik vor dem Nutzer verbirgt. Aufgrund seiner<br />

leichten Zugänglichkeit und der enormen Geschwindigkeit, mit der man<br />

sichtbare Ergebnisse erzielen kann, eignet es sich hervorragend, um die<br />

Grundlagen von 3D-Anwendungs- und Spieleentwicklung zu lehren. Ziel<br />

dieser Arbeit war, sinnvolle Ressourcen zu erstellen, die Anfängern den<br />

Einstieg in den Umgang mit Unity erleichtern und diesen beschleunigen<br />

sollen. Die betreffende Zielgruppe bestand primär aus StudentInnen der<br />

<strong>Informatik</strong> und der Architektur. Die Erhebung der besonderen Ansprüche<br />

dieser Zielgruppen erfolgte mittels qualitativer Untersuchungen bei zwei<br />

universitären Lehrveranstaltungen. Auf dieser Basis wurden Anleitungen<br />

erstellt, die die verschiedenen Aspekte der Arbeit mit <strong>für</strong> Anfänger Unity<br />

beschreiben. Neben Beschreibungen des Tools an sich werden darin auch<br />

Aspekte der Zusammenarbeit im Team bei einem Entwicklungsprojekt im<br />

Universitätskontext erörtert. Alle erstellten und gesammelten Ressourcen<br />

sollten durch eine zentrale Sammelstelle schnell und einfach verfügbar<br />

gemacht werden. Eine Evaluierung wurde durchgeführt, um die günstigste<br />

Art und Weise zu bestimmen, auf die diese Sammelstelle umgesetzt werden<br />

soll.<br />

88


Dirk Wallerstorfer<br />

Improving Maintainability with Scrum<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

This thesis aims to provide additional insight into the effect of different<br />

development strategies on the maintainability of code. Maintainability is<br />

defined as the ease with which a software can be modified. Throughout a<br />

software development project a lot of time is spent on maintenance. Therefore<br />

code that is easy to maintain is desireable. To be able to detect<br />

differences between development strategies a case study with a development<br />

team of an Austrian company was conducted. The team changed its<br />

development strategy from the waterfall model to Scrum. The waterfall model<br />

is a sequential development process with emphasis on documentation. Scrum<br />

is an agile, iterative development process. The development of the code<br />

maintainability was analyzed when using the waterfall model and when using<br />

Scrum as development strategy. In order to quantify the maintainability of<br />

code the common approach of using static code analysis is used. Based on<br />

results in literature a set of software metrics was used to assess the code<br />

maintainbility. The statistical method used for validation is a non-parametric<br />

analysis of variance (Friedman's ANOVA) with post-hoc tests. The results<br />

indicate that Scrum does not decrease the code maintainability as much as<br />

the waterfall model over time. Scrum does a better job in preserving the level<br />

of code maintainability than the waterfall model. The possible reasons for this<br />

are discussed in the thesis.<br />

Conrad Stefan Wandl<br />

Erstellung eines Sicherheitskonzepts <strong>für</strong> eine NFC-basierte Infrastruktur<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Durch die Verwendung von Near Field Communication (NFC) in durchaus<br />

sicherheitskritischen Projekten, wie etwa mobilen Bezahlsystemen und deren<br />

allgemein steigende Beliebtheit erhöht sich die Wahrscheinlichkeit von<br />

Angriffen auf NFC-basierte Infrastrukturen. Zur Sicherstellung der<br />

Informationssicherheit ist es daher notwendig, ein systematisches Vorgehen<br />

zur Sicherheitsanalyse der Infrastrukturen einzusetzen und davon ausgehend<br />

die Systeme gegen Angriffe zu härten. Diese Arbeit betrachtet Standards aus<br />

dem Bereich der Informationssicherheit, welche die Grundlage <strong>für</strong> die<br />

Durchführung von Sicherheitsanalysen liefern. Diese werden um die<br />

Eigenheiten der NFC-Technologie ergänzt. Daraus ergibt sich eine<br />

methodische Anleitung zur Erstellung eines Sicherheitskonzepts <strong>für</strong> NFCbasierte<br />

Infrastrukturen. Die Anwendbarkeit dieser Methodik wird anhand des<br />

Projekts Mobile Information Points (MIP) dokumentiert.<br />

89


Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong><br />

Arbeitsbereich Embedded Computing Systems<br />

Alexander Burker<br />

Implementation of the TTP/A Protocoland WCET Analysis on the SPEAR2<br />

Platform<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Steininger<br />

This master's thesis shows the results of implementing the TTP/A protocol on<br />

the SPEAR2 platform. The TTP/A protocol is a field bus protocol used in time<br />

triggered environments and the protocol meets real-time system<br />

requirements. The SPEAR2 platform comprises the processor and several<br />

extension modules. The processor can work in a 16 and 32 bit data mode. For<br />

the chosen implementation the 32 bit version is used. The processor provides<br />

real-time system capabilities on the hardware side. The main aim of this<br />

master's thesis is to implement the TTP/A protocol on the SPEAR2 platform<br />

and to provide a proof for the assumption that the processor in conjunction<br />

with the new eUART module and the TTP/A protocol is able to provide a<br />

system which complies to real-time requirements. A substantial part of this<br />

proof will be the development of WCET analyzable code using a coding style<br />

that is based on the Single-Path Programming Model. The Single-Path<br />

Programming Model was modified in some parts and this resulted in the<br />

Single or Shorten-Path Programming Model. Furthermore the realised<br />

implementation for static WCET analysis on the SPEAR2 platform will be<br />

introduced. An own section of the thesis provides the knowledge on how the<br />

resulting implementation can be used in own applications. The<br />

implementation created provides a comfortable development environment<br />

for the realisation of own TTP/A applications with multiple nodes.<br />

Robert Najvirt<br />

Description Methods for Asynchronous Circuits - A Comparison<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Andreas Steininger<br />

90<br />

The advances of silicon manufacturing technology make it possible to<br />

integrate billion-transistor systems on a single die but the price to pay is<br />

higher parameter variability, resulting in problems with reliability, difficult<br />

clock distribution, high power consumption and more. Proponents of asynchronous<br />

circuits claim them to be a possible solution to most of these<br />

problems and they are indeed becoming an increasingly interesting design<br />

choice. The aim of this work is to describe the most established description<br />

methods for asynchronous circuits, compare them in respect to a number of


parameters and list their advantages and disadvantages. To further illustrate<br />

the differences, a simple ring topology network interface controller is<br />

described with all the considered methods and the implications of their use<br />

for the description are indicated. Next, to demonstrate the use of each<br />

description method in its typical field of application, selected parts of the<br />

faculty developed SPEAR2 processor are implemented with the methods. As a<br />

result of this work a comparison of seven different description methods is<br />

now available that, unlike the existing literature so far, views these methods<br />

from the same angle, namely a carefully chosen set of criteria. This<br />

comparison, along with the selected demonstrative examples, could serve<br />

prospective designers of asynchronous circuits when choosing a description<br />

method for a project. At the same time, the extraction of the underlying<br />

concepts of the considered methods along with their comparison is also<br />

valuable for a didactic presentation of asynchronous design.<br />

Arbeitsbereich Real Time Systems<br />

Ulrich Buchgraber<br />

Visualisierung von Prozesssynchronisation mit Semaphoren<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Peter Puschner<br />

Das Ziel dieser Diplomarbeit ist es, ein Visualisierungstool <strong>für</strong> parallel<br />

ablaufende Programme (Tasks) zu entwerfen. Diese Tasks sollen wie Prozesse<br />

eines Betriebssystems voneinander unabhängig laufen und über einen<br />

gemeinsamen Speicher und Synchronisationskonstrukte (Semaphore) kommunizieren<br />

können. Der Ablauf der Programme soll vom Benutzer gesteuert<br />

werden können und der Zustand der einzelnen Tasks, der Semaphore und<br />

des gemeinsamen Speichers geeignet visualisiert werden. Als Hilfsmittel <strong>für</strong><br />

die Untersuchung eines Algorithmus, der Locks verwendet, soll das Tool um<br />

ein Analyseverfahren erweitert werden, das Deadlocksituationen erkennt und<br />

visualisiert. Das Tool soll <strong>für</strong> didaktische Zwecke, z.B. <strong>für</strong> Vorlesungen wie<br />

Betriebssysteme, geeignet sein. Das zentrale Ergebnis der Arbeit ist die Implementierung<br />

des Visualisierungstools, eine plattformübergreifende Desktopsoftware,<br />

die auf einer Open-Source-Hostingplattform veröffentlicht wurde.<br />

Taskprogramme werden darin mit der simpel aufgebauten Programmiersprache<br />

Lua beschrieben. Zugriffe auf den gemeinsamen Speicher und<br />

die Semaphore sind durch einfache Anweisungen im Programmcode möglich.<br />

Mit Debugging-Befehlen wie Run, Step und Stop bzw. mit Breakpoints im<br />

Codeeditor kann der Programmfluss, wie von Standard-IDEs bekannt,<br />

gesteuert werden. In der Benutzeroberfläche wird der gemeinsame Speicher<br />

mit den Semaphoren in einer Baumstruktur visualisiert und alle Taskprogramme<br />

nebeneinander dargestellt, um zu jedem Zeitpunkt den gesamten<br />

Zustand des untersuchten Algorithmus erfassen zu können. Für die Deadlockanalyse<br />

wurden zwei Laufzeitanalyseverfahren, die in dieser Arbeit aus-führ-<br />

91


lich beschrieben werden, ausgewählt und implementiert. Die Verfahren zeichnen<br />

während der Ausführungszeit Lockgraphen auf und suchen innerhalb<br />

dieser Graphen nach Zyklen, die potenzielle Deadlocksituationen darstellen.<br />

Christopher Helpa<br />

A Time-predictable Operating System - Towards a Constant Execution Time<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Peter Puschner<br />

Die Anwendung von Echtzeitsystemen reicht von der Steuerung von Ampeln<br />

bis zur selbstständigen Navigation von Raumschiffen. Bei Echtzeitsystemen<br />

hängt die Korrektheit des Systemverhaltens nicht nur von der logischen<br />

Korrektheit aller Berechnungen sondern auch von dem Zeitpunkt zu welcher<br />

die Resultate vorliegen ab. Resultate die nicht innerhalb einer gewissen<br />

Zeitspanne vorliegen können katastrophale Auswirkungen haben. Um dies zu<br />

verhindern ist die Bestimmung der maximalen Reaktionszeit eines Programms<br />

von entscheidener Bedeutung. Betriebssystemmechanismen, welche die<br />

zeitliche Isolation aller Anwendungen garantieren, vereinfachen die zeitliche<br />

Analyse von Anwendungen. Die Bestimmung der maximalen Ausführungszeit<br />

einer Anwendung ist ein wichtiger Schritt in der zeitlichen Analyse eines<br />

Systems. Aufgrund der Komplexität moderner Systeme stellt die Bestimmung<br />

der maximalen Ausführungszeit leider immer noch einen hohen Aufwand dar.<br />

Diese Diplomarbeit beschreibt die Entwicklung eines Betriebssystems das<br />

zeitliche Isolation aller Programme gewährleistet. Weiters weisen alle<br />

Betriebssystemfunktionen konstante Ausführungszeiten auf, welche durch<br />

eine geringe Anzahl an Messungen bestimmt werden können. Im weiteren<br />

Verlauf werden die verwendeten Programmieransätze und Betriebssystemkonzepte<br />

vorgestellt, sowie auf die Implementierung und die dabei<br />

gewonnen Erkenntnisse eingegangen. Die Evaluierung zeigt, dass eine<br />

geringe Anzahl an Messungen ausreicht um das zeitliche Verhalten aller<br />

Betriebssystemfunktionen zu bestimmen, sowie die Ausführungszeiten dieser<br />

konstant gehalten werden konnten.<br />

Haris Isakovic<br />

A secure global time base for time triggered systems<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Peter Puschner<br />

92<br />

Zeitgesteuerte Protokolle bieten hohe Zuverlässigkeit und garantiertes<br />

zeitliches Verhalten und werden heutzutage in vielen verteilten<br />

Echtzeitanwendungen eingesetzt. Sie bieten verschiedene Dienste wie z.B.<br />

Uhrensynchronisation, Membership, Redundanz-Management etc. Der<br />

ständig steigende Bedarf nach zuverlässigen Echtzeitsystemen stellt neue<br />

Anforderungen an die Kommunikationsprotokolle. Eine der noch offenen


Herausforderungen ist die Informationssicherheit (auf English<br />

\textit{Security}). Die aktuellen Implementierungen von zeitgesteuerten<br />

Kommunikationsprotokollen sind nicht auf Informationssicherheit ausgerichtet<br />

und ihr Schutz gegen bösartige Attacken ist nicht ausreichend. Zeitgesteuerte<br />

Systeme beruhen auf einer konsistenten Sicht der Zeit im gesamten System.<br />

Die Funktionalität aller essentiellen Dienste in diesen Systemen hängt von der<br />

Zeit ab. Deshalb ist es von entscheidender Bedeutung, dass die globale Zeit<br />

gegen bösartige Attacken gesichert ist. Die Hauptaufgabe dieser Diplomarbeit<br />

ist die Entwicklung einer Sicherheitsschicht <strong>für</strong> die Time-Triggered<br />

Architecture (TTA) mit dem Schwerpunkt auf einer sicheren und<br />

fehlertoleranten Uhrensynchronisation. Der Ansatz besteht aus einer plattformunabhängigen<br />

Sicherheitsschicht oberhalb des bestehenden Uhrensynchronisationsalgorithmus.<br />

In dieser Arbeit verwenden wir Time-Triggered<br />

Ethernet (TTE) als eine Implementierungsplattform. Unsere Sicherheitsschicht<br />

schützt die globale Zeitbasis vor verschiedenen bösartigen Angriffsarten, z.B.<br />

der Fälschung, der Modifikation, der Wiederholung, oder der Verzögerung<br />

oder der Beschleunigung der Uhrensynchronisationsnachrichten.<br />

93


Institut <strong>für</strong> Computertechnik<br />

Michael Pickelbauer<br />

Voice over IP Integration in Service Component Architecture<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: O.Univ.Prof. Dr. Dietmar Dietrich<br />

The paradigm of Service-oriented Architecture (SOA) has gained ever<br />

increasing popularity due to its interoperability and extensibility. Similarly,<br />

Voice over IP (VoIP) has established for the transfer of media over computer<br />

networks, like the Internet. The present thesis examines the integration of<br />

information from Voice over IP calls into a system based on SOA as well as<br />

the manipulation of these call information. The aim is to unveil whether<br />

services can access the call information in the same way as they would access<br />

information from commonplace services. The focus of this work is to create a<br />

lightweight system. Therefore, Service Component Architecture (SCA) is<br />

chosen as an implementation of SOA. On the Voice over IP side the widely<br />

used Session Initiation Protocol (SIP) is chosen as the signaling protocol to<br />

interact with SCA. The interaction is based on a Back-To-Back User Agent as<br />

this type of SIP server is most flexible and offers numerous interaction<br />

opportunities. Various approaches regarding how the information of a call<br />

can be inserted into SCA are developed and the most promising option is<br />

implemented as a prototype. The prototype follows the SIP standard and is<br />

implemented as a service in SCA. With the prototype, sample applications are<br />

built which show the expected improvement in development speed and reusability<br />

of the created services. Compared to implementations not using<br />

SCA, the prototype reveals drawbacks in performance. The achieved<br />

performance, however, is already sufficient to fulfill the requirements.<br />

94


Institut <strong>für</strong> Managementwissenschaften<br />

Andreas Fantoni<br />

Der Einfluss der IT in der reflexiven Finanzwirtschaft<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Univ.Prof. Dr. Walter Schwaiger<br />

Das Paradigma der klassischen Finanztheorie ist die Annahme eines sich<br />

rational verhaltenden und im Hinblick auf die Informationsverarbeitung<br />

effizient und allumfassend handelnden homo oeconomicus. Die Aktienkurse<br />

sollen die zugrunde liegenden Fundamentaldaten korrekt widergeben, denn<br />

auftretende Fehlbewertungen werden in kürzester Zeit von rational<br />

agierenden Investoren ausgenutzt und daher auf das fundamental gerechtfertigte<br />

Niveau korrigiert. An den Kapitalmärkten genauso wie im individuellen<br />

Verhalten von Anlegern und Investoren sind jedoch immer wieder<br />

Phänomene zu beobachten die durch diese traditionell geprägte, neoklassische<br />

Finanztheorie nicht erklärt werden können und teilweise sogar im krassen<br />

Widerspruch zu ihr stehen. Aufbauend darauf widmet sich der zweite<br />

Hauptteil der Arbeit der Fragestellung wie die Informations- und Kommunikationstechnologie<br />

diesen modernen, reflexiven Finanzmarkt in den vergangenen<br />

Jahren mitgestaltet hat. Die prägende Rolle von Computer- und<br />

Informationssystemen steht dabei außer Frage, denn keine Technologie hat<br />

sich in dem vergangenen Jahrhundert so schnell entwickelt wie die Informations-<br />

und Kommunikationstechnologie und dabei die gesamte Wirtschaft<br />

so nachhaltig beeinflusst.<br />

Karina Fedorovskaia<br />

Leonid Narinsky<br />

Potentialanalyse <strong>für</strong> produktbegleitende Dienstleistungen der<br />

Autmobilindustrie<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

Betreuer: Univ.Prof. Dr. Wilfried Sihn<br />

Aufgrund des gesättigten Marktes und der geringen Gewinnspanne beim<br />

Absatz von Fahrzeugen setzen immer mehr Automobilhersteller ihren<br />

Profitabilitätsfokus verstärkt auf produktbegleitende Dienstleistungen. Aus<br />

dieser Thematik heraus wurde die forschungsleitende Frage aufgestellt:<br />

Nutzen Automobilhersteller das Potential entgeltlicher produktbegleitender<br />

Dienstleistungen <strong>für</strong> private Endkunden vollständig aus?. Zur Beantwortung<br />

dieser Frage wurden anhand einer Analyse der drei Bereiche<br />

Dienstleistungen, Produktbegleitende Dienstleistungen und Automobilindustrie<br />

Merkmale ermittelt, welche gemeinsam, innerhalb eines morphologischen<br />

Kastens, ein Merkmalsschema bilden. Dieses beschreibt den derzeitigen<br />

Raum der produktbegleitenden Dienstleistungen in der Automobil-<br />

95


industrie. Im Rahmen einer empirischen Untersuchung wurde eine Datenerhebung<br />

von produktbegleitenden Dienstleistungen der Automobilindustrie<br />

durchgeführt. Diese Daten wurden mittels des Merkmalsschemas bewertet und<br />

anhand eines Typologisierungsverfahrens segmentiert. Für das Verfahren<br />

wurden die Analysemethoden Clusteranalyse und Clusterzentrenanalyse<br />

verwendet. Das Ergebnis dieses Verfahrens ist eine, aus neun Typen<br />

bestehende Typologie, welche den produktbegleitenden Dienstleistungsraum<br />

der Automobilindustrie segmentiert. Das zentrale Ergebnis dieser Arbeit, ist das<br />

Aufzeigen von Handlungsfeldern, in denen Potential <strong>für</strong> das Angebot neuer<br />

produktbegleitender Dienstleistungen vorhanden ist. Diese werden anhand<br />

einer Analyse der ermittelten Typologie, sowie des dazugehörigen<br />

Merkmalsschemas aufgezeigt. Im Rahmen dieser Arbeit werden die<br />

Handlungsfelder <strong>für</strong> ausgewählte Automobilmarken im Vergleich zum<br />

Gesamtangebot, sowie <strong>für</strong> die gesamte Automobilindustrie angegeben.<br />

Monika Goralczyk<br />

Unternehmensabbildung nach IFRS -- Fair Value Problematik bei Immobilien<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Univ.Prof. Dr. Walter Schwaiger<br />

96<br />

Seit 2005 müssen börsennotierte Unternehmen ihren Konzernabschluss nach<br />

IFRS erstellen. Dieser sieht vor, dass Immobilien mit der Fair-Value-Methode<br />

bewertet werden. Die Grundidee der Fair-Value-Bewertung ist, den Investoren<br />

ein möglichst getreues und realistisches Abbild der Vermögenswerte zu geben<br />

und ihnen entscheidungsnützliche Informationen zu liefern. Die vorliegende<br />

Arbeit befasst sich mit der Analyse der Auswirkungen von Fehlbewertungen im<br />

Immobilienbereich und der Auswirkung der Blasenbildungen auf den Erfolg und<br />

das Eigenkapital bei Immobilienunternehmen bei Verwendung der Fair-Value-<br />

Methode. Fair Value ist ein wichtiger Maßstab <strong>für</strong> die Bewertung von<br />

Immobilien. Durch die Fair-Value-Bewertung soll die Unternehmensabbildung<br />

verbessert werden. Der Informationsgehalt der Bilanz sollte zudem <strong>für</strong> mehr<br />

Transparenz sorgen. Der Fair Value spiegelt die aktuelle Marktsituation wider.<br />

Für den Fair Value kann ein Aktienkurs herangezogen werden. Wenn man<br />

einen steigenden Aktienkurs als Fair Value verwendet, muss diese Steigerung in<br />

der Bilanz anhand einer Aufwertung abgebildet und erfolgswirksam gebucht<br />

werden. Somit fließt die Marktdynamik in die Bilanz ein und die Bilanz wird<br />

künstlich aufgeblasen. Der Fair-Value-Bewertungsansatz ist im Grunde nach<br />

oben nicht gedeckelt und kann beliebige Werte annehmen. Wenn andererseits<br />

der Aktienkurs sinkt, werden die Immobilien in der Bilanz abgewertet. Diese<br />

Abwertungen müssen in der Bilanz abgebildet und erfolgswirksam gebucht<br />

werden. Mit einer derartigen Abwertung wird die Substanz eines Unternehmens<br />

gefährdet. Hier kann das Eigenkapital ausgeschöpft und eine Verschuldung<br />

verursacht werden. Zusammenfassend lässt sich sagen, dass es an einem<br />

konsistenten Gesamtkonzept der Fair-Value-Bewertung mangelt, welches die<br />

Schwankungen des Fair Value abfedert, um die Unternehmensabbildung nicht<br />

zu verzerren.


Roland Hinn<br />

Qualitätsmanagement und Mitarbeiterschulungen im Infrastrukturbereich<br />

eines Netzbetreibers <strong>für</strong> Telekommunikation<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Ass.Prof. Dr. Peter Kuhlang<br />

Qualitätsmanagement (QM) ist in Produktionsbetrieben im Gegensatz zu<br />

Informationstechnologie- und Telekommunikationsunternehmen (ITK) weit<br />

verbreitet und stellt vielfach einen Wettbewerbsvorteil, in einigen Fällen<br />

sogar eine wirtschaftliche Überlebensfrage dar. Steigender Wettbewerbsdruck<br />

hat im ITK-Bereich eine Abwärtsspirale bei der Qualität der Dienstleistungen<br />

ausgelöst. Um diesem Trend entgegenzuwirken, könnten QM-Systeme in ITK-<br />

Unternehmen eingeführt werden. Parallel dazu würde es sich anbieten, den<br />

Umgang mit Umwelt- sowie Arbeits- und Gesundheitsschutz (A&G) auf ein<br />

entsprechendes Niveau zu heben. Im Rahmen dieser Arbeit wurden folgende<br />

Fragen anhand eines Referenzmodells erörtert: Wie können die Normen <strong>für</strong><br />

Qualitäts-, Umwelt- sowie A&G-Management auf ein ITK-Unternehmen<br />

umgelegt werden? Wie kann man diese 3 Normen in Einklang bringen?<br />

Welche Maßnahmen sind erforderlich, um ein kombiniertes<br />

Managementsystem <strong>für</strong> Qualität, Umwelt sowie A&G in einem ITK-<br />

Unternehmen einzuführen? In welcher Form sollen Schulungen <strong>für</strong><br />

Mitarbeiter/-innen eines ITK-Unternehmens gesetzt werden? Zentrale<br />

Ergebnisse: Die betrachteten Normen (ISO 9001, ISO 14001 und OHSAS<br />

18001) sind auch <strong>für</strong> ein ITK-Unternehmen geeignet, da sie in ihren aktuellen<br />

Fassungen Dienstleistungsunternehmen inkludieren. Um diese 3 Normen in<br />

Einklang zu bringen, ist eine sorgfältige Planung erforderlich, da sie strukturell<br />

unterschiedlich aufgebaut sind. Im laufenden Betrieb ist der Mehraufwand <strong>für</strong><br />

die Administration aller 3 Normen gering, da viele Forderungen grundlegend<br />

übereinstimmen (z.B. geordnete Prozesse, Dokumentation, Weiterbildung,).<br />

Für die Einführung und den Betrieb eines kombinierten Managementsystems<br />

sind entsprechende Ressourcen, die Motivation der Mitarbeiter/-innen sowie<br />

der Rückhalt der Unternehmensleitung erforderlich. Schulungen und<br />

Weiterbildung sind ein wesentlicher Bestandteil, um die entsprechende<br />

Qualität und eine kontinuierliche Verbesserung zu erreichen.<br />

Michael Königsmayr<br />

Wartung und Instandhaltung von infrastrukturseitigen Sensornetzwerken<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Verkehrssysteme werden in Zukunft durch das tendenziell steigende<br />

Verkehrsaufkommen immer stärkeren Belastungen ausgesetzt sein, was,<br />

ebenso wie die zunehmende Bedeutung von Umweltzielen, umfangreichere<br />

Maßnahmen zur Verkehrsoptimierung notwendig macht. Da<strong>für</strong> werden<br />

aktuelle und historische Daten zur Verkehrssituation benötigt, welche durch<br />

97


Verkehrssensoren, am häufigsten durch Induktionsschleifendetektoren,<br />

erhoben werden. Um die Verfügbarkeit und den erforderlichen Qualitätsgrad<br />

der Verkehrsdaten gewährleisten zu können, sind adäquate<br />

Instandhaltungsstrategien erforderlich, die zum heutigen Zeitpunkt in dieser<br />

Ausprägung noch nicht existieren. Um herauszufinden wie die aktuelle<br />

Situation in der Instandhaltungspraxis von Verkehrssensornetzwerken<br />

aussieht, wurde im Rahmen dieser Diplomarbeit eine Expertenbefragung<br />

durchgeführt, deren Ergebnisse unter anderem <strong>für</strong> eine Fehlermöglichkeitsund<br />

Einflussanalyse (FMEA) zum Prozess der Verkehrsdatenerhebung mittels<br />

Schleifendetektoren verwendet wurden. Durch die Analyse konnten die<br />

wichtigsten Aspekte <strong>für</strong> die Instandhaltung von Schleifendetektornetzwerken<br />

identifiziert und Verbesserungsmöglichkeiten zur heutigen Situation<br />

abgeleitet werden. Dies bildet die Grundlage <strong>für</strong> ein Instandhaltungskonzept,<br />

welches die heute verfolgte Ausfallbehebung um zusätzliche Maßnahmen<br />

erweitert und auf die Minimierung der Ausfallzeiten der Verkehrsdetektoren<br />

abzielt. Erreicht werden soll dies durch periodische Maßnahmen zur Reduktion<br />

von Schleifendefekten und ein Monitoring System, welches Methoden zur<br />

automatisierten Erkennung fehlerhafter Datensätze integriert. Voraussetzung<br />

<strong>für</strong> die Umsetzung dieser Strategie ist der Aufbau einer Wissensbasis mit<br />

gesammelten Informationen zu den Störungen und Fehlern von<br />

Verkehrsdetektoren.<br />

Andreas Kopper<br />

Markus Steiner<br />

Kernkompetenzanalyse in der Praxis am Beispiel der LMF<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuerin: Univ.Prof. Dr. Sabine Theresia Köszegi<br />

98<br />

Kernkompetenzen sind laut C.K. Prahalad und G. Hamel die Eigenschaften<br />

eines Unternehmens, die über alle strategischen Geschäftseinheiten hinweg<br />

<strong>für</strong> dessen Erfolg verantwortlich sind. Im Jahr 1990 veröffentlicht, strebte das<br />

Konzept der Kernkompetenzen ein Umdenken in der Unternehmenswelt an.<br />

Unternehmungen sollten nicht mehr bloß als eine Menge von<br />

Geschäftseinheiten betrachtet werden, sondern vielmehr als ein Portfolio von<br />

Kernkompetenzen. Solche Kernkompetenzen werden in der Fachliteratur als<br />

Fähigkeiten beschrieben, die unter anderem besser beherrscht werden als die<br />

der Mitbewerber, die <strong>für</strong> den Kunden einen erkennbaren Nutzen darstellen<br />

und die in mehr als einer strategischen Geschäftseinheit vorhanden sind. Ziel<br />

ist, aufbauend auf eine Projektarbeit zur Ermittlung der Kompetenzen der<br />

einzelnen Geschäftseinheiten, die Identikation der Kernkompetenzen der<br />

Leobersdorfer Maschinenfabrik, kurz LMF. Diese Kernkompetenzen sollen in<br />

Folge unterstützend <strong>für</strong> die weitere strategische Entscheidungsndung und<br />

Positionierung des Unternehmens dienen. Die LMF ist ein Maschinenbauunternehmen<br />

mit Hauptsitz in Österreich, das Hochdruck-<br />

Kolbenkompressoren herstellt und weltweit vertreibt. Es beschäftigt etwa 350<br />

Mitarbeiter. Zunächst werden dem Leser theoretische Grundlagen über


Kernkompetenzen und deren Eigenschaften vorgestellt. In den<br />

darauffolgenden Kapiteln beschreibt diese Arbeit ein eigens entwickeltes<br />

Analyseinstrument zur Identikation von Kernkompetenzen bei der LMF.<br />

Abschließend werden die Ergebnisse und mögliche strategische Implikationen<br />

<strong>für</strong> das Unternehmen diskutiert.<br />

Florian Mladek<br />

Eine Erklärung der aktuellen Finanzkrise anhand des asymmetrischen<br />

Informationsmodells von Frederic S. Mishkin<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Univ.Prof. Dr. Walter Schwaiger<br />

Am Anfang dieser Arbeit stand die Frage nach dem Wie und Warum der<br />

jetzigen Finanzkrise. Die ganzheitlichste Betrachtungsweise scheint mir das<br />

asymmetrische Informationsmodell von Frederic S. Mishkin zu liefern. Im<br />

ersten Teil wird die grundsätzliche Theorie rund um asymmetrische Information,<br />

die <strong>für</strong> das Verständnis des Modells nötig ist, erklärt. Danach folgt die<br />

Vorstellung des Modells selbst. Aufbauend darauf wurde eine Analysemethodik<br />

entwickelt, um Krisen der Vergangenheit, aber auch die jetzige<br />

Krise, schnell und übersichtlich auf Anwendbarkeit des Modells überprüfen zu<br />

können. In der Folge werden die Krisen der Vergangenheit von 1857 bis 1987<br />

analysiert. Die Untersuchung der historischen Krisen wird beendet durch eine<br />

Conclusio und den sich daraus ergebenden Implikationen <strong>für</strong> die Politik.<br />

Bevor die jetzige Krise analysiert wird, wird auf die enormen strukturellen<br />

Änderungen der letzten zwanzig Jahre eingegangen. Der Verlauf der Krise ab<br />

2007 wird unter spezieller Berücksichtigung auf asymmetrische<br />

Informationsproblematiken erklärt. Im Anschluss folgt die Analyse der jetzigen<br />

Finanzkrise mit Hilfe der vorgestellten Analysemethodik. Es folgt wiederum<br />

eine Conclusio der Krise und Implikationen <strong>für</strong> die Politik. Den Schluss der<br />

Arbeit bildet eine kritische Zusammenfassung.<br />

Ernst Siller<br />

Analyse des Telefonservices in den österreichischen Finanzämtern<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuerin: Univ.Prof. Dr. Sabine Theresia Köszegi<br />

In dieser Diplomarbeit wird die telefonische Erreichbarkeit in den<br />

österreichischen Finanzämtern untersucht. Der Kundenverkehr der<br />

österreichischen Finanzverwaltung wird hauptsächlich in den Finanz- und Zollämtern<br />

abgewickelt. Der Kundenverkehr wird sowohl persönlich als auch<br />

telefonisch von den so genannten Infocentern durchgeführt. Zusätzlich steht<br />

<strong>für</strong> technische Anfragen zum Onlinedienst FinanzOnline eine eigene Hotline<br />

zur Verfügung, die ebenfalls durch Personal der Infocenter bundesweit<br />

besetzt wird (organisiert ähnlich einem Call Center). In den Jahren 2007 bis<br />

99


100<br />

2010 wurden außerdem die bis dahin genutzten Telefonanlagen der 150<br />

Standorte durch eine bundesweite Telefonanlage ersetzt, mit der eine echte<br />

Vernetzung der verschiedenen Standorte technisch einfach möglich ist. Der<br />

erste Teil der Arbeit beschäftigt sich mit Grundlagen zur Call Center-Thematik<br />

sowie mit den organisatorischen, personellen und technischen Rahmenbedingungen,<br />

die in der Finanzverwaltung gegeben sind. Im Zuge dieser<br />

Arbeit wurde außerdem eine Online-Umfrage zur telefonischen Erreichbarkeit<br />

bei nahezu 2500 Mitarbeiterinnen und Mitarbeitern in den Finanzämtern<br />

durchgeführt. Zusätzlich stehen automatisch aufgezeichnete Daten aus der<br />

Telefonanlage zur Verfügung, aus denen die IST-Situation in den<br />

Finanzämtern aufbereitet wird. Erkannte Schwachstellen werden dementsprechend<br />

genauer analysiert. Zusätzlich werden die Daten anhand eines<br />

anerkannten Call Center-Modells analysiert und mögliche Auswirkungen<br />

durch geänderte Verteilmechanismen berechnet. Die Analysen zeigen, dass<br />

die Finanzämter bei der allgemeinen Erreichbarkeit nicht schlecht aufgestellt<br />

sind. Die Personaleinsatzplanung erfolgt derzeit nicht nach dem jeweiligen<br />

Bedarf. Die bereits erwähnten geänderten Verteilmechanismen würden eine<br />

gleichmäßigere Verteilung bei weniger Belastung <strong>für</strong> das Personal bringen.<br />

Ein großes Performancedefizit kann bei den Produktionsteams erkannt<br />

werden. Die Abbruchquoten sind überdurchschnittlich hoch.


Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />

Umweltplanung<br />

Patrick Gröss<br />

Software-Produktlinien mit Mixins am Beispiel des elektronischen Akts<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ass.Prof. Dr. Johann Bröthaler<br />

Diese Arbeit behandelt Software-Produktlinien mit Mixins am Beispiel des<br />

elektronischen Akts. Die Verwendung von Mixins eröffnet nicht nur neue<br />

Möglichkeiten, sondern bringt auch zusätzliche Komplexität mit sich. Das Ziel<br />

ist daher, eine Anwendung zu entwickeln, die den Umgang mit Mixins<br />

erleichtert. Ausgehend von der historische Entwicklung, über die<br />

angebotenen Dienstleistungen und den da<strong>für</strong> notwendigen, behördeninternen<br />

Anwendungen, werden die Grundlagen von E-Government betrachtet.<br />

Danach wird am Beispiel von Acta Nova, einem Open-Source-Produkt zur<br />

elektronischen Aktenverwaltung im Bereich der öffentlichen Verwaltung,<br />

darauf eingegangen, wie die Anforderungen an den elektronischen Akts<br />

durch die Entwicklung von Software-Produktlinien mit Mixins adressiert<br />

werden können. Auch die Evaluierung des Prototyps, des Mixin-Cross-<br />

Referencer, dessen Implementierung im Zentrum dieser Arbeit steht, erfolgt<br />

am Beispiel von Acta Nova. Der Mixin-Cross-Referencer analysiert Softwareprojekte,<br />

die auf Mixins basieren und generiert daraus eine Mixin-Dokumentation,<br />

die alle Mixin-relevanten Informationen in einer einfach nutzbaren und<br />

übersichtlichen Form zur Verfügung stellt. Damit kann man die Zusammenhänge<br />

zwischen Zielklassen und Mixins auf einen Blick erkennen. Diese<br />

Informationen könnte sonst nur mühevoll durch Lesen des Quelltextes<br />

nachvollzogen werden. Die Anwendung des Mixin-Cross-Referencers am<br />

Beispiel von Acta Nova liefert folgende Ergebnisse: In Acta Nova werden 229<br />

Mixins auf 720 Zielklassen angewendet. Der Spitzenwert bei Mixins liegt bei<br />

der Anwendung eines einzelnen Mixins auf 250 Zielklassen, währenddessen<br />

bei den Zielklassen der Spitzenwert 13 Mixins pro Zielklasse beträgt. Man<br />

sieht also, welch komplexe Strukturen mit Mixins entstehen können. Der<br />

Einsatz des Mixin-Cross-Referencers kann diese Strukturen zwar nicht<br />

vereinfachen, er kann jedoch die Zusammenhänge so aufbereiten, dass diese<br />

leichter verständlich und besser überschaubar sind.<br />

101


Ingomar Spolwind<br />

Beitrag von Umweltzonen bei der Reduzierung der verkehrsinduzierten<br />

Feinstaubbelastung am Beispiel <strong>Wien</strong><br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Dr. Georg Hauger<br />

Mit 1.1.2005 hat die EU eine Richtlinie erlassen, welche Grenzwerte <strong>für</strong><br />

Feinstaub definiert. Seitdem sind in vielen europäischen Großstädten<br />

Übertretungen der Grenzwerte aufgetreten. Daher sind z. B. in einigen<br />

deutschen Städten (Berlin bzw. Hannover) per 1.1.2008 Umweltzonen<br />

eingerichtet worden. Auch in Österreich ist eine Einführung nach deutschem<br />

Vorbild diskutiert worden. Allerdings ist der Beitrag von Umweltzonen bei der<br />

Reduzierung von Feinstaub von Anfang an umstritten gewesen. Daraus hat<br />

sich die folgende Forschungsfrage entwickelt: Welchen Beitrag kann die<br />

Ausweisung von Umweltzonen bei der Reduzierung der verkehrsinduzierten<br />

Feinstaubbelastung leisten - am Beispiel <strong>Wien</strong>?. Zur ihrer Beantwortung ist<br />

folgende sechsstufige Vorgehensweise gewählt worden: Erstens, Aufzeigen<br />

der Relevanz des Themas, dh. der möglichen Konsequenzen <strong>für</strong> die Gesundheit<br />

und Umwelt infolge erhöhter Feinstaubwerte. Zweitens, Behandlung von<br />

quantitativen Aspekten von Einflussfaktoren (natürliche und anthropogene)<br />

auf die Höhe der Feinstaubbelastung. Drittens, Vergleich (Stärken-<br />

Schwächen-Analyse) des Instruments Umweltzone mit anderen (City-Maut,<br />

Parkraummanagement, Tempolimit, LKW-Durchfahrtsverbot und Straßenreinigung).<br />

Viertens, qualitative Analyse der Gestaltung europäischer Umweltzonen<br />

und Darstellung ihres Beitrags bei der Feinstaubreduzierung in abgestufter<br />

Form. Fünftens, Diskussion der Einschätzung des Feinstaub-Beitrags<br />

von deutschen Umweltzonen aus dem Blickwinkel verschiedener Akteure (Bereiche:<br />

Kommunalpolitik, Wirtschaft, Umwelt, Zeitungen, Automobilindustrie<br />

und Autoclubs). Sechstens, Vorschlag <strong>für</strong> die Ausweisung einer Umweltzone<br />

an der <strong>Wien</strong>er Taborstraße. Dabei wird zuerst die Feinstaubsituation in <strong>Wien</strong><br />

beleuchtet und im Anschluss ein Vorgehen mittels des Handbuch <strong>für</strong><br />

Emissionsfaktoren 3.1 und des Emissionsfaktorenansatzes nach Gehrig bei der<br />

Abschätzung der Feinstaubemissionen vor/nach Umweltzonen-Einführung<br />

skizziert.<br />

102<br />

Christian Johannes Steger<br />

Google Services in datenschutzrechtlicher Perspektive<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ass.Prof. Dr. Markus Haslinger<br />

Google stellt seinen Nutzer/inne/n verschiedene Dienste wie Google Street<br />

View, Google Analytics und Google Docs unentgeltlich ("gratis") zur<br />

Verfügung. Im Rahmen der zugrundeliegenden Businessmodelle werden<br />

jedoch zahlreiche Daten über die Nutzer/innen gesammelt und unter<br />

anderem <strong>für</strong> zielgerichtete Werbung oder Business Intelligence-


Auswertungen genutzt. Die Diplomarbeit wendet sich der daraus<br />

entstehenden Datenschutzproblematik zu, welche gerade in jüngerer Zeit in<br />

Deutschland und Österreich, aber auch darüber hinaus mediale<br />

Aufmerksamkeit erfahren hat. Es zeigt sich, dass Googles Services in einem<br />

Spannungsverhältnis zu jenen Gewährleistungen stehen, die das EU-<br />

Datenschutzrecht und in Umsetzung dessen das österreichischen Datenschutzgesetz<br />

2000 vorsehen. Ferner wird dargelegt, wie das US-Datenschutzrecht<br />

strukturiert ist und warum derart große Unterschiede im<br />

Datenschutzniveau zwischen der EU und den USA bestehen.<br />

Markus Wagner<br />

Das Safe-Harbor Modell - Datenschutzbestimmungen in der Relation EU-USA<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ass.Prof. Dr. Markus Haslinger<br />

Im Zeitalter des Internet, vor allem seit dem Aufkommen der Web 2.0<br />

Technologien, werden personenbezogene Daten sehr leichtfertig<br />

preisgegeben und rasant an Dritte übertragen. Dadurch können<br />

Dienstbetreiber relativ einfach Personendaten sammeln und austauschen,<br />

wodurch über Personen mehr Informationen akquiriert werden können, als<br />

von diesen eigentlich gewollt. Um Konsumenten zu schützen, wurde bereits<br />

1995 die Richtlinie 95/46/EG erlassen, welche unter anderem den Transfer<br />

personenbezogener Daten in Drittstaaten verbietet, wenn diese kein angemessenes<br />

Schutzniveau bieten. Die Datenschutzbestimmungen der USA<br />

werden von der Europäischen Kommission als unsicher eingestuft, daher<br />

dürften grundsätzlich keine personenbezogenen Daten aus der EU in die USA<br />

übermittelt werden. Um eine folgenschwere Datenblockade zu verhindern,<br />

wurde im Jahr 2000 mit der Kommissionsentscheidung 2000/520/EG das<br />

Safe-Harbor Modell kreiert. Safe-Harbor gestattet den Transfer<br />

personenbezogener Daten an Unternehmen in den USA, die sich den Safe-<br />

Harbor Grundsätzen unterworfen und sich selbst zertifiziert haben. Das Modell<br />

ist nun mehr als 10 Jahre in Kraft und es muss eine erschütternde Bilanz<br />

gezogen werden: Der Großteil der Unternehmen hat sich selbst als Safe-<br />

Harbor-Teilnehmer zertifiziert, ohne jedoch die vorgeschriebenen Richtlinien<br />

einzuhalten. Da Datenschutzsünder de facto nicht mit Konsequenzen zu<br />

rechnen haben, stellt das Safe-Harbor Modell einen Freibrief <strong>für</strong> willkürlichen<br />

Umgang mit importierten personenbezogenen Daten dar. Diese Arbeit<br />

befasst sich mit der Analyse der Safe-Harbor-Problematik und der Suche nach<br />

Verbesserungsansätzen. Es werden die Anforderungen an eine funktionierende<br />

Selbstregulierung erörtert, sowie bestehende Lösungsansätze und<br />

deren Schwächen begutachtet und daraus Verbes-serungsmöglichkeiten<br />

erarbeitet. Dabei wird vor allem aufgezeigt, dass andere Prüfmechanismen als<br />

die bloße Selbstkontrolle notwendig sind, um eine nachhaltige Änderung<br />

erwirken zu können.<br />

103


Institut <strong>für</strong> Geoinformation und Kartographie<br />

Michael Lessiak<br />

Vergleich der Marktstrategien von Open- und Closed-Source Software und<br />

Darstellung in einer agentenbasierten Simulation<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: O.Univ.Prof. Dr. Andreas Frank<br />

Der Softwaremarkt wurde signifikant durch das Aufkommen von freier<br />

Software, beziehungsweise Software die unter der GNU-GPL oder<br />

vergleichbaren Lizenzen veröffentlicht wird, und einen ähnlichen<br />

Funktionsumfang wie proprietäre Software preiswerter oder gratis zur<br />

Verfügung stellt, beeinflusst. Etablierte Marktgrößen und teilweise<br />

Monopolisten wie Microsoft, IBM oder Sun mussten ihre Marktstrategien<br />

überdenken und den neuen Herausforderern anpassen, die ähnliche Produkte<br />

wesentlich kostengünstiger anbieten. Im Verlauf dieser Arbeit soll untersucht<br />

werden ob im Rahmen eines Agenten basierten Haskell-Modells folgende<br />

Fragen beantwortet werden können: wie die Anbieter eines gleichwertigen<br />

Produktes auf einem Markt interagieren und von diesem beeinflusst werden,<br />

beziehungsweise welche Strategie sie wählen um ihren eigenen Nutzen zu<br />

maximieren, wenn beide ein ähnliches Produkt anbieten, einer von beiden<br />

sein Produkt aber gratis abgibt. Es soll untersucht werden warum viele Nutzer<br />

bereit sind <strong>für</strong> ein Produkt zu zahlen, wenn sie ein ähnliches oder<br />

gleichwertiges Produkt auch gratis erhalten können und welche<br />

Auswirkungen Schwarzkopien auf den Markt und die Anbieter haben. Ebenso<br />

soll evaluiert werden ob und wie es möglich ist, jenes Modell in der<br />

Programmiersprache Haskell umzusetzen. Um diese Fragestellung zu<br />

betrachten wird zuerst eine Modell entwickelt, dass es ermöglicht die realenn<br />

Gegebenheiten vereinfacht abzubilden. Dieses Modell wird in Haskell<br />

implementiert um anhand der in einer Simulation mit diesem Modell<br />

gewonnenen Daten Rückschlüsse auf die Fragestellungen zu ziehen. Im<br />

Rahmen in der Arbeit ist zu sehen, das die Implementierung eines<br />

ökonomischen Modells in Haskell möglich ist und mit diesem auch<br />

realitätsnahe Daten in einer Simulation gewonnen werden können.<br />

104


Institut <strong>für</strong> Wirtschaftsmathematik<br />

Michael Kratochvila<br />

Endogenous Social Networks: An agent-based model of the formation of the<br />

loyalty in markets.<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuerin: Univ.Prof. Dr. Alexia Fürnkranz-Prskawetz<br />

In various markets customers behave loyal to specific sellers. The purpose of<br />

this thesis is to replicate an agent-based model that explains the emergence<br />

of loyalty between buyers and sellers, where buyers learn to become loyal<br />

and sellers learn to offer advantages to loyal buyers. Both, sellers and buyers,<br />

use reinforcement learning to adapt their behaviour towards an optimal one<br />

for them. Furthermore, different network structures as well as mechanisms for<br />

modelling endogenous interactions are described and an overview of agentbased<br />

modelling is provided. Finally, this thesis examines how information<br />

spread between buyers affects the formation of loyalty. First, the agent-based<br />

model about loyalty was implemented in NetLogo to verify its results with the<br />

findings of the original model. Afterwards, the model was extended by<br />

allowing the buyers to spread and receive information about sellers, which<br />

influenced the seller-choosing process of the buyers. Therefore buyers were<br />

endowed with temporal spatial social networks, which were formed by their<br />

actual neighbours of the sellers queue. Furthermore, buyers had the<br />

possibility to learn the importance of received information to incorporate<br />

them accordingly into their sellers-choosing process. The replicated model<br />

successfully reproduced the outcomes about loyalty. The results of the<br />

extended model showed that positive information about other sellers<br />

reduced the loyalty, whereas negative information about other sellers had no<br />

effects on the emerged level of loyalty. Moreover, buyers learned to put high<br />

attention to received positive information.<br />

Carl Sawerthal<br />

Österreichs Bankensektor im Vergleich zu ausgewählten Instituten Osteuropas<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Ao.Univ.Prof. Gerhard Hanappi<br />

Die Beurteilung bzw. Analyse der Geschäftstätigkeit von Banken stellt ein<br />

relativ junges Fach- bzw. Forschungsgebiet dar. Trotzdem stellen diese<br />

Institute die Finanzdrehscheibe vieler Länder bzw. der ganzen Welt dar. In<br />

den Jahren 2007 bis 2009 konnte man sehen, in welchem Ausmaß Probleme<br />

im Bereich dieser Institute Einfluss auf die Weltwirtschaft haben können. Aus<br />

diesen Überlegungen resultiert die Frage, wie sich der österreichische<br />

Bankensektor über die Jahre vor der Krise, in der Krise und über die Zeit<br />

danach entwickelt hat. Daraus resultierten die Jahre 2005 bis 2010. Eine<br />

105


106<br />

Betrachtung der Banken macht jedoch nur durch einen Vergleich mit anderen<br />

Instituten Sinn. Auf Grund des großen Osteuropa-Exposures der<br />

österreichischen Institute werden in der Arbeit eine Bank aus Polen und eine<br />

Bank aus Ungarn als Vergleich herangezogen. Die Arbeit befasst sich<br />

theoretisch mit dem Finanzmarkt bzw. dem Finanzsektor und anschließend<br />

mit dem Finanzinstitut Bank. Danach werden ein Kennzahlensystem, sowie<br />

Markt- und Ratingdaten definiert und erarbeitet, durch die in weiterer Folge<br />

die fraglichen Institute beurteilt bzw. eine Aussage über diese getroffen wird.<br />

Auf Basis dieses Vergleichs wird deutlich, dass der österreichische<br />

Bankensektor vergleichsweise gut etabliert ist. Die polnische Bank kann unter<br />

ihren Bedingungen in vielen Bewertungskriterien sogar Schritt halten. Das<br />

ungarische Institut muss sich entsprechend der Wirtschaftslage geschlagen<br />

geben. Im Rahmen der Ausarbeitung, stößt die Arbeit auf viele regulatorische<br />

Schwächen bzw. auf, durch das System nicht vorteilhaft etablierte<br />

Bedingungen. Hierzu zählen die Aussagen von Markt- und<br />

Ratinginformationen.


Institut <strong>für</strong> Analysis und Scientific Computing<br />

Pavol Bauer<br />

Validation and Parallel Implementation of Spatial Agent Contacts at an Agent<br />

Based Simulation of Epidemics on Hexagonal Grids<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Felix Breitenecker<br />

Mathematische Modellierung und Simulation sind wichtige Hilfsmittel in der<br />

Analyse von Epidemieausbreitungen, welche Entscheidungsträgern die<br />

Möglichkeit bieten zukünftige Infektionswellen schneller erkennen und<br />

vorbeugen zu können. Im Rahmen dieser Diplomarbeit wird ein<br />

Epidemiemodell vorgestellt welches eine synthetische Bevölkerung -<br />

sogenannte Agenten - kreiert, welche einem virtuellen Krankheitserreger<br />

ausgesetzt werden. Die Agenten können mit diesem Erreger angesteckt<br />

werden, die Infektion auf andere Agenten übertragen und nach einer<br />

gewissen Zeitspanne wieder genesen. Die Basis <strong>für</strong> dieses Verhalten stellt ein<br />

Teil des Models dar, welches Agenten einander zuweist und einem möglichen<br />

Kontakt berechnet. Dieses Modul stellt den Hauptaugenmerk der Arbeit dar:<br />

es wird untersucht ob die Kontaktfindung mit statistischen Methoden oder mit<br />

Hilfe eines abstrakten Raumes auf welchem sich die Agenten frei bewegen<br />

und treffen können, simuliert werden kann. Die Struktur des Raumes und die<br />

Bewegung der Agenten sind an den Lattice Gas Cellular Automaton (LGCA)<br />

angelehnt, einer diskreten mathematischen Methode zur Simulation von<br />

natürlicher Bewegung wie sie in unkomprimierten Gasen oder Flüssigkeiten<br />

vorkommt. Da die Simulation einer grossen Bevölkerung mit Hilfe des LGCA<br />

sehr rechenaufwendig ist, ist im Rahmen der Diplomarbeit ebenfalls ein<br />

paralleler Algorithmus entwickelt worden welcher auf der GPU, dem<br />

Hauptprozessor der Grafikkarte, ausgeführt werden kann. Es hat sich gezeigt,<br />

dass diese Rechenarchitektur die vorgestellte Aufgabe bis zu 100-mal<br />

schneller als die CPU verarbeiten kann. Während die Analyse der<br />

Kontaktfindung mögliche Anwendungsfälle der Methoden beleuchtet stellt<br />

die parallele Implementierung eine Möglichkeit dar, zukünftige räumlich<br />

basierte Epidemiesimulationen preisgünstig und zeiteffizient auf<br />

gewöhnlichen Grafikkarten ausführen zu können.<br />

107


Kateryna Boyko<br />

Lokomotion, evoziert durch die elektrische Stimulation der mesencephalen<br />

lokomotorischen Hirnstammregion sowie durch epidurale und intraspinale<br />

Rückenmarkstimulation<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof.i.R. Dr. Dr. Frank Rattay<br />

Solche rhythmischen Bewegungen wie Laufen, Gehen und Schwimmen<br />

werden von neuronalen Netzwerken im Rückenmark generiert. Diese<br />

Netzwerke sind als zentrale Mustergeneratoren (ZMG) (engl. central pattern<br />

generators; CPG) bekannt. Zentrale Mustergeneratoren sind fähig, die<br />

lokomotorischen Bewegungen sogar ohne supraspinale Kontrolle als auch<br />

ohne sensorischen Input zu produzieren. Das Vorhandensein des ZMGs bei<br />

Wirbeltieren ist längst bewiesen und die Information über die Generierung<br />

des lokomotorischen Muster ist umfangreich. Aufgrund der Komplexität des<br />

menschlichen lokomotorischen Zyklus so wie aus ethischen Gründen ist der<br />

Beweis über die Existenz des ZMG bei Menschen implizit. Die Erforschung der<br />

Funktionsweise der zentralen Mustergeneratoren hat eine große klinische<br />

Bedeutung, vor allem bei der Behandlung der Patienten mit einer<br />

Rückenmarkverletzung. Es wurde festgestellt, dass eine elektrische Stimulation<br />

bestimmter Areale des Hirnstammes (sog. lokomotorischen<br />

Regionen) sowie die epidurale oder intraspinale Stimulation des<br />

Rückenmarkes ein lokomotorisches Muster evozieren kann und nach<br />

entsprechender Optimierung der Stimulationsparameter sogar eine schrittähnliche<br />

Bewegung auslösen kann. Der Schwerpunkt der vorliegenden Arbeit<br />

ist die Beschreibung der Funktionsweise des zentralen Mustergenerators, so<br />

wie der Vergleich der lokomotorischen Bewegungen, evoziert durch verschiedene<br />

Arten der elektrischen Stimulation bei unterschiedlichen Spezies -<br />

Ratten, Katzen und Menschen.<br />

108<br />

Johannes Matiasch<br />

Entwicklung einer semantischen Suche <strong>für</strong> die klinische Radiologie<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof.i.R. Dr. Dr. Frank Rattay<br />

Für Qualität und Effizienz im klinischen Alltag ist eine hohe<br />

Datenverfügbarkeit essentiell. Speziell in der klinischen Radiologie gilt es<br />

große Datenmengen strukturiert zu verwalten und so dem klinischen<br />

Anwender den Zugriff zu erleichtern. Gegenwärtige Radiologieinformationssysteme<br />

vermissen vielfach potente Suchfunktionen und entsprechen<br />

so nicht mehr dem Stand der Technik. In der vorliegenden Diplomarbeit<br />

werden Konzepte aufgezeigt, wie durch Einbindung medizinischer Terminologiesysteme<br />

effizientes Suchen in klinischen Daten ermöglicht wird. Hier<strong>für</strong><br />

wurden die bedeutendsten elektronisch verfügbaren Terminologiesysteme<br />

der Medizin betrachtet und hinsichtlich eines Einsatzes miteinander ver-


glichen. Als beste Option stellte sich das Unified Medical Language System<br />

(UMLS) heraus: UMLS ist eine Meta-Ontologie der US-amerikanischen National<br />

Library of Medicine (NLM), die sämtliche Bereiche der Medizin abdeckt.<br />

Mithilfe des frei zugänglichen MetaMap können biomedizinische Texte auf<br />

UMLS-Konzepte abgebildet werden. Darauf aufbauend kamen Techniken des<br />

unscharfen, konzeptbasierten, facettierten und geclusterten Suchens zur<br />

Anwendung. In diesem Zusammenhang wurde RadFind, eine webbasierte<br />

semantische Suchmaschine mit Fokus auf der klinischen Radiologie als Machbarkeitsbeweis<br />

entwickelt. Bei der Konzeptionierung von RadFind wurden<br />

Arbeitsabläufe des klinischen Alltags, die zuvor in einer Workflow-Analyse vor<br />

Ort ermittelt worden waren, berücksichtigt. Anamnese- und Befundtexte<br />

wurden unter Einbindung medizinischer Ontologien erfasst: Das Foundational<br />

Model of Anatomy (FMA) wurde <strong>für</strong> Mappings auf anatomische Konzepte<br />

verwendet, UMLS <strong>für</strong> Mappings auf pathologische. Testdatensätze wurden<br />

anhand von Lehrfällen des frei zugänglichen Lehrarchivs BrighamRAD, Teil<br />

der Harvard Medical School, erstellt. RadFind zeigt, dass durch Anwendung<br />

semantischer Konzepte ein effizienterer Umgang mit klinischen Daten<br />

möglich ist. RadFind kann unter RadFind@gmail.com angefordert werden.<br />

Richard Salzer<br />

Optimizing OMV truck scheduling<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Felix Breitenecker<br />

Das Ziel dieser Diplomarbeit war es die Zuweisung von Tankwagen zu Ladespuren<br />

in OMV Tanklagern zu optimieren. Es wurde ein neuer Algorithmus<br />

entwickelt der mehrere Zuweisungsmodi unterstützt. Die neu entwickelten<br />

Modi versuchen abzuschätzen wie viel Zeit eine Transaktion voraussichtlich<br />

benötigen wird. Auf entwickelten Simulationsmodellen der Tanklager wurde<br />

dieser neue Algorithmus hinsichtlich des zeitlichen Verhaltens, der Verteilung<br />

von Transaktionen auf Ladespuren, sowie der durchschnittlichen<br />

Warteschlangenlänge untersucht. Zusätzlich zu der ausgewerteten<br />

Frequentierung der Tanklager wurde ein weiteres Szenario mit starker<br />

Auslastung der Tanklager simuliert und ausgewertet. Die OMV besitzt fünf<br />

Tanklager in Österreich. In Tanklagern können Tankwagen Erdölprodukte wie<br />

Benzine, Diesel oder Heizöle abholen um z.B. Tankstellen zu beliefern. Dabei<br />

kann ein Tankwagen, der aus bis zu acht Kammern besteht, mit<br />

verschiedenen Produkten befüllt werden. Jedes Tanklager stellt mehrere<br />

Ladespuren zur Verfügung auf denen Tankwagen gleichzeitig verladen<br />

können. Auf jeder Ladespur kann eine unterschiedliche Anzahl von Zählern,<br />

über die Produkte abgegeben werden, vorhanden sein. Dabei können auch<br />

mehrere Zähler des gleichen Produktes zur Verfügung stehen um mehrere<br />

Kammern mit z.B. Diesel gleichzeitig verladen zu können. Die genaue<br />

Konfiguration der Tanklager zusammen mit ausgewerteten zeitlichen<br />

Verhalten der Tankwagenfahrer, bildet die Datenbasis <strong>für</strong> die<br />

Simulationsmodelle. Die Ergebnisse zeigen, dass nicht jedes Tanklager mit<br />

109


dem gleichen Modus optimal betrieben wird. Die genau Konfiguration und<br />

Anzahl der einzelnen Ladespuren spielt hinsichtlich des zeitlichen Verhaltens<br />

eine große Rolle. Weiters ist die Verteilung des zeitlichen Verhaltens von<br />

menschlichen Interaktionen zu berücksichtigen. Eine ungünstige Verteilung,<br />

deren Intervall einen großen Zeitraum einschließt, kann sich schlecht auf die<br />

Voraussage der Transaktionsdauer auswirken.<br />

Rainer Semerad<br />

Prüfstandentwicklung zur Frequenzgangevaluierung von<br />

Blutdruckmanschetten<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof.i.R. Dr. Dr. Frank Rattay<br />

In Industriestaaten führen kardiovaskuläre Erkrankungen die Statistiken der<br />

Todesursachen an. Um diese Herz-Kreislauferkrankungen zu diagnostizieren,<br />

werden Katheter verwendet. Die invasive Messmethode ist keine ambulante<br />

Behandlung und führt deshalb zu erhöhten Kosten im Spitalswesen und kann<br />

Komplikationen hervorrufen. Die alternative Messmethode mittels der<br />

nichtinvasiven Blutdruckmessung hängt von den unterschiedlichsten<br />

Messparametern ab. Um das System zu verbessern muss das gesamte<br />

Verhalten der Messkette bekannt sein. Das vom Austrian Institute of<br />

Technology entwickelte oszillometrische Messsystem CardioCube arbeitet mit<br />

einem nichtinvasiven Messaufnehmer (Manschette). Dies ist ein noch zu<br />

untersuchender Faktor in der Messkette. Ziel der Arbeit ist die Charakterisierung<br />

dieses Messaufnehmers mittels eines zu entwickelnden Prüfstandes.<br />

Dabei wird das Übertragungsverhalten mittels der experimentellen<br />

Systemidentifikation ermittelt. Die realitätsnahe Evaluierung der Manschette<br />

wird durch rundes Aufspannen mittels des manschetteneigenen Klettverschluss<br />

gegeben. Als Signalgeber wurde eine Scheibe entwickelt, welche<br />

die Manschette auf der Innenseite sinusförmig anregt. Die entwickelte<br />

Steuerung des Prüfstandes und die Signalverarbeitung erfolgt mittels Matlab.<br />

Es wird angenommen, dass die Blutdruckmanschette ein Tiefpassverhalten<br />

ähnlich eines Verzögerungsgliedes 2. Ordnung (gedämpft schwingend) hat.<br />

Dies kann aus dem experimentell ermittelten Frequenzgang und einem<br />

Modell, welches aus einer Sprungantwort erstellt wird, verifiziert werden.<br />

Innerhalb des relevanten Messbereichs von CardioCube wird der gemessene<br />

Frequenzgang der Manschette durch die analytische Formel mit dem größten<br />

Bestimmtheitsmaß r² beschrieben. Diese Funktion wurde in CardioCube<br />

implementiert und durch ein abschließendes Experiment überprüft. Dabei<br />

konnte der Einfluss der Blutdruckmanschette auf die Messung innerhalb des<br />

gesamten Messbereichs kompensiert werden.<br />

110


Institut “integriert studieren”<br />

Franz Hartl<br />

Rapid Prototyping einer low-cost Embedded System Lösung zur digitalen<br />

Erfassung von Druckmedien<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />

Diese Diplomarbeit beschäftigt sich mit der Erweiterung von bestehenden<br />

automatischen Digitalisierungslösungen, welche die Digitalisierung von<br />

inhomogenen Buchbeständen vereinfachen und beschleunigen soll. Weiters<br />

soll das zu entwickelnde Gerät ebenfalls zur Digitalisierung ganzer Werke<br />

nutzbar und somit <strong>für</strong> kleinere Digitalisierungsvolumina verwendbar sein.<br />

Da<strong>für</strong> soll eine manuelle Lösung zur Digitalisierung von Druckmedien<br />

entwickelt werden, welche in einen Digitalisierungsprozess eingebunden werden<br />

kann. Der zu entwickelnde Prototyp soll als Tischsystem aufgebaut sein,<br />

bei dem sowohl die Beleuchtung als auch die Kamera auf der Unterseite des<br />

Tisches montiert sind und durch eine Glasplatte ablichten. Durch die<br />

Fixierung der Aufnahmefläche (Glasplatte) kann die Auflösung (PPI) konstant<br />

gehalten werden, unabhängig von der Form des Druckmediums. Mit Hilfe<br />

eines programmierten Beleuchtungssimulators, der mittels FEM arbeitet,<br />

konnte ein passender LED-Typ ausgesucht und damit die Beleuchtungshomogenität<br />

der Aufnahmefläche optimiert werden. Mit Hilfe von<br />

Gegenlichtblenden konnten die LED-Balken so platziert werden, dass keine<br />

Reflexion in die Kamera erfolgt und dass die Helligkeitsschwankung über den<br />

Aufnahmebereich maximal 7 % beträgt. Die verbleibende Helligkeitsschwankung<br />

konnte mittels einer Korrekturmatrix softwareseitig entfernt<br />

werden. Der Schärfentiefebereich liegt über dem der am Markt erhältlichen<br />

Flachbettscanner und kann je nach Medium durch die Blende verändert<br />

werden. Es konnte gezeigt werden, dass mit der passenden Kamera bei 300<br />

PPI, DIN A3 formatfüllend aufgenommen werden kann. Der Geschwindigkeitsvorteil<br />

gegenüber Lösungen, die Zeilenscanner verwenden, ist offensichtlich,<br />

da mit einem Schuss die gesamte Aufnahmefläche abgelichtet werden kann.<br />

Der Prototyp konnte durch den simplen Aufbau der Einzelkomponenten<br />

inklusive der Kamera mit weniger als 1200 konstruiert werden.<br />

111


Christian Franz Hattinger<br />

GES<strong>TU</strong>: Evaluierung von technischen Hilfsmitteln zur Förderung Studierender<br />

mit Hörbehinderung im österreichischen tertiären Bildungssektor und<br />

Einführung geeigneter Technologien an der <strong>TU</strong> <strong>Wien</strong><br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />

Der Fokus liegt auf der Evaluierung und Einführung geeigneter Hilfsmittel an<br />

der <strong>TU</strong> <strong>Wien</strong>, welche die Informationsaufnahme von Lehrinhalten und der<br />

Partizipation während Vorlesungen, Diskussionen, etc. ermöglichen. Die<br />

zentrale Fragestellung dabei ist, unter welchen Vorraussetzungen die<br />

jeweiligen Hilfsmittel den unterschiedlichen Bedürfnissen der heterogenen<br />

Gruppe hörbeeinträchtigter Studierender gerecht werden können. Zwei<br />

technische Hilfsmittel wurden in Fallstudien erprobt und anhand von<br />

Interviews mit den teilnehmenden hörbeeinträchtigten Personen und anwesenden<br />

Fachleuten auf ihre Praxistauglichkeit getestet und beurteilt. In der<br />

ersten Fallstudie wurde die Live-Untertitelung eines Vortrags mittels<br />

Respeaking durchgeführt. Beim Respeaking handelt es sich um eine Methode,<br />

mit der negative Einflussfaktoren auf die Qualität der Erkennungsrate einer<br />

ASR umgangen werden können, indem ein Sprecher oder eine Sprecherin das<br />

Gesagte, in einer <strong>für</strong> die Software gut verarbeitbaren Weise, nachspricht. In<br />

der zweiten Fallstudie wurde das Remote Gebärdensprachdolmetschen (RGD)<br />

anhand verschiedenen Soft- und Hardwarelösungen evaluiert. Eine Dolmetscherin<br />

bzw. ein Dolmetscher arbeitet beim RGD aus der Ferne und ist<br />

nicht vor Ort. Im österreichischen und internationalen Umfeld etablierte oder<br />

in Zukunft vielversprechende Hilfsmittel sind auf deren Möglichkeiten <strong>für</strong> die<br />

österreichische Hochschulbildung aus technischer-, organisatorischer- sowie<br />

finanzieller Sicht beurteilt. Respeaking bietet derzeit neben Simultanschnellschreibern<br />

bzw. Schnellschreiberinnen die einzige Möglichkeit zur Live-<br />

Untertitelung von deutschsprachigen Vorlesungen. Anhand der erarbeiteten<br />

Empfehlungen sind darüber hinaus weitere RGD Versuche geplant. Durch<br />

eine im Zuge der Diplomarbeit entstandene Kooperation zur<br />

Weiterentwicklung einer ASR soll zukünftig die Untertitelungsquote in<br />

eLearning Plattformen erhöht werden.<br />

112<br />

Andreas Schneider<br />

Touch-Screen User Interface mit haptischem Feedback<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />

Das Ziel dieser Arbeit ist es, ein universelles multimodales Userinterface zu<br />

entwerfen. Es soll möglich sein, das Gerät <strong>für</strong> verschiedene Zwecke zu verwenden.<br />

Es soll also eine Plattform entwickelt werden, die später individuell<br />

konfigurierbar ist. Zur Visualisierung soll ein Touchscreen zum Einsatz<br />

kommen. Die Größe dieses Touchscreens soll so gewählt werden, dass auch


ältere Menschen gut damit arbeiten können. Konfigurierbar soll das Gerät<br />

über eine SD-Karte sein. Weiters sollen hier auch die anzuzeigenden Daten<br />

hinterlegt werden. Wichtig ist, dass der Touchscreen intuitiv bedienbar ist.<br />

Dazu soll ein neues Konzept zur Bedienung entwickelt werden, das den<br />

klassischen Doppelklick ersetzt. Insbesondere werden die Positionswahl und<br />

die Auslösung entkoppelt. Das Führen des Fingers über den Screen markiert<br />

die gewünschte Position, erst ein mechanischer Druck mit eindeutigem<br />

haptischem Feedback löst die gewählte Aktion aus. So soll das System vor<br />

allem <strong>für</strong> ältere Menschen einfacher zu bedienen sein.<br />

113


In Zusammenarbeit mit anderen wissenschaftlichen<br />

Einrichtungen<br />

Universität <strong>Wien</strong><br />

Gregor Prokesch<br />

Erstellung einer Online-Lernplattform mittels Google Web Toolkit<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Dr. Andreas Ulovec<br />

With this work an online learning platform was developed. The basically<br />

programming language which has been used was Java, but particular it was<br />

used within the framework Google Web Toolkit. In this project the advantages<br />

of a modern, efficient programming interface like offered with the GWT was<br />

used and thus shown. E.g. AJAX functions were used which are typically for<br />

modern web applications. In addition the advantages of programming with<br />

Java were utilized. On the one hand the design of the application was done<br />

on an object-oriented way for building a modular structure and therefore<br />

making it possible to expand the application at a later time. On the other side<br />

Java functionalities like RPCs or odbc database connections were used. The<br />

learning platform is oriented on the well known Moodle application and<br />

implements some of its most important features. Different user groups have<br />

different possibilities for actuating on the learning platform.<br />

114<br />

Tugba Yavas<br />

E-Learning in Unternehmen<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Dr. Andreas Ulovec<br />

Meine Magisterarbeit wird sich mit E-Learning in Unternehmen beschäftigen.<br />

Der erste Abschnitt wird die allgemeine Definition über E-Learning sein. Im<br />

zweiten Kapitel werden die unterschiedlichen Arten von E-Learning beschrieben,<br />

da es viele Arten gibt, wird es eine Einschränkung geben, wo die<br />

Formen WBT, CBT und Online-Lernen in meiner Arbeit vorkommen werden.<br />

WBT (Web-based-training) ist Online-Lernen wie z.B Internet/Intranet und CBT<br />

(Computer-based-training ist Offline-Lernen und dass sind meistens CD-<br />

ROMs. CSCL (Computer Supported Collaborative Learning) wird als virtuelle<br />

Klassenzimmer bezeichnet. Was genau in einem virtuellen Klassenzimmer<br />

gemacht wird und wie es funktioniert wird in meiner Arbeit kurz erfasst. Zu<br />

jedem genannten E-Learning Formen werden die Vor- und die Nachteile<br />

aufgeteilt. Im 3.Kapitel wird die Auswirkung des E-Learning in der Psychologie<br />

berichtet. Die Selbststeuerung des Lernens ist sehr wichtig, da die Kontrolle


über die eigenen Handlungen erfordert, dazu gehört auch das Vertrauen in<br />

die eigenen Fähigkeiten. Im nächsten Kapitel werden Unternehmen<br />

beschrieben, die mit E-Learning arbeiten oder gearbeitet haben und wie die<br />

Zukunftspläne <strong>für</strong> E-Learning sind. Es werden unterschiedliche Projekte<br />

beschrieben. Letztens wird eine Umfrage unter beschäftigte Mitarbeiter und<br />

berufstätige Studenten geführt, was Sie über E-Learning halten, da es<br />

Studenten gibt, die nebenbei arbeiten und studieren, sehe ich das als ein<br />

Vorteil, die Studenten auch zu fragen, da Sie einen Vergleich zwischen Arbeit<br />

und Universität machen können. Bei den Beschäftigten werden<br />

unterschiedliche Unternehmen ausgesucht und deren Mitarbeiter befragt.<br />

Zum Schluss wird eine Reihe von Linklisten über E-Learning geben.<br />

Bahar Yilmaz-Alan<br />

Internetnutzung unter sozialen Gruppen<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

Betreuer: Dr. Andreas Ulovec<br />

Durch die Entwicklung der neuen Technologie des Internets sind gravierende<br />

Erneuerungen in vielen Bereichen entstanden. Internet ist zu einem Teil<br />

unseres Lebens geworden, das heute fast von jedem genutzt wird. Diese<br />

Technologie hat eine massive Zielgruppe erreicht, der Großteil dieser Gruppe<br />

ist die junge Generation. Da sie sehr großes Interesse <strong>für</strong> das Internet<br />

aufweisen, sind sie ein sehr großes Potenzial <strong>für</strong> diesen Bereich. Diese Arbeit<br />

mit dem Thema Internetnutzung unter sozialen Gruppen verfolgt zum einen<br />

das Ziel, dem Leser ein theoretisches Verständnis der Thematik Internetnutzung<br />

zu ermöglichen. Das zweite Ziel dieser Arbeit ist die empirische<br />

Untersuchung durch die Form der Onlinebefragung bei der die befragten<br />

Studenten verschiedene Faktoren zum Thema Internetnutzung im privaten<br />

und im universitären Bereich beurteilen sollen.<br />

Medizinische Universität <strong>Wien</strong><br />

Florian Guggenberger<br />

Softwaredesign zur Programmierung eines Elektrostimulators mit integriertem<br />

Compliance Management<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Univ.Doz. Dr. Winfried Mayr<br />

This thesis introduces a software application to programm an electrical<br />

stimulation device with different stimulation patterns. The easy to use<br />

software, which was developed within this thesis, supports flexible manipulation<br />

of several parameters in a intuitive matter. Also the setting for<br />

recording measurement signals can be adjusted with this application.<br />

115


Compliance of training with the stimulation device is recorded and can be<br />

managed within the software. The data structures used for realisation were<br />

introduces and the concept for dealing with data exchange between the<br />

software and stimulation device would be described. An important part of the<br />

project deals with the management of compliance to collect data related to<br />

duration and intesity of sessions with electical stimulation. In this work a<br />

strategy for compliance management with functional electrical stimulation is<br />

pronounced. It shows the technology used to implement the real world<br />

problem with Windows Presentation Foundation based on the .NET-<br />

Framework. The meaning of the Model-View-ViewModel design pattern in<br />

context with WPF is described and the thesis would show the utilisation of the<br />

pattern within this work. As a result the software developed, allows an easy to<br />

use creation of various stimulation patterns with the possibilty to monitor<br />

measurements taken throughout stimulation trainings. Comparison of<br />

measurement signals could also be done with the application. And as a key<br />

feature the software allows recording of compliance data to analyse the<br />

training sessions for each patient.<br />

116<br />

Verena Spiteller<br />

Integration von Konzepten der problemorientierten Dokumentation in das<br />

EHR<br />

Studium: Masterstudium Software Engineering & Internet Computing<br />

Betreuer: Ao.Univ.Prof. Dr. Georg Duftschmid<br />

Elektronische Gesundheitsakten (EHRs) dienen dazu, die Inhalte der<br />

medizinischen Dokumentation zu einem Patienten zu sammeln. Die Idee der<br />

problemorientierten Dokumentation (POD) geht auf L.L. Weed zurück, der die<br />

Dokumentation geordnet nach Problemen propagierte, um die Informationen<br />

jeweils in ihrem Kontext beurteilen zu können. Im Hinblick auf eine integrierte<br />

Gesundheitsversorgung müssen die Dokumentationsinhalte zwischen<br />

mehreren Institutionen ausgetauscht werden. Um eine breite Interoperabilität<br />

verschiedenartiger Informationssysteme zu erreichen, hat sich die<br />

Verwendung von Standards bewährt. In dieser Arbeit werden die speziellen<br />

Anforderungen einer shareable POD (einrichtungsübergreifenden<br />

problemorientierten Dokumentation) erhoben und existierende EHR-<br />

Standards darauf untersucht, inwiefern sie diese Anforderungen unterstützen.<br />

Die Standards EN 13940, ISO/EN 13606, HL7 CDA und IHE XDS<br />

wurden <strong>für</strong> die Untersuchung ausgewählt, da sie in nationalen EHR-<br />

Programmen zum Einsatz kommen können. Basierend auf einer<br />

Literaturrecherche wird ein shareable POD-Modell entwickelt, das jene<br />

Konzepte darstellt, die <strong>für</strong> eine shareable POD charakteristisch sind. Weiters<br />

wird ein Kriterienkatalog entwickelt, mittels dessen die Erfüllung der zentralen<br />

Anforderungen an ein shareable POD-Modell überprüft werden kann. Anhand<br />

der Spezikationen der Standards werden Vorschläge erarbeitet, wie eine<br />

shareable POD mit dem jeweiligen Standard umsetzbar ist. Diese Vorschläge<br />

werden auf Basis des Kriterienkatalogs bewertet. Die Literaturrecherche zeigt,


dass es keine allgemein anerkannte Spezikation <strong>für</strong> eine shareable POD gibt.<br />

Es wird aufgezeigt, dass die genannten vier Standards jeweils<br />

unterschiedliche Stärken und Schwächen hinsichtlich ihrer Nutzung zur<br />

verteilten problemorientierten medizinischen Dokumentation aufweisen. Die<br />

Ergebnisse bestätigen, dass die untersuchten Standards viele Anforderungen<br />

einer shareable POD erfüllen, aber nicht jeder von ihnen allen gerecht wird.<br />

Hilal Tekoglu<br />

Evaluierung von klinischen Studiensystemen <strong>für</strong> akademische Studien<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Univ.Prof. DDr. Wolfgang Dorda<br />

Durch den Einsatz von Web- und Informationstechnologien können die<br />

Abläufe in klinischen Studien optimiert, die Datenqualität erhöht und die<br />

Kosten reduziert werden. Um die Durchführung von klinischen Studien im<br />

akademischen bzw. universitären Bereich zu unterstützen, soll an der<br />

Medizinischen Universität <strong>Wien</strong> ein Clinical Data Management System (CDMS)<br />

zum Einsatz kommen. Das CDMS soll die neuesten technischen<br />

Entwicklungen und Standards unterstützen sowie die Benutzeranforderung im<br />

Rahmen der Studienprozesse erfüllen. Das Ziel dieser Arbeit ist die<br />

funktionalen Anforderungen an ein CDMS aus Sicht der Benutzer zu erheben,<br />

die Evaluierung von ausgewählten CDMS durchzuführen und eine<br />

Systemauswahl zu argumentieren. Für die Anforderungserhebung wurden die<br />

Studienprozesse anhand von UML Diagrammen modelliert. Basierend auf den<br />

Anwendungsfall- und Aktivitätsdiagrammen wurden die funktionalen<br />

Anforderungen generiert und in einem Kriterienkatalog strukturiert<br />

abgebildet. Anhand dieses Kriterienkatalogs wurde die Evaluierung von drei<br />

ausgewählten Systemen (MARVIN von XClinical, EDC System des AIT und<br />

OpenClinica von Akaza Research) durchgeführt. Die Anforderungen wurden<br />

je nach Erfüllungsgrad bewertet. Anschließend wurde eine Systemauswahl<br />

argumentiert. Während der Evaluierung standen die Systeme mit jeweils<br />

unterschiedlichen Funktionsumfängen zur Verfügung. Das EDC System des<br />

AIT wurde von der Systemauswahl aufgrund der hohen Anzahl von nicht<br />

erhebbaren Anforderungen ausgeschlossen. Der Einsatz von MARVIN und<br />

OpenClinica im Rahmen von akademischen klinischen Studien kann<br />

empfohlen werden. Beide Systeme erfüllen die Anforderungen ohne<br />

wesentliche Unterschiede. Unterschiede liegen im Erfüllungsgrad des<br />

Prozessablaufes vor. Zur Entscheidungsfindung wird eine zusätzliche<br />

Evaluierung der Prozessunterstützung in den jeweiligen Systemen empfohlen.<br />

117


Sarah <strong>Wien</strong>er<br />

Evaluation von Informationsvisualisierung - Wegweiser <strong>für</strong> Design<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

Betreuer: Univ.Prof. Dr. Klaus-Peter Adlassnig<br />

In verschiedensten Fachgebieten, auch in der Medizin, sammeln sich viele<br />

Daten an. Die Informationsvisualisierung beschäftigt sich damit, geeignet<br />

Darstellungsformen zu finden um die Analyse von überwältigenden<br />

Datenmengen zu erleichtern. Zahlreiche Varianten sind entstanden, welche<br />

fortlaufend evaluiert werden, um Stärken und Schwächen aufzudecken. Doch<br />

nun fehlt es an Zusammenführungen von Ergebnissen aus den Studien, um<br />

dieses Wissen <strong>für</strong> die Verbesserung oder <strong>für</strong> die Gestaltung neuer<br />

Visualisierungen nutzen zu können. Um viele Informationen der Eigenschaften<br />

der Techniken zu erhalten, werden weitere Evaluierungsmethoden<br />

benötigt. Ziel dieser Arbeit ist, eine Sammlung von Evaluationen von<br />

Informationsvisualisierungen anhand eines Rasters zu untersuchen und die<br />

Ergebnisse der Studien zusammenzuführen. Ein Überblick über Erfahrungen<br />

bezüglich des Evaluierungsvorgehens sowie gesammelte Erkenntnisse von<br />

Informationsvisualisierungen soll geschaffen werden. Am Beispiel des Fachgebietes<br />

Medizin werden Bedürfnisse von AnwenderInnen veranschaulicht<br />

und Aspekte diskutiert, die <strong>für</strong> eine weitestgehend reibungslose Einführung<br />

neuer Techniken relevant sind. Aus der Betrachtung der Studienergebnisse ist<br />

hervorgegangen, dass die Evaluierungsmethoden Eye-Tracking, Thinking-<br />

Aloud und Fokusgruppe Potential zeigten, die Evaluierung von Informationsvisualisierung<br />

zu ergänzen. Geometrische Visualisierungen wurden mittlerweile<br />

oft, pixelorientierte Techniken hingegen kaum evaluiert. Interessante<br />

Aspekte konnten aufgedeckt werden wie etwa, dass 3D-Visualisierungen<br />

noch nicht effizient genug sind, aber es Ansätze <strong>für</strong> Verbesserungen gibt.<br />

Ebenso wurde ersichtlich, dass Animationen hilfreich sind, aber bedacht<br />

eingesetzt werden sollten. Evaluationen von medizinischen Anwendungen<br />

zeigten, dass die Einführung neuer Techniken nicht schlagartig stattfinden<br />

sollte. Diese können sich zwar von traditionellen Methoden unterscheiden,<br />

sollten aber schnell und einfach erlernbar sein.<br />

118


Wirtschaftsuniversität <strong>Wien</strong><br />

Mario Annau<br />

Financial News Mining and Sentiment Analysis using R<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

Betreuer: Univ.Prof. Dr. Kurt Hornik<br />

The focus of this thesis are the packages tm.plugin.webcorpus and<br />

tm.plugin.sentiment implemented in R. They define a framework for the<br />

retrieval of text corpora from the Internet as well as the sentiment analysis of<br />

news texts. The package tm.plugin.webcorpus itself supports a wide range of<br />

data feed providers like Google News, Yahoo BOSS or Reuters Spotlight. The<br />

flexibility of the framework enables the user to extend tm.plugin.webcorpus<br />

with a variety of additional data feeds. Integrated extraction functions offer<br />

the opportunity to gain news content from arbitrary Internet pages.<br />

tm.plugin.sentiment} does not only implement functions to determine the<br />

sentiment of text documents, it also supports the generation and visualization<br />

of time series showing the development of sentiment concerning a specific<br />

topic.<br />

119


Index der Autorinnen und Autoren<br />

Adamer Jasmin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Annau Mario - Wirtschaftsuniversität <strong>Wien</strong><br />

Arnberger Simone - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Artner Thomas - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Bachl Stefan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Bauer Pavol - Institut <strong>für</strong> Analysis und Scientific Computing<br />

Baumann Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Bayrhammer Klaus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Beheshti Seyed Amir - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Berchtold Dominik Manfred - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Bernauer Andreas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Blechmann Tim - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Bogner Anita - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Boyko Kateryna - Institut <strong>für</strong> Analysis und Scientific Computing<br />

Bruckmayer Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen,<br />

Arbeitsbereich Computergraphik<br />

Brugner Simon - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Multidisciplinary Design<br />

Buchgraber Ulrich - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Real Time<br />

Systems<br />

Burker Alexander - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Daxböck Johannes - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich E-Commerce<br />

Dikme Ufuk - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Dönz Tobias - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen<br />

und Übersetzer<br />

120


Edlinger Karl-Michael - Institut <strong>für</strong> Computergraphik und Algorithmen,<br />

Arbeitsbereich Algorithmen und Datenstrukturen<br />

Eisenbarth Mattias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Fantoni Andreas - Institut <strong>für</strong> Managementwissenschaften<br />

Fechter Tobias - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Fedorovskaia Karina - Institut <strong>für</strong> Managementwissenschaften<br />

Fodor Igor - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-<br />

Commerce<br />

Fritz Gernot - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Fuchs Alexander - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Garz Angelika - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />

Vision<br />

Gassner Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Gelbmann Wolfgang - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Gerstweiler Georg - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Gneiss Birgit - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Interactive Media Systems<br />

Goldmann Axel - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Goralczyk Monika - Institut <strong>für</strong> Managementwissenschaften<br />

Grabher Marcel - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Grabner Johann - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Gröss Patrick - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />

Umweltplanung<br />

Gruber Christian - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Grünauer Andreas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Grünling Manfred - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Guggenberger Florian - Medizinische Universität <strong>Wien</strong><br />

Haberl Peter - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />

Systems<br />

121


Hahn Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Halmetschlager Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Business Informatics<br />

Hamm Markus - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Hanzl Michael - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Hartl Franz – Institut “integriert studieren“<br />

Hattinger Christian Franz – Institut “integriert studieren“<br />

Heil Erich - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-<br />

Commerce<br />

Helpa Christopher - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Real Time<br />

Systems<br />

Hinn Roland - Institut <strong>für</strong> Managementwissenschaften<br />

Holzkorn Peter - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Hutterer Matthias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich E-Commerce<br />

Isakovic Haris - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Real Time Systems<br />

Kahofer Agnes - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Multidisciplinary Design<br />

Kail Ingrid - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Kammerstetter Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Kern Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Kinkelin Martin - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Kittel Gabriel - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />

Kloibhofer Richard - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Knotek Anatol - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Königsmayr Michael - Institut <strong>für</strong> Managementwissenschaften<br />

Kopper Andreas - Institut <strong>für</strong> Managementwissenschaften<br />

Köstinger Harald - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Krasnitzky Manfred - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />

Systems<br />

Kratochvila Michael - Institut <strong>für</strong> Wirtschaftsmathematik<br />

122


Krenek Thorsten - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Krinninger Sebastian - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />

<strong>Informatik</strong> und Logik<br />

Kronegger Martin - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Lehotsky Andrej - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Leiter Christoph - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Les Iwona - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />

Lessiak Michael - Institut <strong>für</strong> Geoinformation und Kartographie<br />

Lindorfer Martina - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Makaruk Eliza - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Marchart Andreas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Matiasch Johannes - Institut <strong>für</strong> Analysis und Scientific Computing<br />

Mautner Markhof Clemens - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung,<br />

Arbeitsbereich Human Computer Interaction<br />

Mayerhofer Tanja - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Business Informatics<br />

Mesetovic Boris - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />

Systems<br />

Mladek Florian - Institut <strong>für</strong> Managementwissenschaften<br />

Moshki Hanieh - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Najvirt Robert - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />

Computing Systems<br />

Narinsky Leonid - Institut <strong>für</strong> Managementwissenschaften<br />

Nenning Karl-Heinz - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Computer Vision<br />

Neuböck Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich E-Commerce<br />

Neumann Andreas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Nguyen Lam Tung - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />

Artificial Intelligence<br />

Niederreiter Christian - Institut <strong>für</strong> Computergraphik und Algorithmen,<br />

Arbeitsbereich Computergraphik<br />

Nürnberg Marcel - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

123


Oberreiter Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Pichler Katharina - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Pickelbauer Michael - Institut <strong>für</strong> Computertechnik<br />

Popovic Daniela - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Preier Cornelia - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Prokesch Gregor - Universität <strong>Wien</strong><br />

Purer Klaus - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Randak Andrea - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Business Informatics<br />

Raschbauer Reinhard - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Reiterer Stefan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Reiterer Martin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Rest Günther - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Rezaie Homa - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

Sabin Patrick - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen<br />

und Übersetzer<br />

Salzer Richard - Institut <strong>für</strong> Analysis und Scientific Computing<br />

Sawerthal Carl - Institut <strong>für</strong> Wirtschaftsmathematik<br />

Schakmann Rene - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Scheuer Bernhard - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Schiffl Katharina - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Schmöllerl Michael - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Schneider Andreas – Institut “integriert studieren“<br />

Schuldt Hauke - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich E-Commerce<br />

Sehic Sanjin - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />

Seidl Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

124


Seitz Georg - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />

<strong>Informatik</strong> und Logik<br />

Semerad Rainer - Institut <strong>für</strong> Analysis und Scientific Computing<br />

Sentürk Handan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Siller Ernst - Institut <strong>für</strong> Managementwissenschaften<br />

Sinnl Markus - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Smejkal Peter - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Multidisciplinary Design<br />

Sohrabi-Moayd Fakhteh - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Spendier Lara Katharina - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Theoretische <strong>Informatik</strong> und Logik<br />

Spiteller Verena - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Spiteller Verena - Medizinische Universität <strong>Wien</strong><br />

Spolwind Ingomar - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />

Umweltplanung<br />

Stachl Claus - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />

Human Computer Interaction<br />

Starzinger Michael - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Staud Philip - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

E-Commerce<br />

Stefanoni Giorgio - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />

Based Systems<br />

Steger Christian Johannes - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />

Umweltplanung<br />

Steiner Markus - Institut <strong>für</strong> Managementwissenschaften<br />

Stemer Bertram - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Stingl Martin - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Tekoglu Hilal - Medizinische Universität <strong>Wien</strong><br />

Thomas Christian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Tinkl Bernhard - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

Tran Trung Kien - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />

Based Systems<br />

Vallon Raoul - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

125


Vass Bence - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Vögler Michael - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Programmiersprachen und Übersetzer<br />

Volcic Mark - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Vonach Emanuel - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Interactive Media Systems<br />

Wageneder Nikolas Johannes - Institut <strong>für</strong> Rechnergestützte Automation,<br />

Arbeitsbereich Automatisierungssysteme<br />

Wagner Alexander - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Wagner Markus - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />

Umweltplanung<br />

Wallerstorfer Dirk - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Wandl Conrad Stefan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Automatisierungssysteme<br />

Weigl Elisabeth - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />

Arbeitsbereich Information & Software Engineering<br />

<strong>Wien</strong>er Sarah - Medizinische Universität <strong>Wien</strong><br />

Wijaya Tri Kurniawan - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />

Based Systems<br />

Winkler Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Algorithmen und Datenstrukturen<br />

Yavas Tugba - Universität <strong>Wien</strong><br />

Yilmaz-Alan Bahar - Universität <strong>Wien</strong><br />

Zhang Le - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

Zumpf Harald Andreas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />

Theoretische <strong>Informatik</strong> und Logik<br />

Zvizdic Edin - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />

Information & Software Engineering<br />

126


Alle in diesem <strong>Band</strong> angeführten <strong>Abstract</strong>s stammen von den AutorInnen<br />

der jeweiligen Diplomarbeit. <strong>Abstract</strong>s der Diplomarbeiten werden von den<br />

BetreuerInnen approbiert.<br />

IMPRESSUM<br />

Zentrum <strong>für</strong> Koordination und Kommunikation<br />

der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

1040 <strong>Wien</strong>, Favoritenstraße 9/195<br />

www.informatik.tuwien.ac.at<br />

Konzept: DI Karin Hraby<br />

(c) 2011 <strong>Technische</strong> Universität <strong>Wien</strong><br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>


<strong>Technische</strong> Universität <strong>Wien</strong><br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

1040 <strong>Wien</strong>, Favoritenstraße 9-11/195<br />

T: +43-1-58801-19501<br />

F: +43-1-58801-19599<br />

E: sek@zkk.tuwien.ac.at

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!