Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...
Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...
Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
EPILOG<br />
Die Diplomarbeitspräsentation der<br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Wintersemester 2013
Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von
EPILOG<br />
Diplomarbeitspräsentation<br />
Das breite Themenspektrum und die vielfältigen Aufgabenstellungen der Abschlussarbeiten<br />
an der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> werden jedes Semester beim EPILOG präsentiert.<br />
In einer Posterausstellung sowie in ausgewählten Vorträgen präsentieren die<br />
AbsolventInnen der <strong>Fakultät</strong> ihre Projekte und stellen sich der Diskussion mit den<br />
Anwesenden. Der EPILOG als Plattform <strong>für</strong> die Präsentation hervorragender Abschlussarbeiten<br />
dient gleichzeitig dem Austausch über die aktuelle wissenschaftliche<br />
Forschung in den unterschiedlichen Bereichen der <strong>Informatik</strong>.<br />
Auszeichnungen und Preise<br />
Die <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> vergibt den „Distinguished Young Alumna/Alumnus“-<br />
Award. Beurteilungskriterien <strong>für</strong> den mit 1.500 Euro dotierten Preis sind die Qualität<br />
der Diplomarbeit sowie des gehaltenen Vortrags. Zudem wird das beste Poster aller<br />
beim EPILOG anwesenden AutorInnen mit dem „Best Poster“-Award in der Höhe von<br />
500 Euro ausgezeichnet. Die Jury setzt sich aus ProfessorInnen zusammen, welche<br />
die Forschungsschwerpunkte der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> vertreten.<br />
Zusätzlich wird ein spezieller „Förderpreis“ vergeben: Eine Diplomarbeit wird von<br />
der Austria Section des Institute of Electrical and Electronics Engineers (IEEE) mit<br />
dem „Diploma Thesis Award sponsored by IEEE Austria Section“ in der Höhe von<br />
500 Euro ausgezeichnet.
Programm 28. November 2013<br />
15:00 Eröffnung der Posterausstellung<br />
16:00 Begrüßung und Einleitung<br />
Gerald Steinhardt, Dekan der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>, <strong>TU</strong> <strong>Wien</strong><br />
Sabine Seidler, Rektorin <strong>TU</strong> <strong>Wien</strong><br />
16:15 Vorträge zu den nominierten Diplomarbeiten<br />
17:15 [!INF]inite Graphics: Computerspiele und Demos aus der<br />
Computergraphiklehre<br />
Michael Wimmer und Reinhold Preiner<br />
Institut <strong>für</strong> Computergraphik und Algorithmen, <strong>TU</strong> <strong>Wien</strong><br />
17:45 Vergabe der Auszeichnungen an die AbsolventInnen<br />
Anschließend laden wir zum weiteren Gedankenaustausch beim Buffet ein.<br />
2
Vorträge zu den nominierten Diplomarbeiten<br />
Harald Beck<br />
Konsistenz-Management von Verkehrsregelungen<br />
Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based Systems<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 38<br />
Adrian Dabrowski<br />
Security Analysis of Metropolitan Locking Systems Using the Example of the<br />
City of Vienna<br />
Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 12<br />
Heinrich Fink<br />
GPU-based Video Processing in the Context of TV Broadcasting<br />
Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich Computergraphik<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 49<br />
Martin Perner<br />
Self-Stabilizing Byzantine Fault-Tolerant Clock Distribution in Grids<br />
Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded Computing Systems<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 8<br />
3
DIPLOMARBEITEN<br />
Institute der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> .............................................................. 6<br />
Arbeitsbereich Embedded Computing Systems .............................................. 6<br />
Institut <strong>für</strong> Rechnergestützte Automation ................................................ 10<br />
Arbeitsbereich Automatisierungssysteme ..................................................... 10<br />
Arbeitsbereich Computer Vision .................................................................. 22<br />
Institut <strong>für</strong> Informationssysteme .............................................................. 27<br />
Arbeitsbereich Distributed Systems ............................................................. 27<br />
Arbeitsbereich Database and Artificial Intelligence ....................................... 32<br />
Arbeitsbereich Knowledge Based Systems.................................................... 37<br />
Institut <strong>für</strong> Computersprachen ................................................................. 41<br />
Arbeitsbereich Programmiersprachen und Übersetzer ................................... 41<br />
Institut <strong>für</strong> Computergraphik und Algorithmen ........................................ 46<br />
Arbeitsbereich Algorithmen und Datenstrukturen ......................................... 46<br />
Arbeitsbereich Computergraphik ................................................................. 49<br />
Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung ..................................... 54<br />
Arbeitsbereich Multidisciplinary Design ........................................................ 54<br />
Arbeitsbereich Human Computer Interaction ................................................ 55<br />
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme ............................... 59<br />
Arbeitsbereich Information & Software Engineering ..................................... 59<br />
Arbeitsbereich Interactive Media Systems .................................................... 67<br />
Arbeitsbereich Business Informatics ............................................................. 72<br />
Arbeitsbereich E-Commerce ........................................................................ 76<br />
4
Andere Institute der <strong>TU</strong> <strong>Wien</strong><br />
Department <strong>für</strong> Raumplanung ................................................................. 79<br />
Institut <strong>für</strong> Konstruktionswissenschaften und <strong>Technische</strong> Logistik ............ 80<br />
Institut <strong>für</strong> Managementwissenschaften .................................................. 81<br />
Institut <strong>für</strong> Automatisierungs- und Regelungstechnik ............................... 87<br />
Institut <strong>für</strong> Computertechnik ................................................................... 89<br />
In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen<br />
Medizinische Universität <strong>Wien</strong> ................................................................. 91<br />
5
Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong><br />
Arbeitsbereich Embedded Computing Systems<br />
Andreas Hagmann<br />
Performance Aware Hardware Runtime Monitors<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />
The field of research for runtime verification (RV) deals with verification<br />
methods, classified between common testing and formal verification. In a RV<br />
setting, the system under test (SUT) is observed by a runtime monitor that<br />
checks the monitored behaviour against a specification. Based on existing<br />
approaches, this thesis presents a RV framework, capable of observing embedded<br />
real-time systems. The proposed framework features a runtime monitoring<br />
unit, implemented as micro-processor architecture. The monitoring unit<br />
is built entirely in hardware and may be used stand-alone or integrated in the<br />
target system. It evaluates claims, specified as atomic propositions, Linear<br />
Temporal Logic, and Metric Temporal Logic formulas. The connection to the<br />
system under test is established by wire-taping its external interfaces. After an<br />
introduction to RV methods, this thesis captures the state-of-the-art and<br />
provides theoretical background. It proceeds with an analysis of existing parts<br />
and proposes optimizations on them. Thereby, the influence of different<br />
improvements is compared and verified by benchmarks, conducted with a<br />
software model of the runtime verification unit. Furthermore, the runtime verification<br />
framework is extended to support natively the evaluation of future<br />
time temporal formulas. A prototype implementation, shows the feasibility of<br />
the novel approach. The design of the RV unit is done with special focus on<br />
not influencing the behaviour of the SUT and getting along with the limited<br />
resources available within embedded systems. Benchmark results compare the<br />
improved runtime verification unit to the existing design and show a speed up<br />
factor of twelve. Synthesis runs show, that the proposed design fits well into a<br />
low-end commercial off-the-shelf FPGA. A case study completes this thesis and<br />
demonstrates the benefit of a RV unit within a real-world Unmanned Aerial<br />
System to detect erroneous sensor readings.<br />
6<br />
Markus Hofstätter<br />
Solving the Labeling Problem: A Byzantine Fault-Tolerant Self-Stabilizing FPGA<br />
Protoptye based on the FATAL+ Protocol<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />
The topic of this thesis lies in the intersection of VLSI design and fault-tolerant<br />
distributed algorithms. It is devoted to the development of an FPGA implemen-
tation of the well-known synchronous Phase King consensus algorithm using<br />
single-bit serial communication and the design of a suitable testbench for<br />
verifying its operation. The implementation is finally integrated into an existing<br />
prototype and testbench of the self-stabilizing Byzantine fault-tolerant distributed<br />
clock generation scheme FATAL+, where it is used to generate 17-bit<br />
wide synchronized clocks without increasing the stabilization time of the underlying<br />
scheme. The thesis also explores implementation alternatives and provides<br />
the correctness proofs of the employed algorithm.<br />
Karoly David Pados<br />
Design and Evaluation of an AXI4 Bus System<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />
To make system integration in VLSI designs easier and modular, a common<br />
interface for IP cores is desirable. Modules with standardized interfaces can be<br />
more easily integrated into existing designs or swapped out for new parts,<br />
should the need arise. Such an interface and the bus system that connects<br />
multiple components need to comply with several non-trivial requirements, like<br />
efcient power utilization, high throughput, low latency, being easily adaptable<br />
to multiple types of IP cores and providing implementation exibility to system<br />
integrators. For this reason, a number of competing interface standards have<br />
emerged. The focus of this thesis is the implementation and evaluation of such<br />
a standard and the accompanying interconnect for the AMBA AXI4 (Advanced<br />
eXtensible Interface version 4) bus. First, system-on-a-chip (SoC) bus systems<br />
and state of the art protocols are described to establish a good understanding<br />
and broad knowledge of the topic in general. Then functional and<br />
synthesizable IP cores are developed and presented for AXI4. These cores<br />
range from simple master and slave devices to fully functional interconnects, as<br />
well as components to support interoperability with older devices of the AMBA<br />
protocol suit. Also developed in this thesis are a simulation driver and a<br />
protocol monitor/checker to support validation. The components are then<br />
applied to the Scarts microprocessor where they are tested in a live<br />
environment. A detailed comparison of AXI4 and AMBA2 AHB is provided.<br />
Matej Pavlovic<br />
Implementation of a Distributed Computation Framework<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />
A recent paper "On Dynamic Distributed Computing" by Sébastien Gambs,<br />
Rachid Guerraoui, Florian Huc and Anne-Marie Kermarrec presents new<br />
algorithms that make it possible to perform reliable distributed computation on<br />
a dynamic network of nodes, despite a Byzantine adversary controlling an important<br />
fraction of the nodes. The network is partitioned into clusters of small<br />
7
size (polylogarithmic in the size of the network) that contain a majority of<br />
honest nodes with high probability. The clusters, interconnected by a<br />
randomized overlay network, provide an abstraction which makes it possible to<br />
perform reliable computation in a network containing unreliable nodes. The<br />
algorithms handle dynamic node addition and removal, as long as the size of<br />
the network changes polynomially with respect to its initial size. This document<br />
describes the first attempt to implement these algorithms. Although the<br />
implementation is not complete, it is usable under certain assumptions and<br />
provides a solid basis for future improvements. We discuss the challenges<br />
encountered during implementation, the assumptions that had to be made on<br />
the network and the adversary and possible ways to weaken or drop these<br />
assumptions by further improving the implementation.<br />
Martin Perner<br />
Self-Stabilizing Byzantine Fault-Tolerant Clock Distribution in Grids<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />
Diese Diplomarbeit präsentiert ein selbststabilisierendes, Byzantinisch<br />
fehlertolerantes Verfahren (HEX) zur Taktverteilung in einer hexagonalen Grid-<br />
Topologie. Typische Anwendungsgebiete sind VLSI-Schaltungen und andere<br />
parallele/netzwerkgekoppelte Systemarchitekturen, die genau synchronisierte<br />
Taktsignale in benachbarten Knoten benötigen. Im Gegensatz zur Taktverteilung<br />
mittels einer Baumtopologie toleriert HEX sowohl persistente als<br />
auch transiente Fehler im Grid und unterstützt mehrfache synchronisierte Taktquellen.<br />
Um das zu bewerkstelligen, läuft auf jedem Knoten im HEX-Grid ein<br />
einfacher verteilter Algorithmus, der Takte weiterleitet und auch lokal zur Verfügung<br />
stellt. Zentraler Gegenstand der Arbeit ist eine VHDL-Implementierung<br />
des HEX-Algorithmus. Ein speziell entwickeltes Testbed er-laubt die<br />
Instantiierung, Simulation und das Post-Processing von HEX-Grids. Das gesamte<br />
Design wurde mittels einer ASIC-Standardzellen-Bibliothek synthe-tisiert, um<br />
ein <strong>für</strong> die Simulation mittels Mentor Graphics's ModelSim geeig-netes Modell<br />
zu generieren. Umfassende Experimente wurden durch-geführt, um die<br />
Resultate der ebenfalls in dieser Arbeit dokumentierten theoretischen Analyse<br />
der Synchronisationsgenauigkeit (Skew) und der Stabilisierungszeit zu<br />
verifizieren. Diese bestätigten, dass die exotischen Worst-Case Szenarien in der<br />
Praxis unwahrscheinlich sind, sodass der typische Skew viel geringer als der<br />
Worst-Case ist. Experimente mit fehlerhaften Knoten, wo analytische Resultate<br />
nicht verfügbar sind, zeigten, dass HEX auch mit einer großen Anzahl<br />
fehlerhafter Knoten im Grid hervorragende Eigenschaften aufweist. Die<br />
Resultate dieser Arbeit, die vom Österreichischen Fonds zur Förderung der<br />
wissenschaftlichen Forschung (FWF) im Rahmen des Projekts FATAL (P21694)<br />
unterstützt wurde, konnten auch in den Proceedings der 6th International<br />
Conference on Dependability und des 25th ACM Symposium on Parallelism in<br />
Algorithms and Architectures publiziert werden.<br />
8
Kyrill Winkler<br />
Easy Impossibility Proofs for k-Set Agreement<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Ulrich Schmid<br />
This thesis is concerned with impossibility results, i.e., proofs of the fact that<br />
certain classes of algorithms cannot exist. The algorithms investigated are from<br />
the field of fault-tolerant distributed computing, which is devoted to the formal<br />
study of processing entities, modeled as communicating state machines, that<br />
may possibly fail and communicate with each other by either exchanging messages<br />
or via access to a shared memory. We investigate the problem of k-set<br />
agreement, a natural generalization of consensus. While consensus concerns<br />
itself with the task in which all processes eventually have to decide on a common<br />
value that was originally some process input value, k-set agreement allows<br />
up to k different decision values. Hence, for k = 1, k-set agreement is equivalent<br />
to consensus. Although there exist impossibility results for deter-ministic<br />
consensus in systems prone to failures, relying solely on com-binatoric<br />
arguments that might be considered classical today, the corresponding<br />
impossibility results for k-set agreement require complex argu-ments from<br />
algebraic topology. Nevertheless, there has been recent research on finding<br />
easy or non-topological impossibility proofs for k-set agreement, which may<br />
also provide a new handle on solving some long-standing open problems like<br />
the weakest failure detector for k-set agreement in message-passing systems.<br />
The focus of this thesis lies on such non-topological im-possibilities for k-set<br />
agreement. We present and discuss existing approaches and results and<br />
provide rigorous proofs for new results regarding various models and<br />
scenarios, including the important class of dynamic systems that may evolve<br />
over time. This work has been supported by the Austrian Science Fund (FWF)<br />
project RiSE (S11405).<br />
9
Institut <strong>für</strong> Rechnergestützte Automation<br />
Arbeitsbereich Automatisierungssysteme<br />
Christoph Auernig<br />
Kombinierte Formularfelder in Produktivitäts-Anwendungen: Eine<br />
vergleichende Usability-Evaluation<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Das heutzutage verwendete Formulardesign ist geprägt von der technischen<br />
Notwendigkeit <strong>für</strong> automatische Datenverarbeitung. Dies führt zu Formularen,<br />
die in viele kleine Felder aufgeteilt und mühsam auszufüllen sind. Verwandte<br />
Arbeiten im Bereich Such-Formulardesign schlagen vor, das dadurch entstehende<br />
Usability-Problem durch den Einsatz kombinierter Eingabefelder zu<br />
lösen. Die vorliegende Arbeit untersucht, ob die Idee von kombinierten<br />
Formularfeldern auch auf Formulare in Produktivitäts-Anwendungen wie z.B. in<br />
der Betriebswirtschaft oder im e-Government eingesetzt werden kann. Da<strong>für</strong><br />
wurde mit einem iterativen Designprozess ein Prototyp erstellt und mit konventionellem<br />
Formulardesign in einer Usability Evaluation verglichen. In dem in<br />
der vorliegenden Arbeit durchgeführten Usability Test wurde sechzehn<br />
Benutzern die Aufgabe gestellt, ein Benutzerprol eines sozialen Firmen-Netzwerkes<br />
auszufüllen. Die Resultate zeigen, dass die Benutzer keine Probleme im<br />
Umgang mit den kombinierten Eingabefeldern hatten. Anders als ähnliche<br />
Arbeiten zeigen die Resultate keinen signikanten Anstieg in der Ausfüll-Efzienz.<br />
Eine Langzeitstudie mit erfahreneren Benutzern könnte bessere Resultate<br />
zeigen. Jedoch waren die Testpersonen sehr zufrieden mit dem kombinierten<br />
Formular. Die Resultate bestätigen, dass die in der vorliegenden Arbeit<br />
entwickelten kombinierten Eingabefelder in Geschäfts- und Produktivitäts-<br />
Anwendungen verwendet werden können, um das visuelle Design zu verbessern<br />
und mehr Übersicht zu gewährleisten.<br />
10<br />
Florian Bartl<br />
Modelling a multi agent-system for smart homes<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Die Anzahl der Haushaltsgeräte steigt in modernen Häusern ständig. Um deren<br />
Kontrolle zu vereinfachen, wird Automatisierungstechnik eingesetzt. Durch die<br />
Integration zusätzlicher Geräte in die Steuerung/Regelung von Haustechniksystemen<br />
steigt jedoch die Komplexität des Systems weiter an. Zusätzlich wird<br />
die Energieeffizienz dieser Systeme immer wichtiger, unter anderen durch<br />
ökonomische Überlegungen sowie einem wachsenden Umweltbewusstsein.<br />
Moderne Haustechnik erlaubt es, Geräte und Funktionen im Haus zu kontrol-
lieren, ist aber komplex in Konfiguration und Bedienung. Dies macht es den<br />
Benutzern des Hauses schwer, Änderungen vorzunehmen und führt dazu, dass<br />
Einstellungen, wie Komforttemperatur, lediglich bei der Inbetriebnahme des<br />
Systems eingestellt, aber nie verändert werden. Um sicherzustellen, dass diese<br />
Systeme mit optimaler Effizienz arbeiten, ist somit ein autonomer Betrieb<br />
notwendig, bei dem die eingesetzten Systeme selbsttätig Aufgaben im Haus<br />
übernehmen und deren Umsetzung effizient gestalten. In dieser Arbeit wird<br />
eine auf künstliche Intelligenz basierende autonome Steuerung/Regelung <strong>für</strong><br />
ein Haus entwickelt. Der Systementwurf folgt einem Multi-Agenten Ansatz und<br />
wird mit Hilfe einer etablierten Agenten Methodik durchgeführt. Dabei sollen<br />
nicht nur klassische Haustechniksysteme wie Heizungs-, Lüftungs- und Klimaanlagen<br />
betrachtet werden, sondern alle Energieverbraucher sowie die<br />
Bewohner selbst in das System einbezogen werden. Dies wird mit Hilfe von<br />
Agenten, die auch die Bewohner repräsentieren, realisiert. Agenten vertreten<br />
die Interessen ihrer Abbilder und versuchen die Systeme im Haus so effizient<br />
wie möglich zu betreiben. Durch Ausnutzung des Multi-Agentenparadigmas<br />
und der Vorsehung von Kommunikationsbeziehungen zwischen Agenten wird<br />
ein dynamischer Betrieb ermöglicht, der parallel dazu die Einhaltung von<br />
Komfortparametern sicherstellt. Das System wird auf Basis einer detaillierten<br />
Spezifikation prototypisch umgesetzt und getestet.<br />
Markus Bruckner<br />
Design and Implementation of a Robust and Modular System for Monitoring<br />
and Reporting of Enterprise Storage Capacity<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
The increasing technologization of the business world yields many benefits.<br />
Various kinds of information are just accessible at any time. However,<br />
providing information requires storage space, and through the ever growing<br />
amount of digital information, the demand for additional storage space<br />
increases as well. The resulting need to cope with the continuously increasing<br />
demand for capacity is posing a considerable challenge for the information<br />
technology (IT) departments of organizations. Because of the large number of<br />
involved systems, keeping an overview of the overall consumption is hard. This<br />
problem concerns end users, which lack the ability of watching their space<br />
usage. Administrators are impeded by the lack of overview of the current<br />
situation and the consumption evolution as well. Further, capacity planning,<br />
charging user departments for consumed IT services, and justifying budget for<br />
new hardware against the executive management become more difficult. This<br />
thesis tries to address these problems. In a literature research the life cycle of<br />
data will be examined. Governance models will be explored with regard to their<br />
utilization of monitoring and reporting. Requirements will be derived from the<br />
topics of the literature research and complemented with experiences from a<br />
sample domain. Afterwards, a prototype will be implemented. The developed<br />
prototype constitutes a modular system to monitor and record resource<br />
consumption. It integrates seamlessly into existing infrastructures, for example<br />
11
y providing the ability to interface with existing directory services and<br />
authentication mechanisms. The reporting component provides the end users<br />
with personalized reports of their resource consumption. For the use by<br />
managers, administrators and other parties in charge of IT, the data can be<br />
summarized by users and departments or the whole organization. The<br />
component can be extended by additional modules and configured by an<br />
administration website.<br />
Adrian Marek Dabrowski<br />
Security Analysis of Metropolitan Locking Systems Using the Example of the<br />
City of Vienna<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
In this work, we carried out a black-box analysis of the electronic contact-less<br />
BEGEH system that has been steadily replacing the conventional mechanical BG<br />
key on multi-party houses in Vienna. The BG key has been introduced originally<br />
to allow mail delivery services to access multi-party houses but has since then<br />
aggregated additional users. We have found several vulnerabilities in the new<br />
system caused by the design, technology used, organization, and its implementation.<br />
We have further shown that the new system is circumventable with<br />
little costs.This effectively nullifies many security advantages promised by the<br />
manufacturer. We found a configuration issue, enabling access to 43% of all<br />
installations with a reprogrammed transponders worth approximately 2, such as<br />
an old ski pass. We have also shown that it is not necessary to break the<br />
encryption of the data, as it can be replayed together with its UID-derived key.<br />
Therefore, we built a card simulator for less than 20. We also conclude that the<br />
way blacklist updates are organized, raises the black market value of physically<br />
stolen keys. On two more examples (an electronic purse and an UID based<br />
access system) we demonstrated that similar issues are found in other systems<br />
as well. We show that UID based solutions offer a lower level of security than<br />
could be expected, especially when not enough attention is payed to the<br />
entropy of the UID space.<br />
Duc Hoa Do<br />
Möglichkeiten des Nachweises der funktionalen Sicherheit von technischen<br />
Systemen<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Em.O.Univ.Prof. Dr. Gerhard Helge Schildt<br />
12<br />
Die Einhaltung grundlegender sicherheitstechnische Prinzipien erhöht nicht nur<br />
die Zuverlässigkeit von technischen Systemen, sondern wird häufig auch vom<br />
Gesetz gefordert. Diese Diplomarbeit beschäftigt sich zuerst mit den zwei<br />
Normen EN 61508 und ISO 26262. Während die EN 61508 generisch ist und<br />
sich hauptsächlich mit der Risikobewertung von sicherheitsbezogenen tech-
nischen Systemen befasst, bezieht sich die ISO 26262 auf Serienfahrzeuge.<br />
Zentraler Begriff beider Normen ist das Maß der Sicherheitsrelevanz, die in SIL<br />
und ASIL angegeben wird. Danach wird das Sicheres Mikrocomputersystem<br />
SIMIS vorgestellt und Konzeption, Aufbau und Funktionsweise erläutert. Die<br />
Anwendung von FMECA ist ebenso eine anerkannte Methode, um die<br />
Sicherheit eines technischen Systems weiter zu verbessern. Hier wird auf die<br />
historische Entwicklung, Voraussetzung und Einsatzzweck, die FMECA Arbeitsblätter,<br />
Risikoprioritätszahl, Risikomatrix und die Grenzen der FMECA eingegangen.<br />
Die Verwendung von Funktionswächtern ist ein weiteres sicherheitstechnisches<br />
Prinzip. Nach zwei Einsatzbeispielen wird der grund-legende Aufbau<br />
dieser sogenannten Watchdogs erklärt sowie Architekturen und Ausführungen<br />
behandelt. Eine Skizzierung des optimalen Watchdogs wird vorgenommen<br />
und Ideen zu mehrstufigen Funktionswächtern werden angeboten.<br />
Die Funktionsweise des Ruhestromprinzips wird beschrieben und die Umsetzung<br />
in drei Anwendungsbeispielen veranschaulicht. Als letztes werden die<br />
Vorteile der Dynamisierung von Steuersignalen gezeigt. Die Um-setzung wird<br />
anhand einer Funktionsschaltung mit Transistorstufe und dem LOGISAFE<br />
Systems demonstriert.<br />
Fabian Fischer<br />
Automated Extraction of Economic Information from Underground<br />
Marketplaces Using Machine Learning<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
The Internet and e-commerce are ever-growing. This is not only the case for<br />
legitimate activities, but also for fraudulent activities. Credit cards are a<br />
convenient way of payment, on-line and in person. But credit card credentials<br />
are also an attractive target for fraudsters. This has led to a lively underground<br />
economy based around credit card data. Division of labor is also present in<br />
these underground economies. As a result, stolen credit card data are sold to<br />
those who can turn the data into cash. The places where this happens are<br />
underground marketplaces: This work tries to get a glimpse into these market<br />
places. We want to know what goods are traded at what price. And we want to<br />
know how that changes over time. To achieve this, we implemented a machine<br />
learning algorithm that can extract products in a very general sense, not<br />
confined to a certain product category. This algorithm leverages natural<br />
language processing for increased accuracy. Because we obtain the data from<br />
bulletin boards, it is known at what time an offer was posted. We also extract a<br />
products price. In a classification step, the products are narrowed down into<br />
classes and sub-classes. Additionally, location information is extracted, if<br />
present. All this enabled us to create a system that can learn from very few<br />
manually annotated documents and create a stock market-like output that<br />
shows the change of price over time. Price differences between regional<br />
origins of stolen data can be visualized, too.<br />
13
Jürgen Galler<br />
Content Aware Smart Routing<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Today's Internet has reached its scalability limits with respect to the number of<br />
participants and performance. Contemporary Internet devices are not just<br />
computers, but also tablets, smart phones and even small devices, like sensors<br />
and actuators. A variety of new technologies is inherent to these Internet<br />
appliances, like IPv6, ZigBee, 6LoWPAN or NFC. From the combination of these<br />
technologies a new paradigm arises, the so called Internet of Things (IoT). The<br />
problem of all these new services is how a service can be addressed. Typically,<br />
a client has to know the exact resource identifier (URI) in order to use a specific<br />
service hosted by a server somewhere in the Internet. This thesis provides a<br />
concept which relaxes the strong binding between service and server by the<br />
use of IPv6 focusing on the addressing of sensors and actuators. A client can<br />
place an unaddressed request to the so called content aware network. A smart<br />
router fetches the request and forwards it to a dedicated server, which is able<br />
to process the request. To this end, the request contains a semantic tag which<br />
is interpretable by participating network nodes. After the initial primary request<br />
is sent to its target server, this server examines the request and performs some<br />
secondary requests in order to set the corresponding actuators or to fetch<br />
current values from sensors. In addition to the correct routing of unaddressed<br />
requests, the content aware network is also able to route unaddressed data<br />
packets sent from sensor/actuator-units. Such a data packet can be sent for<br />
example on the change of a node's internal state. As a proof of concept, an<br />
elementary reference system is implemented which provides a reduced set of<br />
functionalities in order to evaluate the concept with respect to performance,<br />
security and fault tolerance. The network's performance, measured in the<br />
amount of messages, is compared to some theoretical alternative approaches.<br />
In order to preserve security, IPsec is investigated.<br />
Christof Kier<br />
Release- und Qualitätsmanagement (ITIL/CMMI) in Programmen mit starkem<br />
Bezug auf die Migration von Altsystemen und -prozessen<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
14<br />
Qualitativ hochwertige Softwaretechnik zu produzieren ist unerlässlich, um auf<br />
dem Markt zu bestehen und optimale Kundenzufriedenheit zu erreichen. Für<br />
diese Zielsetzung muss sich die Organisation mit Konzepten des Qualitätsmanagements<br />
und der Optimierung der eigenen Prozesse auseinandersetzen.<br />
Qualitäts- und Projektmanagement dienen als Querschnittinstanzen und Bindemechanismen<br />
zwischen den einzelnen Phasen der klassischen Softwaretechnik.<br />
Anerkannte Standards, Vorgehensweisen und qualitätsorientierte Prozesse<br />
sind gut in neu aufgesetzten Projekten anzuwenden, allerdings führt die
Einführung dieser Modelle in gewachsenen Strukturen und bei der Migration<br />
von Altsystemen vielschichtigen Problematiken. Mit diesen Fragen und dem<br />
Versuch der Beantwortung auf Basis von Praxisbeispielen setzt sich diese<br />
Diplomarbeit auseinander. Im Rahmen der theoretischen State of the Art-<br />
Grundlagenarbeit werden Methoden und Vorgehensmodelle <strong>für</strong> Softwareprojektmanagement,<br />
Qualitätsmanagement und Qualitätssicherung sowie die<br />
Kernprozesse der Service-Inbetriebnahme und das Change- und Releasemanagement<br />
aus dem De-facto-Standard ITIL dargelegt. Die organisatorische<br />
und prozessuale Anpassungsfähigkeit, besonders im Release- und Changemanagement,<br />
ist dabei ein wichtiger Bestandteil. Im Rahmen der vorliegenden<br />
Arbeit werden Effektivität und Effizienz aus in der Fachliteratur beschriebenen<br />
Vorgehensmodellen in einen Praxisbezug im Projekt- und Programmmanagement<br />
gebracht und die Alltagstauglichkeit anhand praktischer Beispiele aus<br />
dem Projektalltag aufgezeigt. Dabei werden Qualitäts- und Release-prozesse<br />
aus dem Theorieteil in der Praxis verwendeten Prozessen gegen-über-gestellt<br />
und Erweiterungen erarbeitet. Im Rahmen der vorliegenden Arbeit wurden<br />
diese Ansätze <strong>für</strong> Release- und Qualitätsmanagement in Projekten im<br />
Migrationsumfeld von Altsystemen beleuchtet und daraus ein erkennbarer<br />
Regelbetrieb <strong>für</strong> eine leane Planung und eine Planung bei maximal möglichem<br />
Ressourcenstand abgeleitet.<br />
Bernhard Miller<br />
iHoneyClient - Discovery and Analysis of Malware for Mac OS X<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Over the last few years, Apples operating system OS X has steadily increased its<br />
user base. Today, an estimated 7.5% of all computers worldwide are running<br />
OS X. One reason for this advancement is the platforms questionable reputation<br />
of being inherently safe. However, the growing popularity of Apple<br />
computers has called criminals to attention. An increasing number of malware<br />
families is specifically targeting OS X. While there is a substantial body of research<br />
and tools dealing with malware on Windows and, more recently,<br />
Android systems, OS X has received little attention from security researchers so<br />
far. To amend this shortcoming, I implemented iHoneyClient, a tool to discover<br />
and analyze Mac malware. iHoneyClient offers a high-interaction client honeypot<br />
based on OS X that simulates an end user browsing the web on an Apple<br />
computer. The honeypot is able to examine the threat a website poses to OS X<br />
users. In addition, I built a dynamic analysis sandbox based on iHoneyClient.<br />
With this sandbox it is possible to execute Mac malware samples in an isolated<br />
environment and monitor their behavior. I used iHoneyClient to evaluate over<br />
6,000 blacklisted URLs to estimate how widespread malware for OS X is today.<br />
Furthermore, I used the dynamic analysis environment to analyze 174 malware<br />
samples. The combined results give an overview of the current state of OS X<br />
malware. While several advanced malware families for OS X exist, it is highly<br />
unlikely to become infected by simply browsing the web.<br />
15
Christian Pfeifhofer<br />
Silent Installs - Studying the Dark Side of the Pay-Per-Install Business<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Ausgefeilte Geschäftsmodelle bilden heutzutage die Grundlage <strong>für</strong> den<br />
Vertrieb und die Entwicklung von Malware. Kriminelle Organisationen haben<br />
Geschäftspraktiken, die im legalen Bereich schon lange als etabliert gelten,<br />
übernommen, und an die Gegebenheiten der Schattenwirtschaft im Internet<br />
angepasst. Sie erreichen damit eine effizientere Arbeitsteilung, sodass Kernkompetenzen<br />
bestmöglich zum Einsatz gebracht werden können. Die Verteilung<br />
von Schadsoftware ist dementsprechend oft ein Unterfangen, an dem<br />
mehrere, spezialisierte Gruppen beteiligt sind. Ein Beispiel <strong>für</strong> eine solcherart<br />
spezialisierte Gruppe ist der Pay-Per-Install (PPI) Provider. PPI Provider verkaufen<br />
die Ausführung bösartiger Programme auf gekaperten Computern als Service<br />
an andere Kriminelle (Clienten), welchen die Fähigkeit zur effizienten Schadsoftwareverteilung<br />
fehlt. PPI Affiliates führen dann im Rahmen von Partnerprogrammen<br />
die tatsächliche Verbreitung durch und werden vom PPI Provider<br />
<strong>für</strong> jede Installation bezahlt. Diese Arbeit konzentriert sich auf PPI Provider mit<br />
Partnerprogrammen, und beleuchtet deren Geschäftsmodell aus unterschiedlichen<br />
Perspektiven. Wir analysieren Infra-struktur und Software von PPI<br />
Providern, um neuartige Erkenntnisse über die zugrundeliegende Wertschöpfungskette<br />
zu gewinnen. Über einen Zeitraum von sechs Monaten beobachteten<br />
wir das Verhalten von 33 PPI Supportmitarbeitern und identifizierten<br />
damit Gemeinsamkeiten von Webseiten, obwohl diese scheinbar nicht<br />
in Beziehung stehen. Darauf aufbauend beschreiben wir die Gründung und<br />
Bewerbung unseres eigenen PPI Affiliate Programms, welches letztendlich eine<br />
potenzielle Infektionskapazität von 55.000 Computern pro Tag erreicht hat.<br />
Abschließend identifizieren wir wichtige ökonomische Eigenschaften des PPI<br />
Geschäftsmodells und fassen unsere Resultate unter Anwendung der Business<br />
Model Ontology zusammen.<br />
Thomas Renner<br />
E-Learning-Plattform <strong>für</strong> <strong>Technische</strong> Grundlagen der <strong>Informatik</strong><br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ass.Prof. Dr. Monika Di Angelo<br />
16<br />
Im Rahmen dieser Arbeit wird das Konzept einer E-Learning-Plattform <strong>für</strong> die<br />
Lehrveranstaltung <strong>Technische</strong> Grundlagen der <strong>Informatik</strong> an der <strong>Technische</strong>n<br />
Universität <strong>Wien</strong> entwickelt. Die E-Learning-Plattform wurde in <strong>TU</strong>WEL umgesetzt.<br />
<strong>TU</strong>WEL ist eine Moodle Installation der <strong>Technische</strong>n Universität und<br />
steht allen Studierenden zur Verfügung. Im ersten Teil der Arbeit werden<br />
theoretische Grundlagen ausgearbeitet, auf denen die Umsetzung aufbaut.<br />
Zunächst wird das Potenzial von E-Learning im Allgemeinen erörtert, danach<br />
wird ein Vergleich zwischen papierbasiertem Lernen mit E-Learning gezogen.<br />
Ebenso werden theoretische Grundlagen <strong>für</strong> die Gestaltung von E-Learning
Plattformen aufgearbeitet. Nach Definitionen <strong>für</strong> die einzelnen Ebenen im E-<br />
Learning werden besonders die Einflussfaktoren bei der Gestaltung von E-<br />
Learning Plattformen erörtert. Des Weiteren werden wichtige Erfolgsfaktoren<br />
<strong>für</strong> die Gestaltung einer E-Learning Plattform aufgezeigt. Danach wird auf jene<br />
Funktionalitäten und deren lerntheoretische Anwendung von Moodle eingegangen,<br />
die in der konzeptionellen Umsetzung <strong>für</strong> die Lehrveransaltung<br />
<strong>Technische</strong> Grundlagen der <strong>Informatik</strong> Einsatz finden. Die konkrete Umsetzung<br />
des Konzepts erfolgt als <strong>TU</strong>WEL-Testkurs, der Einsatz von Bestandteilen obliegt<br />
der Verantwortung der Lehrveranstaltungsleitung.<br />
Gregor Ryba<br />
Authorization as a Service - Evaluating the Platform as a Service Paradigm for<br />
XACML Policy Decision Points<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
The "Internet of Things" vision refers to an Internet that is not completely<br />
dependent on humans creating information. It tries to incorporate the physical<br />
world with its objects. The smart grid is one application of this vision. It<br />
integrates ICT technology into the traditional power grid to cope with the new<br />
requirements that are arising out of its continuing expansion and the incorporation<br />
of new energy sources. Because of interoperability many of these ICT<br />
devices are relying on Web services for transportation of the data generated.<br />
Since most of this data is sensitive, privacy needs to be established. The huge<br />
number of devices that are involved in such a system requires high scalability.<br />
Based on an example scenario arising out of the smart grid, this thesis<br />
introduces an architecture offering authorization as a service. It is based on the<br />
two standards XACML and SAML. It is documented with the 4+1 view model<br />
and a software prototype is implemented. This prototype is then deployed to<br />
the PaaS framework Appscale. Appscale is an open source implementation of<br />
Google's App Engine framework. It enables the execution of applications in a<br />
cloud environment, without the need to take care of the issues arising out of<br />
the distributed computing model. For comparison a version of this architecture<br />
runnable on an on-premises system is developed. Evaluation of the prototype<br />
focuses on its scalability. Load tests are run against the system in various<br />
configurations with all distributed databases offered by Appscale. The<br />
recorded results are ranging from a very unstable behaviour to the awaited<br />
scalability dependent on the number of nodes used for Appscale deployment.<br />
17
Paul Staroch<br />
A Weather Ontology for Predictive Control in Smart Homes<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
In the past few years, the idea of creating smart homes has gained popularity.<br />
A smart home possesses some kind of intelligence that allows it to support its<br />
inhabitants. The overall goal is to increase the inhabitants' comfort while<br />
energy use and costs are reduced as well. In the context of a project aimed at<br />
building smart home systems, this thesis aims at constructing an OWL ontology<br />
for weather information, containing data about both current conditions and<br />
weather forecasts. The data described by this ontology will enable smart home<br />
systems to make decisions based on current and future weather conditions. At<br />
first, the thesis will determine in which particular ways weather data can be<br />
used within smart homes. Furthermore, possible sources for weather data will<br />
be analysed. Primary sources will be weather services that are that are accessible<br />
via Internet. Optionally, local weather stations will be able to provide<br />
further data about current weather conditions. A set of Internet-based sources<br />
for weather data will be reviewed for their suitability for use within smart<br />
homes. Afterwards, existing ontologies will be reviewed for their structure,<br />
advantages, and disadvantages in order to acquire ideas being suitable to be<br />
re-used. Several well-known approaches for building new ontologies from<br />
scratch will be discussed in detail. The thesis will follow METHONTOLOGY, the<br />
best-fitting of these approaches, to build Smart-HomeWeather, an OWL<br />
ontology that covers both the weather data being available and the concepts<br />
required to perform weather-related tasks within smart homes while always<br />
keeping the possibility of simple and efficient OWL reasoning in mind. Eventually,<br />
Weather Importer, a Java application, will be developed that gathers<br />
data from weather services and local weather stations and transforms it to<br />
comply with the SmartHomeWeather ontology.<br />
Martin Stütz<br />
Detecting Illicit Content in Picture Streams<br />
Studium: Masterstudium Information & Knowledge Management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
18<br />
Diese Arbeit beschreibt einen Algorithmus zur Erkennung von Farbbildern mit<br />
pornographischen oder gänzlich illegalen Inhalten. Dazu kann der Algorithmus<br />
eine Altersklassifizierung anhand von gesichtsbasierter Geometrie durchführen.<br />
Der Algorithmus erweitert den Algorithm for Nudity Detection von Rigan Apapid<br />
durch die Verwendung von Support Vector Machines und Methoden zur<br />
Eliminierung von Fehlalarmen. Die Nacktheits- und Pornographieerkennung<br />
basiert auf Hauterkennung. Mithilfe von Hauterkennung können Hautflächen in<br />
Bildern lokalisiert werden. Größen, Formen und Distanzen der erkannten Hautflächen<br />
zueinander werden als Features zur Beschreibung der Inhalte von<br />
Bildern verwendet. Basierend auf diesen Features und dem Gesamtanteil von
Haut wird das Bild durch eine Support Vector Machine als verfänglich oder<br />
unverfänglich klassifiziert. Die analysierten Bilder werden mittels OpenCv nach<br />
Gesichtern durchsucht. Positionen von Augen, Mund, Nase und Kinn werden<br />
innerhalb von erkannten Gesichtern ermittelt. Eine Support Vector Machine<br />
klassifiziert die Gesichter anhand der Distanzen zwischen diesen Gesichtsmerkmalen<br />
in zwei Klassen (>18 und
prozesses, basierend auf dem TMMi Bewertungsstandard, durchgeführt und in<br />
einer Tabelle zusammenfassend dargestellt.<br />
Jürgen Weidinger<br />
Integration der Gebäudeautomation in das Internet der Dinge<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Das Internet der Dinge (IoT) hat das Ziel, Komponenten der physischen Welt<br />
mit dem Cyberspace zu verbinden und Informationslücken zwischen der realen<br />
und virtuellen Welt zu minimieren. Durch die Entwicklung von Internet Protocol<br />
Version 6 IPv6 können zirka 340 Sextillionen Geräte eindeutig identifiziert<br />
werden. IPv6 ist damit ein wichtiger Wegbereiter zur Realisierung der Vision<br />
des IoT. Eine zukünftige Anwendungsdomäne im IoT betrifft die Gebäudeautomation<br />
mit Funktionen aus der Heizungs-, Lüftungs-, Klima-technik, Beleuchtung<br />
und Verschattung. Das Zusammenwirken von Komponenten der<br />
technischen Gebäudeausrüstung ermöglicht auch die Einführung von Energiemanagementsystemen.<br />
Zusätzlich besteht der Bedarf der Integration von<br />
Gebäudeautomationssystemen mit Geschäftsprozessen. Web-Services sind<br />
eine Schlüsseltechnologie zur Gewährleistung von Interoperabilität zwischen<br />
unterschiedlichen Systemen. Diese Arbeit präsentiert einen Protokollstack <strong>für</strong><br />
das IoT, der Interoperabilität unterschiedlicher Gebäudeautomationssysteme<br />
gewährleistet und eine eindeutige Identifizierung der Geräte mittels IPv6-<br />
Adressen ermöglicht. Der IoT-Stack basiert auf dem oBIX-Web-Service-Standard<br />
und erreicht Interoperabilität durch generische Typdefinitionen <strong>für</strong> zugrundeliegende<br />
Gerätschaften. Für die Optimierung hinsichtlich Effizienz des Übertragungsprotokolls<br />
wird im IoT-Stack das Constrained Application Protocol<br />
(CoAP) eingesetzt. Bezüglich Optimierung der Payloadgröße stehen unterschiedliche<br />
Kodierungsverfahren zu Verfügung. Im Rahmen der Arbeit wird ein<br />
transparentes Gateway <strong>für</strong> eine RESTful M2M-Kommunikation mit bestehenden<br />
Automationssystemen entwickelt. Evaluierungen untersuchen die Effizienz der<br />
Nutzdatenkodierungsverfahren und beziehen die Client/Gateway-Interaktion<br />
der vom IoT-Stack zur Verfügung stehenden HTTP- und CoAP-Bindings mit ein.<br />
Die Analyse zeigt deutlich, dass eine effiziente und interoperable Kommunikation<br />
durch den IoT-Stack ermöglicht wird.<br />
Boris Wrubel<br />
Planung und Implementierung von angemessenen agilen Testmethoden und<br />
Testautomatisierungsstrategien <strong>für</strong> ein teilprojektreiches<br />
Technologieintegrationsprojekt<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
20<br />
Agiles Testen ist ein in der derzeitigen Theorie und Praxis des Softwaretestens<br />
wenig behandeltes Gebiet, obwohl die agile Softwareentwicklung eine Realität
geworden ist, die nach dazu passenden Testansätzen verlangt. Damit<br />
verändern sich nicht nur die Aufgabengebiete im Test, es kommen auch ganz<br />
neue Schwerpunkte und Verantwortungen zum Tragen. Was dieser Wandel <strong>für</strong><br />
den agilen Test bedeutet, wird in der vorliegenden Arbeit anhand eines<br />
konkreten Fallbeispiels erläutert. Die Analyse zeigt diverse Probleme, die<br />
entstehen können, wenn klassisches Testvorgehen auf agile Softwareentwicklung<br />
trifft und sie macht umso mehr deutlich, dass im Softwaretest ein<br />
Paradigmenwechsel angesagt ist. Gleichzeitig werden Lösungsansätze herausgearbeitet<br />
und in Folge ein beispielhafter agiler Testansatz vorgestellt. Der hier<br />
vorgestellte agile Testansatz beinhaltet einen Testprozess <strong>für</strong> agile Vorgehensmodelle<br />
und zeigt darüber hinaus auf, wie sich Testautomatisierung effizient in<br />
diesen integrieren lässt. Im Zusammenhang damit wird dargestellt, wie sich der<br />
Softwaretest die in der iterativen Entwicklung bereits etablierte Methode der<br />
Continuous Integration zunutze machen kann. Des Weiteren wird gezeigt,<br />
welche Wichtigkeit der Einsatz von passenden Werkzeugen im agilen Test hat<br />
und welche Bedeutung daher der Evaluierung dieser Tools zukommt.<br />
Abschließend wird der Wandel des Rollenbildes des Testers im agilen Umfeld<br />
behandelt, denn agile Testmodelle verlangen auch nach einem neuen<br />
Jobprofil des Testers.<br />
Min Zheng<br />
Simulationstools <strong>für</strong> die Lehrveranstaltung <strong>Technische</strong> Grundlagen der<br />
<strong>Informatik</strong><br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ass.Prof. Dr. Monika Di Angelo<br />
Simulationen werden immer häufiger in der Wissenschaft eingesetzt. Auch in<br />
der Didaktik ist dies der Fall. Darum beschäftigt sich die hier vorliegende Arbeit<br />
mit dem Einsatz von Simulationstools <strong>für</strong> die Lehrveranstaltung <strong>Technische</strong><br />
Grundlagen der <strong>Informatik</strong>. Des Weiteren wird das didaktische Konzept des<br />
Blended Learning <strong>für</strong> diese Arbeit herangezogen, da dieses unterschiedliche<br />
Medien und didaktische Konzepte vereint. Für den näheren Selektionsprozess<br />
werden 40 Tools ausgewählt, die in dieser Arbeit evaluiert werden. Auch wird<br />
zu den jeweiligen Themengebieten dieser Lehrveranstaltung mindestens ein<br />
Tool vorgeschlagen, welches zum Einsatz kommen könnte. Daneben wird zu<br />
jedem Bereich ein Übungsbeispiel mit dem am besten bewerteten Tool<br />
geliefert.<br />
21
Arbeitsbereich Computer Vision<br />
Karin Gisperg<br />
Extraction of Geometric Objects from TLS Pointclouds of Historical Facades<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
Terrestrisches Laser Scanning (TLS) ist ein berührungsloses 3d-<br />
Datenerfassungssystem, welches z.B. in der Geomatik oder dem Denkmal- und<br />
Kulturgüterschutz verwendet wird. Abhängig vom Prinzip der Distanzmessung<br />
können Reichweiten bis zu 4000 m (RIEGL VZ-4000) oder Messraten von<br />
976.000 Punkten/Sekunde (Faro Photon 120) erreicht werden. Ziel dieser<br />
Diplomarbeit ist die Implementierung eines automatisierten und robusten<br />
Prozesses zur Verarbeitung von TLS-Punkwolken historischer Fassaden.<br />
Basierend auf einer RANSAC unterstützen Methode wird die Struktur der<br />
Fassade durch geometrische Grundformen wie Ebenen, Kugeln oder Zylinder<br />
beschrieben. Abhängig von den Aufnahmebedingungen wird mithilfe dieser<br />
Methode eine Segmentierung der Objekte erreicht. Um die Performance<br />
hinsichtlich der großen Datenmenge und die Qualität der Resultate zu steigern,<br />
werden Optimierungen im Bereich der Modellinitialisierung (gestaffelte<br />
Initialisierungsumgebung) und der Lokalisierung von Punkten (kd-tree) umgesetzt.<br />
Um Redundanz zu vermeiden, werden die Symmetrieeigenschaften<br />
der Fassade untersucht. Es wird angenommen, dass klassizistische Fenster und<br />
deren Umrandungen symmetrisch angeordnet sind. Die Konturen der Fenster<br />
werden extrahiert und die Fassade in Regions Of Interest aufgeteilt. Diese<br />
werden anschließend mithilfe des Iterative Closest Point Algorithmus<br />
miteinander verglichen und ein Similaritätsmaß anhand der gemittelten<br />
quadrierten Distanzen ermittelt. Es wird gezeigt, dass dieses Kriterium in<br />
Kombination mit Otsu's Schwellenwertermittlung einen ausreichende Klassifizierung<br />
in symmetrische und nicht-symmetrische ROIs ergibt. Sind zwei<br />
Regionen symmetrisch, so werden sie einem Fenstermodell zugeordnet,<br />
welches durch jede weitere Instanz verfeinert wird. Letztendlich wird die<br />
Fassade durch die unterschiedlichen Fenstermodelle repräsentiert, welche aus<br />
den geometrischen Grundformen, den verbleibenden Punkten und den<br />
Einfügekriterien bestehen.<br />
Manuel Keglevic<br />
Automatic Recognition of Weather Records<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
22<br />
Even before the use of computers, meteorological data was recorded for<br />
statistics by means of handwritten notes. In addition to those handwritten<br />
documents stored in historic archives, processes, as manually filling in<br />
measurement values into forms, still depend on pen and paper. However,<br />
manually digitizing this data for further processing is cumbersome. In this
thesis, a character recognition system for automatically digitizing handwritten<br />
weather records is proposed. The weather record dataset regarded in this<br />
thesis consists of known printed forms with handwritten meteorological<br />
measurements. The scope of this thesis are the numeric temperature values<br />
which are measured at three different points of time. The localization of the<br />
numerical data is achieved by first reconstructing the tabular structure of the<br />
form. Using vertical and horizontal projection profiles, the rough positions of<br />
the lines building up the table are found. Errors in the layout analysis are<br />
corrected using a-propri information of the form. Additionally, to reduce the<br />
influence of spurious lines, a stroke preserving line removal method is<br />
proposed. The extraction of the digits and signs is done using a binarization<br />
based on the Savakis filter. Using a trained PCA basis as a filterbank the<br />
features of the digits and signs are extracted and subsequently classified with<br />
multiple SVM with RBF kernels. Moreover, to allow an identification of<br />
uncertain prediction results, the class probabilities are estimated. The<br />
evaluation was conducted using three different digit databases with manually<br />
annotated ground truth, synthetically generated digit images with spurious<br />
lines and weather records from five different measurement stations. On a<br />
dataset with weather records from five different measurement stations an<br />
accuracy of 93% per digit is achieved. Furthermore, on a dataset containing<br />
only weather records from a single writer the performance is improved to over<br />
99%.<br />
Karin Kernegger<br />
Improving Error Detection Rate Using Retesting in Automated Security Testing<br />
Tools<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Privatdoz. Dr. Martin Kampel<br />
Qualitätssicherung ist ein wichtiger Teil des Softwareentwicklungsprozesses.<br />
Diese kann unter anderem mit Hilfe von Sicherheitstests hergestellt werden.<br />
Das Ziel dabei ist es, so viele Sicherheitslücken wie möglich zu finden, weil<br />
versteckte Schwachstellen von einem Angreifer entdeckt und ausgenützt<br />
werden könnten. Heutzutage existieren verschiedene Ansätze und Werkzeuge,<br />
um automatisierte Sicherheitstests durchzuführen, allerdings können diese<br />
Angriffe, wie zum Beispiel SQL Injections oder XSS Attacken, nicht aufdecken.<br />
Das Ziel dieser Arbeit ist es, ein automatisiertes Sicherheitstestwerkzeug mit<br />
Hilfe von Retesting zu verbessern, sodass auch diese versteckten Sicherheitslücken<br />
gefunden werden können. Zunächst wird eine umfassende Literaturrecherche<br />
durchgeführt, in der automatisierte Sicherheitstestwerkzeuge vergleichend<br />
dargestellt wurden. Weitere Literaturrecherchen werden durch-geführt<br />
zu dem Thema des Retestings selbst sowie zu verschiedenen Konzepten, die<br />
notwendig sind, um Retesting im Rahmen eines automatisierten Sicherheitstestwerkzeuges<br />
umzusetzen. Ein Beispiel hier<strong>für</strong> wäre automatisiertes Lernen.<br />
Basierend auf diesen Recherchen wird in dieser Arbeit ein selbst erarbeitetes<br />
Retesting Konzept vorgestellt: Zunächst erfasst das automatische Sicherheitstestwerkzeug<br />
im Rahmen einer Lernphase, wie das normale Verhalten des<br />
23
getesteten Systems wie zum Beispiel die normale Antwortzeit oder die normale<br />
CPU Auslastung ist. In der darauffolgenden Testphase werden bösartige Eingabewerte<br />
zu dem System gesendet. Wenn dabei ein abnormales Verhalten<br />
beobachtet wird, wird ein Retest durchgeführt. Das ist notwendig, um das<br />
Ergebnis des ersten Tests zu bestätigen. Dieses Konzept wird in ein schon<br />
bestehendes Sicherheitstestwerkzeug eingebaut. Die Ergebnisse im Rahmen<br />
eines Machbarkeitsnachweises zeigen, dass Retesting nicht nur hilft,<br />
Sicherheitslücken aufzuzeigen, sondern es kann auch die Anzahl der gemeldeten<br />
false positives reduzieren.<br />
Joachim Ofner<br />
Computational Analysis of Textures Related to Idiopathic Interstitial Pneumonia<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
The thesis compares texture features for fully automated quantification of<br />
Diffuse Parenchymal Lung Disease (DPLD) related pathological tissue in High<br />
Resolution Computed Tomography (HRCT) images. Features are implemented<br />
as classical local texture features and with the Bag of Features approach.<br />
Feature selection is tested as well. Furthermore, the stability of automatically<br />
generated class labels compared to ground truth labels is analyzed. The<br />
approach was evaluated on 97 HRCT images of pathological lung tissue. Slice<br />
thickness was 1mm and inter-slice distance 10mm. A ground truth containing<br />
healthy and four pathologic patterns (emphysema, ground glass, fibrosis,<br />
micromodules) with delineated regions created by three radiologists was<br />
available. We generated texture features (Gray Level Histograms, Local Binary<br />
Patterns, Haralick features, a Gaussian Filterbank and Riesz features) and<br />
evaluated the classification performance of the two texture formulations on<br />
volume level with a 10-fold cross validation. Random Forests were used as<br />
classifier, providing additional information of feature importance to be used for<br />
feature selection. Haralick features performed best as local texture features<br />
with 69.59% classification accuracy. With 76.17% Local Binary Patterns reach<br />
the highest performance in the Bag of Features formulation in manually<br />
generated regions of the ground truth. Feature selection does not improve<br />
classification results significantly. Ground truth class labels reach a stability of<br />
71%. This stability is slightly outperformed by automatically generated labels.<br />
The results suggest the use of Local Binary Patterns, as computationally<br />
efficient local texture features in combination with the Bag of Features<br />
approach. This feature formulation provides high flexibility together with<br />
efficiency. Lung texture classification applications have to get more<br />
independent of manually created ground truth.<br />
24
Michael Opitz<br />
Text Detection and Recognition in Natural Scene Images<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
Text detection and recognition in natural scene images has applications in<br />
computer vision systems such as license plate detection, automatic street sign<br />
translation, image retrieval and help for visually impaired people. Scene text,<br />
however, may have complex background, image blur, partially occluded text,<br />
variations in font-styles, image noise and varying illumination. Hence scene<br />
text recognition is a challenging computer vision problem. This work addresses<br />
the problem of dictionary driven end-to-end scene text recognition, which is<br />
divided into a text detection problem and a text recognition problem. For text<br />
detection an AdaBoost sliding window classifier is used to detect text in<br />
multiple scales. The effectiveness of several feature-sets for this classifier are<br />
compared and evaluated. A modified Local Ternary Pattern (LTP) feature-set is<br />
found as most effective for text detection. In a post-processing stage Maximally<br />
Stable Extremal Regions (MSER) are detected and labeled as text or non-text.<br />
Text regions are grouped to textlines. Textlines are split into words by a wordsplitting<br />
method build upon k-means and linear Support Vector Machines<br />
(SVM). For text recognition a deep Convolutional Neural Network (CNN) trained<br />
with backpropagation is used as one-dimensional sliding window classifier. To<br />
avoid overfitting the network is regularized by Dropout. Recognition responses<br />
are used in a Viterbi-style algorithm to find the most plausible word in a<br />
dictionary. The influence of training set size and size of convolutional layers is<br />
evaluated. The system presented outperforms state of the art methods on the<br />
ICDAR 2003 and 2011 dataset in the text-detection (F-score: 74.2% / 76.7%),<br />
dictionary-driven cropped-word recognition (F-score: 87.1% / 87.1%) and<br />
dictionary-driven end-to-end recognition (F-score: 72.6% / 72.3%) tasks.<br />
Thomas Pönitz<br />
Efficient Retrieval of Near-Duplicate Images<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Privatdoz. Dr. Martin Kampel<br />
Aufgrund der kontinuierlich steigenden Menge an digitalen Bildern und dem<br />
ständigen Wachstum an verfügbarer Speicherkapazität, sind umfangreiche<br />
Bilddatenbanken weit verbreitet. Eine spezielle Herausforderung ist eine Bilddatenbank<br />
auf nahezu identische Bilder zu durchsuchen. Ein da<strong>für</strong> konzipiertes<br />
System akzeptiert Bilder als Suchanfragen und liefert gegebenenfalls entsprechende<br />
Originale zurück. Die Schwierigkeit dabei ist eine Bildrepräsentation<br />
zu finden die robust in Bezug auf diese Transformationen ist. Gleichzeitig<br />
soll die Ähnlichkeit zweier Repräsentationen effizient zu berechnen sein<br />
oder die Repräsentationen sollten indizierbar sein. Im ersten Fall kann die<br />
Datenbank linear durchsucht werden, während im zweiten Fall eine effiziente<br />
Suchstruktur aufgebaut werden kann. Die Bags of Visual Words Methode hat<br />
25
sich als geeignet herausgestellt. Dabei wird ein Bild durch die Häufigkeiten<br />
seiner enthaltenen visuellen Worte beschrieben. Diese visuellen Worte werden<br />
von lokalen Bildmerkmalen abgeleitet. Methoden auf dem aktuellen Stand der<br />
Wissenschaft verwenden SIFT Merkmale, welche den Nachteil einer aufwendigen<br />
Berechnung haben. Um dem entgegenzuwirken werden in dieser<br />
Arbeit SIFT Merkmale durch binäre Merkmale ersetzt. Binäre Merkmale bestehen<br />
aus einer einfachen Liste an Bits und ermöglichen bestimmte Schritte der Bags<br />
of Visual Words Methode effizienter durchzuführen. Das Erzeugen der visuellen<br />
Worte ist einer dieser Schritte und äußerst zeitaufwändig. Ein alternativer<br />
Clustering-Algorithmus, kShifts, wird untersucht, um diesen Schritt effizienter<br />
durchzuführen. Weiters wird der kMeans Algorithmus <strong>für</strong> binäre Merkmale<br />
angepasst und mit kShifts verglichen. Für die Evaluierung des vorgestellten<br />
Systems werden frei verfügbare Bilddatenbanken verwendet. Ein Vergleich mit<br />
aktuellen Methoden wird gezogen. Zusätzlich wird eine Bilddatenbank mit circa<br />
1,000,000 Pressebildern als praxisorientierter Anwendungsfall untersucht.<br />
Christopher Pramerdorfer<br />
Depth Data Analysis for Fall Detection<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Privatdoz. Dr. Martin Kampel<br />
Falls are a leading cause for accidental deaths among persons aged 65 or<br />
older. Fall victims require immediate assistance in order to minimize morbidity<br />
and mortality rates. However, statistically every other fall victim is unable to get<br />
back up without help. The aim of fall detection is to ensure fast assistance by<br />
automatically informing caretakers in case of falls. Different methods have<br />
been proposed for this purpose, but there are still unresolved issues that limit<br />
the applicability of fall detection systems in practice. This thesis introduces a<br />
new fall detection system using current depth-sensing technology, with the<br />
aim of addressing these limitations. This sensor technology has several<br />
advantages over alternatives; it is unobtrusive, preserves the privacy of subjects,<br />
and works independently of lighting conditions, allowing for continuous<br />
monitoring. The generated data enables powerful scene analysis and,<br />
consequently, reliable fall detection. The applicability of this technology is<br />
verified by means of a quantitative analysis, in order to assess its limitations<br />
and data quality. In contrast to existing methods, the proposed system<br />
emphasizes person detection and tracking, which allows for robust temporal<br />
analysis and thus improves fall detection performance. To this end, this work<br />
also proposes a new motion detection algorithm optimized for depth data and<br />
fall detection. Furthermore, this work contributes to the research field of<br />
tracking by introducing effective means for tracking multiple persons. The<br />
proposed system is easy to set up, plug and play, and can run on inexpensive<br />
low-end hardware, promoting broad acceptance. This work shows that reliable<br />
fall detection in depth data is possible, as verified on a comprehensive fall<br />
database. At the time of writing, the system is tested under practical conditions<br />
in four countries, with promising first results.<br />
26
Institut <strong>für</strong> Informationssysteme<br />
Arbeitsbereich Distributed Systems<br />
Denitsa Djamiykova<br />
Monitoring the Correspondence of Physical and Virtual Network Resources in<br />
OpenFlow Based Software Defined Networks<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Mit der steigenden Popularität des Cloud Computings, nimmt auch die<br />
Notwendigkeit von leichten Bereitstellen, Migration und Voraussagen der<br />
Qualität des Netzwerks zu. Software Defined Networks (SDNs) versprechen<br />
bessere Skalierbarkeit, Flexibilität und Effizienz des Cloud-Netzwerks durch<br />
Abstraktion der Regelung von der Weiterleitungsschicht. Heutzutage ist eines<br />
der schwierigsten Probleme der Cloud-Netzwerksvirtualisierung, das auf eine<br />
SDN gebaut ist, die schlechte Verwaltung und Überwachung der Korrespondenz<br />
zwischen den hysischen und den logischen Ressourcen. Diese Arbeit<br />
präsentiert eine Erweiterung zu einem bestehenden SDN Controller, der die<br />
physikalischen Netzwerk-Ressourcen überwachen und die entsprechenden<br />
virtuellen Netzwerk Ressourcen zuweisen soll. Das Low-Level-Monitoring in<br />
jedem Cloud Setup ermöglicht eine optimale Ausnutzung der physischen<br />
Ressourcen und eine bessere und schnellere Bereitstellung des logischen<br />
Netzwerkes sowie der Tenant VMs. Das vorgeschlagene SDN Controller Plug-in<br />
ermöglicht Low-Level-Monitoring, das zentralisiert <strong>für</strong> das Netzwerk ist. Das<br />
Plug-in bietet Informationen <strong>für</strong> Änderungen und Störungen in der physischen<br />
Netzwerk Bereitstellung, gibt Feedback <strong>für</strong> alle durchsetzten Management-<br />
Strategien und hilft <strong>für</strong> eine effektive Durchsetzung der Netzwerk-QoS und<br />
schließlich <strong>für</strong> eine Vorhersage von SLA Verletzung. Weiterhin ist eine Analyse<br />
der Verbindung zwischen den physischen und den virtuellen Netzwerk<br />
Ressourcen bereitgestellt, die sich auf eine kontinuierliche Überwachung des<br />
verschiedenen Netzwerk Topologien Verhaltens berührt. Die Auswertung der<br />
unterschiedlichen Netzwerke zeigt, dass es keine universelle Lösung <strong>für</strong> die<br />
verschiedenen Arten von Netzwerk Anforderungen passen würde.<br />
Constantin-Claudiu Gavrilete<br />
Exploiting User Behavior and Markup Structures to Improve Search Result<br />
Rankings<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Popular web search engines, such as Google, rely on traditional search result<br />
ranking methods such as the vector space model probabilistic models in combination<br />
with the famous PageRank algorithm. In the last couple of years per-<br />
27
sonal document relevance got considered when ranking search results, as it<br />
improves the result quality significantly. This thesis extends related work in the<br />
area of result personalization, by providing the concept and implementation of<br />
a keyword based personal search engine. Compared to other work, the<br />
personal relevance is measured by the user's activity with keywords of one<br />
document, such as clicking or hovering. A ranking algorithm is introduced,<br />
which considers keyword and document frequencies in the vector space<br />
model, combined with the interaction of those keywords to compute the<br />
document score. The concepts are implemented as an HTML5 browser extension<br />
for Google Chrome, which actively measures the user's interaction with<br />
the visited content, without interfering with the normal surfing behavior.<br />
Querying for visited content retrieves stored documents and orders them<br />
according to their personal relevance. An evaluation is conducted to test<br />
whether the behavioral ranking factors are significant enough for personal<br />
relevance. It is shown, that the interaction of the user with the document's<br />
content correlates with its relevance. Furthermore, a benchmark of WebSQL<br />
and IndexedDB as HTML5 data storage structures for insert, update and search<br />
operations reveals that the latter technology outperforms the former in almost<br />
every configuration.<br />
Thomas Hava<br />
Optimizing Server Applications for Renewable Energy powered Data Centers<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
A constantly increasing growth of the amount of Internet users worldwide, as<br />
well as new types of web services like social networks or video services, are<br />
demanding more and more server capacities within data centers. In fact<br />
between the year 2000 and 2005 the power consumption of data centers has<br />
doubled. In the year 2010 data centers were estimated to consume 1,3% of the<br />
world wide electricity production. Since the increase of data center costs the<br />
concept of green IT developed in the field of data centers. Basic ideas of green<br />
IT are to reduce the ecological footprint and to improve the energy<br />
effectiveness. This goals can be reached by using renewable energy sources<br />
like wind power, photovoltaics or hydro power. These power sources share the<br />
issue, that the amount of energy, which they are producing depends on the<br />
current state of their environment. The key issue of this diploma thesis is to<br />
identify common data center server applications and to analyze if their power<br />
profiles can be aligned to the power production profiles of renewable energy<br />
based power sources.<br />
28
Christoph Hohenwarter<br />
Simulation des zeitlichen Störungsverhaltens vollvermaschter Netzwerke am<br />
Beispiel kritischer Infrastrukturen<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Privatdoz. Dr. Karl Michael Göschka<br />
The assignment of this diploma thesis was the observation of the characteristics<br />
of infrastructure due a disruption by using a computer model. This<br />
leaded to the designing of a simulation model, the calculation and presentation<br />
of simulation results regarding a graph representing an infrastructure<br />
network. Therefore the time-dependent behavior after the occurrence of a<br />
disruption is observed. The examined infrastructure network can be an electric<br />
supply network, a water supply network or any other kind of infrastructure<br />
network. This diploma thesis observes the simulated behavior of the infrastructure<br />
of an Austrian military base after a theoretical incident. The used data<br />
in this thesis was delivered by the Austrian Armed Forces. The relationships<br />
between the infrastructure elements are modeled using one-dimensional input<br />
and output values as there is not made any distinction between the different<br />
performance aspects of each infrastructure element. For the model development<br />
a directed graph is used. The links are defined by functions. Also the<br />
used data for this thesis are analyzed and the way of collecting this data is<br />
discussed in a critical manner. The major results of this scientific work are the<br />
performance charts of the simulated infrastructure of the observed military<br />
base during a dysfunction at which assumptions are made of a general nature<br />
and those results are interpreted.<br />
Eduard Rudolf Margulies<br />
Location Detection in Smart Home Environments with the Oracle Sun SPOT<br />
Technology<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
The term smart-home has become very popular over the last years, gaining a<br />
great deal of importance in technological fields of research, especially in the<br />
field of Ambient Assisted Living (AAL). AAL represents an important branch of<br />
the Human Computer Interaction (HCI). For disabled persons the smart-home<br />
can offer increased support and an overall better experience in everyday life.<br />
Further, non-disabled persons could also benefit from the smart-home<br />
experience with many supportive functions for day to day living. Location plays<br />
an integral role in smart-home environments, thus many functions and actions<br />
depend on the users current location in the home. For outdoor environments<br />
robust solutions like the American GPS for navigation systems, aGPS, or the<br />
European Galileo already exist. For indoor-environments such as smart-homes,<br />
only a few useable technologies are available. With this master thesis, we are<br />
interested in research on an easy-to-setup and fairly inexpensive approach for<br />
location determination systems. For that reason we use an embedded device<br />
29
from ORACLE: the Sun SPOT. This device offers a variety of mechanisms which<br />
can be used for the location determination as, for example, the accelerometer<br />
as well as offering the ability for wireless communication. First, we will show<br />
that our experiments with the accelerometer device yields imprecise localization<br />
results related to erroneous measurement-readings from the devices<br />
accelerometer-chip itself, thus not usable in indoor environments. The second<br />
part of this thesis covers the location inference based on the wireless network<br />
communication of the Sun SPOT, which in turn is based on key performance<br />
indicators and the Weighted Centroid Localization (WCL) algorithm. We will<br />
show that this inexpensive and effective approach is suitable for roughly<br />
determining location, because of its imprecise measurement values and<br />
dealings with common issues in a wireless network, like interferences and<br />
reflections.<br />
Rene Nowak<br />
Towards Providing Unified Access To Cloud Data Storage Services<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
With an increasing number of devices using applications, the amount of data<br />
that has to be managed has grown rapidly. This means, that scalability of databases<br />
gets more and more important. So in the last years so called not only<br />
SQL (NoSQL) databases have become popular because they can be distributed<br />
more easy than traditional relational databases. The problem is, that different<br />
data stores use different ways to manage their data and provide specific<br />
interfaces to persist and load this data sets. This makes it hard for application<br />
developers to use this new technologies in their applications. So using<br />
different types of persistence, as described in the polyglot persistence model,<br />
means that a lot of code has to be written for covering the different APIs. The<br />
following thesis describes and presents a solution to access different types of<br />
data storage through one interface. Therefore, the differences between the<br />
management and storage of data are described and discussed. Based on this<br />
discussion, a common interface will be designed. Because the API cannot cover<br />
all different functionalities, developers will also get the possibility to access<br />
specific libraries, to use special functions for a data store. This means, that data<br />
can be stored where it fits best, without losing any functionality or flexibility. In<br />
some cases, it is useful to move data from one data store to another. This<br />
often requires a lot of migration code to read and write data. In this thesis, we<br />
will also present a solution for this problem and a prototype implementation of<br />
this feature will be discussed.<br />
30
Bernhard Schreder<br />
Legacy Datasource Interoperability for the Semantic Web<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
This master thesis discusses the problem of integrating legacy data sources<br />
with other connected applications and data sources, one of the key issues of<br />
processes such as Enterprise Application Integration. This work examines one<br />
possible solution to this problem by leveraging semantic technologies, specifically,<br />
by mapping between ontologies which describe the legacy data sources.<br />
This solution necessitates the mediation and alignment between a data<br />
source's or application's data format and the format prescribed by the central,<br />
shared ontology. Utilizing ontologies is assumed to provide a flexible and lightweight<br />
solution to the data integration problem. In this thesis several semantic<br />
mediation approaches are surveyed, including the requisite preprocessing<br />
steps such as schema lifting and normalization. Using the Mapping Framework<br />
of the University of Karlsruhe as the underlying architecture, a comprehensive<br />
mediation tool has been developed, which supports the creation and execution<br />
of mappings between different ontologies. Several new methods of<br />
importing legacy data sources, such as relational databases and XML data, are<br />
developed and introduced as new services for the mediation tool. Finally, a<br />
number of case studies and application scenarios for these mediation services<br />
are detailed and their applicability and flexibility are evaluated.<br />
Martin Sölkner<br />
Energieeffizienter Elastizitätsmanager <strong>für</strong> Clouds<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Elastizitätsmanagement ist eines der Kernkonzepte, die Clouds von<br />
herkömmlichen Datenzentren unterscheiden und erlaubt es Clouds autonom<br />
auf die Anforderungen ihrer Kunden zu reagieren. Kunden können Ressourcen<br />
der Cloud nach Bedarf anfordern, verwenden und freigeben, wodurch der<br />
Eindruck unbegrenzter Rechenleistung entsteht. Daher kann sich die Anzahl<br />
der tatsächlich durch Kunden genutzten Ressourcen ohne langfristige Planung<br />
jederzeit ändern. Um Clouds die Möglichkeit zu bieten, rechtzeitig auf spontane<br />
Verändern zu reagieren, untersuchten wir selbstlernende Methoden die<br />
das bisherige Verhalten einer Kundenapplikation analysieren und zukünftige<br />
Anfragen an die Cloudressourcen vorhersiehen. Wird ein Anstieg der Kundenaktivität<br />
berechnet, werden rechtzeitig alle benötigten Virtuellen Maschinen<br />
(VM) gestartet. Dadurch werden Verzögerungen, die sich ergeben würden,<br />
wenn die benötigten VM erst bei Bedarf gestartet werden, verhindert.<br />
Gleichzeitig werden VM in Zeiten niedriger Kundenaktivität abgeschaltet, um<br />
Energie zu sparen. Für den Kunden wirkt es, als wenn alle jemals benötigten<br />
VM jederzeit verfügbar wären, während gleichzeitig Energiekosten <strong>für</strong> den<br />
Cloudprovider reduziert werden. Die untersuchten Methoden wurden im<br />
31
Energieeffizienten Elastizitätsmanager (E3M) implementiert, in Simulationen<br />
getestet und ihre Leistung sowohl in Hinsicht auf Energieverbrauch als auch<br />
Kundenzufriedenheit bewertet. Der E3M wurde dabei mit verschiedenen<br />
Elastizitätsmethoden, die keine selbstlernenden Methoden einsetzten, zu<br />
unterschiedlichen Testbedingungen verglichen. Die Testfälle konzentrierten<br />
sich dabei auf die Unterschiede bei langfristiger Planung als auch kurzfristigen<br />
Schwankungen und zeigten erhebliche Reduktion der benötigten Energie bei<br />
gleicher Leistung <strong>für</strong> die Kunden.<br />
Arbeitsbereich Database and Artificial Intelligence<br />
Maximilian Robert Aster<br />
Repackaging Web Pages using Advanced User Behaviour Analysis<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />
Current trends in the market of Web-enabled devices are moving the focus<br />
from desktop web pages to pages optimised for a set of other devices like<br />
smartphones or tablets. Advanced User Behaviour Analysis tries to improve the<br />
effectiveness and usability of web pages in general and for specific user<br />
groups, using information that is gained from tracking users utilizing those<br />
mobile devices. The term points out the fact that new approaches are<br />
evaluated and used in order to achieve this goal. But the user behaviour data<br />
collected this way can also be used to adapt web pages and automatically<br />
transform pages and even the web applications logic flow into a new kind of<br />
representation, specifically for a certain target group. Therefore a general<br />
process is defined to describe the various phases that have to be gone through<br />
to transform or repackage a website. It serves as the basis for the solutions,<br />
which were built as part of this thesis, and incorporates state of the art<br />
concepts and methods from various fields of Web Science. The implemented<br />
artefacts demonstrate how an appropriate architecture looks like and what<br />
additional possibilities open up. In the end the collected data about user<br />
behaviour is employed to optimise the transformation of the web pages by<br />
selecting only content which showed to be important to other users.<br />
Christoph Erkinger<br />
Rotating Workforce Scheduling as Satisfiability Modulo Theories<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Privatdoz. Dr. Nysret Musliu<br />
32<br />
Das Erstellen von geeigneten Schichtplänen ist <strong>für</strong> viele Unternehmen von<br />
entscheidender Bedeutung, um zum einen eine Produktivitätssteigerung und<br />
zum anderen eine optimale Auslastung des vorhandenen Personals zu gewährleisten.<br />
Hierbei müssen neben den Anforderungen des Unternehmens auch<br />
gesetzliche Bestimmungen und indivduelle Interessen der Arbeitnehmer
erücksichtigt werden. Dies stellt eine Herausforderung dar, welche selbst mit<br />
der Unterstützung aktueller Computersysteme im Allgemeinen nicht effizient<br />
gelöst werden kann. In den letzten 40 Jahren wurden zahlreiche computergestützte<br />
Methoden zur Lösung von Schichtplanproblemen entwickelt. Dabei<br />
wurden neben exakten Verfahren wie dem Constraint Programming auch<br />
heuristische Methoden eingesetzt. Exakte Methoden lösen zwar eine große Anzahl<br />
an Schichtplanproblemen, können jedoch Pläne <strong>für</strong> viele Mitarbeiter nicht<br />
effizient erstellen. Es ist deshalb von großem Interesse neue exakte Methoden<br />
zu entwickeln, welche diese Limitierung nicht aufweisen. In dieser Arbeit wird<br />
ein neues exaktes Verfahren <strong>für</strong> Rotating Workforce Scheduling (RWS) vorgestellt.<br />
Da<strong>für</strong> wird RWS als Satisfiability Modulo Theories (SMT) Problem<br />
modelliert. Während das Lösen von SMT Problemen mit SMT-Solvern automatisiert<br />
werden kann, stellt das Finden einer effizienten Formulierung in SMT<br />
die größte Herausforderung dar. Im Rahmen dieser Diplomarbeit wurden zwei<br />
Modellierungen <strong>für</strong> RWS entwickelt, einmal basierend auf linearer Arithmetik<br />
und einmal unter der Verwendung von Bitvektoren mit binären Operationen.<br />
Beide Ansätze wurden mit 20 Probleminstanzen aus der Literatur experimentell<br />
evaluiert, wo<strong>für</strong> verschiedene SMT-Solver eingesetzt wurden. Die Bitvektor<br />
Formulierung erzielte im Vergleich zu jener mit linearer Arithmetik bessere<br />
Ergebnisse und zeigte außerdem im Vergleich mit anderen Methoden aus der<br />
Literatur, dass SMT-Solving ein kompetitives Verfahren ist, welches Probleminstanzen<br />
löst, die andere exakte Verfahren bisher nicht lösen konnten.<br />
Wolfgang Fischl<br />
Normal Forms for Non-Relational Data<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />
Die Menge an von Informationssystemen gespeicherten Daten wächst stetig.<br />
Für diesen Zweck werden vorwiegend Datenbanksysteme eingesetzt. Jedoch<br />
gewinnen alternative Datenformate, wie XML Dokumente und Graph-basierte<br />
Datenbanken, immer mehr an Einfluss. In all diesen Datenformaten ist es<br />
wichtig, mit Hilfe des Datenbankdesigns Redundanzen zu vermeiden. Aus<br />
diesem Grund wurden Normalformen entwickelt. Für das relationale Datenmodell<br />
wird Boyce-Codd Normalform (BCNF) verwendet. Arenas und Libkin entwickelten<br />
2004 XML Normalform <strong>für</strong> XML Dokumente. Normalformen <strong>für</strong> Graphbasierte<br />
Datenbanken wurden bisher nicht untersucht. Unser Ziel ist es diese<br />
Lücke zu schließen. Wir wollen eine Normalform definieren, welche die Eigenschaften<br />
von BCNF auf Graph-basierte Datenbanken überträgt. Zuerst werden<br />
wir Boyce-Codd und XML Normalform betrachten. Ideen aus diesen Normalformen<br />
verwenden wir dazu, um eine Normalform <strong>für</strong> Graph-basierte Datenbanken<br />
zu entwickeln. Beschreibungslogiken (DLs) sind als formales Modell <strong>für</strong><br />
Graph-basierte Datenbanken überaus passend. Da BCNF mittels funktionaler<br />
Abhängigkeiten definiert ist, muss es uns möglich sein solche auch über DL<br />
Wissensbasen (DL KBs) auszudrücken. Ein naheliegender Kandidat sind die von<br />
Calvanese et al. 2008 eingeführten path-based identification constraints<br />
(pIdCs) verwenden. Allerdings zeigen wir, dass pIdCs nicht ausdrucksstark<br />
33
genug sind, um funktionale Abhängigkeiten in DLs zu modellieren. Deshalb erweitern<br />
wir pIdCs zu tree-based identification constraints. Mittels diesen<br />
untersuchen wir Redundanzen in DL KBs. Der Hauptbeitrag dieser Arbeit ist<br />
eine Definition der Beschreibungslogik Normalform (DLNF), welche eine sinnesgetreue<br />
Erweiterung der BCNF zu DLs ist. Zusätzlich stellen wir eine direkte Abbildung<br />
von relationalen Schemata auf DL KBs vor. Wir zeigen, dass jedes relationale<br />
Schema genau dann in BCNF ist, wenn auch die direkte Abbildung<br />
dieses Schemas auf eine DL KB in DLNF ist und umgekehrt.<br />
Iraklis Kordomatis<br />
Machine Learning Algorithms for Visual Pattern Detection on Web Pages<br />
Studium: Masterstudium Information & Knowledge Management<br />
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />
In this thesis the question how to robustly identify web objects across different<br />
sites is tackled. TAMCROW introduces a novel approach exploiting visually<br />
perceivable characteristics of a web object and its surrounding objects. This approach<br />
is entirely independent of textual labels, and hence has the noteworthy<br />
advantage of being language-agnostic. Another main advantage of the visual<br />
detection approach is sample parsimony. Fewer examples are required for the<br />
learning process to learn how to find certain web objects on previously<br />
unknown pages. Moreover, visual cues are crucial for the human perception<br />
and as a consequence also for the usability of a web page. Therefore, web<br />
designers create web pages coherent with the human perception in order to<br />
yield a high usability. Supervised machine learning techniques are applied for<br />
the object identification process. The knowledge is limited to features representing<br />
the visual appearance of the different web objects. An additional<br />
question is whether it is possible to predict the role of a web object by its visual<br />
appearance which is formally a classification problem. Within the scope of this<br />
master thesis, the following machine learning techniques are investigated in<br />
detail: logistic regression, k~nearest-neighbor, classification trees (in particular,<br />
c4.5 of Quinlan) and support vector machines. The evaluation results are<br />
illustrated in chapter \ref{ch:evaluationResults} indicating that the approach<br />
developed within the TAMCROW project is very fruitful. The workflow on web<br />
object identification is evaluated with different scenarios. These scenarios<br />
include searches for train, bus and flight connections as well as for accommodations.<br />
K-page cross-validation is used as evaluation technique. The mean<br />
precision is chosen as performance measure, since it fits best for the used<br />
scenarios. The results are significant for all classification techniques.<br />
34
Thomas Linsbichler<br />
On the Limits of Expressiveness in <strong>Abstract</strong> Argumentation Semantics:<br />
Realizability and Signatures<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Privatdoz. Dr. Stefan Woltran<br />
In recent years the research field of argumentation, in particular the formal<br />
approach of abstract argumentation introduced by Dung, has become a major<br />
topic in the study of AI. A so-called abstract argumentation framework is a<br />
directed graph where nodes represent arguments and arrows represent conflicts<br />
between arguments. The question of which arguments can be accepted<br />
out of an argumentation framework, called extension-sets, is answered by<br />
argumentation semantics. Surprisingly, a systematic comparison of their capability<br />
in terms of multiple extensions has been neglected so far. Understanding<br />
which extensions can, in principle, go together when a framework is evaluated<br />
with respect to a semantics of interest not only clarifies the "strength" of that<br />
semantics but also is a crucial issue in several applications. The aim of the<br />
master's thesis is to study the expressiveness of the naive, stage, stable, preferred,<br />
semi-stable, and complete semantics, by characterizing their signatures.<br />
The signature of a semantics is defined as the set of all possible sets of extensions<br />
one can obtain from the semantics, given an arbitrary argumentation<br />
framework. For each semantics we give necessary conditions for an extensionset<br />
to be in the signature, i.e. properties which are fulfilled by the outcomes of<br />
the semantics for each framework, as well as (corresponding) sufficient conditions<br />
for an extension-set to be in the signature, which make the extensionset<br />
realizable under the semantics. The thesis provides constructions of argumentation<br />
frameworks realizing extension-sets under the various semantics.<br />
The characterizations of the signatures of the semantics give rise to a<br />
systematic comparison of their expressiveness. We show that, with one exception,<br />
all semantics we deal with possess different levels of expressiveness.<br />
Finally the thesis investigates strict realizability, i.e. realizing an extension-set<br />
by a framework by not using additional arguments.<br />
Johannes Maschler<br />
Data Exchange of Relational Data and Beyond<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />
Data exchange has been a very active area of database research over the past<br />
decade. In the first place, data exchange of relational data has been investigated.<br />
More recently, data exchange research has been extended to other data<br />
models such as knowledge bases and XML. The goal of this thesis is to<br />
summarize the state of the art in data exchange. We thus compare the results<br />
for the main problems in data exchange of relational data, knowledge bases,<br />
and XML data.<br />
35
Sebastian Morgenbesser<br />
Web Interaction Archiving and Replay using Advanced User Behaviour Analysis<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />
Aktuelle Verfahren um Nutzerverhalten aufzuzeichnen, mit dem Ziel Webseiten<br />
zu optimieren konzentrieren sich hauptsächlich auf Desktop Benutzer und<br />
beachten dabei die spezielle Gruppe der mobilen Benutzer fast überhaupt<br />
nicht. Wegen der steigenden Zahl an Smartphones im World Wide Web ist es<br />
von großer Wichtigkeit, Webseiten und deren Benutzer zu analysieren und anhand<br />
der Ergebnisse diese auf die Bedürfnisse der Benutzer hin zu optimieren.<br />
Diese Arbeit stellt eine neue Technologie mit dem Namen Mobile Viewport<br />
Tracking vor, die es ermöglicht, diverse Aktionen die von Benutzern von<br />
mobilen Endgeräten getätigt werden, aufzuzeichnen, diese zu analisieren und<br />
in einer grafischen Form wiederzugeben. Die Daten die durch Mobile Viewport<br />
Tracking verfügbar sind, können einerseits verwendet werden um Webseiten<br />
zu optimieren, auf der anderen Seite wird in dieser Arbeit basierend auf diesen<br />
Daten ein komplett neuer Ansatz <strong>für</strong> Web Archiving präsentiert. Dieser Ansatz<br />
verzichtet auf das reine Archivieren von Webseiteninhalt, stattdessen stehen<br />
der Benutzer und seine Interaktionen auf der Webseite im Vordergrund. Das<br />
Design eines Konzeptes und einer Architektur <strong>für</strong> ein solches benutzerorientiertes<br />
Web Archiv ist wesentlicher Bestandteil dieser Arbeit. Außerdem wird<br />
auch ein Konzept <strong>für</strong> mögliche Datenlieferanten vorgestellt da dieser Ansatz<br />
abhängig von externen Institutionen ist, die das Archiv mit aktuellen Daten<br />
versorgen. Ein weiterer Teil dieser Arbeit beschäftigt sich mit der Optimierung<br />
von Webseiten , ebenfalls auf Basis einer benutzerorientierten Analyse und der<br />
Wiedergabe von aufgezeichneten Benutzerinteraktionen im Internet.<br />
David Neukam<br />
Case Studies, Automatic Reporting, Evaluation and Optimization of Usability<br />
using Advanced User Behaviour Analysis<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Univ.Prof. Dr. Reinhard Pichler<br />
36<br />
Current approaches to track user behaviour in order to improve web pages are<br />
mainly focused on desktop users and do not consider the special group of<br />
mobile users. Because of the increasing domination of smartphones in the<br />
World Wide Web these days, it is very important to analyse and optimize web<br />
pages according to those devices. Advanced User Behaviour Analysis tries to<br />
improve the effectiveness and usability of web pages in general and for specific<br />
user groups, using information that is gained from tracking users utilizing<br />
mobile devices. The term Advanced User Behaviour Analysis points out the fact<br />
that new approaches are evaluated and used in order to achieve this goal. The<br />
main focus is to use mobile devices to track typical user interactions that can be<br />
archived and further interpreted, in order to analyse or adapt web pages. The<br />
key concept of this project is the limited viewport (visible area) of a website on
a mobile device acting as a surrogate for the attention of a user. By tracking<br />
this small area, it can be reconstructed what a user has read. With this approach,<br />
studies are made which show possibilities of usage of such a tool. Also a<br />
prototype of an analysis-portal was created that can be used to analyze the<br />
recorded data. This tool was used to analyze the data from a study done with<br />
students of the course Applied Web Data Extraction and Integration. Metrics<br />
and indicators for web usability are identified that are not available with<br />
traditional 'inter-page-level' approaches like Google Analytics focusing on the<br />
navigation path between web pages. The analysis shows how people behave<br />
differently when accessing a desktop or mobile version of a website with their<br />
smartphone and which differences and similarities can be found when comparing<br />
different websites of one domain to each other. Some key performance<br />
indicators are theoretically discussed and some were implemented and their<br />
results are shown.<br />
Arbeitsbereich Knowledge Based Systems<br />
Shqiponja Ahmetaj<br />
Planning in Graph Databases under Description Logic Constraints<br />
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />
BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />
In this thesis, we propose a framework for planning in graph databases. To the<br />
best of our knowledge, this is the first attempt to formally define planning in<br />
such setting. We use an expressive action language that is already defined by<br />
an earlier work. This language is expressed through a DL that has the feature to<br />
introduce new values to the data. Graph databases are seen as finite DL<br />
interpretations. We identify some interesting reasoning tasks, relevant for the<br />
setting we consider. The standard one is plan-existence, which corresponds in<br />
trying to find a plan for a given instance of a planning problem. We investigate<br />
two variants of the problem. The difference between them is that in one of<br />
them we do not allow the transactions to introduce fresh constants. We prove<br />
that deciding plan-existence for the variation without fresh constants is PSpacecomplete.<br />
After applying several syntactic restrictions, we are able to determine<br />
NlogSpace and NP-hard cases. We are also able to provide several polynomial<br />
algorithms for some other cases. In addition, to get some insights to<br />
the relationship between our formalism and STRIPS, which is a classical approach<br />
to planning, we investigate whether planning in our setting can be<br />
reduced to STRIPS. We show that such encoding is possible under some<br />
syntactical restrictions. In this way, STRIPS planners can be exploited to solve<br />
our planning problem. Furthermore, we study the variation, where the transactions<br />
are allowed to introduce fresh constants. Intuitively, this makes<br />
planning more involved. We are able to single out some cases in this setting<br />
that can be reduced to planning without fresh constants. In this way we prove<br />
that those cases are in PSpace.<br />
37
Harald Beck<br />
Inconsistency Management for Traffic Regulations<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />
Die Straßenverkehrsordnung (StVO) ist das Bundesgesetz, welches den Verkehr<br />
auf öffentlichen Straßen regelt. Verordnungen verkehrlicher Maßnahmen<br />
werden rechtlich wirksam, indem sie durch entsprechende Verkehrszeichen<br />
kundgemacht werden. Dies kann zu Widersprüchen mit bestehenden Vorschriften<br />
führen, die dann durch Entfernung der entsprechenden Verkehrszeichen<br />
außer Kraft gesetzt werden müssen. Derzeit werden Beamte der Straßen- und<br />
Verkehrsverwaltung in <strong>Wien</strong> und Niederösterreich durch eine Webanwendung<br />
unterstützt, welche die Editierung und Visualisierung von verkehrlichen<br />
Maßnahmen und Verkehrszeichen auf einer digitalen Straßenkarte ermöglicht.<br />
Allerdings fehlt es noch an Werkzeugen, um die Konformität solcher Vorschriften<br />
bezüglich der StVO sicherzustellen. Das Ziel dieser Arbeit ist es, Methoden<br />
zu entwickeln, um dies auf Basis einer erweiterbaren Spezifikation zu ermöglichen.<br />
Dazu entwickeln wir auf Basis einer Domänenanalyse ein formales<br />
Modell, das erlaubt, Beziehungen zwischen Maßnahmen und Verkehrszeichen<br />
und deren Konformität bezüglich einer Spezifikation zu untersuchen, ohne an<br />
bestimmte Verkehrszeichen, Vorschriften, oder Datenmodelle konkreter Umsetzungen<br />
gebunden zu sein. Wir identifizieren praxisrelevante Aufgabenstellungen,<br />
die im Zusammenhang mit der Korrektheit von Verkehrsvorschriften<br />
stehen, und defineren diese als logische Probleme (reasoning tasks). Es wird<br />
gezeigt, wie Verkehrszeichen auf einer digitalen Straßenkarte aufgrund von<br />
Regelsätzen evaluiert werden können. Im Fehlerfall wird erkannt, welche Konflikte<br />
existieren, wo diese auftreten und wodurch sie zustande kommen. Wir<br />
zeigen, wie Korrekturvorschläge erzeugt werden können, die Maßnahmen und<br />
Verkehrszeichen gleichzeitig berücksichtigen. Wir bestimmen die Komplexität<br />
von zugehörigen Entscheidungsproblemen und präsentieren eine prototypische<br />
Implementierung mittels Answer Set Programming, die sich durch<br />
hohe Wartbarkeit auszeichnet.<br />
Paula-Andra Busoniu<br />
On Supporting the Development of Answer-Set Programs using Model-driven<br />
Engineering Techniques<br />
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />
BetreuerIn: Ao.Univ.Prof. Dr. Hans Tompits<br />
38<br />
In this thesis, we address the issue of the usage of graphical models for the<br />
automation of ASP code generation and for the representation of answer sets.<br />
The proposed graphical modelling environment is a round-trip tool that provides<br />
the user with a graphical editor to represent the problem domain using a<br />
subset of the UML class diagram. From the model, a description of an ASP<br />
language signature (predicates, arities, types, and meaning of the argument<br />
terms) is automatically generated. The signature, together with the constraints
of the domain, is expressed in Lana, a meta-language for annotating answerset<br />
programs. Based on the signature in Lana, the programmer proceeds to<br />
develop ASP encodings. After computing the answer sets of the answer-set<br />
program, the user is able to visualise the problem solutions by means of UML<br />
object diagrams. Violations of constraints in the solutions can be seen either<br />
by checking for certain error-indicating atoms in answer sets or can be<br />
visualised directly in the graphical representation of the solution.<br />
Oleksandr Stashuk<br />
Integrating Constraint Programming into Answer Set Programming<br />
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />
BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />
Many declarative problems exploit hard computational nature that need to be<br />
evaluated effectively. Examples of such problems are task scheduling,<br />
optimization problems, database transaction management. This thesis presents<br />
a hybrid constraint answer-set programming solver that provides a modeling<br />
language and solving capabilities of Answer-Set Programming (ASP) and<br />
special relations over variables called constraints from area of Constraint<br />
Programming (CP). The proposed framework provides a custom syntax for<br />
supporting constraint and answer-set constructions and in addition it provides<br />
a support for a special type of global constraints. We then show how such<br />
programs can be transformed to HEX programs with external atoms and<br />
evaluated. Several formal properties of such transformation are provided. The<br />
thesis provides several optimizations for the original approach. The first<br />
improvement relies on reducing the size of the transformed program. This is<br />
based on the observation of the redundancy in some of the translated rules.<br />
This translation reduction does not affect answer sets of the programs. Another<br />
optimization is related to the program evaluation. The key idea is to find the<br />
small irreducible inconsistent set of constraints and add it as a nogood to the<br />
program. This way we will introduce user defined learning for the program. We<br />
also show that the learning functions for HEX programs based on these<br />
algorithms are correct. This thesis additionally provides the implementation of<br />
such approach as a plugin for dlvhex system. We show the plugin architecture,<br />
ideas of the implementation and describe required algorithms. We describe<br />
how main components, namely CASP converter, rewriter, external atom<br />
evaluation and learning can be implemented.<br />
Simon Steyskal<br />
Towards an Alternative Approach for Combining Ontology Matchers<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Privatdoz. Dr. Axel Polleres<br />
The existence of a standardized ontology alignment format promoted by the<br />
Ontology Alignment Evaluation Initiative (OAEI) potentially enables different<br />
39
ontology matchers to be combined and used together, exploiting their<br />
respective strengths in a combined matching approach. In the present thesis,<br />
we present a novel architecture for combining off-the-shelf ontology matchers<br />
based on iterative calls and exchanging information in the form of reference<br />
alignments. Unfortunately though, only a few of the matchers contesting in the<br />
past years' OAEI campaigns actually allow the provision of reference alignments<br />
in the standard OAEI alignment format to support such a combined<br />
matching process. We bypass this lacking functionality by introducing an alternative<br />
approach for aligning results of different ontology matchers using<br />
simple URI replacement to “emulate” reference alignments in the aligned ontologies.<br />
While some matchers still consider classes and properties in ontologies<br />
aligned in such fashion as different, we experimentally prove that our iterative<br />
approach benefits from this emulation, achieving the best results in terms of F-<br />
measure on parts of the OAEI benchmark suite, compared to the single results<br />
of the competing matchers as well as their combined results. The new<br />
combined matcher -- Mix'n'Match -- integrates different matchers in a multithreaded<br />
architecture and provides an anytime behaviour in the sense that it<br />
can be stopped anytime with the best combined matchings found so far.<br />
Gerald Weidinger<br />
OMiGA An Open Minded Grounding on-the-fly Answer Set Solver<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />
Answer Set Programming (ASP) is nowadays a well-known and well acknowledged<br />
declarative problem solving paradigm. ASP originates from the area of<br />
artificial intelligence and is often used in knowledge-based reasoning and logic<br />
programming, where its main purpose is solving search and optimization problems.<br />
There are many solvers that solve ASP in a two-step manner, where they<br />
first ground the input program and then in the second step solve the resulting<br />
grounded program. From this approach one problem arises: the exponential<br />
blowup. In order to face this problem some answer set solvers use a grounding<br />
on-the-fly approach where rules are only grounded when needed during<br />
solving. Solvers that use this approach show that they indeed can solve some<br />
instances where standard solvers run out of memory. But on problem instances<br />
where exponential blow up is no issue, these solvers are much slower than<br />
standard solvers, because they have troubles finding applicable rules. Within<br />
this thesis we present the OMiGA solver, which combines the grounding onthe-fly<br />
approach with a Rete network that enables us to efficiently find those<br />
rules and therefore outperform other grounding on-the-fly solvers and even<br />
compare to standard solvers on certain instances.<br />
40
Institut <strong>für</strong> Computersprachen<br />
Arbeitsbereich Programmiersprachen und Übersetzer<br />
Johann Binder<br />
Introducing the XVSM Micro-Room Framework<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />
Nowadays, all popular online social networks in the World Wide Web are based<br />
on a client-server architecture. This leads to severe privacy issues as the<br />
provider of the online social network holds all data and could easily misuse it.<br />
Other contributions already showed how to resolve this problem by decentralizing<br />
the data with a peer-to-peer architecture. Yet these solutions have their<br />
own drawbacks, e.g. many complex technologies, bad extensibility or a lack of<br />
important privacy and security features. A cause for these drawbacks is that no<br />
satisfying high-level peer-to-peer frameworks exist, allowing users to develop<br />
complex peer-to-peer applications in an easy way. Available frameworks are<br />
rather low-level, concentrating on the communication layer. Therefore, all of<br />
the peer-to-peer online social networks analysed have been created more or<br />
less from scratch. To overcome this issue, we introduce the XVSM Micro-Room<br />
Framework which focuses on ensuring those aspects, not covered sufficiently<br />
by the existing peer-to-peer online social networks. This framework allows to<br />
create peer-to-peer applications based on configurable, shared data rooms. We<br />
then use the XVSM Micro-Room Framework for creating a proof of concept<br />
peer-to-peer online social network settled in an e-learning environment. By<br />
comparing our solutions (both the XVSM Micro-Room Framework and the<br />
generated peer-to-peer online social network) with the analysed related work,<br />
we demonstrate the benefits of our solutions regarding functionality, simplicity,<br />
extensibility, privacy and security. Finally, several performance benchmarks<br />
show the practicability of the XVSM Micro-Room Framework even in heavy-load<br />
scenarios.<br />
Andreas Brückl<br />
Relaxed non-blocking Distributed Transactions for the eXtensible Virtual<br />
Shared Memory<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />
In the development of distributed applications, especially communication and<br />
coordination are complex tasks. Therefore developers are using middleware<br />
technologies which are hiding the complexity and providing enterprise features<br />
like transactions out-of-the box. Especially middlewares which are following the<br />
space-based computing (SBC) paradigm are often used for coordination tasks.<br />
41
But although space-based middlewares are simplifying the development of<br />
distributed applications, most of them can not be used for complex<br />
applications because they do not provide an essential enterprise feature: distributed<br />
transactions. Other middlewares which already provide this feature often<br />
rely on old commit algorithms which are having known problems in certain<br />
scenarios. Therefore this work provides a flexible and concurrent distributed<br />
transaction model which is aligned on the space-based computing paradigm.<br />
The new model supports long-lived transactions and provides a high degree of<br />
consistency. As a positive side effect the evaluation shows that in certain<br />
scenarios the new transaction model performs better than a standard local<br />
transaction system.<br />
Gerald Grötz<br />
Implementation of XVSM for the iOS platform<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />
Due to the increasing complexity of software systems there comes the need of<br />
technologies that help developers to simplify the programming process.<br />
Middleware systems in general can offer this functionality. One type of middleware<br />
is based on the Space Based Computing paradigm. It offers a shared<br />
memory data space that can be accessed concurrently by different users. The<br />
eXtensible Virtual Shared Memory (XVSM) architecture uses this approach and<br />
provides an easy extendable solution for developers. Actual implementations<br />
are based on Java (MozartSpaces) and .NET (XCOSpaces). With the rapid<br />
growth of smartphones based on Apples iOS operating system comes the need<br />
of an implementation for that platform. The goal of this thesis is the provision<br />
of an implementation for the iOS platform that is fully compatible to Mozart-<br />
Spaces, the actual reference implementation of XVSM. A research process<br />
concerning possible solutions is followed by a ready to use implementation for<br />
software developers. The output is evaluated by different kind of performance<br />
benchmarks. The compatibility to MozartSpaces is evaluated by integration<br />
tests and presented by an application scenario where the new implementation<br />
works hand in hand with MozartSpaces. The new implementation is based on<br />
the native programming language of Apple, Objective C and works well in<br />
association with MozartSpaces.<br />
Arthur Oberhauser<br />
Entscheidungsfindung im Roboterfußball mittels Neuroevolution<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Jens Knoop<br />
42<br />
Während eines Fußballspiels befinden sich die Spieler einer Mannschaft in<br />
einer Reihe unterschiedlicher Spielsituationen. Jede dieser Spielsituationen<br />
erfordert die Ausführung einer Aktion, die der Spieler autonom bestimmen
muss. Dabei sollte die gewählte Aktion jene sein, welche <strong>für</strong> die gesamte<br />
Mannschaft langfristig den größten Erfolg bringt. Manuelle Lösungen <strong>für</strong> dieses<br />
Problem der Entscheidungsfindung im Roboterfußball sind durch die enorme<br />
Komplexität der Domäne nur mit hohem Aufwand implementierbar, wartbar<br />
und auf unterschiedliche Spielvarianten übertragbar. Diese Arbeit untersucht<br />
die Anwendbarkeit der Neuroevolution zum automatisierten Erlernen performanter<br />
und flexibler Lösungen <strong>für</strong> das Entscheidungsfindungsproblem in zwei<br />
populären Spielformen des Roboterfußballs, dem Ballhalte- und Halbfeldspiel.<br />
Als virtuelle Umgebung dient dabei der Simulator der RoboCup 2D-<br />
Simulationsliga. Mithilfe der Neuroevolutionsmethode "Hypercube-based<br />
NeuroEvolution of Augmenting Topologies (HyperNEAT)" wurden Strategien<br />
zur Aktionsselektion sämtlicher Spieler der Offensiv- und Defensivmannschaft<br />
mit Ausnahme des Torwarts erlernt. Alle erzeugten Lösungen konnten die<br />
Spielstärke vordefinierter, manuell erstellter Benchmark-Lösungen übertreffen.<br />
Außerdem wurden die entwickelten Lösungen durch Ausnutzung der von<br />
HyperNEAT verwendeten indirekten Kodierung "Compositional Pattern<br />
Producing Network" in Spielvarianten mit unterschiedlichen Mannschafts- und<br />
Spielfeldgrößen ohne zusätzliche Evolutionszyklen eingesetzt. Die erlernten<br />
Strategien konnten automatisch übertragen werden, allerdings traten dabei<br />
teilweise Leistungseinbußen auf. Weiters wurden Experimente durchgeführt,<br />
um die Auswirkung der kooperativen Koevolution auf die Performanz einer<br />
Mannschaft zu untersuchen. Die Resultate dieser Experimente zeigten einen<br />
negativen Einfluss auf die resultierende Spielstärke des Teams.<br />
Thomas Schmid<br />
Dynamic Migration of Cloud Services on the Basis of Changeable Parameters<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Ao.Univ.Prof. Dr. Eva Kühn<br />
Cloud computing is a popular possibility for service providers to host their<br />
applications. It enables the usage of scalable, elastic infrastructures that are<br />
charged according to their usage, and do not have to be maintained. Due to<br />
the increasing demand for such services, lots of cloud providers are entering<br />
the market. Their offerings are differing strongly and many parameters are used<br />
to describe them. It gets more difficult for users to compare clouds and choose<br />
a proper provider for a specific service. Furthermore, the demand of changing<br />
the provider and migrating existing services results from the growing market.<br />
Two major technical aspects of a migration have to be considered: 1) Cloud<br />
providers are using own platforms or APIs so services have to be adapted to<br />
them. 2) Services cannot be migrated seamlessly without an interruption. This<br />
master thesis proposes the dynamic Platform as a Service (dynPaaS), a new<br />
form of Platform as a Service provider that addresses these issues. The dynPaaS<br />
framework abstracts existing clouds, including their pricing parameters and<br />
their technical issues. It finds the optimal cloud for a service according to its<br />
requirements and provides transparency about the underlying clouds. It<br />
monitors clouds and hosted services and dynamically migrates services<br />
between clouds on the basis of changing parameters. In addition the frame-<br />
43
work optimizes the resource usage of integrated clouds and migrates services<br />
according to it. The result is a price reduction for both, the service providers<br />
and the dynPaaS provider.<br />
Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />
Nadja Lederer<br />
Using Mobile Technology for Monitoring Behavior of Self-Injurious Patients:<br />
Requirements and Concept System Design<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />
In der vorliegenden Arbeit wird der Themenbereich der Selbstverletzungen bei<br />
Borderline-Patienten fokussiert und ein Konzept <strong>für</strong> eine Smartphone App<br />
entworfen, das Therapeuten in ihrer Arbeit mit Borderline-Patienten unterstützt.<br />
Zunächst werden neben umfangreichen Literaturrecherchen Anforderungen<br />
von Psychologen, Psychotherapeuten, Psychiatern und Wissenschaftlern<br />
erfasst und analysiert. Dabei wurden 18 Experten auf dem Gebiet von selbstverletzendem<br />
Verhalten und Borderline Persönlichkeitsstörung aus Österreich,<br />
Deutschland und den USA hinsichtlich konkreter Anforderungen an eine<br />
unterstützende App befragt, die als Android-Prototyp umgesetzt wurde.<br />
Interviews wurden nach dem Konzept der Grounded Theory Methodologie und<br />
dem IKIWISI Vorgehen geplant und analysiert. Der Prototyp orientiert sich an<br />
der Dialektisch Behavioralen Therapie (DBT) mit dem Fokus auf der Vermittlung<br />
und Provokation von Skills und Skills-Training. Die Mehrheit der Interviewpartner<br />
empfand das App-Konzept als sinnvoll und nützlich. Eine zu detaillierte<br />
Dokumentation der Selbstverletzung könnte jedoch dazu führen, dass<br />
dysfunktionales Verhalten von Patienten sogar unterstützt / verstärkt wird.<br />
Neben Datenschutz und Datensicherheit ist auch der Einsatz eines motivationalen<br />
Systems von Bedeutung, um Akzeptanz und Verwendung der App zu<br />
forcieren. Des weiteren werden kontext-sensitive Interventionen auf Basis von<br />
Spannungsleveln, kontinuierliche Spannungsabfragen sowie die individuelle<br />
Anpassung der App gefordert. Für eine sinnhafte Einbindung der App in den<br />
Therapieprozess ist eine interdisziplinäre Zusammenarbeit unabdingbar.<br />
Zukünftige Untersuchungen sollen zeigen, wie sich das konkrete Befinden des<br />
Patienten auf die Motivation, die vorgestellte App zu verwenden, auswirkt und<br />
inwieweit diese App positiv verstärkend eingesetzt werden kann.<br />
44
Marian Lux<br />
Entwurf und Entwicklung eines mehrdimensionalen vorschlagsbasierten<br />
Suchsystems <strong>für</strong> konsumorientierte E-Markets<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />
Suchsysteme spielen eine wesentliche Rolle in der <strong>Informatik</strong>, da die Anzahl<br />
verfügbarer digitaler Inhalte stetig zunimmt. Man denke hier nur an E-Market-<br />
Systeme, wie den Software-Market Google Play oder den Online-Market<br />
Amazon. Daher reichen klassische Ansätze, wie eine schlagwortbasierte Suche,<br />
oft nicht mehr aus, um die richtigen Inhalte zu finden. Viele Benutzer sind auch<br />
wegen fehlender Kenntnisse über die Inhalte im System nicht in der Lage, ihr<br />
Suchbedürfnis auszudrücken. Aufgrund der angeführten Problematik stellt<br />
diese Diplomarbeit ein Modell vor, das <strong>für</strong> vorschlagsbasierte, konsumorientierte<br />
E-Market-Systeme universell und kostengünstig einsetzbar ist. Im<br />
Zuge dessen werden in diesem Kontext relevante Elemente sowie deren<br />
Verbindungen vorgestellt. Ergebnisse der Literaturrecherche zeigten klar auf,<br />
dass sich semantische Technologien am besten <strong>für</strong> intelligente Vorschlagsgenerierungen<br />
von Suchbegriffen als Unterstützung <strong>für</strong> die suchenden<br />
Benutzer eignen. Dabei konnten zwei relevante Grundmodelle identifiziert<br />
werden. Dies ist zum einen das Vektorraum-Modell und zum anderen die Beschreibungslogik,<br />
die zur Erstellung einer Wissensbasis in Form einer Ontologie<br />
Anwendung findet. Für die Ontologie erwies sich das vom World Wide Web<br />
Consortium (W3C) standardisierte Datenformat Web Ontology Language (OWL)<br />
als am besten geeignet. Damit können Suchbegriffe, deren Beziehungen<br />
zueinander sowie Regeln <strong>für</strong> Vorschläge weiterer Suchbegriffe abgebildet<br />
werden. Für die Suchfunktion kommt im Modell der Open Source Suchserver<br />
Solr zum Einsatz, der auch von namhaften Onlinediensten eingesetzt wird.<br />
Einblicke aus dem im Jahr 2003 stammenden DOPE System erwiesen sich als<br />
richtungsweisend <strong>für</strong> den Umgang mit semantischen Technologien sowie zur<br />
Gestaltung des User Interfaces im Modell dieser Arbeit. Abseits der technischen<br />
Lösung wurden auch weitere Themenbereiche - wie rechtliche Aspekte,<br />
Usability-Kriterien oder Methoden <strong>für</strong> bessere Suchergebnisse diskutiert.<br />
George Sabau<br />
Der Prozess des Engineerings der Migration von Web2(Native)App<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />
In der vorliegenden Arbeit wird ein Konzeptmodell <strong>für</strong> den Prozess des<br />
Engineerings der Migration von Web nach Native App vorgestellt. Es berücksichtigt<br />
die wichtigsten Anforderungen des mobilen Kontexts und integriert<br />
diese systematisch und plattformunabhängig. Dieses Konzept soll Entwicklern<br />
als Best-Practice-Leitfaden und Entscheidungsinstrument dienen.<br />
45
Institut <strong>für</strong> Computergraphik und Algorithmen<br />
Arbeitsbereich Algorithmen und Datenstrukturen<br />
Christopher Bacher<br />
Metaheuristic optimization of electro-hybrid powertrains using machine<br />
learning techniques<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />
Der Kraftstoffverbrauch von elektrohybriden Kraftfahrzeugen ist von der<br />
verwendeten Betriebsstrategie abhängig. Für diese können optimalen<br />
Parametereinstellungen meist nicht einfach bestimmt werden können. In dieser<br />
Diplomarbeit werden die Parameter von zwei Hybridfahrzeugmodellen mit Hilfe<br />
von Metaheuristiken optimiert. Das Hauptaugenmerk liegt auf der Reduzierung<br />
der benötigten Simulationsdurchläufe, da diese viel Zeit benötigen. Dazu<br />
werden Suchraumeinschränkungen angewandt wo dies möglich ist. Weiters<br />
wird der Suchraum diskretisiert um den Optimierungsmethoden die Verwendung<br />
eines Lösungs-Caches zu ermöglichen. Zuletzt werden verschiedene, auf<br />
neuronalen Netzwerken und Ensemble-Methoden basierende, Regressionsmodelle<br />
trainiert um die Simulation aus der verwendeten Fitnessfunktion zu<br />
entfernen. Unterschiedliche Metaheuristiken wie Particle Swarm Optimization,<br />
Active Cov. Matrix Adaption Evolution Strategy und genetische Algorithmen<br />
werden zur Verwendung von Regressionsmodelle adaptiert. Dazu wird eine<br />
zwei-phasige Optimierungsstrategie entwickelt. Die erste Phase sammelt<br />
Trainingsdaten <strong>für</strong> Regressionsmodelle. Die zweite Phase verwendet die<br />
Regressionsmodelle zur Approximation von Fitnesswerten. Verschiedene<br />
Möglichkeiten zu deren Integration, wie die abwechselnde Verwendung von<br />
Regression und Simulation, sowie das Filtern mittels Regression, werden<br />
analysiert. Abschließend werden die Ergebnisse der zwei-phasigen Optimierung<br />
mit Referenzlösungen von unmodifizierten Optimerungsalgorithmen verglichen.<br />
Dabei findet die zwei-phasige Optimierung ähnlich gute Lösungen wie<br />
die Referenzmethoden. Die gefundenen Modellparametereinstellungen<br />
korrespondieren mit den Gebieten in denen gute Lösungen erwartet werden.<br />
Die erforderliche Simulationszeit konnte mit der zwei-phasigen Optimierung<br />
um bis zu 27% verringert werden. Die evaluierten Modellparametereinstellung<br />
werden <strong>für</strong> ein Modell mit Hilfe von Self-Organizing Maps analysiert.<br />
46
Markus Putzenlechner<br />
Analyse und Implementierung von Fallzusammenführungen<br />
diagnosebezogener Fallgruppen aus Sicht eines<br />
Krankenhausinformationssystems<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />
Bei Diagnosis Related Groups (DRGs) handelt es sich um ein medizinisches<br />
Klassifikationssystem, um Diagnosen, Prozeduren und weitere patientenbezogene<br />
Daten in Fallgruppen zu gruppieren. Damit können Krankenhausaufenthalte<br />
einfacher und strukturierter abgerechnet und ausgewertet werden.<br />
Eine der Herausforderungen in der IT ist die Bestimmung der richtigen DRG<br />
und somit der zu bezahlenden Fallpauschale. Diagnosen werden gemäß der<br />
internationalen Klassifikation ICD10 codiert Operationen und Untersuchungen<br />
(als Prozeduren bezeichnet) werden nach einer Variante der internationalen<br />
Prozedurenklassifikation ICPM codiert. Weiters beeinflussen Nebendiagnosen,<br />
Komplikationen, Beatmungszeiten, Alter, Geschlecht etc. eine DRG. Eine Fallgruppe<br />
gilt dann als klassifizierbar, wenn der Patient entlassen wurde. Als Fall<br />
bezeichnet man eine Behandlungsepisode von der Aufnahme bis zur<br />
Entlassung. Wenn ein Patient jedoch nach einer Entlassung innerhalb einer<br />
Frist wieder in dasselbe oder ein anderes Krankenhaus aufgenommen wird,<br />
trifft man auf das Problem der Fallzusammenführungen. Hierbei muss man die<br />
Daten zu einem Fall zusammenführen und neu im DRG-System klassifizieren. In<br />
Deutschland und in der Schweiz kommen Fallzusammenführungen im Zusammenhang<br />
mit stationären Akutfällen vor. Jedoch sind die Regeln und die<br />
Bedingungen <strong>für</strong> Fallzusammenführungen in den einzelnen Ländern unterschiedlich.<br />
Aufgrund dieser Rahmenbedingungen ist eine Umsetzung dieses<br />
Regelwerks in einem Krankenhausinformationssystem (KIS) sehr komplex.<br />
Fallzusammenführungen sind abhängig von den einzelnen Fällen oder von<br />
DRGs bereits gekoppelter Fälle. Ab 2013 werden in Deutschland zusätzlich<br />
psychiatrische Fälle klassifiziert und können auch <strong>für</strong> Fallzusammenführungen<br />
in Frage kommen. Im Rahmen dieser Arbeit werden die Regelungen und<br />
Bedingungen <strong>für</strong> Fallzusammenführungen von Deutschland, Schweiz und<br />
Österreich analysiert und eine exemplarische Integration von Fallzusammenführungen<br />
in ein KIS dargestellt.<br />
Thomas Schnabl<br />
Critical Links Detection using CUDA<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />
The Critical Links Detection (CLD) Problem consists of nding for the smallest set<br />
of edges in a graph to be protected so that if a given number of unprotected<br />
edges are removed the diameter does not exceed a given value. The diameter<br />
of a graph is dened as the length of the All-Pair-Shortest-Path (APSP). This<br />
thesis presents an algorithm that takes an instance of a graph and calculates<br />
47
the minimal set of protected edges. For k simultaneously failing edges it checks<br />
all possible tuples of k edges if after temporarily removing them the diameter<br />
of the graph exceeds the limit. Afterwards a Integer Linear Programming (ILP)<br />
model is built up and solved, which is equivalent to choosing the minimal<br />
amount of edges from these sets to get a feasible solution. Since the calculation<br />
of diameters takes most of the process time, the thesis presents an<br />
improvement on the performance of the algorithm. A massive parallel approach<br />
is implemented using CUDA, a framework to run calculations on graphic<br />
cards, also called GPGPU. The chosen algorithm solves one Single Start<br />
Shortest Paths (SSSP) algorithm on one GPU processor, running one thread per<br />
vertex of the graph. The performance of the algorithm shows a speedup of<br />
30% using this approach on small instances and 70% improvement on large<br />
instances with over 1000 edges.<br />
Claus-Dieter Volko<br />
Selective Graph Coloring Problem<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Günther Raidl<br />
Beim Selective Graph Coloring Problem (SGCP) geht es darum, einen Teilgraphen<br />
mit spezieller Struktur zu finden, dessen chromatische Zahl so niedrig<br />
wie möglich ist. Der Ursprungsgraph ist in mehrere Cluster unterteilt, und von<br />
jedem Cluster muss der Teilgraph genau einen Knoten enthalten. Dieses<br />
Problem ist NP-schwer und wird daher meistens mit Heuristiken gelöst. Ich habe<br />
mehrere Varianten eines Algorithmus implementiert, der Variable Neighborhood<br />
Search (VNS) benutzt, um den Lösungsraum zu durchsuchen, und dann<br />
die gefundene Lösung mit heuristischen oder exakten Methoden evaluiert.<br />
Jede Variante kann mit oder ohne ein Lösungsarchiv verwendet werden. Ein<br />
Lösungsarchiv ist eine Datenstruktur, in der bereits gefundene Lösungen<br />
gespeichert werden, so dass Duplikate nicht neu evaluiert werden müssen,<br />
sondern effizient zu neuen Lösungen konvertiert werden können. Um eine<br />
obere Schranke zu errechnen, wurde eine Variante von Greedy Coloring<br />
verwendet. Eine weitere Variante des Algorithmus zählt auch die Anzahl der<br />
Konflikte, die entstünden, würde eine Farbe weniger verwendet werden.<br />
Schließlich wurden zwei Methoden umgesetzt, um eine untere Schranke zu<br />
berechnen: maximale Clique und lineare Programmierung mit Spaltengenerierung.<br />
Das Programm wurde mit verschiedenen Instanzen aus der Literatur<br />
getestet. Mein Algorithmus beendete die Berechnungen oft schon nach sehr<br />
kurzer Laufzeit, führte aber im Allgemeinen zu geringfügig schlechteren<br />
Ergebnissen.<br />
48
Arbeitsbereich Computergraphik<br />
Clemens Arbesser<br />
Large-Scale Noise Simulation and Visualization of Moving Point Sources<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />
Noise pollution is an ever increasing problem not just in urban environments<br />
but also in more rural areas such as small villages, along country roads or even<br />
in very sparsely populated regions. The demands of the industry and local<br />
governments often clash with the interests of people in the neighborhood,<br />
creating areas of conflict that often end up in court. Though in many countries<br />
noise assessments are mandatory in order to obtain building permission, these<br />
documents are usually not suited or sometimes conceivably not even intended<br />
to convey the impact of projects on their environment to the general public.<br />
The purpose of this master's thesis is to propose ways to simulate and visualize<br />
noise pollution in large-scale, non-urban environments in order to help communicate<br />
the impact of new sound emitters on affected neighbors. Knowledge<br />
of noise propagation, the influence of the terrain and other obstacles as well<br />
as how different emitters add up can provide valuable insights and help in the<br />
decision-making process. This knowledge may be particularly helpful when<br />
trying to decide on suitable locations for noise screens and/or when trying to<br />
find good places to offset some of the local noise emitters. The tool developed<br />
uses NVIDIA's CUDA architecture and the European norm "ISO 9613-2:<br />
Attenuation of sound during propagation outdoors" to create real-time visualizations<br />
in both 2D and 3D. Results are compared against ground truth data<br />
obtained by taking noise measurements in the field.<br />
Heinrich Fink<br />
GPU-based Video Processing in the Context of TV Broadcasting<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />
This thesis investigates GPU-based video processing in the context of a<br />
graphics system for live TV broadcasting. Upcoming TV standards like UHD-1<br />
result in much higher data rates than existing formats. To reach these data<br />
rates, the transfer of image data between main and graphics memory need to<br />
be overlapped with CPU-based and GPU-based processing. In this thesis, we<br />
therefore investigate the following questions: Which methods are available to<br />
a software implementation in order to reach this level of parallelism? Which<br />
data rates can actually be reached using these methods? We implement a<br />
prototype of a software for rendering TV graphics. To take advantage of the<br />
GPUs ability to efficiently process image data, we use the OpenGL application<br />
programming interface (API). We implement the transcoding between RGB and<br />
the professional video format V210, which is more complex to process than<br />
conventional consumer-oriented image formats. In our software, we apply the<br />
49
pipeline programming pattern in order to distribute stages of the video<br />
processing algorithm to different threads. As a result, those stages execute<br />
concurrently on different hardware units of the system. Our prototype exposes<br />
the applied degree of concurrency to the user as a collection of different<br />
optimization settings. We integrate a profiling mechanism directly into the<br />
execution of the pipeline, which allows us to automatically create performance<br />
profiles while running our prototype with various test scenarios. The results of<br />
this thesis are based on the analysis of these traces. Our prototype shows that<br />
the methods described in this thesis enable a software program to process<br />
high-resolution video in high quality. When optimizing performance, different<br />
driver implementations and hardware features require our prototype to apply<br />
different optimization settings for each device. The ability of our software<br />
structure to dynamically change the degree of concurrency is therefore an<br />
important feature.<br />
Rene Fürst<br />
Real-Time Water Simulation Using the Finite Element Method<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />
Water simulation in computer graphics has been the focus of many research<br />
papers in the last years. The proposed algorithms can be classified into offline<br />
simulation algorithms and realtime simulation algorithms, which have a big<br />
difference in their capabilities. Offline simulation algorithms can mostly<br />
simulate water with full detail in 3D because the processing time per frame is<br />
not limited very much. Real-time simulation algorithms, on the other hand,<br />
impose a hard limit on the processing time per frame and therefore many<br />
applications only rely on approximating water with 2D surfaces. While this<br />
works well for still water, effects such as breaking waves or simply pouring<br />
water into a tank, cannot be simulated. To accomplish this one has to rely on<br />
3D water simulation algorithms, which require a massive amount of processing<br />
resources, such that even when using current graphics processing units (GPUs)<br />
an optimized algorithm is required. There are two types of 3D water simulation<br />
approaches: particle-based Lagrangian and gridor mesh-based Eulerian<br />
approaches, of which the latter will be the main focus of this thesis. Current<br />
real-time capable Eulerian water simulation algorithms rely on many approximations<br />
which either cause water to leak without reason or decrease the<br />
generality of the algorithm. In this thesis a novel Eulerian fluid simulation<br />
algorithm is proposed, which relies on on a octreebased mesh that automatically<br />
adapts to any given water geometry. By this it is made sure that the<br />
algorithm is very general and that it provides good performance in almost any<br />
given situation. The equations evolved in 3D water simulation are discretized<br />
with the finite element method in a way, such that the resulting linear equation<br />
system can be solved efficiently. Therefore it is possible to let the algorithm<br />
run in real-time on current GPUs.<br />
50
Ivan Maricic<br />
Visual Feature Exploration for ssTEM Image Segmentation<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />
Der Forschungsbereich Computational Neuroanatomy verwendet rechnergestützte<br />
Techniken wie Visualisierung, Modellierung und Analyse, um die<br />
neuronalen Strukturen von Gehirnproben aus Bild-Stapeln (semi-)automatisch<br />
abzuleiten. Für die Gewinnung der Bilder, in der relevante Strukturen hoch<br />
genug aufgelöst sind, verwendet man die sogenannte Transmissionselektronenmikroskopie<br />
(TEM), die eine Pixelauflösung von unter 5 nm ermöglicht. Die<br />
manuelle Segmentierung dieser hochaufgelösten aber kontrastarmen und mit<br />
Aufnahmefehlern behafteten Bilder wäre allein wegen der hohen Auflösung<br />
der 200.000 Bilder mit 2.000.000×2.000.000 Pixel pro Bild in einem Kubikzentimeter<br />
Gehirnprobendatensatz impraktikabel. Da die Pixel einen geringen<br />
Wertebereich (8 Bits pro Pixel) haben und verschiedenste Aufnahmeartefakte<br />
beinhalten, ist eine vollautomatische Segmentierung fehleranfällig. Deshalb ist<br />
es wichtig, die Ergebnisse aufwendiger automatischer Segmentierungsverfahren<br />
zu quantifizieren, zu visualisieren und reproduzieren zu können. Diese<br />
Arbeit basiert auf dem Membran-Segment-ierungsverfahren von Kaynig-Fittkau<br />
[2011], welches <strong>für</strong> ssTEM Hirngewebe-Bilder unter anderem folgende Ausgaben<br />
liefert: (a) ein Zuversichtswert <strong>für</strong> jeden Pixel (bezüglich des analytischen<br />
Modelles der Benutzerwahl der Zellmembranen) der angibt, wie sicher sich das<br />
zugrundeliegende statistische Modell ist, dass das Pixel zur Membran gehört<br />
und (b) die nach der Optimierung erhaltenen Kanten, welche die Zellmembranen<br />
repräsentieren. Wir setzen genau hier an und verwenden Benutzerwissen<br />
ein weiteres Mal, um entscheiden zu können, welche und in welcher Form man<br />
Daten dem Random-Forest-Klassifizierer zur Verfügung stellen muss. Das Ziel<br />
dabei ist es, die Segmentierungsergebnisse zu verbessern, indem man die<br />
Qualität der Segmentierung verbessert, die Segmentierung beschleunigt oder<br />
den Speicheraufwand reduziert.<br />
Aaron Meier-Stauffer<br />
Realistic Local Lighting in Dynamic Height Fields<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />
This thesis presents a method to compute soft shadows from environment maps<br />
and local light sources on dynamic height fields, extending the work of Snyder<br />
and Nowrouzezahrai (Fast Soft Self-Shadowing on Dynamic Height Fields). While<br />
direct illumination in static scenes is very common in video games and 3D<br />
applications, realtime globalillumination methods supporting dynamic scenes<br />
and lights are still an active field of research. In this work, a short general<br />
introduction to global illumination and spherical harmonics is presented as well<br />
as an overview of the state of the art methods in interactive global illumination<br />
for height fields. In our method, visibility at each receiver point of a height field is<br />
51
determined by the visible horizon, which can be approximated efficiently using a<br />
multiresolution sampling approach. Local light sources are represented by<br />
spherical lights and the incident radiance at receiver points is projected into the<br />
spherical harmonic basis. Hence, this method produces convincing shadows on<br />
dynamic height fields more efficiently than global illumination methods for<br />
general geometry.<br />
Johannes Novotny<br />
Application of Smart Visibility on Medical 3D Ultrasound Datasets<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />
Ultrasonography is one of the standard medical imaging techniques used in<br />
pregnancy examinations. It is widely available due to its low cost, portability and<br />
simple diagnostic procedure. Three-dimensional ultrasound (US) imaging has been<br />
gaining popularity in the area of prenatal care recently. It provides examiners with a<br />
coherent visualization of the fetus. However, within scanned 3D data sets, the fetus<br />
is often surrounded by occluding structures which reduce its visibility in the<br />
resulting visualizations. Current ultrasound machines provide several methods to<br />
remove these occluders from visualizations. These methods are in general difficult<br />
to control. As a result, the work flow of US examinations has to be interrupted in<br />
order to apply occlusion removal to selected scans. To reduce the required user<br />
interaction, this thesis evaluates a recently developed occlusion removal technique.<br />
The smart visibility method for prenatal ultrasound uses a heuristic approach to<br />
identify anatomic features within a data set. From these features, a clipping surface<br />
that separates the fetus from its occluders is calculated. The use of the clipping<br />
surface in combination with cutaway and ghosting visualization techniques allows<br />
an unoccluded view of the fetus. The clipping surface calculated by the smart<br />
visibility method is obtained by using a surface reconstruction algorithm. Within this<br />
thesis, different surface reconstruction techniques were evaluated for their<br />
occlusion removal quality and performance. It was possible to show that one of the<br />
evaluated approaches provides good results in a majority of test cases. This<br />
approach also reduces the required user interaction to a single parameter. By using<br />
the hardware controls of an US machine to manipulate the adjustable parameter,<br />
the smart visibility method can be used in realtime scenarios. GE Healthcare is<br />
evaluating the smart visibility method and considers to include it in upcoming<br />
versions of their US machine firmwares.<br />
Simon Parzer<br />
Irrational Image Generator<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Eduard Gröller<br />
52<br />
Mit Hilfe eines von Hofstetter Kurt entwickeltem Verfahren, genannt Inductive<br />
Rotation (IR), kann auf einer zweidimensionalen Ebene aus einem einzigen
Startelement durch wiederholte Translation und Rotation ein komplexes,<br />
lückenloses Kachelmuster erzeugt werden. Diese Muster sind allem Anschein<br />
nach nicht periodisch und haben sowohl aus mathematischer als auch<br />
künstlerischer Sicht interessante Eigenschaften. Das IR-Verfahren wurde noch<br />
nicht in der wissenschaftlichen Literatur behandelt, aber ist am ehesten<br />
vergleichbar mit aperiodischen Kachelmustern wie sie z.B. bereits von Penrose<br />
beschrieben wurden. Die Diplomarbeit beschäftigt sich näher mit den durch<br />
Inductive Rotation erzeugten Mustern. Es wurden Algorithmen entwickelt, mit<br />
denen es möglich ist, die Rotationsschritte in einem Computerprogramm zu<br />
automatisieren. Die Implementierung schließlich ist der Irrational Image<br />
Generator, ein Programm, das einerseits als Referenzimplementierung <strong>für</strong> das<br />
genannte Verfahren dient, andererseits aber vom Künstler verwendet wird, um<br />
durch weiteres Experimentieren das IR-Verfahren künstlerisch auszureizen. Dem<br />
Irrational Image Generator gehen eine Reihe von Prototypen voraus, die dazu<br />
entwickelt wurden, um das Laufzeitverhalten und die Ergebnisse abschätzen zu<br />
können. Sowohl die Prototypen als auch das Endprodukt wurden von Hofstetter<br />
Kurt getestet. Dieser iterative Entwicklungsprozess führte dazu, dass das fertige<br />
Programm zwei unterschiedliche Implementierungen beinhaltet, die beide ihre<br />
Vor- und Nachteile haben. Es hat sich herausgestellt, dass sowohl Laufzeit als<br />
auch Speicherbedarf des IR-Algorithmus abhängig von der Anzahl der Iterationen<br />
exponentiell ansteigen. Dadurch sind Iterationszahlen nach oben hin begrenzt,<br />
reichen aber <strong>für</strong> künstlerische Zwecke aus.<br />
Günther Voglsam<br />
Real-time Ray Tracing on the GPU - Ray Tracing using CUDA and kD-Trees<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Associate Prof. Dr. Michael Wimmer<br />
In computer graphics, ray tracing is a well-known image generation algorithm<br />
which exists since the late 1970s. Ray tracing is typically known as an offline<br />
algorithm, which means that the image generation process takes several seconds<br />
to minutes or even hours or days. In this thesis I present a ray tracer which runs in<br />
real-time. Real-time in terms of computer graphics means that 60 or more images<br />
per second (frames per second, FPS) are created. To achieve such frame rates,<br />
the ray tracer runs completely on the graphics card (GPU). This is possible by<br />
making use of Nvidias CUDA-API. With CUDA, it is possible to program the<br />
processor of a graphics card similar to a processor of a CPU. This way, the<br />
computational power of a graphics card can be fully utilized. A crucial part of any<br />
ray tracer is the acceleration data structure (ADS) used. The ADS is needed to<br />
efficiently search in geometric space. In this thesis, two variants of so called kD-<br />
Trees have been implemented. A kD-Tree is a binary tree, which divides at each<br />
node a given geometric space into two halves using an axis aligned splitting<br />
plane. Furthermore, a CUDA library for the rendering engine Aardvark, which is<br />
the in-house rendering engine at the VRVis Research Center, was developed to<br />
access CUDA functionality from within Aardvark in an easy and convenient way.<br />
The ray tracer is part of a current software project called HILITE at the VRVis<br />
Research Center.<br />
53
Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung<br />
Arbeitsbereich Multidisciplinary Design<br />
Simon Diesenreiter<br />
Awareness im Enterprise 2.0 - Empirische Untersuchung über Awareness im<br />
Arbeitsumfeld einer Softwareentwicklungsfirma<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Associate Prof. Dr. Hilda Tellioglu<br />
Der Begriff Awareness in der CSCW-Forschung wird durch technische<br />
Neuerungen stetig vorangetrieben. Die Verwendung von Web 2.0-Technologien<br />
in Unternehmen auch bekannt als Enterprise 2.0 stellt eine solche<br />
Neuerung dar. Das Ziel der vorliegenden Arbeit ist es zu zeigen, wie Enterprise<br />
2.0-Systeme gemeinsam mit klassischen Informationssystemen im Arbeitsumfeld<br />
eingesetzt werden, um Awareness zwischen ArbeitskollegInnen herzustellen.<br />
Durch eine theoretische und empirische Analyse wird ein Modell von<br />
Awareness konstruiert, welches darstellt, welche Variablen, Mechanismen und<br />
Faktoren bei der Arbeit mit Awarenessinformationssystemen wirken und<br />
welche Beziehungen zwischen ihnen bestehen. Für die empirische Untersuchung<br />
wurde ob der Komplexität des Themas ein qualitativer Forschungsansatz<br />
im Stile der Grounded Theory gewählt. Zur Datenerhebung wurden in einer<br />
Softwareentwicklungsfirma eine Intranetrecherche, teilnehmende Beobachtung<br />
und ExpertInneninterviews durchgeführt. Die Analyse resultiert in einem<br />
Modell von Awareness, das aus den vier Kategorien Awarenessbedürfnisse,<br />
Awarenessmechanismen, Toolverwendung und Faktoren besteht und auf der<br />
Zusammenarbeit von KollegInnen und Teams in und mit einem Ökosystem von<br />
Anwendungen begründet ist. Das erarbeitete Modell baut in seinem Ursprung<br />
auf vorhandenen Modellen von Awareness auf, erweitert diese aber in einigen<br />
Punkten: Ereignis- und Kontextmodelle werden in der Kategorie Awarenessbedürfnisse<br />
durch die Inhalte von Awareness verfeinert und um den Begriff des<br />
Zustandes erweitert. Die Erfassung, Verarbeitung und Präsentation von<br />
Ereignissen und Zustand wird durch verschiedene Awarenessmechanismen<br />
ausdifferenziert. Toolverwendung nennt die Formalisierung von Awarenessinhalten<br />
als Grundvoraussetzung <strong>für</strong> die Umsetzung von Awareness mittels<br />
Tools. Bestehende Modelle von Awareness werden um organisatorische, toolund<br />
informationsbasierte Faktoren ergänzt.<br />
54
Andreas Hörmann<br />
Usability von benutzbaren Bewertungssystemen am Beispiel Tanzsport<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Associate Prof. Dr. Hilda Tellioglu<br />
Im Sport werden unterschiedliche Bewertungssysteme <strong>für</strong> die Unterstützung<br />
der WertungsrichterInnen eingesetzt. Die WertungsrichterInnen treffen subjektive<br />
Entscheidungen durch objektive Bewertungskriterien, um "zwischen" oder<br />
"<strong>für</strong>" TeilnehmerInnen im Wettkampf zu werten. Je schwieriger eine Entscheidung<br />
ist, umso länger dauert der Bewertungsprozess. Um Zeit zu sparen und<br />
den Fokus auf die TeilnehmerInnen zu richten, sollen Bewertungssysteme eine<br />
schnelle und einfache Bedienung bieten. Dabei stellt sich die Frage: Welche<br />
Veränderungen gibt es im Wertungsprozess durch die Verwendung von neuen<br />
Technologien? Die neuen Smartphone- und Tablet-Technologien offerieren<br />
eine immer größer werdende Vielfalt an Möglichkeiten <strong>für</strong> die Entwicklung<br />
neuer mobiler Anwendungen. Einfache Interaktion und eine gute Usability<br />
tragen zu einer guten User Experience bei und die BenutzerInnen sind<br />
verleitet, die Anwendung weiter zu benutzen und zu empfehlen. Der Fokus<br />
dieser Arbeit liegt auf der Prototypisierung und Evaluierung eines benutzbaren<br />
Bewertungssystems <strong>für</strong> den Tanzsport mit dem Schwerpunkt Usability. Der<br />
Bewertungsprozess im Tanzsport ist sehr komplex und unterscheidet sich stark<br />
von anderen Sportarten. Die Vor- und Nachteile der unterschiedlichen<br />
Bewertungsmethoden wurden ermittelt und deren Potential <strong>für</strong> die Zukunft<br />
festgestellt.<br />
Arbeitsbereich Human Computer Interaction<br />
Katharina Hartl<br />
Lern-Apps <strong>für</strong> Vorschulkinder - Entwicklung von Gestaltungs-Guidelines und<br />
Evaluation bestehender Systeme<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />
Da in den letzten Jahren die Anzahl der Benutzer von Tablets und Smartphones<br />
geradezu explodiert ist und sie in nahezu jeder Tasche zu finden sind,<br />
erschließen sich immer wieder neue Anwendungsfelder. Durch den häufigen<br />
Einsatz dieser Devices wird die stets vorhandene natürliche Neugierde von<br />
Kindern geweckt. Immer Jüngere zählen zur Konsumentengruppe sogenannter<br />
Apps, weshalb es vermehrt Anwendungen gibt, die auf diese Zielgruppe<br />
zugeschnitten sind. Besonders die Nische der Lern-Apps, in denen während der<br />
Verwendung Wissen vermittelt werden soll, ist eine stetig Wachsende. In gut<br />
entwickelter Kindersoftware wird Rücksicht auf die Bedürfnisse und den<br />
Entwicklungsstand der Kinder, z.B. bezüglich der Aufmerksamkeitsspanne oder<br />
der Kommunikationsweise, genommen. Da die Entwickler von Apps oft nur<br />
beschränktes Wissen über diese Umstände haben, werden in dieser Arbeit<br />
Guidelines erarbeitet, die ihnen entscheidende Informationen zur optimalen<br />
55
Implementierung von Lern-Apps <strong>für</strong> Kinder zwischen 4 und 7 Jahren liefern<br />
sollen. Dazu wird zuerst die Zielgruppe durch eine systematische wissenschaftliche<br />
Literaturstudie analysiert und so entscheidende Erkenntnisse gewonnen.<br />
Nach dem Erstellen des Guidelinessets wird dieses durch den Test von einigen<br />
Apps mithilfe der heuristic walkthrough-Strategie validiert. In einer Überarbeitung<br />
des Guidelinekatalogs können mögliche Lücken oder Fehlformulierungen<br />
entdeckt und ausgemerzt werden. Das Ergebnis dieser Arbeit stellt ein 41<br />
Richtlinien umfassender Guidelinekatalog dar, der auf die besonderen Herausforderungen<br />
im Zuge der Entwicklung von Apps <strong>für</strong> Vorschulkinder hinzuweisen<br />
versucht.<br />
Daniel Kececi<br />
Towards a Unified Solution for Course-Related Communication<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
The possibility of communicating online within the context of courses in Higher<br />
Education is essential, especially for lectures aimed at a large number of<br />
students and not least because of the evolution of so-called Massive Open<br />
Online Courses. Within this thesis, aspects of web-based, course-related communication<br />
are investigated in order to explore the difficulties and challenges<br />
in this field of subject. A practical project was designed, implemented and evaluated<br />
with the aim of providing a unified and new, contemporary approach to<br />
course-related communication. This thesis focuses on theoretical foundations,<br />
a detailed state-of-the-art review as well as on design principles derived from<br />
Exploratory Research which are, in consequence, integrated into the practical<br />
project in terms of a prototype.<br />
Stephanie Kühnl<br />
AAL Economy Compass - Analysis of the economic potential of Ambient<br />
Assisted Living projects/products in Austria<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />
56<br />
The population of Austria is getting older. Due to this demographic ageing a<br />
lot of work is done in the area of Ambient Assisted Living (AAL). AAL includes<br />
technical resources that enable older people in need of care to live independently<br />
in their own homes. Therefore, it is of interest which economic benefits<br />
Austria could have through the use of Ambient Assisted Living. One aim of this<br />
thesis is to show these benefits. For this, informations about care costs in<br />
Austria will be gathered and a survey is made to get information about<br />
companies and their Ambient Assisted Living projects and the costs related to<br />
the development of these projects. After an analysis of the collected information<br />
with regard to the benefit for Austria, it can be seen that there are major<br />
possible savings through the use of Ambient Assisted Living. Due to the fact
that the change of living environment could be postponed for over one year,<br />
the independent life of people in need of care is extended. Thus, Austria can<br />
save a lot of financial support. The other aim of the theses was to create a<br />
single point of resource. A database has been extended to contain all gathered<br />
information about the AAL projects.<br />
Andreas Lenzhofer<br />
Theorie und Praxis der Gamification am Beispiel des IIASA Geo-Wiki-Projekts<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
In den vergangenen Jahren haben sich die Anforderungen an Crowdsourcing-<br />
Projekte stark geändert. Die Generierung von Aufmerksamkeit stellt <strong>für</strong> viele<br />
Projekte nicht mehr die zentrale Fragestellung dar. Vielmehr geht es um die<br />
Frage, wie die Aufmerksamkeit der Masse in Engagement, Partizipation und<br />
Motivation umgewandelt werden kann. Das Geo-Wiki-Projekt, eine partizipative<br />
Plattform zur Validierung von globalen Landbedeckungskarten, steht vor ähnlichen<br />
Problemen. Game-Designerinnen und -Designer haben sich in den<br />
letzten 30 Jahren Werkzeuge und Methoden angeeignet, mit denen sie die<br />
Massen begeistern und unterhalten. Eine mögliche Antwort auf das Engagement-Problem<br />
kann daher der strategische Einsatz von Game Design-Methoden<br />
sein. Seit Anfang 2011 ist ein Trend in diese Richtung erkennbar, der unter<br />
dem Neologismus Gamification eine breite Aufmerksamkeit erreicht hat. Gamification<br />
beschreibt im Allgemeinen den Einsatz von Game Design-Elementen in<br />
spielfernen Umgebungen mit dem Ziel, sämtliche Lebensbereiche, digital wie<br />
analog, motivierender, unterhaltsamer und interessanter zu gestalten. In der<br />
vorliegenden Arbeit werden folglich die Konzepte der Gamification beleuchtet<br />
und anhand theoretischer Grundlagen aus den Feldern der Game Studies und<br />
der Motivationspsychologie analysiert. Das Ergebnis dieser Arbeit ist ein<br />
Gameful Design-Konzept, das das Geo-Wiki in einen spielerischen, unterhaltsamen<br />
und motivierenden Kontext einbettet und das Engagement der Nutzerinnen<br />
und Nutzer nachhaltig fördern kann.<br />
Martin Sereinig<br />
Integration von Vorlesungsaufzeichnungen in »Slidecasting«<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
Die aktive Einbindung von Studierenden in großen Vorlesungen ist schon<br />
lange Gegenstand der Forschung. Am Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung<br />
der <strong>TU</strong> <strong>Wien</strong> wird bereits seit Jahren eine Web-Applikation Slidecasting<br />
entwickelt, die es Studierenden ermöglicht, sich während und nach der<br />
Vorlesung durch das Verfassen von Beiträgen einzubringen. In den letzten<br />
Jahren ist außerdem das Interesse an der Aufzeichnung und Auslieferung von<br />
Vorlesungen im universitären Umfeld gestiegen. Auch an der <strong>TU</strong> <strong>Wien</strong> ist<br />
57
mittlerweile Infrastruktur vorhanden, um Vorlesungen aufzuzeichnen und über<br />
das Internet abrufbar zu machen. Ziel dieser Diplomarbeit ist es, diese beiden<br />
Themengebiete zu verbinden. Durch die Integration von Vorlesungsaufzeichnungen<br />
in Slidecasting soll eine Lernumgebung entstehen, die es Studierenden<br />
nicht nur erlaubt Vorlesungen nochmals anzuhören, sondern auch eine Umgebung<br />
schafft, die es Studierenden ermöglicht, sich gemeinsam mit anderen<br />
Studierenden konstruktiv mit den Inhalten der Vorlesung auseinanderzusetzen.<br />
Die im Rahmen der Diplomarbeit entwickelte Anwendung wurde im<br />
Sommersemester 2013 in zwei Lehrveranstaltungen des Instituts <strong>für</strong> Gestaltungs-<br />
und Wirkungsforschung eingesetzt. Dieser Einsatz der Software diente<br />
zum einen der Detailgestaltung der Anwendung im laufenden Betrieb. Zum<br />
anderen wurden während dieses Einsatzes Daten über das Nutzungs-verhalten<br />
der Studierenden erhoben, die als Anhaltspunkt <strong>für</strong> weitere Entwickl-ungen an<br />
diesem Projekt dienen können.<br />
Thomas Wruß<br />
Guidelines to Support Design and Development of Trust in Mobile Community<br />
Applications<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
Diese Diplomarbeit setzt sich mit dem Thema der Vertrauensbildung in sozialen<br />
Netzwerken <strong>für</strong> Smartphones auseinander. Es wird die mobile Applikation<br />
Open-Share-It, welche im Zuge dieser Diplomarbeit erstellt wurde, beschrieben.<br />
Sie ist ein gutes Beispiel <strong>für</strong> eine mobile Applikation in der Vertrauen<br />
eine wichtige Rolle spielt. Ansätze um besseres Vertrauen in solchen<br />
Applikationen zu erzeugen werden mittels Recherche, Interviews und einer<br />
Umfrage erforscht. Die daraus resultierenden Ergebnisse sind in Guidelines<br />
zusammengefasst. Diese Guidelines sollen helfen, sowohl das Vertrauen der<br />
User in die Applikation zu stärken, als auch das Vertrauen zwischen den Usern<br />
mithilfe der mobilen Applikation zu unterstützen. Neben der Beschreibung des<br />
Open-Share-It Projektes wird auch auf Zusammenhänge des Projektes mit der<br />
Diplomarbeit näher eingegangen und die mobile Applikation mit den<br />
Guidelines verglichen.<br />
58
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme<br />
Arbeitsbereich Information & Software Engineering<br />
Stefanie Beyer<br />
Towards automated digital alibis<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />
In recent years, society is using media and communication technology more.<br />
One consequence of this is that there is more opportunity for its abuse, as well<br />
as use in crime. If there is more criminal usage of digital communication<br />
technology, we need to reliably be able to use digital evidence in both prosecutions<br />
and criminal defence cases. The main focus of this study is to show that<br />
forging of digital alibis is possible, which can impact on the reliance on digital<br />
evidence. The creation of a digital alibi using automation is the focus of other<br />
studies, and we are also looking at: social interaction during the simulation of a<br />
users behaviour, and whether behaviour can be simulated realistically and with<br />
limited computer evidence of the simulation. For this purpose an alibi framework<br />
is created that mimicked a typical users behaviour. This automation is<br />
intended to be implemented in such a way that it may not be possible to<br />
decide whether the traces of exercising actions recorded on the computer<br />
originate from either: a human user or a simulated user. Furthermore, forensic<br />
analysis is applied to verify whether the framework leaves any traces behind<br />
that could indicate the usage of a simulator. Social interaction is simulated by<br />
using a chatbot which used email and messaging and analysed the computers<br />
for their performance in creating a digital alibi. The performance criteria for the<br />
framework was based on metrics taken from real person computer behaviour.<br />
By evaluating the forensic analysis of simulated users hard drive and the real<br />
persons behaviour, it turned out that the simulator fits in the average range of<br />
real persons for nearly all categories. Therefore, simulation of users behaviour<br />
is possible, on condition that determining the sources of digital evidence is<br />
hard to verify. However, having a closer look at social communication, there is<br />
room for improvement, e.g. the chatbots text comprehension and email<br />
content.<br />
Peter Michael Bodesinsky<br />
Visualization of Compliance with Medical Guidelines<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />
Clinical guidelines recommend applicable actions in a specific clinical context.<br />
Computer Interpretable Guidelines (CIG) aim to achieve guideline integration<br />
into clinical practice and to increase health care quality. Analyzing compliance<br />
59
with a CIG can facilitate implementation and assist in the design of CIGs, but<br />
enabling medical experts to derive insights from this wealth of data is a<br />
challenging task. In this thesis the procedural checking of compliance with an<br />
example guideline (artificial ventilation of newborn infants) is combined with<br />
interactive visualization. The approach suggested in this thesis covers actionbased<br />
checking of compliance with a CIG, three types of actions considering<br />
compliance are defined: invalid actions, valid actions and missing actions.<br />
Visual mappings and encodings for compliance information found in the<br />
course of this work have been integrated into views for patient, treatment and<br />
guideline data. Highlighting and visual abstraction inside views for timeoriented<br />
patient parameters are supported. The plan-execution view, showing<br />
the executed actions during a treatment session, is enriched with encodings<br />
for invalid actions and interval-based representations of repeatedly missing<br />
actions. Furthermore aggregated compliance information is represented visually<br />
inside a view showing the guideline structure. The approach presented in<br />
this thesis is based on the extension of the CareCruiser prototype and implemented<br />
in Java. A low scale evaluation was conducted with a physician to<br />
gather qualitative data and feedback. Results indicate that the visual encodings<br />
for compliance information seem to be intuitive and useful in general,<br />
suggestions and found issues give input for future adaptions and refinements.<br />
Christian Bors<br />
Storage and Visualization of Heterogeneous Data from Online Social Networks<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />
60<br />
Analyzing the information provided by the users in Online Social Networks<br />
(OSNs) is on the one hand a tedious task but on the other hand people lose<br />
control of the information they have shared with the network, this leaves the<br />
door open for criminals and their counterpart: Forensic investigators. The<br />
context of this thesis is to develop a software tool which facilitates analysis of<br />
Social Snapshots split up into two major modules, the first one being a storage<br />
solution and the other one dealing with visualization and analysis assignments.<br />
Utilizing a database solution we make the usually complex data set easily<br />
accessible and available to be further processed. In terms of visualization we<br />
are focusing on automated graph representations of social networks providing<br />
high usability. This is paired with an export functionality generating comprehensive<br />
reports of a single social snapshot. To store and access such a heterogeneous<br />
set of data efficiently we assess different database concepts and<br />
implement a traditional relational database as well as a modern NoSQL database<br />
to determine an optimal solution regarding performance and accessibility.<br />
An abstract access model delivers queried data to the - visualization as well as<br />
statistics related - processing modules, coverting the underlying physical database<br />
connection. These processing modules are integrated into Gephi, a<br />
comprehensive graph visualization tool, harboring all snapshot analysis related<br />
functionality. Efficient graph representations and clustering methods provide<br />
an easily comprehendible social network overview. After having analyzed a
social snapshot the user can choose to generate a comprehensive report<br />
containing general snapshot information, graph visualizations and statistic<br />
results. The thesis is finalized with an evaluation of the proposed function set<br />
emphasizing the performance of the storage modules, the information content<br />
of the provided visualizations and the user interface's usability.<br />
Robert Krejci<br />
Storage and Visualization of Heterogeneous Data from Online Social Networks<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />
Analyzing the information provided by the users in Online Social Networks<br />
(OSNs) is on the one hand a tedious task but on the other hand people lose<br />
control of the information they have shared with the network, this leaves the<br />
door open for criminals and their counterpart: Forensic investigators. The<br />
context of this thesis is to develop a software tool which facilitates analysis of<br />
Social Snapshots split up into two major modules, the first one being a storage<br />
solution and the other one dealing with visualization and analysis assignments.<br />
Utilizing a database solution we make the usually complex data set easily<br />
accessible and available to be further processed. In terms of visualization we<br />
are focusing on automated graph representations of social networks providing<br />
high usability. This is paired with an export functionality generating comprehensive<br />
reports of a single social snapshot. To store and access such a heterogeneous<br />
set of data efficiently we assess different database concepts and<br />
implement a traditional relational database as well as a modern NoSQL<br />
database to determine an optimal solution regarding performance and accessibility.<br />
An abstract access model delivers queried data to the – visualization as<br />
well as statistics related - processing modules, coverting the underlying<br />
physical database connection. These processing modules are integrated into<br />
Gephi, a comprehensive graph visualization tool, harboring all snapshot analysis<br />
related functionality. Efficient graph representations and clustering methods<br />
provide an easily comprehendible social network overview. After having<br />
analyzed a social snapshot the user can choose to generate a comprehensive<br />
report containing general snapshot information, graph visuali-zations and<br />
statistic results. The thesis is finalized with an evaluation of the proposed<br />
function set emphasizing the performance of the storage modules, the<br />
information content of the provided visualizations and the user interface's<br />
usability.<br />
61
Josef Dabernig<br />
Geocluster: Server-side clustering for mapping in Drupal based on Geohash<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
This thesis investigates the possibility of creating a server-side clustering<br />
solution for mapping in Drupal based on Geohash. Maps visualize data in an<br />
intuitive way. Performance and readability of mapping applications decreases<br />
when displaying large amounts of data. Client-side clustering uses JavaScript to<br />
group overlapping items, but server-side clustering is needed when many<br />
items slow down processing and create network bottle necks. The main goals<br />
are: implement real-time, server-side clustering for up to 1,000,000 items<br />
within 1s and visualize clusters on an interactive map. Clustering is the task of<br />
grouping unlabeled data in an automated way. Algorithms from cluster analysis<br />
are researched in order to create an algorithm for server-side clustering with<br />
maps. The proposed algorithm uses Geohash for creating a hierarchical spatial<br />
index that supports the clustering process. Coordinates are encoded as string<br />
identifiers with a hierarchical spatial structure. The use of a Geohash-based<br />
index allows to significantly reduce the time complexity of the clustering<br />
process. Three implementations of the clustering algorithm are realized as the<br />
Geocluster module for the free and open source web framework Drupal. The<br />
first algorithm implementation based on PHP, Drupals scripting language,<br />
doesnt scale well. A second, MySQL-based clustering has been tested to scale<br />
up to 100,000 items within one second. Finally, clustering using Apache Solr<br />
scales beyond 1,000,000 items and satisfies the main research goal of the<br />
thesis. In addition to performance considerations, visualization techniques for<br />
putting clusters on a map are evaluated in an exploratory analysis. Map types<br />
as well as cluster visualization techniques are presented. The evaluation<br />
classifies the techniques for cluster visualization on maps and provides a<br />
foundation for evaluating the visual aspects of the Geocluster implementation.<br />
Peter Frühwirt<br />
Defence side reconnaissance: Preliminary surveying of an attacker's profile<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Privatdoz. Dr. Edgar Weippl<br />
62<br />
Die steigende Komplexität von Systemen und die dadurch resultierende<br />
Vergrößerung des Angriffsvektors macht es Angreifern leichter, in Systeme<br />
einzudringen. Als Verteidiger ist man oft dazu gezwungen, die Lage vorab<br />
schnell einschätzen und eine passende Verteidigungsstrategie entwickeln zu<br />
müssen. Die bekannteste Möglichkeit zur Absicherung der eigenen Netzwerke<br />
sind Intrusion Detection Systeme (IDS). IDS erkennen Angriffe anhand von<br />
vordefinierten, statischen Signaturen oder anhand von Verhalten von<br />
Benutzern. Bestehende System haben oft das Problem, dass sie auf Grund von<br />
Signaturen relativ unflexibel sind und dadurch von Angreifern leicht umgangen<br />
werden können. Diese Arbeit befasst sich mit den theoretischen Konzepten der
Erkennung von Angreifern und erweitert bestehende Modelle durch Machine<br />
Learning Mechanismen. Durch Verbesserung und Kombination von statischen<br />
Signaturen mit einem Machine Learning Ansatz, konnte eine neue Technik zur<br />
Erkennung von Angriffen entwickelt werden, welche die Fehlerzahl bei der<br />
Erkennung stark reduziert. Unser Ansatz ermöglicht die Erstellung von Signaturen<br />
ohne Expertenkenntnissen durch manuelle Klassifikation von Netzwerkpaketen.<br />
Mit Hilfe von Machine Learning Techniken können neue Pakete<br />
anhand dieses Models erkannt werden. Gleichzeitig kann das bestehende<br />
Modell durch die neuen Pakete weiter verbessern werden.<br />
Harald Hofstätter<br />
A Datapipe Engine for Smartphones based on XProc - For building (Context<br />
aware) Workflows<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Einer der Erfolgsfaktoren von Smartphones ist die hohe Anzahl an mobilen<br />
Applikationen (Apps). Jedes mobile Betriebssystem besitzt seinen eigenen<br />
App-Markt mit bis zu mehreren hunderttausenden Apps. Trotz dieser enormen<br />
Anzahl kann nicht <strong>für</strong> jeden Use Case eine existieren, wobei besonders hoch<br />
personalisierte Anwendungsfälle nicht abgedeckt werden. Findet ein Benutzer<br />
keine App die seine Anforderungen erfüllt, ist er in den seltensten Fällen in der<br />
Lage eine eigene, auf Grund von (1) fehlenden Programmierkenntnissen, zu<br />
hohem Zeitaufwand und (3) Kosten <strong>für</strong> bestimmte Platformen, zu entwickeln.<br />
In dieser Arbeit wurde eine Workflow Engine <strong>für</strong> Android erstellt, die es<br />
Benutzern ohne großem technischem Wissen erlaubt, mobile Workflows zu<br />
erstellen um persönliche Use Cases abzudecken. Da<strong>für</strong> wurde die XProc<br />
Referenzimplementierung Calabash auf Android portiert und um smartphonespezifische<br />
Steps, wie zum Beispiel das Auslesen der aktuellen Position,<br />
Versenden von Kurzmitteilungen oder Erstellen von Benutzeroberflächen,<br />
erweitert. Zusätzlich wurde ein Trigger-Mechanismus implementiert um Workflows<br />
aufgrund von Änderungen des Benutzerkontexts, wie zum Beispiel Zeit,<br />
Ort oder das empfangen einer Kurzmitteilung, auszuführen. Eine Leistungsmessung<br />
bestätigte, dass das Ausführen eines bereits in Objektrepräsentation<br />
vorliegenden Workflows keine Geschwindigkeitseinbußen gegen-über nativ<br />
entwickelten Android Apps aufweißt. Das entwickelte System erlaubt es<br />
Benutzern Workflows platformneutral und standardisiert (XProc) zu erstellen.<br />
Kommunikationsmöglichkeiten (zum Beispiel SMS oder Twitter) erlauben<br />
verteilte Workflows welche mehrere Geräte umfassen. Ein zentrales Workflow-<br />
Repository ermöglicht das Veröffentlichen von Workflows, so dass andere<br />
Benutzer diese benutzen können. Des Weiteren fungiert es als Registrierung<br />
<strong>für</strong> "Workflows as a Service", welche wiederum "Human Services" ermöglichen,<br />
wie zum Beispiel Restaurantempfehlungen <strong>für</strong> eine bestimmte Stadt.<br />
63
Manuel Maly<br />
Retrieval and Visualization of Subjective Artist Similarity for Music Libraries on<br />
Android Devices<br />
Studium: Masterstudium Information & Knowledge Management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Music has long been an important part of human culture, and its playback has<br />
become an integral cultural component of high importance. Digitalization of<br />
music recordings has not only introduced superior sound quality to everybody's<br />
living room, but has also enabled transmission of large music<br />
collections via the internet. Since user interfaces for music playback software<br />
have not changed much in the last years, they are not necessarily optimized for<br />
the exploration of collections of millions of music files. The scope of this<br />
master's thesis is to investigate a promising visualization of artists in 2D space<br />
(through integration of artist similarity) for mobile applications. The main<br />
questions this thesis asks are whether the chosen method to compute music<br />
similarity is feasible in the context of mobile apps, and whether 2D visualization<br />
is well suited for search and exploration of objects therein. These questions are<br />
investigated on their technical feasibility by finding and optimizing methods for<br />
the efficient retrieval of music similarity, and through the construction of an<br />
Android app prototype. A user study is planned and carried out, comparing<br />
important aspects of the prototype with other existing music apps for Android.<br />
The study shall find out whether contents can be found quicker within a<br />
collection. Hints and explanations can be derived: The implemented 2D<br />
visualization of music artists (incorporating their similarity) seems to positively<br />
affect the users' memorization ability of contained objects. A better mental<br />
model can be built in this context. Search of objects in a music collection seem<br />
to not be positively affected by the proposed visualization, as compared to<br />
other forms. However, leaving aside list-based visualization forms, the<br />
prototype performed comparably well for search and exploration. It is<br />
concluded that the proposed concepts are promising, but that further research<br />
is necessary to resolve the problems which have been found.<br />
Felix Mayerhuber<br />
A Dynamic Java-Based Model-To-Model Transformation Environment<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
64<br />
This thesis deals with the theoretical concept and the practical approach of the<br />
model transformation solution used in the Open Engineering Service Bus<br />
(OpenEngSB) project, a tool integration platform with the goal of archiving<br />
efficient interoperation between tools in multidisciplinary environments. The<br />
proposed approach provides an easy to use model transformation solution<br />
which is also flexible and runtime extensible. The approach is based on Java.<br />
Transformation operations are Java methods and models are realised as Java<br />
classes' structures (specifically, in means of classes, their attributes and their
elations to other classes). The advantage of this approach is that it can be<br />
adapted by every Java developer to address project requirements and their<br />
changes (e.g. by adding new operations). In addition, no expertise in formal<br />
high-level abstraction modelling and meta modelling is needed; only<br />
knowledge about Java is required. Based on the introduced transformation<br />
solution, an approach is introduced to enable a simple form of automatic<br />
model update propagation. With this approach, it is possible to define relations<br />
between model instances and enforce data integrity between them. The<br />
prototype has been tested by its application in practical use-cases out of the<br />
OpenEngSB domain and the OpenEngSB customer area. In addition to these<br />
use-case tests, the introduced transformation definition language has been<br />
compared with other existing approaches and the prototypes performance has<br />
been tested.<br />
Barbara Müllner<br />
Die Didaktik des Biber-Wettbewerbs<br />
Studium: Unterrichtsfach <strong>Informatik</strong>/<strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />
Die vorliegende Arbeit befasst sich mit der Didaktik des internationalen<br />
SchülerInnenwettbewerbs Biber der <strong>Informatik</strong>. Vorgesehen ist der Wettbewerb<br />
<strong>für</strong> alle SchülerInnen von der 5. bis zur 13. Schulstufe und erfordert keinerlei<br />
Vorwissen auf dem Gebiet der <strong>Informatik</strong>. Der Wettbewerb zielt darauf ab das<br />
Interesse der SchülerInnen bezüglich der <strong>Informatik</strong> zu wecken und darauf<br />
aufmerksam zu machen. Um diese wertvolle Idee zu unterstützen, steht im<br />
Zentrum dieser Arbeit die Frage „Wie kann der Biber der <strong>Informatik</strong> in den<br />
Schulunterricht integriert werden?“. Konkrete Literatur zur Didaktik des Biber-<br />
Wettbewerbs gibt es leider keine, deswegen musste ich auf vorhandenes<br />
Wissen zurückgreifen. Mittels Fragebögen und eigener Kreativität konnte ich<br />
bereits erprobte Techniken eruieren und weitere erstellen. Durch Interviews mit<br />
Experten wurde es möglich einen Vergleich zu anderen Ländern herzustellen.<br />
Das eine oder andere Interview brachte sogar neue Ideen auf. Es wurden<br />
Möglichkeiten gefunden, wie der Biber der <strong>Informatik</strong> zusätzlich zu der<br />
Wettbewerbswoche in den Schulunterricht integriert werden kann. Die verschiedenen<br />
Techniken der Integration können in verschiedenen Anwendungsgebieten<br />
und Situationen eingesetzt werden. Dazu gibt es mögliche<br />
Stundenbilder, die übernommen oder verändert werden können. In den<br />
Bildungsstandards Digitaler Kompetenzen und sowohl im Allgemeinen als auch<br />
im fachspezifischen Lehrplan wurden einige Passagen gefunden, die mit den<br />
Aufgaben des Bibers konform gehen.<br />
65
Paul Panhofer<br />
Ein Technologieentwurf <strong>für</strong> eine Klasse skalierender Webapplikationen<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />
Web 2.0 is becoming the Buzz Word in the Distributed Systems community.<br />
The technological standards for Web Applications are continually changing<br />
resulting in a new stack of non-functional requirements. The focus of the thesis<br />
is to find a scaleable architecture for a special class of distributed softwaresystems.<br />
The processing of large amounts of data in a timely manner is key.<br />
The CAP Theorem helps us to establish a classification of dataprocessing<br />
distributed systems. This classification is key to understand the different<br />
properties and requirements in the process of developing the software<br />
architecture in question. The comparison of different classes of dataprocessing<br />
systems gives us an idea of the problem. RDBMS and NoSQL Systems are the<br />
current dataprocessing technologies. We have created two Softareprototypes.<br />
One prototype has been created as a NoSQL System the other one is using<br />
RDBMS for dataprocessing. We have been running different tests to learn<br />
about the performance, scalability and elastic speed up of the prototypes}. We<br />
have learned that RDBMS as a dataprocessing technology is not able to give us<br />
the scalability we need. On the other hand NoSQL solutions are a tool that<br />
helps us to develop a scalable architecture.<br />
Matthias Rainer<br />
Digital archiving, processing, and didactic use of historical source documents.<br />
The case of the Stock collection.<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Karl Fröschl<br />
66<br />
A large amount of information still dwells in archives, printed on paper and out<br />
of reach of todays search engines. While it might not be necessary (or even<br />
possible) to manually process all that data, it could still prove useful to have it<br />
indexed and available for search. Such digitized information archives could be<br />
used as reference in research and educational projects. This thesis is the<br />
documentation of such a digitization project. The analog media used for this<br />
project is the Stock collection: twelve cardboard boxes filled with approximately<br />
1400 articles, information material, and other papers with a focus on<br />
automation and information technology in libraries. The state of the art is<br />
evaluated based on the U.S. Library of Congress American Memory Project. The<br />
best practices learned in the American Memory Project are freely available<br />
online as guidelines for anybody planning to digitize paper media. These<br />
guidelines will be evaluated in an attempt to transfer the Stock collection from<br />
its original paper form to a hypertext system. The digitized articles of the Stock<br />
collection will then be made available online as part of the "Die Informatisierung<br />
Österreichs" project, hosted by the Austrian Computer Society. The<br />
motivation to do so is to preserve this collection and make it available for fur-
ther research. Since only a fraction of the Stock collection was transferred during<br />
the evaluation, a manual for further processing will be provided as part of<br />
this project, with the intention that the process steps can be applied to other<br />
projects as well.<br />
Christian Weiss<br />
Transferring Open Government Data into the global Linked Open Data Cloud<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Linked Open Data (LOD) bezeichnet Daten, die unter Verwendung eines<br />
offenen und maschinenlesbaren Formates im Web publiziert werden und mit<br />
anderen offenen Datenquellen verlinkt sind. Die Verfügbarkeit von LOD ist<br />
eine der wichtigsten Voraussetzungen <strong>für</strong> die Realisierung der Vision des<br />
Semantic Web. Initiativen wie DBpedia und das Linking Open Data community<br />
project haben die Verbreitung von Linked Open Data deutlich vorangetrieben.<br />
Richtlinien <strong>für</strong> Datenqualität und Inhalt von offenen Daten sind mittlerweile<br />
verfügbar und eine Vielzahl von verschiedene Datenquellen ist bereits in der<br />
Linked Open Data Cloud enthalten. Regierungen in verschiedenen Regionen<br />
der Welt haben ebenfalls begonnen, Daten offen über das Internet zu publizieren.<br />
Die Stadt <strong>Wien</strong> z.B. hat Datensätze im Rahmen ihrer Open Government<br />
Data Initiative (OGD) veröffentlicht. Diese Datensätze wurden in verschiedenen<br />
Formaten online gestellt, sind allerdings untereinander isoliert und wurden<br />
nicht nach den Richtlinien <strong>für</strong> Linked Open Data entworfen. Seitens der <strong>Wien</strong>er<br />
OGD Initiative ist die Veröffentlichung der Daten in LOD geplant, durch die<br />
angestrebte Koordination mit anderen OGD Initiativen befindet sich dieses<br />
Vorhaben aber noch in einer frühen Planungsphase. Das Ziel dieser Diplomarbeit<br />
ist es, anhand einer Auswahl von Daten der OGD Initiative der Stadt<br />
<strong>Wien</strong> zu zeigen, dass diese in Linked Open Data konvertiert werden können.<br />
Die konvertierten Daten müssen dabei den Richtlinien bzgl. LOD entsprechen<br />
und werden auf einem Webserver veröffentlicht um neue Anwendungsfälle<br />
wie komplexe Abfragen mittels SPARQL zu ermöglichen.<br />
Arbeitsbereich Interactive M edia Systems<br />
Sebastian Böhm<br />
BCI-Based Cursor Control Using EEG Sensorimotor Rhythms<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />
Brain-computer interfaces (BCIs) are human-computer interaction systems in<br />
which users communicate with a computer via a direct neural interface. Braincomputer<br />
interfaces have historically been closely associated with assistive<br />
technology for persons with disabilities, but the past few years have seen an<br />
increase in publications on human-computer interfaces for people without<br />
67
disabilities. The goal of a cursor control BCI is to control the position of a cursor<br />
via brain signals. While there have been a number of publications on cursor<br />
control using BCIs, most of them focus on controlling a cursor in custom-built<br />
experimental applications. The present thesis describes the design and<br />
implementation of a cursor control BCI prototype that translates EEG sensorimotor<br />
input into one-dimensional cursor movement and can be accessed using<br />
standard input interfaces. Since the BCI is accessible via standard input<br />
interfaces, existing input libraries can be used to create experimental<br />
applications and the BCI can be used to control existing applications.<br />
Michael Bressler<br />
A Virtual Reality Training Tool for Upper Limb Prostheses<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Privatdoz. Dr. Hannes Kaufmann<br />
Der Gebrauch von myoelektrischen Handprothesen ermöglicht es, Steuersignale<br />
<strong>für</strong> die Prothese mittels Elektroden zu erfassen, welche direkt auf der<br />
Haut platziert werden. Allerdings muss der Betroffene den Heilungsprozess der<br />
Amputation abwarten, bevor er damit anfangen kann, eine Prothese zu<br />
verwenden. Außerdem kann dieser Prozess vor allem am Anfang schwierig und<br />
frustrierend sein. In dieser Arbeit wird eine Trainingsanwendung vorgestellt,<br />
welche es erlaubt, in einem virtuellen Raum mit einer Hand nach Kugeln zu<br />
greifen, wo<strong>für</strong> eine jeweils der Kugel enstprechende Griffkraft aufgewendet<br />
werden muss. Um die virtuelle Realität zu erschaffen, wird das Tracking-System<br />
ioTracker verwendet, welches an der technischen Unversität <strong>Wien</strong> entwickelt<br />
wurde. Mit diesem System werden die Bewegungen von Kopf und Arm des<br />
Akteurs in 6 Freiheitsgraden aufgezeichnet (Position und Orientierung) und an<br />
eine Anwendung übertragen, welche mit der Game Engine Unity3D entwickelt<br />
wurde. Hier werden die Bewegungsdaten in eine virtuelle 3D Umgebung<br />
übertragen und visualisiert. Das Bild der virtuellen Kamera, welche mit dem<br />
Kopf des Akteurs mitbewegt wird, wird drahtlos an ein am Kopf des Akteurs<br />
befestigtes Display (Head mounted display, HMD) übertragen. Da diese Arbeit<br />
in Zusammenarbeit mit Otto Bock durchgeführt wurde, konnte <strong>für</strong> die<br />
Steuerung der virtuellen Hand die gleiche Technologie verwendet werden, wie<br />
sie in der von Otto Bock entwickelten Michelangelo Handprothese eingebaut<br />
ist. Das Ziel dieser Arbeit bestand sowohl in einer Trainingsumgebung als auch<br />
in einer Testumgebung <strong>für</strong> Handprothesen. Daher gibt es mehrere Optionen,<br />
die elektromyographischen Steuersignale auf die virtuelle Hand anzuwenden.<br />
Weiters können diverse Simulationsarten <strong>für</strong> die Erzeugung von Griffkraft<br />
verwendet werden. Ebenfalls wurden Optionen implementiert, um das<br />
Erstellen und Durchführen von unterschiedlichen Test- und Trainingsszenarion<br />
zu ermöglichen.<br />
68
Jakob Matthias Fellner<br />
Pattern-Based MIDI Composing<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />
Die vorliegende Diplomarbeit beschäftigt sich mit Ansätzen des algorithmischen<br />
Komponierens. Verfahren aus diesem Bereich sollen dabei mit der<br />
Disziplin der Mustererkennung vereint werden. Das Ziel der Arbeit ist die<br />
Generierung von neuen Musikstücken, welche deutliche Parallelen zu zuvor<br />
ausgewählten Kompositionen aufweisen. Zu diesem Zweck werden kurze und<br />
prägnante Notenfolgen, sogenannte Motive, aus diversen Liedern extrahiert.<br />
Die so gewonnenen Teile dienen anschließend als Input <strong>für</strong> Verfahren der<br />
algorithmischen Komposition. Die erstellten Musikstücke sollen einen möglichst<br />
harmonischen Klangeindruck hinterlassen. Im Zuge dieser Diplomarbeit wurde<br />
ein Software-System implementiert, welches in der Lage ist, Motive in Musikstücken<br />
zu finden und diese im Anschluss zu extrahieren. Weiters wurden zwei<br />
unterschiedliche Verfahren der algorithmischen Komposition ausgewählt,<br />
welche sich in der umgesetzten Software aus den Ergebnissen der Motiv-<br />
Erkennung bedienen. Auf dieser Basis können Musikstücke im MIDI-Format<br />
generiert werden. Als Hinführung auf das Thema der Motiv-Extraktion und der<br />
algorithmischen Komposition werden zunächst unterschiedliche Verfahren und<br />
Ansätze im Detail erläutert. Im Anschluss wird das Konzept der implementierten<br />
Software vorgestellt. Am Ende der Arbeit erfolgt die Präsentation der erzielten<br />
Ergebnisse anhand der Evaluierung einer quantitativen Umfrage.<br />
Christoph Fuchs<br />
Videosegmentierung durch Analyse audiovisueller Merkmale<br />
Studium: Masterstudium Visual Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />
Die Segmentierung und Klassifikation von Videos ist aufgrund der steigenden<br />
Anzahl von digitalen Videos manuell nicht mehr zu beherrschen. Es werden<br />
Algorithmen benötigt, die in der Lage sind aus dem Videomaterial relevante<br />
Informationen zu extrahieren, welche <strong>für</strong> aussagekräftige Beschreibungen<br />
geeignet sind. In der vorliegenden Diplomarbeit wird ein System zur Klassifikation<br />
von Videos durch Analyse audiovisueller Merkmale vorgestellt. Ein solches<br />
Vorhaben stellt auf beliebigem Videomaterial ein komplexes Problem dar, da<br />
diese Merkmale in der Lage sein sollen, die semantische Bedeutung von<br />
Bildern und Audiosignalen aus Videos zu erfassen. Aus diesem Grund wird in<br />
dieser Arbeit der Anwendungsbereich der Videoklassifikation auf Szenen der<br />
Muppet Show beschränkt. Zunächst werden grundlegende Ansätze und<br />
Methoden zur Videoanalyse in einer umfassenden Literaturstudie erklärt. Nach<br />
einem kurzen Überblick über die Entstehung der Muppet Show, zeigt eine<br />
Analyse des Videomaterials die charakteristischen Eigenschaften auf. Basierend<br />
auf den gewonnenen Erkenntnissen werden aussagekräftige audiovisuelle<br />
Merkmale und geeignete Klassifikationsmodelle vorgestellt, die <strong>für</strong> die Ent-<br />
69
wicklung eines Prototyps herangezogen worden sind. Zuletzt wird die Qualität<br />
der Klassifikationsresultate mit Hilfe verschiedener Evaluierungstests ausgewertet.<br />
Dabei wird aufgezeigt, dass sowohl visuelle Merkmale, wie die<br />
Verteilung von Farbe, als auch die Segmentierung des Audiosignals in Musik,<br />
Sprache und Umgebungsgeräusche in der Lage sind, die semantische Bedeutung<br />
von Videoszenen aus der Muppet Show zu erfassen.<br />
Christoph Kaltenriner<br />
Autonome Lokalisierung und Navigation eines unbemannten Luftfahrzeugs<br />
(UAV) mithilfe eines Smartphones als zentrale Recheneinheit<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Privatdoz. Dr. Hannes Kaufmann<br />
Als UAV (Unmanned Aerial Vehicle) werden Fluggeräte bezeichnet, die ohne<br />
Pilot an Board gelenkt werden. Meist werden UAVs von einer Person per<br />
Fernsteuerung oder einem Computer über eine Basisstation gesteuert. Voraussetzungen<br />
da<strong>für</strong> sind eine permanente Verbindung zum UAV, Sichtkontakt und<br />
zusätzliche Infrastruktur sowie Hardware <strong>für</strong> die Basisstation. In vielen Fällen ist<br />
es jedoch nicht möglich, diese Kriterien zu erfüllen. Hier ist es notwendig, dass<br />
sich das UAV in einer unbekannten Umgebung autonom lokalisieren und<br />
navigieren kann. Zur Lokalisierung kann speziell in Innenraum-Anwendungen<br />
nur selten ein GPS-Signal herangezogen werden. Eine alter-native Möglichkeit<br />
zur Lokalisierung ist die Verwendung von Landkarten. Eine solche Karte ist<br />
allerdings in den seltensten Fällen im Vorhinein (a-priori) vorhanden, weshalb<br />
es sich anbietet, diese automatisch während des Flugs zu erstellen. Hier<strong>für</strong> ist<br />
zusätzlich eine leistungsstarke Hardware notwendig, die entsprechend leicht<br />
sein muss, um vom UAV getragen werden zu können. Die Autoren zeigen im<br />
Rahmen dieser Arbeit, dass ein UAV <strong>für</strong> Innenraum-Anwendungen aus<br />
preisgünstigen Komponenten gebaut werden kann und ein handelsübliches<br />
Smartphone an Bord des UAVs als Einheit zur autonomen Steuerung<br />
verwendet. Zu diesem Zweck wurde ein entsprechender Prototyp konstruiert.<br />
Dieser Prototyp ist in der Lage, sich mithilfe speziell da<strong>für</strong> ent-wickelter<br />
Algorithmen in einer <strong>für</strong> das UAV unbekannten Testumgebung aus 2D-Markern<br />
zu lokalisieren. Durch eine Tracking-Software werden diese Marker eindeutig<br />
identifiziert und ermöglichen das Erstellen einer Karte zur Laufzeit. Anhand<br />
dieser Karte kann sich das UAV lokalisieren und während des Flugs<br />
Steuerbefehle <strong>für</strong> die autonome Navigation generieren. Die durchgeführten<br />
Tests zeigen, dass ein handelsübliches Smartphone eine sehr gute Möglichkeit<br />
bietet, die notwendigen Komponenten wie Prozessor, Kamera und Kommunikationseinheit<br />
in einem leichten und kostengünstigen Gerät zu vereinen.<br />
70
Michael Leichtfried<br />
Autonome Lokalisierung und Navigation eines unbemannten Luftfahrzeugs<br />
(UAV) mithilfe eines Smartphones als zentrale Recheneinheit<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Privatdoz. Dr. Hannes Kaufmann<br />
UAVs (Unmanned Aerial Vehicle) sind Fluggeräte, die ohne menschlichen<br />
Piloten an Bord gesteuert werden. Sie werden vorrangig zur Erkundung schwer<br />
oder nicht erreichbarer Gebiete eingesetzt. Dazu müssen sich diese in einer<br />
unbekannten Umgebung autonom orientieren können. Oft dient dabei GPS als<br />
externe Referenz <strong>für</strong> die Positionsbestimmung. In Innenräumen und Gebieten<br />
ohne GPS-Abdeckung müssen jedoch alternative Methoden in Betracht gezogen<br />
werden. Ein Ansatz sind sogenannte SLAM-Algorithmen (Simultaneous<br />
Localization and Mapping), die beispielsweise mit Hilfe von on-Board Kameras,<br />
markante Punkte in der Umgebung erkennen und daraus während des Flugs<br />
eine Landkarte zur Orientierung aufbauen. Die dazu notwendige Hardware<br />
muss sowohl leistungsstark sein um die Algorithmen in Echtzeit zu verarbeiten<br />
als auch ein geringes Gewicht aufweisen, um vom UAV getragen werden zu<br />
können. In dieser Arbeit wird gezeigt, dass ein aktuelles handelsübliches Smartphone<br />
als zentrale on-Board Recheneinheit diesen Anforderungen gerecht<br />
werden kann. Es wurde ein UAV-Prototyp konstruiert, der sich ohne GPS in<br />
einer unbekannten Innenraumumgebung lokalisieren und während des Flugs<br />
eine Karte dieser Umgebung erstellen kann. Diese Karte dient anschließend als<br />
Grundlage <strong>für</strong> die autonome Navigation. Als Testumgebung dienen 2D<br />
Markierungspunkte (Marker), die beliebig auf dem Boden ange-bracht wurden.<br />
Die Marker werden mit der Smartphone-Kamera aufgenommen und<br />
anschließend <strong>für</strong> das Kartieren und Lokalisieren verarbeitet. Sämtliche Algorithmen<br />
<strong>für</strong> den autonomen Flug werden vom Smartphone verarbeitet, eine<br />
zusätzliche Bodenstation ist nicht notwendig. Da das Smartphone alle notwendigen<br />
Komponenten <strong>für</strong> den autonomen Flug integriert, können sowohl<br />
Gewicht als auch Kosten gespart werden.<br />
Thomas Tschach<br />
Kontrollflusstransformation von BPMN zu Asbru<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />
BPMN ist eine weitverbreitete und gut verständliche, grafische Beschreibungssprache<br />
<strong>für</strong> Geschäftsprozesse und wird von einer Vielzahl von Modellierungswerkzeugen<br />
unterstützt, während Asbru eine XML-basierte Beschreibungssprache<br />
<strong>für</strong> ausführbare, medizinische Leitlinien ist, die nur durch wenige<br />
grafische Modellierungswerkzeuge unterstützt wird. Durch Definieren einer<br />
Modelltransformation zwischen BPMN und Asbru könnte die durch ausgereifte<br />
Werkzeuge gut unterstützte, standardisierte und wohlbekannte Notation herangezogen<br />
werden, um medizinische Leitlinien und Behandlungspläne in Asbru<br />
zu modellieren. Da die beiden Modelle unterschiedliche Paradigmen zur Re-<br />
71
präsentation des Kontrollflusses nutzen, müssen einige Probleme in Bezug auf<br />
deren Transformation gelöst werden. Ziel dieser Arbeit ist es, diese Probleme<br />
aufzuzeigen und Lösungsansätze in verwandten Bereichen zu finden. Daher<br />
werden (1) Transformationsstrategien diskutiert, die Lösungen <strong>für</strong> diese<br />
Transformationsprobleme auf Basis von Übersetzungen zwischen graforientierten<br />
Prozessbeschreibungssprachen und BPEL aufzeigen. Des Weiteren wird<br />
(2) beschrieben, wie und welche Kontrollflussmuster von BPMN und Asbru<br />
unterstützt werden, um etwaige Diskrepanzen aufzuzeigen. Anschließend wird<br />
(3) ein Mapping von BPMN-Elementen auf Asbru-Elemente definiert, und (4) die<br />
Eignung der oben angesprochenen Transformationsstrategien <strong>für</strong> die Umsetzung<br />
in einem BPMN-zu-Asbru Transformationssystem überprüft. Abschließend<br />
wird (5) das implementierte Transformationssystem anhand der Übersetzung<br />
der einzelnen Kontrollflussmuster beschrieben. Die gewonnen Erkenntnisse<br />
und gezogenen Parallelen können verwendet werden, um eine Transformation<br />
zwischen BPMN und Asbru zu realisieren, wie dies am implementierten<br />
Prototypen gezeigt wurde.<br />
Arbeitsbereich Business Informatics<br />
Thomas Franz<br />
Automatisiertes White-Box Testen <strong>für</strong> regelbasierte Modelltransformationen<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
72<br />
Softwaremodelle werden nicht mehr nur <strong>für</strong> Entwurfszwecke genutzt, sondern<br />
sind ein Hauptelement im Software Engineering Prozess geworden. Modellierungssprachen<br />
werden genutzt um Modelle darzustellen, die eine Basis <strong>für</strong><br />
die weitere Entwicklung bilden. Neben den Modellierungssprachen spielen in<br />
der modellgetriebenen Softwareentwicklung auch Modelltransformationen<br />
eine entscheidende Rolle. Das Ziel einer Modelltransformation ist ein bestimmtes<br />
Quellmodell in ein gewünschtes Zielmodell zu transformieren. Oftmals<br />
schlagen Modelltransformationen fehl und die Fehlersuche ist mühsam und<br />
langwierig, da diese in der Transformation selbst oder in den Metamodellen<br />
liegen können. Eine weitere Herausforderung ist es eine hohe Testabdeckung<br />
zu erreichen. Ziel dieser Arbeit ist das Auffinden eines automatisierten Ablaufs,<br />
der regelbasierte Transformationen testen kann. Dabei soll ein Tool in Java<br />
implementiert werden, welches auf der Metamodellierungssprache Ecore und<br />
regelbasierten Modelltransformationen in der ATL aufbaut. Es wird ein automatisierter<br />
White-Box Testing Ansatz entwickelt. Außerdem sollen mit Hilfe<br />
einer automatischen Generierung von Testinstanzen eine hohe Testabdeckung<br />
sichergestellt und verschiedene Fehler, vor allem Laufzeitfehler in der Transformation<br />
aufgezeigt werden. Basierend auf einem objektiven Testdatenset<br />
von Modelltransformationen der Übungs-aufgaben aus der Lehrveranstaltung<br />
"Model Engineering" der <strong>Technische</strong>n Universität <strong>Wien</strong> der Jahre 2009 bis<br />
2012 wird eine Evaluierung in Form einer Fallstudie durchgeführt. Die Ergebnisse<br />
zeigen, dass das entwickelte WBT-Tool viele verschiedene Fehler, sowohl<br />
bei der Validierung der Modelle, als auch in der Transformation selbst aufzeigt.
Das Tool birgt den Vorteil auch komplexere Testdatensets automatisch testen<br />
zu können, da bis auf die Anfangseinstellungen keine weitere Interaktion notwendig<br />
ist.<br />
Sabine Wolny<br />
Automatisiertes White-Box Testen <strong>für</strong> regelbasierte Modelltransformationen<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Softwaremodelle werden nicht mehr nur <strong>für</strong> Entwurfszwecke genutzt, sondern<br />
sind ein Hauptelement im Software Engineering Prozess geworden. Modellierungssprachen<br />
werden genutzt um Modelle darzustellen, die eine Basis <strong>für</strong> die<br />
weitere Entwicklung bilden. Neben den Modellierungssprachen spielen in der<br />
modellgetriebenen Softwareentwicklung auch Modelltransformationen eine<br />
entscheidende Rolle. Das Ziel einer Modelltransformation ist ein bestimmtes<br />
Quellmodell in ein gewünschtes Zielmodell zu transformieren. Oftmals<br />
schlagen Modelltransformationen fehl und die Fehlersuche ist mühsam und<br />
langwierig, da diese in der Transformation selbst oder in den Metamodellen<br />
liegen können. Eine weitere Herausforderung ist es eine hohe Testabdeckung<br />
zu erreichen. Ziel dieser Arbeit ist das Auffinden eines automatisierten Ablaufs,<br />
der regelbasierte Transformationen testen kann. Dabei soll ein Tool in Java<br />
implementiert werden, welches auf der Metamodellierungssprache Ecore und<br />
regelbasierten Modelltransformationen in der ATL aufbaut. Es wird ein automatisierter<br />
White-Box Testing Ansatz entwickelt. Außerdem sollen mit Hilfe<br />
einer automatischen Generierung von Testinstanzen eine hohe Testabdeckung<br />
sichergestellt und verschiedene Fehler, vor allem Laufzeitfehler in der Transformation<br />
aufgezeigt werden. Basierend auf einem objektiven Testdatenset<br />
von Modelltransformationen der Übungsaufgaben aus der Lehrveranstaltung<br />
"Model Engineering" der <strong>Technische</strong>n Universität <strong>Wien</strong> der Jahre 2009 bis<br />
2012 wird eine Evaluierung in Form einer Fallstudie durchgeführt. Die<br />
Ergebnisse zeigen, dass das entwickelte WBT-Tool viele verschiedene Fehler,<br />
sowohl bei der Validierung der Modelle, als auch in der Transformation selbst<br />
aufzeigt. Das Tool birgt den Vorteil auch komplexere Testdatensets automatisch<br />
testen zu können, da bis auf die Anfangseinstellungen keine weitere<br />
Interaktion notwendig ist.<br />
Gerald Margreiter<br />
SERAPIS 2 Ecore - Bridging Two Modeling Spaces in Eclipse<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
As the approach of Model-Driven Engineering (MDE) is becoming mainstream<br />
in modern software development practices, there is a growing variety of tools<br />
to support the lifecycle of modeling artifacts. Standards such as Meta-Object<br />
Facility (MOF) defined by the Object Management Group (OMG) help to avoid<br />
73
information loss when trying to integrate multiple modeling tools across their<br />
technical boundaries. The Eclipse-based modeling tool SERAPIS by Sphinx IT<br />
Consulting defines a proprietary meta-language which is not compliant to MOF<br />
or any other modeling standard. As a consequence, metamodels specified in<br />
this meta-language and therefore also the instantiations of these metamodels<br />
cannot be interchanged with existing tools based on standards such as MOF<br />
which results in a vendor-lock for customers. The contribution of this master<br />
thesis is to develop a transformation approach allowing to translate metamodels<br />
and models from the SERAPIS technical space to the Eclipse Modeling<br />
Framework (EMF), which employs the meta-language Ecore as the de facto<br />
standard corresponding to MOF. The strategy to achieve this is based on an<br />
approach presented in the Ph.D. thesis by Dr. Manuel Wimmer who suggests a<br />
semi-automatic transformation for metamodels by mapping the corresponding<br />
meta-languages. Moreover, we specialize this approach to also enable the<br />
automatic transformation of SERAPIS models based on the mappings of their<br />
metamodels. The transformation approach developed in this work is implemented<br />
in the Eclipse DIE in order to prove its feasibility and to evaluate the<br />
generated results.<br />
Michal Skackov<br />
Web-based B2B documents mapping and transformation using Smooks Data<br />
Integration Framework hosted as cloud service<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Christian Huemer<br />
74<br />
This thesis aims to enable SMEs and non-profit organisations to trade within<br />
electronic markets using modern, freely available information technologies and<br />
systems. These businesses are not capable of investing in integration, but are<br />
forced by larger business partners or governments to produce business<br />
documents of a certain standard. To help address these issues a free of charge,<br />
cloud-hosted transformation between two different business document types<br />
is explored. Related research questions are addressed in order to enable direct<br />
transformation using the Smooks Data Integration Framework by applying<br />
current technology to offer transformation as SaaS with the help of a Webbased<br />
mapping tool. This thesis follows the guidelines of design science<br />
research methodology. The main parts consist of related work relevant to B2B<br />
electronic exchange of structured business documents, their mapping and<br />
subsequent transformation. In summary, this thesis provides an overview of<br />
related work on B2B business document standards, their mapping and<br />
transformation, as well as current integration tools. The major contribution is<br />
the prototype implementation of a Web-based system using Smooks to<br />
transform business documents. The most complex part relates to the actual<br />
interpretation of mapping and consecutive transformation. The implementation<br />
of the Web-based editor for mapping models for the data integration<br />
framework Smooks relates to a wide range of technologies. The jQuery<br />
framework, a library for JavaScript, is used for the user interface. The<br />
transformation works with help of FreeMarker, a template engine, and is hosted
as a freeof-charge cloud computing service within a Google App engine using<br />
Java. In conclusion, the prototype although not an out-of-the-box solution,<br />
allows users to define schema mapping with functionality comparable to that<br />
offered by products already on the market.<br />
Christoph Zehetner<br />
An Adaptable OCL Engine for Validating Models in Different Tool Environments<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
The need for validating models automatically, in the early design phase arose<br />
with the emergence of the Model-Driven Development (MDD) paradigm.<br />
Models are not any longer used just for brainstorming and communication<br />
purposes. The Object Management Group (OMG) suggests the usage of the<br />
Unified Modelling Language (UML) to define platform-independent models.<br />
UML has been widely accepted as the de facto standard for modelling objectoriented<br />
systems. This master thesis pointed out that UML models are not<br />
necessary expressive enough to provide all complex aspects of a system. Some<br />
aspects of the domain are more expressed in natural language, which will lead<br />
to ambiguities and to errors. There-fore the Object Constraint Language (OCL)<br />
can be used to specify conditions on models that must hold for the system.<br />
Apart from the development of standards for modelling systems, several<br />
vendors developed modelling tools or so called Computer-Aided Software<br />
Engineering (CASE) tools to provide a wide range of instruments to support the<br />
MDD approach. The support depends on the ven-dors realization of the<br />
standards. In general there is a lack of validating models in CASE tools, which is<br />
essential in the early design phase. Additionally, there is only little support for<br />
writing OCL expressions for models. Thus, models defined by users of such<br />
tools are not nec-essarily valid against the wellformedness rules (WFR). The<br />
contribution of this masters thesis is to provide an adaptive solution for<br />
managing OCL transformation in different environments or CASE tools.<br />
Mappings patterns are defined to manage the schema matching between<br />
selectable environments (source and target schema). The OCL expressions are<br />
applied to a selectable source schema, which is mapped to a target schema.<br />
The goal of this work is to analyse the OCL expression and generate a<br />
semantically equivalent expression in the target schema depending on predefined<br />
trans-formation patterns.<br />
75
Arbeitsbereich E-Commerce<br />
Ilker Baltaci<br />
Service Recommendation<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
Empfehlungssysteme werden als ein wichtiges Management- und<br />
Marketinginstrument betrachtet, die nicht nur sowohl <strong>für</strong> die Online-Kunden als<br />
auch <strong>für</strong> Dienstleister sehr viele Vorteile bieten können. Ein effizientes<br />
Empfehlungssystem kann fast alle Aufgaben von einem Verkaufsberater<br />
erfüllen. In Folge der einzigartigen Eigenschaften von Dienstleistungen wie die<br />
Teilnahme der Kunden und der Dienstleistungsmitarbeiter an dem Service-<br />
Prozess sowohl die unterschiedlichen Dienstleistungsqualitätsabmessungsmodelle<br />
gelten die Services mehr als immaterielle Güter. Bei der Implementierung<br />
eines dienstleistungsorientierten Empfehlungssystems sind die speziellen<br />
Eigenschaften und Dimensionen von Dienstleistungen explizit zu berücksichtigen.<br />
Diese Masterarbeit befasst sich mit den generischen Dimensionen der<br />
Dienstleistungen, die sich bei den herkömmlichen gut-orientierten Empfehlungssystemen<br />
nicht befinden. Potentielle Probleme der Dienstleistungskunden<br />
während des Kaufprozesses können mit Hilfe von Empfehlungssystemen<br />
beseitigt werden, die auf Grund der immateriellen, untrennbaren,<br />
verderblichen und variablen Natur von Dienstleistungen auftreten können.<br />
Diese Arbeit beschäftigt sich mit den zusätzlichen Rollen der Empfehlungssysteme<br />
<strong>für</strong> Dienstleistungskunden in Bezug auf die sogenannten Eigenschaften<br />
von Dienstleistungen. Der empirische Teil der Masterarbeit beschreibt<br />
ein generisches Empfehlungsmodel, das gezielt auf die Anforderungen von<br />
Dienstleistungskunden und Empfehlungssystembenutzern implementiert wird.<br />
Das generische Modell wird in einer Restaurantempfehlung-Anwendung eingesetzt<br />
und mit Hilfe von einem vordefinierten Daten-Set evaluiert.<br />
Öncü Pinar Kaya<br />
Online Learning Communities and Business Strategies<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
76<br />
Due to economic and technological changes, eLearning sector had finally been<br />
able to take his place in the business world, and undoubtedly, it will continue<br />
to grow in governments, universities, companies and professional associations.<br />
ELearning is now a part of the organizational infrastructure to increase the productivity<br />
of companies such as sales effectiveness, improving companys<br />
competency, and to build better customer relationship. The most important<br />
factor to deliver an eLearning service and to be successful is an efficient<br />
eLearning strategy, which need to act in response to the rapid changes in the<br />
technology. The purpose of this research is to give ideas about the definition<br />
of an online learning community, characteristics and types of online learning
communities, community of practice (CoP), and the motivation behind it. After<br />
giving fundamental literature about online learning communities, the research<br />
will be set up with building and growing eLearning communities. The question<br />
is when building an online learning community, who participates, and their<br />
technologies that are used today. Further research introduces the Business<br />
Model Ontology (BMO) by Osterwalder&Pigneur for eLearning, and analyzes<br />
nine building blocks of BMO including monetization strategies and success<br />
factors with case studies of eight online learning communities.<br />
Philip Messlehner<br />
Conceptualization of Feature Models for multi-client capable mobile<br />
Applications<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Christian Huemer<br />
Die Datenspeicherung wird zunehmend in die Cloud verlagert. Gleichzeitig<br />
bauen viele Unternehmen auf mobile Applikationen, um Ihre Geschäftsprozesse<br />
abzubilden und abzuwickeln. Die bereitgestellten mobilen Applikationen<br />
der Cloud-Anbieter erfüllen jedoch nicht die Anforderungen dieser<br />
Unternehmen. Dabei verhindern folgende drei Probleme den Einsatz<br />
bestehender Applikationen. An erster Stelle sind die Applikationen nicht um<br />
die notwendigen Funktionen erweiterbar die benötigt werden, um diese sinnvoll<br />
im Geschäftsumfeld einzusetzen. Des Weiteren gibt es keine Anpassungsmöglichkeiten,<br />
um die Benutzeroberfläche an die Corporate Identity einer<br />
Firma anzupassen. Der Vertrieb dieser Applikationen wird über AppStores<br />
abgewickelt, die Firmen selbst können somit auch nicht steuern, welche<br />
BenutzerInnen diese Applikationen nutzen. Die Lösung <strong>für</strong> diese Probleme ist<br />
ein systematischer Umgang mit Variabilität in Applikationen, welche durch die<br />
unterschiedlichen Anforderungen der Unternehmen entstehen. Hierbei sollen<br />
Konzepte der Produktlinienentwicklung in die Domäne der mobilen Applikationen<br />
übertragen werden. Aus diesem Grund wird in dieser Arbeit ein Feature<br />
Modell erarbeitet, welches die Anforderungen der Unternehmen widerspiegelt.<br />
Des Weiteren werden Mechanismen entwickelt, um die unterschiedlichen Arten<br />
von Variabilität in Objective-C abzubilden. Sowohl das Feature Modell als auch<br />
die entwickelten Werkzeuge werden verwendet, um eine mobile Software-<br />
Produktlinie zu schaffen. Von dieser Software-Produktlinie sollen die<br />
verschiedenen Applikationen <strong>für</strong> Unternehmen effektiv abgeleitet werden. Mit<br />
der entwickelten Software-Produktlinie ist es möglich flexible Applikation<br />
abzuleiten, die um Module und Komponenten je nach Wunsch der KundInnen<br />
erweitert werden können. Somit können die Applikationen auch auf die<br />
jeweiligen Geschäftsprozesse perfekt zugeschnitten werden.<br />
77
Christina Stödtner<br />
Poking Cultural Institutions: Social Media Analysis for Museums in Vienna<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />
People share their opinions and stories with friends and strangers over various<br />
platforms. The connections that users create while interacting with each other<br />
influence them in their daily decisions. Moreover, information gathered on<br />
social media platforms offers valuable clues of what people are interested in. In<br />
my thesis, I explored 32 cultural institutions located in Vienna and how they<br />
use social media. I observed both the institutions and users on social media<br />
platform. I performed the following steps for my analysis: First, I studied what<br />
kind of information is public available for analysis. I found out what platforms<br />
are used by cultural institutions and how many people they reach with their<br />
messages on them. Furthermore, I compared how active the selected museums<br />
participated in social networks, how many users they attracted and if those<br />
numbers correlate. At the other end of the spectrum, I intended to investigate<br />
the characteristics and behaviour of users who interacted with cultural<br />
institutions on social media platforms in general. I illustrated what kind of<br />
content people like in order to create a successful social media strategy. After<br />
data collection, I performed statistical tests to evaluate my research questions<br />
and hypothesis. I explored that social media activities have a positive effect on<br />
the popularity of cultural institutions. Therefore, I compared the activity of<br />
museums with the activity and behaviour of people interacting with them. My<br />
results also demonstrated that users who interact with cultural institutions on<br />
social networks show different characteristics than the overall user population<br />
of those networks. In conclusion, I give insights in how social media analysis<br />
can be valuable for businesses in general and cultural institutions in particular.<br />
78
Department <strong>für</strong> Raumplanung<br />
Chin-Han Yan<br />
Predictive Analytics - Anwendungsperspektiven <strong>für</strong> die österreichische<br />
Finanzverwaltung<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ass.Prof. Dr. Johann Bröthaler<br />
Business Analytics ist die Evolution des traditionellen Business Intelligence in<br />
Form von Predictive Analytics. Während Business Intelligence sich noch im<br />
Bereich der Auswertung und der Visualisierung von Informationen aus der<br />
Vergangenheit und Gegenwart beschäftigt, liegt der Fokus von Predictive<br />
Analytics darin, aus Business Intelligence mögliche Aussagen über zukünftige<br />
Entwicklungen zu treffen. Der Einsatz von Predictive Analytics ermöglicht es<br />
Unternehmen bzw. Organisationen auf der Basis von Vorhersagemodellen<br />
vorausschauend zu agieren und künftige Entwicklungen rechtzeitig zu erkennen.<br />
Dabei geht es nicht mehr nur darum beispielweise globale Umsatzziele<br />
zu prognostizieren, sondern spezifische Entwicklungen <strong>für</strong> einzelne Kundensegmente<br />
oder sogar das Verhalten individueller Kunden zu prognostizieren.<br />
Die österreichische Finanzverwaltung befindet sich im Moment in der Phase der<br />
Modernisierung. Im Rahmen der E-Government-Offensive wurde in den<br />
vergangenen Jahren viel Wert auf das E-Administration und FinanzOnline<br />
gelegt. Aus diesem Bekenntnis zur Innovation steht die österreichische Finanzverwaltung<br />
seither ein breiter Basis-Datenbestand <strong>für</strong> Business-Intelligence-<br />
Analyse zur Verfügung. Aus Sicht der österreichischen Finanzverwaltung wurde<br />
bisher die richtige Richtung eingeschlagen. Die Leistungssteuerung wurde<br />
etabliert. Nun geht der Fokus um das Erkennen und das Verringernvon Gefahrenpotenzialen<br />
(FraudDetecion, Risk Management). Für dieses Etappenziel<br />
sind Erfahrungswerte unter anderem aus der Privatwirtschaft näher zu betrachten<br />
und mögliche Anwendungsperspektiven zu entwickeln.Auf welcher<br />
Weise können die mit Erfolg zu Ende gebrachte Predictive Analytics Projekte<br />
aus der Privatwirtschaft als Grundlage <strong>für</strong> einen Einsatz in der österreichischen<br />
Finanzverwaltung dienlich sein? Auf diese und weitere Fragestellungen werden<br />
im Rahmen vorliegender Arbeit zu beantworten versucht.<br />
79
Institut <strong>für</strong> Konstruktionswissenschaften und<br />
<strong>Technische</strong> Logistik<br />
Paul Christian Weissenbach<br />
Semantische Features in Quality Function Deployment basierter<br />
Anforderungsmanagementsoftware<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Detlef Gerhard<br />
Die Entwicklung von erfolgreichen Produkten und Dienstleitungen ist schwierig.<br />
Ein wichtiger Teil eines Entwicklungsprozesses ist es herauszufinden, was<br />
der Kunde will, wie er danach sucht und vor allem was er letztendlich kauft. Die<br />
Qualität solcher Informationen und deren Aufnahme im Entwicklungsteam<br />
haben starken Einfluss auf das Ergebnis des Entwicklungsprojektes. Aufgaben<br />
die in diesen Bereich fallen werden üblicherweise als Anforderungsmanagement<br />
(engl. requirements engineering) bezeichnet. Die Kernaufgabe von<br />
Anforderungsmanagement ist die Erstellung von konsistenten Produkt-/ Dienstleistungsspezifikationen.<br />
Nachdem der state-of-the-art von Anforderungsmanagement<br />
mit semantischer Technologieunterstützung begutachtet wird<br />
und die Fähigkeiten von Anforderungsmanagementsoftware generell und in<br />
Bezug zu semantischen Technologien analysiert werden, wird in dieser Arbeit<br />
ein Ansatz zur Verbesserung des vorherrschenden Kundenbildes vorgestellt.<br />
Dieser Ansatz bedient sich "semantic web" Technologien und integriert sich in<br />
die Quality Function Deployment Methode, genauer, in eine Auswahl von<br />
Houses of Quality. Diese Auswahl ermöglicht es dem QFD Team, sein Kundenbild<br />
zu hinterfragen und auch zu rechtfertigen. Ein unerwartetes Ergebnis<br />
dieser Arbeit ist, dass der vorgestellte Ansatz bei linearen Entwicklungsvorgehensmodellen<br />
hilft, den Zeitpunkt festzustellen, wann von einer<br />
Anforderungs-/Spezifikationsphase zu einer Implementierungsphase übergegangen<br />
werden kann. Eine <strong>für</strong> das Team selbst und auch <strong>für</strong> Projektaußenstehende,<br />
wie zum Beispiel das Management, hilfreiche Information.<br />
80
Institut <strong>für</strong> Managementwissenschaften<br />
Manuel Djalili<br />
Using RFID in learning factories. A Case study research of opportunities,<br />
benefits and challenges at the FhA Lean Assembly<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Companies are highly interested in optimizing their processes (e.g. logistic,<br />
manufacturing) in order to increase their productivity or to reduce costs.<br />
Different optimization concepts and technologies have been developed, but<br />
their implementation with purely theoretical knowledge can be challenging.<br />
Learning factories bridge theory and praxis by simulating specific scenarios to<br />
easily and efficiently illustrate optimization possibilities in practice. Therefore,<br />
the company staff learns about direct benefits and application of the previously<br />
learned theory. RFID is a technology that can be used to optimize manufacturing<br />
processes but it has not yet been adapted or used by many learning<br />
factories. Especially in manufacturing processes further research is needed. The<br />
goal of this thesis is to research opportunities, benefits and challenges of RFID<br />
used in learning factories as well as to exploit the possible use of RFID in a<br />
learning factory and show its implementation. To achieve this goal, existing<br />
learning factories and RFID applications were analysed as well as RFID was<br />
integrated into an existing learning factory, the FhA Lean Assembly, and a<br />
software to exploit the potential of this technology was developed. The results<br />
are three software tools to support the various setups of the lean assembly, to<br />
communicate with the RFID hardware, to support staff during the practical<br />
exercise (assembly) and to prepare and display data generated by the RFID<br />
system. In this scenario four main benefits and three challenges have been<br />
identified.<br />
Ömer Faruk Dural<br />
Produktionsplanung und -steuerung unter Unsicherheit: Design und<br />
Implementierung in integrierten ERP-Systemen<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />
Am Institut <strong>für</strong> Managementwissenschaften der <strong>TU</strong> <strong>Wien</strong> wird ein integriertes<br />
ERP-System namens ERPControl entwickelt. Als Hauptmodul des ERPControls<br />
befasst sich diese Arbeit mit folgenden Konzepten, um optimale Produktionplanung<br />
und steuerung exemplarisch anzuwenden. - Design eines Informationssystems<br />
<strong>für</strong> die Produktionsplanung und Steuerung unter expliziter<br />
Einbeziehung von mit der Zukunft verbundenen Unsicherheiten - Prototypische<br />
Implementierung des Informationssystems in einer modernen IT-Architektur -<br />
Dokumentation einer der Hauptkomponenten von ERPControl, welche die<br />
Produktions-planung und -steuerung, sowie die Kostenrechnung und Produk-<br />
81
tionsanalyse umfasst. Ausgehend von den Anforderungen <strong>für</strong> den Produktionsplanungs<br />
und steuerungsprozess wird das Informationssystem mittels Klassendiagrammen<br />
und Aktivitätsdiagrammen designet. In den Klassendiagrammen<br />
werden die Informationen über Jahrespläne, Quartalpläne und Monatspläne<br />
modelliert. Zur Einbeziehung der mit der Planung verbundenen Unsicherheit<br />
werden die Quartals- und Monatspläne als stochastische binäre Bäume<br />
designet. Stochastische Informationen dieser Bäume werden im Zeitablauf in<br />
den Klassenmodellen dynamisch abgebildet. Diese Software Anwendung wird<br />
durch die Unterscheidung von drei architektonischen Ansichten auf Basis der<br />
Enterprise Management Information System realisiert: Business & Management<br />
Semantik, Informationssystem, Informationstechnik. Das Design des Informationssystems<br />
basiert auf der REA-Ontologie und dem ECSI Standard, welcher<br />
Ressourcen, Geschäfts- und Managementprozesse in Produktionsunternehmen<br />
explizit modelliert, um eine konsistente Daten- und Prozessmodellierung zu<br />
gewährleisten. Durch das Design und die prototypische Implementierung des<br />
Informationssystems mit Hilfe der Business Operationen des JBoss Seam<br />
Frameworks unter Java EE Technologie soll ein objekt- und prozessorientiertes<br />
IT System entstehen, das als Modul in der ERPControl Software zu sehen ist.<br />
Aqif Nasufi<br />
Produktionsplanung und -steuerung unter Unsicherheit: Design und<br />
Implementierung in integrierten ERP-Systemen<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />
82<br />
Am Institut <strong>für</strong> Managementwissenschaften der <strong>TU</strong> <strong>Wien</strong> wird ein integriertes<br />
ERP-System namens ERPControl entwickelt. Als Hauptmodul des ERPControls<br />
befasst sich diese Arbeit mit folgenden Konzepten, um optimale Produktionplanung<br />
und steuerung exemplarisch anzuwenden. - Design eines Informationssystems<br />
<strong>für</strong> die Produktionsplanung und Steuerung unter expliziter<br />
Einbeziehung von mit der Zukunft verbundenen Unsicherheiten - Prototypische<br />
Implementierung des Informationssystems in einer modernen IT-Architektur -<br />
Dokumentation einer der Hauptkomponenten von ERPControl, welche die<br />
Produktionsplanung und -steuerung, sowie die Kostenrechnung und Produktionsanalyse<br />
umfasst. Ausgehend von den Anforderungen <strong>für</strong> den Produktionsplanungs<br />
und steuerungsprozess wird das Informationssystem mittels<br />
Klassendiagrammen und Aktivitätsdiagrammen designet. In den Klassendiagrammen<br />
werden die Informationen über Jahrespläne, Quartalpläne und<br />
Monatspläne modelliert. Zur Einbeziehung der mit der Planung verbundenen<br />
Unsicherheit werden die Quartals- und Monatspläne als stochastische binäre<br />
Bäume designet. Stochastische Informationen dieser Bäume werden im Zeitablauf<br />
in den Klassenmodellen dynamisch abgebildet. Diese Software Anwendung<br />
wird durch die Unterscheidung von drei architektonischen Ansichten auf<br />
Basis der Enterprise Management Information System realisiert: Business &<br />
Management Semantik, Informationssystem, Informationstechnik. Das Design<br />
des Informationssystems basiert auf der REA-Ontologie und dem ECSI<br />
Standard, welcher Ressourcen, Geschäfts- und Managementprozesse in Produk-
tionsunternehmen explizit modelliert, um eine konsistente Daten- und Prozessmodellierung<br />
zu gewährleisten. Durch das Design und die prototypische Implementierung<br />
des Informationssystems mit Hilfe der Business Operationen des<br />
JBoss Seam Frameworks unter Java EE Technologie soll ein objekt- und prozessorientiertes<br />
IT System entstehen, das als Modul in der ERPControl Software<br />
zu sehen ist.<br />
Florian Ernstbrunner<br />
Graphisches Entscheidungsunterstützungssystem zur Ermittlung der optimalen<br />
Strategie zur Kapazitätsanpassung <strong>für</strong> eine Kapazitätseinheit<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Im Maschinen- und Anlagenbau sind KMUs im Vergleich zu Großunternehmen<br />
stärker von den Nachfrageschwankungen betroffen. Das Modell Kostenoptimale<br />
Kapazitätsanpassung durch ein Entscheidungsunterstützungssystem<br />
(EUS) nach Morawetz bietet eine Herangehensweise an diese Problematik. Um<br />
eine beispielhafte Umsetzung des Modells der kostenoptimalen Kapazitätsanpassung<br />
durch ein EUS zu zeigen, wird im Rahmen dieser Arbeit ein Prototyp<br />
- genannt Flexation-EUS (engl.: DSS, Decision support system) - entwickelt. Im<br />
Zuge der Entwicklung werden zwei Konzepte eingeführt. Das eine Konzept<br />
beschreibt eine Methodik, um manuell einen Kapazitätsplan anzupassen. Es<br />
wurde eine Anleitung verfasst, wie Maßnahmen ohne Optimierungsalgorithmus<br />
iterativ gesetzt werden können, bis das gewünschte Kapazitätsniveau<br />
erreicht wird. Diese Anleitung besteht aus fünf Fragenblöcken und entsprechenden<br />
Handlungsmöglichkeiten. Der Prototyp unterstützt den Benutzer<br />
bei der Beantwortung dieser Fragen. Das zweite graphisch-basierte Konzept<br />
beschreibt, wie der Kapazitätsplan aufgebaut ist und wie die Benutzer ihn<br />
bearbeiten können. Jenes bedient sich der Konzepte der Kapazitätshüllkurven,<br />
der Balkendiagramme und dem Verschieben von Elementen am Bildschirm<br />
durch ein visuelles Drag&Drop-Verfahren. Die Flexibilisierungsmaßnahmen, um<br />
deren bestmöglichen Einsatz es sich in dieser Arbeit dreht, beeinflussen<br />
einander in unterschiedlicher Weise und Umfang. Das Konzept der Maßnahmenbeeinflussungsmatrix<br />
(MBM) ist ein Hilfsmittel, um die gegen-seitigen<br />
Einflussnahmen festzuhalten. Es konnte, über die Methode Experten-interview,<br />
festgestellt werden, dass das Flexation-EUS zwar noch nicht <strong>für</strong> den operativen<br />
Einsatz gerüstet ist, jedoch einen Schritt in die richtige Richtung darstellt, und<br />
es überdies dabei hilft, die Anzahl der Fehler zu reduzieren.<br />
83
Kadriye Kaya<br />
Übersetzung des ISO 31000 Risikomanagement-Standards in Prozess- und<br />
Datenmodelle<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />
Mit der Globalisierung und in folge, dem steigenden Wettbewerbsdruck finden<br />
sich Unternehmen mit erhöhten, existenzbedrohenden Risiken konfrontiert.<br />
Unternehmen erkennen die Wichtigkeit, Risiken frühzeitig zu identifizieren und<br />
entsprechend zu reagieren. Wir sehen, dass seit einigen Jahren von verschiedenen<br />
Seiten versucht wird Risikomanagementbegriffe, -prozesse und -abläufe<br />
zu standardisieren, sodass unterschiedlichste Unternehmen diese je nach ihren<br />
Anforderungen in ihre Organisation integrieren und so effektives Risikomanagement<br />
betreiben können. Eines der wichtigsten und umfangreichsten dieser<br />
Versuche, stellt der ISO 31000 Standard <strong>für</strong> Risikomanagement dar, welches<br />
Thema dieser Arbeit ist. In dieser Arbeit werden Managementprozesse des<br />
Risikomanagements, nach dem ISO 31000 Standard als implementierbare<br />
Prozessmodelle vorgestellt. Es wird anhand eines Beispiels gezeigt, wie ein<br />
Risikomanagementsystem nach dem ISO 31000 Standard operieren kann.<br />
Alexander Plank<br />
Innovationsmanagement an renommierten technischen Universitäten<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Univ.Prof. Dr. Sabine Theresia Köszegi<br />
84<br />
Um dem vermehrten internationalen Wettbewerb adäquat begegnen zu können,<br />
sind Innovationen, nachhaltige Innovationsprozesse, sowie die Intensivierung<br />
des Wissens- und Technologietransfers in zukunftsorientierten Branchen<br />
und Unternehmen von essentieller Bedeutung. Die erforderlichen Maßnahmen<br />
zur stetigen Wachstumssicherung und strategischen Differenzierung,<br />
sowie die Identifizierung der notwendigen Faktoren zur Festigung und<br />
Erhöhung der Innovationsfähigkeit und die gezielte Entwicklung von Innovationen<br />
sind wesentliche Bestandteile eines strategisch geregelten Innovationsmanagements.<br />
Da der Fokus bisheriger Untersuchungen weitestgehend auf<br />
das betriebliche Innovationsmanagement ausgerichtet ist, erhebt diese Arbeit,<br />
wie renommierte technische Universitäten in Europa das Management von<br />
Innovationen und den damit verbundenen Wissens- und Technologietransfer<br />
handhaben. Es werden hierbei jene Faktoren ermittelt, die <strong>für</strong> erfolgreiche<br />
Leistungen in diesen Bereichen von essentieller Bedeutung sind und welche<br />
Einflüsse auf diese Leistungen einwirken. Die sich aus diesem Kontext<br />
abgeleitete erste Forschungsfrage beschäftigt sich somit mit der Definition<br />
relevanter Leistungskriterien, anhand derer man ein erfolgreiches Innovationsmanagement<br />
bzw. einen effektiven Wissens- und Technologietransfer messbar<br />
machen kann. Eine zweite Forschungsfrage analysiert schließlich den Umgang<br />
ausgewählter Universitäten mit diesem Themenbereich und deckt mögliche<br />
Zusammenhänge zu den zuvor definierten Leistungsgrößen auf. Nach einer
sekundären und primären Datenerhebung wird eine empirische Untersuchung,<br />
sowohl mit Hilfe einer quantitativen, als auch qualitativen Benchmarkanalyse<br />
durchgeführt, welche durch den Vergleich der technischen Universitäten die<br />
Beantwortung beider Forschungsfragen ermöglicht. Im Rahmen des Universitätsvergleichs<br />
werden die Leistungsunterschiede zwischen den untersuchten<br />
Benchmarking Partnern aufgezeigt.<br />
Armin Preis<br />
Integrated Enterprise Risk and Resilience Management - Integrated Planning<br />
and Control Framework<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Walter Schwaiger<br />
The postmodern socioeconomic system is coined by an unprecedented<br />
interdependency of organizations around the whole globe. Companies have to<br />
become more resilient to survive crises and more efficient to stay successfully<br />
in business under the pressure of worldwide competition at the same time. The<br />
goal of this thesis is to develop a cybernetic risk and resilience management<br />
framework that allows to plan and control internal risks and to prepare for<br />
external risks so that a more competitive business strategy can be applied. The<br />
scientific research approach is the Design Science Methodology that is divided<br />
into three major parts. The first one is a literature analysis on risk and resilience<br />
management to evaluate current standards and trends in these management<br />
domains. In the second part cybernetic risk and resilience management<br />
frameworks are developed. The integration of the developed management<br />
frameworks into a cybernetic enterprise wide risk and resilience management<br />
framework as well as an evaluation constitute the final part of the research<br />
process. As results, the ISO 31000 Risk Management Standard and the ASIS<br />
Organizational Resilience Management Standard were modeled as Cybernetic<br />
Management Frameworks, existing management theories were integrated into<br />
the new Recursive Cybernetic Management Model (RCMM), and the Enterprise<br />
Resilience Management Meta-Framework (ERM-MF) was developed. The ERM-<br />
MF facilitates the steering of enterprise resilience by managing risks on and<br />
resilience of assets as well as the quality of management processes.<br />
Thomas Womser<br />
Are Trademarks an Indicator for Innovation?<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Privatdoz. Dr. Karl-Heinz Leitner<br />
The relevance of trademarks has significantly increased within innovation literature.<br />
However the motives behind the application of trademarks for innovations<br />
are currently barely investigated. Therefore this master thesis aims at<br />
analysing Austrian firms trademarking behaviour to reveal novel insights<br />
regarding the relationship between trademarks and innovation. Thereby the<br />
85
esearch questions about the appropriateness of trademarks as innovation<br />
indicator and the revelation of factors which influence firms trademarking<br />
behaviour are discussed in detail. Within an extensive literature analysis<br />
trademarks are analysed from three different literature strands marketing,<br />
strategic and innovation literature. Further descriptive statistics of the Community<br />
Trademark Database are conducted. Methodologically the empirical part of<br />
the study is based on qualitative interviews of Austrian firms. The sample of<br />
interviewed firms is carefully selected from the Community Trademark Database<br />
with the assistance of a multiple criteria catalogue, drawn up from insights<br />
of the literature and statistical analysis. Thereby a qualitative assessment of the<br />
relationship between innovation and trademark registration has been undertaken.<br />
Furthermore multiple factors of trademarking behaviour for innovations<br />
could be qualitatively observed and a framework for assessing innovative<br />
trademarking behaviour, which consists of factors of the competitive environment<br />
and internal firm factors, is proposed.<br />
Stefan Zimper<br />
Alignment of process, product and organisational innovations in the<br />
manufacturing industry<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: Privatdoz. Dr. Karl-Heinz Leitner<br />
Innovation is considered the base for economic success, what requires an<br />
active managerial commitment to establish environmental conditions that<br />
facilitate innovative behaviour and therefore ensure a sustainable existence of<br />
the firm. However, there is much debate in the literature whether companies<br />
should focus on one form of innovation or combine different innovative<br />
activities at the same time. Only a few publications have focussed on this multidimensional<br />
and combinatory perspective of innovation strategy yet, whereas<br />
less empirical studies have been conducted so far that also took financial<br />
performance into consideration. Based on broad recent empirical data of the<br />
European Manufacturing Survey (EMS) 2009 and 2012 for Austria this thesis<br />
should provide insight into the innovation strategy financial performance<br />
relation to find out if companies that focus on more dimensions of innovation<br />
actually achieve better financial results. Furthermore it is a focus of this work to<br />
assess factors that significantly influence strategic innovation choices and to<br />
find out whether industry classification also plays an important role in that<br />
sense. The literature research as well as the empirical part of this thesis<br />
highlighted that a more comprehensive view of innovation within the firm is<br />
needed, to properly react to environmental changes and ensure a sustainable<br />
existence of the firm. This paper found many determinants of firms innovative<br />
behaviour, whereas competitive/industry environment and international<br />
orientation have been identified as key factors influencing the choice of an<br />
appropriate innovation strategy. As a last key result it has been observed that<br />
companies that distribute their efforts across all types of innovations are likely<br />
to achieve better financial performance in terms of profitability.<br />
86
Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />
Yaroslav Barsoukov<br />
Development of GPICP, a GPU-only registration algorithm based on Iterative<br />
Closest Point<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Markus Vincze<br />
Der von Besl and McKay entwickelte ICP Algorithmus ist längst zum Goldstandard<br />
<strong>für</strong>s Lösen des Reqistrierungsproblems geworden. Nachdem sich die<br />
Programmierbarkeit der GPUs in der letzten Zeit erhöht hat, ist ihr paralleles<br />
Programmierungsmodel nun <strong>für</strong> ICP perfekt geeignet. Die vorliegende Arbeit<br />
setzt sich zum Ziel, eine Implementierung von ICP zu entwerfen, die völlig auf<br />
GPU ausgeführt werden könnte; die dabei entstehenden Probleme mit GPU<br />
Architektur werden gelöst, und die erhöhte Leistung wird da<strong>für</strong> benutzt, den<br />
Algorithmus selbst präziser zu machen.<br />
Bernhard Mathias<br />
Object modelling with a robot arm<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Markus Vincze<br />
Object learning and object recognition are general research topics in the<br />
robotics. This thesis deals with the problem of automating the learning process.<br />
A robot should be able to explore its environment and to learn new<br />
objects autonomously. For object modelling, an implementation of the V4R<br />
library (of the Vision for Robotics group, ACIN, <strong>TU</strong> Vienna) is used. A model<br />
combines image descriptors (SIFT) representing textures and point cloud<br />
descriptors (SHOT) to describe the 3-D shape of the object. The information<br />
stored in such models can be used to recognize objects in other scenarios<br />
again (even amongst many other objects). In order to get 2-D RGB as well as 3-<br />
D depth images, the Microsoft Kinect camera is used within this project. To<br />
move the objects in front of the camera, a robotic arm of the type Neuronics<br />
Katana 450 is used. A trajectory as optimally as possiple is necessary to receive<br />
a complete model. The completeness of a model can be checked with the<br />
probability sphere already implemented in V4R. The probability sphere is a<br />
platonic body where the surface consists of several triangular faces. These<br />
faces represent different viewpoints relative to the object. Colours represent<br />
the completeness of the model from the according direction. White faces<br />
indicate a high probability to detect the object from this viewpoint and black<br />
faces indicate missing viewpoints. Grey-shaded faces represent partially<br />
observed viewpoints. There are several subproblems within this project, for<br />
example, the determination of the robot arm pose within the camera<br />
coordinates (camera calibration) or the topic of how to control the arm with an<br />
optimal trajectory. Also image processing is an important topic within this<br />
87
thesis. For example, the object must be segmented out of the 3-D data stream<br />
received from the Microsoft Kinect sensor. It is not allowed to learn parts of the<br />
arm or some background information together with the object.<br />
Matthias Rodler<br />
Visualization of a Multi-Agent System<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Univ.Prof. Georg Schitter<br />
Zurzeit werden Batch-Prozesse sehr häufig in der chemischen und pharmazeutischen<br />
Industrie eingesetzt. Durch die festgelegten Vorgaben im Ablauf haben<br />
sie aber nur sehr eingeschränkte Möglichkeiten um sich einem stetig<br />
ändernden Umfeld anzupassen. Der Einsatz von autonomen Agenten bietet<br />
hier eine neue Möglichkeit um Prozesse bei Veränderungen im Umfeld zu<br />
adaptieren und deren Vorgänge zu optimieren. Leider hat sich dieser neue<br />
Ansatz noch nicht durchgesetzt. Dies wird vor allem darauf zurückgeführt, dass<br />
die Steuerung komplexer Anlagen - durch autonome Agenten - <strong>für</strong> den Anwender<br />
schwer durchschaubar ist und dadurch das nötige Vertrauen in<br />
autonome Agenten noch nicht gewonnen werden konnte. Um ein Multi-<br />
Agenten System jedoch verstehen zu können sollte der Anwender zum einen<br />
das Verhalten jedes einzelnen Agenten und zum anderen das Verhalten des<br />
Gesamtsystems überblicken können. Im Zuge dieser Magisterarbeit wurde eine<br />
Visualisierung entwickelt, welche das Verhalten und die Kommunikation eines<br />
Multi-Agenten Systems <strong>für</strong> den Anwender verständlich grafisch wiedergibt. Das<br />
Institut <strong>für</strong> Automatisierungs- und Regelungstechnik (ACIN) nutzt Automationsagenten,<br />
um die physikalischen Komponenten einer Anlage zu steuern<br />
und die Batchprozesse zu optimieren. Ein Automationsagent, das Kernstück<br />
ihrer Architektur, agiert selbstständig basierend auf seinem Wissen, indem er<br />
Produktionsumfeld und -bedingungen analysiert und einen Schlussfolgerungsprozess<br />
auslöst. Diese Anlage wurde als Referenz herangezogen um die<br />
Funktionstauglichkeit der Visualisierung zu testen und soll im Weiteren<br />
gemeinsam mit der Visualisierung dazu dienen, um Studenten Multi-Agenten<br />
Systeme näher zu bringen.<br />
88
Institut <strong>für</strong> Computertechnik<br />
Rene Formanek<br />
Triebgesteuerte Fauna <strong>für</strong> Artificial Life Simulation<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />
Bei der triebgesteuerten Fauna <strong>für</strong> Artificial Life Simulation handelt es sich um<br />
Software-Agenten, welche die Simulationsumgebung des Artificial Recognition<br />
System (ARS) Projekts des Instituts <strong>für</strong> Computertechnologie der <strong>Technische</strong>n<br />
Universität in <strong>Wien</strong> erweitern. Im ARS-Projekt wird eine kognitive Architektur<br />
entwickelt, deren Entscheidungsfindung an die des menschlichen mentalen<br />
Apparats angelehnt ist. Hier<strong>für</strong> werden psychoanalytische Theorien als Basis <strong>für</strong><br />
die Architektur verwendet. Das Verhalten der Agenten, die diese Kontrollarchitektur<br />
verwenden, soll dabei menschenähnlich sein. Da Architekturen <strong>für</strong> künstliche<br />
Intelligenz - insbesondere jene, deren Agenten menschenähnliches Verhalten<br />
zeigen sollen - nicht ausreichend durch klassische Software Engineering-Techniken<br />
getestet werden können, müssen menschliche Beobachter das Verhalten der<br />
Agenten bewerten. Diesen Beobachtern muss zur Beurteilung der Fähigkeiten und<br />
Verhaltensweisen eine Simulationsumgebung mit ausreichend vielfältigen und<br />
komplexen Möglichkeiten <strong>für</strong> Testszenarien zur Verfügung gestellt werden. In der<br />
vorliegenden Arbeit wurde eine triebgesteuerte Fauna entwickelt, deren Agenten<br />
mit einer künstlichen Intelligenz ausgestattet sind, die auf die grundlegenden<br />
körperlichen Bedürfnisse von Tieren reagiert. Diese Agenten wurden in einem<br />
Belief-Desire-Intention-Framework entwickelt und werden über Properties-Dateien<br />
angepasst. In der Simulationsumgebung wird das Verhalten der Agenten<br />
visualisiert, um Änderungen der Konfiguration nachzuvollziehen. Da sie den<br />
gleichen Simulator <strong>für</strong> die Simulationsumgebung verwenden, können die<br />
Agenten in die Artificial Life Simulation des ARS-Projekts integriert werden.<br />
Dadurch werden die Möglichkeiten, die Testern im Simulator geboten werden,<br />
erweitert und die Erstellung von zusätzlichen Testszenarien wird vereinfacht.<br />
Michael Jahoda<br />
Eine berührungslose Benutzerschnittstelle in der Gebäudeautomation und<br />
Analyse ihrer Benutzbarkeit<br />
Studium: Masterstudium Business Informatics<br />
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />
Die Mehrheit der Benutzerschnittstellen im Bereich der Gebäudeautomation<br />
basiert auf handbetätigten Steuerelementen. Körperlich eingeschränkten<br />
Personen hingegen fehlt oft die Fähigkeit bzw. die Kraft, Schalter oder Knöpfe<br />
selbstständig zu betätigen. Eine neue Form der Interaktion mit Systemen der<br />
Gebäudeautomation wird benötigt, um Personen mit körperlichen Einschränkungen<br />
in ihrem Alltag zu unterstützen. In dieser Arbeit wurde eine berührungslose<br />
Benutzerschnittstelle erstellt, die es Benutzern mit einem Mangel an<br />
89
physischer Kraft und mangelnder Bewegungsfreiheit erlaubt, mit klassischen<br />
Kontrollelementen der Gebäudeautomation zu interagieren. Die Benutzerschnittstelle<br />
kann berührungsfrei mit Kopfgesten bedient werden. Der Benutzer<br />
kann mit definierten Gesten, die mit einer Standard-Webcam erfasst werden, mit<br />
dem System interagieren. Weiters soll es jedem Benutzer ermöglicht werden,<br />
individuelle Befehlsgesten zu definieren, um unabhängig von der Art der<br />
Beeinträchtigung, die bestmögliche Benutzbarkeit sicherzustellen. Die Umsetzung<br />
der Gestenerkennung basiert auf den empfangenen Daten der Facetracking-<br />
Engine faceAPI von SeeingMachines. Die Bewegungen des Kopfs werden erfasst<br />
und mit den im System gespeicherten Befehlsgesten verglichen. Wurde eine<br />
Geste eindeutig identifiziert, wird der korrespondierende Befehl vom System<br />
ausgeführt. Es wurde weiters ein Aufzugssimulator implementiert, mit dem das<br />
Verhalten eines echten Aufzugs simuliert werden soll. Anhand des Aufzugsimulators<br />
wurde das System mit Hilfe von Testpersonen, unter anderem mit körperlich<br />
beeinträchtigten Benutzern, bezüglich ihrer Benutzbarkeit evaluiert. Im Rahmen<br />
des Benutzertests hat sich die Praxistauglichkeit dieser Benutzerschnittstelle<br />
erwiesen. Durchschnittlich wurden 95% aller durchgeführten Gesten korrekt von<br />
der gestenbasierten Benutzerschnittstelle erfasst.<br />
Andreas Platschek<br />
Hypervisor Based Composable Systems for the Automotive Industry<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />
90<br />
Genau wie die Luftfahrt Industrie ist derzeit auch die Automobil Industrie im<br />
Umbruch, und beginnt mehrere ECUs (Error Containment Units) in einen Hardware<br />
Knoten zu integrieren. Bei diesem Ansatz ist es jedoch äußerst wichtig, dass die<br />
Unabhängigkeit der Applikationen die meist auch unterschiedliche Sicherheitsanforderungen<br />
(sowohl Safety als auch Security) haben erhalten bleibt. Die<br />
Unabhängigkeit wird durch Isolation, das heißt zeitliche sowie räumliche<br />
Trennung erreicht und wird durch geeignete Kommunikationsmechanismen, die<br />
keines dieser Isolationskriterien stören dürfen, ergänzt. Der Ansatz erlaubt, durch<br />
die Isolation die Safety- und Security-Eigenschaften zu erhalten und ermöglicht so<br />
die modulare Validierung sowie die modulare Zertifizierung von Software. Die<br />
Arbeit versucht, die Safety-Kriterien, die von der Automobil Industrie gefordert<br />
werden, mit Hilfe von FLOSS (free/libre open source software) zu erfüllen. Die<br />
gewählte Vorgehensweise ist, basierend auf dem XtratuM2 Hypervisor mehrere<br />
unabhängige Instanzen einer FLOSS-Implementierung der OSEK-Spezifikation<br />
(Offene Systeme und deren Schnittstellen <strong>für</strong> die Elektronik im Kraftfahrzeug)<br />
laufen zu lassen, wobei jede dieser Instanzen eine typische Applikation aus dem<br />
Automobil Bereich ausführt. Die resultierende Plattform erlaubt es, mehrere<br />
unabhängige Applikationen parallel laufen zu lassen, anstatt einen Hardware<br />
Knoten <strong>für</strong> jede der Applikationen zu verwenden. Dieser Ansatz reduziert die<br />
Anzahl der Knoten im Fahrzeug und führt so zu einer Reduktion des Gewichtes<br />
sowie des Stromverbrauchs. Weiters wird die Ausnutzung der Ressourcen, die<br />
moderne CPUs zur Verfügung stellen, verbessert und die Kommunikation<br />
zwischen Applikationen vereinfacht.
Medizinische Universität <strong>Wien</strong><br />
Mario Brandmüller<br />
Design und Realisierung eines Versionierungssystems <strong>für</strong> das<br />
Tumordokumentationssystem HNOOncoNet - Versionierbares<br />
Persistenzframework<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster<br />
Diese Diplomarbeit beschreibt die Erstellung eines versionierbaren Persistenz-<br />
Frameworks zur versionierten Speicherung von hierarchischen Objektstrukturen.<br />
Da<strong>für</strong> werden zu versionierende Entitäten des Tumordokumentationssystems<br />
HNOOncoNet als Ausgang herangezogen, um auf deren Grundlage ein<br />
allgemeines Versionierungskonzept <strong>für</strong> das Persistieren hierarchischer Objektstrukturen<br />
zu entwerfen und in weiterer Folge in Form einer Implementierung<br />
einer Persistenz-Framework-Erweiterung umzusetzen. Exemplarisch werden<br />
anhand des existierenden HNOOncoNet-Systems Anforderungen an ein<br />
solches Versionierungskonzept <strong>für</strong> dynamische Web-Anwendungen erstellt. Zu<br />
diesen Anforderungen wird ein Konzept zur versionierten Speicherung von<br />
hierarchischen Objektstrukturen auf Basis des Hibernate-Erweiterungsmoduls<br />
names Envers vorgeschlagen. Dieses vorgestellte Konzept wird dann in Hinblick<br />
auf seine Speicherplatznutzung optimiert. Diese Optimierung zielt auf das<br />
Unterbinden der ungewollten mehrfachen Speicherung von identen Zuständen<br />
der zu persistierenden Entitäten ab, das bedingt durch die notwendige<br />
Aufrechterhaltung einer Ordnung der Revisionsnummern von Objekten<br />
innerhalb einer Objektstruktur im Falle des ersten Ansatzes auftreten kann.<br />
Erreicht wird dies durch eine Teilung der Zustandsbeschreibung in einen<br />
Verwaltungsteil und in einen Datenteil. Für diesen optimierten Ansatz wird<br />
dann noch eine Implementierung in Form einer Erweiterung des Hibernate-<br />
Erweiterungsmoduls Envers präsentiert. Diese bietet als Bestandteil der<br />
Persistenzschicht die angestrebte Funktionalität zur versionierten Speicherung<br />
von hierarchischen Objektstrukturen <strong>für</strong> auf Hibernate aufbauende dynamische<br />
Web-Anwendungen.<br />
91
Index der Autorinnen und Autoren<br />
Ahmetaj Shqiponja - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />
Based Systems<br />
Arbesser Clemens - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Aster Maximilian Robert - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database<br />
and Artificial Intelligence<br />
Auernig Christoph - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Bacher Christopher - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Baltaci Ilker - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-<br />
Commerce<br />
Barsoukov Yaroslav - Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />
Bartl Florian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Beck Harald - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />
Systems<br />
Beyer Stefanie - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Binder Johann - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Bodesinsky Peter Michael - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Böhm Sebastian - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Bors Christian - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Brandmüller Mario - Medizinische Universität <strong>Wien</strong><br />
Bressler Michael - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Brückl Andreas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Bruckner Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Busoniu Paula-Andra - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />
Based Systems<br />
Dabernig Josef - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Dabrowski Adrian Marek - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Diesenreiter Simon - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Multidisciplinary Design<br />
Djalili Manuel - Institut <strong>für</strong> Managementwissenschaften<br />
Djamiykova Denitsa - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />
Systems<br />
92
Do Duc Hoa - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Dural Ömer Faruk - Institut <strong>für</strong> Managementwissenschaften<br />
Erkinger Christoph - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Ernstbrunner Florian - Institut <strong>für</strong> Managementwissenschaften<br />
Fellner Jakob Matthias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Fink Heinrich - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Fischer Fabian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Fischl Wolfgang - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Formanek Rene - Institut <strong>für</strong> Computertechnik<br />
Franz Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Business Informatics<br />
Frühwirt Peter - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Fuchs Christoph - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Fürst Rene - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Galler Jürgen - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Gavrilete Constantin-Claudiu - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich<br />
Distributed Systems<br />
Gisperg Karin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />
VisionKeglevic Manuel - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Computer Vision<br />
Grötz Gerald - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen<br />
und Übersetzer<br />
Hagmann Andreas - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Hava Thomas - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />
Hofstätter Harald - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Hofstätter Markus - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Hohenwarter Christoph - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />
Systems<br />
Hörmann Andreas - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Multidisciplinary DesignHartl Katharina - Institut <strong>für</strong> Gestaltungs- und<br />
Wirkungsforschung, Arbeitsbereich Human Computer Interaction<br />
Jahoda Michael - Institut <strong>für</strong> Computertechnik<br />
Kaltenriner Christoph - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Kaya Kadriye - Institut <strong>für</strong> Managementwissenschaften<br />
93
Kaya Öncü Pinar - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
E-Commerce<br />
Kececi Daniel - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Kernegger Karin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Computer Vision<br />
Kier Christof - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Kordomatis Iraklis - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Krejci Robert - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Kühnl Stephanie - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Lederer Nadja - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />
<strong>Informatik</strong> und Logik<br />
Leichtfried Michael - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Lenzhofer Andreas - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Linsbichler Thomas - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Lux Marian - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische <strong>Informatik</strong><br />
und Logik<br />
Maly Manuel - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Margreiter Gerald - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Business Informatics<br />
Margulies Eduard Rudolf - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich<br />
Distributed Systems<br />
Maricic Ivan - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Maschler Johannes - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Mathias Bernhard - Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />
Mayerhuber Felix - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Meier-Stauffer Aaron - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Messlehner Philip - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
E-Commerce<br />
Miller Bernhard - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Morgenbesser Sebastian - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database<br />
and Artificial Intelligence<br />
Müllner Barbara - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Nasufi Aqif - Institut <strong>für</strong> Managementwissenschaften<br />
94
Neukam David - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Novotny Johannes - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Nowak Rene - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />
Oberhauser Arthur - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Ofner Joachim - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />
Vision<br />
Opitz Michael - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />
Vision<br />
Pados Karoly David - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Panhofer Paul - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Parzer Simon - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Pavlovic Matej - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Perner Martin - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Pfeifhofer Christian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Plank Alexander - Institut <strong>für</strong> Managementwissenschaften<br />
Platschek Andreas - Institut <strong>für</strong> Computertechnik<br />
Pönitz Thomas - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />
Vision<br />
Pramerdorfer Christopher - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Computer Vision<br />
Preis Armin - Institut <strong>für</strong> Managementwissenschaften<br />
Putzenlechner Markus - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Rainer Matthias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Renner Thomas - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Rodler Matthias - Institut <strong>für</strong> Automatisierungs- und Regelungstechnik<br />
Ryba Gregor - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Sabau George - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />
<strong>Informatik</strong> und Logik<br />
Schmid Thomas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Schnabl Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Schreder Bernhard - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />
Systems<br />
Sereinig Martin - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
95
Skackov Michal - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Business Informatics<br />
Sölkner Martin - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />
Staroch Paul - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Stashuk Oleksandr - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />
Based Systems<br />
Steyskal Simon - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />
Systems<br />
Stödtner Christina - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
E-Commerce<br />
Stütz Martin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Tschach Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Valy Viktor Albert - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Voglsam Günther - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Volko Claus-Dieter - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Weidinger Gerald - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />
Based Systems<br />
Weidinger Jürgen - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Weiss Christian - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Weissenbach Paul Christian - Institut <strong>für</strong> Konstruktionswissenschaften und<br />
<strong>Technische</strong> Logistik<br />
Winkler Kyrill - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Wolny Sabine - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Business Informatics<br />
Womser Thomas - Institut <strong>für</strong> Managementwissenschaften<br />
Wrubel Boris - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Wruß Thomas - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Yan Chin-Han - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und Umweltplanung<br />
Zehetner Christoph - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Business Informatics<br />
Zheng Min - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Zimper Stefan - Institut <strong>für</strong> Managementwissenschaften<br />
96
Alle in diesem <strong>Band</strong> angeführten <strong>Abstract</strong>s stammen von den AutorInnen<br />
der jeweiligen Diplomarbeit. <strong>Abstract</strong>s der Diplomarbeiten werden von den<br />
BetreuerInnen approbiert.<br />
IMPRESSUM<br />
Zentrum <strong>für</strong> Koordination und Kommunikation<br />
der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
1040 <strong>Wien</strong>, Favoritenstraße 9/195<br />
www.informatik.tuwien.ac.at<br />
Konzept: DI Karin Hraby<br />
(c) 2013 <strong>Technische</strong> Universität <strong>Wien</strong><br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>
<strong>Technische</strong> Universität <strong>Wien</strong><br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
1040 <strong>Wien</strong>, Favoritenstraße 9-11/195<br />
T: +43-1-58801-19501<br />
F: +43-1-58801-19599<br />
E: sek@zkk.tuwien.ac.at