Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...
Abstract-Band - Fakultät für Informatik, TU Wien - Technische ... Abstract-Band - Fakultät für Informatik, TU Wien - Technische ...
EPILOG Die Diplomarbeitspräsentation der Fakultät für Informatik Wintersemester 2011
- Seite 2 und 3: Diese Veranstaltung der Fakultät f
- Seite 4 und 5: Programm 1. Dezember 2011 15:00 Er
- Seite 7 und 8: DIPLOMARBEITEN Institute der Fakult
- Seite 9 und 10: Institut für Softwaretechnik und I
- Seite 11 und 12: Institutionen in Österreich eine
- Seite 13 und 14: these general recommendations are s
- Seite 15 und 16: and their correctness. For this rea
- Seite 17 und 18: ildpaar. Epipolarrektifizierung ist
- Seite 19 und 20: Layout aufgrund der individuell ste
- Seite 21 und 22: Richard Kloibhofer Rauschunterdrüc
- Seite 23 und 24: Seyed Amir Beheshti Business Proces
- Seite 25 und 26: gezeigt werden, dass unser Packer a
- Seite 27 und 28: hosting, virtualization and cloud-c
- Seite 29 und 30: Ablauf im Falle einer Krise. Darüb
- Seite 31 und 32: Rene Schakmann Planung und Entwickl
- Seite 33 und 34: Edin Zvizdic Software Defect Predic
- Seite 35 und 36: genwärtige Beispiele Digitaler Poe
- Seite 37 und 38: Vorführung des Routine Systemeinsa
- Seite 39 und 40: Arbeitsbereich Multidisciplinary De
- Seite 41 und 42: Institut für Computergraphik und A
- Seite 43 und 44: Andreas Grünauer Coronary Artery T
- Seite 45 und 46: Christian Niederreiter Spectral Mip
- Seite 47 und 48: Blindness zu durchbrechen um solche
- Seite 49 und 50: Christian Gruber Ein Lösungsarchiv
- Seite 51 und 52: Markus Sinnl Branch-and-Price for t
EPILOG<br />
Die Diplomarbeitspräsentation der<br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Wintersemester 2011
Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von
EPILOG<br />
Diplomarbeitspräsentation<br />
Das breite Themenspektrum und die vielfältigen Aufgabenstellungen der<br />
Abschlussarbeiten an der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> werden jedes Semester beim<br />
EPILOG präsentiert. In einer Posterausstellung sowie in ausgewählten Vorträgen<br />
präsentieren die AbsolventInnen der <strong>Fakultät</strong> ihre Projekte und stellen sich der<br />
Diskussion mit den Anwesenden. Der EPILOG als Plattform <strong>für</strong> die Präsentation<br />
hervorragender Abschlussarbeiten dient gleichzeitig dem Austausch über die<br />
aktuelle wissenschaftliche Forschung in den unterschiedlichen Bereichen der<br />
<strong>Informatik</strong>.<br />
Auszeichnungen und Preise<br />
Die Jury setzt sich aus den BetreuerInnen der nominierten Diplomarbeiten des<br />
letzten halben Jahres zusammen. Sie verleiht an eine/n der Vortragenden den mit<br />
4.000 Euro dotierten „Distinguished Young Alumnus/Alumna”-Award der <strong>Fakultät</strong><br />
<strong>für</strong> <strong>Informatik</strong>. Beurteilungskriterien sind die Qualität der Diplomarbeit sowie des<br />
gehaltenen Vortrags.<br />
Das beste Poster aller beim EPILOG anwesenden AutorInnen wird mit dem „Best<br />
Poster“-Award in der Höhe von 1.000 Euro ausgezeichnet. Zudem vergibt die Bank<br />
Austria den Firmenpreis „Poster-Award sponsored by Bank Austria“ in der Höhe von<br />
1.000 Euro an ein weiteres Poster.<br />
Lehrenden-Award<br />
Die Fachschaft <strong>Informatik</strong> zeichnet Lehrende der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> in den<br />
Kategorien Beste Lernunterlagen, Beste Übungsunterstützung, Bester Vortrag und<br />
Beste Wissensvermittlung aus.<br />
1
Programm 1. Dezember 2011<br />
15:00 Eröffnung der Posterausstellung<br />
16:00 Begrüßung und Einleitung<br />
Gerald Steinhardt, Dekan der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>, <strong>TU</strong> <strong>Wien</strong><br />
16:15 Vorträge zu den nominierten Diplomarbeiten<br />
17:15 Videopräsentation aus der Lehrveranstaltung<br />
Multimedia-Produktion<br />
Julian Pölsler<br />
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, <strong>TU</strong> <strong>Wien</strong><br />
17:45 Verleihung des Lehrenden-Award<br />
18:00 Vergabe der Auszeichnungen an die AbsolventInnen<br />
2
Vorträge zu den nominierten Diplomarbeiten<br />
Angelika Garz<br />
Efficient Layout Analysis of Ancient Manuscripts Using Local Features<br />
Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer Vision<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 68<br />
Georg Gerstweiler und Emanuel Vonach<br />
Development of an Active Motion Capture Suit for Teaching Motion Skills<br />
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich Interactive<br />
Media Systems<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 16<br />
Markus Kammerstetter<br />
Real-time Encrypted Speech Communication Over Low <strong>Band</strong>width Channels<br />
Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Automatisierungssysteme<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 74<br />
Patrick Sabin<br />
Implementing a Reversible Debugger for Python<br />
Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen und<br />
Übersetzer<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 57<br />
Georg Seitz<br />
Logics for Coalitional Games of Imperfect Information<br />
Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />
<strong>Abstract</strong> der Diplomarbeit siehe Seite 52<br />
3
DIPLOMARBEITEN<br />
Institute der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme ........................................... 7<br />
Arbeitsbereich E-Commerce ........................................................................... 7<br />
Arbeitsbereich Business Informatics .............................................................. 12<br />
Arbeitsbereich Interactive Media Systems ...................................................... 14<br />
Arbeitsbereich Information & Software Engineering ...................................... 20<br />
Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung............................................... 32<br />
Arbeitsbereich Human Computer Interaction ................................................. 32<br />
Arbeitsbereich Multidisciplinary Design ......................................................... 37<br />
Institut <strong>für</strong> Computergraphik und Algorithmen ................................................. 39<br />
Arbeitsbereich Computergraphik .................................................................. 39<br />
Arbeitsbereich Algorithmen und Datenstrukturen .......................................... 45<br />
Institut <strong>für</strong> Computersprachen ........................................................................ 51<br />
Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik ......................................... 51<br />
Arbeitsbereich Programmiersprachen und Übersetzer .................................... 54<br />
Institut <strong>für</strong> Informationssysteme ...................................................................... 60<br />
Arbeitsbereich Knowledge Based Systems ..................................................... 60<br />
Arbeitsbereich Database and Artificial Intelligence ........................................ 62<br />
Arbeitsbereich Distributed Systems ............................................................... 64<br />
Institut <strong>für</strong> Rechnergestützte Automation ......................................................... 68<br />
Arbeitsbereich Computer Vision ................................................................... 68<br />
Arbeitsbereich Automatisierungssysteme ...................................................... 69<br />
Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> .................................................................... 90<br />
Arbeitsbereich Embedded Computing Systems ............................................. 90<br />
Arbeitsbereich Real Time Systems................................................................. 91<br />
5
Andere Institute der <strong>TU</strong> <strong>Wien</strong><br />
Institut <strong>für</strong> Computertechnik ........................................................................... 94<br />
Institut <strong>für</strong> Managementwissenschaften ........................................................... 95<br />
Department <strong>für</strong> Raumentwicklung, Infrastruktur- und Umweltplanung .............. 101<br />
Institut <strong>für</strong> Geoinformation und Kartographie ................................................. 104<br />
Institut <strong>für</strong> Wirtschaftsmathematik ................................................................. 105<br />
Institut <strong>für</strong> Analysis und Scientific Computing ................................................. 107<br />
Institut “integriert studieren” ........................................................................ 111<br />
In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen<br />
Universität <strong>Wien</strong> .......................................................................................... 114<br />
Medizinische Universität <strong>Wien</strong> ....................................................................... 115<br />
Wirtschaftsuniversität <strong>Wien</strong> ........................................................................... 119<br />
6
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme<br />
Arbeitsbereich E-Commerce<br />
Johannes Daxböck<br />
Competence Cockpit<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
Competences management plays an important role in efforts to achieve<br />
certain goals and nowadays overlaps with related domains like knowledge<br />
management and learning management. But often it does not take into<br />
account that everyday actions can provide valuable resources for competence<br />
management processes. These actions need to be formalized and made<br />
actionable through different measurement and aggregation methods.<br />
Competence Cockpit, a framework to support different resources and<br />
methods for competence management processes is presented in this thesis.<br />
The framework is based on the content management system Drupal and<br />
fulfills requirements for openness, customizability and modularity to ensure<br />
the carrying out of four core competence management processes: (1)<br />
competence identification, (2) competence measurement, (3) competence<br />
development and (4) competence usage. It can be used to build specific<br />
competence management systems for certain domains, allowing to focus<br />
their development on intrinsically domain specificities. To achieve this,<br />
Competence Cockpit can tap into different internal and external resources for<br />
either competence measurement, development or usage. These resources,<br />
managed by the underlying content management system, are used to build<br />
evidences, which subsequently can be used for competence profile<br />
calculations. The methods for competence measurement from different<br />
resources and profile calculation are exchangeable. Further the framework<br />
allows concepts of already existing competence ontologies to be imported<br />
and reused. The customizability and modularity of term{Competence Cockpit}<br />
was evaluated by setting up an example system in the university domain, with<br />
domain specific resources and measurement methods as well as by<br />
implementing additional modules using the interface opportunities provided<br />
by the framework. Finally ideas and approaches for additional enhancements<br />
and future development of Competence Cockpit are discussed.<br />
7
Igor Fodor<br />
Usability-Analyse des Oracle SOA Composers mit Fokus auf die Business Rules<br />
Verwaltung<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Univ.Ass. Dr. Marco Zapletal<br />
In der SOA Suite 11.1.1.3.0 wurde erstmals der SOA Composer veröffentlicht<br />
- ein Webinterface <strong>für</strong> die Überwachung und Bearbeitung von Oracle Business<br />
Rules. Dieses Interface ist besonders interessant, da es Modifikationen der<br />
Business Rules beim laufenden Prozess ermöglichen soll. Business Rules sind<br />
Entscheidungspunkte bzw. In dieser Arbeit wird die Nutzbarkeit von Oracle<br />
Business Rules und des SOA Composers anhand eines praktischen Beispiels<br />
evaluiert. Im speziellen soll herausgefunden werden, ob Oracle Business<br />
Rules auch von nicht IT-Profis während der Laufzeit mit Hilfe des SOA<br />
Composers bearbeitet werden können. Für diesen Zweck wird ein<br />
Geschäftsprozess aus der Printmedienbranche formalisiert und anschließend<br />
mit Hilfe der Implementierungs- und Laufzeittools aus der Oracle SOA Suite<br />
implementiert. Der Geschäftsprozess ist aus einer Sitzung mit Vertretern eines<br />
Zeitungsverlags entstanden. Der gesamte Implementierungsprozess wird<br />
ausführlich diskutiert und einzelne Implementierungsdetails herausgegriffen.<br />
Besonderes Augenmerk wird auf die Implementierung der Business Rules<br />
gerichtet. Nach der Implementierung eines lauffähigen Prototyps werden die<br />
Begriffe Usability und Usability Engineering untersucht und passende<br />
Evaluierungsmethoden <strong>für</strong> die Usability- Analyse des SOA Composers<br />
ausgesucht. Um die Schwachstellen im Userinterface des SOA Composers<br />
aufzudecken, werden zwei realitätsnahe Szenarios und eine Persona<br />
entworfen. Danach wird der SOA Composer mit Hilfe von Cognitive<br />
Walkthrough und Heuristic Evaluation analysiert. Die Resultate aus diesen<br />
Analysen werden in einer tabellarischen Form präsentiert und mit Severity<br />
Ratings bewertet. Die Analyse deckt viele Problembereiche im Userinterface<br />
des SOA Composers auf und zeigt, dass sich die Usability-Schwachstellen des<br />
Composers negativ auf die Bedienung durch nicht IT-Personal auswirken<br />
können.<br />
Erich Heil<br />
Wissenserwerb und Data Mining anhand von österreichischen<br />
Sozialversicherungsdaten am Beispiel des touristischen Arbeitsmarktes<br />
Studium: Masterstudium Information & Knowledge Management<br />
Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl<br />
8<br />
Durch die rasante technische Entwicklung der letzten Jahre und den Umstand,<br />
dass heutzutage fast jede Handlung durch ein elektronisches Gerät erfasst<br />
und als Eintrag in einer Datenbank gespeichert wird, gibt es in unserer Zeit<br />
eine Vielzahl an elektronischen Informationen über jede Person. Mit der<br />
Arbeitsmarktdatenbank (AMDB) des bmask1/AMS2 steht wissenschaftlichen
Institutionen in Österreich eine äußerst umfangreiche und detaillierte<br />
Datenquelle <strong>für</strong> Analysen und zur Visualisierung des österreichischen<br />
Arbeitsmarktes zur Verfügung. In der AMDB sind die<br />
sozialversicherungsrechtlich relevanten Arbeitsmarktpositionen der<br />
Österreicherinnen und Österreicher verzeichnet. Dadurch ist es möglich den<br />
Verlauf von Arbeitsmarktkarrieren auf Individualebene nachzuvollziehen. Es<br />
kann zum Beispiel der Wechsel von Arbeitslosigkeit in Beschäftigung, der<br />
Wechsel von einer Branche in die andere oder auch das erzielte Einkommen<br />
eines Individuums ausgemacht und analysiert werden. In dieser Arbeit wird<br />
der KDD3 Prozess auf einen Ausschnitt dieser Daten angewandt, um die<br />
Beschäftigung im Tourismus zu beleuchten. Schrittweise werden relevante<br />
Daten aus der Datenbank selektiert, Datenfehler und Ausreißer bereinigt und<br />
die Rohdaten in ein, <strong>für</strong> Data Mining Algorithmen nutzbares Format<br />
aggregiert und transformiert. Als letzer Punkt wird ein K-Means Algorithmus<br />
verwendet, um Gruppen in den Neueinsteigern und den Beschäftigten der<br />
Tourismusbranche eines Kalenderjahres zu finden.<br />
Matthias Hutterer<br />
Enhancing a Job Recommender with Implicit User Feedback<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
Recommender systems assist individual users in finding the right items in<br />
large option space. Absolventen.at, an Austrian job board for graduates, uses<br />
such a system for recommending appropriate jobs to applicants. So far, this<br />
system has only considered the resume as input for the user profile, which is<br />
compared with the available jobs. However, only around half of the registered<br />
job seekers fill out the resume, for the other half no personalized<br />
recommendations can be generated. To improve this, the recommender<br />
system has been enhanced with implicit relevance feedback and the impacts<br />
of this approach have been examined in this thesis. Implicit feedback can be<br />
captured in an unobtrusive way and allows the system to infer user<br />
preferences. Four different user actions for implicit feedback have been<br />
identified on Absolventen.at, including reading of a job description,<br />
bookmarking, applying and searching for jobs. All of them provide different<br />
levels of evidence for interest, as an application is a more reliable indicator<br />
for interest than just reading a job description, which is taken into account<br />
with individual weighting parameters. In addition to that, gradual forgetting<br />
factors are used for adapting the profile over time. All of this information is<br />
included in the hybrid user profile, which is represented as hyperdimensional<br />
vector and calculated by a linear combination of the resume and the<br />
preferred jobs. To evaluate the new approach, the preferred jobs of 46 job<br />
seekers were compared with the recommendations. The results show that<br />
including implicit feedback helps to increase the user coverage, as well as the<br />
accuracy of the recommendations.<br />
9
Thomas Neuböck<br />
Process Mining: Design und Implementierung eines Ansatzes zur zeitnahen<br />
Integration von Ereignisprotokolldaten<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Univ.Ass. Dr. Marco Zapletal<br />
Enterprise information systems store information about executed processes in<br />
log structures. These event logs can be used for discovering business<br />
processes. Process Mining techniques extract process information out of the<br />
existing event logs, analyze and interpret the data and use it in corresponding<br />
algorithms for deriving models. The resulting models are visualized and<br />
presented to the decision makers, which are able to make further decisions.<br />
The process mining algorithms deliver the process model in three different<br />
perspectives: (1) process perspective, (2) organizational perspective and (3)<br />
case-perspective. Existing Process Mining techniques perform the extraction<br />
based on historical process information. These traditional Process mining<br />
application scenarios typically require manual extraction and transferring of<br />
the process data, which is usually complex and expensive. Such a proceeding<br />
is inapplicable, if the take-over of data shall be done frequently. Moreover, a<br />
real time monitoring of running processes isnt realizable. A real time or nearreal<br />
time integration of event-logs in existing Process Mining techniques<br />
would require to solve supplementary challenges. This master thesis<br />
discusses two approaches for using Process Mining in real time: (1) Real time<br />
Process Mining as operational support and (2) Using traditional process<br />
mining algorithms in a near-real time manner (the work is focused on this<br />
aspect). Furthermore, the work introduces an implementation for using<br />
traditional scenarios in a near-real time manner. The implemented<br />
architecture includes a Plugin for the ProM Framework, which converts and<br />
imports event-logs into ProM. The second implementation artifact is a<br />
mechanism for recording occurring events. The resulting implementation of<br />
the designed architecture shows, whether a near-real time integration of<br />
event-logs for traditional process mining could be achieved and which further<br />
challenges have to be solved.<br />
Hauke Schuldt<br />
Optimizing ITSM Processes by Knowledge Management<br />
Studium: Masterstudium Information & Knowledge Management<br />
Betreuer: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
10<br />
This thesis evaluates how the operative processes of IT service management<br />
(ITSM) can be supported and optimized by the introduction of selected<br />
knowledge management methods. For this reason, the applicability and<br />
usefulness of existing recommendations for knowledge management within<br />
ITSM are evaluated against the requirements of the individual ITSM processes<br />
and the theoretical findings of knowledge management. After the evaluation,
these general recommendations are subsequently modified where<br />
appropriate to be able to actually increase the efficiency and effectiveness of<br />
the ITSM processes. As ITSM organizations can differ considerably, these<br />
generally applicable knowledge management methods have to be adopted<br />
for any specific ITSM organization. This is done for the specific case of<br />
DeLaval Information Services.<br />
Philip Staud<br />
Identifying design directions for social network goal sharing applications<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Wolfdieter Merkl<br />
Personen haben oft Probleme persönliche Ziele zu verwirklichen, wie z.B.<br />
Neujahrsvorsätzen treu zu bleiben. Eine Möglichkeit diesem Trend<br />
entgegenzuwirken ist die Verwendung von sozialen Netzwerken. Das Ziel<br />
dieser Arbeit besteht darin, Design-Richtungen zu konzipieren, die das<br />
Mitteilen von persönlichen Zielen in sozialen Netzwerken verbessern soll um<br />
Zielerreichung zu unterstützen. Basierend auf einer Hintergrundrecherche<br />
wurden Interviews mit sechs Benutzern durchgeführt. Als nächster Schritt<br />
wurde eine Webapplikation entwickelt, die es Benutzern erlaubt ihre eigenen<br />
Ziele anderen zu zeigen sowie Ziele anderer zu beobachten. Daraufhin wurde<br />
ein neuartiges Experiment mit 32 Teilnehmern unter drei Bedingungen<br />
durchgeführt: Ziele sind gegenseitig einsichtig unter unbekannten Benutzern,<br />
unter Freunden und Ziele sind nicht einsichtig. Es wurden vier persönliche<br />
Ziele im Bereich Gesundheit von jedem Benutzer gesetzt. Gemessen wurden<br />
die persönliche Verpflichtung, das Selbstvertrauen sowie der Fortschritt<br />
bezüglich den Zielen. Das Experiment hat keine substantiellen Unterschiede<br />
bezüglich Verpflichtung zum Ziel, Selbstvertrauen oder der Erreichung der<br />
kurzfristigen Ziele gezeigt, egal ob die Ziele anderen über eine Webseite<br />
kommuniziert wurden oder nicht. Durch den Wegfall von fast der Hälfte der<br />
Teilnehmer, können die Ergebnisse nur als indikativ betrachtet werden.<br />
Zusammenfassend aus den Interviews und dem Experiment wurden folgende<br />
Design-Richtungen entwickelt: Benutzern Kontrolle über Information geben;<br />
Mitteilen von Zielen kann einen scheinbar positiven Effekt haben; Kreative<br />
Interaktion und Repräsentation der Ziele sollte unterstützt werden;<br />
Ermöglichen des Heraushebens von Information, auf die der Benutzer stolz<br />
ist; Kreative Darstellung von Erfolglosigkeit oder langsamen Fortschritt<br />
ermöglichen; Ähnliche Tendenzen beobachtbar bezüglich Fortschritt;<br />
Zufriedenheit und Leichtigkeit der Zielerreichung unabhängig davon ob Ziele<br />
mitgeteilt werden oder nicht.<br />
11
Arbeitsbereich Business Informatics<br />
Thomas Halmetschlager<br />
Interactive Modeling for the Eclipse Modeling Framework<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel<br />
The high complexity of modern software makes it unavoidable to develop<br />
software with the help of graphical, model based editors. Software models<br />
serve not only as documentation or as a rough system overview. They are<br />
also the fundament to generate a executable system. The larger the<br />
application the more persons are involved in the design and development<br />
process. Simultaneous changes on a model are very common. With these<br />
concurrent changes conflicts can occur. There is a need of interpersonal<br />
communication to solve appearing questions and avoid misunderstandings.<br />
Specially in the early stage of software development diversities in<br />
interpretation can occur easily because the semantics of models can be<br />
interpreted different. To avoid such problems the communication channels<br />
within the team should be supported as much as possible. With good<br />
communication it should be possible to conclude a consolidated solution of<br />
the problem in a collaborative way. Within this thesis ways and means are<br />
sought to enable interactive model-driven software development with the<br />
Eclipse Modeling Framework. It turned out that there are already several<br />
approach for this interactive development method. These budding<br />
candidates where reviewed and analyzed. Unfortunately each of the tested<br />
systems had some disadvantages or they were not mainly designed for<br />
model-driven software development. When the analysis of various existing<br />
approaches was finished, a list of requirements was created. The search for a<br />
tool that matches the requirements as good as possible and that can be<br />
extended easily was started and finished with an acceptable result. Therefore<br />
the implementation part consists of a extension of a existing tool. The chosen<br />
tool is CDO, Connected Data Objects, a plugin for Eclipse. CDO was selected<br />
because it is the best match to our requirements. We think we found the<br />
optimal candidate to develop a sustainable solution.<br />
Tanja Mayerhofer<br />
Breathing New Life into Models - An Interpreter-Based Approach for Executing<br />
UML Models<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel<br />
12<br />
Over the past years Model-Driven Development (MDD) gained significant<br />
popularity. With the usage of this paradigm the software engineering process<br />
becomes more model-centric, i.e., models become the main artifact and<br />
therewith the whole software development process relies on these models
and their correctness. For this reason the need for executable models that can<br />
be tested and validated arose. The de facto standard for modeling software<br />
systems is OMGs Unified Modeling Language (UML). The problem is that UML<br />
models are not executable because UML has no precise and completely<br />
specified semantics. Because of this situation, ambiguities arise and models<br />
can be interpreted and executed in different ways. OMG has recognized the<br />
need for executable models in an unambiguous way and has developed a<br />
new standard called Semantics of a Foundational Subset for Executable UML<br />
Models or foundational UML (fUML) that was released in February 2011. This<br />
standard defines the precise execution semantics of a subset of UML 2. The<br />
research question of this thesis is as follows. Is the semantics definition of the<br />
fUML standard sound and applicable for building tools that enable the<br />
execution of UML activity diagrams? To answer this question, a prototype of a<br />
model interpreter has been developed in this thesis that is able to execute<br />
and debug UML activity diagrams according to the execution semantics<br />
defined in the fUML standard. The experiences gained during the<br />
implementation of the model interpreter prototype led to the following<br />
conclusion. The fUML standard is applicable for implementing tools that support<br />
the execution of UML activity diagrams, however, high efforts are necessary<br />
to develop a user-friendly and efficiently usable tool supporting features<br />
like the debugging of models or the execution of incomplete models.<br />
Andrea Randak<br />
ATL4pros: Introducing Native UML Profile Support into the ATLAS<br />
Transformation Language<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuerin: O.Univ.Prof. Dr. Gertrude Kappel<br />
Whereas in the past models were only used for communication and<br />
brainstorming purposes, this philosophy has shifted drastically. Model-Driven<br />
Engineering (MDE) is the keyword that is guiding the current engineering<br />
direction. Models are the key artifact and all development steps are aligned to<br />
these models. The Unified Modeling Language (UML) was introduced by the<br />
Object Management Group (OMG) to standardize and support different<br />
modeling aspects like structural, behavioral, and architectural models. The<br />
huge success of UML is not only due to the versatility of the language but<br />
also because of the highly-developed language extension mechanism in form<br />
of UML profiles. UML profiles may be defined for tailoring UML to specific<br />
domains and technological platforms. Apart from modeling languages, the<br />
technique of model transformation plays a crucial role for the model-driven<br />
approach. Model transformations aim at transforming an existing source<br />
model into some desired target model. The ATLAS Transformation Language<br />
(ATL) is currently one of the most widely used transformation languages.<br />
While modeling languages defined by metamodels are directly supported in<br />
an ATL transformation, the use of UML profiles demands for a complex workaround.<br />
It would be desirable, however, to simplify the handling of UML<br />
13
profiles in such a way that profiles are, like metamodels, represented as<br />
language definitions. The contribution of this master's thesis is to extend ATL<br />
for a native UML profile support. New language constructs are integrated into<br />
the abstract and concrete syntax of ATL to ease the use of profile-specific<br />
information within a model transformation. Apart from the extension of the<br />
ATL syntax, also an operational semantics for the new constructs is defined by<br />
translating the extended ATL to standard ATL. The goal of this work is to enrich<br />
the ATL language with new language-inherent constructs and keywords.<br />
Arbeitsbereich Interactive Media Systems<br />
Simone Arnberger<br />
Die Bedeutung von Alpha-Matting <strong>für</strong> die Darstellung von Bildern auf 3D-<br />
Bildschirmen: eine Benutzerstudie<br />
Studium: Masterstudium Medieninformatik<br />
Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />
Ziel der Arbeit war es zu untersuchen, inwieweit Alpha-Matting-Information<br />
die Qualität der Bilddarstellung auf 3D Bildschirmen beeinflusst. Um diese Frage<br />
zu beantworten, wurde im Zuge dieser Arbeit eine Benutzerstudie durchgeführt.<br />
In der Studie wurden mehrere Stereobildpaare, welche sowohl mit<br />
als auch ohne Alpha-Matting erstellt wurden, auf einem 3D-Monitor dargestellt.<br />
Die Betrachter wurden befragt, ob sichtbare Unterschiede in der<br />
Bildqualität zwischen den 3D-Bildern erkennbar sind. Ein weiteres Ziel der<br />
Untersuchung war die Feststellung, ob die wahrgenommenen Unterschiede<br />
mit speziellen Hintergründen oder einzelnen Motiven in Verbindung gebracht<br />
werden können. Die Analyse der Ergebnisse hat gezeigt, dass die Probanden<br />
eine bessere Bildqualität bei den mit Alpha-Matting erstellten Bildpaaren gegenüber<br />
den ohne Alpha-Matting erstellten Stereobildpaaren feststellen<br />
konnten. Das Ergebnis der Studie spricht somit eindeutig <strong>für</strong> einen Einsatz<br />
von Alpha-Matting bei der Generierung von synthetischen Ansichten, da eine<br />
korrekte Darstellung der transparenten Regionen Grundvoraussetzung <strong>für</strong><br />
qualitativ hochwertige 3D-Bilder ist.<br />
14<br />
Anita Bogner<br />
Evaluierung von Epipolarrektifizierungsverfahren zur Verwendung in einem<br />
Stereo Vision Framework<br />
Studium: Masterstudium Medieninformatik<br />
Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />
Epipolarrektifizierung ist ein Verfahren, das häufig im Zuge der Stereo Vision<br />
eingesetzt wird. Das zentrale Problem der Stereo Vision - das Korrespondenzproblem<br />
- ist das Finden zusammengehörender Punktpaare in einem Stereo-
ildpaar. Epipolarrektifizierung ist ein Verfahren, dessen Ziel es ist, Stereobildpaare<br />
so zu transformieren, dass demselben Objektpunkt entsprechende<br />
Bildpunkte in den rektifizierten Bildern auf derselben horizontalen Linie<br />
liegen. Unter dieser Voraussetzung wird das Korrespondenzproblem<br />
wesentlich vereinfacht. Da die Epipolarrektifizierung keine eindeutige Lösung<br />
besitzt, liegt die Schwierigkeit darin, eine Lösung zu finden, die möglichst<br />
keine unnötigen Verzerrungen in den rektifizierten Bildern verursacht.<br />
Ausgangspunkt dieser Diplomarbeit ist ein Stereo Vision Framework, das alle<br />
Arbeitsschritte umfasst, die notwendig sind, um Tiefeninformation aus<br />
unkalibrierten Stereobilddaten zu gewinnen. Inhalt des praktischen Teils der<br />
Arbeit ist die Nachimplementierung der Quasi-Euclidean Uncalibrated Epipolar<br />
Rectification von Fusiello und Irsara. Die Qualität der Rektifizierungsergebnisse<br />
dieses Verfahrens wird evaluiert und mit jenen des weit<br />
verbreiteten Rektifizierungsverfahrens von Hartley verglichen. Anhand von<br />
generierten Testmatches wird zunächst untersucht, welchen Einfluss das Ausmaß<br />
der Transformationen zwischen den Inputbildern oder Ungenauigkeiten<br />
in den Punktkorrespondenzen auf die Qualität der Rektifizierung haben. In<br />
einem weiteren Schritt werden gängige Feature-Detektoren in die Evaluierung<br />
einbezogen, um zu untersuchen, welche dieser Verfahren am besten zur<br />
Bestimmung der als Input <strong>für</strong> die Rektifizierung benötigten Punktkorrespondenzen<br />
geeignet sind. Ziel der Evaluierung ist es herauszufinden, wie die<br />
Rezeptur <strong>für</strong> ein Rektifizierungsverfahren aussehen muss, um möglichst optimale<br />
Ergebnisse zu erzielen. Die aus der Evaluierung gewonnenen Erkenntnisse<br />
werden soweit als möglich in das Stereo Vision Framework integriert.<br />
Mattias Eisenbarth<br />
Evaluierung von Algorithmen zur Novel-View-Generierung aus Stereobildern<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />
Diese Arbeit beschäftigt sich mit dem Vergleich von State-of-the-Art-Algorithmen<br />
zur Erzeugung von virtuellen Ansichten (Novel-Views) auf Basis von<br />
Stereobildern. Novel-Views (NV) sind künstlich generierte Blickwinkel auf eine<br />
Videoszene, die im Originalvideo noch nicht existiert haben. Sie finden im<br />
Bereich der 3D-Technik bei der Darstellung eines Videos auf autostereoskopischen<br />
und stereoskopischen Bildschirmen, sowie bei Korrekturen der<br />
Stereobasis (Abstand zwischen den Stereokameras) Anwendung. Das Ziel der<br />
Arbeit ist es, mehrere NV-Methoden bezüglich ihrer visuellen Qualität (Artefakte,<br />
Tiefeneindruck ) zu analysieren und zu vergleichen. Dabei werden im<br />
Speziellen die Methoden <strong>für</strong> das Image Warping (Verschieben von Bildpunkten<br />
auf ihre neuen Positionen) und das Image Inpainting (Rekonstruktion<br />
fehlender Bildteile) untersucht. Die Resultate ermöglichen es, eine NV-Methode<br />
zu entwickeln, die einen angenehmen Tiefeneindruck erzielt und Artefakte<br />
soweit reduziert, dass sie von der menschlichen visuellen Wahrnehmung<br />
nicht mehr als störend empfunden werden. Die Vermessung des möglichen<br />
Tiefeneindruckes eines Bildschirms dient als Voraussetzung <strong>für</strong> eine optimale<br />
15
Evaluierung und wird ebenfalls näher behandelt. Dabei werden Methoden<br />
vorgestellt, mit denen sich die räumliche Größe einer 3D-Szene verändern<br />
lässt und an das wiedergebende Display angepasst werden kann. Zunächst<br />
sollen vielversprechende Methoden zur NV-Generierung gefunden und implementiert<br />
werden. Diese werden dann evaluiert und verglichen, wobei das<br />
Hauptaugenmerk auf der visuellen Wahrnehmung von Artefakten und Bildfehlern<br />
im bewegten Video liegt. Dazu werden mehrere Testdatensätze zusammengestellt,<br />
die zur Analyse der NV-Algorithmen herangezogen werden.<br />
Die Ergebnisse zeigen, welchen Einfluss die Positionierung der neuen Kameraansichten<br />
auf den optischen Gesamteindruck hat und welche der analysierten<br />
Verfahren sich von den anderen durch eine bessere visuelle Qualität<br />
unterscheiden.<br />
Georg Gerstweiler<br />
Emanuel Vonach<br />
Development of an Active Motion Capture Suit for Teaching Motion Skills<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Privatdoz. Dr. Hannes Kaufmann<br />
Die multimediale Unterstützung <strong>für</strong> das Lehren und Ausüben von motorischen<br />
Fähigkeiten ist oft auf Videos oder Grafiken beschränkt. Vor allem in<br />
Bereichen wie Rehabilitation oder Sport könnte der Einsatz von Virtual Reality<br />
Anwendungen <strong>für</strong> pädagogische Zwecke beachtliche Vorteile eröffnen, wie<br />
detailliertes Feedback über Trainingsfortschritte. Aber unverzichtbar <strong>für</strong><br />
Virtual Reality ist eine Möglichkeit zum Erfassen der Bewegungsdaten. Die<br />
meisten Motion Capture Systeme sind entweder auf eine bestimmte Anwendung<br />
zugeschnitten oder aus verschiedenen Gründen <strong>für</strong> Sport ungeeignet.<br />
Gerade bei sportlichen Anwendungen treten spezielle Anforderungen<br />
auf. Zum Beispiel können Methoden bei denen der Anwender mit relativ großen<br />
Vorrichtungen ausgestattet ist, zu Schmerzen bei Kontakt mit harten<br />
Oberflächen führen. Des Weiteren müssen auch mögliche schnelle Bewegungen,<br />
ausreichende Bewegungsfreiheit und hygienische Aspekte bedacht<br />
werden. Die Autoren werden im Rahmen dieser Arbeit zeigen, dass ein Anzug<br />
<strong>für</strong> Motion Capture mit aktiven infraroten Markern gebaut werden kann, der<br />
den speziellen Herausforderungen gerecht wird. Zu diesem Zweck weden Anforderungen<br />
zusammengestellt und Konzepte entwickelt welche beim Bau<br />
eines voll funktionsfähigen Prototyp angewendet werden. Um die Leistung<br />
des aktiven Motion Capture Anzugs in einem pädagogischen Kontext einschätzen<br />
zu können und das Potential des Einsatzes von Virtual Reality zu demonstrieren,<br />
wurde der konstruierte Anzug in einer tatsächlichen Virtual<br />
Reality Anwendung <strong>für</strong> das Lehren von motorischen Fähigkeiten verwendet.<br />
Es zeigt sich, dass der entwickelte Motion Capture Anzug, <strong>für</strong> Sport und Rehabilitation<br />
geeignet ist, sich aber nicht auf diese spezifischen Anwendungsbereiche<br />
beschränkt. Den Autoren ist es vor allem gelungen die nötigen<br />
elektronischen Komponenten unscheinbar zu integrieren. Außerdem kann das<br />
16
Layout aufgrund der individuell steuerbaren Marker <strong>für</strong> unterschiedliche<br />
Systeme und Algorithmen optimiert werden.<br />
Birgit Gneiss<br />
Erstellung eines Datensatzes zur Evaluierung von Stereo-Matching-<br />
Algorithmen<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />
Stereo-Matching-Algorithmen verfolgen das Ziel, Tiefeninformationen aus<br />
Stereobildpaaren anhand übereinstimmender Merkmale zu gewinnen. Durch<br />
die leicht voneinander abweichenden Blickwinkel (Views) der Stereobilder<br />
wird derselbe Szenenpunkt in den einzelnen Views an unterschiedlichen<br />
Pixelkoordinaten abgebildet. Das Ausmaß dieser Verschiebung wird als<br />
Disparität bezeichnet und stellt die Grundlage <strong>für</strong> die Gewinnung von<br />
Tiefeninformationen dar. Zur quantitativen Evaluierung von Stereo-Matching-<br />
Algorithmen, ist die Verfügbarkeit von Referenzlösungen (Ground Truth)<br />
unerlässlich. Trotz aktiver Forschungstätigkeit im Bereich Stereo Matching<br />
existieren nur relativ wenige frei verfügbare Referenzlösungen, da ihre<br />
Erstellung ein sehr aufwändiger Prozess ist. Die Hauptanforderungen an<br />
Ground-Truth-Tiefenkarten sind eine hohe Exaktheit sowie eine hohe Dichte.<br />
In dieser Arbeit wird ein System zur Erstellung von Referenzdatensätzen <strong>für</strong><br />
Stereo-Matching-Algorithmen vorgestellt, welches diesen Kriterien gerecht<br />
wird. Um die Komplexität der Zuordnung korrespondierender Merkmale zu<br />
erleichtern, wird die Methode der strukturierten Beleuchtung eingesetzt. Mit<br />
Hilfe einer Beleuchtungsquelle werden dabei <strong>für</strong> jede View nacheinander<br />
verschiedene Streifenmuster auf die Szene projiziert, wodurch eindeutige<br />
Pixelkodierungen erzeugt werden und Korrespondenzen zwischen den Views<br />
leichter zugeordnet werden können. Um die Verlässlichkeit und Exaktheit des<br />
Gesamtergebnisses zu erhöhen, werden zusätzliche Korrespondenzen<br />
zwischen der Geometrie der Beleuchtungsquelle und den beiden Views<br />
berechnet. Die Evaluierung der auf diese Weise gewonnenen Tiefenkarten<br />
anhand von manuell ermittelten Disparitäten zeigt, dass mit dem<br />
vorgestellten System subpixelgenaue Tiefenkarten erzielt werden können, die<br />
verlässliche Ground-Truth-Informationen darstellen.<br />
Manfred Grünling<br />
Entwicklung eines multitouchfähigen Schaufensters<br />
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />
Betreuer: Privatdoz. Dr. Hannes Kaufmann<br />
In der vorliegenden Arbeit wird ein Hard- und Softwaresetup präsentiert, mit<br />
dem es möglich ist, beliebige Schaufenster mit Multitouch-Funktionalität<br />
auszustatten. Die Arbeit fasst zunächst die theoretischen Grundlagen im<br />
17
Bereich optischer Sensorik und Lichtquellen zusammen. Danach wird ein<br />
Überblick über die zur Verfügung stehenden Multitouch-Technologien<br />
geschaffen. Kamera-basierte Technologien, die <strong>für</strong> den Eigenbau und zur<br />
Realisierung von großformatigen Multitouch-Displays geeignet sind, liegen<br />
dabei im Fokus. Weiters werden verschiedenste Software-Komponenten<br />
beschrieben, die zur Umsetzung von Multitouch-Anwendungen eingesetzt<br />
werden können. Daraufhin wird das implementierte Hardwaresetup, sowie<br />
die verwendete und entwickelte Software, vorgestellt.<br />
Thomas Hahn<br />
Event-Driven 3D Vision for Human Activity Analysis in Context of Dance and<br />
Fitness Training of Elderly People<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Privatdoz. Dr. Hannes Kaufmann<br />
Over the last years many implementations concerning the recognition of<br />
human motion have been developed. Systems that are designed for elderly<br />
people are becoming more important, especially in the physical training<br />
application area. In this thesis a system for recognition of human motion in<br />
the area of dance and fitness training for elderly people is introduced. This<br />
module within the EU project Silvergame is thereby intended to help elderly<br />
people to keep their level of health as well as to gain a higher fitness level so<br />
that they can stay healthy to an older age. With the system the users can then<br />
be encouraged to move more by performing the dance which they see on<br />
their home TV screen. In doing so such a dance consists of different human<br />
activities which the system recognizes. Furthermore, it also provides some<br />
sort of feedback via the given output device. As the input device, a novel<br />
event-driven 3D vision sensor, developed at the AIT Austrian Institute of<br />
Technology is used in this approach. What is special in this case is that only<br />
data is transferred if an intensity change in the field of view is detected.<br />
Therefore, less data then with ordinary video systems is generated as the<br />
information is communicated not frame-based but pixel wise. Through a<br />
detailed research of the literature about the up-to-date classification<br />
methods, the most promising technique and features for the motion<br />
detection system were chosen. This thesis thereby shows the performance of<br />
the designed application and points out the opportunity for further<br />
employments. Though it was significant how the chosen classification<br />
method can be used for the obtained features from the received data.<br />
Additionally first performance measurements were done. To obtain<br />
representative experimentation results a cross validation was applied and<br />
different settings were used to compare the results. The best results thereby<br />
reached an average correct recognition rate of around 96%.<br />
18
Richard Kloibhofer<br />
Rauschunterdrückung in einer nicht ausgerichteten Bildfolge<br />
Studium: Masterstudium Medieninformatik<br />
Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />
Die Entfernung störender Rauschartefakte in Bildern ist ein wichtiger<br />
Vorverarbeitungsschritt <strong>für</strong> viele Aufgabenstellungen in der digitalen<br />
Bildverarbeitung. Die meisten Rauschunterdrückungsverfahren arbeiten auf<br />
Einzelbildern. Stehen jedoch mehrere Aufnahmen derselben Szene zur<br />
Verfügung, können Redundanzen in dieser Bildfolge dazu verwendet<br />
werden, um bessere Resultate zu erzielen. Ein Problem bei der Aufnahme<br />
solcher Bildsequenzen stellt die durch Kamerabewegungen bedingte<br />
Verschiebung der Einzelbilder dar. Bestehende Methoden zur<br />
Rauschunterdrückung in Bildsequenzen sind daher auf eine aufwändige und<br />
oft fehleranfällige Registrierung der verschobenen Einzelbilder angewiesen.<br />
Folglich besteht das Ziel dieser Arbeit darin, Bildrauschen in einer Bildsequenz<br />
zu unterdrücken ohne eine Bildregistrierung durchzuführen. Die in dieser<br />
Arbeit vorgestellte Methode berechnet die Farbe eines Pixels im rauschfreien<br />
Bild als eine gewichtete Mittelung aller Pixel der Bildfolge. Um die<br />
Gewichtung zu berechnen wird ein Referenzbild aus der Sequenz ausgewählt.<br />
Der Einfluss (Gewichtung) eines Bildpunktes der Bildsequenz auf die Mittelung<br />
wird durch dessen Farbähnlichkeit zum jeweiligen Pixel des Referenzbildes<br />
bestimmt. Pixel mit hohem Einfluss können auch an Stellen im Bild auftreten,<br />
welche nicht mit den Pixelkoordinaten im Referenzbild übereinstimmen.<br />
Dadurch werden Verschiebungen im Bild toleriert.Im Kontext dieser Arbeit<br />
wurde des Weiteren das Problem von atmosphärisch bedingten Trübungen<br />
behandelt. Solche Eintrübungen entstehen durch die Streuung des<br />
einfallenden Lichtes durch Staub- oder Nebelpartikel. Dadurch erreicht das<br />
Licht die Kamera nur in abgeschwächter Form.<br />
Katharina Schiffl<br />
Bestimmung von Hominoidsegmenten aus 3D - Bodyscannerdaten<br />
Studium: Masterstudium Medieninformatik<br />
Betreuerin: Ao.Univ.Prof. Dr. Margrit Gelautz<br />
Models of the human body are used to analyze and simulate body movements<br />
in a variety of fields, including sports science and computer games.<br />
These models vary in detail and accuracy, depending on their field of<br />
application. In this work, we focus on the hominoid of Hatze, which was<br />
originally developed in the context of biomechanical applications. This thesis<br />
investigates the utility of a 3D body scanner for the automatic segmentation<br />
of scan data into the 17 segments of Hatzes anthropomorphic model. We<br />
propose a scan procedure and a set of data processing algorithms that ease<br />
the process of measuring a body and speed up the calculation of the related<br />
segment parameters. These parameter values can be employed afterwards for<br />
19
the simulation of human movements in areas such as sports, orthopedics or<br />
medicine. As part of our investigations, we assess the accuracy of the used<br />
scanner (Vitronic VI<strong>TU</strong>S smart 3D Bodyscanner). Basic sources of error such as<br />
the distance between scan lines, scan holes and geometric distortions are<br />
discussed, and their influence on the body measurements is further explored.<br />
We finally demonstrate the performance and repeatability of our automatic<br />
measurements in xperiments with several test persons and compare the<br />
results with manual reference measurements.<br />
Arbeitsbereich Information & Software Engineering<br />
Thomas Baumann<br />
Trusted Backups Prototyp eines Backup Tools zum Erstellen von<br />
vertrauenswürdigen Backups mittels TPM (TC)<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Privatdoz. Dr. Edgar Weippl<br />
Presently a higher and higher value is attached to data security. Companies<br />
become aware of the importance of protecting their data against illegal thirdparty<br />
access. One area that is often overlooked or underestimated is the one<br />
of the security of backups. They must also be protected from unauthorized<br />
access. One approach to achieve this level of security is to encrypt the<br />
backups. A particularly promising approach in this area is the encryption using<br />
Trusted Computing. Data is tied to a hardware chip of a specific physical<br />
hardware and can only be restored on this very platform on which it was<br />
previously made. Despite the number of backup programs that can be found<br />
on the market, there are none that fulfil this security requirement<br />
satisfactorily. Therefore this thesis describes scenarios that were developed in<br />
order to represent the basic use cases for the procedure of backup. The<br />
backup systems already on the market as well as the use cases are analysed.<br />
Based on the obtained findings, basic requirements for a backup program<br />
that is optimal in terms of trustworthiness are developed. Using these criteria,<br />
a concept for a prototype of an ideal backup program is created. The paper<br />
discusses the problems which arise in the development of such a program<br />
and describes the solutions to overcome these problems. The solutions lead<br />
to the creation of specifications and the choice of technologies in order to<br />
use them for the backup prototype. Furthermore, the prototype is<br />
implemented and this paper describes which tools are used for this<br />
implementation and what operations are performed. The reader should thus<br />
be enabled to understand this program as well as to adjust it to his own<br />
needs. After the implementation of the prototype extensive tests of this<br />
program and the abstract concept of trusted backups are conducted. In order<br />
to do so, abuse cases were developed and applied to the previously created<br />
scenarios.<br />
20
Seyed Amir Beheshti<br />
Business Process on-Demand; Studying the Enterprise CloudComputing and<br />
its Role in Green IT<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />
Unfortunately, lack of guidelines and varying and limited services from<br />
different cloud providers, have made the adoption of appropriate Cloud<br />
services a challenge for many organizations. In this regard, there is a vital<br />
need to study and analyze available services from different cloud vendors and<br />
provide enterprises with the best solutions available regarding their specific<br />
business requirements.In This thesis different cloud providers and their<br />
available services are analyzed.The results of this market analysis are<br />
presented in form of two different matrixes: One for business processes and<br />
functions, and the other for PaaS, IaaS in addition to other cloud services<br />
available on the market. Due to the huge size of the proposed matrix, the<br />
investigation of specific services and their corresponding cloud providers in<br />
the matrix is a challenging issue.For this reason I develop an ontology for<br />
cloud computing based on the market analysis.Cloud Ontology is an<br />
approach to help organizations understand and explore available cloud<br />
services in a meaningful and easier way. There are a large number of cloud<br />
providers available and finding the appropriate solution for different<br />
enterprises is a challenging process. In other words, the cloud ontology helps<br />
organizations to find their way through the jungle of cloud services in<br />
accordance with their specific business requirements.This thesis is an attempt<br />
to make the process of mapping business processes/functions to cloud<br />
services easier by providing organizations with a matrix of cloud<br />
services/business processes (distribution of market) and an ontology for<br />
cloud Computing.<br />
Dominik Manfred Berchtold<br />
Visualisierung von Metadaten in Suchergebnissen<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Die Menge an digital gespeicherten Daten steigt rasant an, dadurch werden<br />
Möglichkeiten zur effizienten Suche nach Informationen immer wichtiger. An<br />
der Präsentation von Suchergebnissen als Liste von Treffern in Textform hat<br />
sich in den letzten Jahren kaum etwas geändert. Eine graphische<br />
Aufbereitung könnte den Suchprozess oft entscheidend unterstützen. Ein<br />
möglicher Ansatz bietet die ikonisierte Darstellung der Ergebnisse mit Hilfe<br />
von graphischen Metaphern. Dabei werden die in den Treffern enthaltenen<br />
Metadaten verwendet, um das Aussehen einzelner Ausprägungen der<br />
Metapher zu beeinflussen. Eine der Schwierigkeiten bei dieser Methode<br />
besteht in der Auswahl einer passenden Metapher sowie dem Festlegen der<br />
21
Regeln die den Einfluss der Metadaten auf deren Aussehen steuern. Dieses<br />
Problem wird noch verschärft, durch den oft nicht unerheblichen Aufwand der<br />
getrieben werden muss, um eine graphische Darstellung konkret umzusetzen.<br />
Um diesen Prozess der Metapher-Auswahl zu unterstützen, aber vor allem, um<br />
eine Möglichkeit zu schaffen, Erkenntnisse darüber zu erlangen, welche<br />
Kriterien bei der Wahl der Metapher von Bedeutung sind, wurde der<br />
metaViewer entwickelt. Mit seiner Hilfe können mit relativ wenig Aufwand<br />
unterschiedliche Visualisierungen ausprobiert werden. Dabei bietet er die<br />
Möglichkeit, Daten aus verschiedenen Quellen einzubinden. Außerdem stellt<br />
er mehrere Schnittstellen zur Verfügung die <strong>für</strong> weitere Untersuchengen die<br />
Entwicklung zusätzlicher Visualisierungsmöglichkeiten unterstützen. Somit<br />
können die beim Umgang mit dem metaViewer gesammelten Erfahrungen<br />
sofort genutzt und beim Entwurf neuer Metaphern angewendet werden. Der<br />
metaViewer bildet somit die ideale Basis, um eine Vielzahl an<br />
Visualisierungen auszuprobieren und deren Tauglichkeit zur Präsentation von<br />
Suchergebnissen bewerten zu können.<br />
Andreas Bernauer<br />
PPJ - A polymorphic Runtime Packer in Java<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Privatdoz. Dr. Edgar Weippl<br />
22<br />
Üblicherweise nutzt schadhafte Software eine oder mehrere Techniken zum<br />
Verschleiern von ausführbaren Dateien, um den eigenen Code zu verstecken.<br />
Es ist schwierig, <strong>für</strong> eine solche Art von Programmen Signaturen <strong>für</strong> statische<br />
Virenscanner zu erstellen, da die Eindeutigkeit nicht mehr mithilfe vom<br />
Programmcode auf dem Speichermedium ermittelt werden kann, sondern<br />
vorrangig durch den Code im Speicher oder durch das dynamische Verhalten<br />
gegegeben ist. Diese Arbeit gibt einen Einblick in aktuelle<br />
Verschleierungstechniken und deren Gegenmaßnahmen. Weiters wird gezeigt,<br />
dass effektive Verschleierungstechnologien, die auf nativen<br />
Programmcode angewendet werden, auch auf die Java-Umgebung<br />
übertragen werden können. Neben einer Zusammenfassung und<br />
Besprechung von aktuellen Verschleierungstechniken, wird im Rahmen dieser<br />
Arbeit ein neuartiger "Runtime-Packer", vorgestellt. Dieser implementiert eine<br />
effektive Technik zum Verschleiern von Java-Programmen. Der Packer basiert<br />
auf polymorpher Verschleierung, die eine Hülle, einen "Wrapper", um das<br />
originale Programm legt, und so dessen Eigenschaften vor Virenscannern<br />
versteckt. Um die Effektivität unseres Packers zu testen, wurde ein Prototyp<br />
entwickelt. Als Ziel sollten die implementierten Techniken so geschaffen sein,<br />
dass sie die Ausführungsgeschwindigkeit des gepackten Programms nicht<br />
signifikant verlangsamen. Trotzdem soll eine signatur-basierte Überprüfung<br />
<strong>für</strong> ein gepacktes Programm sehr schwierig werden oder sich die Analyse<br />
desselben durch einen menschlichen "Reverse Engineer" erheblich<br />
zeitaufwändig gestalten. Letztendlich soll der Packer die Funktionalität des<br />
originalen Programms nicht verändern. In einer Evaluierungsphase konnte
gezeigt werden, dass unser Packer alle drei dieser Anforderungen erfüllt. Die<br />
Effektivität des Packers wurde mit Hilfe eines definierten Schemas evaluiert,<br />
welches den Grad der Verschleierung, die Ausführungsgeschwindingkeit und<br />
die Bewahrung der originalen Funktionalität berücksichtigt.<br />
Alexander Fuchs<br />
Entwurf und Konzeption einer Service-orientierten Architektur zur IT-<br />
Systemintegration<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Die Integration von IT-Systemen ist vor allem im Unternehmensumfeld von<br />
enormer Bedeutung. Der Informationsaustausch zwischen den Kernsystemen<br />
eines Unternehmens kann dabei mit dem Nervensystem des menschlichen<br />
Körpers verglichen werden. Ähnlich wie der menschliche Organismus bei<br />
einer Störung seiner natürlichen Steuerungs- und Informationswege sehr<br />
empfindlich reagiert, bringt auch eine Störung der Informationswege,<br />
zwischen den wichtigsten Systemen eines Unternehmens, oft immense<br />
Schäden mit sich, sowohl finanzieller Natur, als auch <strong>für</strong> das Ansehen und die<br />
Reputation. Im Laufe der Zeit haben sich Konzepte etabliert um IT-<br />
Systemintegrationen möglichst einfach, verlässlich und reibungsfrei<br />
durchzuführen. Diese Konzepte und deren Umsetzungen sind jedoch oft nicht<br />
ausreichend flexibel genug und meist tief in den jeweiligen Losungen<br />
verwurzelt. Dies führt zur Fragestellung nach möglichen neuen Konzepten<br />
und Architekturen, die die Integration von IT-Systemen strukturiert, losgelöst<br />
vom Integration Client und Service-orientiert ermöglichen. Im Rahmen dieser<br />
Arbeit werden existierende Konzepte und Ansätze evaluiert und darauf<br />
aufbauend eine neuartige Architektur entworfen, die sich der bewährtesten<br />
Teilbereiche bedient. Als eines der grundlegendsten Ziele der "Service-<br />
Oriented Adapter Architecture" (SOAA) kann dabei die Trennung der<br />
Integrationsprozesse von deren Einzelaktivitäten angesehen werden, um so<br />
Flexibilität und Wiederverwendbarkeit zu erhöhen. Die vorliegende Arbeit<br />
erläutert zunächst allgemeine Konzepte der IT-Systemintegration, um<br />
anschließend auf die Zielsetzungen der konzipierten Architektur einzugehen.<br />
Darauf aufbauend werden Details des architekturellen Aufbaus und des<br />
Zusammenspiels der Komponenten dargestellt. Weiters wird die entwickelte<br />
Architektur mit der Integrationsarchitektur einer etablierten EAI und BPM<br />
Plattform verglichen um relevante Unterschiede zu diskutierten. Abschließend<br />
erfolgt eine kritische Betrachtung der Ergebnisse.<br />
23
Alexander Fuchs<br />
Client unabhängige Integration von IT-Systemen am Beispiel von SAP und<br />
Datenbanken<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Die Funktionen von IT-Systemen müssen in zahlreichen Fällen anderen IT-<br />
Systemen zur Verfügung gestellt werden. Nach wie vor erfolgt dies oft über<br />
spezifische Integrationslösung. Dies führt zu einer hohen Anzahl an<br />
individuellen Lösungen und erschwert die Wartung einer gesamtheitlichen<br />
Integration wesentlich. Auch Anpassungen existierender Lösungen gestalten<br />
sich dadurch komplexer und risikoreicher. Aus diesem Grund sollte ein Ansatz<br />
verfolgt um gekapselte Integrationslogik, strukturierter und unabhängig vom<br />
Client zur Verfügung zu stellen. Eine ähnliche Problemstellung wurde auch im<br />
Forschungsprojekt "FFF-DMS-EAI" vorgefunden, bei dem es <strong>für</strong> das Document<br />
Management System (DMS) "InStruct" und die Business Process Management<br />
(BPM) Plattform "InSpire" einen Integration Layer zu entwickeln galt, um<br />
gezielt auf Informationen oder Funktionen spezifischer IT-Systeme zugreifen<br />
zu können. Daraus entstand die Anforderung an einen vom Integration Client<br />
unabhängigen und gleichzeitig Service-orientierten Ansatz und in weiterer<br />
Folge das Konzept der "Service-Oriented Adapter Architecture" (SOAA). Diese<br />
bisher rein konzeptionelle Architektur galt es exemplarisch umzusetzen.<br />
Einerseits um ihre Relevanz und Praxistauglichkeit zu bestimmen und<br />
andererseits um den Produkten "InSpire" und "InStruct" einen initialen<br />
Integration Layer zur Verfügung zu stellen. Dazu wurden zunächst<br />
grundlegende Anforderungen und Ziele definiert und darauf aufbauend eine<br />
Vorgehensweise, in Form eines iterativen Entwicklungsprozesses, erarbeitet.<br />
Anschließend fand eine Darstellung der Umsetzung allgemeiner Architekturkomponenten,<br />
sowie spezifischer Komponenten zur Integration von SAP<br />
Systemen und Datenbanken, statt. Eine kritische Betrachtung der Ergebnisse<br />
und Erkenntnisse der Umsetzung, das Aufzeigen möglicher Etablierungsstrategien,<br />
die Diskussion der Relevanz <strong>für</strong> Produkt Hersteller und die Darstellung<br />
von zukünftigen sinnvollen Erweiterungen bilden den Abschluss der<br />
Arbeit.<br />
Marcel Grabher<br />
Webserver-Sicherheit und Virtualisierung<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Privatdoz. Dr. Edgar Weippl<br />
24<br />
Nearly every week attacks on websites are reported by the media. Even<br />
transnational corporations like Sony, Banks (Citigroup) or credit card<br />
companies are affected. Motivated by a recent software project, the author of<br />
this paper shows current attacks and best-practice-countermeasures<br />
concerning webservers and websites. Furthermore the security aspects of
hosting, virtualization and cloud-computing are shown. The results were<br />
categorized in network, operating system, services and webapplication and<br />
were deduced through expert-interviews, case studies, published vulnerabilities,<br />
publicly known attacks on companies, comparison of security-solutions,<br />
experiments executed in a virtual labor and a detailed study of literature. In<br />
the context of this paper there have been discovered vulnerabilities (institute<br />
of computer science of the <strong>TU</strong>-Vienna, Ruby on Rails), which are proven by<br />
proof-of-concept-exploits and documented by recorded screencasts.<br />
Markus Hamm<br />
Impact Assessment of Decision Criteria in Multi Criteria Decision Analysis for<br />
Digital Preservation<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Decision making is a complex issue. Although we all have a lot of practice we<br />
are not good at it. Multi Criteria Decision Analysis faces this issue and<br />
supports decision makers by specifying decision problems in a formal model<br />
which guides the way to the optimal decision. This formal problem<br />
specification adds transparency to the whole decision process. Digital<br />
preservation is the active management of digital content over time to sustain<br />
its accessibility. Active management means that preservation decision have to<br />
be taken. The process of finding optimal preservation decisions for a set of<br />
digital objects is called Preservation Planning. Digital content to preserve<br />
contains most of the time sensitive information like cultural heritage, business<br />
contracts or historical images. Thus preservation decisions are always critical<br />
which requires a trustworthy and therefore transparent decision finding<br />
process. Bringing this together Multiple Criteria Decision Analysis can be used<br />
to make preservation decisions in a transparent and therefore trustworthy<br />
way. The Preservation Planning tool Plato uses this approach to support the<br />
responsible planner at making the optimal decision in his scenario. Its<br />
decision finding process evaluates several possible preservation actions by a<br />
set of given criteria to identify the best action to take. Several institutions use<br />
Plato to take real world preservation decisions. Even though we have a lot of<br />
case study data we currently do not know a lot about the criteria used to<br />
make these decisions. The goal of this thesis is to identify the criteria used to<br />
take preservation decisions in detail and assess their quantitative impact on<br />
final decisions. This gained knowledge about decision criteria is aimed to<br />
help us improving the overall Preservation Planning process. To achieve this<br />
goal we present a method for criteria impact assessment based on analysing<br />
empirical collected case study data.<br />
25
Thomas Kern<br />
Feature Selection with Entropy in Patent Classification<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Privatdoz. Dr. Allan Hanbury<br />
In this thesis a framework for auto classification of patents is developed.<br />
Emphasize lies on a comparison between several linear classifiers including an<br />
SVM and an L2-regularized linear classifier. Furthermore, a feature selection is<br />
implemented to reduce the cost of training albeit keeping the level of<br />
precision and recall steady on the level of classification with all the features<br />
intact. The number of features was reduced by 4%. In 2010 Montemurro and<br />
Zanette proposed a method to identify important words in a text. On this<br />
method a feature selection metric was built to distinguish between valuable<br />
and negative features. Furthermore a new filter selection algorithm based on<br />
the new metric is proposed.<br />
Andreas Marchart<br />
Einsatz von Business Continuity Management Tools <strong>für</strong> Krisenmanagement in<br />
der Industrie sowie eine Umsetzung an Hand von KRIMA Use-Cases<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />
26<br />
Die Diplomarbeit beschäftigt sich mit der Fragestellung, wie Business<br />
Continuity Management Systeme in der Industrie eingesetzt werden können,<br />
um zu einer Steigerung der Resilienz eines Unternehmens beitragen zu<br />
können. Aus diesem Grund wurden zuerst die verschiedenen Begriffe, sowie<br />
die Teilbereiche des BCM abgegrenzt. Anschließend wurde untersucht, wie<br />
weit Business Continuity Management im Allgemeinen bzw.<br />
Krisenmanagement im Speziellen bereits bei Industrieunternehmen verbreitet<br />
ist. Hier hat sich gezeigt, dass bei der Verbreitung ein Zusammenhang mit der<br />
Unternehmensgröße besteht und dass dies mit unterschiedlichen<br />
Anforderungen zu begründen ist. Neben der Analyse von Krisensituationen<br />
aus der Vergangenheit wurde auch untersucht, ob es durch neue gesetzliche<br />
Anforderungen und Vorschriften zu einer erhöhten Nachfrage nach BCM<br />
Systemen kommen könnte. Ein weiterer Teil der Diplomarbeit war es<br />
außerdem, konzeptuelle Erweiterungs-möglichkeiten vorzustellen. Hier hat<br />
sich vor allem gezeigt, dass der Bedarf besteht, weg von einem Stand-Alone<br />
Ansatz zu gehen und das BCM in die zentralen Unternehmenssysteme zu<br />
integrieren. Darüber hinaus wurde vorgestellt, wie Software as a Service <strong>für</strong><br />
BCM Systeme genutzt werden könnte. Dazu wird das traditionelle<br />
Softwaremodell mit dem Softwaremodell Software as a Service verglichen,<br />
bei dem die Software als Service genutzt wird, welches durch einen externen<br />
Dienstanbieter zur Verfügung gestellt wird. Der letzte Teil der Diplomarbeit<br />
zeigt anhand einer Referenz Use-Case Implementierung, wie Workflows <strong>für</strong><br />
das Krisenmanagement aussehen könnten, sowie einen möglichen typischen
Ablauf im Falle einer Krise. Darüber hinaus wurde eine prototyptische Erweiterung<br />
eines Krisenmanagementsystems um BCM Funktionalitäten vorgenommen,<br />
die anhand der Umsetzung einer Risikoanalyse beschrieben wird.<br />
Klaus Purer<br />
Web Service Composition in Drupal<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />
Das Erstellen von Webapplikationen ist mittlerweile eine komplexe Aufgabe<br />
und erfordert oftmals die Integration mit anderen Webapplikationen, im<br />
speziellen mit Webservices. Drupal ist ein freies Open Source Content<br />
Management System und Framework, das eine umfassende Plattform <strong>für</strong><br />
schnelle Web-Entwicklung bereitstellt. Die modulare und erweiterbare<br />
Charakteristik von Drupal erlaubt EntwicklerInnen die Kernfunktionalität<br />
anzupassen und auszunutzen, um neue Funktionalitäten zu erstellen. Diese<br />
Diplomarbeit beschäftigt sich mit der Erforschung und Implementierung eines<br />
Webservice Client Moduls <strong>für</strong> Drupal, welches in der Lage ist, sowohl<br />
klassische WS* Webservices als auch RESTful Webservices zu konsumieren.<br />
Wir werden ein Abstraktionsmodell <strong>für</strong> Webservices präsentieren, das<br />
verschiedene Webservice-Typen unterstützt und welches die Integration von<br />
Webservice-Daten in Drupal Workflows ermöglicht. Diese Workflows werden<br />
mit Hilfe eines regelbasierten Moduls (Rules) konstruiert, mit dem Event-<br />
Condition-Action Regeln erstellt werden können. Wir werden eine Lösung<br />
diskutieren, die eine Webservice-Operation als Rules Action zur Verfügung<br />
stellt und die damit die Komposition von Webservices erreicht, indem<br />
mehrere Webservices in einem Rules Workflow aufgerufen werden. Das ist<br />
wichtig <strong>für</strong> Webapplikationen, die mit vielen externen Webservices<br />
kommunizieren müssen und den Datenfluss zwischen diesen orchestrieren<br />
müssen. Zusätzlich wurde eine Benutzeroberfläche implementiert, womit<br />
Webservices auf Drupal Adminstrationsseiten beschrieben und benutzt<br />
werden können. Dadurch werden keine Programmierkenntnisse benötigt,<br />
wenn Webservices angesprochen werden sollen. Die Implementierung wurde<br />
mit einem Anwendungsfall zur automatischen Übersetzung evaluiert, der aus<br />
einem Workflow mit mehreren Webservice Aufrufen besteht.<br />
Günther Rest<br />
Condition-Monitoring in der Logistik mittels RFID<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />
Die lückenlose Überwachung von Umgebungsparametern (z.B. Temperatur)<br />
über die gesamte Logistikkette dient heute meist nicht mehr nur der Erfüllung<br />
gesetzl. Vorschriften sondern auch als wichtige Informationsquelle <strong>für</strong> QM-<br />
27
Maßnahmen. Die Tatsache, dass die Mehrzahl der produz. Unternehmen<br />
Logistik sehr oft an externe Spediteure auslagern und zumeist auch keine<br />
Informationsschnittstellen zum Austausch der Messdaten zwischen den<br />
Beteiligten vorhanden sind, erschweren diese Bemühungen erheblich. Nicht<br />
selten kommt es daher vor, dass ohne Wissen des jeweils anderen gleich<br />
mehrere verschiedene Systeme parallel eingesetzt werden. Die <strong>Band</strong>breite<br />
reicht dabei von teuren Onlinesystemen über integrierte Aufzeichnungsgeräte<br />
der Kühlaggregatehersteller, Datenlogger, bis hin zu<br />
einfachsten Stechthermometern. Immer häufiger findet man auf den<br />
Websites führender Logistik-Dienstleister in diesem Zusammenhang bereits<br />
viel versprechende RFID basierte Systeme. Auch die Umsatzprognosen <strong>für</strong><br />
RFID-Technologie (jährl. Steigerungsraten von 19%-25%) machen deutlich<br />
welch hohe Erwartungen in diese Technologie gesetzt werden. Nach einem<br />
kurzen geschichtl. Einblick in das Themengebiet und einer grundlegenden<br />
Einführung in die RFID-Technologie hinterfragt diese Arbeit, was heutige RFID<br />
Sensoriksysteme bereits zu leisten im Stande sind, wie die Anforderungen in<br />
den versch. Branchen aussehen und welche Hürden einem breiten Einsatz<br />
noch im Weg stehen. Bezüglich der techn. Probleme werden jeweils mögliche<br />
Lösungsansätze sowie wissenschaftl. Auseinandersetzungen präsentiert.<br />
Weiters wurden 2 konkrete Systeme ausgewählt, in der Lebensmittellogistik<br />
einem Praxistest unterzogen und in weiterer Folge ein Prototyp eines<br />
möglichen Temp.-Monitoring Systems erarbeitet und in Grundzügen<br />
umgesetzt. Zuletzt geht die Arbeit noch auf weitere<br />
Anwendungsmöglichkeiten von RFID Sensorik <strong>für</strong> Condition Monitoring<br />
anderer Zustands- und Umgebungsparameter ein und gibt einen kurzen<br />
Ausblick auf zukünftige Entwicklungen.<br />
Homa Rezaie<br />
Applying Semantic Web Concepts to GeoRSS<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />
This thesis introduces the concept of Semantic GeoRSS as an information<br />
integration approach that is based on and combines Semantic Web and<br />
GeoRss. The creation of a Semantic GeoRss requires the presentation of<br />
GeoRss with a formal semantics. For this purpose, appropriate domain ontologies<br />
provide a formal vocabulary for describing the GeoRss information. By<br />
means of these GeoRss ontologies, complex queries can be formally described<br />
and run on semantically described resources. In this case, ontologies<br />
are used for representing the annotations and the domain of interest. Meshing<br />
the two approaches to create a Semantic GeoRss increases the potential<br />
uses of Geospatial information for more serious use-cases. The thesis will explore<br />
this potential by discussing four use cases of Semantic GeoRss in order<br />
to clarify the relation between the Semantic Web and GeoRss information.<br />
28
Rene Schakmann<br />
Planung und Entwicklung eines Tools <strong>für</strong> Reporting, Monitoring und<br />
Unterstützung der Durchführung von Tests von Schnittstellen in heterogenen<br />
Systemlandschaften<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: O.Univ.Prof. Dr. A Min Tjoa<br />
Im Gegensatz zu früher sind Geschäftsprozesse, die durch IT unterstützt<br />
werden, nicht mehr an lokale oder unternehmerische Grenzen gebunden.<br />
Zahlreiche Partnerschaften, Auslagerung von Systemen oder die Verteilung<br />
von Standorten führen dazu, dass sich heterogene Systemlandschaften<br />
bilden, die durch unterschiedlichste Schnittstellen miteinander verbunden<br />
werden müssen. Nicht nur die Entwicklung solcher Systeme stellt Herausforderungen,<br />
auch der Test dieser verteilten Anwendungen beinhaltet<br />
sowohl organisatorische als auch technische Aspekte. Bei Tests, die Schnittstellen<br />
betreffen, welche Daten in mehreren Schritten über unterschiedliche<br />
Systeme transportieren, sind Fehler oft nur schwer nachzuvollziehen, da sich<br />
das System <strong>für</strong> den meist fachlichen Tester ohne technisches Hintergrundwissen<br />
als Blackbox darstellt. Das Auffinden des Fehlers ist oft nur mit hohem<br />
zeitlichem und organisatorischem Aufwand möglich. Unterschiedliche<br />
Systeme können unter unterschiedlichen organisatorischen Verantwortungen<br />
stehen oder unterschiedliche Technologien verwenden. Diese Arbeit zeigt<br />
einen Ansatz wie diese Integrationstests sowohl organisatorisch als auch<br />
technisch durch ein Framework unterstützt werden können um eine<br />
Beschleunigung und Vereinfachung des Testvorgangs zu erreichen und die<br />
Tests von verteilten Systemen transparenter zu gestalten.<br />
Bernhard Tinkl<br />
Vergleich unterschiedlicher Ansätze zur Implementierung eines Business<br />
Continuity Management<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Privatdoz. Dr. Edgar Weippl<br />
Business Continuity Management (BCM) ist eine der zentralen und zukunftsträchtigsten<br />
Managementstrategien. Spätestens seit den Ereignissen vom 11.<br />
September 2001 gibt es wenig große Unternehmen, die nicht die eine oder<br />
andere Art von betrieblichem Kontinuitätsmanagement in Ihrem Unternehmen<br />
implementiert haben. Auch bei kleinen Unternehmen wird dieses Thema<br />
aktueller. Eine längere Unterbrechung kann möglicherweise eine Gefährdung<br />
<strong>für</strong> den Fortbestand des Unternehmens bedeuten. Das Problem welches sich<br />
Experten stellt, die ein BCM in ihr Unternehmen einführen wollen ist, dass es<br />
da<strong>für</strong> eine große Anzahl an verschiedenen Standards gibt. Es sind Kriterien zu<br />
erarbeiten, welche einen Vergleich der einzelnen Standards ermöglichen.<br />
Diese Kriterien werden erstellt. Da sich die Standards mit der Zeit ändern, soll<br />
es neben dem eigentlichen Vergleich der Standards zusätzlich als Ziel dieser<br />
29
Arbeit gesehen werden, neue Standards mit einem in der gegeben Arbeit zu<br />
vergleichen. Die Kriterien sind so ausgewählt, dass sie auch in den nächsten<br />
Jahren einen Großteil der Bedürfnisse abdecken und damit auch einen Vergleich<br />
von neuen Standards vereinfachen. Es werden einige der derzeit wichtigsten<br />
Standards ausgewählt. Diese Auswahl wurde vom Autor so getroffen,<br />
dass eine möglichst breite Auswahl verfügbar ist. Anschließend wurden diese<br />
miteinander verglichen. Da<strong>für</strong> werden zuerst diese Standards allgemein beschrieben,<br />
daran anschließend werden die erwähnten Kriterien herangezogen.<br />
Zuerst werden die Werke einzeln bewertet, im Anschluss daran werden<br />
sie in den zentralen Punkten miteinander verglichen. Damit wird entweder<br />
ein kompletter Überblick über die Werke gewährleistet oder der Nutzer<br />
kann die <strong>für</strong> sich selber relevanten Kriterien entnehmen. Als abschließendes<br />
Resultat wird eine Übersicht präsentiert, in welcher auf einen Blick die <strong>für</strong> die<br />
ausgewählten Kriterien passendsten Standards gezeigt werden.<br />
Elisabeth Weigl<br />
Mitigating the Bias of Retrieval Systems by Corpus Splitting - An Evaluation in<br />
the Patent Retrieval Domain<br />
Studium: Masterstudium Information & Knowledge Management<br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Typical information retrieval systems retrieve a low number of documents that<br />
are preferably close to the query. In contrast to that stands the patent domain<br />
as a recall oriented field where missing one single document in the patentability<br />
process can lead to costly law suits afterwards if a granted patent is<br />
invalidated. However, research showed that retrieval engines cannot find<br />
certain documents because they show a bias towards other document<br />
characteristics. Thus the goal of this work is to look further into one approach<br />
that deals with retrievability of documents and splits a single corpus in two<br />
corpora, one containing high, the other low findable documents. For this, the<br />
experimental setup has to be provided and the split done again. Afterwards<br />
merging strategies that combine the low and high result sets in different ways<br />
are tested with the presumption that low retrievable documents are now<br />
higher ranked and thus improve recall. This is tested with several models of<br />
three different retrieval engines, namely Terrier, Lemur and Solr. Evaluation<br />
shows that in most cases the models do not seem to be suitable for this<br />
merging, regarding recall and MAP values. Only precision at high rank seems<br />
to improve in general. The few models that perform better and which<br />
attributes make them more suitable are explained.<br />
30
Edin Zvizdic<br />
Software Defect Prediction Models: Optimizing Test Resource Allocation<br />
Based on Prediction of Defect Risks<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Ever since the software quality assurance cleared its path to become a<br />
significant discipline in the software development, experienced software<br />
professionals have been making an effort to research new possibilities for<br />
improvement of software quality. One shift importance between various<br />
aspects of software quality, but one is definite: a prerequisite for a high<br />
quality product is a low number of defects. There are many techniques<br />
developed which lead to reduction of defects, but namely defect prediction<br />
has gained a very significant role in the previous decade. By building complex<br />
models with numerous software measures and metrics, researchers were<br />
aiming to develop a baseline and draw conclusions which would set rules and<br />
increase accuracy of defect prediction. In this thesis we analyze the state of<br />
the art in the area of defect prediction, and discuss various aspects which are<br />
represented in the literature. We discover that traditional defect prediction<br />
models concentrate on the simple binary predictions or the prediction of<br />
defect counts, but neglect the impact of defects, namely their severities. We<br />
see these models as simplification of reality since all defects are treated the<br />
same. We recognize further that this is possible threat to the benefits of the<br />
predictions since they may provide information about defectiveness which is<br />
not accurate. For these reasons we introduce a new prediction measure:<br />
defect risk. Defect risk encapsulates information on number of defects and<br />
their severities. The model handles the cases where number of defects does<br />
not necessarily imply the level of the quality of the system. We set up the<br />
hypothetical NASA Test Management Scenario where we predict defect<br />
severities and calculate resource allocation coefficients for testing. The results<br />
show that altogether resource allocation was better if we used defect risks as<br />
basis for prediction.<br />
31
Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung<br />
Arbeitsbereich Human Computer Interaction<br />
Peter Holzkorn<br />
Discuss. New Designs for Asynchronous Online Discussion for E-Learning in<br />
Higher Education<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
Diskussion und Argumentation im Lehrveranstaltungskontext sind in allen akademischen<br />
Disziplinen essentiell. Im Rahmen dieser Arbeit wurde spezifisch<br />
<strong>für</strong> den Einsatz mit dem bestehenden E-Learning Framework am Institut <strong>für</strong><br />
Gestaltungs- und Wirkungsforschung der <strong>TU</strong> <strong>Wien</strong> (HCI group) ein asynchrones<br />
Online-Diskussionssystem namens discuss entwickelt, in dem die Qualität<br />
der Partizipation, die Höhe des Lernertrags und die benutzer-freundliche<br />
Handhabung im Vordergrund stehen. Die Hypothese ist, dass Verbesserungen<br />
an Diskussionssystemen im E- Learning-Kontext gegenüber etablierten<br />
Designs durch Veränderungen der visuellen Struktur und der Interaktionsmuster<br />
möglich sind. Im Rahmen der Diplomarbeit wurde ein Repertoire an<br />
Designstrategien erarbeitet und in Zusammenhang mit dem Designprozess<br />
des zu entwickelnden Systems gstellt. Der vorliegende Text gibt einerseits die<br />
Verknüpfung sozialwissenschaftlicher Grundlagen, Studien und Analysen bestehender<br />
Systemen wieder. Andererseits werden Konsequenzen <strong>für</strong> das Design<br />
gezogen und der Entwicklungsprozess des neuen Systems geschildert.<br />
Schließlich wird das System im Lichte der erarbeiteten Prinzipien evaluiert.<br />
Anatol Knotek<br />
Hypertext, Digitale und Konkrete Poesie - Bausteine <strong>für</strong> eine multimediale,<br />
interdisziplinäre Didaktik<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />
32<br />
Speziell in der heutigen Zeit, nachdem das Internet seinen Siegeszug<br />
angetreten hat und die Computertechnologie bereits weit fortgeschritten ist,<br />
bieten sich neue Möglichkeiten <strong>für</strong> Kunstschaffende, aber auch <strong>für</strong><br />
Professoren und Lehrer im Bereich der Didaktik. Das Ziel der Arbeit ist es,<br />
computerunterstützten Unterricht aus einem anderen Blickpunkt zu betrachten.<br />
Neue Möglichkeiten werden anhand von Hypertexten, Konkreter und<br />
Digitaler Poesie aufgezeigt, um Einsichten in mehrere Wissensgebiete wie die<br />
<strong>Informatik</strong>, die experimentelle Dichtung bzw. Literatur und die bildende Kunst<br />
zu geben. Der Schwerpunkt liegt auf der Herausarbeitung der unterschiedlichen<br />
Potentiale verschiedenster Disziplinen <strong>für</strong> die Didaktik und stellt somit<br />
eine Art Bausteinsystem <strong>für</strong> einen modernen Unterricht dar. Es werden ge-
genwärtige Beispiele Digitaler Poesie und Medienkunst vorgestellt und Parallelen<br />
zu Neuen Medien in der Didaktik und aktuellen Unterrichtspraxis gezogen.<br />
Zur Evaluierung wurden international tätige Professoren und Medien-<br />
Künstler zu ihren Erfahrungen befragt, um einen Einblick in die derzei-tige<br />
didaktische und künstlerische Praxis, aber auch einen Ausblick in die Zukunft<br />
zu geben.<br />
Eliza Makaruk<br />
e-Learning in the Form of an Interactive Multimedia German Course<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />
In this work e-learning methods have been discussed on the example of a<br />
computer language course. After short discussion of the e-learning characteristic<br />
and advantages, the work focuses on the psychological and pedagogical<br />
aspects of learning as also on the didactic learning theory. The technical<br />
realisation of the e-learning methods is reviewed. The issue of the interactivity<br />
in e-learning programs is tackled. Subsequently, e-learning software<br />
evaluation methods were analysed. The work finishes with an evaluation of<br />
an e-learning application for foreign language course in the context of<br />
interactivity. For the evaluation, opinions of software users were investigated<br />
As far as the results of the evaluation are concerned, it was found out that<br />
not every level of interactivity was implemented in the investigated<br />
application. The guidelines for the interactivity were realised in a reasonable<br />
way. The features like graphical navigation, clickability and simulation are<br />
well-implemented, however the feedback signals could be optimised.<br />
Clemens Mautner Markhof<br />
Game Design as Gameplay<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
The recent success of video games that focus on creating content, rules and<br />
new solutions instead of just playing-through them reveal that the current<br />
research on game design and theory needs to be adapted. The mechanics<br />
behind these games are yet unknown territory. In our thesis we identify and<br />
analyse game features, mechanics and dynamics that transform the process<br />
of creating the content and rules of a game into a series of player's<br />
challenges. We provide an overview and insight how game design elements<br />
can be used as gameplay by comparing traditional game literature, discussing<br />
the influence and impact of social interaction features, and reviewing game<br />
design as gameplay games while developing an explorative game prototype.<br />
Finally we propose some first theorems and rules about games and<br />
mechanics that focus on creating rather than consuming.<br />
33
Hanieh Moshki<br />
Exploring the adoption and use of social networking websites in SMEs<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
Betreuerin: Univ.Prof. Geraldine Fitzpatrick, PhD<br />
This thesis explores a rarely addressed topic in IT adoption literature, namely<br />
the adoption and use of public social networking websites (SNS) in small and<br />
medium sized enterprises (SME). Eight different SMEs located in Vienna which<br />
are using Facebook as their main SNS were studied. Apart from semistructured<br />
interviews, the content of the organizational posts are analysed to<br />
understand why and how these organizations are using SNS. The analysis of<br />
the interviews showed that six factors influence the adoption of SNS in<br />
studied SMEs which are; the attitude of manager’s real-life social network<br />
toward SNS, relative perceived ease of use and maintenance simplicity,<br />
understanding customer’s needs, willingness to define and share<br />
organizational identity, perceived social approval of SNS among target<br />
customers and dynamic nature of the business and regular changes. Posts<br />
which inform the customers about new products, services or events are the<br />
most popular message type among the studied cases. Based on the findings,<br />
this study debates the capability of rational adoption models for explaining<br />
this phenomenon and recommends the adoption models and theories with<br />
social constructs as models which can be adapted to answer why SMEs are<br />
using SNS.<br />
Katharina Pichler<br />
Eine Usability- und Utility- Evaluierungsstudie über das Monitoring of<br />
nosocomial infections in intensive care units-System (Moni) <strong>für</strong> den Einsatz<br />
auf Intensivstationen<br />
Studium: Masterstudium Information & Knowledge Management<br />
Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />
34<br />
Moni ist ein medizinisches Expertensystem, das zum frühzeitigen Erkennen<br />
von nosokomialen Infektionen am AKH <strong>Wien</strong> auf der Intensivstation<br />
eingesetzt wird. Entwickelt wurde Moni von der Medizinischen Universität<br />
<strong>Wien</strong> und Medexter Healthcare GmbH. Die vorliegende Arbeit befasst sich mit<br />
den Fragen ob sich Moni in den Routinebetrieb eines Krankenhauses<br />
übernehmen lässt und damit eine Unterstützung der Ärzte erwirken kann. Wie<br />
gut können Ärzte mit dem System arbeiten, genügen die Usability<br />
Anforderungen den heutigen Standards? Wie umgeht Moni die bekannten<br />
Probleme der Diagnosesysteme, Wissen formal darzustellen. Der erste Teil<br />
der Arbeit umfasst eine Literaturrecherche über den aktuellen<br />
Forschungsstand zum Themenbereich Expertensysteme in der Medizin. Es<br />
folgt die Erarbeitung der Grundstruktur <strong>für</strong> den Kriterienkatalog anhand der<br />
Literatur von Ben Shneiderman und Jakob Nielsen. Durch die Analyse der<br />
Systembenutzung mit Unterstützung von Dr. Harald Mandl und einer
Vorführung des Routine Systemeinsatzes durch Dr. Alexander Blacky vom AKH<br />
<strong>Wien</strong> wurden die praktischen Analysen durchgeführt. Am Ende wird der<br />
Kriterienkatalog ausgewertet. Das Ergebnis der Arbeit zeigt, dass Moni in<br />
Bezug auf Usability noch vereinzelt Schwächen aufweist, auf die in der Studie<br />
noch näher eingegangen wird. Hinsichtlich der Utility ist Moni jedoch bereits<br />
ausgereift. Die formale Darstellung der Regeln wird durch die Arden Syntax<br />
und deren Erweiterung Fuzzy Arden Syntax realisiert. Dadurch können<br />
Ergebnisse in Wertbereichen angegeben werden, was ein exakteres Resultat<br />
zulässt.<br />
Verena Spiteller<br />
Evaluation einer Sprachlernsoftware<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />
Gegenstand der Arbeit ist die Evaluation eines kommerziellen Sprachlern-<br />
Softwareprodukts zum selbstständigen Lernen von Französisch. Die<br />
Bewertungskategorien sind Usability, pädagogische Gestaltung,<br />
Spracherkennung und Akzeptanz. Dazu wurde eine zweiteilige empirische<br />
Studie durchgeführt. Sechs Testpersonen nahmen an einem Usability-Test<br />
teil, der auch Ausspracheübungen enthielt. Durch einen Pretest wurden die<br />
möglichen Testszenarien eingeschränkt. Zur Beurteilung der pädagogischen<br />
Gestaltung lernte eine Testperson einen Monat lang selbstständig mit dem<br />
Lernmaterial, wobei Lernprotokolle geführt wurden. Der Lernfortschritt wurde<br />
anhand eines Tests zu Beginn und am Ende der Lernphase ermittelt. Mit allen<br />
Testpersonen wurden Abschluss-Interviews durchgeführt. Die Resultate in<br />
den Kategorien Usability und pädagogische Gestaltung wurden anhand von<br />
Guidelines analysiert und dargestellt. Das evaluierte Produkt weist Mängel in<br />
Bezug auf Spracherkennung, Usability und pädagogische Gestaltung auf. Vor<br />
allem die Unzuverlässigkeit der Spracherkennung, die nicht-intuitive<br />
Benutzerschnittstelle, das mangelhafte Feedback und die Unübersichtlichkeit<br />
des Lernmaterials beeinträchtigen die Akzeptanz. Dennoch werden die<br />
Möglichkeiten, die das getestete Sprachlernprogramm <strong>für</strong> das Erlernen einer<br />
Sprache bietet, von den Testpersonen positiv bewertet. Die Ergebnisse der<br />
empirischen Studie bestätigen die Bedeutung von Guidelines und Usability-<br />
Tests <strong>für</strong> die Entwicklung von Sprachlernprogrammen.<br />
35
Claus Stachl<br />
Theoretische Aspekte der Ästhetik und deren Diskurs sowie Evaluation<br />
anhand pragmatischer Casual InfoVis<br />
Studium: Masterstudium Medieninformatik<br />
Betreuerin: Ao.Univ.Prof. Dr. Margit Pohl<br />
Auch die Informationsvisualisierung (InfoVis) bemüht sich nunmehr um<br />
richtungsweisende Fortschritte auf dem Gebiet der Ästhetik. Zum einen sollen<br />
hier allgemein gültige Gesetze einer objektiven Ästhetik zu gleichsam<br />
schönen wie effektiv wahrnehmbaren Visualisierungstechniken führen. Zum<br />
anderen bieten die jüngst zahlreich im Internet kursierenden Datenvisualisierungen<br />
viel Zündstoff <strong>für</strong> Diskussion innerhalb einer pragmatisch-analytisch<br />
orientierten InfoVis. Neue Taxonomien und adäquate Evaluationsmodelle bezüglich<br />
der Effekte von Ästhetik in der InfoVis sind gefordert. Es soll somit<br />
Aufgabe dieser Arbeit sein, wesentliche Aspekte der Ästhetik zusammenzuführen<br />
und <strong>für</strong> eine Betrachtung innerhalb der InfoVis zu erörtern. Das zentrale<br />
Erkenntnisinteresse liegt dabei ganz klar auf Entwürfen eines modernen<br />
Schönheitbegriffes zwischen rationaler Analytik und emotionaler Subjektivität.<br />
Ein umfassender Literaturvergleich bietet hier<strong>für</strong> breite theoretische Grundlagen.<br />
Schließlich werden letztere anhand einer umfassenden Evaluation<br />
eines Casual-InfoVis-Prototypen empirisch erfasst. Der erste Teil der Studie<br />
umfasst einen Reihungstest nach ästhetischen Präferenzen. Das Resultat bestätigt<br />
dabei weitgehend die auf Basis der Theorie gestützten Hypothesen.<br />
Nicht nur Ordnungsstrukturen, auch Komplexität wirkt sich zugunsten eines<br />
ästhetischen Maximums aus. Der zweite Teil der Studie beinhaltet eine<br />
eingehende Betrachtung von 5 Thinking-Aloud-Sitzungen in Bezug auf die<br />
Beobachtungskriterien Motivation und Nutzungsverhalten sowie Usability und<br />
Vielseitigkeit. Die Aufgabe der Ästhetik in der InfoVis darf demnach nicht<br />
bloß darauf beschränkt werden, ein visuell schönes Erscheinungsbild zu<br />
prägen.Vielmehr dient Ästhetik als initialer Motivationsfaktor, als emotionales<br />
Bindeglied zwischen Publikum und Anwendung, als Medium von<br />
Aufforderungscharakter und Funktion, als metaphorischer Rahmen <strong>für</strong><br />
Storytelling und Interpretation und nicht zuletzt der effektiven und effizienten<br />
Wahrnehmung.<br />
36
Arbeitsbereich Multidisciplinary Design<br />
Simon Brugner<br />
Über die Realität im Zeitalter digitaler Fotografie<br />
Studium: Masterstudium Medieninformatik<br />
Betreuerin: Univ.Prof. Dr. Ina Wagner<br />
Die digitale Bilderproduktion hat sich, so wie digitale Technologien<br />
überhaupt, gegenüber ihrem analogen Pendant durchgesetzt. Auf dem<br />
Siegeszug der digitalen Technik wurde die analoge Fotografie <strong>für</strong> obsolet<br />
erklärt. Die Relevanz der analogen Fotografie liegt heute nur mehr in ihrer<br />
kulturgeschichtlichen Bedeutung, nicht aber in ihrer im Alltag praktizierten<br />
Form. Mit dem Triumph der digitalen Bilder geht auch ein Vertrauensverlust<br />
fotografischen Bildern gegenüber einher. Das objektive Bild der Wirklichkeit<br />
scheint gemeinsam mit der analogen Fotografie begraben worden zu sein.<br />
Die digitale Bildmanipulation ermöglicht den Einzug einer Virtualität in die<br />
fotografischen Bilder, welche die dort zuvor verortete Realität zu verdrängen<br />
scheint. Die vorliegende Arbeit untersucht den Wandel der Realität bzw. des<br />
Realitätsbegriffes, der sich durch die Verdrängung der analogen durch die<br />
digitale Bilderproduktion vollzogen hat. Das Hauptaugenmerk dieser<br />
kritischen, auf Materialien aus dem Überschneidungsfeld von Erkenntnis-,<br />
Fotografie- und Medientheorie zurückgreifenden, Literaturanalyse liegt in der<br />
Untersuchung des Realitätsbegriffs im Zeitalter der digitalen Fotografie. Die<br />
Natürlichkeit des fotografischen Bildes wird widerlegt und das Bild als<br />
wissenschaftliche, industrielle und kulturelle Konstruktion ausgewiesen.<br />
Ebenso wie das fotografische Bild ist auch die dadurch vermittelte objektive<br />
Realität eine Konstruktion. Mit der Verbreitung der digitalen Bilderproduktion<br />
kommt das Bewusstsein über die Konstruiertheit der fotografisch vermittelten<br />
Realität in der breiten Öffentlichkeit an.<br />
Agnes Kahofer<br />
MusicTheoryTable - Ein Tangible User Interface zur Unterstützung des<br />
Musikkundeunterrichts an Musikschulen<br />
Studium: Masterstudium Medieninformatik<br />
Betreuerin: Associate Prof. Dr. Hilda Tellioglu<br />
Die Vermittlung von musiktheoretischen Grundlagen begleitend zum<br />
Instrumentalunterricht erweitert die Fähigkeiten und Kompetenzen von<br />
Musikschülerinnen und Musikschülern. Deshalb beschäftigt sich diese Arbeit<br />
mit dem Entwurf und der daraus folgenden Umsetzung eines Prototyps zur<br />
Unterstützung des Musikkundeunterrichts an Musikschulen, um eine<br />
kollaborative, intuitive Lernumgebung mit modernen Interaktionsmöglichkeiten<br />
aufzuzeigen. In einem iterativen Designprozess mit benutzerzentrierten<br />
Methoden wurde eine Anwendung mit einem Tangible User Interface<br />
konzipiert, welche mit einem optischen Trackingsystem, einer Projektion und<br />
37
einer akustischen Wiedergabe umgesetzt wurde. Daraus entstand der<br />
Prototyp MusicTheoryTable (MTT), der verschiedene Aufgabenstellungen<br />
generiert, die durch Schreiben von Noten und Vorzeichen mittels optischer<br />
Marker gelöst werden können. Zudem wurden Evaluierungen mit<br />
Musikschülerinnen und Musikschülern des Musikkundeunterrichts einer<br />
niederösterreichischen Musikschule mittels Videobeobachtungen, offenen<br />
Interviews und einem teilstandardisierten Fragebogen durchgeführt, um<br />
Anforderungen und Bedürfnisse zu identifizieren und Erkenntnisse über<br />
Verbesserungs- und Einsatzmöglich-keiten zu gewinnen. Diese Erkenntnisse<br />
bilden die Basis <strong>für</strong> mögliche Weiter-entwicklungen und zeigen die Potenziale<br />
einer derartigen Anwendung auf.<br />
Peter Smejkal<br />
Die Bedeutung von Instant Messaging in der Alltags-Kommunikation von<br />
Studierenden<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />
Instant Messaging ist in den letzen Jahren ein fixer Bestandteil der<br />
zwischenmenschlichen Kommunikation geworden. Bei der Kommunikation<br />
über dieses Medium werden Textnachrichten mittels eines Client-Programms<br />
über ein Netzwerk zwischen mehreren Personen versandt. Diese Diplomarbeit<br />
geht der Frage nach, wie diese neue Kommunikationsweise des Instant<br />
Messagings in den Alltag der Benutzer eingebaut wird, welche Bedeutung sie<br />
<strong>für</strong> die handelnden Individuen hat und wie sich das Alltagshandeln durch die<br />
Nutzung verändert. Da es in Bezug auf Studierende bislang vorwiegend<br />
quantitative Studien gibt, wurde zur Beantwortung der Forschungsfrage<br />
dieser Diplomarbeit die Methode des qualitativen Interviews gewählt, um der<br />
Frage nach der Bedeutung der neuen Kommunikationsmöglichkeit des Instant<br />
Messagings <strong>für</strong> die Nutzer nachzugehen. Es wurden hier<strong>für</strong> mit Hilfe des<br />
problemzentrierten Interviews nach Witzel elf Studierende interviewt. Zur<br />
Datenerfassung wurden die Interviews mittels Aufnahmegerät aufgezeichnet.<br />
Nach vollständiger Transkription dieser Aufnahmen erfolgte die Analyse und<br />
Interpretation des Datenmaterials nach dem Grundsatz der<br />
sozialwissenschaftlichen Hermeneutik, wobei die Methode der<br />
Kernsatzfindung nach Leithäuser und Volmerg und das theoretische Modell<br />
des Symbolischen Interaktionismus nach Blumer und Mead verwendet wurde.<br />
Die zentralen Ergebnisse dieser Arbeit zeigen, dass Instant Messaging<br />
mittlerweile eine wichtige Rolle im Alltag von Studierenden eingenommen<br />
hat. Die Vorteile von Instant Messengern helfen den Kontakt mit Freunden<br />
und Bekannten aufrecht zu erhalten und zu intensivieren. Es zeigt sich, dass<br />
durch die Kommunikation über Instant Messenger eine Anpassung des<br />
Nutzungsverhaltens stattfindet. Auch im Vergleich mit den anderen<br />
technischen Kommunikationsmöglichkeiten zeigt sich das die Wahl des<br />
Mediums an die jeweilige Situation und Dringlichkeit angepasst wird.<br />
38
Institut <strong>für</strong> Computergraphik und Algorithmen<br />
Arbeitsbereich Computergraphik<br />
Thomas Bruckmayer<br />
The Creation of a Methodology for the Architectural Design Phase of a<br />
Scenario-Driven Software Development Environment<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Univ.Prof. Dr. Hermann Kaindl<br />
Das Ziel des ReDSeeDS-Projekts mit Unterstützung der Europäischen Union,<br />
war die Schaffung einer auf Szenarien basierenden Software-<br />
Entwicklungsumgebung. Diese Umgebung ermöglicht Software-Entwicklern<br />
Informationen (Modelle und Code) zu ähnlichen Problemstellungen abzurufen,<br />
und die abgerufenen Informationen <strong>für</strong> die weitere Wiederverwendung<br />
anzupassen. Die Anwendung des ReDSeeDS-Projekts erweitert jede Entwicklungsphase<br />
um weitere Möglichkeiten, das wiederum bedeutet, dass<br />
zusätzliche Aktivitäten koordiniert werden müssen. Eine ausführliche Anleitung<br />
<strong>für</strong> die Abwicklung jeder Phase wird durch die ReDSeeDS-Methodik, die<br />
von mehreren Entwicklern aus verschiedenen europäischen Ländern erstellt<br />
wurde, zur Verfügung gestellt. Die Entwicklung einer solchen Methodik ist<br />
eine komplexe Aufgabe und daher beschreibt diese Magisterarbeit im Detail<br />
die ReDSeeDSArchitekturentwurfsphase und deren Dokumentation in der<br />
ReDSeeDS-Methodik. Darüber hinaus ist die ReDSeeDS-Methodik eng an das<br />
ReDSeeDS-Tool gekoppelt, um die Lücke zwischen der allgemeinen<br />
Beschreibung der Methodik und der detaillierten, toolspezifischen Beschreibung<br />
zu überbrücken. Zum Beispiel beschreibt die Methodik, dass ein bestimmtes<br />
Resultat innerhalb einer bestimmten Tätigkeit erstellt werden muss. Die<br />
allgemeine textuelle Beschreibung dieser Tätigkeit ist direkt mit dem Tool<br />
verknüpft, um die konkrete Vorgehensweise im Tool durch automatisierte<br />
Benutzeraktionen aufzuzeigen. Diese Arbeit befasst sich auch mit den<br />
theoretischen Grundlagen und der technischen Umsetzung dieses Methodik-<br />
Tool-Kopplungsansatzes.<br />
Tobias Fechter<br />
Deformation Based Manual Segmentation in Three and Four Dimensions<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />
Segmentation of medical image data has grown into one of the most<br />
important parts in medicine. The main elds of segmentation in the area of<br />
medicine are surgical planning, diagnosis, therapy planning and simulation.<br />
The focus was in the last years mainly on automatic and semi-automatic<br />
segmentation methods for 3D and 4D datasets. Most of them are highly<br />
39
specialized as they need a lot of prior knowledge and often the results have<br />
to be corrected manually. An alternative to automatic and semi-automatic<br />
methods is to perform the segmentation manually. The main drawbacks of<br />
this approach are that it is very tedious and time consuming, the user<br />
knowledge has a very high impact on the results and it is very hard to<br />
reproduce specific results. This work presents a tool that enables the user to<br />
enhance results of automatic and semi-automatic algorithms and to do fast<br />
manual segmentation of shapes of arbitrary topology from scratch. The tool<br />
can deal with three and four dimensional image datasets captured by<br />
different modalities. The segmentation is mesh based and performed with a<br />
2D cut approach. To achieve a better alignment of the edges to a specific<br />
shape the edge class based Sticky Edges algorithm is introduced.<br />
Furthermore, well known mesh optimization algorithms were implemented to<br />
accomplish better results. To achieve a faster segmentation of 4D datasets<br />
two methods are presented. With the rst one the user can record its<br />
interactions on one volume in the 4D dataset and apply them automatically to<br />
the other volumes. The other one enables the user set an already segmented<br />
mesh as start position for the segmentation of other volumes. The approach<br />
presented in this work is up to 25 times faster than the evaluation approach.<br />
Moreover, the mesh quality regarding smoothness, curvature and triangle<br />
quality are at eye level with the evaluation meshes. The geometric distance to<br />
the ground truth meshes is on average 2 mm and the normal deviation is<br />
between 0.3 and 0.4 degree.<br />
Axel Goldmann<br />
Towards GPU Speech Coding<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Associate Prof. Dr. Michael Wimmer<br />
Speech transmission is the central service in many telecommunication<br />
infrastructures. The encoding of many channels according to modern<br />
standards requires a fair amount of processing capacity. With the recent GPU<br />
product lines, powerful platforms have become available as supplement to<br />
desktop CPUs. This thesis tries to leverage these developments and examines<br />
the possibilities of general purpose GPU employment in the context of<br />
speech coding. The speech codec used in the TETRA mobile radio system is<br />
implemented using the CUDA programming model. The main question is,<br />
how many channels can be encoded in real time on current GPUs. Results<br />
show that through careful implementation and with some effort, a substial<br />
number of channels can be processed. It seems however that modern<br />
multicore CPUs are much better qualified for the task. The presented<br />
optimizations are far from complete and further research directions are<br />
suggested.<br />
40
Andreas Grünauer<br />
Coronary Artery Tracking with Rule-based Gap Closing<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />
Coronary artery diseases are among the leading causes of death in the<br />
industrial countries. The high death rate leads to an increased demand of<br />
diagnosis and treatment of these diseases. Additional to the conventional<br />
coronary angiography, the CT angiography is mainly used in the extended<br />
diagnostics of coronary artery diseases. This modality allows a detailed<br />
assessment of the coronary vessels and potentially present stenoses. For<br />
supporting the radiologist during the evaluation of the coronary arteries by the<br />
help of computer-aided diagnostic methods, robust and efficient proce-dures<br />
for the tracking of coronary arteries are needed. The approach presen-ted in<br />
this thesis unifies the strong points of existing methods delivering high accuracy<br />
with the strong points of methods achieving high overlap. Therefore the<br />
approach presented in this thesis aims at highly accurate results in combi-nation<br />
with high overlap of the investigated coronary artery vessel tree. The approach<br />
is divided into three phases: 1) calculation of seed points, 2) track-ing of vessel<br />
segments, and 3) construction of the coronary artery trees. Pha-se 1 & 2 are<br />
executed in an automatic manner. First potential seed points for the tracking of<br />
vessel segments are identified. During the second phase, ves-sel segments<br />
located at these seed points are tracked by use of a cylindrical shape model. By<br />
use of rule-based anatomical heuristics, the third and final phase combines<br />
vessel segments to form complete coronary artery trees. This phase requires<br />
minimal user interaction, as the location of the root of the left and right<br />
coronary artery tree needs to be specified. Beside the detailed description of<br />
the algorithm, the integration into a professional radiology workstation is<br />
demonstrated. The results obtained by the evaluation on 24 CTA datasets show<br />
a high overlap (OV) of 89.5\% in combination with very precise accuracy (AI) of<br />
0.24 mm in comparison to an expert-annotated reference segmentation.<br />
Michael Hanzl<br />
Spontaneous Social Networks<br />
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />
Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />
Soziale Netzwerke sind ein gut erforschtes Gebiet, mit entsprechend viel<br />
wissenschaftlicher Literatur. Soziale Netzwerke werden heutzutage <strong>für</strong> viele<br />
verschiedene Anwendungsfelder, wie z.B. im geschäftlichen Umfeld, <strong>für</strong> den<br />
Unterricht und die Lehre, in der Medizin und um andere Personen kennen zu<br />
lernen, verwendet. Diese Anwendungsgebiete machen Soziale Netzwerke<br />
sehr populär. Das zugrunde liegende Konzept eines Sozialen Netzwerks ist ein<br />
Graph, der aus Knoten und Kanten besteht. Personen werden als Knoten<br />
dargestellt und die sozialen Beziehungen zwischen diesen Personen als<br />
41
Kanten. Der soziale Graph ist semantisch sehr starr und mühsam zu verändern.<br />
Eine Verbindung zwischen zwei Personen muss normalerweise von beiden<br />
Personen akzeptiert werden und erfordert ein manuelles Eingreifen der<br />
Benutzer. Spontane Soziale Netzwerke - Spontaneous Social Networks (SSNs) -<br />
verwenden im Gegensatz zu Sozialen Netzwerken viel flexiblere Graphen, bei<br />
denen das Eingreifen des Benutzers auf ein Minimum reduziert wird. Kanten<br />
werden in Echtzeit von Geräten, wie z.B. Smartphones und Desktop PCs erzeugt<br />
und gelöscht. Auf den SSNs operieren Applikationen, die den Zweck und die<br />
Eigenschaften des Spontanen Sozialen Netzwerkes festlegen. Außerdem bieten<br />
sie dem Benutzer eine Schnittstelle zur Benutzung von SSNs. Das Ziel dieser<br />
Diplomarbeit ist das Design eines Standards und die Implementierung eines<br />
Frameworks <strong>für</strong> SSNs. Etliche Beispielapplikationen demonstrieren die<br />
Funktionen und Fähigkeiten des Frameworks. Für die Kommunikation in SSNs<br />
wird das Extensible Messaging and Presence Protocol (XMPP) und das Publish-<br />
Subscribe Modell verwendet. Die Eigenschaften und Ansätze <strong>für</strong> das Auffinden<br />
von SSNs werden behandelt. Die Implementierung wird mit Hilfe des System<br />
Usability Scale (SUS) in Bezug auf die Brauchbarkeit bzw. Benutzerfreundlichkeit<br />
evaluiert. Außerdem wird die Tauglichkeit von XMPP, die Skalierbarkeit sowie<br />
der Datenschutz in SSNs und der Beispielimplementierung diskutiert.<br />
Martin Kinkelin<br />
Variational Reconstruction and GPU Ray-Casting of Non-Uniform Point Sets<br />
using B-Spline Pyramids<br />
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />
Betreuer: Ao.Univ.Prof. Dr. Eduard Gröller<br />
42<br />
In this work, we focus on the problem of reconstructing a volume (scalar 3D<br />
field) based on non-uniform point samples and then rendering the volume by<br />
exploiting the processing power of GPUs. In the first part involving the<br />
reconstruction, we motivate our choice of tensor-product uniform B-splines<br />
for the discretized representation of the continuous volume. They allow for<br />
highly efficient, scalable and accurate reconstruction at multiple scales<br />
(resolution levels) at once. By subdividing the volume into blocks and reconstructing<br />
them independently, current desktop PCs are able to reconstruct<br />
large volumes and multiple CPU cores can be efficiently exploited. We focus<br />
on linear and cubic B-splines and on how to eliminate otherwise resulting<br />
block discontinuities. Once we have reconstructed the volume at multiple<br />
scales, we can derive different Levels of Detail (LoDs) by subdividing the volume<br />
into blocks and selecting a suitable scale for each block. We present a<br />
fusion scheme which guarantees global C^0 continuity for linear LoDs and<br />
C^2 continuity for cubic ones. The challenge here is to minimize visual block<br />
interscale discontinuities. A LoD, consisting of a hierarchical spatial subdivision<br />
into blocks and an autonomous B-spline coefficient grid for each block,<br />
is then rendered via a GPU ray-caster. We achieve interactive frame-rates for<br />
qualitative Direct Volume Renderings (DVRs) and real-time frame-rates for isosurface<br />
renderings.
Christian Niederreiter<br />
Spectral Mipmapping<br />
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />
Betreuer: Univ.Prof. Dr. Werner Purgathofer<br />
Full-spectral color rendering capability of global illumination renderers is still<br />
in need of improvement, particularly regarding performance, which is a<br />
reason why many modelling programs for global illumination are focused on<br />
three-component based color representation (e.g. RGB). Full-spectral color<br />
representations are the basis for realistic color appearance in realistic image<br />
synthesis. Currently, if compared to common three-component rendering, the<br />
major disadvantage of full-spectral rendering comes from higher computation<br />
costs because of the greater amount of processed information. This thesis<br />
investigates promising approaches of spectral color representation in the<br />
context of a multi-level color rendering model called Spectral Mipmapping,<br />
focused on the trade-off between time-efficiency and resulting image quality<br />
in terms of perceived color difference. A test implementation in a basic ray<br />
tracing renderer is used to evaluate results and make suggestions concerning<br />
appropriate code design optimizations and spectral sampling strategies. The<br />
influence of compiler optimization and vector instruction use (based on SSE<br />
instructions) is discussed.<br />
Marcel Nürnberg<br />
Cell-Based Object Representation<br />
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />
Betreuer: Associate Prof. Dr. Michael Wimmer<br />
Today's real-time applications, such as computer games or virtual<br />
environments, need to display more and more geometrically complex<br />
surfaces. Texturing mapping is insufficient to produce such high geometric<br />
complexity. This thesis proposes a cell-based approach to model and render<br />
repetitive fine scaled details with a high visual quality providing local parallax,<br />
correct occlusions and convincing silhouettes. Since cell-based objects are<br />
displayed with a ray tracing sophisticated effects such as specular selfreflection<br />
and refraction are also possible to render. Decomposition of the<br />
object into a low frequent geometry (the rough representation called the<br />
basic mesh) and high frequent surface details (stored in a 3D texture map<br />
called the cell map). A cell map contains voxel-based components the socalled<br />
cells. The idea is to tile these cells regularly over the 3D object space.<br />
Consequently the set of all inside cells make up the final cell-based object.<br />
The precomputed cell-based objects are displayed with ray tracing. By<br />
rendering the basic mesh, the objects surface is the entry point for the ray<br />
tracing algorithm. Rays are shot in eye direction to hit an inside cells<br />
boundary by performing a linear search with a subsequent binary search.<br />
43
Martin Stingl<br />
Robust Hard Shadows<br />
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />
Betreuer: Associate Prof. Dr. Michael Wimmer<br />
Die Generierung von Schatten in großen virtuellen Umgebungen <strong>für</strong><br />
Echtzeitrendering Anwendungen wie z.B. Videospielen ist nach wie eine<br />
große Herausforderung <strong>für</strong> die Computergraphik. In den letzten Jahren haben<br />
sich Shadowmapping und verschiedene Varianten davon in großem Umfang<br />
als geeignete Methode zur Schattenerzeugung durchgesetzt, was in letzter<br />
Zeit zur Einführung sehr vieler erweiterter Shadowmapping Techniken geführt<br />
hat. Aus diesem Grund ist es manchmal schwierig <strong>für</strong> Entwickler die passende<br />
Methode <strong>für</strong> bestimmte gegebene Szenarios auszuwählen. Diese<br />
Diplomarbeit konzentriert sich auf die Analyse von einigen gebräuchlichen<br />
komplett hardware-beschleunigten Shadowmapping Techniken und die<br />
Möglichkeit sie zu kombinieren. Wir präsentieren ein interaktives Framework,<br />
dass es dem Anwender erlaubt mit den gewählten Methoden zu<br />
experimentieren und fast alle interessanten Aspekte des Schattenerzeugungsprozesses<br />
<strong>für</strong> beliebige Szenen zu visualisieren. Es unterstützt die Möglichkeit<br />
der Schattengenerierung durch die Verwendung von mehreren Shadowmaps,<br />
durch Umverteilung der Samples oder beides gemeinsam, und bietet größt<br />
mögliche Flexibilität durch zahlreiche veränderbare Parameter. Außerdem<br />
enthält es die Möglichkeit die finalen Resultate aus unterschiedlichen<br />
Blickpunkten zu analysieren, was es Entwicklern ermöglichen sollte <strong>für</strong> die<br />
gegebenen Szene den am besten geeigneten Algorithmus zu finden.<br />
Le Zhang<br />
Improving the Visibility of In-game Advertisements<br />
Studium: Masterstudium Computergraphik & Digitale Bildverarbeitung<br />
Betreuer: Associate Prof. Dr. Michael Wimmer<br />
44<br />
Computerspiele sind zu einer der wichtigsten Branchen der<br />
Unterhaltungsindustrie geworden. Aber die intensive Interaktion des<br />
Benützers interferiert mit seiner Wahrnehmung und Aufmerksamkeit, da die<br />
Spieler primär auf die gegenwärtig auszuführende Aufgabe fokussiert sind.<br />
Daher werden Informationen, die nicht direkt mit der Aufgabe des Spiels<br />
zusammenhängen, wie z.B. Werbebanner, nicht bemerkt werden. Dieses<br />
Verhalten, bekannt als inattentional blindness (Blindheit durch Ablenkung) ist<br />
ein Hauptproblem <strong>für</strong> die optimale Platzierung von Informationen<br />
(insbesondere spielrelevante Nachrichten) oder Werbung in der virtüllen<br />
Umgebung des Spieles. Meine Diplomarbeit wird einen Rückblick auf die<br />
Entwicklungsgeschichte, einen Überblick über gegenwärtige Methoden und<br />
Themen von Werbung in Computerspielen geben, wobei inbesondere<br />
dieWahrnehmung von in die Spielumgebung eingebettetenWerbebannern<br />
diskutiert wird und eine Methode vorschlagen wird, um die Inattentional
Blindness zu durchbrechen um solche Werbebanner im Spiel sichtbarer zu<br />
machen. Der zugrundeliegende Ansatz basiert aufWolfes Theorie der Guided<br />
Search, die eine relativ verlässliches Modell <strong>für</strong> top-down kontrollierte visuelle<br />
Aufmerksamkeit während visueller Suchaufgaben bietet. Da sich in<br />
Computerspielen häufig visuelle Suchaufgaben ergeben, ist unsere<br />
Hypothese dass dieses Modell auch in umgekehrter Richtung angewendet<br />
werden kann, so dass die Salienz einiger Werbebanner soweit erhöht wird<br />
dass sie vom Spieler gesehen werden, auch während dieser Aufgaben<br />
erledigt die seine Aufmerksamkeit besonders in Anspruch nehmen. Um diese<br />
Hypothese zu Testen, wurde ein Computerspiel implementiert und eine<br />
Benutzerstudie durchgeführt, wo der Effekt unsere Methode mit einem<br />
Gedächnistest überprüft wurde.<br />
Arbeitsbereich Algorithmen und Datenstrukturen<br />
Karl-Michael Edlinger<br />
Optimierung der periodischen Tourenplanung in der Müllentsorgung<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />
Das Müllaufkommen in Österreich steigt stetig an. Den produzierten Müll zu<br />
entsorgen, stellt ein großes logistisches Problem dar. Viel Knowhow und Zeit<br />
werden in die Planung investiert, und trotzdem werden nicht immer<br />
zufriedenstellende Lösungen gefunden. In der Fachliteratur existieren einige<br />
Lösungsverfahren <strong>für</strong> die Müllsammlung, doch keines, das auch die vielen<br />
Voraussetzungen <strong>für</strong> den Praxiseinsatz erfüllen würde. Sollte es aber nicht<br />
doch möglich sein, die Planungsbeauftragten bei ihren Aufgaben zu<br />
unterstützen und dadurch die Kosten zu reduzieren? Geplant wird die<br />
regelmäßige Müllabholung <strong>für</strong> einen gewissen Zeitraum (z.B.: eine<br />
Arbeitswoche). In diesem Planungszeitraum müssen einige Behälter mehrmals<br />
entleert werden. Aus der Anzahl der notwendigen Entleerungen im<br />
Planungszeitraum ergeben sich Besuchsmuster. Für jeden Müllcontainer muss<br />
ein Besuchsmuster ausgewählt werden. Daraus ergibt sich <strong>für</strong> die Fahrzeuge<br />
jeden Tag eine Liste an Behältern, die sie entleeren. Hat ein Fahrzeug einige<br />
Müllbehälter entleert und seine maximale Ladekapazität fast erreicht, so muss<br />
das Fahrzeug zu einer Entladestation fahren. Modelliert werden kann die<br />
Müllsammlung als Multi-Depot Periodic Vehicle Routing Problem with<br />
Intermediate Facilities (MDPVRP-IF). Nach einer zufälligen Auswahl eines<br />
Besuchsmusters <strong>für</strong> alle Abfallbehälter wird mit der Savings-Heuristik eine<br />
Startlösung erstellt. Das Variable Neighborhood Search-Verfahren (VNS) hat<br />
schon bei ähnlichen Problemen seine Vorzüge bewiesen und wurde <strong>für</strong> die<br />
Müllsammlung adaptiert. Als lokale Suche kommt 2-Opt zum Einsatz und als<br />
Akzeptanzkriterium wird Simulated Annealing (SA) verwendet. Getestet wurde<br />
das VNS mit Echtdaten eines Entsorgungsunternehmens. In weniger als 60<br />
Minuten lieferte das VNS-Verfahren <strong>für</strong> alle Testszenarien Lösungen, die von<br />
45
einem Disponenten als Verbesserungen im Vergleich zu den bisherigen<br />
Lösungen bezeichnet wurden. Ein Praxis-Einsatz des Lösungsverfahrens in der<br />
nächsten Planungsperiode ist angedacht.<br />
Gernot Fritz<br />
Heuristic Methods for the Hop Constrained Survivable Network Design<br />
Problem<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />
In der vorliegenden Arbeit werden heuristische und metaheuristische<br />
Lösungsalgorithmen <strong>für</strong> das Hop Constrained Node Survivable Network<br />
Design Problem (HNSND) und das Hop Constrained Edge Survivable Network<br />
Design Problem (HESND) präsentiert und miteinander verglichen. Hop<br />
Constrained Survivable Network Design ist ein NP-schweres Problem.<br />
Nachdem die Lösung in der vorliegenden Arbeit als Subgraph repräsentiert<br />
wird, ist bereits der Test, ob eine Lösung gültig ist, NP-schwer. Daher liegt der<br />
erste Schwerpunkt der Arbeit auf der Entwicklung eines fortgeschrittenen<br />
Tests, welcher in polynomieller Zeit zumindest ungültige Lösungen<br />
ausschließen kann, dies am besten mit einer sehr kleinen Fehlerrate, um die<br />
Anwendungen des zeitintensiven exakten Gültigkeitstest zu minimieren. Die<br />
Ergebnisse auf den getesteten Instanzen zeigen, dass der polynomielle<br />
"Advanced Check" eine Fehlerrate von rund 1% in Bezug auf "False Positives"<br />
hat, mit anderen Worten rund 1% der durchgelassenen Lösungen keine<br />
gültige Lösung darstellen. Darüber hinaus liegt der Algorithmus insgesamt in<br />
rund 0,40% aller getesteten Instanzen mit seiner Bewertung falsch. Danach<br />
werden 27 verschiedene Lösungsalgorithmen entwickelt, darunter zehn<br />
Konstruktionsheuristiken, zehn Variable Neighborhood Descent (VND)<br />
Varianten, sechs Multi-Start VND Varianten, sowie ein Greedy Randomized<br />
Adaptive Search Procedure Ansatz. Weiters wird ein verbesserter exakter<br />
Gültigkeitstest präsentiert. Die Ergebnisse auf den getesteten Instanzen<br />
zeigen, dass einige Verfahren optimale Ergebnisse erzielen. Überblicksmäßig<br />
ergibt sich <strong>für</strong> das HESND im Schnitt eine Abweichung von 5-25% von der<br />
Optimallösung, <strong>für</strong> das HNSND gibt es keine Vergleichswerte auf den<br />
getesteten Instanzen. Zusammenfassend ist zu sagen, dass die vorliegende<br />
Arbeit eine große Toolbox an heuristischen Methoden <strong>für</strong> Hop Constrained<br />
Survivable Network Design Probleme präsentiert, welche gute Resultate in<br />
vernünftiger Zeit erzielen.<br />
46
Christian Gruber<br />
Ein Lösungsarchiv mit Branch-and-Bound-Erweiterung <strong>für</strong> das Generalized<br />
Minimum Spanning Tree Problem<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />
In dieser Arbeit wird ein Algorithmus <strong>für</strong> das Generalized Minimum Spanning<br />
Tree-Problem (GMST) entwickelt. Bei diesem Verfahren wird ein Evolutionärer<br />
Algorithmus (EA) mit zwei verschiedenen Lösungsarchiven verwendet. Die<br />
Lösungsarchive werden dazu benutzt Lösungen zu speichern, um Duplikate<br />
zu erkennen und diese in neue Lösungen umzuwandeln. Diese Archive<br />
werden in dieser Arbeit durch eine Bounding-Strategie basierend auf dem<br />
Branch and Bound Verfahren erweitert. Dabei wird versucht im Archiv an<br />
günstigen Positionen geeignete Bounds zu berechnen, die Auskunft darüber<br />
geben, wie gut die Lösungen in diesem Bereich des Archivs höchstens sein<br />
können. Wird eine Bound gefunden, die schlechter als die beste gefunden<br />
Lösung ist, sind diese Lösungen im weiteren Verlauf des Algorithmus<br />
uninteressant und erden nicht mehr berücksichtigt. Das führt dazu, dass<br />
mehrere Lösungen von vornherein als schlecht erkannt werden können und<br />
somit nur Lösungen verfolgt werden, die auch Verbesserungen bringen<br />
können.<br />
Thorsten Krenek<br />
Verbrauchsminimierung eines Hybridfahrzeuges im Neuen Europäischen<br />
Fahrzyklus<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />
Für ein Computermodell eines Hybridelektrokraftfahrzeugs (Hybrid Electric<br />
Vehicle, HEV) soll der Verbrauch im Neuen Europäischen Fahrzyklus (NEFZ)<br />
minimiert werden. Eine Besonderheit bei der Verbrauchsbestimmung von<br />
HEVs ist die Forderung eines nahezu gleichen Batterieladezustands am<br />
Beginn und am Ende des NEFZs. Es soll u.a. die Schaltstrategie, die rein<br />
elektrische Fahrt, Boosten und die Lastpunktanhebung optimiert werden.<br />
Dadurch ergeben sich in etwa zehn zu optimierende Parameter. Die Aufgabe<br />
besteht nun darin, eine Optimierungsstrategie zu finden, die es ermöglicht, in<br />
möglichst geringer Laufzeit ein Parameterset zu finden, das möglichst nahe<br />
am globalen Optimum liegt. Durch die hohe Komplexität des Modells können<br />
konkrete Parametersets nur durch relativ zeitaufwändige Simulationen des<br />
Modells bewertet werden. Ausgehend von bereits vorhandenen einfacheren<br />
Standardoptimierungsmethoden wurden unterschiedliche teils deutlich<br />
effizientere Algorithmen entwickelt, die spezielle Eigenschaften der<br />
Problemstellung ausnutzen. Es wurde zuerst ein Algorithmus entwickelt, der<br />
die Auswahl der zu optimierenden Parameter reduziert bzw. festlegt. Weiters<br />
wurde <strong>für</strong> die Erzeugung von Ausgangslösungen ein Monte-Carlo<br />
47
Suchverfahren entwickelt. In weiterer Folge wurden ein genetischer<br />
Algorithmus, ein Downhill-Simplex Verfahren und ein Algorithmus, der auf<br />
Schwarmintelligenz beruht (PSO), implementiert. Beim PSO wurde die beste<br />
Lösung mit einem Surface-Fitting Algorithmus verbessert. Schlussendlich<br />
wurden die einzelnen Metaheuristiken in einem gesamten<br />
Optimierungsprozess unter Berücksichtigung der Stärken und Schwächen der<br />
einzelnen Verfahren <strong>für</strong> die Problemstellung miteinander kombiniert. Für das<br />
Modell des zu optimierenden HEVs konnte eine Treibstoffersparnis von etwa<br />
33 Prozent im Vergleich zu einem konventionell betriebenen vergleichbaren<br />
Kraftfahrzeug erzielt werden. Der Anteil unseres kombinierten Ansatzes liegt<br />
dabei etwa bei fünf Prozentpunkten.<br />
Thomas Seidl<br />
A Multilevel Refinement Approach to the Rooted Delay-Constrained Steiner<br />
Tree Problem<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />
48<br />
Das Rooted Delay-Constrained Steiner Tree Problem (RDCSTP) ist eine<br />
Variante des bekannten Steinerbaum-Problems auf einem Graphen in welcher<br />
die Pfade zu allen Zielknoten durch eine bestimmte maximale Verzögerung<br />
beschränkt sind. Das Problem tritt hauptsächlich im Bereich des Netzwerk-<br />
Routings auf. Da das RDCSTP zur Klasse der NP-schwierigen Probleme gehört<br />
ist es allgemein nicht möglich die exakte Lösung einer großen Probleminstanz<br />
in vertretbarer Zeit zu finden. Der Fokus der Forschung liegt daher großteils<br />
auf der Entwicklung guter Heuristiken. In dieser Arbeit wird hier<strong>für</strong> die<br />
Multilevel-Refinement-Heuristik als Verbesserungsheuristik <strong>für</strong> das RDCSTP<br />
entwickelt. Grundsätzlich werden bei dieser Metaheuristik in einem ersten<br />
Schritt Knoten sukzessive zusammengefasst um den Graphen auf höheren<br />
Levels, mit weniger Knoten, darzustellen. Das so vereinfachte Problem kann<br />
dann auf der höchsten Abstraktionsebene in simpler Weise gelöst werden.<br />
Dann wird diese Lösung schrittweise wieder soweit verfeinert, bis eine<br />
Lösung <strong>für</strong> das ursprüngliche Problem erreicht wird. Der hier vorgestellte<br />
Algorithmus <strong>für</strong> das RDCSTP implementiert diesen Multilevel-Ansatz als<br />
Verbesserungsheuristik, die eine existierende Lösung iterativ verändert. Eine<br />
weitere Besonderheit ist, dass wegen der zusätzlichen Verzögerungs-<br />
Einschränkung weitere Datenstrukturen benötigt werden, um auf höheren<br />
Levels gültige Lösungen zu erzeugen. Außerdem wird während der<br />
Verfeinerung der Lösung auf jedem Level eine weitere<br />
Verbesserungsheuristik angewandt, das Key Path Improvement, welches die<br />
Lösungsqualität drastisch verbessert. Umfangreiche experimentelle Tests<br />
wurden durchgeführt um die Leistungsfähigkeit des Algorithmus bei großen<br />
Instanzen zu messen und ihn mit anderen Algorithmen aus der Literatur zu<br />
vergleichen. Die hierbei erhaltenen Ergebnisse sind durchwegs sehr positiv<br />
und weisen somit darauf hin, dass der verfolgte Ansatz tatsächlich eine<br />
konkurrenzfähige Heuristik <strong>für</strong> das RDCSTP darstellt.
Markus Sinnl<br />
Branch-and-Price for the Steiner Tree Problem with Revenues, Budget and<br />
Hop Constraints<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />
Diese Diplomarbeit behandelt das Steiner tree problem with revenues,<br />
budget and hop constraints (STPRBH), ein NP-schweres kombinatorisches<br />
Optimierungsproblem mit Anwendungen unter anderem im Design von<br />
Telekommunikationsnetzen. Eine Instanz des STPRBH besteht aus einem<br />
ungerichteten Graphen mit einem Wurzelknoten, Terminalknoten, die<br />
positiven Ertrag generieren, falls sie in einer Lösung mit dem Wurzelknoten<br />
verbunden sind und Kanten mit positivem Gewicht. Weiters ist ein Budget B<br />
und ein Hoplimit H Teil einer Instanz. Erlaubte Lösungen sind alle Steiner-<br />
Bäume dieses Graphen, die den Wurzelknoten enthalten und in denen jeder<br />
Pfad vom Wurzelknoten bis zu einem anderen Knoten im Baum höchstens aus<br />
H Kanten besteht. Weiters darf die Summe der Gewichte der Kanten im Baum<br />
höchstens B betragen. Ziel ist es, eine gültige Lösung mit möglichst hohem<br />
Gewinn, der durch die Summe der Erträge der in der Lösung vorhandenen<br />
Knoten definiert ist, zu finden. Es werden mehrere Formulierungen <strong>für</strong> das<br />
STPRBH als ganzzahliges lineares Programm mit exponentiell vielen Variable<br />
vorgeschlagen. Außerdem werden branch-and-price Verfahren, die auf<br />
diesen Formulierungen basieren und das exakte Lösen von Instanzen des<br />
STPRBH erlauben, eingeführt. Die Anwendbarkeit verschiedener<br />
Möglichkeiten deren Effizienz zu verbessern wird analysiert. Tests auf schon<br />
existierenden Benchmark-Instanzen zeigen, dass die vorgeschlagenen branchand-price<br />
Ansätze kompetitiv mit schon existierenden exakten Verfahren, die<br />
auf branch-and-price basieren, sind, falls das Hoplimit oder die Anzahl der<br />
Terminalknoten vergleichsweise klein ist. Für Instanzen mit großem Hoplimit<br />
oder einer großen Anzahl von Terminalknoten sind die vorgeschlagenen<br />
branch-and-price Verfahren noch nicht kompetitiv mit den branch-and-cut<br />
Verfahren. Durch die implementierten Beschleunigungsmethoden wurde aber<br />
eine signifikante Beschleunigung der branch-and-price Verfahren erreicht.<br />
Thomas Winkler<br />
Anwendung von kombinatorischen Optimierungsmethoden zur<br />
Rekonstruktion von in Streifen geschnittenen Papierdokumenten<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Günther Raidl<br />
Die Diplomarbeit behandelt das Thema der Rekonstruktion von in Streifen<br />
geschnittenen Textdokumenten. Das Wiederherstellen solcher Seiten wird als<br />
ein kombinatorisches Optimierungsproblem interpretiert, bei dem die<br />
einzelnen Streifen in die ursprüngliche Reihenfolge gebracht werden müssen.<br />
Zuerst werden einige Ansätze zur Behandlung des Problems der unbekannten<br />
49
50<br />
Orientierung der einzelnen Streifen vorgestellt. Anhand des Bereichs<br />
zwischen den Textzeilen aber auch mit einer einfachen Erkennung von<br />
markanten Buchstaben wird versucht eine Zuordnung der Orientierung zu<br />
bewerkstelligen. Weiters wird eine Methode zur Erkennung der Randstücke -<br />
also jene beiden Streifen, die sich im Original links und rechts auf der Seite<br />
befunden haben - angewandt, um die Lesbarkeit und die Qualität der Lösung<br />
zu erhöhen. Im Zuge der Arbeit wird die Rekonstruktion mittels einer<br />
variablen Nachbarschaftssuche durchgeführt. Es werden zusätzlich<br />
unterschiedliche Methoden gezeigt, wie man bei der Rekonstruktion eine<br />
Verbesserung erhält, indem man die bereits richtig angeordneten Streifen zu<br />
Blöcken zusammenfasst. Drei unterschiedliche Ansätze werden beschrieben<br />
und getestet. Als Testinstanzen werden zehn Dokumente mit je vier<br />
verschiedenen Streifenbreiten zerschnitten und die drei Ansätze darauf<br />
getestet. Es zeigt sich, dass bei einem Viertel aller Testinstanzen eine<br />
vollständige und bei mehr als der Hälfte der Testinstanzen eine lesbare<br />
Rekonstruktion möglich ist.
Institut <strong>für</strong> Computersprachen<br />
Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />
Sebastian Krinninger<br />
Combining Supervaluation and Fuzzy Logic Based Theories of Vagueness<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Ao.Univ.Prof. Dr. Christian Fermüller<br />
Supervaluationismus ist eine von mehreren Theorien der Vagheit, die in der<br />
analytischen Philosophie diskutiert werden. Im Supervaluationismus werden<br />
alle Möglichkeiten berücksichtigt, eine vage Aussage vollständig präzise zu<br />
machen. In jeder Präzisierung werden Formeln wie in der klassischen Logik<br />
interpretiert. Vagheit wird durch Präzisierungsräume, d.h. durch Mengen<br />
verschiedener Präzisierungen, modelliert. Der supervaluationale Wahrheitsbegriff<br />
ist Superwahrheit, d.h. Wahrheit in allen Präzisierungen. Fuzzy-Logiken<br />
stammen ursprünglich aus der Kontrolltechnik und haben zwei Charakteristika:<br />
Das Einheitsintervall ist die Menge der möglichen Wahrheitswerte und der<br />
Wahrheitswert von Formeln ergibt sich durch Wahrheitsfunktionen. Wir<br />
betrachten jene Fuzzy-Logiken, bei denen die Wahrheitsfunktion der<br />
Konjunktion eine stetige T-Norm ist und auch die restlichen Wahrheitsfunktionen<br />
vollständig durch die Wahl der T-Norm bestimmt werden. Wir<br />
kombinieren Supervaluationismus und Fuzzy-Logik zu einer hybriden Logik,<br />
indem wir jeden Präzisierungsraum mit einem Maß auf seinen Präzisierungen<br />
ausstatten. Wir bestimmen den Wahrheitswert jeder propositionalen Variable<br />
durch das Maß jener Präzisierungen, in denen sie als wahr erachtet wird. Die<br />
Wahrheitsfunktionen der Konnektive werden, wie in der Fuzzy-Logik, durch<br />
eine stetige T-Norm bestimmt. Weiters fügen wir einen modalen Operator S<br />
hinzu, der angibt, ob eine Formel im Präzisierungsraum superwahr ist. Wir<br />
betrachten bestimmte Einschränkungen <strong>für</strong> Präzisierungsräume und zeigen<br />
Folgendes: Die hybride ukasiewicz-Logik ist die einzige hybride Logik, in der<br />
Wahrheit in allen Präzisierungsräumen äquivalent ist zu Wahrheit in allen<br />
Präzisierungsräumen, bei denen das Maß einen strikt positiven Wertebereich<br />
hat. Sowohl in der hybriden ukasiewicz-Logik als auch in der hybriden Gödel-<br />
Logik ist Wahrheit in allen Präzisierungsräumen mit einem strikt positiven Maß<br />
äquivalent zu Wahrheit in allen Präzisierungsräumen mit einem uniformen<br />
Maß.<br />
51
Georg Seitz<br />
Logics for Coalitional Games of Imperfect Information<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Ao.Univ.Prof. Dr. Christian Fermüller<br />
Koalitions-Spiele (Coalitional games) dienen als Modell <strong>für</strong> Multi-Agenten-<br />
Systeme, in denen die Agenten die Möglichkeit haben, Koalitionen zu bilden<br />
um bestimmte Ziele zu erreichen. Alternating-Time Temporal Logic (ATL) ist<br />
eine etablierte Logik zur Formalisierung solcher Spiele <strong>für</strong> den Fall dass die<br />
Spieler durchgehend perfekte Information über den tatsächlichen Zustand<br />
des Spiels besitzen. Für Spiele mit imperfekter Information scheint keine<br />
derartige Standard-Logik zu existieren, aber in aktueller Literatur finden sich<br />
verschiedenste Ansätze. In dieser Arbeit diskutieren und vergleichen wir<br />
einige dieser Ansätze im Hinblick auf Ausdruckskraft, Komplexität und etwaige<br />
Probleme. Es stellt sich heraus, dass im Fall von gedächtnislosen Agenten<br />
sehr ausdrucksstarke Logiken existieren, die es erlauben, verschiedene<br />
Begriffe strategischer Fähigkeiten in Koalitions-Spielen zu beschreiben. Ganz<br />
im Gegenteil dazu führt die Annahme von perfektem Gedächtnis schnell zu<br />
dem Problem, dass einigermaßen aussagekräftige Logiken <strong>für</strong> solche Spiele<br />
unentscheidbar sind. Als unseren eigenen Beitrag zu der Thematik<br />
präsentieren wir einen Ansatz zur Entschärfung dieses Problems durch<br />
Approximation solch einer unentscheidbaren Logik durch entscheidbare.<br />
Lara Katharina Spendier<br />
Systematic Proof Theory for Non-Classical Logics: Advances and<br />
Implementation<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuerin: Privatdoz. Dr. Agata Ciabattoni<br />
52<br />
Nichtklassische Logiken nahmen in den letzten Jahren in vielen Gebieten, vor<br />
allem in der <strong>Informatik</strong>, an Bedeutung zu. Mittlerweile existiert bereits eine<br />
große Anzahl nützlicher und interessanter nichtklassischer Logiken, wie<br />
beispielsweise Fuzzy-Logiken oder Substrukturelle Logiken. Zudem führen<br />
Wissenschaftler verschiedener Fachbereiche weiterhin neue Logiken ein, um<br />
ihre Anforderungen zu erfüllen. Nichtklassische Logiken definiert man<br />
üblicherweise, indem man Hilbert-Axiome zu bereits bekannten Systemen<br />
hinzufügt. Die Nützlichkeit dieser Logiken hängt jedoch stark von der<br />
Verfügbarkeit sogenannter analytischer Kalküle ab, in welchen Beweise durch<br />
schrittweises Zerlegen der Formeln geführt werden. Den analytischen Kalkül<br />
einer Logik definiert man durch die Wahl eines passenden Formalismus,<br />
sowie das Festlegen geeigneter Regeln zur Formalisierung der Logik.<br />
Zusätzlich müssen Korrektheit, Vollständigkeit und Schnittelimination des<br />
definierten Kalküls bewiesen werden. Mit der Definition neuer Logiken wächst<br />
daher auch die Anzahl solcher Beweise und eine automatisierte Prozedur zur<br />
Einführung analytischer Kalküle in systematischer Weise wäre somit
erstrebenswert. In dieser Diplomarbeit erweiterten wir eine systematische<br />
Prozedur, die Hilbert-Axiome in äquivalente analytische Regeln umformt, auf<br />
die Familie der Axiome (Bdk) mit k 1. Um die Prozedur auf diese Axiome zu<br />
erweitern, definierten wir zunächst einen neuen Formalismus, den<br />
Nichtkommutativen Hypersequenzkalkül, und erstellten geeignete Regeln<br />
entsprechend den Axiomen (Bdk). Für diese Regeln bewiesen wir Korrektheit,<br />
Vollständigkeit und Schnittelimination. Zusätzlich entwickelten wir einen<br />
Algorithmus auf Basis der systematische Prozedur und implementierten<br />
diesen in PROLOG.<br />
Harald Andreas Zumpf<br />
Theorien und Modelle der Kommunikation<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Ao.Univ.Prof. Dr. Rudolf Freund<br />
Die vorliegende Magisterarbeit befasst sich mit der Betrachtung und Analyse<br />
gängiger Theorien und Modelle der Kommunikationstheorie. Der<br />
Schwerpunkt liegt hierbei auf der Systembetrachtung von Wechselwirkungen<br />
zwischen weit verbreiteten Modellen der Analyse, deren Kongruenz und der<br />
daraus resultierenden Anwendbarkeit im Kontext der didaktischen Implikation.<br />
Es wird untersucht, inwieweit gebräuchliche Modelle im Lehr- und<br />
Vortragsbereich sinnvoll umgesetzt und logisch verknüpft werden können.<br />
Des Weiteren werden neue Modelle und Hilfsmodelle erstellt, die sich durch<br />
eine bessere Anwendbarkeit in den Bereichen der Erwachsenenbildung und<br />
der Lehre auszeichnen. Zu diesem Zweck ist es mein Ziel, die von mir<br />
erstellten Brücken- und Metamodelle anhand von exemplarischen<br />
Anwendungen auf Ihre Umsetzbarkeit zu überprüfen. Dabei wird besonderes<br />
Augenmerk auf das Fragestellen gelegt, weil dadurch oftmals eine Steuerung<br />
bei verbal-kommunikativen Wechselwirkungen stattfindet. Durch meine<br />
langjährige Tätigkeit im Bereich der Erwachsenenbildung bieten sich<br />
zahlreichen Möglichkeiten, die hier vorgestellten Modelle zu erproben, um<br />
möglichst effiziente Wege zu deren Vermittlung und Anwendbarkeit zu<br />
realisieren. Die hier vorgestellten und entwickelten Modelle können zwar<br />
oftmals auch auf andere Sprachen angewendet werden, jedoch konzentriert<br />
sich diese Arbeit ausschließlich auf die Implikationen und Effekte im Kontext<br />
der deutschen Sprache.<br />
53
Arbeitsbereich Programmiersprachen und Übersetzer<br />
Tim Blechmann<br />
Supernova - A Multiprocessor Aware Real-Time Audio Synthesis Engine For<br />
SuperCollider<br />
Studium: Individuelles Masterstudium aus Medieninformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Martin Ertl<br />
These days, most computer systems are built with multi-core processors.<br />
However, most computer music systems use a single-threaded synthesis<br />
engine. While the single-core performance for current CPUs is sufficient for<br />
many computer music applications, some demanding applications benefit<br />
from using multiple processors simultaneously. Real-time audio synthesis<br />
imposes specific constraints regarding real-time safety, since the synthesis<br />
engine needs to be tuned for worst-case latencies below one millisecond. As<br />
a result, no blocking synchronization can be used and the signal processing<br />
graph needs to be split into reasonably sized parts, that provide enough<br />
parallelism without introducing a significant scheduling overhead. During the<br />
work on this master thesis, I developed Supernova as a multiprocessor aware<br />
synthesis engine for SuperCollider. SuperCollider is a computer music system<br />
based on a dynamic scripting language with a real-time garbage collector,<br />
that is used to control a separate audio synthesis server. Supernova replaces<br />
the original audio synthesis engine. It is not possible to automatically<br />
parallelize the synthesis graph of SuperCollider without fundamentally<br />
changing the semantics of the SuperCollider class library. Therefore a the<br />
programming model for the synthesis graph was extended, exposing<br />
parallelism explicitly to the user. To achieve this, I propose two simple<br />
concepts, `parallel groups' and `satellite nodes'.<br />
Tobias Dönz<br />
Design and Implementation of the next Generation XVSM Framework:<br />
Runtime, Protocol and API<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn<br />
54<br />
The development of software for distributed systems is often carried out with<br />
middleware that provides programming abstractions to ease the<br />
implementation. Space-based middleware systems are based on tuple spaces<br />
and allow loosely coupled components of a distributed system to coordinate<br />
over a shared data store. They provide synchronization, time and space<br />
decoupling. However, tuple spaces offer no order for the stored data objects<br />
which limits the coordination capabilities. eXtensible Virtual Shared Memory<br />
(XVSM) is a space-based middleware architecture that allows for more and<br />
flexible coordination and can be easily extended. Recently, it has been<br />
specified with a formal model in several layers, of which the lower ones have
een implemented in Java as previous work. This thesis describes the design<br />
and implementation of the upper layers of the formal model in MozartSpaces<br />
2.0, the Java implementation of XVSM. They comprise the runtime, remote<br />
communication and the API. The runtime supports blocking operations with<br />
timeouts and aspects to extend the middleware functionality. Important is the<br />
fast scheduling of requests and the efficient handling of internal events for<br />
blocking operations. As example for the extensibility of XVSM we implement<br />
publish/subscribe notifications with aspects. We also present an XML protocol<br />
for the interoperable remote access to XVSM spaces and a synchronous and<br />
asynchronous API. Benchmark results show that MozartSpaces 2.0 is<br />
considerably faster than the previous version 1.0 for all operations and scales<br />
better.<br />
Wolfgang Gelbmann<br />
Design and Implementation of LinqSpace<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuerin: Ao.Univ.Prof. Dr. eva Kühn<br />
Im .NET Umfeld hat sich LINQ (Language Integrated Query) als Komponente<br />
zur universalen Abfrage von Datenquellen durchgesetzt. Das Erzeugen der an<br />
SQL angelehnten Anfrage ist konsequent von der Ausführung und der<br />
Interpretation getrennt, was eine geeignete Basis <strong>für</strong> Erweiterungen darstellt.<br />
Das Space Based Computing oder Shared Data Spaces Paradigma dient als<br />
Grundlage <strong>für</strong> die XVSM (eXtensible Virtual Shared Memory) Middleware<br />
Lösung, welche durchgängig Koordinatoren einsetzt um Abfragelogik vom<br />
Anwendungscode in das Framework zu verschieben. Die einleitende<br />
Intention dieser Arbeit resultierte in den Bestrebungen XVSM LINQ-tauglich<br />
zu machen und folglich die Interaktionsschnittstelle um eine vielseitige und<br />
ausdruckstarke Abfragesprache zu erweitern. Ein Teilbereich dieser Arbeit<br />
präsentiert einen LINQ Adapter <strong>für</strong> die .NET Referenzimplementierung von<br />
XVSM (XcoSpaces). Dieser wandelt LINQ Abfragen, sogenannte Expression<br />
Trees, in den <strong>für</strong> XcoSpaces erfassbaren Linda-Koordinator um. Da dieser<br />
Koordinator auf Template-Matching basiert, sind die unterstützen LINQ<br />
Anweisungen stark eingeschränkt und umfassen im Wesentlichen Abfragen<br />
auf Gleichheit. Als Konsequenz der erlangten Einsichten richtet sich der Fokus<br />
dieser Arbeit auf die Neuimplementierung der XVSM Spezifikation<br />
(LinqSpace) mit LINQ als primärer Schnittstelle <strong>für</strong> Abfragen. Zur Datenspeicherung<br />
wäre prinzipiell jedes LINQ-fähige System geeignet, jedoch<br />
wurde im Sinne neuer Evaluierungsmöglichkeiten auf eine, im XVSM Umfeld<br />
eher unkonventionelle Speicherform zurückgegriffen: die relationale<br />
Datenbank. Abschließend wird der neue LinqSpace mit XcoSpaces verglichen<br />
und der Paradigmenwechsel von Einträgen im Space zu einem Arbeiten direkt<br />
an einem Domain-Model erläutert. Ein Beispiel zeigt wie die Entitäten eines<br />
Entity-Relationship-Modells und deren Beziehungen ohne zusätzliche<br />
Adaptionen als Grundlage <strong>für</strong> verteilte Koordination genutzt werden kann.<br />
55
Christoph Leiter<br />
Typestate Tracking <strong>für</strong> sichere nebenläufige Programmierung<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Franz Puntigam<br />
Diese Diplomarbeit befasst sich mit nebenläufiger Programmierung in<br />
objektorientierten Programmiersprachen. In aktuellen Sprachen wird<br />
Nebenläufigkeit oft nur zweitrangig und orthogonal zum Objektkonzept<br />
behandelt. Durch die unzureichende Integration ist die korrekte Implementierung<br />
von nebenläufigen Programmen kompliziert und fehleranfällig. Das<br />
Ziel dieser Arbeit ist die Frage zu klären, wie Konzepte der Nebenläufigkeit<br />
mit Methoden des Typestate Trackings besser in das objektorientierte<br />
Paradigma integriert werden können, und welche Vor- und Nachteile ein<br />
solches Modell mit sich bringt. Zur Untersuchung dieser Punkte wird eine<br />
Java-ähnliche Programmiersprache entworfen, die diesen Ansatz zum Ausdruck<br />
nebenläufiger Aspekte verfolgt. Es wird ein Prototyp eines Compilers<br />
<strong>für</strong> diese Sprache entwickelt. Dieser wird dazu benutzt, um die Machbarkeit zu<br />
demonstrieren und um das Konzept zu bewerten. Zur Evaluierung werden<br />
nebenläufige Programme mit der neu erstellten Sprache und mit Java erstellt.<br />
Die daraus resultierenden Implementierungen werden anhand vordefinierter<br />
Kriterien miteinander verglichen. Die Arbeit zeigt, dass durch eine bessere<br />
Integration von Nebenläufigkeit in objektorientierte Sprachen der<br />
Implementierungsaufwand von Programmen gesenkt werden kann. Ebenso<br />
kann die Fehleranfälligkeit verringert und die Ausdruckskraft erhöht werden.<br />
Die Ausführungszeit solcher Programme ist zur Zeit länger, aber es ist noch<br />
offen, wie effizient eine optimierte Implementierung wäre.<br />
Andreas Neumann<br />
Deployment and Visualisation of the XVSM Core Configuration<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn<br />
56<br />
eXtensible Virtual Shared Memory (XVSM) stellt <strong>für</strong> die Kommunikation und<br />
Zusammenarbeit von mehreren Prozessen einen gemeinsamen Datenraum<br />
bereit. Generell läuft ein XVSM Space innerhalb eines XVSM Cores. Das Team<br />
der Space Based Computing Gruppe der <strong>Technische</strong>n Universität <strong>Wien</strong>s ist<br />
daran interessiert XVSM Cores auf einfache Art und Weise zu konfigurieren<br />
bzw. zu visualisieren. Des Weiteren sollte eine einfache Monitoring<br />
Funktionalität integriert werden. In der vorliegenden Arbeit wird der XVSM-<br />
Editor vorgestellt. Mittels dieses XVSM-Editors kann eine XVSM Core<br />
Konfiguration zu einem oder mehreren XVSM Cores verteilt werden. Der<br />
Benutzer kann entweder die Konfiguration im XVSM-Editor erstellen, oder er<br />
kann auch einfach eine existierende Konfiguration von einem entfernten<br />
XVSM Core laden. Im letzteren Fall kann der Benutzer natürlich die<br />
Konfiguration anschließend seinen Bedürfnissen anpassen. Der XVSM-Editor
zeigt die einzelnen Werte der Variablen innerhalb der Komponenten eines<br />
XVSM Cores an, und diese können auch geändert werden. Des Weiteren stellt<br />
der XVSM-Editor eine einfache Monitoringfunktion bereit. Auch auf die<br />
Erweiterbarkeit des XVSM wurde eingegangen und eine Technik integriert,<br />
mit der man den Inhalt von selbst geschriebenen Aspekten oder<br />
Koordinatoren anzeigen kann. Der entwickelte Prototyp wurde an Hand von<br />
Ergebnissen der untersuchten verwandten Arbeiten und einer Literaturrecherche<br />
kreiert. Mit Hilfe des Editors ist es sehr einfach eine Konfiguration von<br />
einem XVSM Core zu laden, zu bearbeiten, und diese auf weitere XVSM Cores<br />
zu verteilen. Das Erstellen einer Konfiguration ist in diesem Fall auch weniger<br />
fehleranfällig, da der Benutzer nur bestimmte vorgegebene Komponenten<br />
hinzufügen oder entfernen kann. Der besondere Nutzen dieser Lösung liegt<br />
darin, dass man die Visualisierung und die Verteilung der Konfiguration in<br />
einem einzigen Editor auf einfache Art und Weise erledigen kann.<br />
Patrick Sabin<br />
Implementing a Reversible Debugger for Python<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Martin Ertl<br />
There are two different methods of implementing a reversible debugger, i.e.,<br />
a debugger which can run the program forwards and backwards. The first one<br />
is the logging-based approach, which records the state of the program after<br />
every instruction and allows inspection after the program has finished<br />
running. The second one is the replay-based approach, where the debugger<br />
runs the debuggee interactively. For this purpose it makes periodic snapshots.<br />
The debugger runs the debuggee backwards by restoring a previous snapshot<br />
and then running the program forward until it reaches the desired<br />
position. In this thesis, I show that it is possible to implement a reversible debugger<br />
by continuous snapshotting of the program state. There are indeed<br />
some challenges with using such a feature. For example, there are non-deterministic<br />
instructions, which execute differently each instance the interpreter<br />
executes them, e.g., a function, which returns the system time. Therefore I<br />
present some methods of treating these problems. Accompanying this thesis,<br />
I have developed a proof-of-concept implementation of a reversible<br />
debugger called epdb for the Python programming language, which solves<br />
most of the problems of reversible debugging. In order to support reversible<br />
debugging of programs which have non-deterministic instructions in it, I<br />
introduce the new concept of timelines. With timelines, the user can decide<br />
which execution path he wants to take. I also introduce stateful resource<br />
management to support the management of the external state. This allows<br />
the user to investigate the environment corresponding to the actual position<br />
inside the program, when he executes the program backwards.<br />
57
Michael Starzinger<br />
Exact Garbage Collection for the Cacao Virtual Machine<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Krall<br />
Every virtual machine capable of executing Java byte-code needs to perform<br />
some sort of automatic memory management, commonly referred to as<br />
garbage collection. However, it is not specified how this garbage collection<br />
process actually has to be performed. So far the Cacao Virtual Machine<br />
(CacaoVM) used a conservative garbage collector that was designed for<br />
uncooperative environments, thus it has been unable to take full advantage<br />
of the information already present in the runtime infrastructure. This<br />
conservative garbage collector was replaced by an exact one, which has been<br />
tailored to the specific needs of a Java Runtime Environment. In the context<br />
of Java several different components of the virtual machine need to be<br />
orchestrated for exact garbage collection to work. The application threads act<br />
as mutators on the heap and need to be prevented from interfering with the<br />
collector. Another central aspect is identifying the actual references which<br />
point into the heap and prevent objects from being collected. These<br />
references are referred to as the root-set and keep objects alive. The actual<br />
collection algorithms are in charge of cleaning up dead objects and<br />
reorganizing the heap, so that free memory is made available again. Those<br />
algorithms have already been researched in depth over the past decades,<br />
exhibiting vastly different characteristics. All of the above aspects need to be<br />
considered from the perspective of a pure Just-In-Time compilation approach<br />
as taken by CacaoVM. Some crucial simplifications, which rely on fallbacks<br />
into an unoptimized interpreter mode, cannot be applied and need to be<br />
revisited in this setting. Special care was taken to allow future development<br />
towards a generational garbage collection approach by providing the<br />
necessary infrastructure.<br />
Michael Vögler<br />
SILCA - Self-Initiative Load Clustering Agents<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuerin: Ao.Univ.Prof. Dr. Eva Kühn<br />
58<br />
To handle the load of a service more efficiently load clustering can be used to<br />
cluster a set of loads into smaller subsets, where each of this so called clusters<br />
captures a specific aspect of the load. There exist many clustering algorithms<br />
reaching from unintelligent to intelligent ones. However most approaches are<br />
very problem oriented and therefore hard to compare. In this thesis we<br />
propose a generic architectural pattern for a load clustering framework that<br />
allows the plugging of different clustering and classification algorithms.<br />
Furthermore this pattern should ease the selection of the best algorithm for a<br />
certain problem scenario. The presented pattern assumes autonomous
agents and a blackboard based communication mechanism to achieve a high<br />
software architecture agility. The pattern can be composed towards more<br />
complex network topologies which supports the combination of different<br />
algorithms. To prove the concept, the pattern and several clustering<br />
algorithms have been implemented and benchmarked, as part of this thesis.<br />
59
Institut <strong>für</strong> Informationssysteme<br />
Arbeitsbereich Knowledge Based Systems<br />
Peter Haberl<br />
GQBF and Proof Complexity<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Ao.Univ.Prof. Dr. Uwe Egly<br />
Das Erfüllbarkeitsproblem <strong>für</strong> quantifizierte boolesche Formeln - das ist, zu<br />
entscheiden ob alle existentiell quantifizierten Variablen einer geschlossenen<br />
quantifizierten boolschen Formel in einer Form belegt werden können, so<br />
dass die Formel damit wahr wird - ist von besonderem beweistheoretischen<br />
und komplexitätstheoretischen Interesse. Es generalisiert das aussagenlogische<br />
Erfüllbarkeitsproblem und bietet <strong>für</strong> jede Stufe der polynomiellen<br />
Hierarchie prototypische Probleme. Weiters lassen sich viele Probleme der<br />
künstlichen Intelligenz und der Spieltheorie als Erfüllbarkeitsproblem <strong>für</strong><br />
quantifizierte boolesche Formeln kodieren. Derzeit existieren mehrere<br />
Beweiser <strong>für</strong> dieses Problem, basierend auf einer Vielzahl unterschiedlicher<br />
Lösungsansätze. Ein kürzlich vorgestellter Beweiser konstruiert Beweise mit<br />
Hilfe eines Sequenzkalküls. In diesem Papier untersuchen wir die Fähigkeiten<br />
dieses Kalküls kurze Beweise erzeugen zu können und vergleichen<br />
verschiedene Konstruktionsmerkmale des Kalküls diesbezüglich. Wir vergleichen<br />
diesen Kalkül weiters mit einem weit verbreiteten Resolutionskalkül und<br />
untersuchen die Auswirkungen von Pränexierung auf die Länge von Beweisen.<br />
Wir zeigen, dass eine strenge Ordnung von Sequenzkalkülen existiert<br />
was ihre Fähigkeit betrifft, kurze Beweise erzeugen zu können. Manipulationen<br />
im Inneren von Formeln - zusätzlich zu Manipulationen die streng der<br />
Struktur von Formeln folgen - können Beweise exponentiell verkürzen. Beweise<br />
in Form eines gerichteten, azyklischen Graphen können expontiell<br />
kürzer sein als Beweise in Baumform. Weiters zeigen wir obere und untere<br />
Schranken <strong>für</strong> Fähigkeiten, die ein Sequenzkalkül besitzen muss, um ebenso<br />
kurze Beweise erzeugen zu können wie Resolutionskalküle. Das Papier<br />
beweist auch, dass eine gute Pränexierungsstrategie essentiell ist, um kurze<br />
Beweise erzeugen zu können.<br />
Giorgio Stefanoni<br />
Explaining Query Answers in Lightweight Ontologies<br />
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />
Betreuer: O.Univ.Prof. Dr. Thomas Eiter<br />
60<br />
In order to meet usability requirements, most logic-based applications<br />
provide explanation facilities for reasoning services. This holds also for DLs,<br />
where research focused on the explanation of both TBox reasoning and,
more recently, query answering. Besides explaining the presence of a tuple in<br />
a query answer (explanation of positive answer), it is important to explain also<br />
why a given tuple is missing (explanation of negative answer). We first<br />
address the problem of explaining positive query answers by providing an<br />
algorithmic solution to the procedure already outlined in the literature.<br />
Additionally, we employ the new algorithm to solve the explanation problem<br />
for inconsistency in DL-Lite ontologies. In solving the problem of explaining<br />
negative answers to (U)CQ over ontologies, we adopt abductive reasoning,<br />
that is, we look for additions to the ABox that force a given tuple to be in the<br />
result. As reasoning tasks, we consider existence and recognition of an<br />
explanation, and relevance and necessity of a certain assertion for an<br />
explanation. We characterize the computational complexity of these problems<br />
for subset minimal and cardinality minimal solutions.<br />
Trung Kien Tran<br />
Query Answering in the Description Logic Horn-SHIQ<br />
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />
Betreuer: O.Univ.Prof. Dr. Thomas Eiter<br />
Ontologies can be used to formally represent knowledge of an application<br />
domain. This enables machines to make use of the knowledge, to discover<br />
new knowledge, or to exchange knowledge with others. In the context of<br />
database systems, an ontology can be seen as the conceptual view over data<br />
repositories, and data can be accessed by query answering services. To build<br />
such ontologies, we need ontology languages. Among formalisms for<br />
ontology languages, Description Logics (DLs) are the most prominent ones.<br />
DLs underlie the foundation for the current Web Ontology Language (OWL)<br />
standard recommended by World Wide Web Consortium (W3C). DLs are a<br />
family of knowledge representation languages with different expressive<br />
capabilities and computational complexities. It seems that only lightweight<br />
languages i.e., language with low complexity, are suitable for applications<br />
dealing with a large amount of data. The first family of lightweight DLs is DL-<br />
Lite, specially designed to capture data modeling formalism while keeping<br />
very low complexity. The second collection of lightweight languages is the EL<br />
family. Both of these families are subsumed by the Description Logic Horn-<br />
SHIQ. Horn-SHIQ is the Horn fragment of the expressive Description Logic<br />
SHIQ underlying the OWL-Lite standard. There exist practical algorithms for<br />
query answering in EL and DL-Lite but there is no such algorithms for Horn-<br />
SHIQ. In this thesis, we investigate this issue and propose a query rewritingbased<br />
approach for answering conjunctive queries over ontologies in Horn-<br />
SHIQ. Apart from providing a sound and complete algorithm, we have<br />
implemented a prototype system and performed experiments on well-known<br />
ontologies.<br />
61
Tri Kurniawan Wijaya<br />
Top Down Evaluation Techniques for Modular Nonmonotonic Logic Programs<br />
Studium: Masterstudium DDP Computational Logic (Erasmus-Mundus)<br />
Betreuer: O.Univ.Prof. Dr. Thomas Eiter<br />
Answer Set Programming (ASP) ist ein sehr nützliches Werkzeug <strong>für</strong> die<br />
Wissensrepräsentation und zum Lösen von deklarativen Problemstellungen.<br />
In letzter Zeit werden Modularitätsaspekte in ASP zunehmend interessant, bei<br />
dem es darum geht, (Sub-)Programme zu einem (kombinierten)<br />
Logikprogramm zusammenzusetzen. Modularität erlaubt nicht nur das<br />
gegebene Problem in seine Teilproblem zu zerlegen, sondern erleichtert auch<br />
die Wiederverwendbarkeit von logischen Programmen und bietet bessere<br />
Unterstützung <strong>für</strong> große Softwareprojekte. Zu den gegenwärtigen Ansätzen<br />
in diesem Bereich zählen Modular Nonmonotonic Logic Programs (MLP),<br />
welche einige Stärken aufweisen: Sie erlauben wechselseitige rekursive<br />
Aufrufe und nutzen Prädikatensymbole als Modul-Input, wodurch<br />
dynamischere Kodierungen der Probleme entstehen. MLPs sind sehr<br />
ausdrucksstark und haben eine hohe computationale Komplexität, deswegen<br />
ist es sehr anspruchsvoll, eine praktikable Implementierung <strong>für</strong> diesen<br />
Formalismus zu erstellen. In dieser Arbeit entwickeln wir TD-MLP, einen<br />
konkreten Algorithmus zur Berechnung von Modellen <strong>für</strong> MLPs. TD-MLP<br />
basiert auf Top-down-Auswertungstechniken, die nur relevante Modulaufrufe<br />
berücksichtigen. Wir integrieren eine Optimierungstechnik, die Modulinstanzen<br />
separiert und damit redundante Berechnungen vermieden werden. Wir<br />
haben diese Optimierungstechnik implementiert und Experimente auf<br />
Benchmark Instanzen zeigen vielversprechende Resultate. Darüber hinaus<br />
evaluieren wir auch unterschiedliche Kodierungen <strong>für</strong> Probleme, um<br />
modularen und mit einfachen logischen Programmen zu vergleichen.<br />
Experimente zeigen, dass in einigen Fällen die modulare Kodierung die<br />
gewöhnlichen Programme übertreffen können.<br />
Arbeitsbereich Database and Artificial Intelligence<br />
62<br />
Martin Kronegger<br />
Efficent Planning with QBF-Solvers<br />
Studium: Masterstudium Computational Intelligence<br />
Betreuer: Univ.Prof. Dr. Reinhard Pichler<br />
Für alltägliche Probleme haben wir gute Lösungsmethoden entwickelt. Wird<br />
das Problem komplexer, so erkennen wir, wie schwer dessen Planung ist.<br />
Automatisches Planen mithilfe von Computerunterstützung soll genau da<br />
ansetzen, wo durchschnittliche Personen keine guten Lösungen mehr finden.<br />
Planen ist eine der klassischen Gebiete der Künstlichen Intelligenz.<br />
Prominente Anwendungsgebiete reichen vom Remote Agent in der Deep
Space One Mission bis hin zu Entscheidungsunterstützungssytemen <strong>für</strong><br />
Katastrofenhilfe. Planen ist die Aufgabe, eine Sequenz von Aktionen zu<br />
finden, die zu einem Zustand führen, in dem das Ziel erfüllt ist. Klassisches<br />
Planen mit vollständiger Information, deterministischen Aktionen, Pläne mit<br />
polynomieller Länge, etc. ist schon NP-vollständig. Diese Form wurde in den<br />
letzten Jahrzehnten sehr intensiv erforscht. In der Realität haben wir jedoch<br />
nur unvollständige Information, was die Komplexität auf die zweite Stufe der<br />
polynomiellen Hierarchie anhebt. In letzter Zeit wird auch diesem Gebiet in<br />
der Forschung mehr Aufmerksamkeit gewidmet. In dieser Arbeit zeigen wir,<br />
wie eine Planungssprache <strong>für</strong> klassisches Planen geschickt erweitert werden<br />
kann, um unvollständige Information auszudrücken. Zusätzlich werden wir<br />
eine schwache Form von Ungleichheit einführen und beweisen, dass Planen<br />
in dieser Sprache Sigma2P-vollständig ist. Weiters werden wir ein<br />
Planungstool entwickeln, welches das Planungsproblem auf das<br />
Erfüllbarkeitsproblem von quantifizierten, aussagenlogischen Formeln<br />
reduziert. Die Pläne von diesem Tool ist optimal bezüglich der Planlänge.<br />
Dieses Planungstool kann sowohl Planungsprobleme mit vollständiger als<br />
auch mit unvollständiger Information lösen. Wir werden einige<br />
Herausforderungen aufzeigen, um diesen exakten Ansatz wettbewerbsfähig<br />
zu machen. Hier<strong>für</strong> werden wir eine Reihe von Optimierungen vorstellen, die<br />
diese Herausforderungen unter Kontrolle bringen. Zusätzlich werden wir<br />
einen Benchmark entwickeln, um unser Tool zu testen.<br />
Lam Tung Nguyen<br />
An Efficient Algorithm For Phylogeny Reconstruction By Maximum Likelihood<br />
Studium: Masterstudium Information & Knowledge Management<br />
Betreuer: Privatdoz. Dr. Nysret Musliu<br />
Understanding the evolutionary relationships among species has been of<br />
tremendous interest since Darwin published the Origin of Species (Darwin,<br />
1859). The evolutionary history of species is typically represented as a<br />
phylogenetic tree. Nowadays, the reconstructing of the evolutionary history is<br />
still a major research topic. With the rise of molecular sequencing<br />
technologies, computational approaches have been proposed to reconstruct<br />
phylogenies. Maximum likelihood is a statistical approach for reconstructing<br />
phylogeny that gives better estimate of the true tree than other methods.<br />
However, the method is highly computational expensive. Therefore, different<br />
heuristics haven been proposed to solve this NP-hard problem. Among these<br />
IQPNNI (Vinh and von Haeseler, 2004) has been shown to have highly<br />
regarded results. Nevertheless, it requires a lot of computation time. In the<br />
present work we introduce an improved version of the IQPNNI algorithm<br />
called IQ-Tree. Here we focus on improving the run time performance of<br />
IQPNNI by proposing a fast and reliable search algorithm for phylogeny<br />
reconstruction. To this end, we used the metaheuristic Iterated Local Search<br />
(ILS) as our underlying search framework, from which the possibility of using<br />
the search history to improve performance has been identied. Based on the<br />
63
search history we propose a strategy that directs the search to move quickly<br />
through regions, in which better trees are unlikely found. Furthermore, we<br />
present a vectorization technique to speed up computations in the tree<br />
evaluation function. Our results showed that IQ-Tree runs two to four times<br />
faster than IQPNNI, while keeping the accuracy of the reconstructed<br />
phylogenies.<br />
Arbeitsbereich Distributed Systems<br />
Gabriel Kittel<br />
Survey and Taxonomy of Autonomic Large-scale Computing<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />
In the area of distributed systems, several approaches have emerged with the<br />
objective to deliver computing power as a public utility like water, gas,<br />
electricity and telephony. Cloud computing is the latest of those approaches<br />
where virtual computing infrastructure, software development platforms and<br />
applications are provisioned on demand over the Internet. Autonomic<br />
computing is a computing paradigm that promises to deliver systems<br />
adapting themselves to environmental changes by employing selfmanagement<br />
mechanisms guided by policies as an eort to address the<br />
management complexity that arises from the dynamics of resource availability<br />
and system load in large-scale computing systems. The Foundations of Selfgoverning<br />
ICT Infrastructures project (FoSII) at <strong>TU</strong> Vienna intends to enhance<br />
self-management support in existing service-oriented architectures. A survey<br />
of existing projects that introduce autonomic computing to large-scale<br />
computing systems like grids and clouds, and a taxonomy that provides<br />
classication criteria for that research eld would allow to assess the current<br />
state of research by suggesting criteria to help identify application areas,<br />
subproblems and approaches within that eld. However, such a survey and<br />
taxonomy have not yet been proposed to this day. The goal of this thesis is to<br />
systematically investigate the state of art of self-management by providing a<br />
taxonomy of autonomic large-scale computing. It presents a survey of<br />
projects and theoretical work in that eld and proposes a taxonomy that<br />
classies autonomic large-scale computing. Survey and taxonomy allow to<br />
assess the current state of research in autonomic large-scale distributed<br />
systems, thus supporting further advancements in the eld of autonomic largescale<br />
distributed computing.<br />
64
Manfred Krasnitzky<br />
Entwickeln einer Web-GUI <strong>für</strong> Service Compositions<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />
Service Orientierte Architektur (SOA) hat ein neues Paradigma in die<br />
Geschichte der Softwareentwicklung eingebracht. Neue Services können<br />
leicht erstellt werden durch das Zusammenfügen von bestehenden Services.<br />
Dies nennt man Service Composition. Herkömmliche SOA Entwicklungstools<br />
sind aber weiterhin ausschließlich <strong>für</strong> den professionellen Softwareentwickler<br />
gestaltet und konzipiert. Hier setzt die Service Composition basierend auf<br />
Mashups an. Das Hauptaugenmerk bei der Entwicklung von Mashup Tools<br />
liegt darauf, dass vor allem Personen mit entsprechendem Fachwissen aber<br />
ohne irgendwelche IT-Kenntnisse in der Lage sind, neue Service<br />
Compositions zu erstellen. Einen Schritt weiter geht die Mashup Plattform,<br />
welche am Institut <strong>für</strong> Informationssysteme der <strong>TU</strong>-<strong>Wien</strong> entwickelt wurde.<br />
Zwei neue Aspekte wurden hier <strong>für</strong> die Entwicklung von Mashups zum ersten<br />
Mal berücksichtigt: Context Awareness und Socially Enrichment. Dies führt zu<br />
dem Namen Socially Oriented Mashup (SOM). Context Awareness bedeutet,<br />
dass Kontext-Informationen berücksichtigt werden. Socially Enrichment<br />
bedeutet, dass menschliche Tätigkeiten in ein Service einbezogen werden.<br />
Die Diplomarbeit beschäftigt sich mit der Entwicklung einer graphischen<br />
Weboberfläche mit der Context Aware SOM Mashups modelliert werden<br />
können. Nach Fertigstellung des Mashup-Modells, kann auf Basis dieses<br />
Modells konkreter Programmcode generiert werden.<br />
Iwona Les<br />
Trusted Information Sharing<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />
Die Herausforderung bei kollaborativen Plattformen besteht heutzutage im<br />
Teilen von vertraulichen Informationen. Herkömmliche Lösungen <strong>für</strong> dieses<br />
Problem sind statisch definierte Zugriffsmechanismen, die einen<br />
Administrator benötigen, welcher erforderliche Berechtigungen manuell<br />
zuweist. In flexiblen kollaborativen Plattformen mit steigenden Anzahl von<br />
Benutzern werden durch ständig wechselnden Aufgaben auch die<br />
Zuständigkeitsbereiche verändert. Weiters erhöht sich die Anzahl von<br />
Interaktionen insbesondere die Datenmenge aufgrund des Informationsaustausches<br />
zwischen den Kollaborationspartnern und den serviceorientierten<br />
Applikationen erheblich. Durch ständige Beobachtungen und<br />
Analysen der Interaktionen ist das System in der Lage einen vertrauenswürdigen<br />
Kollaborationspartnern aufgrund vorhergehender Hand-lungen zu<br />
erkennen. Die als zuverlässig eingestuften Kollaboratipartnern wird ein Zugang<br />
und Austausch von Dokumenten ermöglicht. Das in diesem dyna-<br />
65
mischen Vertrauensmodell verbundene Teilen von Informationen wird in<br />
dieser Diplomarbeit erläutert. Das Konzept bezüglich der Informationsverteilung<br />
basiert auf einem Regelwerk mit dessen Hilfe die Benutzer die<br />
Bedingungen <strong>für</strong> die selektive Offenlegung von Informationen definieren. In<br />
Kombination mit der Interaktionsanalyse und dieser vorhergehenden Bedingungen<br />
wird eine Abstufung des Zugriffslevels innerhalb der einzelnen Dokumenten<br />
erreicht. Diese Arbeit beschäftigt sich mit einem Konzept, welches die<br />
selektive Offenlegung von vertrauenswürdigen Informationen umfasst. Um<br />
die Funktionalität dieses Konzeptes dazulegen wurde eine Web Anwendung<br />
entwickelt, welche eine Definition der Zugriffsbedingungen durch den<br />
Benutzer ermöglicht. Verschiedene, vorstellbare Szenarien werden in dieser<br />
Arbeit simuliert und hinreichend dokumentiert. Des weiteren erfolgt eine ausführliche<br />
Darlegung der Funktionen, welche von den Benutzern in Bezug auf<br />
die einzelnen Datenabschnitte konfiguriert und angezeigt werden können.<br />
Boris Mesetovic<br />
Comet.NET, Design and Implementation of a Bayeux Server for the .NET<br />
platform<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />
Modern Web applications increasingly rely on real-time server-initiated<br />
delivery of data to browsers. It increases the responsiveness of the<br />
application, improves the overall user experience and allows various real-time<br />
collaboration scenarios between users. This application model, in which the<br />
server delivers data to a browser via HTTP without the browser explicitly<br />
requesting it, is called Comet. Protocols and techniques defined by the<br />
Comet application model are essential for Web applications that need to<br />
asynchronously deliver events to clients. One of the recent developments in<br />
the domain of Comet Web applications is an opensource application protocol<br />
called Bayeux. It provides means of two-way and low-latency communication<br />
between the server and the client and is typically used to deliver notifications<br />
directly to Web browsers as soon as they occur. In this thesis, we present a<br />
native .NET implementation of a Bayeux server called Comet.NET. Comet.NET<br />
is a stand-alone, high-performance Bayeux server with support for both<br />
streaming and polling communication techniques. It offers synchronous and<br />
asynchronous application programming interfaces, is very scalable and robust<br />
and is designed to be easily embeddable in any .NET application. Features of<br />
Comet.NET are demonstrated by presenting Teletrader HTTP Push Service, a<br />
fully functional enterprise stock market ticker application built on top of it.<br />
Furthermore, the thesis provides a detailed evaluation of the performance<br />
and scalability of the presented solution and discusses how it compares with<br />
the reference Bayeux server implementation.<br />
66
Sanjin Sehic<br />
COPAL: An Adaptive Approach to Context Provisioning<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Univ.Prof. Dr. Schahram Dustdar<br />
Context-awareness is one of the cornerstones of mobile and ubiquitous<br />
computing. It refers to the idea that an application can understand its context<br />
to reason about its current situation and perform suitable operations based<br />
on this knowledge. Moreover, as the situation changes over time, the<br />
application should adapt its behavior according to new circumstances, which<br />
would increase its usability and effectiveness. This thesis introduces the<br />
COPAL (COntext Provisioning for ALl) middleware an adaptive approach to<br />
context provisioning. The COPAL middleware is a flexible and scalable<br />
context-aware service platform that provides a new publish-process-listen<br />
programming model. Its loosely-coupled and modular implementation allows<br />
the system to be customized for different use-cases and deployed on<br />
different platforms. The COPAL programming model separates the task of<br />
context-awareness into three independent steps supported by three looselycoupled<br />
components: publishers, processors, and listeners. This component<br />
design enables developers to progressively extend the system to support new<br />
types of context information and various context-aware applications.<br />
Furthermore, the thesis presents a customizable processing mechanism that<br />
dynamically couples context information with its processing. This mechanism<br />
is the key concepts in the COPAL middleware by which a wide range of<br />
operations can be carried out. Most importantly, it can be used to infer new<br />
context information and to provide some context information at different<br />
levels of granularity.<br />
67
Institut <strong>für</strong> Rechnergestützte Automation<br />
Arbeitsbereich Computer Vision<br />
Angelika Garz<br />
Efficient Layout Analysis of Ancient Manuscripts Using Local Features<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
A binarization-free layout analysis method for ancient manuscripts is<br />
proposed, which identifies and localizes layout entities exploiting their<br />
structural similarities on the local level. Thus, the textual entities are<br />
disassembled into segments, and a part-based detection is done which<br />
employs local gradient features known from the field of object recognition,<br />
the Scale Invariant Feature Transform (SIFT), to describe these structures. As<br />
the whole entity cannot directly be inferred from the mere positions of the<br />
interest points, a localization algorithm is needed that expands the interest<br />
points according to their scales and the classification score to regions that<br />
encapsulate the whole entity. Hence, a cascading algorithm is proposed that<br />
successively rejects weak candidates applying voting schemes. Layout<br />
analysis is the first step in the process of document understanding; it<br />
identifies regions of interest and hence, serves as input for other algorithms<br />
such as Optical Character Recognition. Moreover, the document layout<br />
allows scholars to establish the spatio-temporal origin, authenticate, or index<br />
a document. The evaluation shows that the method is able to locate main<br />
body text in ancient manuscripts. The detection rate of decorative entities is<br />
not as high as for main body text but already yields to promising results.<br />
Karl-Heinz Nenning<br />
Mirror Visual Feedback Therapy for Phantom Pain: Changes in Functional<br />
Connectivity Patterns<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
68<br />
Mirror Visual Feedback Therapy (MVFT) offers efficient non-invasive treatment<br />
for patients suffering from phantom limb pain. It is hypothesized to cause<br />
functional remodeling of neural networks in the patients brain, what induces<br />
a relief in phantom pain. However, details about the functional remodeling of<br />
the brain are not yet fully understood and are a current topic of research. In<br />
this thesis, subject-specific parcellation of functional Magnetic Resonance<br />
Imaging (fMRI) data is utilized and subsequent model map analysis is<br />
employed to quantify changes of functional connectivity patterns related to<br />
MVFT success. Subject-specific functional parcellation is employed in order to<br />
form functionally homogeneous working regions of interest, which adapt to
the functional and anatomical characteristics of every subject in the study<br />
population. Moreover, a dimensionality reduction of the datasets is achieved,<br />
facilitating further computationally intensive analysis. The functional<br />
connectivities between the obtained parcels are quantified by mapping their<br />
affinities in a new metric space of Euclidean distances. Thus, the functional<br />
relations between the fMRI signals are translated into spatial distances in the<br />
functional geometry. Applying subject-specific functional parcellation and<br />
furthermore the quantification of the parcel-wise functional connectivities on<br />
a group of interest, comprising pre- and post-MVFT data, allows to identify<br />
differentiating functional connectivity patterns related to MVFT success. The<br />
results obtained endorse the hypothesis of functional reorganization of the<br />
brain. The results show that brain regions, responsible for the movement of<br />
the amputated leg, are involved with the brains functioning during the<br />
movement of the healthy leg after the MVFT. However, due to the small<br />
dataset (a maximum of 5 pre- and 5 post-MVFT data for left leg amputees) the<br />
results can only be hypothesized.<br />
Arbeitsbereich Automatisierungssysteme<br />
Jasmin Adamer<br />
Evaluation Criteria for Security Testing Tools<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Testen von Software ist heutzutage essentiell, um den Sicherheitsgrad von<br />
Software-Produkten möglichst hoch zu halten. Da<strong>für</strong> stehen bereits diverse<br />
automatisierte Testwerkzeuge zur Verfügung. Durch die Vielzahl an angebotenen<br />
Werkzeugen ist es schwierig, einen Überblick über die unterschiedlichen<br />
Funktionalitäten zu erhalten. Daher wurde ein Kriterien-katalog<br />
erarbeitet, der auf definierten und in der Community publizierten Auswahlkriterien<br />
<strong>für</strong> Sicherheitswerkzeuge aufbaut. Darauf basierend wird ein Auswahlverfahren<br />
erarbeitet, das den Tester bei der Auswahl eines optimal geeigneten<br />
Testwerkzeugs unterstützt, um Sicherheitslücken rasch und effizient<br />
aufzudecken. Der Schwerpunkt wurde auf Sicherheitswerkzeuge gesetzt, die<br />
auf fuzz testing spezialisiert sind. Beim fuzz testing werden ungültige, unerwartete<br />
oder falsche Eingabewerte verwendet um ein Fehlverhalten der Applikation<br />
beziehungsweise einen Systemabsturz zu verursachen und dadurch<br />
Sicherheitsschwachstellen aufzudecken. Der Punkt Automatisierung spielt<br />
eine wichtige Rolle, da die Werkezuge im Stande sein sollen, sowohl die Testfälle<br />
selbstständig zu erstellen und durchzuführen als auch die Ergebnisse zu<br />
analysieren und vergleichen. Die Evaluierungskriterien werden ausführlich<br />
beschrieben, um Nachvollziehbarkeit zu erreichen. Weiters wird <strong>für</strong> jedes<br />
Kriterium angegeben, wie auf dessen Erfüllbarkeit überprüft werden kann.<br />
Der Prozess wird an vier verschiedenen Werkzeugen angewandt, um beispielhaft<br />
dessen Verwendung darzustellen. Mit Hilfe der vorgestellten Kriterien<br />
69
soll es jedem Tester möglich sein, Sicherheitswerkzeuge zu vergleichen und<br />
ein <strong>für</strong> die bevorstehenden Tests geeignetes Werkzeug auszuwählen. Außerdem<br />
konnte gezeigt werden, dass keines der gewählten Sicherheitswerkzeuge<br />
vollautomatisiert ist, da stets manueller Eingriff notwendig ist,<br />
um die Testresultate mit den gewünschten Ergebnissen zu vergleichen.<br />
Thomas Artner<br />
Konzeption und Entwurf eines Frameworks zur Unterstützung der<br />
Testdurchführung in sicherheitskritischen serviceorientierten Umgebungen<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Serviceorientierte Architekturen gelten bei Neuentwicklungen im<br />
Unternehmensbereich meist als die erste Wahl. Eigenschaften dieses<br />
Architekturstils, wie z.B. lose Kopplung, ermöglichen eine Vielzahl von<br />
unvorhergesehenen Integrationsszenarien, die nicht in jeder möglichen<br />
Ausprägung getestet werden können. Durch diesen Umstand wird die<br />
Relevanz sorgfältig geplanter Testdurchführung stark erhöht. In<br />
sicherheitskritischen serviceorientierten Architekturen wird die<br />
Testdurchführung durch den Einsatz kryptografischer Methoden noch weiter<br />
erschwert. Der Zugriff auf Applikationsdaten ist nicht mehr ohne weiteres<br />
möglich, und eine gänzliche Deaktivierung der Kryptografie würde das<br />
Gesamtverhalten des Systems zu stark beeinträchtigen. Die vorliegende<br />
Arbeit beschreibt Konzepte, die es ermöglichen, Applikationsdaten zu<br />
entschlüsseln, ohne das Gesamtsystem in zu hohem Maße zu belasten. Das<br />
erste Konzept beschreibt ein Verfahren zur Entschlüsselung von SSL/TLS<br />
Datenströmen zur Extraktion der Applikationsdaten, nachdem diese<br />
aufgezeichnet wurden. Das zweite Konzept beschreibt einen Ansatz, bei dem<br />
Proxies zwischen Servicekomponenten die ausgetauschten Nachrichten<br />
mitprotokollieren und zur Verifikation zur Verfügung stellen. Vor- und<br />
Nachteile sowie die Einsatzmöglichkeiten des jeweiligen Konzept werden in<br />
einer Testumgebung evaluiert und beschrieben.<br />
Stefan Bachl<br />
Effects of Personal Displays and Transfer Techniques on Collaboration in<br />
Multi-touch Based Multi-display Environments<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
70<br />
Computerumgebungen mit mehreren Bildschirmen (Multi-display environments,<br />
MDE) bestehen aus ein oder mehreren gemeinsam verwendeten<br />
Displays und zusätzlichen Geräten mit Bildschirmen <strong>für</strong> jeden Kollaborator.<br />
Die zunehmende Verfügbarkeit von mobilen Geräten, wie zum Beispiel<br />
Mobiltelefone oder Tablet Computer (Tablets), bietet eine Möglichkeit deren
Integration in MDEs zu untersuchen. Jedoch existieren kaum Informationen,<br />
wie digitale Dokumente zwischen mehreren multi-touch Geräten<br />
ausgetauscht werden können, sowie über die Bedeutung von persönlichen<br />
Geräten in digital unterstützten Computerumgebungen. In dieser Arbeit wird<br />
die Implementierung einer MDE mit multi-touch Eingabemöglichkeit auf<br />
sowohl der geteilten multi-touch Arbeitsfläche als auch auf den persönlichen<br />
Tablets präsentiert. Das entwickelte System wurde in Bezug auf Effizienz,<br />
Benutzerpräferenzen und Kollaborationsstrategien evaluiert und mit einem<br />
herkömmlichen multi-touch System verglichen. Eine Bedingung stellte<br />
ausschließlich die geteilte multi-touch Arbeitsfläche zur Verfügung, drei<br />
weitere Bedingungen inkludierten zusätzlich die persönlichen multi-touch<br />
Tablets. In den Bedingungen mit den Tablets konnten Teilnehmer digitale<br />
Dokumente mit je einer von drei spezifisch entwickelten Technik von der<br />
geteilten Arbeitsfläche auf ihre Tablets transferieren. Basierend auf der<br />
Analyse von Beobachtungen, Protokollen, Videoaufnahmen, Interviews und<br />
Fragebögen wurden vier unterschiedliche Kollaborationsstrategien im Bereich<br />
von MDEs identifiziert. Obwohl die Benutzer die Kollaboration mit den Tablets<br />
bevorzugten, ist die Effizienz und die Intensität der Zusammenarbeit höher in<br />
der Bedingung ohne Tablets. Die zusätzliche Verwendung von Tablets<br />
bewirkte keine Verschlechterung des Bewusstseins über die Aktivitäten der<br />
Arbeitspartner. Die Verwendung der Tablets ermöglichte den Benutzern,<br />
unterschiedliche Strategien zur Lösung der Aufgabe zu verfolgen.<br />
Klaus Bayrhammer<br />
Design and Implementation of an Integration Framework for an Electronic<br />
Health Record Based Hospital Information System<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
The purpose of this thesis was to design and implement an architecture for a<br />
hospital information system, which provides an infrastructure for easy<br />
integration of external systems. Because of the complexity of managing<br />
information in hospital environments, there are several specialized systems<br />
which may have different architectures as well as different scopes of<br />
functions and therefore incompatible interfaces. In order to allow those<br />
specialized systems to exchange data they have to be integrated into an<br />
information system. Therefore, the hospital's core information system has to<br />
provide an open architecture which supports integration on a system level.<br />
During the course of this thesis an integration framework for a hospital<br />
information system has been developed. The system uses persistent one-way<br />
messaging which supports loose coupling and complies with the style of<br />
service oriented architectures. In addition, the architecture is based on a<br />
complex rule based event system which is responsible for the distribution of<br />
the messages. This system has been connected to a data storage, which<br />
holds patient information based on the OpenEHR standard. Considering the<br />
low complexity that is required for integrating systems as well as the technical<br />
71
enefits which come along using this architecture, the usage of service<br />
oriented architectures in the health care context seems to be promising. In<br />
addition, a message distribution which is controlled by a rule engine enables<br />
the system to exchange or integrate new subsystems at runtime.<br />
Ufuk Dikme<br />
Web 2.0 als digitale Präservierungsmethode gegen linguistische Extinktion<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />
Das Hauptthema dieser Arbeit ist das Eruieren der<br />
Verwendungsmöglichkeiten von Web-2.0-Tools und Anwendungen im<br />
Bereich der Sprachpräservierung. Die Arbeit gibt einen Überblick über die<br />
Relevanz der menschlichen Sprache in Hinsicht auf Kultur und Wissenschaft.<br />
Zudem wird der im Zuge der Arbeit entwi-ckelte Sprachpräservierungsprozess<br />
beschrieben. Die Resultate der Recherche über den Status Quo der Tools und<br />
Anwendungen im Web 2.0 werden präsentiert und ihre didaktische<br />
Bedeutung wird angeführt. Danach werden die herausgearbeiteten Web-2.0-<br />
Tools und Anwendungen auf Verwendbarkeit <strong>für</strong> die Sprachpräservierung<br />
geprüft. Den Abschluss der Arbeit bildet die konzeptionelle Darstellung und<br />
Beschreibung der Lernplattform Zaza. Die Plattform dient als Beispiel <strong>für</strong> die<br />
Verwendung von Web 2.0 zur Sprachpräservierung anhand der bedrohten<br />
Sprache Zazaki. Sie beinhaltet multimediale Artikel in Form eines Blogs <strong>für</strong><br />
Lehrende, Lernende und Interessierte. Des Weiteren beinhaltet die Plattform<br />
auch Inhalte <strong>für</strong> den Unterricht, wie z. B. Übungsbeispiele zum Erlernen der<br />
Sprache, ein einsprachiges und ein mehrsprachiges Online-Wörterbuch.<br />
Markus Gassner<br />
Global Joint Artifacts for Outsourced Software Testing<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
72<br />
Soziale Netzwerke wie Facebook, Xing oder LinkedIn fördern unter anderem<br />
die Vernetzung von einander unbekannten Menschen basierend auf geteilten<br />
Interessen und Aktivitäten. Es gibt allerdings heutzutage noch keine Plattform,<br />
die einen Austausch und Vernetzung hinsichtlich gemeinsamer Aufgabenstellungen<br />
ermöglicht. Die vorliegende Arbeit setzt sich als Ziel, die<br />
Anforderungen an eine solche Plattform zu erheben, die die bestehenden<br />
Netzwerke erweitert. Dabei wurde der Begriff Global Joint Artifacts (GJA) neu<br />
eingeführt. In der Software-Entwicklung werden un/fertige Arbeitspakete<br />
bzw. Projektteile häufig als Artefakte bezeichnet. GJAs sind somit global<br />
verteilte, aber miteinander verbundene Artefakte. Neben diesem abstrakten<br />
Konzept trägt auch die zu entwerfende Plattform den Namen "Global Joint<br />
Artifacts". Zunächst wurde eine theoretische Recherche durchgeführt, um
unterschiedliche Trends, den State of the Art und technologische<br />
Möglichkeiten aufzuzeigen. Dabei fokussiert die vorliegende Arbeit den<br />
global verteilten Softwaretest, wenn Menschen mit ihren Artefakten, sowie<br />
die Artefakte miteinander verbunden werden. GJA soll im Software-Test<br />
verwendet werden können, um Arbeitspakete, Bestandteile der Software-<br />
Entwicklung, Software-Fehler und grundsätzlich das Wissen im Projekt zu<br />
verwalten. Zur praktischen Anwendung der theoretischen Erkenntnisse wurde<br />
ein Prototyp von GJA implementiert, der die erarbeiteten Anforderungen<br />
erfüllt. Er soll aufzeigen, dass der Wert ursprünglich alleinstehender<br />
Information durch die Verbindungen erhöht wird. Auch Benutzer an verteilten<br />
Standorten können so am Wissensaustausch und der Wissensverteilung<br />
teilnehmen. Als Ergebnis der Arbeit wurde der GJA Prototyp mit<br />
ausgewählten Systemen der Software-Entwicklung und -Test verglichen,<br />
wobei deutlich gezeigt werden konnte, dass GJA deutlich dazu beiträgt, rasch<br />
auf ähnliche Daten zuzugreifen und Wissensträger aufzufinden, Redundanzen<br />
vermeidbar und Synergien nutzbar gemacht.<br />
Johann Grabner<br />
Entwurf und Entwicklung eines semantisch gestützten<br />
Dokumentenmanagementsystems <strong>für</strong> eine große dezentrale Organisation<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Das World Wide Web befindet sich im Übergang vom Web 2.0 zum Semantic<br />
Web, und die Berücksichtigung der Semantik von Informationen bei der<br />
Verarbeitung gewinnt zunehmend an Bedeutung. Im Rahmen der<br />
vorliegenden Arbeit werden die Grundlagen des Semantic Webs diskutiert<br />
und die aktuelle wissenschaftliche Auseinandersetzung mit dem Bereich des<br />
Dokumentenmanagements dargestellt. Im praktischen Teil dieser Arbeit wird<br />
<strong>für</strong> die Organisationseinheiten Organisation und Koordination und Gebäude<br />
und Technik der <strong>Technische</strong>n Universität <strong>Wien</strong> ein Dokumentenmanagementsystem<br />
in Form einer semantischen Web-Applikation entworfen und als<br />
Prototyp implementiert. Anhand der Bewältigung der Aufgabestellung aus<br />
der Praxis wird gezeigt, welche Möglichkeiten sich beim Einsatz semantischer<br />
Technologien im Dokumentenmanagement eröffnen. Das abgebildete<br />
Wissen aus dem Anwendungsbereich liefert die Basis und den Kontext <strong>für</strong> die<br />
automatisierte Verarbeitung von Daten. Die Arbeit resultiert in der<br />
Entwicklung eines Systems zur kollaborativen Beschlagwortung von<br />
Dokumenten, das den Benutzer bei der Ablage und Suche mit fachlichen<br />
Empfehlungen assistiert.<br />
73
Ingrid Kail<br />
Game Based Learning <strong>für</strong> Programmieranfänger/innen<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />
E-Learning ist heutzutage ein geläufiger Begriff und hat sich heute<br />
weitgehend in österreichischen Bildungsstätten etabliert. Eine Unterkategorie<br />
ist Digital Game Based Learning. Nach wie vor wird häufig unterschätzt,<br />
welche positive Auswirkungen Lernspiele auf Motivation und Lernbereitschaft<br />
haben können. Ein Problem vieler Lernender ist das Verständnis von<br />
Programmabläufen. Im Rahmen der Arbeit soll ein Konzept eines Lernspiels<br />
entwickelt werden. UserInnen sollen auf Basis des Spiels bzw. der Spielregeln<br />
zu einem besseren Verständnis <strong>für</strong> die Algorithmuslogik gelangen. Mit Hilfe<br />
der Theorieteile werden sie an die Programmiersprache Java herangeführt.<br />
Die Besonderheit dieses Konzepts ist der Vorrang der Freude am Spiel,<br />
wodurch das Lernen unterbewusst und intuitiv passiert. Das Konzept soll sich<br />
nicht nur durch einen schnelleren Fortschritt beim Erlernen eines neuen<br />
Programms bewähren, sondern auch ein besseres Verständnis <strong>für</strong><br />
Programmierlogik zur Folge haben. Der aktuelle Wissensstand von<br />
psychologischen Erkenntnissen des menschlichen Lernprozesses wird<br />
analysiert. Vorhandene Definitionen, Grundlagen und Methoden des Game<br />
Based Learning werden untersucht und der Lehrplan des <strong>Informatik</strong>unterrichts<br />
in der 9. Schulstufe AHS, sowie häufig auftretende Barrieren von Anfänger-<br />
Innen evaluiert. Auf Basis der zugrunde liegenden Erkenntnisse wird<br />
schließlich ein Spiel konzipiert und teilweise tatsächlich umgesetzt, welches<br />
die aus der Literaturanalyse gewonnenen Resultate bestmöglich<br />
berücksichtigt und integriert. Es gibt bereits zahlreiche Lernspiele <strong>für</strong><br />
ProgrammieranfängerInnen, welche jedoch Grundkenntnisse über die<br />
jeweilige vorausgesetzen. Dadurch bleiben Verständnisfragen oft<br />
unbeantwortet. Das konzipierte Lernspiel unterscheidet sich von anderen<br />
Lernspielen durch die Herangehensweise. Die SpielerInnen benötigen keine<br />
Vorkenntnisse und erlernen erst durch das Spielen die Programmierlogik. Das<br />
Verständnis <strong>für</strong> die Vorgehensweise beim Programmieren soll intuitiv<br />
erfolgen.<br />
Markus Kammerstetter<br />
Real-time Encrypted Speech Communication Over Low <strong>Band</strong>width Channels<br />
Studium: Indivdiuelles Masterstudium: Computer and Network Security<br />
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
74<br />
Today, electronic speech-telephony and -communication is broadly available<br />
through a number of different media and technologies. However, even<br />
though billions of users use these systems every day, the technologies<br />
employed may have security vulnerabilities allowing potential attackers to<br />
eavesdrop on the conversation, impersonate users or mount other attacks.
Hence to protect their users, it is of utter importance that these<br />
communication systems have a robust design involving strong cryptography<br />
to ensure information security properties like confidentiality, integrity or<br />
authenticity. If users need to a have private conversations over those media,<br />
they usually need to use secure phone products that offer end-to-end<br />
encryption between the involved parties. However, as these systems are<br />
often based on closed designs, the users have to trust these products to be<br />
secure. We show that there are bogus products on the market that bring no<br />
significant security improvements, resulting in users who merely think that<br />
their conversations are secure, although in reality they are not. To tackle<br />
these issues, we developed a new and versatile stand-alone system that has a<br />
number of advantages over existing secure telephony products. The working<br />
prototypes comprise of customly designed embedded hard- and software that<br />
can be connected to a broad range of communication media. One of the key<br />
features is the ultra low bandwidth requirement of 9600 baud and below,<br />
enabling its use over very low bandwidth channels. We based our design<br />
entirely on standardized, established and widely-used cryptographic<br />
primitives providing a high amount of security. In fact, our system does not<br />
only allow secure conversations with the information security properties<br />
confidentiality, integrity and authenticity, but it also provides Perfect Forward<br />
Secrecy (PFS), repudiation and a certain degree of plausible deniability.<br />
Harald Köstinger<br />
Entwurf und Entwicklung der klinischen Anwendung eines EHR-basierten<br />
Krankenhausinformationssystems<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Im Bereich eines Krankenhausinformationssystems (KIS) sind verschiedene<br />
Einzelsysteme im Einsatz, die den Arbeitsalltag im Krankenhaus erleichtern<br />
sowie das Personal in ihrer Arbeit unterstützen. Ein wichtiger Bestandteil<br />
solcher KIS sind zentral gespeicherte elektronische Patientenakten (EPA).<br />
Zunächst werden im Rahmen der vorliegenden Arbeit die aktuellen Trends in<br />
diesem Forschungsbereich sowie verbreitete Standards und deren<br />
Eigenschaften beleuchtet und diskutiert. Für KIS existieren heute praktisch<br />
keine Open Source Software Pakete, die <strong>für</strong> den wissenschaftlichen Bereich<br />
geeignet sind. Das Ziel dieser Arbeit ist somit der Entwurf und die<br />
Entwicklung einer klinischen Anwendung eines Electronic Health Record<br />
(EHR)-basierten KIS auf Basis von openEHR, die auf eine existierende<br />
Integrationsarchitektur <strong>für</strong> openEHR aufbaut. Im Rahmen der Umsetzung<br />
wurde eine patientensynchronisierte Anwendung erstellt, die die Darstellung<br />
medizinischer Daten aus dem openEHR Backend ermöglicht. Der Fokus<br />
hierbei lag auf der Entwicklung einer Komponente, die dynamisch die<br />
Darstellung der archetypbasierten Patientenakten, wie sie im openEHR<br />
Standard definiert sind, übernimmt. Zugleich wurde aufbauend auf die<br />
existierende Integrationsarchitektur und deren Services eine serviceorientierte<br />
75
Komponente entwickelt, die exemplarisch einen Anonymisierungsservice <strong>für</strong><br />
die medizinischen Daten anbietet, systemunabhängige Schnittstellen <strong>für</strong> eine<br />
patientensychronisierte Anwendung zur Verfügung stellt und einen Patienten<br />
Master-Index (PMI) implementiert. Das entwickelte Frontend <strong>für</strong> die medizinischen<br />
Daten implementiert einen Großteil der in openEHR vorgesehenen<br />
Eingabeelemente und unterstützt die Darstellung von Templates. Die<br />
implementierte serviceorientierte Architektur ermöglicht die systemunabhängige<br />
Verwaltung und Verarbeitung von patientensynchronisierten Anwendungen<br />
innerhalb eines KIS und stellt Methoden bereit, welche Anbindungen<br />
<strong>für</strong> webbasierte, Intra- und Internet basierte Software bieten.<br />
Andrej Lehotsky<br />
Structuring and Enhancing IT Security in Core Mobile Phone Use Cases<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Mobile phones are emerging to personal mobile devices, which can already<br />
replace a personal computer in many use cases. But their overall security<br />
mechanisms are not sufficient. The data stored in today's devices are much<br />
more personal then data stored on any other device we use. The focus in this<br />
thesis are operating systems and additional installed applications. The mobile<br />
phone attack surface is examined and based on it, possible and by<br />
researchers documented examples of threats are summarized. Since the<br />
mobile and fixed environments have their differences, these are outlined as<br />
the consideration for improvement approaches. Because of the human factor,<br />
some results of awareness surveys are presented and discussed. Due to<br />
limited resources of mobile phones (mainly power supply and size and/or<br />
weight), the current research in this field mainly concentrates on off-device<br />
(cloud) security services. These off-device security services are now the only<br />
solution to save power supply consumption while inferring possible attacks.<br />
Another focus is the virtualization and problems interconnected with<br />
installation of new applications. Summing up, this thesis proposes a mobile<br />
phone attack surface including open problems, which have to be solved to<br />
improve the overall security of mobile phones.<br />
Martina Lindorfer<br />
Detecting Environment-Sensitive Malware<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Privatdoz. Dr. Engin Kirda<br />
76<br />
Malware poses one of the Internets major security threats today. Due to the<br />
vast amount of new malware samples emerging every day, researchers and<br />
Anti-Virus vendors rely on dynamic malware analysis sandboxes such as<br />
Anubis to automatically analyze malicious code in a controlled environment.
In order to evade detection by these sandboxes, environment-sensitive<br />
malware aims to differentiate the analysis sandbox from a real user's<br />
environment. In the absence of an "undetectable", fully transparent analysis<br />
sandbox, defense against sandbox evasion is mostly reactive: Sandbox developers<br />
and operators tweak their systems to thwart individual evasion<br />
techniques as they become aware of them, leading to a never-ending arms<br />
race. In this thesis we present DISARM, a system that automates the screening<br />
of malware for evasive behavior using different analysis sandboxes. We<br />
present novel techniques that normalize malware behavior across these<br />
analysis sandboxes and detect malware samples that exhibit semantically<br />
different behavior. We further present a light-weight monitoring technology<br />
that is portable to any Windows XP environment. Nevertheless, our<br />
techniques are compatible with any monitoring technology that can be used<br />
for dynamic malware analysis and are completely agnostic to the way that<br />
malware achieves evasion. In a large-scale evaluation on real-world malware<br />
samples we demonstrate that DISARM can accurately detect evasive malware,<br />
leading to the discovery of previously unknown evasion techniques.<br />
Markus Oberreiter<br />
Evaluierung, Konzipierung und Härtung eines Testprozesses <strong>für</strong><br />
automatisierte Regressionstests in einem mittelgroßen Entwicklungsszenario<br />
Studium: Masterstudium Medieninformatik<br />
Betreuer: Em.O.Univ.Prof. Dr. Gerhard Helge Schildt<br />
Softwaretests kommt heutzutage bei den schnelllebigen Entwicklungszyklen<br />
von unterschiedlichen Softwareprodukten besonders große Bedeutung zu.<br />
Softwareprojektmanager sind heutzutage mit immer engeren Terminvorgaben<br />
konfrontiert und stehen unter dem Druck, Kosten zu reduzieren.<br />
Dadurch wird oft zu wenig Aufmerksamkeit auf das Testen von Software<br />
gelegt, sodass die nachträgliche Korrektur von Fehlern beim marktreifen<br />
Produkt häufig mit hohen Kosten verbunden ist. Im Rahmen der vorliegenden<br />
Arbeit wird nach einem Überblick zum aktuellen Forschungsstand im Bereich<br />
des Software Testens und einem Vergleich vorhandener State-of-the-Art<br />
Testwerkzeuge ein Kriterienkatalog erarbeitet und darauf basierend ein effizienter<br />
Testprozess definiert. Speziell bei einer inkrementellen Softwareentwicklung<br />
ist es notwendig, automatisierte Regressionstests mit einem<br />
Testwerkzeug durchzuführen. Die Vorteile automatisierter gegenüber manueller<br />
Regressionstests werden eingehend erläutert. Im Rahmen eines Fallbeispiels<br />
werden etablierte Softwaretestprozesse eines Unternehmens exemplarisch<br />
näher untersucht und Schwachstellen identifiziert. Basierend auf den<br />
Analysen wurde ein neu definierter Testprozess erarbeitet und prototypisch<br />
umgesetzt. Dabei konnte gezeigt werden, dass die Qualität des User-Acceptance-Tests<br />
durch den neuen Prozess deutlich gesteigert werden konnte,<br />
da durch die Einführung des Integrations- und Systemtests schon viele Fehler<br />
vor dem Abnahmetest beseitigt werden konnten. Eine wesentliche Verbesserung<br />
im Testprozess brachte der Regressionstest, wobei einige Testfälle mit<br />
77
dem Tool HP QuickTest Professional umgesetzt und Kernfunktionalitäten der<br />
betrachteten Businessprozesse abgedeckt wurden. Diese Regressionstests<br />
stehen nun <strong>für</strong> weitere Tests zur Verfügung, wodurch sich eine enorme Zeitund<br />
somit Kostenersparnis ergibt.<br />
Daniela Popovic<br />
Exemplarische Sicherheitsanalyse und Sicherheitsmaßnahmen am Beispiel der<br />
Österreichischen Hochschülerinnen und Hochschülerschaftswahl<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Sicherheit in E-Voting Systemen bezieht sich nicht nur auf die verwendete<br />
Wahlsoftware, sondern auf die gesamte Infrastruktur, einschließlich<br />
organisatorischer und menschlicher Aspekte. Damit die Sicherheit bei<br />
elektronischen Wahlen garantiert werden kann, müssen Maßnahmen geschaffen<br />
werden, um die Schutzziele Vertraulichkeit, Integrität und Verfügbarkeit<br />
zu gewährleisten und in Folge mögliche Sicherheitsrisiken zu minimieren. Um<br />
diese Hypothese zu prüfen, wird der E-Voting Prozess der Österreichischen<br />
Hochschülerinnen- und Hochschülerschaft mit Hilfe des, vom Deutschen<br />
Bundesamt <strong>für</strong> Sicherheit in der Informationstechnik zur Verfügung gestellten<br />
Sicherheitsprozesses analysiert. Dabei wird zuerst eine Sicherheitsanalyse des<br />
IST-Zustands vorgenommen, die sich mit exemplarischen Bedrohungen und<br />
Risiken <strong>für</strong> sensible Daten im Kontext des E-Voting Systems (clientseitig, in<br />
der Übertragungsphase und serverseitig) beschäftigt, um schlussendlich aus<br />
den Ergebnissen der Analyse ausgewählte Sicherheitsmaßnahmen abzuleiten.<br />
Cornelia Preier<br />
Analyse und Entwurf eines Anforderungs- und Kriterienkatalogs <strong>für</strong> ein<br />
telemedizinisches Notrufsystem (Caritas)<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Em.O.Univ.Prof. Dr. Gerhard Helge Schildt<br />
78<br />
Ein Notrufsystem ist ein unterstützendes System, das Notrufe von Hilfsbedürftigen<br />
weiterleitet, sodass zuverlässig und rasch Hilfe geleistet werden<br />
kann. In diesem System erfolgt die Bereitstellung von Gesundheitsdaten mit<br />
Hilfe von Informations- und Telekommunikationstechnologien, die die Versorgung<br />
und Unterstützung des Patienten gewährleisten. Die Technik hat sich in<br />
den letzten 30 Jahren nicht grundsätzlich verändert. Dies stellt alle Beteiligten<br />
zunehmend vor Probleme. Es wird der Fokus auf das Fallbeispiel Caritas und<br />
Notruf 144 NÖ gelegt. Aufbauend auf einer Anforderungsanalyse wird die<br />
Gebrauchstauglichkeit analysiert. Ziel ist die Ermittlung von Mindestanforderungen,<br />
die erfüllt sein müssen, damit das System <strong>für</strong> alle Beteiligten benutzbar<br />
ist. Die vorgeschlagenen Verbesserungen sollen durch eine Erhebung<br />
bei den involvierten Akteuren auf Tauglichkeit überprüft werden. Die er-
mittelten Mindestanforderungen werden hinsichtlich Gebrauchstauglichkeit<br />
an den Usability-Kriterien Effektivität, Effizienz und Zufriedenheit gemessen.<br />
In Anlehnung an den DATech Leitfaden <strong>für</strong> Usability werden die Anforderungen<br />
auf Basis der Informationen, die aus der Analyse der Vor- und<br />
Nachteile stammen, überprüft. Der Nichterfüllungsgrad der Anforderungen<br />
wird ermittelt. Das derzeitige System baut auf eine rein subjektive Ablaufsteuerung,<br />
Einschätzung der Situations- und Informationsweitergabe, als<br />
auch auf der redundanten Ermittlung der Notfalldaten auf. Essentiell sind die<br />
ungenügend genutzte Möglichkeit des elektronischen Datenaustausches und<br />
die fehlende Integration von verfahrensunterstützenden Maßnahmen. Die<br />
Ergebnisse der Erhärtungsanalyse zeigen auf, dass dringender Handlungsbedarf<br />
hinsichtlich der Integration von GPS und Biosignalen in einem<br />
integrierten Systemablauf besteht. Ausgehend der Ergebnisse der Erhärtungsanalyse<br />
erfolgt die Skizzierung von Maßnahmen, welche eine<br />
Verbesserung der Prozessabläufe und somit schlussendlich der Gebrauchstauglichkeit<br />
bewirken.<br />
Reinhard Raschbauer<br />
Methoden zur Positionsbestimmung <strong>für</strong> autonome Fahrzeuge<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Autonome selbstfahrende Roboter, so genannte Automated Guided Vehicles<br />
(AGVs), finden in der heutigen Zeit immer weitere Verbreitung. Sie werden in<br />
vielen Bereichen der Wirtschaft und Industrie, aber auch zunehmend im<br />
städtischen Verkehr oder der Landwirtschaft eingesetzt. Damit ein AGV seine<br />
Aufgaben bestmöglich erfüllen kann, ist es fundamental, dass seine Position<br />
hochgenau bestimmt werden kann. Global Positioning System (GPS) ist die<br />
gegenwärtig am häufigsten verwendete Lösung zur Positionsbestimmung.<br />
Konventionelle GPS-Empfänger verfügen aber nicht über die notwendige<br />
Genauigkeit, um sie <strong>für</strong> AGVs verwenden zu können. Ziel der vorliegenden<br />
Diplomarbeit ist es, Methoden zu entwickeln, mit denen es möglich ist, die<br />
Position von AGVs hochgenau zu bestimmen. Dazu sollen konventionelle<br />
GPS-Empfänger sowie zusätzliche Sensordaten des AGVs zum Einsatz kommen.<br />
Durch die Verwendung spezieller Algorithmen soll diese Positionsgenauigkeit<br />
erreicht werden. Einleitend werden die Grundlagen Satellitenbasierter<br />
Positionsbestimmung anhand von GPS erläutert. Aufbauend darauf<br />
werden hochgenaue Positionierungssysteme diskutiert. Kernpunkt dieser<br />
Arbeit ist der Entwurf von neuen Methoden zur Realisierung solcher Systeme.<br />
Zur Steigerung der Genauigkeit der GPS-Messung werden Real Time Kinematic<br />
(RTK)-Algorithmen verwendet. Weiters wird die Geschwindigkeit des<br />
AGVs mittels der Dopplerfrequenz der GPS-Signale berechnet. Die so<br />
erzeugten Daten werden anschließend mit einem stochastischen Systemintegrationsfilter<br />
optimal mit den lokalen Sensordaten kombiniert. Zwei<br />
Ansätze wurden verfolgt, die sich darin unterscheiden, wie die Messwerte<br />
kombiniert werden. Einerseits werden die Subsysteme einzeln umgesetzt und<br />
79
anschließend ihre Ausgangswerte kombiniert. Andererseits werden alle Subsysteme<br />
direkt im stochastischen Filter integriert. Zur Evaluierung des<br />
entwickelten Konzepts wurden beide Algorithmen implementiert und mit<br />
einer kommerziellen RTK-basierten Positionierungslösung verglichen.<br />
Stefan Reiterer<br />
Design and Development of a task-based Code Review Tool for an Air Traffic<br />
Management System<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Software reviews are one of the most efficient quality assurance techniques<br />
in software engineering. They are used to find defects in early stages of a<br />
projects progress and help team members to get a better understanding of<br />
the code. Undetected defects during the software development process can<br />
have significant consequences, such as reduced customer satisfaction,<br />
increased safety risk and decreased productivity of the users. In order to avoid<br />
them, development teams use software reviews to improve the quality of the<br />
product by reviewing interim deliverables during the development. In the last<br />
thirty years several formal and less formal approaches for the application of<br />
reviews were developed. Despite their advantages, they are not universally<br />
used because in many cases a review tool that assists a companys review<br />
process does not exist. This is presented in a case study with the company<br />
Frequentis, whose task-based development process is not sufficiently<br />
supported by an existing review tool. The internationally acting company<br />
develops software in the field of civil air traffic management (ATM), and<br />
therefore has to fulfill the DO-278/ED-109 software standard. A significant<br />
part of the standard is devoted to the application of code reviews. This work<br />
describes a lightweight task-based review process which was developed<br />
based on theoretical analyses and company specific requirements. It is related<br />
to a peer deskcheck or passaround method and consists of four phases. A<br />
case study shows how the process can be used by Frequentis for the<br />
assurance of software quality. Based on this, a custom review plug-in for the<br />
popular Eclipse development environment was designed and implemented.<br />
This plug-in is used to apply the task-based review process. Furthermore, it<br />
supports the planning of reviews by suggesting qualified reviewers for parts<br />
of the source code. For the verification of the review results and the review<br />
coverage, it also allows the generation of reports.<br />
80
Martin Reiterer<br />
Design and Development of Eclipse-integrated support for<br />
Internationalization of Java Applications<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
This work presents a tool-based approach for making the concept of Java<br />
internationalization more convenient for practical development projects.<br />
Internationalization denotes a pervasive programming approach for building<br />
multilingual applications efficiently. However, dramatically often, the<br />
expected advantages get lost. Reasons for this fact are a lack of understanding<br />
of cultural, geographical and political differences as well as a<br />
missing overview of the concepts provided in the Java programming language.<br />
In addition, once a product is fully internationalized, it becomes tedious<br />
for developers to keep all the language-specific artifacts up to date and<br />
consistent. The theoretical part of this work addresses the topic of software<br />
internationalization and localization. Based on analyzing the state-of-the-art<br />
of Java internationalization and typical problems occurring in practice, the<br />
practical part focuses on the implementation of development tools for<br />
supporting the internationalization of software-artifacts. For assisting engineers<br />
in the day-to-day development work, the presented tooling is<br />
integrated into one of the most widely used open source development platforms<br />
for Java. The created reference implementation is named TapiJI<br />
(Tooling for agile and process integrated Java Internationalization) and can<br />
be seamlessly integrated into existing development processes. With the use<br />
of context-sensitive as well as general helps, which represent internationalization<br />
tasks transparent, TapiJI reduces both the effort and the<br />
problems due to improper handling of internationalization. Even engineers<br />
with little experience in writing multilingual applications are permanently<br />
advised to ensure high and uniform code quality. The resulting tool suite is<br />
successfully presented in special-interest magazines, published for free usage<br />
and receives a wide acceptance in the open source community.<br />
Bernhard Scheuer<br />
Architecting a revised Governmental Tax Management System<br />
Studium: Masterstudium Information & Knowledge Management<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Diese Diplomarbeit beschäftigt sich mit der technischen Planung eines<br />
großen Softwaresystems im öffentlichen Verwaltungsdienst. Zusätzlich wird<br />
eine grobgranulare Architektur <strong>für</strong> das österreichische softwarebasierte<br />
System zur Finanzverwaltung vorgeschlagen. Landläufig werden solche<br />
Projekte, bzw. der Einsatz eines solches Systems als eGovernment Initiative<br />
tituliert. Es scheint eines der vielen Modewörter des aktuellen Informationszeitalters<br />
zu sein. Daher werden auch kritische Grundlagen zu diesem<br />
81
Thema in dieser Arbeit erörtert. Eine überarbeitete softwarebasierte Finanzverwaltung<br />
führt zu einem komplexen Softwaresystem, das zusätzlich noch<br />
eine breite Landschaft von Altsystemen einbezieht. Es ist unbestritten, dass<br />
mit hoher Komplexität auch große Risiken einhergehen. Daher ist es<br />
besonders wichtig mit größter Sorgfalt und angemessener Herangehensweise<br />
voranzuschreiten. In diesem Zusammenhang setzt diese Arbeit auf fundierte<br />
Techniken und Instrumente aus der Disziplin der Software Architektur. Die<br />
konkrete grobgranulare Architektur setzt sich aus unterschiedlichen Best<br />
Practices und Standards zusammen, die sich in architektonischen Prinzipien<br />
und Entscheidungen widerspiegeln und manifestieren. Das vorgeschlagene<br />
softwarebasierte System zur Finanzverwaltung setzt auf eine serviceorientierte<br />
Architektur, gepaart mit einer geschäftsprozess-orientierten<br />
Implementierung. Diese versprechen, neben gesteigerter Effektivität und<br />
Effizienz, ein schnelles Reagieren bzw. Umsetzen etwaiger Änderungen. Der<br />
Einsatz dieser zeitgemäßen Technologien und innovativen Techniken liefert<br />
den Grundstein <strong>für</strong> Agilität im Verwaltungsapparat.<br />
Michael Schmöllerl<br />
IT-Governance mit Cobit am Beispiel Leistungsverrechnung in Banken<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
82<br />
Gerade die Finanzindustrie ist wegen der aktuellen Wirtschaftslage unter<br />
Druck geraten. Konfrontiert mit schrumpfenden Märkten, müssen Kosten<br />
gesenkt und die effiziente Nutzung der Ressourcen sichergestellt werden. Im<br />
Fokus dabei steht die IT, da diese eng mit den Geschäftsprozessen<br />
verflochten ist und einen wesentlichen Kostenfaktor darstellt. IT-Governance<br />
ermöglicht die effektive Ausrichtung der IT auf die Unternehmensstrategie.<br />
Kernaufgaben der IT-Governance sind die Generierung von Unternehmenswert<br />
sowie das Management von IT-Risiken. In diesem Zusammenhang<br />
stellt Cobit, als Vertreter der IT-Governance Frameworks, Messgrößen und<br />
Reifegradmodelle zur Verfügung, um die Wirksamkeit der Kontroll- und<br />
Steuerungsmaßnahmen zu erfassen. Im Rahmen dieser Arbeit soll die<br />
Anwendbarkeit von Cobit an zu prüfenden Geschäftsabläufen im Bankenbereich<br />
gezeigt werden. Der Fokus wird dabei auf den Prozess der Leistungsverrechnung<br />
gelegt. Ziel ist es, die Effektivität der eingesetzten Kontroll- und<br />
Steuerungsmaßnahmen zu messen. Dazu wird ein Vorgehensmodell erarbeitet,<br />
welches an einem Fallbeispiel angewandt wird. Das <strong>für</strong> die Analyse<br />
herangezogene Unternehmen ist ein österreichischer Finanzdienstleister mit<br />
Hauptsitz in <strong>Wien</strong>. Als Ergebnis der Analyse kann die Wirksamkeit der<br />
vorhandenen Kontroll- und Steuerungsmaßnahmen eingeschätzt werden.<br />
Infolgedessen wird eine Risikoeinschätzung getroffen und der Umsetzungsgrad<br />
der von Cobit definierten Kontroll- und Steuerungsmaßnahmen<br />
beurteilt. Anhand der Risikoanalyse werden resultierende Verbesserungsmaßnahmen<br />
identifiziert. Zusammenfassend soll die Anwendung von<br />
IT-Governance Frameworks, im speziellen Cobit, aufgezeigt werden. Die
Vorgehensweise soll zeigen, ob die von Cobit definierten Ergebnis- und<br />
Leistungsmessungen universell anwendbar sind und eine durchgängige Prüfungsplanung<br />
und -durchführung unterstützen.<br />
Handan Sentürk<br />
Konzeption einer Business Activity Monitoring Lösung <strong>für</strong> die Umsetzung von<br />
Business Performance Measurement in virtuellen Organisationen am Beispiel<br />
Vendor Managed Inventory<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Eine Möglichkeit zur Bewertung des Erfolgs eines Vendor Managed Inventory<br />
(lieferantengesteuerte Bedarfsermittlung) Ansatzes in virtuellen<br />
Organisationen ist der Einsatz eines Business Activity Monitoring Systems. Ein<br />
solches System bewertet und überwacht Geschäftsprozesse unter<br />
Verwendung von definierten Kennzahlen. Damit verschafft das System der<br />
virtuellen Organisation einen Überblick über den aktuellen Stand der<br />
unternehmensübergreifenden Prozesse, identifiziert deren Schwachstellen<br />
und unterstützt die Entscheidungsfindung zur Optimierung der Prozesse. Die<br />
Integration wirtschaftlicher und technischer Anforderungen aller beteiligten<br />
Unternehmen stellt die besondere Herausforderung bei der Realisierung<br />
eines Business Activity Monitoring Systems innerhalb einer virtuellen<br />
Organisation dar. Wirtschaftliche Anforderungen umfassen primär die<br />
Überwachung unternehmensübergreifender Kennzahlen in Echtzeit. Da<strong>für</strong><br />
müssen einheitliche und aussagekräftige Kennzahlen definiert werden. Durch<br />
das regelmäßige Speichern der Daten sollen historische Abläufe abgebildet<br />
und analysiert werden. Das Ziel der Überwachung ist einerseits das Erkennen<br />
von Soll-Ist Abweichungen und andererseits die Unterstützung <strong>für</strong><br />
Entscheidungsfindungen. Um Kennzahlen besser im Blick zu behalten, sollen<br />
in kritischen Fällen automatisch Benachrichtigungen über den Zustand der<br />
Kennzahlen versandt werden. Da virtuelle Organisationen dynamische<br />
Kooperationen sind, soll die Integration neuer Unternehmen in das System<br />
ohne großen Kostenaufwand realisiert werden können. <strong>Technische</strong>n<br />
Anforderungen wie automatisierter und manueller Datentransfer und<br />
Kennzahlenberechnung zu jedem Zeitpunkt, Definition von<br />
Berechnungsalgorithmen, automatisierte Datenspeicherung in regelmäßigen<br />
Abständen, Aufstellen von Grenzwerten, übersichtliche Darstellung der<br />
Kennzahlen, automatisches Versenden von Benachrichtigungen und<br />
Skalierbarkeit, um neue Unternehmen einbeziehen zu können, müssen<br />
ebenso erfüllt werden.<br />
83
Fakhteh Sohrabi-Moayd<br />
Publishing in der Schule<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />
In der heutigen Zeit, in der sich die Gesellschaft auf dem Gebiet der digitalen<br />
Medien immer rasanter entwickelt, ist es wichtig den Jugendlichen<br />
Grundkenntnisse dieser Technologien zu vermitteln. Von entscheidender<br />
Bedeutung ist es auch, SchülerInnen auf eine medientechnische Arbeitswelt<br />
vorzubereiten. Im Rahmen dieser Diplomarbeit wird ein Unterrichtskonzept<br />
entwickelt, das Jugendlichen ein besseres Verständnis von Publishing Software<br />
und entsprechende Kompetenz bezüglich digitaler Medien vermittelt.<br />
Dadurch sollen die SchülerInnen in der Lage versetzt werden, die <strong>für</strong> das<br />
Publishing relevanten Medien entsprechend der gegebenen Anforderungen<br />
zu verstehen, zu nutzen und einzusetzen. Mittels Software-Evaluation werden<br />
drei DTP-Programme <strong>für</strong> den Einsatz im Schulunterricht einander gegenüber<br />
gestellt, um die am besten geeignete Software auszuwählen. In neun<br />
Lehreinheiten wird den SchülerInnen ermöglicht, ihr Basiswissen über Medien<br />
wie zum Beispiel Text, Grafik, Bild und Animation zu vertiefen, um diese<br />
zweckorientiert in DTP-Programmen anzuwenden. Für die Umsetzung werden<br />
didaktische Methoden ausgewählt, welche die SchülerInnen animieren sollen<br />
aktiv am Unterricht mitzuwirken. Ferner wird auch durch die eingesetzten<br />
Unterrichtsmethoden die soziale Kompetenz der SchülerInnen gestärkt.<br />
Bertram Stemer<br />
A Model for Synchronized Distributed Test and Measurement<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
84<br />
Durch die Entwicklung von immer komplexeren Systemen wachsen auch die<br />
Anforderungen an die Test- und Messanwendungen. Diese Anwendungen<br />
kommunizieren über Busse mit einer Vielzahl von verteilten Sensoren und<br />
Aktoren, teilweise über weite Distanzen und produzieren bzw. sammeln<br />
große Datenmengen. Somit steigen die Anforderungen an neue Bustechnologien<br />
<strong>für</strong> Test- und Messanwendungen. Bestehende Technologien<br />
wie z.B. der General Purpose Instrumentation Bus (GPIB) stoßen heutzutage<br />
an ihre Grenzen aufgrund der geringen <strong>Band</strong>breite und der geringen Anzahl<br />
an Geräten, die angeschlossen werden können. Die Entwicklung von IEEE<br />
1588 Precision Time Protocol (PTP) und LAN eXtensions for Instrumentation<br />
(LXI) bietet nicht nur Ansätze <strong>für</strong> diese Problematik sondern auch Lösungen<br />
zur genauen synchronen Zeitmessung von verteilten Daten. Durch IEEE 1588<br />
kann Ethernet als Kommunikationsmedium verwendet werden, wobei eine<br />
Uhrzeitsynchronisation im Nanosekunden-Bereich erreichbar ist. Diese Arbeit<br />
geht einen Schritt weiter in verteilten Test- und Messanwendungen und<br />
beschäftigt sich mit der Entwicklung eines neuen Konzeptes, das ein
Feedback der Messumgebung in die Instrumente zulässt. Es umfasst Messung<br />
der Netzwerk-Latenz, verzögertes synchronisiertes Triggern, Vermeidung oder<br />
Erkennung von verlorenen Paketen und Fehlerbeseitigung.<br />
Christian Thomas<br />
Technical Criteria for the Productivity of Rapid Web Development Frameworks<br />
in Enterprise Java<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
In recent years, the World Wide Web has emerged as a central part of our<br />
lives. Accordingly, Web Engineering nowadays is among the main activities in<br />
software development. However, due to their special characteristics,<br />
developing Web Applications is a complex task. Web Application Frameworks<br />
aim at easing this task. On the one hand, the proliferation of these softwaretools<br />
has made the selection of a framework a challenging task. On the other<br />
hand, the competition also led to an ongoing equalization in the market.<br />
Today, the existing Web Frameworks hardly differ regarding their functional<br />
expressiveness, making it a insignificant criterion when choosing a framework.<br />
However, when Ruby on Rails was released in the end of 2005, it<br />
unmasked that Web development till then lacked an important factor:<br />
Productivity. Since that time, also Web Frameworks in the Java environment<br />
are increasingly facing rapid development. Five years after the first version of<br />
Rails, this thesis describes the current state-of-the-art in rapid Web<br />
development with Java. It analyzes the technical factors that altogether<br />
define a Web Application Frameworks productivity. The resulting catalog<br />
encompasses more than 120 criteria. This way, it can answer the question of<br />
which particular Web Framework to choose in an upcoming project. The<br />
catalog can also be used to base new comparisons on it and it may even<br />
foster further developments in the market.<br />
Raoul Vallon<br />
Lean and Agile Software Development: Planung und Realisierung einer<br />
Verbindung von Kanban und Scrum<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Lean Development, auch bekannt als Just in Time Produktion verwirklicht ein<br />
dynamisches Pull-System, das jedoch auch zahlreiche Gemeinsamkeiten zu<br />
agilen Prozessen aufweist. Ziel dieser Arbeit ist die Erarbeitung eines Konzepts,<br />
das Lean Development anhand des Vertreters Kanban und den agilen<br />
Softwareprozess Scrum verbindet, sodass die Stärken der beiden Prozesse<br />
vereint werden. Der erste Teil der Arbeit befasst sich mit der Erstellung eines<br />
Konzepts, in dem sowohl Kanban- als auch Scrum-Elemente enthalten sind.<br />
85
Den zweiten Teil stellt die praktische Erprobung des Konzepts dar. Als<br />
Fallbeispiel wurden Teile des Konzepts <strong>für</strong> eine Umsetzung im Rahmen einer<br />
Praxisphase ausgewählt. Diese Prüfung der Praxistauglichkeit bietet weiteres<br />
Feedback <strong>für</strong> eine abschließende Verbesserung des Konzepts. Die Ergebnisse<br />
aus der praktischen Erprobung zeigen, dass die Kombination von Kanban und<br />
Scrum einen sinnvollen Ansatz <strong>für</strong> ein effizientes Projektmanagement<br />
darstellt. Beispielsweise kommt es in Software Projekten aus verschiedensten<br />
Gründen zu Änderungen der Priorisierungen. Mit dem dynamischen Kanban<br />
Workflow wird den Projektmitarbeitern ein Werkzeug gegeben, das aufgrund<br />
seiner Flexibilität die Möglichkeit bietet, dennoch eine effiziente Umsetzung<br />
des Projekts zu gewährleisten. Auf der anderen Seite konnten die in der Praxis<br />
erprobten Scrum-Elemente des Konzepts, wie Retrospektive oder Review,<br />
Raum schaffen, auch im dynamischen Kanban-Prozess regelmäßig über den<br />
Prozess zu reflektieren und den Fortschritt zu überprüfen. Für den Einsatz<br />
dieser beiden Scrum-Elemente wurde ein im Rahmen des Konzepts<br />
entwickelter Sprint ohne Commitment eingeführt, der sich als ideales Mittel<br />
herausstellte, um einen Zeitpunkt <strong>für</strong> Retrospektive und Review zu bestimmen<br />
und gleichzeitig jedoch vom Scrum-üblichen Commitment abzusehen, mit<br />
dem ein Kanban Workflow nicht durchführbar wäre.<br />
Bence Vass<br />
Konzepte und Prototypen zur Etablierung von Workflows in einer großen,<br />
historisch gewachsenen Verwaltungsinstitution<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Seit Unternehmen betriebliche Informationssysteme einsetzen, um ihre<br />
Geschäftsprozesse abzuwickeln, rückt die Ablauforganisation im Vergleich zur<br />
Aufbauorganisation immer mehr in den Mittelpunkt. Die Methoden zur Erfassung,<br />
Gestaltung, Optimierung und Etablierung dieser Prozesse werden<br />
durch Geschäftsprozessmanagement bzw. Business Process Management<br />
(BPM) unter einem Begriff vereint. Besonders bei der Einführung neuer<br />
Informationssysteme ist die Betrachtung der betroffenen Prozesse essentiell.<br />
Unter dem Titel <strong>TU</strong> Informations-Systeme und Services (TISS) erfolgt derzeit<br />
an der <strong>Technische</strong>n Universität (<strong>TU</strong>) <strong>Wien</strong> die Etablierung einer neuen IT-<br />
Strategie, welche die Ablösung zahlreicher Insellösungen durch ein<br />
einheitliches Gesamtsystem vorsieht. Das Ziel dieser Arbeit ist zu zeigen, dass<br />
die Methoden und Paradigmen von BPM auch in einer großen, historisch<br />
gewachsenen Verwaltungsinstitution eingesetzt werden können und einen<br />
Mehrwert bringen. Dies erfolgt in der Form von drei Fallbeispielen, in denen<br />
Prozesse und IT-Systeme des TISS-Projekts analysiert, optimiert, spezifiziert<br />
und, falls durch die erhobenen Anforderungen möglich, als Workflows<br />
etabliert werden.<br />
86
Mark Volcic<br />
Sicherheitskritische Modelleisenbahnsteuerung in Ada<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Johann Blieberger<br />
Das Ziel dieser Diplomarbeit ist die Entwicklung einer sicheren und<br />
zuverlassigen Steuerung von Zügen in einem abgeschlossenen leissystem.<br />
Für die Implementierung und die Testphase wurde eine Modelleisenbahn<br />
gewählt, die den sicherheitskritischen Ansprüchen von realen Zügen und<br />
Gleisen entsprechen muss. Hard- und Software sind zum Teil schon<br />
vorhanden, allerdings müssen diese weiterentwickelt bzw. geändert werden.<br />
Die vorhandene Software der Microcontroller wurde in C geschrieben, die<br />
Lösung soll ausschließlich in Ada entwickelt werden. Bei der Hardware muss<br />
das Design der Controller geändert und ein neuer Prozessor gewählt werden,<br />
der den aktuellen Anforderungen entspricht. Für die Steuersoftware am<br />
Master-PC gibt es erste Testversionen, die allerdings nicht mehr dem<br />
aktuellen Stand der Technik entsprechen; diese muss ebenfalls überarbeitet<br />
werden.<br />
Nikolas Johannes Wageneder<br />
Online Configurator for Variable Message Signs<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
As the worldwide number of automotive vehicles grows the need for<br />
advanced traffic management increases every year. On this way, Intelligent<br />
Transport Systems address the problems of road safety and congestion.<br />
Situated at key decision points on road networks, Variable Message Signs<br />
come into play. They are used to manage the traffic by providing traffic<br />
information and warnings to traffic participants. Online configurators serve<br />
the purpose enabling a user to design an individual product based on his<br />
personal preferences. Besides positive marketing effects a configurator helps<br />
a manufacturer to follow the mass customization strategy. For the customer<br />
this means better comparability between different vendors. The goal of this<br />
master thesis was to design and implement an online configurator for<br />
Variable Message Signs based on current Web technologies. The Agile<br />
Unified Process was chosen as software development process. From the<br />
technological viewpoint, "Web 2.0" has been taken into account. Developing<br />
a stepwise wizard based online configurator with large degrees of freedom is<br />
not without challenges. Most important, a flexible graphical user interface is<br />
necessary allowing a customer to intuitively design the desired Variable<br />
Message Sign based on his preferences. XML configuration files provide a<br />
solid base for the dynamical structure. Within the configurator, a JavaScript<br />
based "Rule Engine" has been chose as core element to define complex<br />
dependencies, whereas within a "Plausibility Check Engine" mutually<br />
87
exclusive configurators attributes can be determined. Upon every user input a<br />
validation is performed to minimize the risk of wrong handling. Further<br />
challenges to be handled included the integration of a rudimentary E-<br />
commerce application following an editable electronic shopping cart. Besides<br />
the benefits for external users, the configurator can be used for corporate<br />
internal calculations based on daily updated pricing data from an ERP system.<br />
Alexander Wagner<br />
Ressourcen zur Unterstützung beim Erlernen von Unity zur Entwicklung von<br />
3D-Anwendungen<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuerin: Ass.Prof. Dr. Monika Di Angelo<br />
Interaktive 3D-Anwendungen sind Programme, die unmittelbar auf die<br />
Eingaben ihres Benutzers reagieren und die Ergebnisse dieser Eingaben<br />
mittels dreidimensionaler Grafiken in Echtzeit darstellen können.<br />
Anwendungsgebiete von 3D-Programmen sind multimediale Spielsoftware,<br />
Software zur Erkundung architektureller Entwürfe oder interaktive<br />
Lernsoftware. Die Entwicklung von interaktiven 3D-Anwendungen ist ein<br />
besonders anspruchsvolles Gebiet der Softwareentwicklung. Das notwendige<br />
Vorwissen kann durch den Einsatz geeigneter Tools reduziert werden. Ein<br />
solches Tool zur Entwicklung interaktiver 3D-Anwendungen ist Unity. Es<br />
erlaubt die einfache Erstellung eines 3D-Projekts mittels graphischem<br />
Interface und enthält eine integrierte 3D-Engine, die die mathematischen<br />
Komplexitäten der Computergraphik vor dem Nutzer verbirgt. Aufgrund seiner<br />
leichten Zugänglichkeit und der enormen Geschwindigkeit, mit der man<br />
sichtbare Ergebnisse erzielen kann, eignet es sich hervorragend, um die<br />
Grundlagen von 3D-Anwendungs- und Spieleentwicklung zu lehren. Ziel<br />
dieser Arbeit war, sinnvolle Ressourcen zu erstellen, die Anfängern den<br />
Einstieg in den Umgang mit Unity erleichtern und diesen beschleunigen<br />
sollen. Die betreffende Zielgruppe bestand primär aus StudentInnen der<br />
<strong>Informatik</strong> und der Architektur. Die Erhebung der besonderen Ansprüche<br />
dieser Zielgruppen erfolgte mittels qualitativer Untersuchungen bei zwei<br />
universitären Lehrveranstaltungen. Auf dieser Basis wurden Anleitungen<br />
erstellt, die die verschiedenen Aspekte der Arbeit mit <strong>für</strong> Anfänger Unity<br />
beschreiben. Neben Beschreibungen des Tools an sich werden darin auch<br />
Aspekte der Zusammenarbeit im Team bei einem Entwicklungsprojekt im<br />
Universitätskontext erörtert. Alle erstellten und gesammelten Ressourcen<br />
sollten durch eine zentrale Sammelstelle schnell und einfach verfügbar<br />
gemacht werden. Eine Evaluierung wurde durchgeführt, um die günstigste<br />
Art und Weise zu bestimmen, auf die diese Sammelstelle umgesetzt werden<br />
soll.<br />
88
Dirk Wallerstorfer<br />
Improving Maintainability with Scrum<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
This thesis aims to provide additional insight into the effect of different<br />
development strategies on the maintainability of code. Maintainability is<br />
defined as the ease with which a software can be modified. Throughout a<br />
software development project a lot of time is spent on maintenance. Therefore<br />
code that is easy to maintain is desireable. To be able to detect<br />
differences between development strategies a case study with a development<br />
team of an Austrian company was conducted. The team changed its<br />
development strategy from the waterfall model to Scrum. The waterfall model<br />
is a sequential development process with emphasis on documentation. Scrum<br />
is an agile, iterative development process. The development of the code<br />
maintainability was analyzed when using the waterfall model and when using<br />
Scrum as development strategy. In order to quantify the maintainability of<br />
code the common approach of using static code analysis is used. Based on<br />
results in literature a set of software metrics was used to assess the code<br />
maintainbility. The statistical method used for validation is a non-parametric<br />
analysis of variance (Friedman's ANOVA) with post-hoc tests. The results<br />
indicate that Scrum does not decrease the code maintainability as much as<br />
the waterfall model over time. Scrum does a better job in preserving the level<br />
of code maintainability than the waterfall model. The possible reasons for this<br />
are discussed in the thesis.<br />
Conrad Stefan Wandl<br />
Erstellung eines Sicherheitskonzepts <strong>für</strong> eine NFC-basierte Infrastruktur<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Durch die Verwendung von Near Field Communication (NFC) in durchaus<br />
sicherheitskritischen Projekten, wie etwa mobilen Bezahlsystemen und deren<br />
allgemein steigende Beliebtheit erhöht sich die Wahrscheinlichkeit von<br />
Angriffen auf NFC-basierte Infrastrukturen. Zur Sicherstellung der<br />
Informationssicherheit ist es daher notwendig, ein systematisches Vorgehen<br />
zur Sicherheitsanalyse der Infrastrukturen einzusetzen und davon ausgehend<br />
die Systeme gegen Angriffe zu härten. Diese Arbeit betrachtet Standards aus<br />
dem Bereich der Informationssicherheit, welche die Grundlage <strong>für</strong> die<br />
Durchführung von Sicherheitsanalysen liefern. Diese werden um die<br />
Eigenheiten der NFC-Technologie ergänzt. Daraus ergibt sich eine<br />
methodische Anleitung zur Erstellung eines Sicherheitskonzepts <strong>für</strong> NFCbasierte<br />
Infrastrukturen. Die Anwendbarkeit dieser Methodik wird anhand des<br />
Projekts Mobile Information Points (MIP) dokumentiert.<br />
89
Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong><br />
Arbeitsbereich Embedded Computing Systems<br />
Alexander Burker<br />
Implementation of the TTP/A Protocoland WCET Analysis on the SPEAR2<br />
Platform<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Steininger<br />
This master's thesis shows the results of implementing the TTP/A protocol on<br />
the SPEAR2 platform. The TTP/A protocol is a field bus protocol used in time<br />
triggered environments and the protocol meets real-time system<br />
requirements. The SPEAR2 platform comprises the processor and several<br />
extension modules. The processor can work in a 16 and 32 bit data mode. For<br />
the chosen implementation the 32 bit version is used. The processor provides<br />
real-time system capabilities on the hardware side. The main aim of this<br />
master's thesis is to implement the TTP/A protocol on the SPEAR2 platform<br />
and to provide a proof for the assumption that the processor in conjunction<br />
with the new eUART module and the TTP/A protocol is able to provide a<br />
system which complies to real-time requirements. A substantial part of this<br />
proof will be the development of WCET analyzable code using a coding style<br />
that is based on the Single-Path Programming Model. The Single-Path<br />
Programming Model was modified in some parts and this resulted in the<br />
Single or Shorten-Path Programming Model. Furthermore the realised<br />
implementation for static WCET analysis on the SPEAR2 platform will be<br />
introduced. An own section of the thesis provides the knowledge on how the<br />
resulting implementation can be used in own applications. The<br />
implementation created provides a comfortable development environment<br />
for the realisation of own TTP/A applications with multiple nodes.<br />
Robert Najvirt<br />
Description Methods for Asynchronous Circuits - A Comparison<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Andreas Steininger<br />
90<br />
The advances of silicon manufacturing technology make it possible to<br />
integrate billion-transistor systems on a single die but the price to pay is<br />
higher parameter variability, resulting in problems with reliability, difficult<br />
clock distribution, high power consumption and more. Proponents of asynchronous<br />
circuits claim them to be a possible solution to most of these<br />
problems and they are indeed becoming an increasingly interesting design<br />
choice. The aim of this work is to describe the most established description<br />
methods for asynchronous circuits, compare them in respect to a number of
parameters and list their advantages and disadvantages. To further illustrate<br />
the differences, a simple ring topology network interface controller is<br />
described with all the considered methods and the implications of their use<br />
for the description are indicated. Next, to demonstrate the use of each<br />
description method in its typical field of application, selected parts of the<br />
faculty developed SPEAR2 processor are implemented with the methods. As a<br />
result of this work a comparison of seven different description methods is<br />
now available that, unlike the existing literature so far, views these methods<br />
from the same angle, namely a carefully chosen set of criteria. This<br />
comparison, along with the selected demonstrative examples, could serve<br />
prospective designers of asynchronous circuits when choosing a description<br />
method for a project. At the same time, the extraction of the underlying<br />
concepts of the considered methods along with their comparison is also<br />
valuable for a didactic presentation of asynchronous design.<br />
Arbeitsbereich Real Time Systems<br />
Ulrich Buchgraber<br />
Visualisierung von Prozesssynchronisation mit Semaphoren<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Peter Puschner<br />
Das Ziel dieser Diplomarbeit ist es, ein Visualisierungstool <strong>für</strong> parallel<br />
ablaufende Programme (Tasks) zu entwerfen. Diese Tasks sollen wie Prozesse<br />
eines Betriebssystems voneinander unabhängig laufen und über einen<br />
gemeinsamen Speicher und Synchronisationskonstrukte (Semaphore) kommunizieren<br />
können. Der Ablauf der Programme soll vom Benutzer gesteuert<br />
werden können und der Zustand der einzelnen Tasks, der Semaphore und<br />
des gemeinsamen Speichers geeignet visualisiert werden. Als Hilfsmittel <strong>für</strong><br />
die Untersuchung eines Algorithmus, der Locks verwendet, soll das Tool um<br />
ein Analyseverfahren erweitert werden, das Deadlocksituationen erkennt und<br />
visualisiert. Das Tool soll <strong>für</strong> didaktische Zwecke, z.B. <strong>für</strong> Vorlesungen wie<br />
Betriebssysteme, geeignet sein. Das zentrale Ergebnis der Arbeit ist die Implementierung<br />
des Visualisierungstools, eine plattformübergreifende Desktopsoftware,<br />
die auf einer Open-Source-Hostingplattform veröffentlicht wurde.<br />
Taskprogramme werden darin mit der simpel aufgebauten Programmiersprache<br />
Lua beschrieben. Zugriffe auf den gemeinsamen Speicher und<br />
die Semaphore sind durch einfache Anweisungen im Programmcode möglich.<br />
Mit Debugging-Befehlen wie Run, Step und Stop bzw. mit Breakpoints im<br />
Codeeditor kann der Programmfluss, wie von Standard-IDEs bekannt,<br />
gesteuert werden. In der Benutzeroberfläche wird der gemeinsame Speicher<br />
mit den Semaphoren in einer Baumstruktur visualisiert und alle Taskprogramme<br />
nebeneinander dargestellt, um zu jedem Zeitpunkt den gesamten<br />
Zustand des untersuchten Algorithmus erfassen zu können. Für die Deadlockanalyse<br />
wurden zwei Laufzeitanalyseverfahren, die in dieser Arbeit aus-führ-<br />
91
lich beschrieben werden, ausgewählt und implementiert. Die Verfahren zeichnen<br />
während der Ausführungszeit Lockgraphen auf und suchen innerhalb<br />
dieser Graphen nach Zyklen, die potenzielle Deadlocksituationen darstellen.<br />
Christopher Helpa<br />
A Time-predictable Operating System - Towards a Constant Execution Time<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Peter Puschner<br />
Die Anwendung von Echtzeitsystemen reicht von der Steuerung von Ampeln<br />
bis zur selbstständigen Navigation von Raumschiffen. Bei Echtzeitsystemen<br />
hängt die Korrektheit des Systemverhaltens nicht nur von der logischen<br />
Korrektheit aller Berechnungen sondern auch von dem Zeitpunkt zu welcher<br />
die Resultate vorliegen ab. Resultate die nicht innerhalb einer gewissen<br />
Zeitspanne vorliegen können katastrophale Auswirkungen haben. Um dies zu<br />
verhindern ist die Bestimmung der maximalen Reaktionszeit eines Programms<br />
von entscheidener Bedeutung. Betriebssystemmechanismen, welche die<br />
zeitliche Isolation aller Anwendungen garantieren, vereinfachen die zeitliche<br />
Analyse von Anwendungen. Die Bestimmung der maximalen Ausführungszeit<br />
einer Anwendung ist ein wichtiger Schritt in der zeitlichen Analyse eines<br />
Systems. Aufgrund der Komplexität moderner Systeme stellt die Bestimmung<br />
der maximalen Ausführungszeit leider immer noch einen hohen Aufwand dar.<br />
Diese Diplomarbeit beschreibt die Entwicklung eines Betriebssystems das<br />
zeitliche Isolation aller Programme gewährleistet. Weiters weisen alle<br />
Betriebssystemfunktionen konstante Ausführungszeiten auf, welche durch<br />
eine geringe Anzahl an Messungen bestimmt werden können. Im weiteren<br />
Verlauf werden die verwendeten Programmieransätze und Betriebssystemkonzepte<br />
vorgestellt, sowie auf die Implementierung und die dabei<br />
gewonnen Erkenntnisse eingegangen. Die Evaluierung zeigt, dass eine<br />
geringe Anzahl an Messungen ausreicht um das zeitliche Verhalten aller<br />
Betriebssystemfunktionen zu bestimmen, sowie die Ausführungszeiten dieser<br />
konstant gehalten werden konnten.<br />
Haris Isakovic<br />
A secure global time base for time triggered systems<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Peter Puschner<br />
92<br />
Zeitgesteuerte Protokolle bieten hohe Zuverlässigkeit und garantiertes<br />
zeitliches Verhalten und werden heutzutage in vielen verteilten<br />
Echtzeitanwendungen eingesetzt. Sie bieten verschiedene Dienste wie z.B.<br />
Uhrensynchronisation, Membership, Redundanz-Management etc. Der<br />
ständig steigende Bedarf nach zuverlässigen Echtzeitsystemen stellt neue<br />
Anforderungen an die Kommunikationsprotokolle. Eine der noch offenen
Herausforderungen ist die Informationssicherheit (auf English<br />
\textit{Security}). Die aktuellen Implementierungen von zeitgesteuerten<br />
Kommunikationsprotokollen sind nicht auf Informationssicherheit ausgerichtet<br />
und ihr Schutz gegen bösartige Attacken ist nicht ausreichend. Zeitgesteuerte<br />
Systeme beruhen auf einer konsistenten Sicht der Zeit im gesamten System.<br />
Die Funktionalität aller essentiellen Dienste in diesen Systemen hängt von der<br />
Zeit ab. Deshalb ist es von entscheidender Bedeutung, dass die globale Zeit<br />
gegen bösartige Attacken gesichert ist. Die Hauptaufgabe dieser Diplomarbeit<br />
ist die Entwicklung einer Sicherheitsschicht <strong>für</strong> die Time-Triggered<br />
Architecture (TTA) mit dem Schwerpunkt auf einer sicheren und<br />
fehlertoleranten Uhrensynchronisation. Der Ansatz besteht aus einer plattformunabhängigen<br />
Sicherheitsschicht oberhalb des bestehenden Uhrensynchronisationsalgorithmus.<br />
In dieser Arbeit verwenden wir Time-Triggered<br />
Ethernet (TTE) als eine Implementierungsplattform. Unsere Sicherheitsschicht<br />
schützt die globale Zeitbasis vor verschiedenen bösartigen Angriffsarten, z.B.<br />
der Fälschung, der Modifikation, der Wiederholung, oder der Verzögerung<br />
oder der Beschleunigung der Uhrensynchronisationsnachrichten.<br />
93
Institut <strong>für</strong> Computertechnik<br />
Michael Pickelbauer<br />
Voice over IP Integration in Service Component Architecture<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: O.Univ.Prof. Dr. Dietmar Dietrich<br />
The paradigm of Service-oriented Architecture (SOA) has gained ever<br />
increasing popularity due to its interoperability and extensibility. Similarly,<br />
Voice over IP (VoIP) has established for the transfer of media over computer<br />
networks, like the Internet. The present thesis examines the integration of<br />
information from Voice over IP calls into a system based on SOA as well as<br />
the manipulation of these call information. The aim is to unveil whether<br />
services can access the call information in the same way as they would access<br />
information from commonplace services. The focus of this work is to create a<br />
lightweight system. Therefore, Service Component Architecture (SCA) is<br />
chosen as an implementation of SOA. On the Voice over IP side the widely<br />
used Session Initiation Protocol (SIP) is chosen as the signaling protocol to<br />
interact with SCA. The interaction is based on a Back-To-Back User Agent as<br />
this type of SIP server is most flexible and offers numerous interaction<br />
opportunities. Various approaches regarding how the information of a call<br />
can be inserted into SCA are developed and the most promising option is<br />
implemented as a prototype. The prototype follows the SIP standard and is<br />
implemented as a service in SCA. With the prototype, sample applications are<br />
built which show the expected improvement in development speed and reusability<br />
of the created services. Compared to implementations not using<br />
SCA, the prototype reveals drawbacks in performance. The achieved<br />
performance, however, is already sufficient to fulfill the requirements.<br />
94
Institut <strong>für</strong> Managementwissenschaften<br />
Andreas Fantoni<br />
Der Einfluss der IT in der reflexiven Finanzwirtschaft<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Univ.Prof. Dr. Walter Schwaiger<br />
Das Paradigma der klassischen Finanztheorie ist die Annahme eines sich<br />
rational verhaltenden und im Hinblick auf die Informationsverarbeitung<br />
effizient und allumfassend handelnden homo oeconomicus. Die Aktienkurse<br />
sollen die zugrunde liegenden Fundamentaldaten korrekt widergeben, denn<br />
auftretende Fehlbewertungen werden in kürzester Zeit von rational<br />
agierenden Investoren ausgenutzt und daher auf das fundamental gerechtfertigte<br />
Niveau korrigiert. An den Kapitalmärkten genauso wie im individuellen<br />
Verhalten von Anlegern und Investoren sind jedoch immer wieder<br />
Phänomene zu beobachten die durch diese traditionell geprägte, neoklassische<br />
Finanztheorie nicht erklärt werden können und teilweise sogar im krassen<br />
Widerspruch zu ihr stehen. Aufbauend darauf widmet sich der zweite<br />
Hauptteil der Arbeit der Fragestellung wie die Informations- und Kommunikationstechnologie<br />
diesen modernen, reflexiven Finanzmarkt in den vergangenen<br />
Jahren mitgestaltet hat. Die prägende Rolle von Computer- und<br />
Informationssystemen steht dabei außer Frage, denn keine Technologie hat<br />
sich in dem vergangenen Jahrhundert so schnell entwickelt wie die Informations-<br />
und Kommunikationstechnologie und dabei die gesamte Wirtschaft<br />
so nachhaltig beeinflusst.<br />
Karina Fedorovskaia<br />
Leonid Narinsky<br />
Potentialanalyse <strong>für</strong> produktbegleitende Dienstleistungen der<br />
Autmobilindustrie<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
Betreuer: Univ.Prof. Dr. Wilfried Sihn<br />
Aufgrund des gesättigten Marktes und der geringen Gewinnspanne beim<br />
Absatz von Fahrzeugen setzen immer mehr Automobilhersteller ihren<br />
Profitabilitätsfokus verstärkt auf produktbegleitende Dienstleistungen. Aus<br />
dieser Thematik heraus wurde die forschungsleitende Frage aufgestellt:<br />
Nutzen Automobilhersteller das Potential entgeltlicher produktbegleitender<br />
Dienstleistungen <strong>für</strong> private Endkunden vollständig aus?. Zur Beantwortung<br />
dieser Frage wurden anhand einer Analyse der drei Bereiche<br />
Dienstleistungen, Produktbegleitende Dienstleistungen und Automobilindustrie<br />
Merkmale ermittelt, welche gemeinsam, innerhalb eines morphologischen<br />
Kastens, ein Merkmalsschema bilden. Dieses beschreibt den derzeitigen<br />
Raum der produktbegleitenden Dienstleistungen in der Automobil-<br />
95
industrie. Im Rahmen einer empirischen Untersuchung wurde eine Datenerhebung<br />
von produktbegleitenden Dienstleistungen der Automobilindustrie<br />
durchgeführt. Diese Daten wurden mittels des Merkmalsschemas bewertet und<br />
anhand eines Typologisierungsverfahrens segmentiert. Für das Verfahren<br />
wurden die Analysemethoden Clusteranalyse und Clusterzentrenanalyse<br />
verwendet. Das Ergebnis dieses Verfahrens ist eine, aus neun Typen<br />
bestehende Typologie, welche den produktbegleitenden Dienstleistungsraum<br />
der Automobilindustrie segmentiert. Das zentrale Ergebnis dieser Arbeit, ist das<br />
Aufzeigen von Handlungsfeldern, in denen Potential <strong>für</strong> das Angebot neuer<br />
produktbegleitender Dienstleistungen vorhanden ist. Diese werden anhand<br />
einer Analyse der ermittelten Typologie, sowie des dazugehörigen<br />
Merkmalsschemas aufgezeigt. Im Rahmen dieser Arbeit werden die<br />
Handlungsfelder <strong>für</strong> ausgewählte Automobilmarken im Vergleich zum<br />
Gesamtangebot, sowie <strong>für</strong> die gesamte Automobilindustrie angegeben.<br />
Monika Goralczyk<br />
Unternehmensabbildung nach IFRS -- Fair Value Problematik bei Immobilien<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Univ.Prof. Dr. Walter Schwaiger<br />
96<br />
Seit 2005 müssen börsennotierte Unternehmen ihren Konzernabschluss nach<br />
IFRS erstellen. Dieser sieht vor, dass Immobilien mit der Fair-Value-Methode<br />
bewertet werden. Die Grundidee der Fair-Value-Bewertung ist, den Investoren<br />
ein möglichst getreues und realistisches Abbild der Vermögenswerte zu geben<br />
und ihnen entscheidungsnützliche Informationen zu liefern. Die vorliegende<br />
Arbeit befasst sich mit der Analyse der Auswirkungen von Fehlbewertungen im<br />
Immobilienbereich und der Auswirkung der Blasenbildungen auf den Erfolg und<br />
das Eigenkapital bei Immobilienunternehmen bei Verwendung der Fair-Value-<br />
Methode. Fair Value ist ein wichtiger Maßstab <strong>für</strong> die Bewertung von<br />
Immobilien. Durch die Fair-Value-Bewertung soll die Unternehmensabbildung<br />
verbessert werden. Der Informationsgehalt der Bilanz sollte zudem <strong>für</strong> mehr<br />
Transparenz sorgen. Der Fair Value spiegelt die aktuelle Marktsituation wider.<br />
Für den Fair Value kann ein Aktienkurs herangezogen werden. Wenn man<br />
einen steigenden Aktienkurs als Fair Value verwendet, muss diese Steigerung in<br />
der Bilanz anhand einer Aufwertung abgebildet und erfolgswirksam gebucht<br />
werden. Somit fließt die Marktdynamik in die Bilanz ein und die Bilanz wird<br />
künstlich aufgeblasen. Der Fair-Value-Bewertungsansatz ist im Grunde nach<br />
oben nicht gedeckelt und kann beliebige Werte annehmen. Wenn andererseits<br />
der Aktienkurs sinkt, werden die Immobilien in der Bilanz abgewertet. Diese<br />
Abwertungen müssen in der Bilanz abgebildet und erfolgswirksam gebucht<br />
werden. Mit einer derartigen Abwertung wird die Substanz eines Unternehmens<br />
gefährdet. Hier kann das Eigenkapital ausgeschöpft und eine Verschuldung<br />
verursacht werden. Zusammenfassend lässt sich sagen, dass es an einem<br />
konsistenten Gesamtkonzept der Fair-Value-Bewertung mangelt, welches die<br />
Schwankungen des Fair Value abfedert, um die Unternehmensabbildung nicht<br />
zu verzerren.
Roland Hinn<br />
Qualitätsmanagement und Mitarbeiterschulungen im Infrastrukturbereich<br />
eines Netzbetreibers <strong>für</strong> Telekommunikation<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Ass.Prof. Dr. Peter Kuhlang<br />
Qualitätsmanagement (QM) ist in Produktionsbetrieben im Gegensatz zu<br />
Informationstechnologie- und Telekommunikationsunternehmen (ITK) weit<br />
verbreitet und stellt vielfach einen Wettbewerbsvorteil, in einigen Fällen<br />
sogar eine wirtschaftliche Überlebensfrage dar. Steigender Wettbewerbsdruck<br />
hat im ITK-Bereich eine Abwärtsspirale bei der Qualität der Dienstleistungen<br />
ausgelöst. Um diesem Trend entgegenzuwirken, könnten QM-Systeme in ITK-<br />
Unternehmen eingeführt werden. Parallel dazu würde es sich anbieten, den<br />
Umgang mit Umwelt- sowie Arbeits- und Gesundheitsschutz (A&G) auf ein<br />
entsprechendes Niveau zu heben. Im Rahmen dieser Arbeit wurden folgende<br />
Fragen anhand eines Referenzmodells erörtert: Wie können die Normen <strong>für</strong><br />
Qualitäts-, Umwelt- sowie A&G-Management auf ein ITK-Unternehmen<br />
umgelegt werden? Wie kann man diese 3 Normen in Einklang bringen?<br />
Welche Maßnahmen sind erforderlich, um ein kombiniertes<br />
Managementsystem <strong>für</strong> Qualität, Umwelt sowie A&G in einem ITK-<br />
Unternehmen einzuführen? In welcher Form sollen Schulungen <strong>für</strong><br />
Mitarbeiter/-innen eines ITK-Unternehmens gesetzt werden? Zentrale<br />
Ergebnisse: Die betrachteten Normen (ISO 9001, ISO 14001 und OHSAS<br />
18001) sind auch <strong>für</strong> ein ITK-Unternehmen geeignet, da sie in ihren aktuellen<br />
Fassungen Dienstleistungsunternehmen inkludieren. Um diese 3 Normen in<br />
Einklang zu bringen, ist eine sorgfältige Planung erforderlich, da sie strukturell<br />
unterschiedlich aufgebaut sind. Im laufenden Betrieb ist der Mehraufwand <strong>für</strong><br />
die Administration aller 3 Normen gering, da viele Forderungen grundlegend<br />
übereinstimmen (z.B. geordnete Prozesse, Dokumentation, Weiterbildung,).<br />
Für die Einführung und den Betrieb eines kombinierten Managementsystems<br />
sind entsprechende Ressourcen, die Motivation der Mitarbeiter/-innen sowie<br />
der Rückhalt der Unternehmensleitung erforderlich. Schulungen und<br />
Weiterbildung sind ein wesentlicher Bestandteil, um die entsprechende<br />
Qualität und eine kontinuierliche Verbesserung zu erreichen.<br />
Michael Königsmayr<br />
Wartung und Instandhaltung von infrastrukturseitigen Sensornetzwerken<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Verkehrssysteme werden in Zukunft durch das tendenziell steigende<br />
Verkehrsaufkommen immer stärkeren Belastungen ausgesetzt sein, was,<br />
ebenso wie die zunehmende Bedeutung von Umweltzielen, umfangreichere<br />
Maßnahmen zur Verkehrsoptimierung notwendig macht. Da<strong>für</strong> werden<br />
aktuelle und historische Daten zur Verkehrssituation benötigt, welche durch<br />
97
Verkehrssensoren, am häufigsten durch Induktionsschleifendetektoren,<br />
erhoben werden. Um die Verfügbarkeit und den erforderlichen Qualitätsgrad<br />
der Verkehrsdaten gewährleisten zu können, sind adäquate<br />
Instandhaltungsstrategien erforderlich, die zum heutigen Zeitpunkt in dieser<br />
Ausprägung noch nicht existieren. Um herauszufinden wie die aktuelle<br />
Situation in der Instandhaltungspraxis von Verkehrssensornetzwerken<br />
aussieht, wurde im Rahmen dieser Diplomarbeit eine Expertenbefragung<br />
durchgeführt, deren Ergebnisse unter anderem <strong>für</strong> eine Fehlermöglichkeitsund<br />
Einflussanalyse (FMEA) zum Prozess der Verkehrsdatenerhebung mittels<br />
Schleifendetektoren verwendet wurden. Durch die Analyse konnten die<br />
wichtigsten Aspekte <strong>für</strong> die Instandhaltung von Schleifendetektornetzwerken<br />
identifiziert und Verbesserungsmöglichkeiten zur heutigen Situation<br />
abgeleitet werden. Dies bildet die Grundlage <strong>für</strong> ein Instandhaltungskonzept,<br />
welches die heute verfolgte Ausfallbehebung um zusätzliche Maßnahmen<br />
erweitert und auf die Minimierung der Ausfallzeiten der Verkehrsdetektoren<br />
abzielt. Erreicht werden soll dies durch periodische Maßnahmen zur Reduktion<br />
von Schleifendefekten und ein Monitoring System, welches Methoden zur<br />
automatisierten Erkennung fehlerhafter Datensätze integriert. Voraussetzung<br />
<strong>für</strong> die Umsetzung dieser Strategie ist der Aufbau einer Wissensbasis mit<br />
gesammelten Informationen zu den Störungen und Fehlern von<br />
Verkehrsdetektoren.<br />
Andreas Kopper<br />
Markus Steiner<br />
Kernkompetenzanalyse in der Praxis am Beispiel der LMF<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuerin: Univ.Prof. Dr. Sabine Theresia Köszegi<br />
98<br />
Kernkompetenzen sind laut C.K. Prahalad und G. Hamel die Eigenschaften<br />
eines Unternehmens, die über alle strategischen Geschäftseinheiten hinweg<br />
<strong>für</strong> dessen Erfolg verantwortlich sind. Im Jahr 1990 veröffentlicht, strebte das<br />
Konzept der Kernkompetenzen ein Umdenken in der Unternehmenswelt an.<br />
Unternehmungen sollten nicht mehr bloß als eine Menge von<br />
Geschäftseinheiten betrachtet werden, sondern vielmehr als ein Portfolio von<br />
Kernkompetenzen. Solche Kernkompetenzen werden in der Fachliteratur als<br />
Fähigkeiten beschrieben, die unter anderem besser beherrscht werden als die<br />
der Mitbewerber, die <strong>für</strong> den Kunden einen erkennbaren Nutzen darstellen<br />
und die in mehr als einer strategischen Geschäftseinheit vorhanden sind. Ziel<br />
ist, aufbauend auf eine Projektarbeit zur Ermittlung der Kompetenzen der<br />
einzelnen Geschäftseinheiten, die Identikation der Kernkompetenzen der<br />
Leobersdorfer Maschinenfabrik, kurz LMF. Diese Kernkompetenzen sollen in<br />
Folge unterstützend <strong>für</strong> die weitere strategische Entscheidungsndung und<br />
Positionierung des Unternehmens dienen. Die LMF ist ein Maschinenbauunternehmen<br />
mit Hauptsitz in Österreich, das Hochdruck-<br />
Kolbenkompressoren herstellt und weltweit vertreibt. Es beschäftigt etwa 350<br />
Mitarbeiter. Zunächst werden dem Leser theoretische Grundlagen über
Kernkompetenzen und deren Eigenschaften vorgestellt. In den<br />
darauffolgenden Kapiteln beschreibt diese Arbeit ein eigens entwickeltes<br />
Analyseinstrument zur Identikation von Kernkompetenzen bei der LMF.<br />
Abschließend werden die Ergebnisse und mögliche strategische Implikationen<br />
<strong>für</strong> das Unternehmen diskutiert.<br />
Florian Mladek<br />
Eine Erklärung der aktuellen Finanzkrise anhand des asymmetrischen<br />
Informationsmodells von Frederic S. Mishkin<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Univ.Prof. Dr. Walter Schwaiger<br />
Am Anfang dieser Arbeit stand die Frage nach dem Wie und Warum der<br />
jetzigen Finanzkrise. Die ganzheitlichste Betrachtungsweise scheint mir das<br />
asymmetrische Informationsmodell von Frederic S. Mishkin zu liefern. Im<br />
ersten Teil wird die grundsätzliche Theorie rund um asymmetrische Information,<br />
die <strong>für</strong> das Verständnis des Modells nötig ist, erklärt. Danach folgt die<br />
Vorstellung des Modells selbst. Aufbauend darauf wurde eine Analysemethodik<br />
entwickelt, um Krisen der Vergangenheit, aber auch die jetzige<br />
Krise, schnell und übersichtlich auf Anwendbarkeit des Modells überprüfen zu<br />
können. In der Folge werden die Krisen der Vergangenheit von 1857 bis 1987<br />
analysiert. Die Untersuchung der historischen Krisen wird beendet durch eine<br />
Conclusio und den sich daraus ergebenden Implikationen <strong>für</strong> die Politik.<br />
Bevor die jetzige Krise analysiert wird, wird auf die enormen strukturellen<br />
Änderungen der letzten zwanzig Jahre eingegangen. Der Verlauf der Krise ab<br />
2007 wird unter spezieller Berücksichtigung auf asymmetrische<br />
Informationsproblematiken erklärt. Im Anschluss folgt die Analyse der jetzigen<br />
Finanzkrise mit Hilfe der vorgestellten Analysemethodik. Es folgt wiederum<br />
eine Conclusio der Krise und Implikationen <strong>für</strong> die Politik. Den Schluss der<br />
Arbeit bildet eine kritische Zusammenfassung.<br />
Ernst Siller<br />
Analyse des Telefonservices in den österreichischen Finanzämtern<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuerin: Univ.Prof. Dr. Sabine Theresia Köszegi<br />
In dieser Diplomarbeit wird die telefonische Erreichbarkeit in den<br />
österreichischen Finanzämtern untersucht. Der Kundenverkehr der<br />
österreichischen Finanzverwaltung wird hauptsächlich in den Finanz- und Zollämtern<br />
abgewickelt. Der Kundenverkehr wird sowohl persönlich als auch<br />
telefonisch von den so genannten Infocentern durchgeführt. Zusätzlich steht<br />
<strong>für</strong> technische Anfragen zum Onlinedienst FinanzOnline eine eigene Hotline<br />
zur Verfügung, die ebenfalls durch Personal der Infocenter bundesweit<br />
besetzt wird (organisiert ähnlich einem Call Center). In den Jahren 2007 bis<br />
99
100<br />
2010 wurden außerdem die bis dahin genutzten Telefonanlagen der 150<br />
Standorte durch eine bundesweite Telefonanlage ersetzt, mit der eine echte<br />
Vernetzung der verschiedenen Standorte technisch einfach möglich ist. Der<br />
erste Teil der Arbeit beschäftigt sich mit Grundlagen zur Call Center-Thematik<br />
sowie mit den organisatorischen, personellen und technischen Rahmenbedingungen,<br />
die in der Finanzverwaltung gegeben sind. Im Zuge dieser<br />
Arbeit wurde außerdem eine Online-Umfrage zur telefonischen Erreichbarkeit<br />
bei nahezu 2500 Mitarbeiterinnen und Mitarbeitern in den Finanzämtern<br />
durchgeführt. Zusätzlich stehen automatisch aufgezeichnete Daten aus der<br />
Telefonanlage zur Verfügung, aus denen die IST-Situation in den<br />
Finanzämtern aufbereitet wird. Erkannte Schwachstellen werden dementsprechend<br />
genauer analysiert. Zusätzlich werden die Daten anhand eines<br />
anerkannten Call Center-Modells analysiert und mögliche Auswirkungen<br />
durch geänderte Verteilmechanismen berechnet. Die Analysen zeigen, dass<br />
die Finanzämter bei der allgemeinen Erreichbarkeit nicht schlecht aufgestellt<br />
sind. Die Personaleinsatzplanung erfolgt derzeit nicht nach dem jeweiligen<br />
Bedarf. Die bereits erwähnten geänderten Verteilmechanismen würden eine<br />
gleichmäßigere Verteilung bei weniger Belastung <strong>für</strong> das Personal bringen.<br />
Ein großes Performancedefizit kann bei den Produktionsteams erkannt<br />
werden. Die Abbruchquoten sind überdurchschnittlich hoch.
Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />
Umweltplanung<br />
Patrick Gröss<br />
Software-Produktlinien mit Mixins am Beispiel des elektronischen Akts<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ass.Prof. Dr. Johann Bröthaler<br />
Diese Arbeit behandelt Software-Produktlinien mit Mixins am Beispiel des<br />
elektronischen Akts. Die Verwendung von Mixins eröffnet nicht nur neue<br />
Möglichkeiten, sondern bringt auch zusätzliche Komplexität mit sich. Das Ziel<br />
ist daher, eine Anwendung zu entwickeln, die den Umgang mit Mixins<br />
erleichtert. Ausgehend von der historische Entwicklung, über die<br />
angebotenen Dienstleistungen und den da<strong>für</strong> notwendigen, behördeninternen<br />
Anwendungen, werden die Grundlagen von E-Government betrachtet.<br />
Danach wird am Beispiel von Acta Nova, einem Open-Source-Produkt zur<br />
elektronischen Aktenverwaltung im Bereich der öffentlichen Verwaltung,<br />
darauf eingegangen, wie die Anforderungen an den elektronischen Akts<br />
durch die Entwicklung von Software-Produktlinien mit Mixins adressiert<br />
werden können. Auch die Evaluierung des Prototyps, des Mixin-Cross-<br />
Referencer, dessen Implementierung im Zentrum dieser Arbeit steht, erfolgt<br />
am Beispiel von Acta Nova. Der Mixin-Cross-Referencer analysiert Softwareprojekte,<br />
die auf Mixins basieren und generiert daraus eine Mixin-Dokumentation,<br />
die alle Mixin-relevanten Informationen in einer einfach nutzbaren und<br />
übersichtlichen Form zur Verfügung stellt. Damit kann man die Zusammenhänge<br />
zwischen Zielklassen und Mixins auf einen Blick erkennen. Diese<br />
Informationen könnte sonst nur mühevoll durch Lesen des Quelltextes<br />
nachvollzogen werden. Die Anwendung des Mixin-Cross-Referencers am<br />
Beispiel von Acta Nova liefert folgende Ergebnisse: In Acta Nova werden 229<br />
Mixins auf 720 Zielklassen angewendet. Der Spitzenwert bei Mixins liegt bei<br />
der Anwendung eines einzelnen Mixins auf 250 Zielklassen, währenddessen<br />
bei den Zielklassen der Spitzenwert 13 Mixins pro Zielklasse beträgt. Man<br />
sieht also, welch komplexe Strukturen mit Mixins entstehen können. Der<br />
Einsatz des Mixin-Cross-Referencers kann diese Strukturen zwar nicht<br />
vereinfachen, er kann jedoch die Zusammenhänge so aufbereiten, dass diese<br />
leichter verständlich und besser überschaubar sind.<br />
101
Ingomar Spolwind<br />
Beitrag von Umweltzonen bei der Reduzierung der verkehrsinduzierten<br />
Feinstaubbelastung am Beispiel <strong>Wien</strong><br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Dr. Georg Hauger<br />
Mit 1.1.2005 hat die EU eine Richtlinie erlassen, welche Grenzwerte <strong>für</strong><br />
Feinstaub definiert. Seitdem sind in vielen europäischen Großstädten<br />
Übertretungen der Grenzwerte aufgetreten. Daher sind z. B. in einigen<br />
deutschen Städten (Berlin bzw. Hannover) per 1.1.2008 Umweltzonen<br />
eingerichtet worden. Auch in Österreich ist eine Einführung nach deutschem<br />
Vorbild diskutiert worden. Allerdings ist der Beitrag von Umweltzonen bei der<br />
Reduzierung von Feinstaub von Anfang an umstritten gewesen. Daraus hat<br />
sich die folgende Forschungsfrage entwickelt: Welchen Beitrag kann die<br />
Ausweisung von Umweltzonen bei der Reduzierung der verkehrsinduzierten<br />
Feinstaubbelastung leisten - am Beispiel <strong>Wien</strong>?. Zur ihrer Beantwortung ist<br />
folgende sechsstufige Vorgehensweise gewählt worden: Erstens, Aufzeigen<br />
der Relevanz des Themas, dh. der möglichen Konsequenzen <strong>für</strong> die Gesundheit<br />
und Umwelt infolge erhöhter Feinstaubwerte. Zweitens, Behandlung von<br />
quantitativen Aspekten von Einflussfaktoren (natürliche und anthropogene)<br />
auf die Höhe der Feinstaubbelastung. Drittens, Vergleich (Stärken-<br />
Schwächen-Analyse) des Instruments Umweltzone mit anderen (City-Maut,<br />
Parkraummanagement, Tempolimit, LKW-Durchfahrtsverbot und Straßenreinigung).<br />
Viertens, qualitative Analyse der Gestaltung europäischer Umweltzonen<br />
und Darstellung ihres Beitrags bei der Feinstaubreduzierung in abgestufter<br />
Form. Fünftens, Diskussion der Einschätzung des Feinstaub-Beitrags<br />
von deutschen Umweltzonen aus dem Blickwinkel verschiedener Akteure (Bereiche:<br />
Kommunalpolitik, Wirtschaft, Umwelt, Zeitungen, Automobilindustrie<br />
und Autoclubs). Sechstens, Vorschlag <strong>für</strong> die Ausweisung einer Umweltzone<br />
an der <strong>Wien</strong>er Taborstraße. Dabei wird zuerst die Feinstaubsituation in <strong>Wien</strong><br />
beleuchtet und im Anschluss ein Vorgehen mittels des Handbuch <strong>für</strong><br />
Emissionsfaktoren 3.1 und des Emissionsfaktorenansatzes nach Gehrig bei der<br />
Abschätzung der Feinstaubemissionen vor/nach Umweltzonen-Einführung<br />
skizziert.<br />
102<br />
Christian Johannes Steger<br />
Google Services in datenschutzrechtlicher Perspektive<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ass.Prof. Dr. Markus Haslinger<br />
Google stellt seinen Nutzer/inne/n verschiedene Dienste wie Google Street<br />
View, Google Analytics und Google Docs unentgeltlich ("gratis") zur<br />
Verfügung. Im Rahmen der zugrundeliegenden Businessmodelle werden<br />
jedoch zahlreiche Daten über die Nutzer/innen gesammelt und unter<br />
anderem <strong>für</strong> zielgerichtete Werbung oder Business Intelligence-
Auswertungen genutzt. Die Diplomarbeit wendet sich der daraus<br />
entstehenden Datenschutzproblematik zu, welche gerade in jüngerer Zeit in<br />
Deutschland und Österreich, aber auch darüber hinaus mediale<br />
Aufmerksamkeit erfahren hat. Es zeigt sich, dass Googles Services in einem<br />
Spannungsverhältnis zu jenen Gewährleistungen stehen, die das EU-<br />
Datenschutzrecht und in Umsetzung dessen das österreichischen Datenschutzgesetz<br />
2000 vorsehen. Ferner wird dargelegt, wie das US-Datenschutzrecht<br />
strukturiert ist und warum derart große Unterschiede im<br />
Datenschutzniveau zwischen der EU und den USA bestehen.<br />
Markus Wagner<br />
Das Safe-Harbor Modell - Datenschutzbestimmungen in der Relation EU-USA<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ass.Prof. Dr. Markus Haslinger<br />
Im Zeitalter des Internet, vor allem seit dem Aufkommen der Web 2.0<br />
Technologien, werden personenbezogene Daten sehr leichtfertig<br />
preisgegeben und rasant an Dritte übertragen. Dadurch können<br />
Dienstbetreiber relativ einfach Personendaten sammeln und austauschen,<br />
wodurch über Personen mehr Informationen akquiriert werden können, als<br />
von diesen eigentlich gewollt. Um Konsumenten zu schützen, wurde bereits<br />
1995 die Richtlinie 95/46/EG erlassen, welche unter anderem den Transfer<br />
personenbezogener Daten in Drittstaaten verbietet, wenn diese kein angemessenes<br />
Schutzniveau bieten. Die Datenschutzbestimmungen der USA<br />
werden von der Europäischen Kommission als unsicher eingestuft, daher<br />
dürften grundsätzlich keine personenbezogenen Daten aus der EU in die USA<br />
übermittelt werden. Um eine folgenschwere Datenblockade zu verhindern,<br />
wurde im Jahr 2000 mit der Kommissionsentscheidung 2000/520/EG das<br />
Safe-Harbor Modell kreiert. Safe-Harbor gestattet den Transfer<br />
personenbezogener Daten an Unternehmen in den USA, die sich den Safe-<br />
Harbor Grundsätzen unterworfen und sich selbst zertifiziert haben. Das Modell<br />
ist nun mehr als 10 Jahre in Kraft und es muss eine erschütternde Bilanz<br />
gezogen werden: Der Großteil der Unternehmen hat sich selbst als Safe-<br />
Harbor-Teilnehmer zertifiziert, ohne jedoch die vorgeschriebenen Richtlinien<br />
einzuhalten. Da Datenschutzsünder de facto nicht mit Konsequenzen zu<br />
rechnen haben, stellt das Safe-Harbor Modell einen Freibrief <strong>für</strong> willkürlichen<br />
Umgang mit importierten personenbezogenen Daten dar. Diese Arbeit<br />
befasst sich mit der Analyse der Safe-Harbor-Problematik und der Suche nach<br />
Verbesserungsansätzen. Es werden die Anforderungen an eine funktionierende<br />
Selbstregulierung erörtert, sowie bestehende Lösungsansätze und<br />
deren Schwächen begutachtet und daraus Verbes-serungsmöglichkeiten<br />
erarbeitet. Dabei wird vor allem aufgezeigt, dass andere Prüfmechanismen als<br />
die bloße Selbstkontrolle notwendig sind, um eine nachhaltige Änderung<br />
erwirken zu können.<br />
103
Institut <strong>für</strong> Geoinformation und Kartographie<br />
Michael Lessiak<br />
Vergleich der Marktstrategien von Open- und Closed-Source Software und<br />
Darstellung in einer agentenbasierten Simulation<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: O.Univ.Prof. Dr. Andreas Frank<br />
Der Softwaremarkt wurde signifikant durch das Aufkommen von freier<br />
Software, beziehungsweise Software die unter der GNU-GPL oder<br />
vergleichbaren Lizenzen veröffentlicht wird, und einen ähnlichen<br />
Funktionsumfang wie proprietäre Software preiswerter oder gratis zur<br />
Verfügung stellt, beeinflusst. Etablierte Marktgrößen und teilweise<br />
Monopolisten wie Microsoft, IBM oder Sun mussten ihre Marktstrategien<br />
überdenken und den neuen Herausforderern anpassen, die ähnliche Produkte<br />
wesentlich kostengünstiger anbieten. Im Verlauf dieser Arbeit soll untersucht<br />
werden ob im Rahmen eines Agenten basierten Haskell-Modells folgende<br />
Fragen beantwortet werden können: wie die Anbieter eines gleichwertigen<br />
Produktes auf einem Markt interagieren und von diesem beeinflusst werden,<br />
beziehungsweise welche Strategie sie wählen um ihren eigenen Nutzen zu<br />
maximieren, wenn beide ein ähnliches Produkt anbieten, einer von beiden<br />
sein Produkt aber gratis abgibt. Es soll untersucht werden warum viele Nutzer<br />
bereit sind <strong>für</strong> ein Produkt zu zahlen, wenn sie ein ähnliches oder<br />
gleichwertiges Produkt auch gratis erhalten können und welche<br />
Auswirkungen Schwarzkopien auf den Markt und die Anbieter haben. Ebenso<br />
soll evaluiert werden ob und wie es möglich ist, jenes Modell in der<br />
Programmiersprache Haskell umzusetzen. Um diese Fragestellung zu<br />
betrachten wird zuerst eine Modell entwickelt, dass es ermöglicht die realenn<br />
Gegebenheiten vereinfacht abzubilden. Dieses Modell wird in Haskell<br />
implementiert um anhand der in einer Simulation mit diesem Modell<br />
gewonnenen Daten Rückschlüsse auf die Fragestellungen zu ziehen. Im<br />
Rahmen in der Arbeit ist zu sehen, das die Implementierung eines<br />
ökonomischen Modells in Haskell möglich ist und mit diesem auch<br />
realitätsnahe Daten in einer Simulation gewonnen werden können.<br />
104
Institut <strong>für</strong> Wirtschaftsmathematik<br />
Michael Kratochvila<br />
Endogenous Social Networks: An agent-based model of the formation of the<br />
loyalty in markets.<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuerin: Univ.Prof. Dr. Alexia Fürnkranz-Prskawetz<br />
In various markets customers behave loyal to specific sellers. The purpose of<br />
this thesis is to replicate an agent-based model that explains the emergence<br />
of loyalty between buyers and sellers, where buyers learn to become loyal<br />
and sellers learn to offer advantages to loyal buyers. Both, sellers and buyers,<br />
use reinforcement learning to adapt their behaviour towards an optimal one<br />
for them. Furthermore, different network structures as well as mechanisms for<br />
modelling endogenous interactions are described and an overview of agentbased<br />
modelling is provided. Finally, this thesis examines how information<br />
spread between buyers affects the formation of loyalty. First, the agent-based<br />
model about loyalty was implemented in NetLogo to verify its results with the<br />
findings of the original model. Afterwards, the model was extended by<br />
allowing the buyers to spread and receive information about sellers, which<br />
influenced the seller-choosing process of the buyers. Therefore buyers were<br />
endowed with temporal spatial social networks, which were formed by their<br />
actual neighbours of the sellers queue. Furthermore, buyers had the<br />
possibility to learn the importance of received information to incorporate<br />
them accordingly into their sellers-choosing process. The replicated model<br />
successfully reproduced the outcomes about loyalty. The results of the<br />
extended model showed that positive information about other sellers<br />
reduced the loyalty, whereas negative information about other sellers had no<br />
effects on the emerged level of loyalty. Moreover, buyers learned to put high<br />
attention to received positive information.<br />
Carl Sawerthal<br />
Österreichs Bankensektor im Vergleich zu ausgewählten Instituten Osteuropas<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Ao.Univ.Prof. Gerhard Hanappi<br />
Die Beurteilung bzw. Analyse der Geschäftstätigkeit von Banken stellt ein<br />
relativ junges Fach- bzw. Forschungsgebiet dar. Trotzdem stellen diese<br />
Institute die Finanzdrehscheibe vieler Länder bzw. der ganzen Welt dar. In<br />
den Jahren 2007 bis 2009 konnte man sehen, in welchem Ausmaß Probleme<br />
im Bereich dieser Institute Einfluss auf die Weltwirtschaft haben können. Aus<br />
diesen Überlegungen resultiert die Frage, wie sich der österreichische<br />
Bankensektor über die Jahre vor der Krise, in der Krise und über die Zeit<br />
danach entwickelt hat. Daraus resultierten die Jahre 2005 bis 2010. Eine<br />
105
106<br />
Betrachtung der Banken macht jedoch nur durch einen Vergleich mit anderen<br />
Instituten Sinn. Auf Grund des großen Osteuropa-Exposures der<br />
österreichischen Institute werden in der Arbeit eine Bank aus Polen und eine<br />
Bank aus Ungarn als Vergleich herangezogen. Die Arbeit befasst sich<br />
theoretisch mit dem Finanzmarkt bzw. dem Finanzsektor und anschließend<br />
mit dem Finanzinstitut Bank. Danach werden ein Kennzahlensystem, sowie<br />
Markt- und Ratingdaten definiert und erarbeitet, durch die in weiterer Folge<br />
die fraglichen Institute beurteilt bzw. eine Aussage über diese getroffen wird.<br />
Auf Basis dieses Vergleichs wird deutlich, dass der österreichische<br />
Bankensektor vergleichsweise gut etabliert ist. Die polnische Bank kann unter<br />
ihren Bedingungen in vielen Bewertungskriterien sogar Schritt halten. Das<br />
ungarische Institut muss sich entsprechend der Wirtschaftslage geschlagen<br />
geben. Im Rahmen der Ausarbeitung, stößt die Arbeit auf viele regulatorische<br />
Schwächen bzw. auf, durch das System nicht vorteilhaft etablierte<br />
Bedingungen. Hierzu zählen die Aussagen von Markt- und<br />
Ratinginformationen.
Institut <strong>für</strong> Analysis und Scientific Computing<br />
Pavol Bauer<br />
Validation and Parallel Implementation of Spatial Agent Contacts at an Agent<br />
Based Simulation of Epidemics on Hexagonal Grids<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Felix Breitenecker<br />
Mathematische Modellierung und Simulation sind wichtige Hilfsmittel in der<br />
Analyse von Epidemieausbreitungen, welche Entscheidungsträgern die<br />
Möglichkeit bieten zukünftige Infektionswellen schneller erkennen und<br />
vorbeugen zu können. Im Rahmen dieser Diplomarbeit wird ein<br />
Epidemiemodell vorgestellt welches eine synthetische Bevölkerung -<br />
sogenannte Agenten - kreiert, welche einem virtuellen Krankheitserreger<br />
ausgesetzt werden. Die Agenten können mit diesem Erreger angesteckt<br />
werden, die Infektion auf andere Agenten übertragen und nach einer<br />
gewissen Zeitspanne wieder genesen. Die Basis <strong>für</strong> dieses Verhalten stellt ein<br />
Teil des Models dar, welches Agenten einander zuweist und einem möglichen<br />
Kontakt berechnet. Dieses Modul stellt den Hauptaugenmerk der Arbeit dar:<br />
es wird untersucht ob die Kontaktfindung mit statistischen Methoden oder mit<br />
Hilfe eines abstrakten Raumes auf welchem sich die Agenten frei bewegen<br />
und treffen können, simuliert werden kann. Die Struktur des Raumes und die<br />
Bewegung der Agenten sind an den Lattice Gas Cellular Automaton (LGCA)<br />
angelehnt, einer diskreten mathematischen Methode zur Simulation von<br />
natürlicher Bewegung wie sie in unkomprimierten Gasen oder Flüssigkeiten<br />
vorkommt. Da die Simulation einer grossen Bevölkerung mit Hilfe des LGCA<br />
sehr rechenaufwendig ist, ist im Rahmen der Diplomarbeit ebenfalls ein<br />
paralleler Algorithmus entwickelt worden welcher auf der GPU, dem<br />
Hauptprozessor der Grafikkarte, ausgeführt werden kann. Es hat sich gezeigt,<br />
dass diese Rechenarchitektur die vorgestellte Aufgabe bis zu 100-mal<br />
schneller als die CPU verarbeiten kann. Während die Analyse der<br />
Kontaktfindung mögliche Anwendungsfälle der Methoden beleuchtet stellt<br />
die parallele Implementierung eine Möglichkeit dar, zukünftige räumlich<br />
basierte Epidemiesimulationen preisgünstig und zeiteffizient auf<br />
gewöhnlichen Grafikkarten ausführen zu können.<br />
107
Kateryna Boyko<br />
Lokomotion, evoziert durch die elektrische Stimulation der mesencephalen<br />
lokomotorischen Hirnstammregion sowie durch epidurale und intraspinale<br />
Rückenmarkstimulation<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof.i.R. Dr. Dr. Frank Rattay<br />
Solche rhythmischen Bewegungen wie Laufen, Gehen und Schwimmen<br />
werden von neuronalen Netzwerken im Rückenmark generiert. Diese<br />
Netzwerke sind als zentrale Mustergeneratoren (ZMG) (engl. central pattern<br />
generators; CPG) bekannt. Zentrale Mustergeneratoren sind fähig, die<br />
lokomotorischen Bewegungen sogar ohne supraspinale Kontrolle als auch<br />
ohne sensorischen Input zu produzieren. Das Vorhandensein des ZMGs bei<br />
Wirbeltieren ist längst bewiesen und die Information über die Generierung<br />
des lokomotorischen Muster ist umfangreich. Aufgrund der Komplexität des<br />
menschlichen lokomotorischen Zyklus so wie aus ethischen Gründen ist der<br />
Beweis über die Existenz des ZMG bei Menschen implizit. Die Erforschung der<br />
Funktionsweise der zentralen Mustergeneratoren hat eine große klinische<br />
Bedeutung, vor allem bei der Behandlung der Patienten mit einer<br />
Rückenmarkverletzung. Es wurde festgestellt, dass eine elektrische Stimulation<br />
bestimmter Areale des Hirnstammes (sog. lokomotorischen<br />
Regionen) sowie die epidurale oder intraspinale Stimulation des<br />
Rückenmarkes ein lokomotorisches Muster evozieren kann und nach<br />
entsprechender Optimierung der Stimulationsparameter sogar eine schrittähnliche<br />
Bewegung auslösen kann. Der Schwerpunkt der vorliegenden Arbeit<br />
ist die Beschreibung der Funktionsweise des zentralen Mustergenerators, so<br />
wie der Vergleich der lokomotorischen Bewegungen, evoziert durch verschiedene<br />
Arten der elektrischen Stimulation bei unterschiedlichen Spezies -<br />
Ratten, Katzen und Menschen.<br />
108<br />
Johannes Matiasch<br />
Entwicklung einer semantischen Suche <strong>für</strong> die klinische Radiologie<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof.i.R. Dr. Dr. Frank Rattay<br />
Für Qualität und Effizienz im klinischen Alltag ist eine hohe<br />
Datenverfügbarkeit essentiell. Speziell in der klinischen Radiologie gilt es<br />
große Datenmengen strukturiert zu verwalten und so dem klinischen<br />
Anwender den Zugriff zu erleichtern. Gegenwärtige Radiologieinformationssysteme<br />
vermissen vielfach potente Suchfunktionen und entsprechen<br />
so nicht mehr dem Stand der Technik. In der vorliegenden Diplomarbeit<br />
werden Konzepte aufgezeigt, wie durch Einbindung medizinischer Terminologiesysteme<br />
effizientes Suchen in klinischen Daten ermöglicht wird. Hier<strong>für</strong><br />
wurden die bedeutendsten elektronisch verfügbaren Terminologiesysteme<br />
der Medizin betrachtet und hinsichtlich eines Einsatzes miteinander ver-
glichen. Als beste Option stellte sich das Unified Medical Language System<br />
(UMLS) heraus: UMLS ist eine Meta-Ontologie der US-amerikanischen National<br />
Library of Medicine (NLM), die sämtliche Bereiche der Medizin abdeckt.<br />
Mithilfe des frei zugänglichen MetaMap können biomedizinische Texte auf<br />
UMLS-Konzepte abgebildet werden. Darauf aufbauend kamen Techniken des<br />
unscharfen, konzeptbasierten, facettierten und geclusterten Suchens zur<br />
Anwendung. In diesem Zusammenhang wurde RadFind, eine webbasierte<br />
semantische Suchmaschine mit Fokus auf der klinischen Radiologie als Machbarkeitsbeweis<br />
entwickelt. Bei der Konzeptionierung von RadFind wurden<br />
Arbeitsabläufe des klinischen Alltags, die zuvor in einer Workflow-Analyse vor<br />
Ort ermittelt worden waren, berücksichtigt. Anamnese- und Befundtexte<br />
wurden unter Einbindung medizinischer Ontologien erfasst: Das Foundational<br />
Model of Anatomy (FMA) wurde <strong>für</strong> Mappings auf anatomische Konzepte<br />
verwendet, UMLS <strong>für</strong> Mappings auf pathologische. Testdatensätze wurden<br />
anhand von Lehrfällen des frei zugänglichen Lehrarchivs BrighamRAD, Teil<br />
der Harvard Medical School, erstellt. RadFind zeigt, dass durch Anwendung<br />
semantischer Konzepte ein effizienterer Umgang mit klinischen Daten<br />
möglich ist. RadFind kann unter RadFind@gmail.com angefordert werden.<br />
Richard Salzer<br />
Optimizing OMV truck scheduling<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Felix Breitenecker<br />
Das Ziel dieser Diplomarbeit war es die Zuweisung von Tankwagen zu Ladespuren<br />
in OMV Tanklagern zu optimieren. Es wurde ein neuer Algorithmus<br />
entwickelt der mehrere Zuweisungsmodi unterstützt. Die neu entwickelten<br />
Modi versuchen abzuschätzen wie viel Zeit eine Transaktion voraussichtlich<br />
benötigen wird. Auf entwickelten Simulationsmodellen der Tanklager wurde<br />
dieser neue Algorithmus hinsichtlich des zeitlichen Verhaltens, der Verteilung<br />
von Transaktionen auf Ladespuren, sowie der durchschnittlichen<br />
Warteschlangenlänge untersucht. Zusätzlich zu der ausgewerteten<br />
Frequentierung der Tanklager wurde ein weiteres Szenario mit starker<br />
Auslastung der Tanklager simuliert und ausgewertet. Die OMV besitzt fünf<br />
Tanklager in Österreich. In Tanklagern können Tankwagen Erdölprodukte wie<br />
Benzine, Diesel oder Heizöle abholen um z.B. Tankstellen zu beliefern. Dabei<br />
kann ein Tankwagen, der aus bis zu acht Kammern besteht, mit<br />
verschiedenen Produkten befüllt werden. Jedes Tanklager stellt mehrere<br />
Ladespuren zur Verfügung auf denen Tankwagen gleichzeitig verladen<br />
können. Auf jeder Ladespur kann eine unterschiedliche Anzahl von Zählern,<br />
über die Produkte abgegeben werden, vorhanden sein. Dabei können auch<br />
mehrere Zähler des gleichen Produktes zur Verfügung stehen um mehrere<br />
Kammern mit z.B. Diesel gleichzeitig verladen zu können. Die genaue<br />
Konfiguration der Tanklager zusammen mit ausgewerteten zeitlichen<br />
Verhalten der Tankwagenfahrer, bildet die Datenbasis <strong>für</strong> die<br />
Simulationsmodelle. Die Ergebnisse zeigen, dass nicht jedes Tanklager mit<br />
109
dem gleichen Modus optimal betrieben wird. Die genau Konfiguration und<br />
Anzahl der einzelnen Ladespuren spielt hinsichtlich des zeitlichen Verhaltens<br />
eine große Rolle. Weiters ist die Verteilung des zeitlichen Verhaltens von<br />
menschlichen Interaktionen zu berücksichtigen. Eine ungünstige Verteilung,<br />
deren Intervall einen großen Zeitraum einschließt, kann sich schlecht auf die<br />
Voraussage der Transaktionsdauer auswirken.<br />
Rainer Semerad<br />
Prüfstandentwicklung zur Frequenzgangevaluierung von<br />
Blutdruckmanschetten<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof.i.R. Dr. Dr. Frank Rattay<br />
In Industriestaaten führen kardiovaskuläre Erkrankungen die Statistiken der<br />
Todesursachen an. Um diese Herz-Kreislauferkrankungen zu diagnostizieren,<br />
werden Katheter verwendet. Die invasive Messmethode ist keine ambulante<br />
Behandlung und führt deshalb zu erhöhten Kosten im Spitalswesen und kann<br />
Komplikationen hervorrufen. Die alternative Messmethode mittels der<br />
nichtinvasiven Blutdruckmessung hängt von den unterschiedlichsten<br />
Messparametern ab. Um das System zu verbessern muss das gesamte<br />
Verhalten der Messkette bekannt sein. Das vom Austrian Institute of<br />
Technology entwickelte oszillometrische Messsystem CardioCube arbeitet mit<br />
einem nichtinvasiven Messaufnehmer (Manschette). Dies ist ein noch zu<br />
untersuchender Faktor in der Messkette. Ziel der Arbeit ist die Charakterisierung<br />
dieses Messaufnehmers mittels eines zu entwickelnden Prüfstandes.<br />
Dabei wird das Übertragungsverhalten mittels der experimentellen<br />
Systemidentifikation ermittelt. Die realitätsnahe Evaluierung der Manschette<br />
wird durch rundes Aufspannen mittels des manschetteneigenen Klettverschluss<br />
gegeben. Als Signalgeber wurde eine Scheibe entwickelt, welche<br />
die Manschette auf der Innenseite sinusförmig anregt. Die entwickelte<br />
Steuerung des Prüfstandes und die Signalverarbeitung erfolgt mittels Matlab.<br />
Es wird angenommen, dass die Blutdruckmanschette ein Tiefpassverhalten<br />
ähnlich eines Verzögerungsgliedes 2. Ordnung (gedämpft schwingend) hat.<br />
Dies kann aus dem experimentell ermittelten Frequenzgang und einem<br />
Modell, welches aus einer Sprungantwort erstellt wird, verifiziert werden.<br />
Innerhalb des relevanten Messbereichs von CardioCube wird der gemessene<br />
Frequenzgang der Manschette durch die analytische Formel mit dem größten<br />
Bestimmtheitsmaß r² beschrieben. Diese Funktion wurde in CardioCube<br />
implementiert und durch ein abschließendes Experiment überprüft. Dabei<br />
konnte der Einfluss der Blutdruckmanschette auf die Messung innerhalb des<br />
gesamten Messbereichs kompensiert werden.<br />
110
Institut “integriert studieren”<br />
Franz Hartl<br />
Rapid Prototyping einer low-cost Embedded System Lösung zur digitalen<br />
Erfassung von Druckmedien<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />
Diese Diplomarbeit beschäftigt sich mit der Erweiterung von bestehenden<br />
automatischen Digitalisierungslösungen, welche die Digitalisierung von<br />
inhomogenen Buchbeständen vereinfachen und beschleunigen soll. Weiters<br />
soll das zu entwickelnde Gerät ebenfalls zur Digitalisierung ganzer Werke<br />
nutzbar und somit <strong>für</strong> kleinere Digitalisierungsvolumina verwendbar sein.<br />
Da<strong>für</strong> soll eine manuelle Lösung zur Digitalisierung von Druckmedien<br />
entwickelt werden, welche in einen Digitalisierungsprozess eingebunden werden<br />
kann. Der zu entwickelnde Prototyp soll als Tischsystem aufgebaut sein,<br />
bei dem sowohl die Beleuchtung als auch die Kamera auf der Unterseite des<br />
Tisches montiert sind und durch eine Glasplatte ablichten. Durch die<br />
Fixierung der Aufnahmefläche (Glasplatte) kann die Auflösung (PPI) konstant<br />
gehalten werden, unabhängig von der Form des Druckmediums. Mit Hilfe<br />
eines programmierten Beleuchtungssimulators, der mittels FEM arbeitet,<br />
konnte ein passender LED-Typ ausgesucht und damit die Beleuchtungshomogenität<br />
der Aufnahmefläche optimiert werden. Mit Hilfe von<br />
Gegenlichtblenden konnten die LED-Balken so platziert werden, dass keine<br />
Reflexion in die Kamera erfolgt und dass die Helligkeitsschwankung über den<br />
Aufnahmebereich maximal 7 % beträgt. Die verbleibende Helligkeitsschwankung<br />
konnte mittels einer Korrekturmatrix softwareseitig entfernt<br />
werden. Der Schärfentiefebereich liegt über dem der am Markt erhältlichen<br />
Flachbettscanner und kann je nach Medium durch die Blende verändert<br />
werden. Es konnte gezeigt werden, dass mit der passenden Kamera bei 300<br />
PPI, DIN A3 formatfüllend aufgenommen werden kann. Der Geschwindigkeitsvorteil<br />
gegenüber Lösungen, die Zeilenscanner verwenden, ist offensichtlich,<br />
da mit einem Schuss die gesamte Aufnahmefläche abgelichtet werden kann.<br />
Der Prototyp konnte durch den simplen Aufbau der Einzelkomponenten<br />
inklusive der Kamera mit weniger als 1200 konstruiert werden.<br />
111
Christian Franz Hattinger<br />
GES<strong>TU</strong>: Evaluierung von technischen Hilfsmitteln zur Förderung Studierender<br />
mit Hörbehinderung im österreichischen tertiären Bildungssektor und<br />
Einführung geeigneter Technologien an der <strong>TU</strong> <strong>Wien</strong><br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />
Der Fokus liegt auf der Evaluierung und Einführung geeigneter Hilfsmittel an<br />
der <strong>TU</strong> <strong>Wien</strong>, welche die Informationsaufnahme von Lehrinhalten und der<br />
Partizipation während Vorlesungen, Diskussionen, etc. ermöglichen. Die<br />
zentrale Fragestellung dabei ist, unter welchen Vorraussetzungen die<br />
jeweiligen Hilfsmittel den unterschiedlichen Bedürfnissen der heterogenen<br />
Gruppe hörbeeinträchtigter Studierender gerecht werden können. Zwei<br />
technische Hilfsmittel wurden in Fallstudien erprobt und anhand von<br />
Interviews mit den teilnehmenden hörbeeinträchtigten Personen und anwesenden<br />
Fachleuten auf ihre Praxistauglichkeit getestet und beurteilt. In der<br />
ersten Fallstudie wurde die Live-Untertitelung eines Vortrags mittels<br />
Respeaking durchgeführt. Beim Respeaking handelt es sich um eine Methode,<br />
mit der negative Einflussfaktoren auf die Qualität der Erkennungsrate einer<br />
ASR umgangen werden können, indem ein Sprecher oder eine Sprecherin das<br />
Gesagte, in einer <strong>für</strong> die Software gut verarbeitbaren Weise, nachspricht. In<br />
der zweiten Fallstudie wurde das Remote Gebärdensprachdolmetschen (RGD)<br />
anhand verschiedenen Soft- und Hardwarelösungen evaluiert. Eine Dolmetscherin<br />
bzw. ein Dolmetscher arbeitet beim RGD aus der Ferne und ist<br />
nicht vor Ort. Im österreichischen und internationalen Umfeld etablierte oder<br />
in Zukunft vielversprechende Hilfsmittel sind auf deren Möglichkeiten <strong>für</strong> die<br />
österreichische Hochschulbildung aus technischer-, organisatorischer- sowie<br />
finanzieller Sicht beurteilt. Respeaking bietet derzeit neben Simultanschnellschreibern<br />
bzw. Schnellschreiberinnen die einzige Möglichkeit zur Live-<br />
Untertitelung von deutschsprachigen Vorlesungen. Anhand der erarbeiteten<br />
Empfehlungen sind darüber hinaus weitere RGD Versuche geplant. Durch<br />
eine im Zuge der Diplomarbeit entstandene Kooperation zur<br />
Weiterentwicklung einer ASR soll zukünftig die Untertitelungsquote in<br />
eLearning Plattformen erhöht werden.<br />
112<br />
Andreas Schneider<br />
Touch-Screen User Interface mit haptischem Feedback<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
Betreuer: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />
Das Ziel dieser Arbeit ist es, ein universelles multimodales Userinterface zu<br />
entwerfen. Es soll möglich sein, das Gerät <strong>für</strong> verschiedene Zwecke zu verwenden.<br />
Es soll also eine Plattform entwickelt werden, die später individuell<br />
konfigurierbar ist. Zur Visualisierung soll ein Touchscreen zum Einsatz<br />
kommen. Die Größe dieses Touchscreens soll so gewählt werden, dass auch
ältere Menschen gut damit arbeiten können. Konfigurierbar soll das Gerät<br />
über eine SD-Karte sein. Weiters sollen hier auch die anzuzeigenden Daten<br />
hinterlegt werden. Wichtig ist, dass der Touchscreen intuitiv bedienbar ist.<br />
Dazu soll ein neues Konzept zur Bedienung entwickelt werden, das den<br />
klassischen Doppelklick ersetzt. Insbesondere werden die Positionswahl und<br />
die Auslösung entkoppelt. Das Führen des Fingers über den Screen markiert<br />
die gewünschte Position, erst ein mechanischer Druck mit eindeutigem<br />
haptischem Feedback löst die gewählte Aktion aus. So soll das System vor<br />
allem <strong>für</strong> ältere Menschen einfacher zu bedienen sein.<br />
113
In Zusammenarbeit mit anderen wissenschaftlichen<br />
Einrichtungen<br />
Universität <strong>Wien</strong><br />
Gregor Prokesch<br />
Erstellung einer Online-Lernplattform mittels Google Web Toolkit<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Dr. Andreas Ulovec<br />
With this work an online learning platform was developed. The basically<br />
programming language which has been used was Java, but particular it was<br />
used within the framework Google Web Toolkit. In this project the advantages<br />
of a modern, efficient programming interface like offered with the GWT was<br />
used and thus shown. E.g. AJAX functions were used which are typically for<br />
modern web applications. In addition the advantages of programming with<br />
Java were utilized. On the one hand the design of the application was done<br />
on an object-oriented way for building a modular structure and therefore<br />
making it possible to expand the application at a later time. On the other side<br />
Java functionalities like RPCs or odbc database connections were used. The<br />
learning platform is oriented on the well known Moodle application and<br />
implements some of its most important features. Different user groups have<br />
different possibilities for actuating on the learning platform.<br />
114<br />
Tugba Yavas<br />
E-Learning in Unternehmen<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Dr. Andreas Ulovec<br />
Meine Magisterarbeit wird sich mit E-Learning in Unternehmen beschäftigen.<br />
Der erste Abschnitt wird die allgemeine Definition über E-Learning sein. Im<br />
zweiten Kapitel werden die unterschiedlichen Arten von E-Learning beschrieben,<br />
da es viele Arten gibt, wird es eine Einschränkung geben, wo die<br />
Formen WBT, CBT und Online-Lernen in meiner Arbeit vorkommen werden.<br />
WBT (Web-based-training) ist Online-Lernen wie z.B Internet/Intranet und CBT<br />
(Computer-based-training ist Offline-Lernen und dass sind meistens CD-<br />
ROMs. CSCL (Computer Supported Collaborative Learning) wird als virtuelle<br />
Klassenzimmer bezeichnet. Was genau in einem virtuellen Klassenzimmer<br />
gemacht wird und wie es funktioniert wird in meiner Arbeit kurz erfasst. Zu<br />
jedem genannten E-Learning Formen werden die Vor- und die Nachteile<br />
aufgeteilt. Im 3.Kapitel wird die Auswirkung des E-Learning in der Psychologie<br />
berichtet. Die Selbststeuerung des Lernens ist sehr wichtig, da die Kontrolle
über die eigenen Handlungen erfordert, dazu gehört auch das Vertrauen in<br />
die eigenen Fähigkeiten. Im nächsten Kapitel werden Unternehmen<br />
beschrieben, die mit E-Learning arbeiten oder gearbeitet haben und wie die<br />
Zukunftspläne <strong>für</strong> E-Learning sind. Es werden unterschiedliche Projekte<br />
beschrieben. Letztens wird eine Umfrage unter beschäftigte Mitarbeiter und<br />
berufstätige Studenten geführt, was Sie über E-Learning halten, da es<br />
Studenten gibt, die nebenbei arbeiten und studieren, sehe ich das als ein<br />
Vorteil, die Studenten auch zu fragen, da Sie einen Vergleich zwischen Arbeit<br />
und Universität machen können. Bei den Beschäftigten werden<br />
unterschiedliche Unternehmen ausgesucht und deren Mitarbeiter befragt.<br />
Zum Schluss wird eine Reihe von Linklisten über E-Learning geben.<br />
Bahar Yilmaz-Alan<br />
Internetnutzung unter sozialen Gruppen<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
Betreuer: Dr. Andreas Ulovec<br />
Durch die Entwicklung der neuen Technologie des Internets sind gravierende<br />
Erneuerungen in vielen Bereichen entstanden. Internet ist zu einem Teil<br />
unseres Lebens geworden, das heute fast von jedem genutzt wird. Diese<br />
Technologie hat eine massive Zielgruppe erreicht, der Großteil dieser Gruppe<br />
ist die junge Generation. Da sie sehr großes Interesse <strong>für</strong> das Internet<br />
aufweisen, sind sie ein sehr großes Potenzial <strong>für</strong> diesen Bereich. Diese Arbeit<br />
mit dem Thema Internetnutzung unter sozialen Gruppen verfolgt zum einen<br />
das Ziel, dem Leser ein theoretisches Verständnis der Thematik Internetnutzung<br />
zu ermöglichen. Das zweite Ziel dieser Arbeit ist die empirische<br />
Untersuchung durch die Form der Onlinebefragung bei der die befragten<br />
Studenten verschiedene Faktoren zum Thema Internetnutzung im privaten<br />
und im universitären Bereich beurteilen sollen.<br />
Medizinische Universität <strong>Wien</strong><br />
Florian Guggenberger<br />
Softwaredesign zur Programmierung eines Elektrostimulators mit integriertem<br />
Compliance Management<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Univ.Doz. Dr. Winfried Mayr<br />
This thesis introduces a software application to programm an electrical<br />
stimulation device with different stimulation patterns. The easy to use<br />
software, which was developed within this thesis, supports flexible manipulation<br />
of several parameters in a intuitive matter. Also the setting for<br />
recording measurement signals can be adjusted with this application.<br />
115
Compliance of training with the stimulation device is recorded and can be<br />
managed within the software. The data structures used for realisation were<br />
introduces and the concept for dealing with data exchange between the<br />
software and stimulation device would be described. An important part of the<br />
project deals with the management of compliance to collect data related to<br />
duration and intesity of sessions with electical stimulation. In this work a<br />
strategy for compliance management with functional electrical stimulation is<br />
pronounced. It shows the technology used to implement the real world<br />
problem with Windows Presentation Foundation based on the .NET-<br />
Framework. The meaning of the Model-View-ViewModel design pattern in<br />
context with WPF is described and the thesis would show the utilisation of the<br />
pattern within this work. As a result the software developed, allows an easy to<br />
use creation of various stimulation patterns with the possibilty to monitor<br />
measurements taken throughout stimulation trainings. Comparison of<br />
measurement signals could also be done with the application. And as a key<br />
feature the software allows recording of compliance data to analyse the<br />
training sessions for each patient.<br />
116<br />
Verena Spiteller<br />
Integration von Konzepten der problemorientierten Dokumentation in das<br />
EHR<br />
Studium: Masterstudium Software Engineering & Internet Computing<br />
Betreuer: Ao.Univ.Prof. Dr. Georg Duftschmid<br />
Elektronische Gesundheitsakten (EHRs) dienen dazu, die Inhalte der<br />
medizinischen Dokumentation zu einem Patienten zu sammeln. Die Idee der<br />
problemorientierten Dokumentation (POD) geht auf L.L. Weed zurück, der die<br />
Dokumentation geordnet nach Problemen propagierte, um die Informationen<br />
jeweils in ihrem Kontext beurteilen zu können. Im Hinblick auf eine integrierte<br />
Gesundheitsversorgung müssen die Dokumentationsinhalte zwischen<br />
mehreren Institutionen ausgetauscht werden. Um eine breite Interoperabilität<br />
verschiedenartiger Informationssysteme zu erreichen, hat sich die<br />
Verwendung von Standards bewährt. In dieser Arbeit werden die speziellen<br />
Anforderungen einer shareable POD (einrichtungsübergreifenden<br />
problemorientierten Dokumentation) erhoben und existierende EHR-<br />
Standards darauf untersucht, inwiefern sie diese Anforderungen unterstützen.<br />
Die Standards EN 13940, ISO/EN 13606, HL7 CDA und IHE XDS<br />
wurden <strong>für</strong> die Untersuchung ausgewählt, da sie in nationalen EHR-<br />
Programmen zum Einsatz kommen können. Basierend auf einer<br />
Literaturrecherche wird ein shareable POD-Modell entwickelt, das jene<br />
Konzepte darstellt, die <strong>für</strong> eine shareable POD charakteristisch sind. Weiters<br />
wird ein Kriterienkatalog entwickelt, mittels dessen die Erfüllung der zentralen<br />
Anforderungen an ein shareable POD-Modell überprüft werden kann. Anhand<br />
der Spezikationen der Standards werden Vorschläge erarbeitet, wie eine<br />
shareable POD mit dem jeweiligen Standard umsetzbar ist. Diese Vorschläge<br />
werden auf Basis des Kriterienkatalogs bewertet. Die Literaturrecherche zeigt,
dass es keine allgemein anerkannte Spezikation <strong>für</strong> eine shareable POD gibt.<br />
Es wird aufgezeigt, dass die genannten vier Standards jeweils<br />
unterschiedliche Stärken und Schwächen hinsichtlich ihrer Nutzung zur<br />
verteilten problemorientierten medizinischen Dokumentation aufweisen. Die<br />
Ergebnisse bestätigen, dass die untersuchten Standards viele Anforderungen<br />
einer shareable POD erfüllen, aber nicht jeder von ihnen allen gerecht wird.<br />
Hilal Tekoglu<br />
Evaluierung von klinischen Studiensystemen <strong>für</strong> akademische Studien<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Univ.Prof. DDr. Wolfgang Dorda<br />
Durch den Einsatz von Web- und Informationstechnologien können die<br />
Abläufe in klinischen Studien optimiert, die Datenqualität erhöht und die<br />
Kosten reduziert werden. Um die Durchführung von klinischen Studien im<br />
akademischen bzw. universitären Bereich zu unterstützen, soll an der<br />
Medizinischen Universität <strong>Wien</strong> ein Clinical Data Management System (CDMS)<br />
zum Einsatz kommen. Das CDMS soll die neuesten technischen<br />
Entwicklungen und Standards unterstützen sowie die Benutzeranforderung im<br />
Rahmen der Studienprozesse erfüllen. Das Ziel dieser Arbeit ist die<br />
funktionalen Anforderungen an ein CDMS aus Sicht der Benutzer zu erheben,<br />
die Evaluierung von ausgewählten CDMS durchzuführen und eine<br />
Systemauswahl zu argumentieren. Für die Anforderungserhebung wurden die<br />
Studienprozesse anhand von UML Diagrammen modelliert. Basierend auf den<br />
Anwendungsfall- und Aktivitätsdiagrammen wurden die funktionalen<br />
Anforderungen generiert und in einem Kriterienkatalog strukturiert<br />
abgebildet. Anhand dieses Kriterienkatalogs wurde die Evaluierung von drei<br />
ausgewählten Systemen (MARVIN von XClinical, EDC System des AIT und<br />
OpenClinica von Akaza Research) durchgeführt. Die Anforderungen wurden<br />
je nach Erfüllungsgrad bewertet. Anschließend wurde eine Systemauswahl<br />
argumentiert. Während der Evaluierung standen die Systeme mit jeweils<br />
unterschiedlichen Funktionsumfängen zur Verfügung. Das EDC System des<br />
AIT wurde von der Systemauswahl aufgrund der hohen Anzahl von nicht<br />
erhebbaren Anforderungen ausgeschlossen. Der Einsatz von MARVIN und<br />
OpenClinica im Rahmen von akademischen klinischen Studien kann<br />
empfohlen werden. Beide Systeme erfüllen die Anforderungen ohne<br />
wesentliche Unterschiede. Unterschiede liegen im Erfüllungsgrad des<br />
Prozessablaufes vor. Zur Entscheidungsfindung wird eine zusätzliche<br />
Evaluierung der Prozessunterstützung in den jeweiligen Systemen empfohlen.<br />
117
Sarah <strong>Wien</strong>er<br />
Evaluation von Informationsvisualisierung - Wegweiser <strong>für</strong> Design<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
Betreuer: Univ.Prof. Dr. Klaus-Peter Adlassnig<br />
In verschiedensten Fachgebieten, auch in der Medizin, sammeln sich viele<br />
Daten an. Die Informationsvisualisierung beschäftigt sich damit, geeignet<br />
Darstellungsformen zu finden um die Analyse von überwältigenden<br />
Datenmengen zu erleichtern. Zahlreiche Varianten sind entstanden, welche<br />
fortlaufend evaluiert werden, um Stärken und Schwächen aufzudecken. Doch<br />
nun fehlt es an Zusammenführungen von Ergebnissen aus den Studien, um<br />
dieses Wissen <strong>für</strong> die Verbesserung oder <strong>für</strong> die Gestaltung neuer<br />
Visualisierungen nutzen zu können. Um viele Informationen der Eigenschaften<br />
der Techniken zu erhalten, werden weitere Evaluierungsmethoden<br />
benötigt. Ziel dieser Arbeit ist, eine Sammlung von Evaluationen von<br />
Informationsvisualisierungen anhand eines Rasters zu untersuchen und die<br />
Ergebnisse der Studien zusammenzuführen. Ein Überblick über Erfahrungen<br />
bezüglich des Evaluierungsvorgehens sowie gesammelte Erkenntnisse von<br />
Informationsvisualisierungen soll geschaffen werden. Am Beispiel des Fachgebietes<br />
Medizin werden Bedürfnisse von AnwenderInnen veranschaulicht<br />
und Aspekte diskutiert, die <strong>für</strong> eine weitestgehend reibungslose Einführung<br />
neuer Techniken relevant sind. Aus der Betrachtung der Studienergebnisse ist<br />
hervorgegangen, dass die Evaluierungsmethoden Eye-Tracking, Thinking-<br />
Aloud und Fokusgruppe Potential zeigten, die Evaluierung von Informationsvisualisierung<br />
zu ergänzen. Geometrische Visualisierungen wurden mittlerweile<br />
oft, pixelorientierte Techniken hingegen kaum evaluiert. Interessante<br />
Aspekte konnten aufgedeckt werden wie etwa, dass 3D-Visualisierungen<br />
noch nicht effizient genug sind, aber es Ansätze <strong>für</strong> Verbesserungen gibt.<br />
Ebenso wurde ersichtlich, dass Animationen hilfreich sind, aber bedacht<br />
eingesetzt werden sollten. Evaluationen von medizinischen Anwendungen<br />
zeigten, dass die Einführung neuer Techniken nicht schlagartig stattfinden<br />
sollte. Diese können sich zwar von traditionellen Methoden unterscheiden,<br />
sollten aber schnell und einfach erlernbar sein.<br />
118
Wirtschaftsuniversität <strong>Wien</strong><br />
Mario Annau<br />
Financial News Mining and Sentiment Analysis using R<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
Betreuer: Univ.Prof. Dr. Kurt Hornik<br />
The focus of this thesis are the packages tm.plugin.webcorpus and<br />
tm.plugin.sentiment implemented in R. They define a framework for the<br />
retrieval of text corpora from the Internet as well as the sentiment analysis of<br />
news texts. The package tm.plugin.webcorpus itself supports a wide range of<br />
data feed providers like Google News, Yahoo BOSS or Reuters Spotlight. The<br />
flexibility of the framework enables the user to extend tm.plugin.webcorpus<br />
with a variety of additional data feeds. Integrated extraction functions offer<br />
the opportunity to gain news content from arbitrary Internet pages.<br />
tm.plugin.sentiment} does not only implement functions to determine the<br />
sentiment of text documents, it also supports the generation and visualization<br />
of time series showing the development of sentiment concerning a specific<br />
topic.<br />
119
Index der Autorinnen und Autoren<br />
Adamer Jasmin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Annau Mario - Wirtschaftsuniversität <strong>Wien</strong><br />
Arnberger Simone - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Artner Thomas - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Bachl Stefan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Bauer Pavol - Institut <strong>für</strong> Analysis und Scientific Computing<br />
Baumann Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Bayrhammer Klaus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Beheshti Seyed Amir - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Berchtold Dominik Manfred - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Bernauer Andreas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Blechmann Tim - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Bogner Anita - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Boyko Kateryna - Institut <strong>für</strong> Analysis und Scientific Computing<br />
Bruckmayer Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen,<br />
Arbeitsbereich Computergraphik<br />
Brugner Simon - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Multidisciplinary Design<br />
Buchgraber Ulrich - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Real Time<br />
Systems<br />
Burker Alexander - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Daxböck Johannes - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich E-Commerce<br />
Dikme Ufuk - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Dönz Tobias - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen<br />
und Übersetzer<br />
120
Edlinger Karl-Michael - Institut <strong>für</strong> Computergraphik und Algorithmen,<br />
Arbeitsbereich Algorithmen und Datenstrukturen<br />
Eisenbarth Mattias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Fantoni Andreas - Institut <strong>für</strong> Managementwissenschaften<br />
Fechter Tobias - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Fedorovskaia Karina - Institut <strong>für</strong> Managementwissenschaften<br />
Fodor Igor - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-<br />
Commerce<br />
Fritz Gernot - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Fuchs Alexander - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Garz Angelika - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich Computer<br />
Vision<br />
Gassner Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Gelbmann Wolfgang - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Gerstweiler Georg - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Gneiss Birgit - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Interactive Media Systems<br />
Goldmann Axel - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Goralczyk Monika - Institut <strong>für</strong> Managementwissenschaften<br />
Grabher Marcel - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Grabner Johann - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Gröss Patrick - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />
Umweltplanung<br />
Gruber Christian - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Grünauer Andreas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Grünling Manfred - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Guggenberger Florian - Medizinische Universität <strong>Wien</strong><br />
Haberl Peter - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />
Systems<br />
121
Hahn Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Halmetschlager Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Business Informatics<br />
Hamm Markus - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Hanzl Michael - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Hartl Franz – Institut “integriert studieren“<br />
Hattinger Christian Franz – Institut “integriert studieren“<br />
Heil Erich - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich E-<br />
Commerce<br />
Helpa Christopher - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Real Time<br />
Systems<br />
Hinn Roland - Institut <strong>für</strong> Managementwissenschaften<br />
Holzkorn Peter - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Hutterer Matthias - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich E-Commerce<br />
Isakovic Haris - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Real Time Systems<br />
Kahofer Agnes - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Multidisciplinary Design<br />
Kail Ingrid - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Kammerstetter Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Kern Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Kinkelin Martin - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Kittel Gabriel - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />
Kloibhofer Richard - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Knotek Anatol - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Königsmayr Michael - Institut <strong>für</strong> Managementwissenschaften<br />
Kopper Andreas - Institut <strong>für</strong> Managementwissenschaften<br />
Köstinger Harald - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Krasnitzky Manfred - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />
Systems<br />
Kratochvila Michael - Institut <strong>für</strong> Wirtschaftsmathematik<br />
122
Krenek Thorsten - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Krinninger Sebastian - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />
<strong>Informatik</strong> und Logik<br />
Kronegger Martin - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Lehotsky Andrej - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Leiter Christoph - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Les Iwona - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />
Lessiak Michael - Institut <strong>für</strong> Geoinformation und Kartographie<br />
Lindorfer Martina - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Makaruk Eliza - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Marchart Andreas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Matiasch Johannes - Institut <strong>für</strong> Analysis und Scientific Computing<br />
Mautner Markhof Clemens - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung,<br />
Arbeitsbereich Human Computer Interaction<br />
Mayerhofer Tanja - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Business Informatics<br />
Mesetovic Boris - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed<br />
Systems<br />
Mladek Florian - Institut <strong>für</strong> Managementwissenschaften<br />
Moshki Hanieh - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Najvirt Robert - Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Arbeitsbereich Embedded<br />
Computing Systems<br />
Narinsky Leonid - Institut <strong>für</strong> Managementwissenschaften<br />
Nenning Karl-Heinz - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Computer Vision<br />
Neuböck Thomas - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich E-Commerce<br />
Neumann Andreas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Nguyen Lam Tung - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Database and<br />
Artificial Intelligence<br />
Niederreiter Christian - Institut <strong>für</strong> Computergraphik und Algorithmen,<br />
Arbeitsbereich Computergraphik<br />
Nürnberg Marcel - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
123
Oberreiter Markus - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Pichler Katharina - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Pickelbauer Michael - Institut <strong>für</strong> Computertechnik<br />
Popovic Daniela - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Preier Cornelia - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Prokesch Gregor - Universität <strong>Wien</strong><br />
Purer Klaus - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Randak Andrea - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Business Informatics<br />
Raschbauer Reinhard - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Reiterer Stefan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Reiterer Martin - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Rest Günther - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Rezaie Homa - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
Sabin Patrick - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Programmiersprachen<br />
und Übersetzer<br />
Salzer Richard - Institut <strong>für</strong> Analysis und Scientific Computing<br />
Sawerthal Carl - Institut <strong>für</strong> Wirtschaftsmathematik<br />
Schakmann Rene - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Scheuer Bernhard - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Schiffl Katharina - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Schmöllerl Michael - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Schneider Andreas – Institut “integriert studieren“<br />
Schuldt Hauke - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich E-Commerce<br />
Sehic Sanjin - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Distributed Systems<br />
Seidl Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
124
Seitz Georg - Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische<br />
<strong>Informatik</strong> und Logik<br />
Semerad Rainer - Institut <strong>für</strong> Analysis und Scientific Computing<br />
Sentürk Handan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Siller Ernst - Institut <strong>für</strong> Managementwissenschaften<br />
Sinnl Markus - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Smejkal Peter - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Multidisciplinary Design<br />
Sohrabi-Moayd Fakhteh - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Spendier Lara Katharina - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Theoretische <strong>Informatik</strong> und Logik<br />
Spiteller Verena - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Spiteller Verena - Medizinische Universität <strong>Wien</strong><br />
Spolwind Ingomar - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />
Umweltplanung<br />
Stachl Claus - Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung, Arbeitsbereich<br />
Human Computer Interaction<br />
Starzinger Michael - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Staud Philip - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
E-Commerce<br />
Stefanoni Giorgio - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />
Based Systems<br />
Steger Christian Johannes - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />
Umweltplanung<br />
Steiner Markus - Institut <strong>für</strong> Managementwissenschaften<br />
Stemer Bertram - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Stingl Martin - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Tekoglu Hilal - Medizinische Universität <strong>Wien</strong><br />
Thomas Christian - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Tinkl Bernhard - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
Tran Trung Kien - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />
Based Systems<br />
Vallon Raoul - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
125
Vass Bence - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Vögler Michael - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Programmiersprachen und Übersetzer<br />
Volcic Mark - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Vonach Emanuel - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Interactive Media Systems<br />
Wageneder Nikolas Johannes - Institut <strong>für</strong> Rechnergestützte Automation,<br />
Arbeitsbereich Automatisierungssysteme<br />
Wagner Alexander - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Wagner Markus - Department <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />
Umweltplanung<br />
Wallerstorfer Dirk - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Wandl Conrad Stefan - Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Automatisierungssysteme<br />
Weigl Elisabeth - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme,<br />
Arbeitsbereich Information & Software Engineering<br />
<strong>Wien</strong>er Sarah - Medizinische Universität <strong>Wien</strong><br />
Wijaya Tri Kurniawan - Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge<br />
Based Systems<br />
Winkler Thomas - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Algorithmen und Datenstrukturen<br />
Yavas Tugba - Universität <strong>Wien</strong><br />
Yilmaz-Alan Bahar - Universität <strong>Wien</strong><br />
Zhang Le - Institut <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
Zumpf Harald Andreas - Institut <strong>für</strong> Computersprachen, Arbeitsbereich<br />
Theoretische <strong>Informatik</strong> und Logik<br />
Zvizdic Edin - Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Arbeitsbereich<br />
Information & Software Engineering<br />
126
Alle in diesem <strong>Band</strong> angeführten <strong>Abstract</strong>s stammen von den AutorInnen<br />
der jeweiligen Diplomarbeit. <strong>Abstract</strong>s der Diplomarbeiten werden von den<br />
BetreuerInnen approbiert.<br />
IMPRESSUM<br />
Zentrum <strong>für</strong> Koordination und Kommunikation<br />
der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
1040 <strong>Wien</strong>, Favoritenstraße 9/195<br />
www.informatik.tuwien.ac.at<br />
Konzept: DI Karin Hraby<br />
(c) 2011 <strong>Technische</strong> Universität <strong>Wien</strong><br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>
<strong>Technische</strong> Universität <strong>Wien</strong><br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
1040 <strong>Wien</strong>, Favoritenstraße 9-11/195<br />
T: +43-1-58801-19501<br />
F: +43-1-58801-19599<br />
E: sek@zkk.tuwien.ac.at