e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...
e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...
e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
e p i l o g<br />
Präsentation der<br />
Diplom- und Masterarbeiten<br />
der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Sommersemester 2007<br />
Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von:<br />
Hauptsponsor
Die <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> präsentiert die Diplom- und Masterarbeiten<br />
des letzten halben Jahres in einer Posterausstellung und ausgewählten<br />
Vorträgen. Ziel der Veranstaltung ist es, einen Einblick in das breite<br />
Spektrum der Themen und Aufgabenstellungen der Abschlussarbeiten an<br />
den verschiedenen Instituten und Arbeitsbereichen zu geben.<br />
Für die beste Diplomarbeit wird von einer Jury aus Professorinnen und<br />
Professoren der <strong>Fakultät</strong> der mit 4.000 € dotierte "Distinguished Young<br />
Alumnus/Alumna"-Award vergeben. Das beste ausgestellte Poster wird<br />
mit dem mit 1.000 € dotierten „Best Poster Award“ ausgezeichnet.<br />
Zusätzlich gibt es <strong>für</strong> Firmen die Möglichkeit, spezielle "Firmenpreise" an<br />
die von der <strong>Fakultät</strong> nominierten Vortragenden zu vergeben.<br />
P R O G R A M M<br />
11. Juni 2007<br />
15:00 Uhr Eröffnung der Posterausstellung<br />
unter Anwesenheit der AutorInnen und BetreuerInnen der ausgestellten<br />
Poster.<br />
16:00 Uhr Vorträge (im HS5)<br />
• Begrüßung und Einleitung<br />
Vizerektor Gerhard Schimak, Dekan Gerald Steinhardt<br />
• Vorträge zu den nominierten Diplomarbeiten<br />
• Gastvortrag: Dipl.-Ing. P. Haunold, Fabasoft<br />
„Vitale Content Governance in Zeiten des Compliance Overkills“<br />
18:00 Uhr Auszeichnung der besten Diplomarbeit und des<br />
besten Poster mit anschließendem Buffet<br />
V O R T R Ä G E<br />
Aus den von den Instituten nominierten Vorträgen wird von einer Jury<br />
(bestehend aus WissenschafterInnen der <strong>Fakultät</strong>) ein/e AbsolventIn als<br />
„Distinguished Young Alumnus/Alumna” der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
ausgezeichnet. Beurteilungskriterien sind dabei die Diplomarbeit sowie<br />
der Vortrag. Darüber hinaus wird auch das beste Poster ausgezeichnet.<br />
Hannes Erven und Georg Hicker: Web-Transaktionen: Erweiterung der<br />
WS-BusinessActivity Spezifikation um WS-BusinessActivity-Initiator und<br />
Implementierung der beiden Protokolle im Open Source-Projekt Apache<br />
Kandula<br />
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Business<br />
Informatics Group<br />
Thomas Lidy: Evaluation of New Audio Features and Their Utilization in<br />
Novel Music Retrieval Applications<br />
Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Information &<br />
Software Engineering Group<br />
Christian Paukovits: Applying Model-Integrated Computing on Time-<br />
Triggered Application Development<br />
Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Real Time Systems Group<br />
Werner Schafhauser: New Heuristic Methods for Tree Decompositions<br />
and Generalized Hypertree Decompositions<br />
Institut <strong>für</strong> Informationssysteme, Database and Artificial Intelligence<br />
Group<br />
3<br />
4
D I P L O M A R B E I T E N<br />
INSTI<strong>TU</strong>T FÜR TECHNISCHE INFORMATIK<br />
Arbeitsbereich Real Time Systems<br />
Andreas Brandstetter<br />
Scheduling for the Time-Triggered Ethernet<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof Dr. Hermann Kopetz<br />
the functionality on several hardware modules. Even in small autonomous<br />
systems the predictability of the communication and the synchronization of<br />
all modules is vitally important. This thesis provides a survey of five protocols<br />
that play a major role in the automotive industry and in the domain of realtime<br />
communication: CAN, LIN, Flexray, TTP/C, and TTP/A. The protocols<br />
are compared and analysed regarding their suitability for small autonomous<br />
systems. Following the results of this investigation, TTP/A is ported to the<br />
hardware of the Tinyphoon robot, a research platform for small autonomous<br />
and distributed systems. On the basis of the outcome of the case study<br />
enhancements and adoptions of TTP/A are proposed. To address the<br />
diversity of hardware a general concept of making TTP/A more portable is<br />
elaborated.<br />
Branislav Krizan<br />
A unit-test platform for design tools for fault-tolerant real-time systems<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner<br />
Abstrakt: Auf Grund der zunehmenden Komplexität von Software spielt die<br />
Funktionsfähigkeit von Software eine außerordentlich wichtige Rolle. Die<br />
Funktionsfähigkeit von Software kann durch eine Verbesserung des<br />
Entwicklungsprozesses und der Qualität von Software-Tests erhöht werden.<br />
Die Firma TTTech entwickelt Software-Produkte <strong>für</strong> den Entwurf von<br />
zuverlässigen Echtzeitsystemen, wodurch die Funktionsfähigkeit der<br />
entwickelten Software auf einem hohen Niveau bleibt. Diese Diplomarbeit<br />
beschreibt die Bewertung von Software-Tests, welche die Funktionsfähigkeit<br />
der in Python Plattform entwickelten Software prüfen, und untersucht<br />
insbesondere Testmethoden, Code-Metriken sowie die Implementierung<br />
eines neuen Unit-Test-Frameworks, das zusätzliche Metrikenenthält. Das<br />
neue Unit-Test-Framework, welches das derzeit in Verwendung befindliche<br />
ersetzen soll, stellt zusätzliche Metriken zur Verfügung,welche den<br />
Entwicklern bei der Entwicklung von qualitativ besseren Software-Tests und<br />
Source-Codes behilflich sind. Die Ergebnisse des neuen Unit-Test-Framework<br />
können auch als Input <strong>für</strong> das Qualitätsmanagement verwendet werden.<br />
Stefan Krywult<br />
Real-Time Communication Systems for Small Autonomous Robots<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich, Univ.Ass. Dr. Wilfried<br />
Elmenreich<br />
Abstrakt: Autonomous systems perform complex tasks to analyse and to<br />
react on their environment. One way to handle this complexity is distributing<br />
5<br />
6<br />
Bernhard Leiner<br />
A Partitioning Operating System based on RTAI-LXRT Linux<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />
Abstrakt: Integrierte Systemarchitekturen, die eine Plattform<br />
zusammengesetzt aus validierten Hardware und Softwarekomponenten<br />
bieten, gelten als eine mögliche Lösung <strong>für</strong> die Herausforderung immer<br />
komplexer werdender elektronischer embedded Systeme. Das DECOS<br />
(Dependable Embedded Components and Systems) Projekt, gesponsert von<br />
der europäischen Union, zielt darauf ab, grundlegende Technologien <strong>für</strong> die<br />
Einführung solcher integrierter Architekturen zu entwickeln. Eine solche<br />
Technologie sind partitionierende Betriebssysteme, die die Ausführung von<br />
mehreren Softwarekomponenten auf einem Prozessor ermöglichen und<br />
dabei garantieren, dass keine gegenseitige Beeinflussung zwischen diesen<br />
Komponenten stattfindet. Dies gilt sowohl <strong>für</strong> die zeitliche, als auch <strong>für</strong> die<br />
räumliche Dimension. Diese Arbeit zeigt eine mögliche Implementierung<br />
eines solchen partitionierenden Betriebssystem auf Basis eines RTAI (Real<br />
Time Application Interface) Echtzeit Linux Systems. Eine existierende<br />
Prototyp-Implementierung, durchgeführt im Rahmen des DECOS Projektes,<br />
wird auf Schwächen hinsichtlich Partitionierung untersucht. Um<br />
Informationen über das zeitliche Verhalten zu erhalten wird ein<br />
Kontrollsystem entwickelt, dass periodisch Zeitstempel über ein Netzwerk<br />
an einen Kontrollserver sendet. Zusätzlich werden Prüfsummen über<br />
verschiedene Speicherbereiche berechnet um eine Verletzung der<br />
räumlichen Partitionierung festzustellen. Das Ausführeren mehrerer<br />
Testfälle zeigt einige Lücken in der Partitionierung auf. Größtenteils werden<br />
diese durch die zu großzügige Verfügbarkeit von Funktionalität in der<br />
Schnittstelle <strong>für</strong> die Partitionsprozesse verursacht. Um diese Funktionalität<br />
einzuschränken wird ein Linux-Kernel Modul entwickelt. Sobald dieses<br />
geladen ist, haben Partitionsprozesse keinen Zugang zu Linux<br />
Systemaufrufen mehr und sind außerdem auf eine kleine Teilmenge der RTAI<br />
Funktionen beschränkt. Diese Teilmenge wird ihnen durch eine neue
Schnittstelle zur Verfügung gestellt die weiters einen zusätzlichen Signatur-<br />
Parameter <strong>für</strong> alle Funktionsaufrufe verlangt. Dieser wird verwendet um eine<br />
einfache Authentifizierung von Prozessen durchzuführen die auf eine<br />
Ressource zugreifen.<br />
Christian Paukovits<br />
Applying Model-Integrated Computing on Time-Triggered Application<br />
Development<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />
Abstrakt: Designing and implementing a distributed embedded real-time<br />
system is a challenging task. A possible approach to cope with the<br />
complexity is to employ tools in the design and implementation process, that<br />
relieve the designer from lower level issues like matching system<br />
parameters and determining communication message schedules. This talk<br />
presents a variation of the model-based tool suite Generic Modeling<br />
Environment (GME) for the time-triggered real-time communication system<br />
TTP/A. The tool builds on the Generic Modeling Environment (GME) an<br />
integrated modelling tool that supports a meta-level design technology. Due<br />
to the generic nature of the tool suite, the work presented in this thesis also<br />
applies, in general, to other real-time communication systems with minor<br />
modifications. Besides this, this work presents a comprehensive definition of<br />
the conceptual model of TTP/A applications, which makes up the major<br />
theoretical part.<br />
Florian Schüller<br />
Diagnosis of CAN-based Legacy Applications in the Time-Triggered<br />
Architecture<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />
strenge Zeitvorgaben in der Entwicklung und stetig zunehmende<br />
Systemkomplexität ist die Industrie gezwungen, Möglichkeiten zu schaffen,<br />
um eine Aufwandsreduktion in der Entwicklung derartiger Systeme<br />
herbeizuführen. Diese Magisterarbeit stellt eine Entwicklungsstrategie <strong>für</strong><br />
sicherheitskritische Echtzeitsysteme vor, die auf Basis der<br />
Anforderungsspezifikation das Wiederverwendungspotenzial des<br />
Systemverhaltens bestimmt. Die Kombination plattformorientierte Aspekte<br />
der „Model-driven Architecture (MDA)“ mit sicherheitskritischen<br />
Entwicklungskonzepten des RTCA/DO-178B resultiert in einer<br />
Wiederverwendungsstrategie <strong>für</strong> Anforderungen, welche ein<br />
Systemverhalten in vier verschiedene Klassifikationsfenster aufteilt. Die<br />
Zuteilung einer Anforderung zu dem jeweiligen Klassifikationsfenster erfolgt<br />
durch eine plattformorientierte Analyse der Anforderungseigenschaften,<br />
welche in natürlicher Sprache abgefasst sind. Jede dieser<br />
Anforderungseigenschaften ist einer Plattformschicht des Echtzeitsystems<br />
zugeteilt. Diese Plattformschicht spiegelt einen frei editierbaren,<br />
wiederverwendbaren Bereich innerhalb des Systemverhaltens des<br />
Echtzeitsystems wieder. Zusätzlich wird durch diese Schicht der<br />
Klassifikationsbereich innerhalb der selben technischen Domäne bestimmt.<br />
Die praktische Relevanz der in dieser Arbeit vorgestellten<br />
Wiederverwendungsstrategie wurde am Beispiel TTP-OS, einem<br />
sicherheitskritischen, fehlertoleranten Echtzeitbetriebssystem gemäß<br />
Sicherheitsstufe A in RTCA/DO-178B, evaluiert. Die Verwendung natürlicher<br />
Sprache als Spezifikationsinstrument <strong>für</strong> sicherheitskritische Anforderungen<br />
impliziert informelle Richtlinien, die zur korrekten Erfassung des<br />
Wiederverwendungspotenzials des Systemverhaltens beitragen. So spricht<br />
man von einem wiederverwendbaren Systemverhalten, wenn möglichst viele<br />
Anforderungen des Echtzeitsystems sich nach Anwendung des<br />
Klassifikationsmusters in den plattformunabhängigen Klassifikationsfenstern<br />
befinden. Die Abänderung von plattformspezifischen in plattformunabhängige<br />
Anforderungen impliziert zusätzlich eine Herangehensweise, welche es<br />
ermöglicht Anforderungsspezifikationen <strong>für</strong> sicherheitskritische<br />
Echtzeitsysteme wiederverwendbar zu entwickeln.<br />
Arbeitsbereich Embedded Computing Systems<br />
Josef Trojer<br />
Requirement Classification of Dependable Real-Time Systems<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner<br />
Abstrakt: Heutzutage erfordert die Entwicklung sicherheitskritischer<br />
Systeme zeitaufwendige und kostenintensive Zertifizierungsaktivitäten<br />
basierend auf branchenspezifischen Sicherheitsstandards. Verschärft durch<br />
7<br />
8<br />
Hannes Prokop<br />
Reconfigurable Hardware Implementation of Polynomial Arithmetic over the<br />
Finite Field GF(3)<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />
Abstrakt: Diese Masterarbeit beschreibt die Entwicklung eines kombinierten<br />
Hardware/Software Systems zur Beschleunigung von arithmetischen<br />
Operationen über dem endlichen Körper GF(3). Die ersten Kapitel geben<br />
eine Einführung in die Bedeutung endlicher Körper im Allgemeinen und des
endlichen Körpers mit drei Elementen GF(3) im Speziellen. Für digitale<br />
Schaltungen geeignete Darstellungsformen werden vorgestellt und mögliche<br />
Anwendungsgebiete beleuchtet. Ausgehend von einer vorhandenen<br />
Software-Implementierung sowie Publikationen über Algorithmen und<br />
Datenrepräsentationen wurde ein dreiteiliges System implementiert. Ein<br />
Hardwarebeschleuniger, modifizierte Software und ein Gerätetreiber der<br />
Hard- und Software verbindet. Der Hardwarebeschleuniger, der mit Hilfe der<br />
Hardwarebeschreibungssprache VHDL entwickelt wurde, bildet die<br />
Funktionalität einer existierenden Softwareroutine als digitale Schaltung ab.<br />
Implementiert mittels rekonfigurierbarer Logik in der Gestalt eines Field<br />
Programmable Gate Array (FPGA), bietet der Beschleuniger sowohl hohe<br />
Performance als auch effiziente Ressourcennutzung. Die Anbindung an das<br />
Hostsystem erfolgt mittels einer PCI Steckkarte. Der Softwareteil der<br />
Lösung basiert auf einer vorhandenen Implementierung, die erweitert wurde<br />
um eine Nutzung des Hardwarebeschleunigers zu ermöglichen. Mit Hilfe<br />
eines spezialisierten Entwicklungstools wurde ein Gerätetreiber erstellt, der<br />
den Hardwarebeschleuniger ansteuert und ihn so in einer Desktop- oder<br />
Serverumgebung nutzbar macht. Das Zusammenspiel aller drei<br />
Komponenten wurde in umfangreichen Performancemessungen evaluiert<br />
und die gewonnenen Resultate mit anderen Software- und<br />
Hardwareimplementierungen verglichen. Die Bandbreite des PCI Bus wurde<br />
als die größte limitierende Rahmenbedingung identifiziert und es werden<br />
Lösungen präsentiert, wie diese Beschränkung bei künftigen Entwicklungen<br />
umgangen werden könnte. Das Ende dieser Arbeit bildet ein Kapitel mit<br />
möglichen Verbesserungen und weiterführenden Themen.<br />
INSTI<strong>TU</strong>T FÜR RECHNERGESTÜTZTE AUTOMATION<br />
Arbeitsbereich Automatisierungssysteme<br />
Alexander Achs<br />
Innovative Anwendungsszenarien von Radio Frequency Identification im<br />
Kontext von ERP Systemen<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Roland Breiteneder<br />
Entwurf und Entwicklung eines Code-Review-Moduls zur Unterstützung des<br />
Review-Prozesses in integrierten Entwicklungsumgebungen<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Code-Reviews sind weit verbreitete Aktivitäten des Software-<br />
Qualitätsmanagements. Obwohl sie sich als sehr effektive Methoden zur<br />
Fehlerreduzierung bewährt haben, weisen diese manuellen,<br />
dokumentbasierten und zeitintensiven Prüfverfahren in der Praxis Defizite<br />
auf. Im Besonderen wird in dieser Arbeit auf Probleme eingegangen, die auf<br />
Defizite einer unzureichenden Planung und fehlender Standardisierung, auf<br />
Defizite bei der Verwaltung und Erstellung von Problemberichten und Review-<br />
Dokumenten sowie auf Defizite bei der Messung des Review-Prozesses,<br />
zurückzuführen sind. Um diese Defizite zu reduzieren und damit die<br />
Effektivität der Reviews zu erhöhen, wird in dieser Arbeit ein Lösungskonzept<br />
<strong>für</strong> ein Code-Review-Modul, das den Review-Prozess in integrierten<br />
Entwicklungsumgebungen unterstützt, präsentiert. Integrierte<br />
Entwicklungsumgebungen stellen hilfreiche Werkzeuge, als Komponenten<br />
unter einer Benutzeroberfläche vereint, zur Verfügung. Mit Hilfe dieser<br />
Werkzeuge, einem definierten Review-Prozess und verschiedener Rollen,<br />
basierend auf dem IEEE-Standard 1028-1997 <strong>für</strong> Software-Reviews, soll<br />
eine optimale Unterstützung gewährleistet und die identifizierten Defizite<br />
reduziert werden. Das Konzept sieht neben einer zentralen Verwaltung von<br />
Review-Daten auch die Möglichkeit der automatisierten Erstellung von<br />
Review-Dokumenten vor. Zusätzlich wird die Analyse des Review-Prozesses<br />
durch das Modul unterstützt, um Aussagen über die Effektivität der Reviews<br />
treffen zu können. Diese werden mit Hilfe einiger von Barnard et<br />
al.vorgeschlagenen Metriken ermittelt. Basierend auf diesem<br />
Lösungskonzept wird anschließend eine prototypische Implementierung<br />
präsentiert. Hier<strong>für</strong> wurden sämtliche Anforderungen des Konzepts als<br />
Erweiterung <strong>für</strong> die integrierte Entwicklungsumgebung Eclipse umgesetzt.<br />
Zusammenfassend deuten entwicklungsbegleitende Ad-hoc-Evaluierungen auf<br />
eine potentielle Steigerung der Effektivität bei der Durchführung von Reviews<br />
hin. Eine kontrollierte empirische Studie, über das tatsächliche Ausmaß der<br />
Effektivität des Review- Prozesses, ist <strong>für</strong> die Zukunft geplant.<br />
Robert Anglberger<br />
Umsetzungsgrade organisatorischer, technischer und sicherheitsrelevanter<br />
Anforderungen an kommunale Informationssysteme - Fallbeispiel einer<br />
behördenübergreifenden Plattform<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Jürgen Kirchler<br />
Konzeptstudie E-Service "Antrag auf Baukonzession" am Fallbeispiel einer<br />
Südtiroler Kommune<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
9<br />
10
Andrea Matzenberger<br />
Konzeption einer allgemein verwendbaren Architektur <strong>für</strong> elektronische<br />
Distanzwahlen<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Im Rahmen dieser Arbeit sollen elektronische Distanzwahlen, d.h.<br />
Wahlen, bei denen die Abstimmung vom eigenen Heimrechner aus<br />
durchgeführt wird, vom technischen Standpunkt aus betrachtet werden.<br />
Derzeit verfügen laut Statistik Austria rund 52 Prozent der Österreicher<br />
über einen Internetzugang, sodass der Umsetzung elektronischer Wahlen<br />
heutzutage große Bedeutung zukommt. In vielen Ländern wurden bereits<br />
Pilotprojekte im E-Voting Bereich durchgeführt. Bei der Entwicklung dieser<br />
Projekte wurde allerdings in den wenigsten Fällen ein internationaler<br />
Standard eingehalten, wodurch die Interoperabilität zwischen den Systemen<br />
kaum bis gar nicht vorhanden ist. Derzeit existiert mit der Electronic Markup<br />
Language von OASIS ein „Quasi-Standard“, der die Daten- und<br />
Nachrichtenformate elektronischer Wahlsysteme beschreibt. Aufbauend auf<br />
diesem Standard werden in dieser Arbeit zwei Architekturen <strong>für</strong><br />
elektronische Wahlsysteme entwickelt. Dadurch soll die Austauschbarkeit<br />
der Komponenten eines Wahlsystems ermöglicht werden. Eine weitere<br />
Grundlage <strong>für</strong> diese Architekturen sind so genannte E-Voting-Schemata.<br />
Hauptziel jedes E-Voting Schemas ist es, die Wahlentscheidung eines<br />
Wählers als unantastbares Geheimnis zu bewahren. Jeder der beiden<br />
vorgestellten Architekturen liegt ein anderes Schema zugrunde, wobei die<br />
erste auf Homomorphismen basiert. Charakterisierend da<strong>für</strong> ist, dass nicht<br />
jede Stimme einzeln entschlüsselt werden muss, sondern nur das<br />
Gesamtergebnis. Die zweite Architektur basiert hingegen auf blinden<br />
Signaturen. Dabei signiert die authentifizierende Stelle die verblendete<br />
Stimme eines Wählers, ohne deren Inhalt lesen zu können. Beide Varianten<br />
gewährleisten auf sehr unterschiedliche Weise die Anonymität des Wählers.<br />
Zusammengefasst ist das Ziel dieser Arbeit die Erstellung einer offenen,<br />
austauschbaren Architektur durch Anwendung bestehender Schemata in<br />
Kombination mit der Electronic Markup Language als Nachrichtenstandard.<br />
Wolfgang Matzner<br />
Die Systemarchitektur flexibler und zuverlässiger Börseninformationsportale<br />
am Beispiel eines großen Anbieters von Finanz- und<br />
Börseninformationssystemen<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Finanzmärkte stellen ein komplexes Feld mit besonders hohen<br />
Anforderungen an ITSysteme hinsichtlich Flexibilität und Verläßlichkeit dar,<br />
wobei neue Dienste und Technologien in diesem Bereich frühzeitig eingesetzt<br />
11<br />
12<br />
werden. Das rasante Wachstum von kommunikationstechnologien ebenso<br />
wie der Finanzmärkte bedingt eine kontinuierliche Steigerung der<br />
Anforderungen an die Architektur solcher Portale. Somit bringt die Analyse<br />
eines in der Praxis bewährten Systems neue Erkenntnisse <strong>für</strong><br />
unterschiedliche wissenschaftliche Bereiche. Die vorliegende Arbeit<br />
beschäftigt sich mit der Analyse und Verallgemeinerung der Architektur von<br />
Börseninformationsportalen. Als Grundlage <strong>für</strong> diese Untersuchungen<br />
wurden die realisierten Portale eines großen Anbieters herangezogen.<br />
Anhand dieses Fallbeispiels wurden neben der Ableitung des allgemeinen<br />
Architekturmodells zusätzlich die wesentlichen Qualitätseigenschaften, die<br />
Börseninformationsportale heute aufweisen müssen, identifiziert.<br />
Börseninformationsportale sind eine spezielle Form von Web- oder<br />
Internetportalen, die Informationen rund um das Thema Börse bündeln.<br />
Neben reinen Kursinformationen werden dabei auch noch Finanz- und<br />
Wirtschaftsnachrichten sowie Zusammenstellungen von<br />
Unternehmenskennzahlen und –daten angeboten. Der Hauptzweck solcher<br />
Portale ist die Bereitstellung der <strong>für</strong> die Wertpapieranalyse notwendigen<br />
Daten, wobei hier zwischen der Fundamentalanalyse und der <strong>Technische</strong>n<br />
Analyse unterschieden wird.Im Rahmen der vorliegenden Arbeit wurden<br />
nach der Identifikation der wesentlichen Qualitätseigenschaften eines<br />
konkreten Börseninformationsportals eine allgemeine Hardware- und<br />
Softwarearchitektur abgeleitet sowie eine Detailanalyse der wichtigsten<br />
Spezialkomponenten durchgeführt. Kernstück der Architektur ist ein frei<br />
skalierbares, verteiltes System zur Kursdatenspeicherung. Von zentraler<br />
Bedeutung ist weiters der Einsatz von Middleware und einer eigenen<br />
Komponente zur Kursgrafikerzeugung, die in der vorliegenden Arbeit<br />
detailliert analysiert werden. Die Entwurfsentscheidungen werden auf Basis<br />
der identifizierten Qualitätseigenschaften argumentiert.<br />
Michaela Ngo Van<br />
Evaluierung von Texteingabemethoden <strong>für</strong> Game Controller: ABC vs: Multi-<br />
Tap Selection Keyboard<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: In dieser Arbeit werden die Texteingabemethoden ABC und Multi-<br />
Tap unter Anwendung eines Game Controllers miteinander verglichen. Zu<br />
zeigen ist, welche der beiden Methoden bessere Ergebnisse hinsichtlich der<br />
Eingabegeschwindigkeit, der Lernrate sowie der Fehlerrate liefert. Die<br />
Ergebnisse dieser Studie wurden anhand eines Experiments mit Hilfe von<br />
zehn freiwilligen Testteilnehmern ermittelt. Die Texteingabe auf Basis der<br />
ABC-Methode erfolgt durch Ansteuern des gewünschten Buchstaben auf<br />
einem Selection Keyboard. Für jedes einzelne Schriftzeichen steht ein<br />
eigenes Tastenfeld zur Verfügung. Bei Multi-Tap hingegen sind grundsätzlich<br />
weniger Tasten als Buchstaben vorhanden, es ist daher eine<br />
Mehrfachbelegung der einzelnen Tasten erforderlich. Nachdem man bei
dieser Methode eine Buchstabengruppe ansteuert, wird das verlangte<br />
Schriftzeichen abhängig von der Position des gewünschten Buchstaben auf<br />
dem Tastenfeld durch ein- oder mehrmaliges Drücken einer Controllertaste<br />
eingegeben. Die Ergebnisse dieser Studie zeigen deutlich, dass sich <strong>für</strong> die<br />
Eingabe mit einem Game Controller das ABC Selection Keyboard besser<br />
eignet als das Multi Tap Selection Keyboard. Im Laufe von 15 Testsessions<br />
je Methode und 20 gewerteten Textphrasen pro Session wurden<br />
hinsichtlich der Eingabegeschwindigkeit Mittelwerte von 10,29 WPM (SD =<br />
1,16) <strong>für</strong> ABC und 8,46 WPM (SD = 1) <strong>für</strong> Multi-Tap berechnet. Über die<br />
gesamten Sessions beobachtet war ABC somit um 21,63 % schneller als<br />
Multi-Tap. Die Fehlerraten änderten sich bei den im Experiment verwendeten<br />
Methoden im Verlauf der Sessions nur geringfügig. Mit dem ABC Keyboard<br />
wurden jedenfalls weitaus weniger Fehler gemacht als unter Anwendung<br />
von Multi-Tap. Die Total Error Rate betrug bei ABC 4,26 %, bei Multi-Tap<br />
indessen 6,8 %. Aufgrund der weitgehend erfolgten Korrekturen blieben<br />
schlussendlich bei ABC und bei Multi-Tap überhaupt nur 0,28 % (SD =<br />
0,09) bzw. 0,52 % (SD = 0,19) der insgesamt eingegeben Zeichen als<br />
Fehler stehen.<br />
Michael Ottensammer<br />
Analyse und Entwurf einer integrierten baubetrieblichen Controllinglösung<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Die vorherrschende Trennung von operativen Auftragssystemen<br />
und Buchhaltungs- bzw. Kostenrechnungssoftware führt zu einer<br />
Informationsteilung, welche es Anwendern dieser Applikationen schwer<br />
macht, die Kosten- und Auftragssituation eines Unternehmens in ihrer<br />
Gesamtheit entsprechend beurteilen zu können. Es ist Ziel dieser Arbeit, die<br />
Realisierung einer Kopplung von Controlling- und Operativsystem in einer<br />
integrierten Lösung zu zeigen und gleichzeitig die Forderung nach<br />
Übersichtlichkeit und Flexibilität zu erfüllen. Die verursachensgerechte<br />
Zurechnung der in Dienstleistungsbetrieben in hohem Ausmaß vorhandenen<br />
und zunehmenden Fixkosten an die entsprechenden Kostenträger wird dabei<br />
besonders fokussiert. Ermöglicht wird dies unter anderem durch die<br />
Umsetzung variabler Kombinationen unterschiedlicher<br />
Kostenrechnungsarten und der Implementierung aller notwendigen<br />
Funktionalitäten einer Angebots- und Auftragsbearbeitung. Die entwickelte<br />
Lösung verwendet dabei ein Objektmodell, welches Erweiterungen und<br />
Anpassungen an geänderte Anforderungen und Rahmenbedingungen ohne<br />
komplexe und in der Folge schwer wartbare Umgestaltungen der Codebasis<br />
ermöglicht. Im Rahmen dieser Arbeit wird somit klar aufgezeigt, dass eine<br />
vollständige und transparente Abbildung aller mit der Leistung verbundenen<br />
Kosten innerhalb eines Softwaresystems möglich ist. Daraus ergibt sich in<br />
weiterer Folge neben einem gesteigerten Kostenbewusstsein der<br />
Mitarbeiter die Möglichkeit, Kalkulationsansätze durch Nutzung dieses<br />
13<br />
14<br />
Analysetools stetig zu verbessern und somit rasch auf geänderte<br />
Marktsituationen reagieren zu können.<br />
Helmut Petritsch<br />
Understanding and Replaying Network Traffic in Windows XP for Dynamic<br />
Malware Analysis<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Priv.Doz. Dr. Christopher Krügel<br />
Doris Pinter<br />
Phishing und die Kunst der Täuschung Eine empirische Untersuchung zum<br />
Thema Authentizität von Internetseiten<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Phishing nutzt sowohl die technischen als auch die menschlichen<br />
Schwachstellen aus, um dem Opfer die Glaubwürdigkeit der erhaltenen<br />
Email-Nachricht oder den Inhalt einer aufgerufenen Internetseite<br />
vorzutäuschen. Ein Phishing-Angriff besteht klassischerweise aus zwei<br />
Komponenten: einer seriös wirkenden Email und einer betrügerischen<br />
Internetseite, welche beide das Corporate Design des vermeintlichen<br />
Unternehmens imitieren. Gibt das Opfer seine persönlichen<br />
Authentifizierungsdaten preis, kann der Angreifer daraufhin dessen Identität<br />
annehmen und sich finanziell bereichern. Das Hauptziel des empirischen<br />
Teils dieser Arbeit lag in der Erhebung von Merkmalen, an denen Nutzer,<br />
abhängig von ihrer Erfahrung im Internet, eine Webseite auf deren<br />
Authentizität prüfen. Zu diesem Zweck wurde ein Experiment mit 26<br />
Teilnehmern, sieben legalen Internetseiten und 13 selbst erstellten Phishing-<br />
Seiten durchgeführt. Sowohl die weniger versierten Nutzer als auch die<br />
versierten Nutzer verwendeten im Durchschnitt die gleiche Anzahl an<br />
erhobenen Merkmalen, um die Echtheit einer Seite zu eruieren. Die beiden<br />
Gruppen unterschieden sich jedoch in der Art der verwendeten Merkmale.<br />
Weniger versierte Nutzerachteten primär auf die Inhalte einer Internetseite<br />
und berücksichtigtenBrowser spezifische Sicherheitsindikatoren nicht. Bei<br />
den versierten Nutzernhingegen spielten die angezeigten Informationen<br />
eines Browsers, wie beispielsweise der Domainname in der Adressleiste und<br />
das Sicherheits-Symbol in der Statusleiste, eine relevante Rolle in ihrer<br />
Beurteilung. Betrugsversuche mit dem Domainnamen und dem Sicherheits-<br />
Symbol wurden jedoch von beiden Nutzergruppen selten bemerkt. Dies lässt<br />
den Schluss zu, dass Anti-Phishing Lösungen nicht nur peripher und passiv<br />
auf einen Betrug hinweisen, sondern aktiv in die Nutzerhandlung eingreifen<br />
sollten. Weiters ist es nicht ausreichend, den Nutzer auf einen potentiellen<br />
Betrug hinzuweisen, sondern es müssen zusätzlich mögliche Schritte und<br />
Lösungen aufgezeigt werden.
Martin Platter<br />
Analyse eines Groupwaretools <strong>für</strong> verteilte wissenschaftliche<br />
Kooperationsprojekte am Beispiel von Network of Excellences<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Das Ziel eines Exzellenznetzwerks(NoE) ist es, bestehende<br />
Kompetenzzentren in Europa zu vernetzen. Als wichtige Ziele der von der EU<br />
geförderten NoEs wurden eine verbesserte elektronische Kommunikation<br />
und eine gezielte Vernetzung von Aktivitäten zur Förderung des<br />
Wissenstransfers definiert, um die vorhandenen, aber zerstreuten<br />
Kompetenzen in Europa zu bündeln und somit die internationale<br />
Wettbewerbsfähigkeit zu erhöhen. Im Rahmen dieser Arbeit wurde ein<br />
detaillierter Anforderungskatalog an ein Groupware-Tool erstellt, das neben<br />
der Unterst¨utzung der Zusammenarbeit und Kommunikation zwischen<br />
Wissenschaftern auch zu einer signifikanten Verbesserung des<br />
Bewusstseins über und innerhalb des Exzellenznetzwerks, der”Group<br />
Awareness“, und letztendlich zum Herausbilden eines ”Common Grounds“<br />
beiträgt. Um sowohl konkrete funktionale als auch nicht-funktionale<br />
Anforderungen an ein NoE zu erfassen, wurden Interviews innerhalb eines<br />
ausgewählten Exzellenznetzwerkes durchgeführt. Diese identifizierten<br />
Anforderungen dienten als Basis zur Entwicklung eines Prototypen der<br />
Benutzerschnittstelle des vorgeschlagenen Groupwaretools und eines<br />
konkreten problemspezifischen Architekturvorschlages. Das vorgestellte Tool<br />
berücksichtigt neben unterschiedlichen Suchmechanismen (insbesondere die<br />
passive Suche zur automatischen Erkennung von Common Grounds) und<br />
Datenaustausch-Funktionen wesentliche Aspekte wie die Visualisierung von<br />
Organisationsstruktur und Kompetenzen, Einblick in Interaktionen<br />
unterschiedlicher Anwender und den Aufbau einer ”Chain of trust“.<br />
Intellectual Property Rights-Funktionen und eine einfache<br />
Benutzergruppenverwaltung wurden als weitere zentrale Anforderungen an<br />
ein NoE integriert. Als wesentlicher Bestandteil wurde im Rahmen dieser<br />
Arbeit ein ”Information Collector“ identifiziert, der die aktive Analyse<br />
relevanter interner und externer Informationsquellen wie etwa<br />
Kommunikationsthreads oder Suchmaschinen <strong>für</strong> wissenschaftliche Arbeiten<br />
integriert, wobei ein speziell zu entwickelnder Filter vor einem<br />
Informationsüberfluss schützt. Durch dieses Bewusstsein über die<br />
Möglichkeiten und Vorgänge in einem NoE wird zusammenfassend das<br />
Entstehen eines ”Common Grounds“ zwischen den Wissenschaftern<br />
gefördert und eine Grundlage <strong>für</strong> neue Kooperationen geschaffen.<br />
15<br />
16<br />
Christian Reinisch<br />
Wireless Communication in Home and Building Automation<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Abstrakt: Den Vorteilen des Einsatzes von drahtlosen Netzwerken in der<br />
Heim- und Gebäudeautomation stehen einige technologische<br />
Herausforderungen gegenüber. Da heute fast ausschließlich<br />
kabelgebundene Systeme eingesetzt werden, wird in näherer Zukunft<br />
hauptsächlich die Erneuerung und Aufwertung dieser Systeme mit<br />
Funktechnologie von Interesse sein. Die aus der Kombination resultierenden<br />
Hybrid-Systeme erfordern umfassendes Wissen des Systemdesigners aus<br />
beiden zugrundliegenden Technologien. Die Diplomarbeit fasst die<br />
Anforderungen und Probleme des Einsatzes von Funknetzwerken in der<br />
Heim- und Gebäudeautomation zusammen. Im Anschluss werden wichtige<br />
Funkprotokolle diskutiert und gegenübergestellt. Ausgehend von den<br />
vorgestellten Protokollen werden zwei Designkonzepte ausgearbeitet, die<br />
eine mögliche Integration des ZigBee Protokolls in ein bestehendes KNX<br />
Automatisierungssystem zeigen. Das Design der dazu nötigen Tunneling-<br />
Geräte ist konfigurationsfrei und erlaubt darüberhinaus die schnelle<br />
Integration von Security Methoden. Obwohl voll funktionsfähig, arbeiten die<br />
vorgestellten Tunneling-Geräte nicht optimal im Hinblick auf den Nachrichten<br />
Overhead, welcher mit Hilfe von Multicast Kommunikationsschemata<br />
erheblich reduziert werden könnte. Aus diesem Grund werden verschiedene<br />
Multicast Protokolle analysiert und verglichen. Zusätzlich werden die<br />
besprochenen Protokolle in eine neu erstellte Klassifizierung eingeteilt. Zum<br />
Abschluss wird ein spezieller Multicast Algorithmus, nämlich „Dynamic Core<br />
Multicast Protocol“ dahingehend modifiziert, so dass er <strong>für</strong> den Einsatz in<br />
einem ZigBee Netzwerk geeignet ist.<br />
Markus Rerych<br />
Analyse von bestehenden Mobile Guide Systemen unter besonderer<br />
Berücksichtigung ausgewählter Designkriterien und Beschreibung eines<br />
Gesamtsystems<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Die steigende Leistungsfähigkeit mobiler Geräte, wie Handy,<br />
Smartphone oder PDA einerseits, Technologien wie Internet, Mobilfunk oder<br />
satellitengestützte Ortungstechnologien andererseits, schaffen die<br />
Grundlagen <strong>für</strong> völlig neuartige mobile Anwendungen. Eine davon sind<br />
tragbare Reise- bzw. Touristenführer. Nach einer kurzen Einführung in das<br />
User Interface Design <strong>für</strong> mobile Geräte werden einige Forschungsprojekte<br />
bzw. bereits am Markt befindliche Tourismus-Informationssysteme<br />
vorgestellt und analysiert. Weiters werden Eigenschaften beschrieben, die
<strong>für</strong> deren Anwenderfreundlichkeit von besonderer Bedeutung sind. Bei der<br />
Entwicklung von Tourismus-Informationssystemen kommt der<br />
Personalisierung - der Anpassung an den jeweiligen User-Bedarf wie etwa<br />
besonderen Vorstellungen, Interessen und Fähigkeiten des Anwenders -<br />
besonders große Bedeutung zu. Es wird beschrieben, wie man diese<br />
Informationen erhält und auf welche Weise sie in der Anwendung<br />
Berücksichtigung finden. Positionierung dient der Ermittlung des eigenen<br />
Standortes. Informationen sind <strong>für</strong> den Benutzer einer mobilen Anwendung<br />
nur dann sinnvoll, wenn sie genau am richtigen Ort und zur richtigen Zeit<br />
angeboten werden. Verschiedene Lokalisierungstechnologien - sowohl im<br />
Inneren von Gebäuden als auch außerhalb - werden beschrieben. Die<br />
Präsentation betrifft insbesondere die möglichst intuitive und einfache<br />
Bedienbarkeit und die optimale visuelle bzw. auditive Aufbereitung der<br />
Information. Verschiedene Technologien und innovative Konzepte, die drei<br />
genannten Themenbereiche betreffend, werden vorgestellt, miteinander<br />
verglichen und auf ihre praktische Einsatzfähigkeit hin überprüft.<br />
Abschließend wird ein mögliches Gesamtsystem „Mobiler Reiseführer“<br />
präsentiert.<br />
Christian Schöbel<br />
Effiziente Software-Verteilung in Schulinfrastrukturen <strong>für</strong><br />
computerunterstützte Ausbildung auf Basis eines Reliable Multicast<br />
Protocols<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Thomas Verhounig<br />
Virtual Currencies als Verfahren zur Vermeidung der Sicherheitslücke<br />
egoistisches Verhalten in mobilen Ad-hoc-Netzwerken<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Objekterkennung, die Lokalisierung der eigenen Position und das<br />
Kartographieren eines Raumes sind Problemstellungen, die in der Robotik<br />
durch den Einsatz eines Bildsensors gelöst werden können. Ein Roboter<br />
namens Tinyphoon wurde im Rahmen dieser Diplomarbeit mit einem<br />
Bilderkennungssystem ausgestattet. Es werden Algorithmen und Methoden<br />
präsentiert, die bei der Implementierung dieses Bilderkennungssystems<br />
verwendet wurden, wodurch es dem Roboter ermöglicht wird, an einem<br />
Roboterfussballtunier teilzunehmen. Das Ziel dieser Arbeit ist es, <strong>für</strong> eine<br />
gegebene Hardware optimale Prozeduren zu finden und zu entwickeln, um<br />
3D-Informationen aus aufgenommen Bildern zu extrahieren. Diese 3D-<br />
Informationen bestehen aus Linien im dreidimensionalen Raum und den<br />
Positionsinformationen bekannter erkannter Objekte am Spielfeld wie<br />
Spielball und Tore. Die dazu verwendete Hardware basiert auf einen Dual<br />
Core DSP mit 256 Kbyte Cache und 32 MB SDRAM. Zwei Kameras, wie sie<br />
auch in kommerziellen mobilen Telefonen eingesetzt werden, sind im<br />
Abstand von 30 mm an der Front des Bilderkennungssystems montiert.<br />
Durch die kompakte Bauweise des Roboters ist die Größe des<br />
Bilderkennungssystems auf 75 mm x 75 mm beschränkt. Die Arbeit besteht<br />
aus vier Teilen. Der erste Teil beschäftigt sich mit dem Erkennen von Kanten<br />
und Linien in Bildern. Dabei kommt ein neuer, speziell <strong>für</strong> eingebettete<br />
Systeme optimierter Linienerkennungsalgorithmus zu Einsatz, welcher auf<br />
lokalen und globalen Linienparametern basiert. Ein Feature-Based Stereo<br />
Vision Algorithm wird im zweiten Teil der Arbeit beschrieben. Dieser<br />
verwendet als Features die im ersten Teil extrahierten Kanten und Linien,<br />
um Tiefeninformationen zu berechnen. Der dritte Teil beschäftigt sich mit<br />
einer auf Farben basieren Bildsegmentierung, um Blobs zu detektieren.<br />
Diese Segmentierung sowie die erkannten Kanten und Linien werden im<br />
letzten Teil genutzt, um Objekte und deren Position zu ermitteln. Als<br />
Testumgebung wird ein Roboterfussballspielfeld verwendet, in dem der<br />
Spielball, die Tore, die Roboter sowie die Linien der Bodenmarkierungen<br />
erkannt werden. Sowohl die Tore als auch die Roboter werden anhand ihrer<br />
Farbe erkannt. Des Weiteren wird der Spielball mit Hilfe eines<br />
Kreiserkennungsalgorithmus vermessen. Zudem enthält die<br />
Implementierung eine einfache Rektifizierung. Die vom System erreichte<br />
Bildwiederholrate ist abhängig vom gewählten Bildauschnitt und liegt<br />
zwischen 5 Hz und 11 Hz.<br />
Arbeitsbereich Mustererkennung und Bildverarbeitung<br />
Markus BADER<br />
Feature-Based Real-Time Stereo Vision on a Dual Core DSP with an Object<br />
Detection Algorithm<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
17<br />
18<br />
Florian Kleber<br />
High Resolution Image Scan and Mosaicing<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />
Abstrakt: Diese Diplomarbeit stellt ein Verfahren vor, das mit<br />
hochauflösenden digitalen Aufnahmen Bilder von Gemälden oder anderen<br />
großflächigen Objekten mit einer Auflösung von bis zu 33 pixel/mm in<br />
unterschiedlichen Spektralbereichen (IR, VIS) liefert. Die Größe des Objektes
kann dabei bis zu 1.5 m x 1.3 m betragen. Die Gruppe “Kunstgeschichte”<br />
am Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsgruppe <strong>für</strong><br />
Mustererkennung und Bildverarbeitung hat im Rahmen des Projekts<br />
“CASANDRA - Computer Aided Analysis of Underdrawings in Infrared<br />
Reflectograms” zahlreiche Algorithmen zur Analyse von<br />
Untergrundzeichnungen in Gemälden entwickelt. Für die Analyse der<br />
Untergrundzeichnung wird das Gemälde in Segmente unterteilt, und in in<br />
hochauflösenden digitalen Bildern aufgenommen. Für die Bildaufnahmen<br />
müssen zuerst manuell ein Aufnahmebereich und die Größe des<br />
Überlappungsbereiches definiert werden. Ebenfalls vor dem Scan des<br />
Bildobjektes erfolgt die Kalibrierung der Kamera. Diese erlaubt es<br />
geometrische Verzerrungen, die durch das Linsensystem entstehen, zu<br />
korrigieren. Da aufgrund des Alters der Gemälde mit Wölbungen der<br />
Oberfläche zu rechnen ist, wird in einem Aufnahmevorgang ein 3D-Modell<br />
der Oberfläche erstellt, mit dessen Hilfe etwaige Verzerrungen in Bildern<br />
korrigiert werden können. Die Erfassung der Struktur der Oberfläche, sowie<br />
die anschließende Aufnahme aller Teilbilder erfolgt dabei voll automatisch.<br />
Nach der Korrektur werden die Teilbilder automatisiert wieder zu einem<br />
vollständigen Bild zusammengesetzt. Werden mehrere Aufnahmen des<br />
Objektes in unterschiedlichen spektralen Bereichen des Lichts benötigt, so<br />
muss zwischen den Aufnahmen lediglich ein optischer Filter am Objektiv<br />
gewechselt werden. Anhand von entworfenen Testbildern und eines 3D-<br />
Modells wurde die Qualität des Aufnahmesystems bewertet. Dabei wird<br />
einerseits das Mosaicing der Teilbilder und ebenfalls die geometrische<br />
Korrektur von Wölbungen in den einzelnen Bildern bewertet.<br />
Florian Matusek<br />
Shadow Detection in Image Sequences<br />
Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />
BetreuerIn: Univ.Ass.Dr. Martin Kampel<br />
Stephan Sutor<br />
A Mean Shift Based Approach towards Automated Person Tracking<br />
Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung<br />
BetreuerIn: Univ.Ass.Dr. Martin Kampel<br />
INSTI<strong>TU</strong>T FÜR INFORMATIONSSYSTEME<br />
Arbeitsbereich Distributed Systems<br />
Leonhard Brunnhofer<br />
Social Network and Awareness Services for Peoplet<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof.Dr. Schahram Dustdar<br />
Gerhard Glos<br />
Performance and Usability Evaluation of Constraint Checking Approaches in<br />
Java<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Ass.Dr. Göschka<br />
Abstrakt: Die Überprüfung und Formulierung von Constraints im Sinne von<br />
Design by Contract ist bisher noch kein integraler Bestandteil der<br />
Programmiersprache Java. Dennoch bildet die Formulierung von Constraints<br />
bereits während der Designphase und das Überprüfen von Constraints zur<br />
Programmlaufzeit die Basis von verlässlichen Softwaresystemen und<br />
Komponenten. Diese Diplomarbeit implementiert aktuelle Techniken zur<br />
Constraintüberprüfung in Verbindung mit Java. Diese werden hinsichtlich<br />
Laufzeit, Wartbarkeit und Wiederverwendbarkeit verglichen und evaluiert.<br />
Neben anderen Ansätzen wurde ein Constraint Repository, wie in [D.1.1.1]<br />
beschrieben, implementiert. Der Hauptvorteil des Repositories ist es, dass<br />
Constraints während der Laufzeit hinzugefügt und entfernt werden können,<br />
während andere Techniken diese Möglichkeit nur zur compile time oder zur<br />
class load time bieten. Hinsichtlich der Performanz hat sich die manuelle<br />
Implementation der Constraints als inline if statements als die beste Technik<br />
und hinsichtlich der Wartbarkeit als die schlechteste erwiesen. Die<br />
Trennung des Codes der die reine business logic repräsentiert von Code zur<br />
Constraintüberprüfung durch Aspekt Orientierung erhöht die Wartbarkeit<br />
deutlich und bringt eine, im Vergleich zu den anderen Techniken geringe<br />
Performanz-Einbuße von 14% mit sich. Toolunterstützung, den Code zur<br />
Constraintüberprüfung automatisch aus OCL oder JML Statements<br />
generiert, nimmt dem Programmierer ein hohes Maß an Arbeit ab, zählt<br />
jedoch mit einer mindestens 56-mal höheren Laufzeit als die manuelle inline<br />
Constraint Überprüfung zu den langsameren Techniken. Die Laufzeit des<br />
optimierten Constraint Repositories, das manuell implementierten Code zur<br />
Constraintüberprüfung in separate Objekte kapselt, ist hingegen maximal 10-<br />
mal höher.<br />
19<br />
20
Michael Halwax<br />
Peoplet Communication Plugin Framework<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn:Univ.Prof.Dr. Schahram Dustdar<br />
Christoph Karlberger<br />
Prototyping A Career Messenger Application<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn:Univ.Prof. Dr. Schahram Dustdar<br />
Abstrakt: Online recruitment ist ein Service im Internet, das immer<br />
populärer wird. In aktuellen Online Recruitment Webseiten können Leute<br />
nach neuen Jobs oder nach neuen Angestellten suchen. Um das zu<br />
erreichen, müssen Firmen ihre Job-Beschreibungen auf einen Server laden,<br />
wo diese dann von Jobsuchenden abgerufen werden können. In ähnlicher<br />
Weise müssen Arbeitssuchende ihre persönlichen Daten auf einen Server<br />
laden, was allerdings bedeutet, dass sie die Kontrolle über ihre Daten<br />
teilweise aufgeben. Die Peoplet Plattform ist ein Peer-to-Peer Netzwerk das<br />
einen neuen Ansatz beim Online Recruitment verfolgt und eine neue Art von<br />
Software, den Career Messenger, hervor bringt. Die Peoplet Desktop<br />
Anwendung ist ein Client <strong>für</strong> das Peoplet Netzwerk und wird am<br />
persönlichem Gerät des Benutzers installiert. Es verwaltet die Daten des<br />
Benutzers ohne sie auf einen Server hochzuladen, wodurch man einen<br />
hohen Grad an Sicherheit erreicht. Über die Peoplet Plattform kann man<br />
nach neuen Jobs suchen und sich <strong>für</strong> diese auch online bewerben. Eine<br />
weitere Besonderheit der Peoplet Anwendung ist die Möglichkeit,<br />
Nachrichten in Echtzeit an andere Benutzer zu senden. Diese Arbeit<br />
beschreibt einen Prototyp der Peoplet Anwendung und die Realisierung der<br />
finalen Produkts. Der Prototyp implementiert grundlegende Eigenschaften<br />
wie Lebenslauf- und Bewerbungsverwaltung mit Standard User Interface<br />
Komponenten. Das finale Produkt benutzt hingegen selbst implementierte<br />
User Interface Elemente, um dem Programm ein einzigartiges Aussehen zu<br />
verleihen. Die Peoplet Plattform implementiert eine Layered Architecture,<br />
wobei sich Presentations- und Applikationsschicht an der Spitze der<br />
Hierarchie befinden. Der Fokus dieser Arbeit liegt auf dem Design und der<br />
Realisierung dieser zwei Schichten.<br />
Jakob Sommerhuber<br />
An Iterative Approach for Software Architecture Reengineering Using the<br />
Spring Framework<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
21<br />
22<br />
Abstrakt: In dieser Diplomarbeit wird ein neuer Ansatz vorgestellt, um die<br />
Architektur eines Software Systems zu restrukturieren. Basierend auf dem<br />
Spring Framework und anderen frei erhältlichen Software Tools kann mit<br />
diesem Ansatz eine Software Architektur schrittweise transformiert werden.<br />
Die resultierende Architektur wird robuster und resistenter gegen Software-<br />
Erosion sein und auch besser gerüstet sein <strong>für</strong> zukünftige Änderungen und<br />
Wartungsarbeiten.Dieser Ansatz wird auf MCoIP (Mobile Control over IP),<br />
ein Produkt vonSiemens PSE <strong>Wien</strong>, angewendet. MCoIP ermöglicht die<br />
Fernwartung von beliebigen Endgeräten, die von Kraftwerken bis hin zu<br />
privaten Heizungen reichen können. Es wird gezeigt, wie dieser Ansatz die<br />
Komplexität reduzieren und die Flexibilität, Erweiterbarkeit, Skalierbarkeit und<br />
Interoperabilität der Architektur verbessern kann indem Konzepte wie<br />
Inversion of Control, Aspect-Oriented Programming und Object-Relational<br />
Mapping angewendet werden.<br />
Martin Thelian<br />
Intermediary Message Processing using Open Pluggable Edge Services<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Abstrakt: Die stetig wachsende Zahl an Internetnutzern führte zur<br />
Entwicklung von Content-Delivery-Netzwerken (CDN), die im Laufe der Zeit<br />
um zusätzliche inhaltsorientierte Dienste wie die Filterung, Konvertierung<br />
oder Personalisierung von Inhalten erweitert wurden. Aufgrund mangelnder<br />
Standardisierung hat aber keine der eingesetzten Lösungen eine weite<br />
Verbreitung gefunden. Um einen Standard zu schaffen wurde die IETF Open-<br />
Pluggable-Edge-Services Working-Group (OPES-WG) gegründet. Zielsetzung<br />
war die Entwicklung eines flexiblen und offenen Frameworks <strong>für</strong> den Einsatz<br />
derartiger Application-Level Services. Bis jetzt wurden zehn RFCs<br />
veröffentlicht, welche die Architektur des Frameworks, Anforderungen an<br />
Richtlinien- und Authentifizierungsmechanismen, Anwendungsbeispiele und<br />
Einsatzszenarien sowie ein Callout-Protokoll zum entfernten Aufruf der OPES-<br />
Services beschreiben. Ziel dieser Arbeit ist die Analyse des OPES-<br />
Frameworks und seiner Komponenten. Zusätzlich wird eine Prototyp-<br />
Implementierung vorgestellt, die den Empfehlungen der OPES-WG Standards<br />
folgt, und unter anderem einen als HTTP-Proxy fungierenden OPES-<br />
Prozessor, einen Callout-Server, eine Implementierung des OPES-Callout-<br />
Protokolls (OCP) und des OCP-Profils <strong>für</strong> HTTP umsetzt. Zusätzlich<br />
implementiert der Prototyp eine IRML-basierte Rule-Engine zur<br />
regelabhängigen Ausführung von Services sowie eine Laufzeitumgebung <strong>für</strong><br />
Proxylets. Im Anschluss daran wird eine Fallstudie präsentiert, welche die<br />
Funktionsfähigkeit und Praxistauglichkeit des Prototyps demonstrieren soll.<br />
Die Fallstudie zeigt, dass der Prototyp gut geeignet ist um typische<br />
inhaltsorientierte Dienste zu realisieren. Zusätzlich können damit aber auch<br />
Services umgesetzt werden, die normalerweise den Einsatz von SOAP-
Intermediaries erfordern. Im Zuge der Durchführung der Arbeit wurden<br />
einige Ungereimtheiten und Probleme in der OCP-Spezifikation und dem<br />
Zusammenspiel zwischen OPES und Proxylets entdeckt, welche am Ende der<br />
Arbeit detailliert beschrieben werden.<br />
Arbeitsbereich Database and Artificial Intelligence<br />
Artan Dermaku<br />
Generalized Hypertree Decomposition based on Hypergraph Partitioning<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob<br />
Michael Jakl<br />
Efficient Algorithms through Bounded Treewidth<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Univ.Prof.Dr. Reinhard Pichler<br />
Abstrakt: Parameterisierte Komplexitätsanalyse weckte im letzten Jahrzent<br />
reges Interesse, besonders jedoch das Ergebnis von Bruno Courcelle das<br />
besagt, dass das Entscheidungsproblem von Monadic Second Order<br />
Formeln theoretisch ``schaffbar'' ist (mit Einschränkungen). Trotz der<br />
enormen Wichtigkeit des Theorems wurde nur wenig über erfolgreiche,<br />
oder fehlgeschlagene Implementierungen veröffentlicht. Wir implementieren<br />
dieses System und geben eine exakte Beschreibung der Komponenten des<br />
Systems und erläutern die Probleme, die bei der Umsetzung aufgetreten<br />
sind. Um eine praktisch sinnvolle Umsetzung zu ermöglichen, muss noch<br />
einiges an theoretischer Vorarbeit geleistet werden.<br />
Michael Mörz<br />
A new Tabu Search Framework and it`s Application<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.-Prof.Dr. Georg Gottlob<br />
Werner Schafhauser<br />
New Heuristic Methods for Tree Decompositions and Generalized Hypertree<br />
Decompositions<br />
Studium: Magisterstudium Computational Intelligence<br />
BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob<br />
Abstrakt: Constraint satisfaction problems (CSPs) bilden eine Problemklasse<br />
in der Mathematik und <strong>Informatik</strong>, die viele praxisrelevante und schwere<br />
Probleme beinhält. Tree decompositions und generalized hypertree<br />
decompositions sind zwei Methoden, mit denen effizient lösbare CSP<br />
Instanzen identifiziert und <strong>für</strong> solche Instanzen effizient Lösungen berechnet<br />
werden können. Leider ist das Auffinden der optimalen tree decomposition<br />
bzw. generalized hypertree decomposition einer CSP Instanz ein NPvollständiges<br />
Problem. Aus diesem Grund sind in der Vergangenheit bereits<br />
viele heuristische Methoden <strong>für</strong> tree decompositions und generalized<br />
hypertree decompositions vorgestellt worden. In dieser Magisterarbeit<br />
erweitern wir bereits existierende heuristische Verfahren <strong>für</strong> tree<br />
decompositions zu einem A* Algorithmus und einem genetischen<br />
Algorithmus <strong>für</strong> tree decompositions bzw. zu einem genetischen Algorithmus<br />
und einem selbst adaptierenden genetischen Algorithmus <strong>für</strong> generalized<br />
hypertree decompositions. Weiters beweisen wir, dass elimination orderings<br />
einen geeigneten Suchraum <strong>für</strong> die generalized hypertree width darstellen,<br />
und wir entwickeln eine lower bound Heuristik <strong>für</strong> die generalized hypertree<br />
width. Außerdem zeigen wir, dass existierende Techniken, um den<br />
Suchraum <strong>für</strong> optimale tree decompositions zu verkleinern, auch <strong>für</strong><br />
generalized hypertree decompositions angewendet werden können.<br />
Basierend auf diesen Resultaten entwickeln wir einen branch and bound<br />
Algorithmus und einen A* Algorithmus <strong>für</strong> generalized hypertree<br />
decompositions. Testergebnisse zeigen, dass die vorgestellten heuristischen<br />
Methoden in der Lage sind, mit anderen Verfahren zu konkurrieren. Die<br />
genetischen Algorithmen und der branch and bound Algorithmus finden <strong>für</strong><br />
viele benchmark Instanzen verbesserte obere Schranken <strong>für</strong> tree- und<br />
generalized hypertree width. Für einige Instanzen können die A* Algorithmen<br />
und der branch und bound Algorithmus tree- und generalized hypertree<br />
width exakt bestimmen.<br />
Sigfried Schweigl<br />
User-Interface Generator <strong>für</strong> SemCrypt Applikationen<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
Abstrakt: Die vorliegende Diplomarbeit beschäftigt sich mit der Erstellung<br />
eines Systems, das die automatische Generierung eines Web-Interfaces aus<br />
XML-Eingabedaten mit einem fix vorgegebenen Schema ermöglicht. Für die<br />
Generierung werden daher verschiedene Code-Generator Modelle<br />
vorgestellt. Weiters werden einige geräteunabhängige Markup-Sprachen<br />
beleuchtet, wodurch es ermöglicht werden soll, dass das generierte Web-<br />
Interface auf verschiedensten Geräten wie Handy, PDA, etc. dargestellt<br />
werden kann und in weiterer Folge Datenbankabfragen (XPath/XUpdate-<br />
Anweisungen) auf eine XML-Datenbank erlaubt. Der Generator mit seiner<br />
Bedienoberfläche wird als Eclipse Plug-in realisiert. Da diese Arbeit ein<br />
23<br />
24
Beitrag zur Unterstützung <strong>für</strong> Entwickler von SemCrypt Anwendungen ist,<br />
wird das Forschungsprojekt SemCrypt ebenfalls kurz erläutert.<br />
Christopher Semturs<br />
Using Lixto for Abstract Automation of Web-Applications<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob<br />
Abstrakt: Lixto ist ein Produkt zur Extraktion von qualifizierten Daten aus<br />
beliebigen Web-Seiten. Übliche Anwendungsgebiete sind hierbei zum Beispiel<br />
Meta-Suchmaschinen über Flugdaten (auf Basis der Webseiten von<br />
verschiedenen Airlines), oder Preisvergleiche <strong>für</strong> Artikel über mehrere<br />
Verkäufer. Die im Kern verwendete Funktionalität – automatische Navigation<br />
und Extrahierung von Web-Seiten – kann allerdings auch gut <strong>für</strong><br />
automatisierten Software-Test verwendet werden. Das Ziel der Diplomarbeit<br />
war es, diese Funktionalität zu erarbeiten und einen funktionsfähigen<br />
Prototypen bereitzustellen, welcher vor allem moderne Konzepte (Abstrakte<br />
Automation) umsetzt und somit als Basis <strong>für</strong> Weiterentwicklungen dienen<br />
kann. Im ersten Teil der Diplomarbeit wird die aktuelle Theorie zum Thema<br />
Software-Testing präsentiert und erläutert. Neben einer Beleuchtung der<br />
Begriffe (z.B. Schönwetterflug, …) wird vor allem eine strukturierte<br />
Vorgehensweise zum Testen erläutert – bestehend aus Testfällen, deren<br />
Abhängigkeiten untereinander (z.B. Vorbedingungen) bis hin zu einer stark<br />
formalen Deklaration von Testfällen – das heißt, statt einem einfachen<br />
Freitext wird wirklich Schritt <strong>für</strong> Schritt erklärt, was der durchführende<br />
Tester anzuklicken hat, und welcher Text wo einzugeben ist. Durch diese<br />
stark normierte Deklaration von Testfällen kann eine Durchführung auch<br />
durch temporäre Arbeitskräfte (z.B. Werksstudenten) durchgeführt werden,<br />
was gerade bei wiederholenden Tätigkeiten eine große Kostenersparnis<br />
bringt. Die beiden allgemein existierenden Ansätzen zur konkreten<br />
Testautomatisierung – Capture'n'Replay und Abstrakte Automatisierung –<br />
werden näher beleuchtet und verglichen. Capture'n'Replay verhält sich de<br />
facto wie ein Makro-Rekorder, während die abstrakte Automation auf der<br />
Information der formal erfassten Testfälle aufbaut. Es stellt sich heraus,<br />
dass Capture'n'Replay zwar den „schnellen Erfolg" bringt. Aber wenn ein<br />
Projekt über einen längeren Zeitraum läuft (z.B. 10 Iterationen im Test bis<br />
zum endgültigen Release) zahlt sich eine Abstrakte Automation sehr bald<br />
aus. Im Rahmen der Diplomarbeit wurde nun ein Prototyp entwickelt,<br />
welcher formell erfasste Testfälle einliest und automatisch ein ein Lixto-<br />
Wrapper-Script umwandelt. Das heißt, die Testfälle sind ohne weitere<br />
technische Arbeiten in Lixto durchführbar. Dieses wurde an Hand einer<br />
eigenen bereitgestellten kleinen Web-Applikation bewiesen.<br />
25<br />
26<br />
Un-Il Yang<br />
Mobile Payment Provider Services – The Case of South Korea and Austria<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
Arbeitsbereich Knowledge Based Systems<br />
Andreas Zugaj<br />
Counter Lattice Generation for Non-provable Formulas<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Uwe Egly<br />
Abstrakt: Orthologik ist die Logik der Orthoverbände. Beweistheorie ist in<br />
Orthologik gut erforscht, jedoch gibt es kaum Arbeiten über das Generieren<br />
von Gegenbeispielen <strong>für</strong> nicht beweisbare Formeln. Außerdem gibt es nur<br />
wenige effiziente Implementierungen von Beweissystemen. Meine<br />
Magisterarbeit versucht diese Lücke zu schließen und beschreibt meine<br />
Implementierung eines Beweissystems in der Programmiersprache C,<br />
genannt CGOL. Diese ist ein effizienter Beweiser <strong>für</strong> Orthologik der auch in<br />
der Lage ist Gegenbeispiele <strong>für</strong> nicht beweisbare Formeln zu konstruieren.<br />
INSTI<strong>TU</strong>T FÜR COMPUTERSPRACHEN<br />
Arbeitsbereich Programmiersprachen und Übersetzerbau<br />
Michael Med<br />
Instruction Set Encoding Optimization for Code Size Reduction<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall<br />
Abstrakt: Die Kosten <strong>für</strong> On-Chip-Programmspeicher von Embedded<br />
Systemen sind oftmals ebenso hoch wie die Kosten <strong>für</strong> den Mikroprozessor<br />
selbst. Die vorliegende Arbeit untersucht Möglichkeiten, die Programmgröße<br />
durch einen modifizierten Befehlssatz zu verringern und somit Speicherplatz<br />
zu sparen. Wir stellen verschiedene Algorithmen vor, die einen optimierten<br />
Befehlssatz generieren und untersuchen die Auswirkung auf die Codegröße<br />
einiger Benchmarkprogramme. Ergebnisse zeigen, dass eine<br />
durchschnittliche Reduktion um 11 Prozent möglich ist, wobei dieser Wert<br />
durch Änderung der generierten Instruktionslänge weiter verbessert werden<br />
kann. Die Verwendung des optimierten Befehlssatzes kann jedoch zu<br />
größerem Code bei anderen Applikationen führen -- ein Effekt, der durch
Optimierung <strong>für</strong> eine synthetische Eingabe-Applikation weitestgehend<br />
vermieden werden kann.<br />
Roland Moser<br />
Communication Analysis of Distributed Data Acquisition Systems<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof.Dr. Eva Kühn<br />
Abstrakt: Das Compact Muon Solenid Experiment <strong>für</strong> das Large Hadron<br />
Collider Experiment am CERN benutzt ein verteiltes Daten Acquisition<br />
System. Dieses System erhebt, erfaßt und verarbeitet Sensordaten. Es<br />
besteht aus einem Computercluster verbunden durch eine Switching Fabric.<br />
Teile dieser Switching Fabric benutzen eine High-Throughput<br />
Netzwerktechnologie namens Myrinet <strong>für</strong> effiziente Datenverarbeitung. Die<br />
Programmierumgebung <strong>für</strong> das CMS Online-System umfaßt ein Framework<br />
namens XDAQ <strong>für</strong> die Entwicklung von verteilten Systemen. Diese<br />
Framework entkoppelt die verteilten Applikationen von der<br />
Netzwerktechnologie. Zum Beispiel kann Ethernet durch Myrinet ersetzt<br />
werden ohne die betroffene verteilte Applikation zu verändern. Das Ziel<br />
dieser Arbeit ist die Performance der Myrinet Netzwerktechnologie zu<br />
messen und das Verhalten ihrer Hardware- und Softwarekomponenten zu<br />
verstehen. Um die Gültigkeit der Tests <strong>für</strong> diese Arbeit zu verbessern,<br />
wurden diese Tests im CMS Data Acquisition Test Setup, welches eine Real-<br />
Scale Anwendung ist, durchgeführt. Die Ergebnisse verschiedener Cluster-<br />
Konfigurationen werden analysiert und Vergleiche zwischen Tests mit<br />
Myrinet und Ethernet werden durchgeführt. Eine Entscheidung, welcher<br />
Ansatz zur Integration einer neuen Bibliothek in ein bestehendes System<br />
verwendet und welche Myrinet Performance-Tests durchgeführt werden<br />
sollen, mußte getroffen werden. Es wird erwartet, daß die Ergebnisse Einfluß<br />
auf industrielle high-throughput Anwendungen, deren Hauptproblem der<br />
Datendurchsatz und nicht der Rechenaufwand ist, haben. Ein Beispiel <strong>für</strong><br />
eine solche Anwendung ist verteiltes Multimedia Streaming.<br />
Christian Schusterreiter<br />
Bionic Approaches for the Semantic Web<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof.Dr. Eva Kühn<br />
Abstrakt: Das Semantic Web ist eine Initiative, die sich mit Standards und<br />
Technologien auseinandersetzt, welche <strong>für</strong> die Etablierung von<br />
maschinenverständlichen Informationsinhalten notwendig sind. Dabei geht es<br />
um das Ermöglichen einer "intelligenten" Infrastruktur, die viele der heute<br />
bekannten Kommunikationsbarrieren, speziell im Bereich Maschine-<br />
Maschine-Kommunikation, überwinden soll. Obwohl bereits mehrere<br />
27<br />
28<br />
Standards zur Annotation von Metainformationen verfügbar sind treffen<br />
Entwickler einer Middleware <strong>für</strong> das Semantic Web immer noch auf<br />
zahlreiche Herausforderungen, die sich im Umgang mit heterogenen Daten<br />
oder internetweitem Datenmengen stellen. In meiner Arbeit verfolge ich den<br />
Ansatz, Barrieren, die sich durch das Semantic Web selbst ergeben, durch<br />
Zuhilfenahme von bionischen Ansätzen zu überwinden. Mein Ziel ist es eine<br />
Space-basierende und channel-theoretische Umgebung vorzuschlagen, die<br />
mit verteilten und heterogenen Daten soweit umgehen kann, dass sie deren<br />
"mitgelieferte" Komplexität verbergen. Eine solche Umgebung ist ein ideales<br />
Umfeld <strong>für</strong> Anwendung und Ausführen von bionische Methodiken. Bionische<br />
Ansätze wie Schwarmintelligenz oder zelluläre Automaten passen<br />
aussergewöhnlich gut in verteilte Szenarion, da sie allgemein nur auf lokaler<br />
Datenverarbeitung beruhen und Skalierbarkeitsfragen und<br />
Berechnungskomplexität mit eleganten Heuristiken und Parallelisierbarkeit<br />
begegnen. Dabei spielen Phänomene namens Emergenz und<br />
Selbstorganisation eine zentrale Rolle, sie ermöglichen eine bottum-up-<br />
Verarbeitung der enormen internetweiten Datenmengen ohne dabei zentrale<br />
oder globale Kontrollinstanzen zu benötigen. Diese Arbeit stellt<br />
ausgewählte Semantic Web Technologien, einen Baukasten um von der<br />
Natur inspirierte Algorithmen herzuleiten und die Anwendung solcher<br />
Algorithmen <strong>für</strong> SemanticWeb spezifsche Aufgaben vor. Es werden<br />
Synergien zwischen einer Semantic Web Umgebung, Schwarmintelligenz<br />
und Space-basierter Kommunikation aufgezeigt.<br />
Edwin Steiner<br />
Adaptive Inlining and On-Stack Replacement in a Java Virtual Machine<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall<br />
Abstrakt: Methoden-Inlining ist eine bekannte und wirkungsvolle Technik <strong>für</strong><br />
die Optimierung objekt-orientierter Programme. Im Zusammenhang mit<br />
dynamischer übersetzung kann Methoden-Inlining als adaptive Optimierung<br />
verwendet werden, um den Mehraufwand von häufig ausgeführten<br />
Methodenaufrufen zu vermeiden. Diese Arbeit stellt eine Umsetzung von<br />
Methoden-Inlining in CACAO vor, einem just-in-time Übersetzer <strong>für</strong> Java. Das<br />
Ersetzen von Methoden im Aufrufstapel ermöglicht die Installation von<br />
optimiertem Maschinencode und das Rückgängigmachen von<br />
Optimierungen, wenn optimistische Annahmen des Optimierers durch<br />
dynamisches Nachladen von Klassen ungültig werden. Drei Heuristiken <strong>für</strong><br />
Methoden-Inlining werden anhand empirischer Messungen an einem Satz<br />
von Benchmarkprogrammen verglichen. Ein typen-basierter Algorithmus<br />
zum Entfernen lokaler Unterprogramme wird beschrieben.
Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />
Andreas Bernthaler<br />
Reconstruction of Functional Context from Heterogenous Data Networks<br />
Studium: Masterstudium Software Engineering and Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />
Aneta Binder<br />
Applications of Membrane Systems for Distributed Systems<br />
Studium: Diplomstudium <strong>Informatik</strong>, Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />
Abstrakt: Mit dem Hintergrund von bekannten biologisch theoretischen<br />
Modellen befassen wir uns damit, diese im Bereich der informatischen<br />
Fragestellung anzuwenden. Eines dieser Modelle, präsentiert von A.<br />
Rustom, R. Saffrich, I. Markovic, P. Walther und HH. Gerdes in<br />
[Nanotubular highways for inter-cellular organelle transport, Science 303<br />
(2004), 1007–1010] hat sich als sehr geeignet erwiesen, um<br />
Kommunikationsprozesse in verteilten Systemen zu modellieren. In dieser<br />
Arbeit beschreiben wir diese mittels eines speziellen Modells von<br />
Membransystemen, welche erstmals 1998 von Gheorge Paun in<br />
[Computing with membranes, Journal of Computer and System Sciences<br />
61, 1 (2000), 108–14] vorgestellt wurden. Der erste Entwurf des Modells<br />
P system with dynamic channels transporting membrane vesicles wurde<br />
2005 von Rudolf Freund und Marion Oswald in [P systems with dynamic<br />
channels transporting membrane vesicles, Proceedings AROB 2005 ]<br />
publiziert. In unserer Arbeit erweitern wir dieses Modell mit Hilfe einiger<br />
neuer Regeln und weiterer neuer Eigenschaften, die sich <strong>für</strong> die<br />
Modellierung von verteilten Systemen als notwendig erwiesen haben. Diese<br />
Erweiterungen machen es uns möglich, verschiedene Architekturen und<br />
Kommunikationsabläufe in Abhängigkeit von den unterschiedlichen<br />
Netzwerktopologien zu modellieren. Die Funktionsweise unseres Modells<br />
demonstrieren wir an Hand einiger Beispiele unter Anwendung der im<br />
Modell definierten Regeln. Schließlich fügen wir zu den bestehenden<br />
Definitionen weitere neue Eigenschaften hinzu, um auch dynamische<br />
Prozesse, wie Adressenzuteilung und Resourcenverwaltung, darstellen zu<br />
können.<br />
Karl GMEINER<br />
Transformation of Conditional Term Rewriting Systems<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof.Dr. Bernhard Gramlich<br />
29<br />
30<br />
Abstrakt: Termersetzungssysteme sind einfache Systeme, die in vielen<br />
Gebieten der theoretischen <strong>Informatik</strong> wie gleichungsbasiertem Schließen<br />
oder deduktiver Programmierung eingesetzt werden. In der Vergangenheit<br />
wurden viele ihrer Eigenschaften genau untersucht, sodass diese Systeme<br />
gut verstanden werden. Bedingte Termersetzungssysteme stellen eine<br />
intuitive Erweiterung dar, die die Möglichkeit zu einer kompakteren Definition<br />
von Funktionen bietet. Durch das Einführen von Bedingungen sind diese<br />
Systeme jedoch schwerer zu analysieren. Aus diesem Grund versucht man,<br />
durch geeignete Transformationen bedingte Termersetzungssysteme in<br />
Unbedingte umzuwandeln, um Eigenschaften und Methoden unbedingter<br />
Systeme anwenden zu können. Diese Diplomarbeit bietet einen Überblick<br />
über generelle Ansätze und vergleicht konkrete Transformationen bzw.<br />
schlägt Verbesserungen vor.<br />
Georg Lojka<br />
Applications of Membrane Systems for Distributed Systems<br />
Studium: Diplomstudium <strong>Informatik</strong>, Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />
Abstrakt: siehe Aneta Binder<br />
Felix Schernhammer<br />
On Context-Sensitive Term Rewriting<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Bernhard Gramlich<br />
Abstrakt: Termersetzungssysteme bilden die formale Basis <strong>für</strong> funktionale<br />
und funktional-logische Programmiersprachen. Unglücklicherweise hängen<br />
die Effizienz und das Terminierungsverhalten von Reduktionen, die durch<br />
Termersetzungssysteme induziert werden, in hohem Maße von der<br />
verwendeten Evaluierungsstrategie ab, bei deren Wahl oft ein Kompromiss<br />
zwischen Effizienz und gutem Terminierungsverhalten getroffen werden<br />
muss. Mit Hilfe von Einschränkungen der Termersetzungsrelation kann<br />
dieses Problem teilweise gelöst werden. In dieser Arbeit werden drei<br />
Formalismen vorgestellt, die solche Einschränkungen vornehmen: Beim<br />
sogenannten Context-Sensitive Rewriting gibt die Replacement Map <strong>für</strong> jedes<br />
Funktionssymbol an welche Argumente reduziert werden sollen und welche<br />
nicht. Im Lazy Rewriting dürfen Argumente von Funktionen nur dann<br />
ausgewertet werden, wenn ihre Auswertung <strong>für</strong> das Berechnen der Funktion<br />
unbedingt notwendig ist. Beim Rewriting with Strategy Annotations wird <strong>für</strong><br />
jede Funktion eine Reihenfolge festgelegt, mit der ihre Argumente evaluiert<br />
werden. Ziel dieser Arbeit ist es einen Überblick und Vergleich bestehender<br />
Ansätze zu geben, und weitere Anwendungsgebiete der Termersetzung mit
Einschränkungen zu untersuchen (z. B. Einschränkungen der Relationen, die<br />
durch bedingte Termersetzungssysteme erzeugt werden). Die wichtigsten<br />
Resultate dieser Arbeit sind Kriterien <strong>für</strong> die Terminierung von "lazy"<br />
Termersetzungssystemen und <strong>für</strong> "Quasi-Reductivity" von deterministischen<br />
konditionalen Systemen. Außerdem wird ein neuer Ansatz von<br />
Kontexteinschränkungen definiert, der mit verbotenen Patterns arbeitet.<br />
Martin Schliefnig<br />
Reasoning in Semantic Web Applications<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gernot Salzer<br />
INSTI<strong>TU</strong>T FÜR COMPUTERGRAPHIK UND ALGORITHMEN<br />
Arbeitsbereich Algorithmen und Datenstrukturen<br />
Thomas Bucsics<br />
Metaheuristic Approaches for designing survivable Fiber-Optic Networks<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />
werden beide Algorithmen zu einem hybriden Algorithmus vereint, wobei sie<br />
entweder in sequenzieller oder verschachtelter Reihenfolge kombiniert<br />
werden können und dabei so viel Information wie möglich austauschen.<br />
Ausführliche Tests auf eigens generierten unterschiedlichen Instanzen<br />
ergeben, dass der Lagrangesche Algorithmus bis auf wenige Ausnahmen<br />
die optimale obere Schranke findet und vor allem zusammen mit der lokalen<br />
Suche auch sehr gute und meist sogar optimale Lösungen liefert. Er ist im<br />
Allgemeinen bisherigen Verfahren überlegen, besonders wenn man die<br />
Laufzeit in Betracht zieht. Der hybride Algorithmus kann dennoch diese<br />
Ergebnisse teilweise verbessern. Während die sequenzielle Variante mehr<br />
beweisbar optimale Lösungen <strong>für</strong> große maximal planare Graphen findet,<br />
ermöglicht die verschachtelte Variante, dass bei einem Lauf üblicherweise<br />
früher hochwertige Lösungen erlangt werden, besonders <strong>für</strong> vollständige<br />
Graphen.<br />
Arbeitsbereich Computergrafik<br />
Matthias Bernhard<br />
Efficient Direct Volume Rendering for CT-Angiography<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Univ.Doz. Dr. Milos Sramek<br />
Sandro Pirkwieser<br />
A Lagrangian Decomposition Approach Combined with Metaheuristics for<br />
the Knapsack Constrained Maximum Spanning Tree Problem<br />
Studium: Masterstudium Intelligente Systeme<br />
BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />
Abstrakt: Diese Masterarbeit befasst sich mit der Lösung des Knapsack<br />
Constrained Maximum Spanning Tree (KCMST) Problems, einem bisher<br />
wenig behandelten NP-schwierigen kombinatorischen Optimierungsproblem<br />
aus dem Bereich des Netzwerkdesigns. Dabei ist ein Spannbaum gesucht,<br />
dessen Profit maximal ist aber zugleich sein Gesamtgewicht einen gewissen<br />
Wert nicht überschreitet. Es wird ein Lagrangescher Dekompositionsansatz<br />
präsentiert, welcher eine spezielle Variante der Lagrangeschen Relaxierung<br />
ist, um obere Schranken zu ermitteln. Dabei wird das Problem in zwei<br />
ebenfalls zu maximierende Teilprobleme aufgespalten, die jedoch <strong>für</strong> sich<br />
gesehen leichter zu lösen sind. Um auch untere Schranken zu erhalten, wird<br />
eine einfache Lagrangesche Heuristik verwendet, die durch eine<br />
problemspezifische lokale Suche gestärkt wird. Des Weiteren wird ein<br />
Evolutionärer Algorithmus vorgestellt, der eine geeignete Lösungskodierung<br />
und entsprechende Operatoren verwendet, wobei letztere in der Lage sind<br />
Heuristiken basierend auf definierten Kantenprofiten einzusetzen. Danach<br />
31<br />
32<br />
Michael Kusternig<br />
Semi-automated plant modeling using Rule-Based Mesh-Growing<br />
Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />
BetreuerIn: Priv.Doz. Dr. Helwig Hauser<br />
Philipp Muigg<br />
Hybrid Multiresolution Unstructured and Structured Grid Volume Raycasting<br />
Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />
BetreuerIn: Priv.Doz. Dr. Helwig Hauser<br />
Abstrakt: Verschiedene Simulationstechniken sind in der letzten Zeit auf<br />
vielen Gebieten sehr wichtig geworden. Vor allem im Ingenieurswesen ist<br />
Computational Fluid Dynamics (CFD) ein wertvolles Werkzeug geworden,<br />
welches es ermöglicht verschiedene Entwürfe zu testen ohne teure<br />
Prototypen bauen zu müssen. Die Resultate solcher Simulationen sind meist<br />
multi-modale Volumendatensätze. Das bedeutet, dass <strong>für</strong> ein simuliertes<br />
Volumen verschiedene physikalische Größen gespeichert werden. Die diesen<br />
Daten zugrunde liegende Organisationsstruktur wird als volumetrisches<br />
Gitter bezeichnet. Diese unstrukturierten Gitter stellen einige Anforderungen
an Visualisierungssysteme, die die dazugehörigen Volumendaten darstellen<br />
sollen. Diese Arbeit beschreibt einen neuen Algorithmus um interaktiv<br />
Volumendaten die auf unstrukturierten Gittern gegeben sind darzustellen.<br />
Das Datenvolumen wird hierzu in einzelne Blöcke zerlegt welche dann mittels<br />
Grafikhardware basiertem Raycasting dargestellt werden. Das bedeutet,<br />
dass Blickstrahlen durch die einzelnen Blöcke geschossen werden und dabei<br />
Farb und Transparenz Informationen aufakkumuliert werden, wobei das<br />
Datenvolumen als halb durchsichtiges Medium behandelt wird. Hier können<br />
verschiedene optische Modelle gewählt werden, um verschiedene Resultate<br />
zu erzeugen. Anschließend werden die Visualisierungen der einzelnen Blöcke<br />
kombiniert um die endgültige Visualisierung zu erzeugen. Der beschriebene<br />
Raycasting Ansatz ist sehr flexibel und kann mit komplexeren Daten<br />
umgehen, als viele andere aktuelle Methoden. Die Unterteilung des<br />
Datenvolumens ermöglicht einige Optimierungen die eine interaktive<br />
Darstellung auf handelsüblichen PCs möglich macht. Wenn ein Block als leer<br />
eingestuft wird braucht nur die enthaltene Oberfläche dargestellt werden.<br />
Außerdem können wenig Information enthaltende Blöcke in eine niedriger<br />
aufgelöste Repräsentation konvertiert werden, die dann schneller als die<br />
originale unstrukturierte Version dargestellt werden kann.<br />
Markus SABADELLO<br />
History of Electronic Games and an Interactive Installation at the<br />
"<strong>Technische</strong>s Museum" in Vienna, Austria<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer<br />
Claus Scheiblauer<br />
Hardware-Accelerated Rendering of Unprocessed Point Clouds<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer<br />
Abstrakt: In dieser Diplomarbeit wird ein schneller Renderingalgorithmus <strong>für</strong><br />
Punktwolken beschrieben. Eine Punktwolke ist einfach eine Menge von<br />
unzusammenhängenden 3D Koordinaten im Kartesischen Raum. Jede<br />
Koordinate einer solchen Menge wird als Punkt im Raum interpretiert. Eine<br />
Punktwolke ist das Resultat eines Abtastprozesses, bei dem entweder ein<br />
Laserscanner eine reale Umgebung abtastet, oder bei dem die<br />
Datenstruktur eines bereits existierenden graphischen Modells in eine<br />
Punktwoke umgewandelt wird. Während des Renderings wird versucht das<br />
abgetastete Modell aus der gegebenen Punktwolke zu rekonstruieren. Der<br />
Algorithmus, der in dieser Diplomarbeit vorgestellt wird, basiert auf zwei<br />
neuen Datenstrukturen, nämlich auf Memory Optimized Sequential Point<br />
Trees und Nested Octrees. Er enthält einen Out-of-Core Teil und ist dadurch<br />
in der Lage Modelle zu rendern, die nicht komplett in den Hauptspeicher des<br />
33<br />
34<br />
Computers passen. Er enthält auch einen Occlusion Culling Teil, wodurch es<br />
möglich wird Objekte nicht zu rendern, die durch andere Objekte, welche<br />
näher beim Betrachter sind, verdeckt werden. Der Algorithmus wurde<br />
hauptsächlich <strong>für</strong> die schnelle Darstellung von Punktwolken entwickelt, das<br />
heißt <strong>für</strong> eine hohe Bildwiederholfrequenz, wohingegen der visuellen Qualität<br />
der gerenderten Punktwolken weniger Aufmerksamkeit geschenkt wurde.<br />
Der Algorithmus benötigt keine zusätzlichen Informationen zu einem Punkt<br />
ausser dessen Position.<br />
INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND<br />
WIRKUNGSFORSCHUNG<br />
Arbeitsbereich Multidisciplinary Design<br />
Valerie Maquil<br />
Tangible Interaction in Mixed Reality Applications<br />
Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />
BetreuerIn: Univ.Prof. Dr. Ina Wagner<br />
Abstrakt: Greifbare Benutzerschnittstellen (engl. Tangible User Interfaces)<br />
versprechen die Interaktion auf eine kollaborative und verständlichere Art zu<br />
unterstützen. Durch Verwendung physischer Objekte als Kontrollelemente<br />
digitaler Daten werden diese Informationen greifbar gemacht. Gemischte<br />
Realität (engl. Mixed Reality) beschreibt die Kombination von realen und<br />
virtuellen Elementen in einer gleichen visuellen Anzeige um so eine<br />
umfassendere Umgebung zu schaffen. Diese Masterarbeit beschäftigt sich<br />
mit den Hauptaufgaben der Interaktion in Mixed Reality Anwendungen und<br />
diskutiert wie diese mittels Tangible User Interfaces umgesetzt werden<br />
können. Das System des ColorTables wird in der Arbeit als Referenz benutzt<br />
um die verschiedenen Ansätze und Lösungen zu illustrieren. Es ist ein<br />
Tangible User Interface, das verschiedenartige kollaborative Arbeitszustände<br />
unterstützt, und durch seine flexible Zusammensetzung ein experimentelles<br />
Gestalten von Interaktionstechniken ermöglicht. Um Mixed Reality<br />
Konfigurationen zu klassifizieren wurden die verschiedenen Charakteristika<br />
von Mixed Reality Anwendungen bestimmt und entsprechende Hardwareund<br />
Softwarekonfigurationen vorgeschlagen. Mittels vorherigen Definitionen<br />
von Tangible User Interfaces kann ein neues Interaktionsmodell von "Tokens<br />
with constraints" erstellt werden, anhand dessen Interaktionstechniken<br />
beschrieben und klassifiziert werden können. Durch die gewonnenen<br />
Eindrücke zu Mixed Reality und Tangible User Interfaces können die<br />
verschiedenen Interaktionsaufgaben analysiert, sowie ensprechende<br />
Techniken präsentiert werden. Manipulationsaufgaben sowie<br />
Navigationsaufgaben werden beschrieben und Lösungen im Rahmen des<br />
ColorTable vorgeschlagen.
Cornelia Rauchberger<br />
The Cultural Meaning of Information and Communication Technologies to<br />
Organisations in Developing Countries<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />
in den Neuen Medien gegeben, wobei auch auf neue Möglichkeiten der<br />
Speicherung und des Bereitstellens von Informationen eingegangen wird.<br />
Arbeitsbereich Human Computer Interaction<br />
Bernd Altmann<br />
Neue Strategien in der Mobilkommunikation<br />
Christian Ritzinger<br />
Game Design Concepts<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Univ.Prof. Dr. Ina Wagner<br />
Abstrakt: In den letzten Jahren konnte nicht nur eine rasante Entwicklung in<br />
der Computerspiel-Entwicklung beobachtet werden, mit der zunehmenden<br />
Komplexität der Materie bedurfte es auch der Spezialisierung in<br />
verschiedenen Gebieten. Vorerst war eine Aufteilung in Grafikproduktion und<br />
Programmierung zu verzeichnen, dem eigentlichen Design des Spiels wurde<br />
nur stiefmütterlich Beachtung geschenkt. In den letzten Jahren konnte hier<br />
aber eine entscheidende Trendwende registriert werden und so finden sich<br />
nicht nur bei fast allen Produktionsfirmen eigene Gamedesigner, es wurden<br />
auch zahlreiche wissenschaftliche Arbeiten und Bücher zu diesem Thema<br />
veröffentlicht. Diese Arbeit möchte auf den folgenden Seiten einen Einstieg<br />
in die Materie bieten und essentielle aber auch spezielle Konzepte näher<br />
bringen.<br />
Herfried Karl Wagner<br />
Computervermittelte Kommunikation und Kooperation im Softwaresupport<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />
Abstrakt: Diese Arbeit gibt einen Überblick über die Arbeitspraxis im<br />
computervermittelten First-Level-Support <strong>für</strong> Softwareprodukte. Im Zuge der<br />
Untersuchung wurde mittels offener Leitfadeninterviews und durch die<br />
ergänzende qualitative Analyse von Artikeln aus ausgewählten Newsgroups<br />
des Supportangebots eines großen Softwareherstellers der Ablauf von<br />
Kommunikation dokumentiert und auf Basis von theoretischen Überlegungen<br />
daraufhin untersucht, wie weit Newsgroups zur Bearbeitung von<br />
Supportanfragen in der breitesten der Supportschichten geeignet sind.<br />
Zudem wurde analysiert, welchen Stellenwert Newsgroups als Mittel des<br />
First-Level-Supports im Supportangebot großer Softwarehersteller<br />
einnehmen. Abschließend wird, in Bezugnahme auf das Thema der<br />
Untersuchung, ein Überblick über die Veränderung der Wissensvermittlung<br />
35<br />
36<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
Abstrakt: Um heutzutage am Mobilfunkmarkt bestehen zu können, ist es <strong>für</strong><br />
die Service Provider notwendig, sich mit den Rahmenbedingungen und den<br />
eingesetzten Technologien auseinanderzusetzen. Die Sättigungsraten <strong>für</strong><br />
Mobilfunktelefone nähern sich der 100 Prozent Marke. Da stellt sich die<br />
Frage, mit welchen Strategien technischer und ökonomischer Art die<br />
Großen der Branche auf diese schwierige Situation reagieren. Auf diese und<br />
ähnliche Fragen geht die vorliegende Magisterarbeit ein. Um zukünftige<br />
Strategien in der Mobilkommunikation zu entwerfen, muss vorerst die<br />
aktuelle Situation am Mobilfunkmarkt analysiert werden. Ein Blick auf die<br />
derzeitigen Strategien ausgewählter Mobilfunkbetreiber soll dies<br />
ermöglichen. Im Mittelpunkt stehen dabei das aktuelle Produktangebot sowie<br />
verschiedene Geschäftsmodelle der jeweiligen Unternehmen. Diese werden<br />
allgemein und unternehmensbezogen dargestellt. Die Ableitung der<br />
zukünftigen Strategien basiert auf der aktuellen Situation in der<br />
Mobilkommunikation. Der Trend bei den Mobilfunkanbietern geht ganz<br />
deutlich in Richtung Kostentransparenz. Das umfassende Angebot an<br />
Verträgen, Tarifoptionen und Bündeln von Inklusivdiensten der<br />
verschiedensten Art verlangt nach klarer Kostendarlegung. Dadurch wird<br />
dem Kunden die Wahl des <strong>für</strong> ihn geeigneten Produktes erleichtert und es<br />
wird verhindert, dass eine hohe monatliche Rechnung die<br />
Kundenzufriedenheit beeinträchtigt. Speziell <strong>für</strong> die Akzeptanz neuer Dienste<br />
werden Mobilfunkanbieter ihre Bündelungs- und Preisstrategien gut<br />
überlegen und auf die Bedürfnisse der Kunden zuschneiden müssen. Die<br />
Möglichkeit kostenlosen Ausprobierens der Dienste sowie ein Übergang zur<br />
inhaltsbezogenen Abrechnung wird in Zukunft <strong>für</strong> erfolgreiche Unternehmen<br />
maßgebend sein.<br />
Andreas Brauneis<br />
Point and Speak - Design und Evaluation einer mobilen multimodalen<br />
Interaktionstechnik zur orts- und orientierungsbezogenen Serviceauswahl<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer
Christoph Brein<br />
Evaluation und Konzeption barrierefreier Weblösungen im E- Learning<br />
Bereich<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />
Klemens Ferstl<br />
Neue Strategien in der Mobilkommunikation<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
Abstrakt: Um heutzutage am Mobilfunkmarkt bestehen zu können, ist es <strong>für</strong><br />
die Service Provider notwendig, sich mit den Rahmenbedingungen und den<br />
eingesetzten Technologien auseinanderzusetzen. Die Sättigungsraten <strong>für</strong><br />
Mobilfunktelefone nähern sich der 100 Prozent Marke. Da stellt sich die<br />
Frage, mit welchen Strategien technischer und ökonomischer Art die<br />
Großen der Branche auf diese schwierige Situation reagieren. Auf diese und<br />
ähnliche Fragen geht die vorliegende Magisterarbeit ein. Um zukünftige<br />
Strategien in der Mobilkommunikation zu entwerfen, muss vorerst die<br />
aktuelle Situation am Mobilfunkmarkt analysiert werden. Ein Blick auf die<br />
derzeitigen Strategien ausgewählter Mobilfunkbetreiber soll dies<br />
ermöglichen. Im Mittelpunkt stehen dabei das aktuelle Produktangebot sowie<br />
verschiedene Geschäftsmodelle der jeweiligen Unternehmen. Diese werden<br />
allgemein und unternehmensbezogen dargestellt. Die Ableitung der<br />
zukünftigen Strategien basiert auf der aktuellen Situation in der<br />
Mobilkommunikation. Der Trend bei den Mobilfunkanbietern geht ganz<br />
deutlich in Richtung Kostentransparenz. Das umfassende Angebot an<br />
Verträgen, Tarifoptionen und Bündeln von Inklusivdiensten der<br />
verschiedensten Art verlangt nach klarer Kostendarlegung. Dadurch wird<br />
dem Kunden die Wahl des <strong>für</strong> ihn geeigneten Produktes erleichtert und es<br />
wird verhindert, dass eine hohe monatliche Rechnung die<br />
Kundenzufriedenheit beeinträchtigt. Speziell <strong>für</strong> die Akzeptanz neuer Dienste<br />
werden Mobilfunkanbieter ihre Bündelungs- und Preisstrategien gut<br />
überlegen und auf die Bedürfnisse der Kunden zuschneiden müssen. Die<br />
Möglichkeit kostenlosen Ausprobierens der Dienste sowie ein Übergang zur<br />
inhaltsbezogenen Abrechnung wird in Zukunft <strong>für</strong> erfolgreiche Unternehmen<br />
maßgebend sein.<br />
Gerald Henzinger<br />
Von Apfel-, Mango- und Verzeichnisbäumen<br />
Abstrakt: Der Titel "Von Apfel-, Mango- und Verzeichnisbäumen" ist eine<br />
metaphorische Bezeichnung <strong>für</strong> den eigentlichen Inhalt dieser Arbeit. Der<br />
Apfel, eine in Österreich typische Frucht, die Mango, eine im bolivianischen<br />
Tiefland wachsende Frucht und das Verzeichnis, ein Basiselement in einem<br />
elektronischen Dateisystem, stehen <strong>für</strong> den Vergleich des<br />
<strong>Informatik</strong>unterrichts zwischen Österreich und Bolivien. Die Geschichte<br />
Österreichs und Boliviens verlief sehr unterschiedlich und hat die Entwicklung<br />
der Wirtschaft, Umwelt und Technologie direkt und indirekt beeinflusst.<br />
Auf der einen Seite Österreich, wo die Industrialisierung wie in ganz Europa<br />
im 19. Jahrhundert und mit ihr die Entstehung von Schulen im großen Stil<br />
begonnen hat. Auf der anderen Seite Bolivien, ein Land, das vor der<br />
Entdeckung Amerikas durch Christoph Kolumbus unter der Herrschaft der<br />
Inkas bereits ein funktionierendes Staatssystem hatte und dann durch die<br />
Eroberung und Ausbeutung durch die Spanier sehr gelitten hat. Im Jahre<br />
1825 wurde Bolivien aus der Knechtschaft des Kolonialherrn Spanien<br />
entlassen. Aufgrund schwacher demokratischer Strukturen konnte sich die<br />
politische Lage nicht stabilisieren. Dieser Umstand beeinflusst in gewissem<br />
Maße auch das Bildungssystem, welches meist nach politischen Umstürzen<br />
reformiert wurde. Es gilt nun herauszufinden, inwiefern sich die<br />
Bildungssysteme Österreichs und Boliviens unterscheiden und welche<br />
Gemeinsamkeiten vorliegen. Dazu werden verschiedene Komponenten eines<br />
Schulunterrichts in <strong>Informatik</strong> untersucht. Die erste Komponente ist der<br />
Lehrer. Wir wollen wissen, wie ein Lehrer auf den <strong>Informatik</strong>unterricht<br />
vorbereitet wird. Die zweite Komponente ist der Lehrplan. In Österreich ist<br />
ein solcher vorhanden, in Bolivien ist dies nicht mehr so klar. Bis dato<br />
konnte ich noch kein Dokument mit dem Titel Lehrplan in <strong>Informatik</strong> finden.<br />
Die dritte Komponente ist die technische Ausstattung. Was wäre <strong>Informatik</strong><br />
ohne Computer? Das wäre ein sehr theoretisches Konstrukt, das allerdings<br />
nicht praktikabel zu unterrichten ist. So ist technische Ausstattung in Bezug<br />
auf Didaktik im <strong>Informatik</strong>unterricht ein essentieller Faktor. Eine weitere<br />
Komponente ist die Verwendung von Metaphern. Welche Rolle spielen diese<br />
in der <strong>Informatik</strong> und wie werden sie in Österreich bzw. in Bolivien<br />
verwendet? In Bolivien spielt Entwicklungshilfe beim <strong>Informatik</strong>unterricht an<br />
den Schulen eine gewisse Rolle. Als Beispiel werde ich ein Schulprojekt im<br />
bolivianischen Tiefland heranziehen, in welchem <strong>Informatik</strong>unterricht<br />
realisiert wird.<br />
Daniela Knitel<br />
Lernprogramme in der medizinischen Ausbildung mit besonderer<br />
Berücksichtigung der visuellen Darstellung<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
37<br />
38
Ulrich Kreutzer<br />
Aspekte des Designs und der Implementierung von partizipativen,<br />
ubiquitären Informationssystemen mit Hilfe von RFID-Technologie<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
Abstrakt: Diese Arbeit beschäftigt sich mit den Konzepten der RFID-<br />
Technologie, von Ubiquitous Computing und Web 2.0 und deren<br />
Rekombinations- und Vereinigungspotenzial. Die Radiofrequenz-<br />
Identifikations-Technologie, kurz RFID, bedeutet das automatische Erfassen<br />
von mit RFID-Transpondern ausgestatteten Objekten aller Art. Hierzu<br />
müssen die Transponder keinen Sichtkontakt zum Lesegerät haben.<br />
Ubiquitous Computing beschäftigt sich mit der Einbettung digitaler<br />
Rechenkraft in Alltagsgegenstände durch eine allgegenwärtige Integration<br />
von Computern in das Umfeld und die Umgebung des Menschen. Die<br />
Computer sind so klein und unscheinbar, sodass sie aus dem Bewusstsein<br />
des Menschen rücken. Das Bedienen eines Computers erfolgt somit nicht<br />
mehr aktiv und bewusst, sondern es geschieht eingebettet in den Kontext –<br />
der Mensch denkt bei der Bedienung nicht mehr an einen Computer, er<br />
verwendet ihn einfach so wie er mündliche Sprache <strong>für</strong> die<br />
zwischenmenschliche Kommunikation benutzt. Web 2.0 ist ein neues<br />
Schlagwort aus der Welt des Internets. Web 2.0 ist einerseits ein<br />
Containerbegriff <strong>für</strong> Techniken wie Ajax, andererseits umfasst Web 2.0<br />
auch soziale Aspekte, wie die sich ändernde Rolle des Internetbenutzers,<br />
soziale Software und kollektive Intelligenz. Die Nutzung des Internets ist<br />
gerade im Wandel begriffen. Wurde früher der Benutzer zum simplen<br />
Betrachter von starren Internetseiten degradiert, so gestaltet der<br />
Besucher im Web 2.0 aktiv die Inhalte von Websites. So werden dem<br />
Benutzer nur noch ein Framework und der Kontext zur<br />
Informationsgestaltung zur Verfügung gestellt – die Inhalte selbst bestimmt<br />
ganz alleine der Benutzer. „Wikipedia“ und ähnliche Portale setzen<br />
beispielsweise auf die aktive Beteiligung und Gestaltung durch die Besucher.<br />
Die Kontrolle über die moralische und ethische Verträglichkeit erfolgt nicht<br />
durch eine einzige kontrollierende Instanz und Obrigkeit, sondern durch das<br />
Erreichen der kritischen Masse an Benutzern; Benutzer kontrollieren sich<br />
selbst und die Inhalte – eine Korrektheit der Informationen wird somit<br />
sichergestellt. Die Rekombination und Vereinigung dieser Konzepte wird<br />
anhand der Beschreibung zweier Prototypen, welche im Rahmen dieser<br />
Arbeit entstanden, veranschaulicht. So entstanden ein Community-basiertes<br />
intelligentes System zur Literaturrecherche und ein sozial intelligenter<br />
Kühlschrank.<br />
39<br />
40<br />
Stefan Schauer<br />
soundtubes - Aspekte des Designs und der Implementierung eines<br />
Musikprogramms <strong>für</strong> die spezielle Zielgruppe Kinder<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
Abstrakt: In dieser Diplomarbeit wird das Programm “soundtubes”<br />
vorgestellt. Dieses Programm ist ein Musikprogramm, das <strong>für</strong> Kinder<br />
konzipiert wurde. Die Grundidee war es, einen loop-basierten Sequenzer zu<br />
programmieren, der es dem Benutzer ermöglicht, mit Samples musikalisch<br />
zu arbeiten. Trotz dieser sehr konventionellen Zielsetzung wurde versucht,<br />
die in Musiksoftware-Programmen häufig verwendeten Interface-Metaphern<br />
zu vermeiden, gängige Musikvorstellungen zu brechen und Kindern abseits<br />
vom Instrumentalunterricht einen anderen Zugang zu Musik zu ermöglichen.<br />
Das Programm wird unter den drei Aspekten Technik, Interface und Sound<br />
ausführlich beschrieben.<br />
Tanja SEDLACEK<br />
Mobiles Lernen<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
Patrizia Tampir<br />
Anwendungsorientierte Computerschulung <strong>für</strong> Erwachsene<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />
Abstrakt: Ausgehend von ausgewählten theoretischen Grundlagen der<br />
Didaktik und Lernpsychologie wird ein Konzept <strong>für</strong> eine<br />
zielgruppenspezifische Anwenderschulung von EDV-Grundlagen erstellt. Der<br />
Teilnehmerkreis setzt sich aus einer homogenen Gruppe hinsichtlich<br />
Geschlecht, Alter, Beruf, Beweggrund sowie Vorwissen zusammen, da<br />
ausschließlich Kindergartenpädagoginnen zwischen 45 und 55 Jahren ohne<br />
jegliche Computerkenntnisse unterrichtet werden, um den neuen beruflichen<br />
Anforderungen gerecht zu werden. Gerade die nicht vorhandenen<br />
Erfahrungen in der Bedienung von Computern stellen die größte<br />
Herausforderung dar, da <strong>für</strong> <strong>Informatik</strong>er selbstverständliche Inhalte in einer<br />
Form vermittelt werden müssen, die unerfahrenen Benutzern verständlich<br />
erscheint. So ist die spezifische Aufbereitung der Unterrichtsmaterialien<br />
hinsichtlich Inhaltsabgrenzung und Strukturierung ebenso zwingend<br />
notwendig, wie die geeignete Methodenwahl bei der Wissensvermittlung. In<br />
der praktischen Durchführung der Anwenderschulung haben sich der<br />
abstrakte Aufbau des Betriebs- und Dateisystems sowie die fundamentale
Handhabung von Maus und Tastatur als die größten Herausforderungen <strong>für</strong><br />
die Teilnehmer dargestellt. Nach intensiven Übungssequenzen in den<br />
Grundlagen hat sich die Einführung in die Bedienung der<br />
Anwendungsprogramme MS Word 2003, MS Excel 2003, MS Outlook<br />
2003 und Internet Explorer als weniger problematisch erwiesen. Zwar<br />
waren die <strong>für</strong> effizientes Arbeiten notwendigen Automatismen nicht<br />
vorhanden, doch die Teilnehmer konnten die gestellten Aufgaben mit<br />
kleineren Hilfestellungen durch entdeckendes Lernen ausnahmslos<br />
bewältigen. Anfragen von den Teilnehmern, die mehrere Wochen nach<br />
Abschluss der Schulung zu Funktionen und Vorgangsweisen gestellt werden,<br />
zeigen eine Beschäftigung mit dem Computer – auch über die berufliche<br />
Notwendigkeit hinaus und legen damit den Erfolg des Unterrichts nahe.<br />
Larissa Vincze<br />
Multidimensionale Auswertungen des Designs von Online-Bewerbungsbögen<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />
Abstrakt: Ziel dieser Arbeit ist es bestehende online Bewerbungen zu<br />
analysieren und umfassende Kriterien zu erarbeiten nach denen solche<br />
Webseiten erstellt werden sollten und bewertet werden können. Um<br />
Hintergrund <strong>für</strong> eine umfassende und multidimensionale Evaluierung von<br />
Online-Bewerbungen zu schaffen, wird zuerst eine Analyse von vorhandenen<br />
Evaluierungsleitfäden <strong>für</strong> Internetauftritte und Webseiten von verschiedenen<br />
Organisationen gemacht werden. Danach sollten die Kriterien <strong>für</strong> die<br />
Evaluierung von Online-Bewerbungsbögen mit Berücksichtigung von Ziel und<br />
Zielpublikum bestimmt werden. Die Lösung schlägt ein multidimensionalen<br />
Bewertungsmodell vor: Usability, Accessability, Credibility und Ästhetik und<br />
graphisches Design. Aus einer umfassenden Recherche wurden <strong>für</strong> jede<br />
Dimension die <strong>für</strong> die Bewertung von Bewerbungsbögen relevanten Kriterien<br />
ausgewählt. Die Auswertung zeigt, dass die gefundenen Mängel durchaus<br />
von den traditionellen Usability-Bereichen abweichen und daher eine<br />
multidimensionale Analyse notwendig ist. So ist zu hinterfragen, was eine<br />
Seite bringt, die zwar gut benutzbar ist, aber nicht ausreichend glaubwürdig<br />
ist. Webseiten mit gutem Design sind nicht brauchbar, wenn sie nicht<br />
benutzbar sind. Nicht-glaubwürdige Webseiten trotz der guten Benutzbarkeit<br />
können ein Grund <strong>für</strong> abgebrochene Geschäftsaktionen oder Bewerbungen<br />
sein. Nicht zugängliche Seiten schränken die mögliche Anzahl an Bewerbern<br />
ein oder verhindern einen erfolgreichen Abschluss des<br />
Bewerbungsvorganges. Es zeigt sich, dass jeder kritische Fehler in einer der<br />
vier Dimensionen kann ein Grund sein, um den Bewerbungsvorgang zu<br />
verhindern oder zu unterbrechen. Die hier vorgeschlagene multidimensionale<br />
Auswertung kann auch als Vorschlag gesehen werden, wie eine Webseite<br />
umfassend richtig zu gestalten ist. Die multidimensionale Betrachtungsweise<br />
dient dabei einer klaren Strukturierung der Anforderungen.<br />
41<br />
42<br />
Iris Wegscheider<br />
Interaktive Marketinginstrumente im digitalen Fernsehen unter besonderer<br />
Berücksichtigung des österreichischen Marktes<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
Abstrakt: Die "Digitale Revolution" zieht einen starken wirtschaftlichen<br />
Wandel nach sich, der sich nun auch in der Fernsehlandschaft bemerkbar<br />
macht. Nach jahrzehntelanger Nutzung jeweils unterschiedlicher<br />
Übertragungstechnologien und Trägermedien werden Inhalte, wie Bilder,<br />
Musik, Informationen und Videos, zunehmend als digitale Daten übermittelt.<br />
Je nach Nutzensituation können somit verschiedene Endgeräte wie<br />
Fernseher, PC oder Mobiltelefon als Empfangs- und Wiedergabegerät und<br />
sogar als Kommunikationsinstrument dienen. Diese Medienkonvergenz lässt<br />
die Rundfunkindustrie auf zusätzliche Einkommensquellen durch neue<br />
Dienste und Werbeformen wie Video on Demand, Bannerwerbung im<br />
elektronischen Programmführer (EPG), digitale Produktplatzierung und<br />
interaktives Teleshopping hoffen. Diese Entwicklung hat wesentliche<br />
Auswirkungen auf die Wertschöpfungsstruktur von Rundfunkunternehmen,<br />
zumal Telekommunikations- und andere Unternehmen aus rundfunkfremden<br />
Branchen als neue Akteure in den Fernsehmarkt eindringen. Damit ergeben<br />
sich neue Konkurrenzsituationen, aber auch Chancen <strong>für</strong><br />
Kooperationen.Parallel zum Fortschritt der Medientechnologien vollzieht sich<br />
ein Wandel der kulturellen Rahmenbedingungen. Die Gesellschaft entwächst<br />
den starren Normen traditioneller Massenproduktion und ist von markanten<br />
Veränderungen geprägt, die durch Individualisierungstrends, Medienvielfalt<br />
und die Entwicklung der Bevölkerungsstruktur hervorgerufen wurden.<br />
Daraus ergeben sich neue Verhaltensmuster in derMediennutzung und<br />
höhere Ansprüche an das Rundfunkangebot. Der mündige Konsument wehrt<br />
sich gegen die Zwangsbeglückung der Unterbrecherwerbung, zeigt ein<br />
hybrides Kaufverhalten und vergleicht kritisch verschiedene<br />
Produktangebote. In Folge dessen macht sich unter Experten die Meinung<br />
breit, dass klassische Werbespots bald ausgedient haben und neue<br />
Konzepte entwickelt werden müssen. Neue Marketingkonzepte wie<br />
Dialogmarketing, Permissionmarketing, Database Marketing oder Virales<br />
Marketing beziehen den Konsumenten in den Kommunikationsprozess mit<br />
ein und setzen auf Personalisierung und Berücksichtigung von<br />
Kundenw¨unschen. Damit ist es möglich, dem Reaktanzverhalten und der<br />
Informationsüberlastung der Fernsehzuseher entgegenzuwirken. Da auf<br />
diesem Gebiet bei der Bewertung der Werbewirkung jedoch keine<br />
Erfahrungswerte vorliegen, muss auf Wissen und Modelle aus dem<br />
Internetmarketing und der traditionellen Medienwirkungsforschung<br />
zurückgegriffen werden. Großbritannien übernimmt in Europa die<br />
Vorreiterrolle bei digitalem interaktiven Fernsehen. So sind mit der<br />
Fernbedienung abrufbare Dienste wie multimediale Informationen, Wetten,<br />
Abstimmungen und Shoppingportale schon länger etabliert und auch
interaktive Werbung wird in verschiedenen Varianten schon seit März 2000<br />
erfolgreich eingesetzt. Der größte Anbieter Sky Digital erreicht im Jahr<br />
2006 mehr als acht Millionen Fernsehhaushalte mit seinem digitalen<br />
Satellitenangebot – das sind genügend Zuseher, um große Reichweiten <strong>für</strong><br />
die Werbeindustrie bieten zu können. Die grundlegenden<br />
Rahmenbedingungen sind mit Österreich kaum vergleichbar, die Akzeptanz<br />
von Bezahlfernsehen ist in Großbritannien aufgrund des Fehlens<br />
interessanter Premiuminhalte im Free-TV bei weitem höher, und das<br />
Publikum hatte sich durch die frühe Einführung von digitalem bzw.<br />
interaktivem Fernsehen bereits an die Interaktionsmöglichkeiten gewöhnt.<br />
Dennoch können bezüglich der Gestaltungs- und Vermarktungsrichtlinien<br />
auch <strong>für</strong> den österreichischen Markt wertvolle Rückschlüsse gezogen<br />
werden. Doch nicht nur aus wirtschaftlicher Sicht besteht dringender<br />
Handlungsbedarf. Auch der regulatorische Rahmen muss auf die neuen<br />
Gegebenheiten angepasst werden, so wird die zur Zeit bestehende<br />
Trennung der Medien nach technischen Kriterien in der Gesetzgebung<br />
hinterfragt. Es liegen bereits Entwürfe <strong>für</strong> eine Vereinheitlichung der<br />
rechtlichen Bestimmungen <strong>für</strong> gleiche Medienprodukte vor, unabhängig von<br />
der verwendeten Verbreitungsart. Erst mit flexiblen Rahmenbedingungen<br />
wird es möglich, das Potential der neuen Rundfunktechnologien vollständig<br />
auszuschöpfen und in ein neues Fernsehzeitalter einzutreten.<br />
INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND<br />
INTERAKTIVE SYSTEME<br />
Arbeitsbereich Information und Software Engineering<br />
Doris Baum<br />
Visualisations for Comparing Self-organising Maps<br />
Studium: Masterstudium Intelligente Systeme<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Thomas Binder<br />
Usability-Evaluierung von <strong>Universität</strong>swebsites<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />
Abstrakt: Das Internet stellt in der heutigen Informationsgesellschaft eines<br />
der wichtigsten Medien dar, um Informationen zugänglich zu machen. Das<br />
Potential, das es <strong>für</strong> Einrichtungen wie eine <strong>Universität</strong> bietet, ist enorm:<br />
Jede Information, die ein Benutzer der Website entnehmen kann, muss<br />
nicht auf einem anderen Weg erfragt werden und spart somit sowohl dem<br />
Nachfragenden als auch dem Informationsanbieter Zeit und Geld. Wichtig ist<br />
<strong>für</strong> die Website einer <strong>Universität</strong>, dass notwendige Informationen<br />
grundsätzlich vorhanden und leicht zu finden sind. Der entscheidende Faktor<br />
ist dabei die hohe Usability – also die Benutzbarkeit – der Website, da es<br />
Besuchern möglich sein muss, die Website zu bedienen. Ziel der Arbeit ist<br />
es, herauszufinden, wie es um die Usability von <strong>Universität</strong>swebsites<br />
allgemein und der Website der <strong>TU</strong> <strong>Wien</strong> im Speziellen bestellt ist. Zu diesem<br />
Zweck wird mittels Literaturrecherche eine geeignete Methode gesucht, um<br />
die Benutzbarkeit von <strong>Universität</strong>swebsites ermitteln und miteinander<br />
vergleichen zu können. Im Anschluss wird sowohl eine Evaluierung anhand<br />
einer Usability-Heuristik als auch ein Test von ausgewählten Websites<br />
zusammen mit „echten“ Benutzern durchgeführt. Die Ergebnisse zeigen,<br />
dass zahlreiche Usability-Vorschriften eingehalten und auch gute Ideen, wie<br />
sich eine <strong>Universität</strong> im Internet präsentieren kann, umgesetzt werden. Auf<br />
der anderen Seite existiert jedoch noch viel Potential zur Verbesserung, da<br />
bei weitem nicht alle Usability-Kriterien erfüllt werden und auch nicht alle<br />
notwendigen Informationen bereitgestellt werden. Die Arbeit soll somit<br />
helfen, bestehende Internetangebote zu verbessern und<br />
benutzerfreundlicher zu gestallten. Sie soll als Vorlage dienen, wie eine<br />
<strong>Universität</strong>swebsite evaluiert werden kann, und bietet auch gleichzeitig<br />
konkrete Verbesserungsvorschläge <strong>für</strong> die untersuchten Internetauftritte.<br />
Birgit Dippelreiter<br />
Einsatz von Groupware in und zwischen Unternehmen Auswirkungen auf die<br />
Arbeitsabläufe - Eine Analyse<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: Groupware-/Kollaborationstools umfassen ein sehr weites<br />
Spektrum an Funktionalitäten mit der Zielsetzung, Arbeitsabläufe zu<br />
beschleunigen, zu erleichtern und zu unterstützen, Kosten zu reduzieren und<br />
Ergebnis- bzw. Servicequalität zu verbessern. So ist es auch logisch, dass<br />
diesen Zielsetzungen ein sehr breit gefächertes Repertoire an<br />
Softwarelösungen und Designzielen von Software gegenüber steht. In dieser<br />
Arbeit wird der Zusammenhang zwischen Unternehmensführung und<br />
Technologie beschrieben. Im weiteren Verlauf werden Kollaborations-<br />
/Groupwaretools, deren Entwicklung, das Funktionsspektrum dieser Tools<br />
und die Designziele dieser Werkzeuge erklärt. Ein wichtiger Aspekt dieser<br />
Arbeit ist welche Motivation zu Entscheidungen geführt hat<br />
Groupwarelösungen einzusetzen und wie der Einsatz solcher Groupware den<br />
Arbeitsablauf verändern kann. Dieser Aspekt wird anhand einiger Beispiele<br />
aus Wirtschaft und öffentlicher Verwaltung veranschaulicht und näher<br />
gebracht<br />
43<br />
44
Andreas Drucker<br />
Software Project Management <strong>für</strong> embedded Systeme in der automotive<br />
Branche mit Fallstudie<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Abstrakt: Diese Arbeit beschreibt die heutigen Anforderungen der<br />
Automobil-Industrie an ihre Zulieferer betrachtet aus dem Bereich Body &<br />
Chassis. Der Fokus liegt speziell auf das Thema embedded SW und deren<br />
Management. Nach einer detaillierten Beschreibung des Software<br />
Projektmanagements werden die derzeit de-facto Standards nach CMMI<br />
bzw. SPICE <strong>für</strong> Bewertungen der Firmen beschrieben, und die<br />
Motivationsgründe <strong>für</strong> die Änderung der derzeit verwendeten Prozesse.<br />
Siemens VDO (kurz SV) setzt laufend entsprechende Maßnahmen, um den<br />
neuen geänderten Anforderungen gerecht zu werden. Durch die<br />
Beschreibung der Prozesslandschaft und der damit zusammenhängenden<br />
Toollandschaften, wird die Umsetzung im Konzern auf die neuen Bedürfnisse<br />
verdeutlicht. Die Fallstudie – Entwicklung "einer" Standheizung <strong>für</strong> die Firma<br />
Webasto – zeigt die Probleme im konkreten Fall auf. Vor allem durch die<br />
entsprechend lange Laufzeit des seit fünf Jahre laufenden Projektes, sieht<br />
man anhand der sich schnell ändernden Technik, Methodik und<br />
Anforderungen, dass eine ständige Anpassung notwendig ist. Aber auch,<br />
dass viele kleinere Verbesserungen schlussendlich in einem großen neuen<br />
Prozess Enden werden. Die Fallstudie zeigt meinen Erfahrungsbericht über<br />
die Zeit des Projektes, mit welchen (sich ändernden) Anforderungen man als<br />
Software Projektleiter im täglichen Leben konfrontiert ist und dass eigentlich<br />
immer kommerzielle Einschränkungen Kompromisse erfordern, die oft hart<br />
erkämpft oder manchmal leider auch einfach zur Kenntnis genommen<br />
werden müssen.<br />
Emir Dzakic<br />
SemCrypt Show Case: Tabellenkalkulation als verteilte, sichere Anwendung<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />
Abstrakt: Die Entwicklung eines sicheren und externen Datenspeichers<br />
erfolgt im Projekt SemCrypt. Dieser arbeitet mit verschlüsselten XML und<br />
verwaltet den kontrollierten Zugriff auf die XML-Elemente. In dieser Arbeit<br />
wurde ein Show Case sensibler Daten <strong>für</strong> den Einsatz in einer SemCrypt<br />
Umgebung entwickelt. Mit dem verbreiteten Tabellenkalkulationsprogramm<br />
Microsoft Excel 2003 wird eine Lösung <strong>für</strong> das verteilte Projektmanagement<br />
vorgeschlagen. Ein standardisiertes XML-Schema <strong>für</strong> Projektmanagement<br />
stellt die Datenquelle <strong>für</strong> Microsoft Excel dar. Die zentrale Datenbasis, die<br />
auf dem externen Datenspeicher liegt, liefert <strong>für</strong> alle Beteiligten aktuelle und<br />
einheitliche Planungsdaten. Zusätzliche Kontrollmechanismen sorgen mittels<br />
45<br />
46<br />
XAccess <strong>für</strong> einen rollenbasierenden Zugang zu bestimmten<br />
Dokumentfragmenten. Microsoft Excel ist als örtlich verteiltes System<br />
positioniert und ermöglicht eine asynchrone Kollaboration. Spezielle<br />
Techniken geben dem Benutzer die Möglichkeit, die Projektdaten individuell<br />
darzustellen. In der Beispielanwendung wurden mehrere Benutzerrollen und<br />
Aufgaben definiert, um diese Techniken zu erproben.<br />
Andreas Fellner<br />
Treating Temporal Uncertainties Of Complex Hierarchical Data Visually<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />
Stefan Fenz<br />
Security Ontologies: Improving Quantitative Risk Analysis<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Abstrakt: Im Laufe der vergangenen Jahre entwickelte sich die IT-Sicherheit<br />
zu einem immer breiter werdenden Fachgebiet und speziell kleinere und<br />
mittlere Unternehmen sind finanziell nicht in der Lage umfassende und<br />
ganzheitliche IT-Sicherheitskonzepte zum Schutz ihrer IT-Infrastruktur zu<br />
implementieren. Ausgehend von dieser Problematik entwickelten wir eine<br />
Ontologie bzgl. IT-Sicherheit, welche eine solide Basis <strong>für</strong> kostengünstige und<br />
möglichst exakte Risiko- und Bedrohungsanalysen bietet. Basierend auf der<br />
Computer Security and Dependability Taxonomie nach Landwehr [ALRL04]<br />
und der Bedrohungsklassifikation nach Peltier [Pel01] wurde die erstellte<br />
Security Ontology verwendet, um systematisch strukturiertes Wissen über<br />
Bedrohungen, Gegenmaßnahmen und Infrastruktur in maschinenlesbarer<br />
und strukturierter Form zu speichern. In einem ersten Schritt werden die<br />
Definitionen von relevanten Klassen unabhängig vom konkreten<br />
Anwendungsfall erstellt und in der Ontologie implementiert um anschließend<br />
konkretes Wissen bezüglich des zu untersuchenden Unternehmens zu<br />
sammeln. Mit dem Wissen über generelle Beziehungen und Abhängigkeiten<br />
von Bedrohungs-, Gegenmaßnahmensund Infrastrukturselementen und dem<br />
konkretenWissen über die Unternehmensinfrastruktur ist es möglich diverse<br />
Bedrohungsszenarien, wie zum Beispiel Feuer oder Virenausbreitung, zu<br />
simulieren. Durch die Simulation von diversen Katastrophen, kombiniert mit<br />
unterschiedlichen Schutzprofilen, ist es möglich eine detaillierte<br />
Kosten/Nutzen-Analyse<br />
verschiedener<br />
Gegenmaßnahmensimplementierungen zu erstellen.
Markus Gärtner<br />
Agent-Mediated Electronic Commerce : e-Market Environment for Trading<br />
Agents<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: In dieser Diplomarbeit wird das Design und die Implementierung<br />
eines elektronischen Marktplatzes (e-Market), welcher Auktionen als<br />
Handelsmechanismus verwendet, erarbeitet. Die Umgebung besteht aus<br />
zwei Teilen. Einem e-Market Kernel, welcher die Handelsumgebung<br />
repräsentiert, und Softwareagenten die als Clients (Handelsagenten)<br />
fungieren. Der elektronische Marktplatz kontrolliert alle Aspekte des<br />
Marktes, der Güter, des Verkaufs und Kaufs sowie die verwendeten<br />
Handelsmechanismen. Am Ende jedes Laufs wird ein Report ausgegeben<br />
der Aufschluss über die Handelsstrategie der einzelnen Agenten gibt. Den<br />
Handelsagenten wird mit diesem elektronischen Marktplatz das nötige<br />
Handwerkszeug zum Kauf und Verkauf beliebiger Produkte zur Verfügung<br />
gestellt. Der elektronische Marktplatz ist im Breich des e-Tourism<br />
angesiedelt jedoch aufgrund einer offenen Architektur auch <strong>für</strong> andere<br />
Domänen einsetzbar. Die Handlungsumgebung bedient sich einem<br />
Regelwerk, den sogenannten Electronic Institutions, zur Festlegung einer<br />
formalen Spezifikation. Der elektronische Marktplatz wird anhand des<br />
Konzepts einer realen Institution entworfen. Handelsagenten soll es<br />
ermöglicht werden sich zu registrieren, Auktionen beizuwohnen, sich über<br />
gehandelte Güter zu informieren und bereits erworbene Güter wieder zu<br />
verkaufen. Die in dieser Arbeit präsentierte Handelsumgebung soll Einblick in<br />
das Verhalten von Handelsagenten, hinsichtlich ihrer Interaktionen zur<br />
Zielerreichung, geben. Ziel ist es einen elektronischen Marktplatz als<br />
wissenschaftliches Instrument zur empirsichen Untersuchung von<br />
Handelsmechanismen zu erstellen.<br />
Roland Gross<br />
Method Tailoring in the V-Modell XT process context for Small and Medium-<br />
Sized Software Development Projects in the Public Sector - Case Study at<br />
Bundesrechenzentrum GmbH<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Abstrakt: Vorgehensmodelle sind ein wesentlicher Erfolgsfaktor im Software<br />
Engineering. Vorgehensmodelle müssen auf die jeweiligen Bedürfnisse von<br />
Projekten angepasst werden um optimale Ergebnisse zu erzielen. Das neue<br />
V-Modell XT stellt ein innovatives Vorgehensmodell am Stand der Technik<br />
dar, dass als verpflichtender Standard <strong>für</strong> Projekte des Deutschen Bundes<br />
einzusetzen ist. Durch den modularen Aufbau, die XML Spezifikation und die<br />
integrierte Auftraggeber / Auftragnehmer Schnittstelle eignet es sich<br />
47<br />
48<br />
besonders <strong>für</strong> den Einsatz im öffentlichen Bereich. Das V-Modell XT hat in<br />
der operativen Beschreibung von Methoden einige Defizite, die mit dem hier<br />
beschriebenen Ansatz behoben werden. Auch Methoden verlangen <strong>für</strong> den<br />
optimalen Einsatz im Projekt eine Anpassung auf die Bedürfnisse der<br />
Projektstakeholder. Methoden-orientiertes Tailoring bietet diese Möglichkeit<br />
aufbauend auf dem Grundgerüst des V-Modell XT. Ausgehend von<br />
definierten Charakteristiken wird ein Projekt bewertet und einem Projekttyp<br />
zugewiesen. Aus dem Projekttyp kann gemeinsam mit der<br />
Durchführungsstrategie aus dem V-Modell XT eine Methoden Matrix erzeugt<br />
werden. Die Methoden Matrix ist das Werkzeug zum Auffinden von<br />
zielgenauen Methodeninformationen (Literatur, Kontaktpersonen, Beispiele,<br />
etc.) zur Projektlaufzeit. Mit der Methoden Matrix ist es dem Anwender<br />
möglich die Defizite auf Methodenlevel des V-Modell XT auszugleichen und<br />
gleichzeitig kontinuierliche Prozessverbesserung durch Feedback zu<br />
betreiben. Ein Prototyp der gemeinsam mit dem Partner<br />
Bundesrechenzentrum GmbH entwickelt wurde, zeigt die Anwendung des<br />
Konzepts in der Praxis.<br />
Peter Hlavec<br />
Innovative User Interfaces for accessing Music on Mobile Devices<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: In dieser Arbeit werden unterschiedliche Visualisierungsarten von<br />
Musiksammlungen auf mobilen Endgeräten vorgestellt. Weiters werden<br />
innovative Ideen zum Navigieren durch Musiksammlungen präsentiert. Um<br />
die angeführten Konzepte auf mobilen Endgeräten zu demonstrieren, wurde<br />
der Prototyp MobileSOM (Mobile Selection of Music) entwickelt. Der<br />
Prototyp basiert auf einem Grid-Unit Verfahren, welches eine Musikbibliothek<br />
als 2-dimensionale Musiklandkarte (Grid) in unterschiedlichen<br />
Visualisierungen darstellt, wobei Musikstücke mit ähnlichen Eigenschaften in<br />
Feldern (Units) zusammengefasst werden. MobileSOM verfügt über ein<br />
intuitives User Interface, das dem Benutzer ein einfaches Auswählen von<br />
beliebigen Musiktiteln auf der Landkarte ermöglicht und diese in einer<br />
Playlist abspeichert. Die Lieder können entweder direkt vom Gerät selbst<br />
oder von einem im Netzwerk verfügbaren Server abgespielt werden.<br />
Außerdem kann das Gerät in Kombination mit MobileSOM als Fernbedienung<br />
benutzt werden. Dabei werden die ausgewählten Songs auf einem anderen<br />
Gerät abgespielt und die Wiedergabe durch die Software ferngesteuert.<br />
Abhängig von den Ausstattung des mobilen Endgerätes kann der Prototyp<br />
Lieder in verschiedenen Audioformaten wie mp3, wav, amr, usw. abspielen.<br />
MobileSOM wurde nicht da<strong>für</strong> konzipiert, um punktgenau einen bestimmten<br />
Titel zu entdecken. Es gibt keine speziellen Suchmechanismen um genau<br />
einen vom Benutzer gewünschten Song zu finden. Vielmehr geht es darum,<br />
den Benutzer bei der Erstellung von Playlisten, abgestimmt auf dessen<br />
Stimmungslage oder Hörverhalten, zu unterstützen. MobileSOMwurde in
Java Micro Edition (J2ME) programmiert und ist somit einem breiten<br />
horizontalen Markt von mobilen Endgeräten zugänglich. Der Prototyp ist der<br />
erste verfügbare Audioplayer in J2ME, mit dem das Erstellen von Playlisten<br />
auf einer Musiklandkarte möglich ist. Zur Demonstration wurden zum<br />
Zeitpunkt der Implementierung die modernsten mobilen Endgeräte<br />
bestimmter Hersteller ausgewählt, um maximale Ressourcen <strong>für</strong> die<br />
rechenintensive Multimedia-Anwendung bereitzustellen. Trotz erfolgreicher<br />
Tests liefen auf Grund von eingeschränkter Leistungsfähigkeit der Hardware<br />
nicht immer alle Bestandteile der Software fließend. Der Speicher <strong>für</strong> mobile<br />
Anwendungen in J2ME ist sehr begrenzt, die Darstellung des User<br />
Interaces zum Teil sehr schleppend, die Wiedergabe von mp3 Dateien in<br />
Java wird nur auf wenigen Geräten unterstützt und das Streamen von<br />
Musikdateien in hoher Qualität über das Netzwerk ist oft mit längeren<br />
Verzögerungen verbunden. Bei den nächsten Generationen von mobilen<br />
Endgeräten werden die erwähnten Schwachstellen der Vergangenheit<br />
angehören. Der in dieser Arbeit präsentierte Prototyp bietet somit Anreiz<br />
<strong>für</strong> die Umsetzung der vorgestellten Konzepte in kommerziellen<br />
Musikanwendungen in der nahen Zukunft.<br />
David Huemer<br />
Development of a modular extensible Framework for Penetration Testing<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Abstrakt: Bei der entwickelten Applikation handelt es sich um ein<br />
Framework, welches externe Programme als Module einbinden kann, deren<br />
Ergebnisse mit Hilfe einer Parser-Engine in ein XML Format umwandelt und<br />
danach diese XML Daten an das Framework weiter reicht. Das Framework<br />
schließlich generiert aus den einzelnen Dateien eine einzige Datei mit allen<br />
Informationen. Diese Informationen werden bei sämtlichen Vorgängen<br />
verschlüsselt abgelegt und können jederzeit in einer beliebigen<br />
Granularitätsstufe abgerufen werden. Dies ist deshalb von Vorteil, da die<br />
Daten dann in weiterer Folge dazu verwendet werden, um einen Bericht <strong>für</strong><br />
verschiedene Stakeholder, wie Management oder Datenbankadministrator,<br />
aufbereitet werden müssen. Das kann nun mit Hilfe des Tools automatisiert<br />
erfolgen. Will man die Applikation erweitern, genügt es das externe<br />
Programm über die Applikation aufzurufen und gegebenenfalls eine Parser-<br />
Logik zu implementieren. Danach kann diese ohne zusätzlichen Aufwand im<br />
Framework verwendet werden.<br />
David Laister<br />
Optimierung der Merkmalsberechnung <strong>für</strong> Audio-Daten<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
49<br />
50<br />
Thomas Lidy<br />
Evaluation of New Audio Features and Their Utilization in Novel Music<br />
Retrieval Applications<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: Die wachsende Popularität und Größe von Musikarchiven – sowohl<br />
im privaten als auch im professionellen Bereich – erfordert neue Methoden<br />
<strong>für</strong> das Organisieren und Suchen von Musik sowie den Zugriff auf diese<br />
Musikkollektionen. Music Information Retrieval ist ein junges<br />
Forschungsgebiet, das sich mit der Entwicklung von automatischen<br />
Methoden zur Berechnung von Ähnlichkeit in Musik beschäftigt, um das<br />
Organisieren von großen Musikarchiven auf Basis von akustischer<br />
Ähnlichkeit zu ermöglichen. Für Musikähnlichkeit spielt eine Vielzahl an<br />
Aspekten eine Rolle: z.B. Tempo, Rhythmus, Melodie, Instrumentierung und<br />
potenziell auch die Struktur (Refrain und Vers), der Text und sogar die<br />
verwendete Sprache. Um Musik semantisch erfassen zu können, ohne jeden<br />
einzelnen Song manuell beschriften zu müssen, wird viel Forschung zur<br />
automatischen Extraktion solcher musikalischen Aspekte betrieben. Diese<br />
Algorithmen zur sogenannten Feature (Merkmals-) Extraktion bilden das<br />
Herzstück einer Reihe von weiteren Aufgaben. Unter Verwendung von<br />
Klassifikationsalgorithmen können damit ganze Musikarchive automatisch in<br />
Kategorien organisiert werden. Allerdings stellt oft die Einteilung dieser<br />
Kategorien selbst ein Problem dar, sodass andere Methoden gefunden<br />
wurden, die Musiksammlungen rein aufgrund von Musikähnlichkeiten in<br />
Cluster gruppieren. Dabei wird Musik, die sehr ähnlich klingt, zusammen<br />
gruppiert und gleichzeitig von Musik mit anderen Charakteristika distanziert.<br />
Um das Resultat intuitiv darstellen zu können, wurde eine Reihe von<br />
Visualisierungen <strong>für</strong> die Darstellung von Musikarchiven entwickelt. Diese<br />
Diplomarbeit stellt zwei neue Algorithmen <strong>für</strong> die automatische<br />
Merkmalsextraktion aus Musik vor und beschreibt eine Reihe von<br />
Verbesserungen an einem weiteren, bereits existierenden Verfahren.<br />
Weiters beinhaltet die Arbeit eine Studie zur Bedeutung der Psycho-Akustik<br />
in der Berechnung von Musikmerkmalen. Alle neuen Verfahren werden<br />
anhand von Referenz-Musikkollektionen sowie in internationalen<br />
Performancevergleichen (auf Basis von Genre-Klassifizierung, Interpret-<br />
Erkennung und Ähnlichkeitssuche) evaluiert. Darüber hinaus wird eine<br />
neuartige Software vorgestellt, die Musiksammlungen auf Musiklandkarten<br />
darstellt und das Finden ähnlicher Musik sowie die direkte Interaktion mit<br />
der Sammlung ermöglicht, und zwar sowohl auf PCs als auch auf mobilen<br />
Geräten. Zur Veranschaulichung wurden Mozarts gesamte Werke unter<br />
Verwendung der neuen Methoden zur Merkmalsberechnung auf einer<br />
Musiklandkarte organisiert und die Map of Mozart erstellt.
Hannes Mayrhofer<br />
IT Governance im KMU<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Thomas Moser<br />
Question Answering using the Wikipedia-Oracle<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Andreas Niederbacher<br />
The Blackman Project: Collecting GPS Data for the „Semantic Desktop“<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Martina Osztovits<br />
GenEdit - A Generic Editor and Tools for Questionnaires<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />
Abstrakt: Im Rahmen dieser Diplomarbeit soll ein generischer Editor <strong>für</strong><br />
Fragebögen entwickelt werden. Zusätzliche Werkzeuge sollen einen<br />
Überblick über die, während der Arbeit mit dem generischen Editor<br />
erfassten zeitorientierten und strukturierten Daten, ermöglichen. Da der<br />
Editor mit Fragebögen verschiedenster Problemstellungen arbeiten können<br />
soll, ist es notwendig, dass die spezifische Anwendung, und auch die<br />
Fragebögen und deren Antworten aufgrund verschiedenster<br />
Konfigurationsfiles zur Laufzeit erzeugt werden. Es wird darauf abgezielt die<br />
Implementation so allgemein wie möglich zu halten, damit das Programm <strong>für</strong><br />
möglichst viele Aufgabenstellungen eingesetzt werden kann. Schließlich wird<br />
der Einsatz des entwickelten Programms am Fall von Fragebögen, die<br />
während einer klinischen Studie der Kinder- und Jugendpsychiatrie der<br />
Medizinischen <strong>Universität</strong> <strong>Wien</strong> an magersüchtige Mädchen gerichtet<br />
werden, gezeigt. Ziel ist es eine einfachere Eingabemöglichkeit, der,<br />
während dieser Studie gesammelten zeitorientierten, strukturierten Daten,<br />
und eine einfache Verwaltungsmöglichkeit der Fragebögen, zu ermöglichen.<br />
51<br />
52<br />
Julius Peneranda<br />
Automatische Zusammenfassung von Textclustern<br />
Studium: Masterstudium Information and Knowledge Management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: Das Internet bietet eine ständig wachsende Menge an<br />
Informationen zu fast jedem Thema. Allerdings kann das Suchen nach<br />
bestimmten Informationen mit großem Zeitaufwand verbunden sein. Um das<br />
Finden und Wiederfinden von richtigen Informationen zu erleichtern,<br />
tauchten erste Suchmaschinen auf. Allerdings ist das Ergebnis einer<br />
Suchanfrage, in dem alle <strong>für</strong> den Nutzer relevanten Seiten aufgelistet<br />
werden, in der heutigen Zeit nicht mehr geeignet. Extraktionsalgorithmen <strong>für</strong><br />
automatische Zusammenfassungen können hierbei helfen, einen bzw.<br />
mehrere Texte zu einem Thema auf den wesentlichen Inhalt zu verkürzen, so<br />
dass Leser schnell und hochinformativ mit den Kernpunkten der Texte<br />
versorgt werden. Der Ausgangspunkt dieser Arbeit ist die automatische<br />
Zusammenfassung von Text Clustern. Es sollen verschiedene Ansätze, wie<br />
auch neue Methoden der automatischen Erstellung von<br />
Zusammenfassungen vorgestellt und analysiert werden. Weiters sollen die<br />
automatisch erstellten Zusammenfassungen in einer Evaluation mit manuell<br />
verfassten Zusammenfassungen verglichen werden.<br />
Jérôme Peneranda<br />
Text Mining von Songtexten<br />
Studium: Masterstudium Information and Knowledge Management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: In einer Zeit der starken Verbreitung digitaler Musik versucht man<br />
mit verschiedenen Techniken die großen Mengen an Musik zu organisieren.<br />
Ein bewährtes Mittel ist die Einteilung von Musik in das entsprechende<br />
Musikgenre. In dieser Arbeit erfolgt dies durch die Analyse von Musik in<br />
Form von Songtexten. Mit Hilfe von Text Categorization Methoden wird ein<br />
Ansatz zur automatischen Klassifikation von Songtexten, welche<br />
verschiedenen Lyric-Webseiten entnommen wurden, präsentiert. Dazu<br />
werden den Songtexten verschiedene Features, welche sowohl inhaltsbasiert<br />
als auch strukturbasiert sind, extrahiert. Mit diesen Features wird ein<br />
Klassifikator trainiert, welcher dann dem jeweiligen Songtext das<br />
entsprechende Musikgenre zuordnet. Bei der Klassifikation kommen Support<br />
Vector Machines und der Naive Bayes Klassifikator zum Einsatz. Die in<br />
dieser Arbeit durchgeführten Experimente umfassen die Evaluierung des<br />
Klassifikationsprozesses und die Kombination verschiedener Features zur<br />
Steigerung der Klassifikationsgenauigkeit. Mit Hilfe der Ergebnisse wird<br />
untersucht, wie viele Songtexte zur Definition eines Genres erforderlich sind,<br />
wie gut die Klassifikationen ausfallen und welche Featurekombinationen sich<br />
am Besten <strong>für</strong> diesen Ansatz der Songtextklassifikation eignen.
Christian Rauscher<br />
Appointment Arrangement Service: Online Terminabsprache mit .Net 2.0<br />
und Anbindung an MS Outlook 2003<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Angela Roiger<br />
Analyzing, Labeling and Interacting with SOMs for Knowledge Management<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: Self-Organizing Maps erfreuen sich großer Beliebtheit, wenn es<br />
darum geht, komplexe Zusammenhänge hochdimensionaler Daten<br />
vereinfacht darzustellen. Um diese Karten <strong>für</strong> einen Anwender leichter<br />
lesbar zu machen wurden im Rahmen dieser Arbeit Algorithmen<br />
implementiert die Clusterstrukturen in einer Self-Organizing Map aufzeigen.<br />
Das Wissen über die Struktur alleine ist aber noch nicht ausreichend; diese<br />
muss auch verständlich und übersichtlich dargestellt werden. Dazu wurden<br />
Methoden entwickelt die Cluster darzustellen und sie mit geeigneten<br />
Beschriftungen zu versehen. Die Anwendbarkeit wurde anhand einer<br />
Datenbasis von 20.000 Newsgroup Beiträgen untersucht.<br />
Robert Schröttner<br />
ISIM Investigation and Specification - a sample implementation on the IBM<br />
JavaCard (JC/OP)<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Doz. Dr. Ernst Piller<br />
Abstrakt: Diese Arbeit bietet eine Einführung in die ISIM Spezifikation und<br />
zeigt eine Implementierung auf der IBM JavaCard (JC/OP). ISIM ist eine<br />
Spezifikation von 3GPP und definiert, wie Public- und Private-Keys zur<br />
Authentifikation im IP-Multimedia Netz (IMS) auf einer Chipkarte abzulegen<br />
sind. Die Spezifikation weiters noch ein Zugriffsprotokoll und einige<br />
Sicherheitsfunktionen <strong>für</strong> die Karte. ISIM alleine kann zur Authentifizierung<br />
über das LAN im IMS verwendet werden. Bei Verwendung über das UMTS<br />
ist aber die Zusammenarbeit mit anderen Applikationen (z.B. der USIM)<br />
nötig. Die gezeigte Implementierung bietet einen Einblick, wie auf einer<br />
JavaCard die ISIM-Anwendung implementiert werden kann - bildet allerdings<br />
Aufgrund einiger Restriktionen und unterschiedlicher Standards der IBM<br />
JavaCard die Spezifikation nicht vollständig ab<br />
Michael Schuster<br />
Memebrowser: Establishing and Presenting semantic connections between<br />
Weblog entries<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: Personal Knowledge Management ist der jüngste Spross einer<br />
Entwicklung die bereits 1945 mit einem visionären Artikel von Vannevar<br />
Bush begonnen hat. In diesem Artikel beschrieb er den Memex, eine<br />
Maschine die es dem Individuum ermöglichen sollte, sämtliche Bücher,<br />
Erinnerungen und Kommunikationen zu speichern. Das ständig wachsende<br />
Ausmaß an Informationen hat bis dato kein Gerät oder Paradigma mit sich<br />
gebracht, welches in der Lage wäre uns bei der Ver- und Bearbeitung dieser<br />
Informationen (ähnlich dem Memex) behilflich zu sein. Computer selbst, die<br />
ursprünglich <strong>für</strong> genau diese Aufgabe erschaffen wurden, verschlimmerten<br />
die Lage nur noch. Tim Berners-Lee sah sich mit ähnlichen Problemen<br />
konfrontiert und schlug ein Informations Management System vor, welches<br />
wir heute als das World Wide Web kennen. Auch das WWW löste das<br />
Problem nicht, sondern trug nur noch weiter dazu bei. In jüngster Zeit<br />
bewegt sich das WWW wieder zurück zur ursprünglichen Vision, in der<br />
Jeder, unter der Verwendung von einfachen Werkzeugen, das Netz an<br />
Informationen erweitern kann. Eines dieser Tools sind Weblogs, die zu<br />
einem Mittel geworden sind um die Menge der Information im WWW<br />
leichter zu erreichen, sie werden als eine Art persönliches<br />
Wissensmanagement Werkzeug verwendet. Millionen von Bloggern<br />
schreiben ihre Gedanken nieder, äußern ihre Meinungen und Ansichten und<br />
erzeugen damit was Dawkins einst einen "Memepool" nannte. Der Überfluss<br />
an Informationen beginnt sich auf Grund der wachsenden Nutzung auch hier<br />
deutlich zu zeigen. Ein Paradigma welches geschaffen wurde um genau<br />
dieses Problem endlich zu lösen, ist jenes des Semantic Web, in welchem<br />
Computerprogramme sich automatisch durch das Netz bewegen und dieses<br />
verstehen um uns Arbeit abzunehmen. Diese Diplomarbeit hat das Ziel diese<br />
drei Paradigmen, Memes und die Memex Vision, das Semantic Web und<br />
Weblogs zu verbinden. Der Memebrowser ist ein erster Prototyp welcher<br />
den Nutzen von Weblogs als Personal Knowledge Management Tools<br />
erhöhen soll.<br />
Stefan Schwärzler<br />
Neuorientierung des Dokumenten- und Dateimanagements im End-User<br />
Anwendungsbereich<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Dieter Merkl<br />
53<br />
54
Abstrakt: Diese Arbeit stellt das Dateimanagement, wie es gegenwärtig<br />
praktiziert wird, in Frage. Die Anforderungen und der Aufwand <strong>für</strong> die<br />
Organisation der eigenen Dateien, besonders im Desktopbereich, steigt<br />
ständig, weil wir in der täglichen Arbeit mit einer Flut unterschiedlicher<br />
Dokumente zu tun haben: E-Mails und deren Attachments, Dokumente,<br />
welche wir selbst verfassen und speichern wollen, Downloads aus dem<br />
Web, Bilder aus Digitalkameras, Videos.Das bisherige System, diese zu<br />
strukturieren, einzuordnen, zu archivieren und wiederzufinden stößt<br />
zunehmend an seine Grenzen.In dieser Arbeit wird das im Web immer<br />
populärer werdende Tagging, das Annotieren von Objekten mit kleinen<br />
Zettelchen, als möglicher Weg <strong>für</strong> das zukünftige Dateimanagement am<br />
Desktop vorgeschlagen. Das beschriebene System beschränkt sich bei der<br />
Suche nach Objekten auf eine Und-Logik und ermöglicht damit die<br />
Verwendung von Tag-Sets sowohl als Suchspezifikationen als auch als<br />
gefühlte Orte zur Dateiablage. Diese verhalten sich ähnlich wie Verzeichnisse<br />
aus hierarchischen Dateisystemen.Es wurde ein Prototyp entwickelt, der die<br />
Verwaltung der persönlichen Dokumente und Dateien mit Hilfe von Tagging<br />
auf standard Desktop Systemen (Windows, Linux) ermöglicht. Im Rahmen<br />
einer User Study wurden Erfahrungen von acht Benutzern beim ersten<br />
Einsatz des neuen Systems auf ihrem persönlichen Desktop gesammelt.<br />
Ingo Seidel<br />
Integrating Electronic Institutions with 3D Virtual Worlds<br />
Studium: Masterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Dieter Merkl<br />
Abstrakt: Diese Arbeit ist im Zuge eines Forschungsprojektes, welches sich<br />
mit der Umsetzung einer 3D e-Tourismus Umgebung beschäftigt,<br />
entstanden. Das Ziel dieses Projekts ist die Entwicklung eines Instruments,<br />
um die komplexen Interaktionsmuster von Anbietern und Konsumenten im e-<br />
Tourismus zu unterstützen. Diese Anbieter und Konsumenten sind<br />
Teilnehmer in einer heterogenen Gesellschaft von Menschen und Software-<br />
Agenten, die gemeinschaftlich in einer 3D Umgebung basierend auf einem<br />
Multi Agenten System zusammenleben. Im konkreten besteht das System<br />
aus drei Ebenen: einer 3D Visualisierungs-, einer Middleware- und einer<br />
Multi Agenten System Ebene. Diese Arbeit beschäftigt sich mit der<br />
praktischen Umsetzung eines solchen Systems. Der Fokus ist dabei auf das<br />
Design und die Erstellung der Middleware Komponente, sowie auf die<br />
Visualisierung in der 3D Welt gelegt. Die Middleware verbindet das Multi<br />
Agenten System mit der 3D Welt und leitet Nachrichten in beiden<br />
Richtungen weiter. Sie garantiert damit ein konsistentes Verhältnis zwischen<br />
diesen beiden Komponenten, indem jeder Zustandswechsel in der einen<br />
Komponente in der anderen Komponente propagiert wird. Die 3D Welt dient<br />
einerseits als User Interface <strong>für</strong> Benutzer und wird andererseits <strong>für</strong> die<br />
Visualisierung von Softwareagenten verwendet. Die Steuerung dieser<br />
Agenten, sowie die Interaktionsmechanismen mit dem Benutzer werden<br />
ebenfalls in dieser Arbeit vorgestellt.<br />
Rainer Steinlesberger<br />
Codegeneration with Ruby on Rails-Bridging the Gap between Design and<br />
Implementation<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Abstrakt: Basierend auf den derzeitig vorherrschenden Prozessen der<br />
Medikation sowie der Rezeptverschreibung werden Modelle vorgestellt,<br />
welche <strong>für</strong> den elektronischen Ablauf der Rezeptverschreibung und <strong>für</strong> die<br />
Speicherung von Medikationsdaten geeignet sind. Diese Modelle werden<br />
modelliert und simuliert und mit den derzeitigen Prozessen der<br />
Rezeptverschreibung hinsichtlich Kosten- und Zeiteffizienz verglichen. Die<br />
Magisterarbeit demonstriert zum einen, wie die Umsetzung einer<br />
elektronischen Medikation langfristig Kosten- als auch Zeitaufwand reduziert.<br />
Zum anderen wird gezeigt, wie sich durch die Speicherung von<br />
medizinischen Daten die Qualität der medizinischen Versorgung erhöht.<br />
Abdel Aziz Taha<br />
SOM Coloring based on class lebels<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: Die Selbstorganisierende Karte (SOM) ist ein nützliches und<br />
starkesWerkzeug <strong>für</strong> die Datenanalyse, besonders <strong>für</strong> große Datensätze<br />
oder Datensätze von hoher Dimensionalität. SOM Visualisierungen bilden die<br />
Dimensionen des Datenmodells auf graphische Dimensionen wie Farbe und<br />
Position ab, so helfen sie der Navigation und dem Erforschen von dem SOM.<br />
SOM Visualisierungen können auch die Daten selbst einbeziehen, so dass<br />
der Zugriff auf Informationen möglich wird, die in einem reinen SOM nicht<br />
verfügbar sind. Dadurch wird ein tieferer Einblick in die Daten möglich.<br />
Wenn die Daten mit klassen gekennzeichnet sind, können diese Klassen<br />
auch in der Visualisierung einbezogen werden, so dass, eine klarere Idee<br />
über die Klassinformation gewonnen wird. In dieser Arbeit schlagen wir eine<br />
neuartige SOM Visualisierungsmethode, nämlich die SOM Klassenfärbung<br />
vor, welche auf den Datenklassen beruht. Diese Methode findet eine farbige<br />
Partition des SOM-Gitters, die die Klassenstruktur widerspiegelt. Diese<br />
Visualisierung ermöglicht das entdecken von Klassinformation wie<br />
Klassenstruktur, Klassenverteilung und Klassenclusters. Außerdem können<br />
neue Daten Klassen zugeordnet werden und zwar indem der Punkt auf dem<br />
SOM-Gitter ermittelt wird, welcher das neue Datum (Messwert) am besten<br />
55<br />
56
epräsentiert; das neue Datum wird dann jener Klasse zugeordnet, die die<br />
Partition repräsentiert, auf der sich der Punkt befindet.<br />
Jürgen Trauner<br />
Using Work Lists on Mobile Devices as an Example of Mobile Computing in<br />
Health Care Applications<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.-Doz. Dr. Andreas Holzinger<br />
Ramona-Roxana Varvaroi<br />
Investigating the Learning Effect of Usage-Based Reading Software<br />
Inspection in an Empirical Pilot Study<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Abstrakt: Learning is an important activity in software engineering to<br />
improve the understanding of application domains, methods and processes.<br />
One promising method to enable learning is software inspection because of<br />
the systematic and well-defined process. Important goals of inspection are<br />
defect detection regarding all types of software documents (written text<br />
documents and software code) and learning effects applying the method.<br />
Usage-Based Reading (UBR) support the inspection process by providing a<br />
systematic process for traversing the document under inspection based on<br />
a set of prioritized use cases according to their business value contribution.<br />
This thesis deals with the investigation of the learning effect of best-practice<br />
inspection in a large-scale empirical study. We derive learning effects from<br />
performance measures (effectiveness and efficiency of defect detection<br />
capability) on methodological level (applying best-practice inspection).<br />
Learning effects will be enabled by the experiment setup, which includes two<br />
study sessions. A set of predefined defects, seeded by experts, enable the<br />
evaluation of performance measures. Both sessions cover the same<br />
application domain (a taxi management system) from different view points<br />
(central and taxi part) applying the same method (UBR). Therefore, we<br />
derive learning effects between both sessions. The results will be used for<br />
analyzing how the performance results evolve by comparing the two<br />
experiment sessions. The method was applied paper-based so at the end all<br />
participants had to enter their results into a data gathering tool. All<br />
participants put UBR into practice by using a step-by-step guideline and<br />
prioritized use cases. The provided document package consists of<br />
requirements document, design document, method description, source<br />
code and use case prioritisation (with sequence charts). Method description<br />
and source code documents were seeded with defects classified by different<br />
defect types (missing or wrong) and different defect severity levels (risk). The<br />
results of this controlled experiment were evaluated statistically and<br />
57<br />
58<br />
visualized based on an Access Database via Excel and SPSS. A positive<br />
learning effect from the first (central) to the second (taxi) experiment<br />
session was expected and consequently a strong correlation of Qualification<br />
and Performance measurements.<br />
Roland Vecera<br />
Efficient Indexing, Search and Analysis of Event Streams - EventCloud:<br />
Exploration and Analysis Tool for Events<br />
Studium: Masterstudium Information and Knowledge Management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Abstrakt: Today’s business is event-driven. Businesses of all shapes and<br />
sizes are driven by and respond to events. Thus IT-Systems offer a large<br />
amount of events, representing notable activities in complex workflows and<br />
business processes, that are the subject of event analysis. This thesis<br />
highlights the necessity for specialized event analysis tools, explains the<br />
relationship to Complex Event Processing (CEP), outlines requirements and<br />
proposes the EventCloud system.EventCloud is a generic, offline event<br />
analysis tool for Complex Event Processing (CEP) scenarios. EventCloud<br />
enables its user to navigate through events, pick up single events and<br />
display their content, discover chains of events and how they are correlated,<br />
and to recognize patterns inside the events. Metrics can be defined to<br />
provide insight at a higher level and to measure business performance. It<br />
visualizes business and process developments at the fine-grained level of<br />
events.<br />
Matthias Wallner<br />
Modeling and Empirical Evaluation of Service Process Improvement based<br />
on ITIL Best Practices<br />
Studium: Masterstudium Information and Knowledge Management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Abstrakt: Business Prozesse entwickeln sich häufig über Jahre hinweg ohne<br />
entsprechend dokumentiert oder definiert zu sein. Deshalb fehlen den<br />
involvierten Personen exakte Richtlinien wie der Prozess zu handhaben ist.<br />
Die Werte und Risiken der Stakeholder sind ebenfalls oft nicht explizit<br />
bekannt. Ich habe daher eine Fallstudie beim Siemens PSE Windows<br />
Support Center durchgeführt um den Prozess der Handhabung einer<br />
Support Anfrage zu dokumentieren und definieren. Der Prozess wurde <strong>für</strong><br />
zehn Jahre „gelebt“, aber das Fehlen von Spezifikationen hatte zur Folge,<br />
dass einige Prozessteile von verschiedenen Personen unterschiedlich<br />
gehandhabt wurden. Dies kann zu inkonsistenter Dokumentation und<br />
höherem Aufwand <strong>für</strong> Berichte und im Ende bis hin zu niederer<br />
Kundenzufriedenheit führen.Um einen definierten Prozess zu erreichen,
analysierte ich den Prozess basierend auf Interviews mit den involvierten<br />
Stakeholdern und definierte Key Performance Indikatoren (KPI) um die<br />
kritischen Erfolgsfaktoren zu messen. Den KPIs wurden – basierend auf<br />
einer Nutzwertanalyse der Stakeholder – erwünschte Zielwerte und<br />
potentielle Risiken bei deren Nichterreichung zugewiesen. Der neue Prozess<br />
– basierend auf den optimalen Verfahrensrichtlinien von ITIL und den<br />
Prozessdefinitionen von Microsofts eigenem Support Prozess – wurde<br />
implementiert und verglichen mit den festgelegten Zielwerten. Des Weiteren<br />
wurde die Toolunterstützung verbessert um die Mitarbeiter mit dem neuen<br />
Prozess zu unterstützen. Zielpublikum sind sowohl Mitarbeiter in Support<br />
Zentren (Bearbeiter, Manager und Leitung) als auch das höhere<br />
Management, das auf zuverlässige Prozesse in Unterorganisationen<br />
angewiesen ist.<br />
auf 19 Teststücken aus dem Gebiet Unterhaltungmusik der letzten<br />
Jahrzehnte wurde erreicht und untermauert die Stärke dieses Ansatzes.<br />
Thomas Zwanzinger<br />
Interactive Previews in Document Workflows<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Arbeitbereich Interactive Media Systems<br />
Veronika Zenz<br />
Automatic Chord Detection in Polyphonic Audio Data<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Abstrakt: Die automatische Analyse digitalisierter Musikaufnahmen hat eine<br />
lange Tradition. Viele Aufgaben die <strong>für</strong> einen Menschen leicht lösbar sind,<br />
wie das Unterscheiden verschiedener Instrumente, das Erkennen des<br />
Rhythmus oder der Harmonien sind <strong>für</strong> den Computer jedoch noch nicht<br />
gelöst. Speziell von einem automatischen Transkriptionssystem, das aus<br />
einer digitalen Musikaufnahme eine Partitur erstellt, ist man trotz<br />
jahrzehntelanger Forschung noch weit entfernt. Diese Arbeit beschäftigt<br />
sich mit einem Teilproblem der automatischen Transkripition - der<br />
Akkorderkennung. Diese ist besonders interessant, weil Akkorde<br />
vergleichsweise simple und robuste, also über längere Zeitspannen gleich<br />
bleibende Strukturen sind, gleichzeitig aber die harmonischen Eigenschaften<br />
eines Musikstücks vollständig beschreiben. So können Musiker eine Melodie<br />
allein anhand vorgegebener Akkordsymbole begleiten. Ein weiteres<br />
Anwendungsgebiet dieser Arbeit stellt die automatisierte Annotation von<br />
Musikdaten dar. In einem Musikarchiv kann so nach bestimmten<br />
Akkordfolgen, harmonischen und emotionalen Eigenschaften gesucht<br />
werden. Bisherige Ansätze zur Akkorderkennung machen teilweise große<br />
Einschränkungen auf die zu analysierenden Musikdaten, indem sie sich zum<br />
Beispiel auf die Analyse von Musikstücken ohne Schlagzeug oder Gesang<br />
beschränken. Weiters bezieht ein Großteil der bestehenden Arbeiten<br />
musiktheoretische Regeln nicht in die Analyse mit ein und lässt dadurch<br />
hilfreiche Zusatzinformation zur Akkorderkennung unberücksichtigt. Das Ziel<br />
dieser Arbeit ist es, einen Algorithmus zu entwickeln, der auf Musikstücken<br />
mit beliebiger Instrumentierung arbeitet und dabei musiktheoretisches<br />
Wissen zu berücksichtigen. So fließen in den hier entworfenen Algorithmus<br />
Rhythmus, Tonart und das Wissen um Häufigkeiten von Akkordwechseln in<br />
die Akkorderkennung ein. Eine durchschnittliche Erkennungsrate von 64%<br />
59<br />
60<br />
Harald Meyer<br />
Template-based Face Detection in Videos<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />
Abstrakt: Die steigende Nachfrage nach biometrischen Systemen, welche<br />
durch die Bedrohung durch den Terrorismus weiter verstärkt wurde, führt<br />
zu einem stark gesteigerten Interesse an Gesichtserkennungssystemen die<br />
automatisch Individuen aus Bildern und Videos identifizieren können.<br />
Gesichtserkennung wird auf Bilder angewandt, die nur aus einem Gesicht<br />
bestehen. Diese müssen mit Hilfe von Gesichtsdetektionsmethoden<br />
extrahiert werden. In dieser Arbeit wird eine detaillierte übersicht über<br />
aktuelle Gesichtsdetektionssysteme gegeben, wobei der Fokus auf Videos<br />
gelegt wird. Videos haben im Gegensatz zu den meisten unbewegten Bildern<br />
einige Einschränkungen wie zum Beispiel geringere Auflösung und<br />
Störungen. Sie bieten aber auch raumzeitliche Informationen, die aus<br />
aufeinander folgenden Bildern extrahiert werden können. Gesichtserkennung<br />
wird oft erschwert durch Verdeckungen, wechselnde Beleuchtung und<br />
Haltung und Rotation. Der <strong>für</strong> diese Arbeit implementierte Ansatz vereint<br />
mehrere Methoden, um diese Probleme einzuschränken. Zuerst werden mit<br />
Hilfe eines Hautfarbenmodels Regionen extrahiert. Auf diese Regionen wird<br />
dann eine Kantenextraktion angewandt und die Korrelation zwischen<br />
Kantenbild und vorgefertigten Musterbildern über die Hausdorff Distanz<br />
berechnet. Weiters können Gesichtskandidaten mit Hilfe der normalisierten<br />
Kreuzkorrelation und mit einem Munddetektor weiter gefiltert werden.<br />
Videos können außerdem noch unter Ausnützung von raumzeitlichen<br />
Informationen verfeinert werden. Die Evaluierung des Systems zeigt gute<br />
Erkennungsraten in Bildern und Videos.
Arbeitsbereich Business Informatics<br />
Petra Brosch<br />
Ubiquitäre Web-Anwendungen - Realisierung von Adaptierung mit Hilfe<br />
aspektorientierter Programmierung<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Ubiquitäre Web-Anwendungen haben das<br />
anytime/anywhere/anymedia Paradigma zugrunde liegen, und bieten dem<br />
Anwender, egal wann, wo und mit welchem Gerät er diese nutzt, einen<br />
individuell abgestimmten und auf die Rahmenbedingungen des Benutzers<br />
angepassten Inhalt. Im Rahmen einer Kooperation von drei Magisterarbeiten<br />
[Brosch, Mayer, Weissensteiner] wurde ein ubiquitäres<br />
Tourismusinformationssystem entwickelt. Das Ziel dieses Projekts war die<br />
Konzeption, Modellierung und Implementierung einer Web-Anwendung mit<br />
Customizationunterstützung, dh. einer Web-Anwendungen die aufgrund<br />
mehrerer Kontextfaktoren wie Benutzer, Zeit, Ort, Gerät, etc., mit der<br />
Adaptierung ihrer Dienste reagiert. Die Implementierung der<br />
Customizationfunktionalität ist allerdings komplex, da sie an vielen Stellen der<br />
Web-Anwendung Berücksichtigung finden muss und sich quer durch den<br />
Code des Systems zieht. Separation of Concerns ist daher im Sinne der<br />
Wartbarkeit, Erweiterbarkeit, Änderbarkeit, etc. eines Systems<br />
anzustreben. Der Fokus dieser Arbeit liegt auf Aspektorientierung in der<br />
Entwicklung von ubiquitären Web-Anwendungen. Die aspektorientierte<br />
Programmierung unterstützt die Modularisierung von so genannten<br />
Crosscutting Concerns mit Hilfe eines neuen Konzepts, dem Aspekt. Diese<br />
Crosscutting Concerns lassen sich mit herkömmlichen<br />
Modularisierungsmethoden, die beispielsweise die objektorientierte<br />
Programmierung bietet, nicht kapseln, sondern sind über viele<br />
Komponenten eines Programms hinweg verteilt. Typische Beispiele <strong>für</strong><br />
Crosscutting Concerns sind Logging, Authentifizierung und<br />
Fehlerbehandlung. Die Kernfunktionalität eines Systems lässt sich<br />
üblicherweise in Klassen der Geschäftslogik kapseln, nicht so die<br />
Customizationfunktionalität. Daher demonstrieren wir anhand eines<br />
ubiquitären Tourismusinformationssystems den Nutzen und Beitrag von<br />
Aspektorientierung zur Behandlung von Separation of Concerns im<br />
Allgemeinen und insbesondere <strong>für</strong> die Trennung des Customization<br />
Concerns.<br />
Abstrakt: Durch die Veränderung des World Wide Web von einem<br />
statischen Informationsmedium hin zu einem dynamischen<br />
Anwendungsmedium ist der Bedarf an Webanwendungen, die <strong>für</strong> die<br />
Bereitstellung von Diensten über das Web verantwortlich sind, so hoch wie<br />
nie. Es haben sich bereits sehr viele Technologien etabliert, mit Hilfe derer<br />
es möglich ist, Webanwendungen zu entwickeln. Die Anforderungen an<br />
solche Webanwendungen sind sehr vielfältig und mit einer oft kürzeren<br />
Entwicklungszeit, die <strong>für</strong> die Erzeugung der Anwendung zur Verfügung steht,<br />
geht eine meist höhere Komplexität der benötigten Funktionalität einher. Um<br />
es den Entwicklern zu ermöglichen, sich mit dem eigentlichen Problem<br />
auseinander zu setzen und nicht <strong>für</strong> jede Webanwendung das Rad neu<br />
erfinden zu müssen, werden <strong>für</strong> die verschiedenen Technologien<br />
Frameworks geschaffen, die den Programmierer mit Hilfe integrierter<br />
Funktionalitäten bei der Implementierung unterstützen sollen. Eines dieser<br />
Frameworks, das sich erst seit kurzer Zeit im Web etabliert, ist Ruby on<br />
Rails. Es bietet Funktionalitäten, die es dem Entwickler ermöglichen rasch<br />
einen ersten, funktionstüchtigen Prototyp einer Webanwendung zu<br />
generieren, mit Hilfe dessen sofort Feedback vom Benutzer eingeholt<br />
werden kann. Wie es bei vielen Anwendungen im Web der Fall ist, basieren<br />
auch die Applikationen, die mit Ruby on Rails erstellt werden auf einem<br />
relationalen Datenbanksystem. Der Prototyp, der mit Hilfe eines in Rails<br />
integrierten Codegenerators erzeugt wird, bietet jedoch nur eingeschränkte<br />
Funktionalität und es wäre wünschenswert einerseits diese zu erweitern und<br />
andererseits die Anwendung ausgehend von einem Modell, das die<br />
Datenbank beschreibt, generieren zu können.Diese Arbeit versucht in einem<br />
ersten Schritt den von Ruby on Rails bereitgestellten Scaffold-Generator so<br />
zu erweitern, dass der Prototyp auch Validierungsfunktionalität beherrscht.<br />
Dies geschieht mit Hilfe zweier zusätzlicher Datenbanktabellen, die Regeln<br />
<strong>für</strong> die Validierung bereitstellen sollen. Weiters soll die Abbildung von<br />
Beziehungen zwischen Datenbanktabellen automatisch in die Modellklassen<br />
der Webanwendung eingebunden werden.Im zweiten Schritt wird ein<br />
grafischer Editor erstellt, der <strong>für</strong> die Erstellung von logischen<br />
Datenbankmodellen herangezogen werden kann.Schließlich soll am Ende ein<br />
Framework entstehen, das zuerst zur Modellierung von ER-Diagrammen<br />
dient, danach aus dem Modell über einen Zwischenschritt der<br />
Codegeneration die Struktur der Datenbank erstellt und zum Abschluss mit<br />
Hilfe des erweiterten Ruby-Generators den Prototyp einer datenintensiven<br />
Webanwendung erstellt. Aufgrund der Kombination von Modellierung und<br />
dem Einsatz von Ruby on Rails wird dieses Framework Models on Rails<br />
genannt.<br />
Alexander Dick<br />
Codegeneration with Ruby on Rails-Bridging the Gap between Design and<br />
Implementation<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
61<br />
62<br />
Hannes Erven<br />
Web-Transaktionen: Erweiterung der WS-BusinessActivity-Spezifikation um<br />
WS-BusinessActivity–Initiator und Implementierung der beiden Protokolle im<br />
Open Source-Projekt Apache Kandula
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Derzeit ist der Trend bemerkbar, dass Unternehmen ihre<br />
Geschäftsprozesse in IT-Systemen abbilden und ihre internen Abläufe mit<br />
Hilfe von Geschäftsprozess- Engines koordinieren und teilweise<br />
automatisieren. Bisher waren Automatismen auf Berechnungen mit bereits<br />
vorhandenen Daten beschränkt oder auf aufwändig und individuell<br />
angepasste Schnittstellen zu anderen Systemen angewiesen. Web Services<br />
ermöglichen die einfache, weltweite Vernetzung von Computerprogrammen<br />
über das Internet und damit auch die Einbindung von Diensten, die von<br />
Geschäftspartnern betrieben werden. Um über diese Schnittstellen auch<br />
tatsächlich „Business“ betreiben zu können, ist es erforderlich, dass die<br />
beteiligten Computerprogramme Protokolle verwenden, die eine einheitliche<br />
Sicht beider Geschäftspartner auf die gemeinsamen Aktivitäten<br />
sicherstellen. In der vorliegenden Arbeit wird die Web Services<br />
Transactions-Protokollfamilie analysiert und eine Erweiterung des WS-<br />
BusinessActivity (WS-BA)–Protokolls entwickelt, das WS-BusinessActivity–<br />
Initiator (WS-BA–I)-Protokoll. Anhand einer Referenzimplementierung im<br />
Kandula-Projekt der Apache Software Foundation wird der Einsatz der beiden<br />
Protokolle in einer servicezentrierten Architektur (service oriented<br />
architecture, SOA) demonstriert. Diese Implementierung umfasst sowohl<br />
einen Koordinator <strong>für</strong> WS-BusinessActivity-Transaktionen als auch<br />
Clientbibliotheken <strong>für</strong> das Benutzen des Koordinators und zum Entwickeln<br />
WS-BA-fähiger Web Services. Besonders wichtig bei der Entwicklung des<br />
WS-BusinessActivity–Initiator-Protokoll war es, die Möglichkeit zu schaffen<br />
Initiator und Koordinator sauber von einander getrennt zu betreiben.<br />
Dadurch können Koordinierungsdienste durch vetrauenswürdige Dritte<br />
(trusted third parties) erbracht werden. Die erweiterte Spezifikation<br />
entspricht dem Konzept der getrennten Verantwortungsbereiche (separation<br />
of concerns) und trägt dadurch wesentlich zur Verbesserung von Qualität<br />
und Wiederverwendbarkeit der Softwarekomponenten bei. Sie beseitigt die<br />
wesentlichen Schwächen des Konzepts von WS-BusinessActivity.<br />
Georg Hicker<br />
Web-Transaktionen: Erweiterung der WS-BusinessActivity-Spezifikation um<br />
WS-BusinessActivity–Initiator und Implementierung der beiden Protokolle im<br />
Open Source-Projekt Apache Kandula<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: siehe Hannes Erven<br />
Arnold Karner<br />
Vollständige Codegenerierung mit AndroMDA<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Rudolf Mayer<br />
Ubiquitäre Web-Anwendungen - Entwicklung endgeräteunabhängiger<br />
Lösungsansätze<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Robert Mosser<br />
A B2B Benchmark On Top Of UMM and TPC-App<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Christian Huemer<br />
Abstrakt: Ziel der Diplomarbeit war es einen Benchmark zu kreieren, der<br />
einen Vergleich zwischen den vielen verschiedenen existierenden Businessto-Business<br />
(B2B) Technologien ermöglicht.TPC-App ist der bis dato einzige<br />
bekannte B2B-Benchmark. Er misst den "Throughput (Web Service<br />
Interactions/sec.)" von Application Servern unter Zuhilfenahme von Web<br />
Services. TPC-App ermöglicht es die Leistung der Hardware und der<br />
Software-Plattform (.NET/JAVA) zu messen. Allerdings ist der Benchmark<br />
beschränkt auf bestimmte IT-Technologien.Die UN/CEFACT Modeling<br />
Methodology dient zum Modellieren von B2B Kollaborationen von<br />
verschiedenen Partner unabhängig der zugrunde liegenden Technologien.<br />
Der Fokus liegt dabei auf "business logic, commitments and constraints of<br />
partnerships". Ein UMM Modell kann mit jeder beliebigen Technologie<br />
implementiert werden.Idee war es die Stärken von TPC-App und UMM zu<br />
verbinden. Via Reverse Engineering wurde das repräsentative B2B-Szenario<br />
des TPC-App mit UMM modelliert. Dabei galt es die teilweise grundlegenden<br />
Unterschiede zwischen TPC-App und UMM zu überwinden. Diese<br />
Unterschiede resultieren grossteils aus der unterschiedlichen Ausrichtung<br />
eines Benchmarks und einer Modellierungssprache. Das Resultat ist ein<br />
B2B-Benchmark-Framework das den Vergleich verschiedener B2B-<br />
Technologien ermöglicht. Um den Zusammenhang zu TPC-App und UMM zu<br />
unterstreichen haben wir ihm den Namen UMM-App gegeben. Aufbauend<br />
auf UMM-App wurde ausserdem ein Konzept eines Competition Games<br />
erstellt. In diesem Spiel konkurrieren unabhängige Softwareagenten in einem<br />
Internet-Retail-Markt um Kundenbestellungen und Nachlieferungen von<br />
Lieferanten.<br />
63<br />
64
Matthias Reichhold<br />
Evaluierung des UML Modellierungswerkzeuges StarUML<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Florian Skopik<br />
Moderne Softwareentwicklungsumgebungen - Evaluierung C++/C#-basierter<br />
Ansätze<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Die kurze Geschichte der Softwareentwicklung ist geprägt von<br />
Innovationen. Als relativ junge Ingenieursdisziplin, verglichen mit<br />
Maschinenbau, Elektrontechnik oder dem Bauingenieurswesen, spielt sie<br />
erst seit einigen Jahrzehnten eine tragende Rolle in der technischen<br />
Entwicklung. Ihre Bedeutung nimmt seither jedoch kontinuierlich zu.<br />
Angefangen, in den 1960ern mit Assemblerprogrammierung, etablierten<br />
sich in den 70ern die ersten Hochsprachen am Markt, gefolgt von<br />
objektorientierter Programmierung in den 90er-Jahren. Heute steht die<br />
nächste Revolution bevor, die Einführung der modellgetriebenen<br />
Softwareentwicklung, welche durch ihre noch größere Abstrahierung eine<br />
effizientere Arbeitsweise und eine schnellere Projektumsetzung, als mit<br />
bisher üblichen Mitteln, erlauben soll. Die Arbeitsschritte, die dabei von<br />
einer Entwicklungsumgebung unterstützt werden sollen, werden daher<br />
immer komplexer. Schon längst reicht ein einfacher Texteditor mit einem<br />
Kommandozeilencompiler nicht mehr aus. Für professionelle Entwicklung<br />
wird auch eine professionelle Herangehensweise erforderlich, welche erst<br />
durch ausgereifte Werkzeuge ermöglicht wird. Die vorliegende Arbeit<br />
untersucht, welche Softwareentwicklungsmethoden sich als Standards am<br />
Markt etabliert haben und welche Rolle der vielerorts propagierte<br />
modellgetriebene Ansatz dabei spielt. Weiters werden die heute größten<br />
und bekanntesten integrierten Entwicklungsumgebungen (IDEs) <strong>für</strong> die<br />
Hochsprachen C++ und C# auf deren Fähigkeiten in den Bereichen<br />
Modellierung, Programmierung, Softwarequalitätssicherung, Bedienbarkeit,<br />
Erweiterbarkeit und Support untersucht. Zu diesem Zweck wird ein<br />
Kriterienkatalog vorgestellt, welcher die üblichen Features einer IDE aufzählt<br />
und als Bewertungsgrundlage dient. Eine weitere Arbeit, welche IDEs mit<br />
Java-basierten Ansätzen untersucht, wurde zeitgleich ebenfalls an der <strong>TU</strong><br />
<strong>Wien</strong> / Business Informatics Group von Michael Wihsböck durchgeführt.<br />
65<br />
66<br />
Benedikt Weismann<br />
Architekturzentrierte Modellgetriebene Softwareentwicklung - Fallbeispiel und<br />
Evaluierung<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Constraint satisfaction problems (CSPs) bilden eine Problemklasse<br />
in der Mathematik und <strong>Informatik</strong>, die viele praxisrelevante und schwere<br />
Probleme beinhält. Tree decompositions und generalized hypertree<br />
decompositions sind zwei Methoden, mit denen effizient lösbare CSP<br />
Instanzen identifiziert und <strong>für</strong> solche Instanzen effizient Lösungen berechnet<br />
werden können. Leider ist das Auffinden der optimalen tree decomposition<br />
bzw. generalized hypertree decomposition einer CSP Instanz ein NPvollständiges<br />
Problem. Aus diesem Grund sind in der Vergangenheit bereits<br />
viele heuristische Methoden <strong>für</strong> tree decompositions und generalized<br />
hypertree decompositions vorgestellt worden. In dieser Magisterarbeit<br />
erweitern wir bereits existierende heuristische Verfahren <strong>für</strong> tree<br />
decompositions zu einem A* Algorithmus und einem genetischen<br />
Algorithmus <strong>für</strong> tree decompositions bzw. zu einem genetischen Algorithmus<br />
und einem selbst adaptierenden genetischen Algorithmus <strong>für</strong> generalized<br />
hypertree decompositions. Weiters beweisen wir, dass elimination orderings<br />
einen geeigneten Suchraum <strong>für</strong> die generalized hypertree width darstellen,<br />
und wir entwickeln eine lower bound Heuristik <strong>für</strong> die generalized hypertree<br />
width. Außerdem zeigen wir, dass existierende Techniken, um den<br />
Suchraum <strong>für</strong> optimale tree decompositions zu verkleinern, auch <strong>für</strong><br />
generalized hypertree decompositions angewendet werden können.<br />
Basierend auf diesen Resultaten entwickeln wir einen branch and bound<br />
Algorithmus und einen A* Algorithmus <strong>für</strong> generalized hypertree<br />
decompositions. Testergebnisse zeigen, dass die vorgestellten heuristischen<br />
Methoden in der Lage sind, mit anderen Verfahren zu konkurrieren. Die<br />
genetischen Algorithmen und der branch and bound Algorithmus finden <strong>für</strong><br />
viele benchmark Instanzen verbesserte obere Schranken <strong>für</strong> tree- und<br />
generalized hypertree width. Für einige Instanzen können die A* Algorithmen<br />
und der branch und bound Algorithmus tree- und generalized hypertree<br />
width exakt bestimmen.<br />
Arnold Weissensteiner<br />
Ubiquitäre Web-Anwendungen - Modellierung und Implementierung von<br />
Kontextinformation<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Ubiquitäre Web-Anwendungen sollen, entsprechend dem<br />
anytime/anywhere/anymedia Paradigma, dem Anwender, egal wann, wo<br />
und mit welchem Gerät er die Anwendung nutzt, einen individuell
abgestimmten und auf die Rahmenbedingungen des Benutzers angepassten<br />
Inhalt liefern. Im Rahmen einer Kooperation von drei Magisterarbeiten<br />
[Bros06, Maye06,Weis06] wurde ein ubiquitäres<br />
Tourismusinformationssystem entwickelt. Das Ziel dieses umfangreichen<br />
Projekts war die Konzeption, Modellierung und Implementierung einer Web-<br />
Anwendung mit Customizationunterstützung, dh. einer Web-Anwendungen,<br />
die aufgrund verschiedener Kontextfaktoren wie Benutzer, Zeit, Ort, Gerät,<br />
etc., mit der Adaptierung ihrer Dienste reagiert. Hierbei ist eine<br />
entsprechende Kontextbehandlung insbesondere betreffend die<br />
Repräsentation, die Erfassung und die Auswertung von Kontextinformation<br />
von entscheidender Bedeutung. Darüber hinaus ergibt sich das Problem,<br />
dass sich die Kontexterfassung und Auswertung des aktuellen Kontexts über<br />
die gesamte Web-Anwendung erstreckt. Diese Funktionalit¨aten sind meist<br />
fix im Sourcecode verankert, wodurch die Wartung und Flexibilität des<br />
Systems erheblich eingeschr ¨ankt wird. Daher sollen diese Komponenten<br />
gekapselt und separiert von der restlichen Anwendung implementiert<br />
werden, was in dieser Arbeit mit Hilfe von aspektorientierter<br />
Programmierung gelöst wird. Für ubiquit¨are Web-Anwendungen und die<br />
Customization ihrer Dienste ist der Kontext das Basiselement, ohne<br />
welchem keine Adaptierung m¨oglich ist. Die Rolle des Kontext in<br />
ubiquit¨aren Web-Anwendungen ist das Thema dieser Arbeit. Hierbei wird<br />
auf die Erfassung, Repr¨asentation und Auswertung von<br />
Kontextinformationen eingegangen, wobei Grundlagen verschiedener<br />
Kontextmodelle <strong>für</strong> die Repräsentation dargestellt werden und ein Einblick in<br />
Regelsysteme <strong>für</strong> die Auswertung von Kontextinformationen gegeben wird.<br />
Im Anschluss wird auf die Umsetzung der Kontextbehandlung und das<br />
entwickelte Regelsystem <strong>für</strong> die Adaptierungen im Forschungsprototyp<br />
eingegangen.<br />
werden. Reichten zur Entwicklung mit Assembler bzw. frühen Hochsprachen<br />
noch ein einfacher Texteditor in Kombination mit einem Compiler oder<br />
Linker, so wurden bei objektorientierten Sprachen großteils bereits<br />
umfangreiche integrierte Entwicklungsumgebungen eingesetzt. In dieser<br />
Arbeit sollen die Möglichkeiten gängiger integrierter<br />
Entwicklungsumgebungen anhand eines erstellten Kriterienkatalogs bewertet<br />
werden. Die Produkte werden hinsichtlich ihrer Möglichkeiten in den<br />
Bereichen Programmierung, Modellierung, Softwarequalitätssicherung,<br />
Erweiterbarkeit und Bedienung evaluiert. Es wurden bei den Produkten<br />
sowohl Vertreter aus dem kommerziellen, als auch dem freien (Open<br />
Source) Umfeld <strong>für</strong> die Entwicklung mit der Programmiersprache Java<br />
gewählt. Diese Arbeit konzentriert sich bei den Untersuchungen auf die<br />
Entwicklungsumgebungen Eclipse 3.2, Netbeans 5.5, JBuilder 2006 und<br />
IntelliJ IDEA 6.0. Eine weitere Arbeit, welche IDEs mit C++/C#-basierten<br />
Ansätzen untersucht, wurde zeitgleich ebenfalls an der <strong>TU</strong> <strong>Wien</strong> / Business<br />
Informatics Group von Florian Skopik durchgeführt.<br />
Michael Wihsböck<br />
Moderne Softwareentwicklungsumgebungen - Evaluierung Java-basierter<br />
Ansätze<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: In den letzten Jahrzehnten durchlief die Softwareentwicklung eine<br />
eindrucksvolle Evolution. Anfang der 1960er Jahre begann die kommerzielle<br />
Softwareentwicklung mit primitiven Assemblerinstruktionen, kurz darauf<br />
folgten bereits die ersten Hochsprachen. In den 1990er Jahren setzte sich<br />
schließlich die objektorientierte Softwareentwicklung durch. Nun scheint<br />
diese Evolution ihre Fortsetzung durch modellgetriebene Ansätze zu finden.<br />
Diese Ansätze versuchen die objektorientierte Programmierung durch<br />
grafische Modelle zu ergänzen, und so auch die Software allgemeiner zu<br />
gestalten, um gegebenenfalls auch die eigentliche Programmiersprache<br />
ersetzen zu können. Durch die Arbeit mit diesen neuen Techniken müssen<br />
die entsprechenden Entwicklungsumgebungen zwangsläufig komplexer<br />
67<br />
68
INSTI<strong>TU</strong>T „INTEGRIERT S<strong>TU</strong>DIEREN“<br />
Christoph Veigl<br />
Ein universelles System zur Anwendung von Biosignalen im Biofeedback und<br />
als Human Computer Interface<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />
Abstrakt: Die vorliegende Arbeit zeigt eine Hard- und Softwarelösung <strong>für</strong> ein<br />
System zur Erhebung, Analyse und Klassifikation von Biosignalen, das<br />
gänzlich aus OpenSource-Komponenten aufgebaut und somit kostengünstig<br />
realisierbar ist. Die Hardwarekom-ponenten basieren auf den EEG-<br />
Verstärkern des OpenEEG-Projektes (ModularEEG und MonolithEEG), welche<br />
bis zu sechs Kanäle <strong>für</strong> die Verstärkung und Digitalisie-rung bioelektrischer<br />
Signale wie EEG, EKG, EMG, EOG oder anderer Feedbackpa-rameter wie<br />
EDA, Atmung, Temperatur oder Lageänderung zur Verfügung stellen. Die<br />
erarbeitete Softwarelösung (BrainBay) dient zur Echtzeitanalyse und<br />
Auswertung dieser Parameter. Die Konfiguration der Signalverarbeitung<br />
erfolgt vollständig durch eine grafische Benutzeroberfläche, welche die<br />
Anordnung und Verbindung funktiona-ler Elemente während der Laufzeit<br />
erlaubt. Derzeit stehen mehr als 40 Elemente zur Verfügung, von denen<br />
einige zur Verwendung im Bereich der Kommunikationsunter-stützung <strong>für</strong><br />
motorisch behinderte Menschen geeignet sind. So ist etwa eine Gesichtserkennung<br />
über Webcam mit Bewegungstracking realisiert, die zur<br />
berührungs-losen Steuerung des Mauszeigers und zum Auslösen von<br />
Mausklicks verwendet werden kann (optische Maus). Die Arbeit gibt einen<br />
Überblick auf bestehende Lösungen in der Biosignal- und HCI-Technik, stellt<br />
das erabeitete System in seinen Komponenten und in der Anwendung dar<br />
und evaluiert Ergebnisse anhand konkreter Tests von Settings <strong>für</strong><br />
Neurofeed-back, Muskelrehabilitation und Kamera-Maus-Steuerung.<br />
INSTI<strong>TU</strong>T FÜR ANALYSIS UND SIENTIFIC<br />
COMPUTING<br />
Abstrakt: Bei der diagnostischen und auch therapeutischen<br />
Ultraschallanwendung werden Energien in den menschlichen Körper<br />
übertragen, die in Form von Wärme in Wechselwirkung mit dem Gewebe<br />
treten.Es ist daher erforderlich, bei Langzeitanwendungen genaue<br />
Informationen über die Temperaturerhöhungen an einzelnen<br />
Körperregionen, Organgrenzen oder an Implantaten zu ermitteln. Zu diesem<br />
Zweck wurde ein neuartiges modulares Thermosensorensystem entwickelt.<br />
[Methodik] Das Thermosensorensystem besteht aus einer so genannten<br />
Combobox, die als Schnittstelle zwischen Sensorensystem und<br />
datenauswertenden Komponenten (Notebook, Handheld) dient. Die<br />
Übertragung geschieht mittels drahtloser Bluetoothverbindung oder USB-<br />
Technik. Dies ermöglicht eine Miniaturisierung und Modularisierung von<br />
Messversuchen, da die Combobox mit einem variablen Interface<br />
ausgestattet ist. Auch die verwendeten Softwarealgorithmen und<br />
Visualisierungsmöglichkeiten sind durch Module gekoppelt und individuell,<br />
projektbasierend zusammensetzbar. [Technik] Die verwendeten<br />
Übertragungstechniken entsprechen internationalen Normen. Durch<br />
Verwendung des Miniatur-Messaufbaus und drahtloser<br />
Übertragungstechniken ist es möglich, die Messung und Auswertung in<br />
separaten Räumen durchzuführen und dadurch auch Versuche auszuführen,<br />
bei denen kein direkter Kontakt zum Versuchsaufbau möglich ist. Mit einer<br />
10 Bit Auflösung ist es hier möglich, eine Genauigkeit bis zu 0,09° zu<br />
erreichen. Die Visualisierungssoftware wurde eingehend getestet, um die<br />
Fehler auf ein Minimum zu reduzieren, und hat sich bei den präsentierten<br />
Testmessungen an einem Phantom als robust arbeitend erwiesen.<br />
[Ergebnisse] Größere Versuchsreihen wurden am Zentrum <strong>für</strong><br />
Biomedizinische Technik und Physik in Zusammenarbeit mit dem<br />
Orthopädischen Spital Speising durchgeführt. Hierbei lag der Fokus der<br />
Zusammenarbeit mit dem Orthopädischen Spital Speising auf Diagnose und<br />
Therapie von künstlichen Hüftgelenksprothesen mittels<br />
Ultraschallbehandlung. Dabei wurde ein prothetisches Hüftgelenk und das in<br />
dieser Arbeit vorgestellte „Prometheus“ Tool verwendet. Bei der üblichen<br />
Beschallung des Versuchsobjekts konnte eine Erhöhung der Temperatur um<br />
durchschnittlich 3-4°C festgestellt werden. Nach Absprache mit Dr. Gerda<br />
Vacariu, Oberärztin des Instituts <strong>für</strong> Physikalische Medizin und<br />
Orthopädische Rehabilitation, wurde auch eine medizinische Stellungnahme<br />
des thermischen Effektes erarbeitet und mit verschiedenen Stellungnahmen<br />
aus der Literatur diskutiert.<br />
Günther Tschabuschnig<br />
Prometheus:Qualitätskontrollierendes Simulations- und<br />
Datenauswerteverfahren <strong>für</strong> diagnostischen und therapeutischen Ultraschall<br />
an Hüftprothesen<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay<br />
69<br />
70
INSTI<strong>TU</strong>T FÜR DISKRETE MATHEMATIK UND<br />
GEOMETRIE<br />
Nicolas Thorstensen<br />
Measuring Cortical Tissue Thickness Computational<br />
Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />
BetreuerIn: O.Univ.Prof. Dr. Helmut Pottmann<br />
gemeinsam mit den wachsenden Riesen der Welt, wie der Volksrepublik<br />
China, Brasilien, Russland, Indien, Mexiko, Argentinien, Indonesien, Thailand<br />
und Pakistan zu den sich am raschesten entwickelnden Märkten der Welt.<br />
Aufgabe und Ziel dieser Arbeit soll es somit sein, einerseits die wichtigsten<br />
Theorien und Motive der Direktinvestitionen im Ausland durchzunehmen und<br />
andererseits dieökonomischen Rahmenbedingungen der Türkei und die<br />
ausländische Direktinvestitionen in die Türkei nach dem Portfolio-<br />
Management darzustellen und zu analysieren.<br />
INSTI<strong>TU</strong>T FÜR WIRTSCHAFTSMATHEMATIK<br />
Ali Akcaglayan<br />
Analyse der ausländischen Direktinvestitionen in der Türkei mit Portfolio-<br />
Technik<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />
Abstrakt: Für viele international und global agierende Unternehmen ist die<br />
Entscheidung <strong>für</strong> eine Direktinvestition in einem ausländischen Markt schon<br />
lange keine optionale Frage mehr. Vielmehr ist das Ziel der Sicherung des<br />
eigenen Markteinteils oder das Wachstum des Unternehmens von der<br />
Nutzung der unternehmensspezifischen Wettbewerbsvorteile in einem<br />
fremden Markt abhängig. Der Wirtschaftstandort Türkei stellt hinsichtlich<br />
seiner geographischen und strategischen Lage im wahrsten Sinne des<br />
Wortes eine Brückenfunktion zwischen Europa und Asien dar. Kulturell<br />
gesehen ist die Türkei ein Bindeglied zwischen dem Orient und dem<br />
Okzident, doch in wirtschaftlicher Hinsicht fungiert die Türkei zunehmend als<br />
Drehscheibe zwischen Europa, dem Mittleren Osten und Zentralasien.<br />
Gerade aus diesem Grund ist die Türkei in ihrer Region ein bedeutender und<br />
strategisch wichtiger Wirtschaftsfaktor. Der interne Markt ist mit ca. 72<br />
Millionen Einwohnern sehr attraktiv. Außerdem bietet die Türkei<br />
ausländischen Investoren eine dynamische Wirtschaft, gut qualifizierte<br />
Arbeitskräfte mit niedrigen Löhnen, ein großes und stabiles Wachstum,<br />
günstige Produktionsmöglichkeiten, eine entwickelte Infrastruktur, ein<br />
liberales Investitionsklima, gute Investitionsförderungen und ein hohes<br />
Qualitätsniveau in der Industrie und im Dienstleistungssektor. Diese gute<br />
Position wurde schon vor langem von zahlreichen ausländischen Investoren<br />
entdeckt. Die Türkei gehört zu den wenigen Staaten, die in den letzten vier<br />
Jahren eine durchschnittliche Wachstumsrate von 8% erreicht haben. Es<br />
wird von Experten internationaler Organisationen, wie der OECD und dem<br />
IMF prognostiziert, dass die Türkei in den kommenden Jahren ähnlich hohe<br />
Wachstumsraten erzielen wird. Nach einer Studie der Weltbank steht die<br />
Türkei mit der gesamten Wachstumsrate des Bruttoinlandsproduktes unter<br />
127 Ländern an 16. Stelle. Der Weltbank zufolge gehört die Türkei<br />
71<br />
72<br />
Johannes Chalupa<br />
Makroökonomische Gesamtmodelle Europas<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />
Stefan Csordas<br />
Regionalism and the World Trade System<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />
Abstrakt: Nach Ende des 2. Weltkrieges wurden Handelsliberalisierungen<br />
auf zwei Ebenen durchgeführt; global im Rahmen des GATT und regional<br />
durch Gründung einer Vielzahl von regionalen Handelabkommen (RHAs). In<br />
den 1950er bzw. 1960er Jahren fand ein Regionalisierungsschub statt, der<br />
heute als alter Regionalismus bezeichnet wird. Insbesondere<br />
Entwicklungsländer schlossen in dieser Zeitperiode überall auf der Welt<br />
Handelbündnisse, doch die überwiegende Mehrheit dieser Initiativen blieb<br />
erfolglos. Der so genannte zweite oder neue Regionalismus setzte in den<br />
1990er Jahren ein und hält weiter an. Heute existieren weltweit mehr als<br />
200 RHAs, und beinahe jedes Land ist Mitglied in zumindest einem davon.<br />
Die rasante Verbreitung von RHAs hat unter Ökonomen und politische<br />
Entscheidungsträger zu einer breiten Diskussion geführt. Im Fokus der<br />
Forschung befinden sich insbesondere zwei Punkte. Erstens, die<br />
Wohlfahrtseffekte des neuen Regionalismus und zweitens, seine<br />
Auswirkungen auf das multilaterale Handelssystem. Die Fachwelt ist in zwei<br />
Gruppen gespalten: Diejenigen, die die Rolle von RHAs positiv einschätzen<br />
und andere, die in ihnen eine Gefahr <strong>für</strong> die multilaterale<br />
Handelsliberalisierung im Rahmen des GATT/WTO-Systems sehen. Diese<br />
Arbeit betrachtet die laufende, offene und dynamische Diskussion kritisch<br />
und versucht eine Synthese der verschiedenen analytischen Modelle.
Wolfgang Genta<br />
Stabilitäts- und Wachstumspakt-der Fall Italien<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />
Anis Hadzisalihovic<br />
Aktionsalgorithmen in der betrieblichen Optimierung<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Alexander Mehlmann<br />
Abstrakt: Optimierungsprobleme sind unmittelbare Faktoren der getro enen<br />
Entscheidungen in der Welt. Die Entscheidungsauswahl kann mit<br />
verschiedener Vorgehensweise algorithmisch dargestellt werden. Der<br />
Schwerpunkt ist es, ein Modell der Entscheidung zu entwickeln und<br />
verschiedene Aktionsalgorithmen anzuwenden. Der Name<br />
Aktionsalgorithmus soll den Zusammenhang zwischen einem abstrakten<br />
Konzept der <strong>Informatik</strong> und der praktischen wirtschaftlichen Dynamik in der<br />
Anwendung illustrieren. Die besondere Betonung der Aktion trägt der<br />
Tatsache Rechnung, dass in der Praxis häu g bestehende Forschungs oder<br />
Wirtschaftsalgorithmen durch Hinzuf ügen neuer Funktionalitäten an<br />
veränderte Anforderungen angepasst werden müssen. Da diese<br />
Funktionalitäten oft auch strukturelle Änderungen, zum Beispiel neue<br />
algorithmische Techniken, mit sich bringen müssen sie von allgemeinen<br />
Konzepten streng unterschieden werden. Diese Algorithmen werden mit<br />
starkem Bezug auf ihre Praxistauglichkeit betrachtet und mit verschiedenen<br />
Modelldarstellungen und separaten Kompetenzvergleich der einzelnen<br />
Aspekte analysiert. Diese Arbeit ist eine Kopplung zwischen Software<br />
Entwicklung und Unternehmensforschung mit Blickrichtung auf<br />
wirtschaftliche, informatische und anderen Forschungsmethoden in der<br />
Realität. Das Verständnis dieser Arbeit setzt gute technische Kenntnisse vor<br />
allem in der Programmierung und der Software Projektplanung voraus. Die<br />
erforderlichen Wirtschaftskenntnisse werden mit Hilfe der Ergebnisse der<br />
verschiedenen Algorithmen interpretiert um die Verständlichkeit zu erhöhen.<br />
Ziel dieser Arbeit ist es, die wichtigsten Algorithmen vorzustellen, zu<br />
vergleichen, zu mischen und ihre höhere Funktionalität um einige<br />
praxisrelevante Methoden zu erweitern. Die grundlegenden Funktionen und<br />
Konzepte der Optimierung sollen an realitätsnahen Beispielen erläutert<br />
werden. Die vorgestellten Algorithmen mit ihren Outputs sind noch nicht in<br />
der allgemeinen Wirtschaft bestätigt und akzeptiert.<br />
Christian Winkelhofer<br />
Agentenbasierte Simulationen der europäischen Energiewirtschaft und deren<br />
Einsatzmöglichkeiten im Unterricht<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />
INSTI<strong>TU</strong>T FÜR STATISTIK UND<br />
WAHRSCHEINLICHKEITSTHEORIE<br />
Manuel Eugster<br />
Meta-Learning: Machine Learning with No Idea?<br />
Studium: Magisterstudium Computational Intelligence<br />
BetreuerIn: Privat.-Doz. Dr. Friedrich Leisch<br />
Abstrakt: Das Ziel dieser Masterarbeit ist es, eine Antwort auf die Frage zu<br />
finden, die sich mir in verschiedenen Vorlesungen über Machine Learning,<br />
Data Mining und Neuronale Netzwerke gestellt hat: "Und wie entscheide ich<br />
mich jetzt <strong>für</strong> die richtige Methode bei einem neuen Lernproblem?" Eine<br />
mögliche Antwort liefert meta-learning. Dabei wird das Wissen bezüglich der<br />
Qualität verschiedener Machine Learning-Methoden aus schon behandelten<br />
Lernproblemen <strong>für</strong> einen Vorschlag <strong>für</strong> das neue Lernproblem verwendet.<br />
Die betrachteten Probleme beschränken sich auf Klassifikationsprobleme.<br />
Die Qualität und die daraus resultierende Reihenfolge verschiedener<br />
Klassifikationsmethoden <strong>für</strong> ein Lernproblem werden mittels Benchmark-<br />
Experimenten bestimmt. Maße <strong>für</strong> die Qualität sind die<br />
Missklassifikationsrate und die Zeit welche ein Benchmark-Experiment<br />
benötigt. Um die verschiedenen Probleme in Relation bringen zu können,<br />
wird eine Charakterisierung mittels statistischen und<br />
informationstheoretischen Maßen definiert. Ebenso wird ein Ähnlichkeitsmaß<br />
mit Behandlung der speziellen Eigenschaften der Charakterisierung<br />
eingeführt. Auf Basis dieser Daten wird ein neues Problem definiert,<br />
welches eine Antwort auf die eingangs gestellte Frage liefert. In der<br />
bestehenden Literatur existieren dazu drei verschiedene Methoden. Die<br />
ersten beiden Methoden formulieren das Problem als Klassifikations- bzw.<br />
Regressionsproblem mit unterschiedlichsten Möglichkeiten <strong>für</strong> die abhängige<br />
Variable. Die dritte Methode verwendet die Ähnlichkeit von Problemen und<br />
ein Schema <strong>für</strong> die Reihenfolgebestimmung.Alle drei Ansätze werden<br />
einführend erklärt, eine konkrete Formulierung wird <strong>für</strong> ein<br />
Regressionsproblem mittels Nadaraya-Watson-Schätzer und der dritte<br />
Methode mit drei verschieden komplexen Schemata angegeben. Die<br />
praktische Umsetzung der theoretischen Erläuterungen erfolgt mit dem R-<br />
System <strong>für</strong> statistische Berechnungen und ein Fallbeispiel mit 21<br />
Lernproblemen und 6 Methoden zeigt eine konkrete Anwendung.<br />
73<br />
74
Ali Akbar Rajaei Hajiagha<br />
Speech Synthesis durch "Speech <strong>für</strong> MS Word" Applikation<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dipl.-Ing. Dr. Karl Grill<br />
Abstrakt: Ziel dieser Arbeit ist es, eine Einführung und Zusammenfassung<br />
der Verwendeten Methoden auf dem Gebiet der Sprachsynthese und<br />
teilweise Spracherkennung. Letztendlich entsprechend dem Ziel der<br />
Diplomarbeit wurde die Erzeugung eines akustische Signals <strong>für</strong> MS Word<br />
Meldungen, die während der Arbeit mit dem Word vorkommt durch "Speech<br />
<strong>für</strong> MS Word" Applikation erstellt.<br />
INSTI<strong>TU</strong>T FÜR CHEMISCHE TECHNOLOGIE UND<br />
ANALITIK<br />
Markus Demetz<br />
Software modules for an electrochemical measurement system<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Günter Fafilek<br />
Abstrakt: Diese Diplomarbeit befasst sich mit der Erstellung von Software<br />
Komponenten <strong>für</strong> die Steuerung und Durchführung von Messaufgaben in<br />
einem komplexen System von elektrochemischen Messgeräten. Viele solche<br />
Messaufgaben erfordern eine koordinierte Zusammenarbeit von Geräten<br />
verschiedenster Hersteller. Dies ist eine groÿe Herausforderung <strong>für</strong><br />
diejenigen, die die Messabläufe durchführen und überwachen. Die meisten<br />
Geräte werden mit einer Steuerungssoftware geliefert welche sich jedoch im<br />
groÿteil der Fälle auf die Funktionen des Gerätes beschränkt. Im Rahmen<br />
dieser Diplomarbeit werden Software Komponenten vorgestellt, die sich im<br />
wesentlichen auf die Zusammenarbeit von mehreren Messinstrumenten<br />
konzentriert welche mit herkömmlichen Programmen nahezu unrealisierbar<br />
ist. Das Hauptaugenmerk der vorgestellten Software Komponenten ist das<br />
dynamische Einbinden von neuen Geräten ohne das bestehende System zu<br />
verändern. Die Erstellung solcher Module, sowie die Interpretation und<br />
Ausführung von Messaufgaben und der Frameworks die da<strong>für</strong> zur Verfügung<br />
stehen werden dieser Arbeit besprochen.<br />
INSTI<strong>TU</strong>T FÜR<br />
VERFAHRENSTECHNIK,UMWELTTECHNIK UND<br />
TECHN. BIOWISSENSCHAFTEN<br />
Jasmin Redwan-Tujar<br />
Etablierung einer prozessunterstützenden Drug Discovery Support -<br />
Plattform<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Robert Mach<br />
Abstrakt: Der Drug Discovery Support (DDS) in Pharmaunternehmen<br />
beschäftigt sich mit der Gesamtheit aller Prozesse, denen ein Arzneistoff im<br />
Körper unterliegt. Das Ziel der Masterarbeit ist es, durch Erstellung von<br />
User Requirements, die aus Interviews, Beobachtungen und Analysen<br />
ermittelt wurden, die Prozesse des DDS mittels<br />
Auftragsverwaltungsplattform zu implementieren und optimieren. Nach<br />
einem kurzen Überblick zum allgemeinen Ablauf in der<br />
Medikamentenforschung und –entwicklung beschäftigt sich die Masterarbeit<br />
mit dem Arbeitsablauf und den Anwendungen in der Forschung. Das<br />
derzeitige Auftragsverwaltungstool wird genau betrachtet und auf Fehler und<br />
Lücken überprüft. Anhand der Ergebnisse aus den Analysen und<br />
Experteninterviews werden Requirements erstellt, deren Umsetzung einen<br />
besseren Kommunikations-, Informations- und Arbeitsfluss bewirken. Die<br />
neue Plattform vermindert den bisherigen Zeitaufwand, Fehleranfälligkeiten<br />
sowie redundante Arbeiten. Zusätzlich wird durch individuelle<br />
Gestaltungsfreiheit ein besserer Überblick geboten und redundante<br />
Dokumente beseitigt. Abschließend werden Vorschläge über Funktionen <strong>für</strong><br />
zukünftige Versionen dargelegt.<br />
INSTI<strong>TU</strong>T FÜR FERTIGUNGSTECHNIK<br />
Recep Ibiloglu<br />
Qualitätsmanagement in der Öffentlichen Verwaltung<br />
David Schmidt<br />
Software zur Steuerung, Datenerfassung und Auswertung von<br />
elektrochemischen Sensoren<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Günter Fafilek<br />
75<br />
76<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ. Prof Dr. Herbert OSANNA<br />
Abstrakt: Ziel dieser Arbeit ist es, die Aufgaben und Abläufe sowie vor allem<br />
die Grundlagen der Qualitätsmanagementsysteme in öffentlichen<br />
Verwaltungen im Hinblick auf die entsprechenden Techniken und Methoden
zu betrachten; insbesondere sind die Maßnahmen herausfiltern, die<br />
Einflüsse auf die Qualität der Dienstleistungen in diesem Bereich haben;<br />
weiters sind die speziellen Lösungsansätze vorzustellen und es ist ein<br />
Einblick in die praktische Anwendung am Beispiel der Stadtgemeinde Bursa<br />
zu geben.<br />
INSTI<strong>TU</strong>T FÜR RAUMENTWICKLUNG,<br />
INFRASTRUK<strong>TU</strong>R- UND UMWELTPLANUNG<br />
Qualitätsmanagement-Systems dar. Es handelt sich dabei um ein<br />
prozessorientiertes System, welches sich am Referenzmodell der<br />
International Standard Organization (ISO) <strong>für</strong> Qualitätsmanagement-Systeme<br />
(DIN EN ISO 9000ff:2000) orientiert. Der zweite wichtige Punkt und<br />
zugleich eine Grundlage <strong>für</strong> ein normengerechtes<br />
Qualitätsmanagementsystem ist die unternehmensweite Ausrichtung nach<br />
Geschäftsprozessen. Das Thema Geschäftsprozessmanagement wird<br />
ausführlich behandelt. Ein weiteres Ziel der Arbeit ist die Betrachtung des<br />
Nutzens von Qualitätsmangement-Maßnahmen. Ein Beispiel aus der<br />
bankbetrieblichen Praxis schließt diese Kosten-Nutzen-Untersuchung ab.<br />
Marion Westreicher<br />
Internet-Auktionen<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof.Dr. Franz Zehetner<br />
INSTI<strong>TU</strong>T FÜR MANAGEMENTWISSENSCHAFTEN<br />
Omri Bergman<br />
Information Technology, Globalization and new Corporate Strategy<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Adolf Stepan<br />
Franz Ehrenschwendtner<br />
Entwicklung eines neuronalen Netzwerkes zur Prognose ausgewählter<br />
volkswirtschaftlicher Kennzahlen Österreichs<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Hon.Prof.Dr. Wolfgang Katzenberger<br />
Reinhard Falschlehner<br />
Konzeption eines Qualitätsmanagementsystems in einer österreichischen<br />
Regionalbank<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Abstrakt: Diese praxisorientierte Arbeit entstand in Zusammenarbeit mit<br />
einer österreichischen Regionalbank und verfolgte eine multiple Zielsetzung.<br />
Den Hauptpunkt der Arbeit stellt die Erarbeitung eines umfassenden<br />
77<br />
78<br />
Klaus Hochreiter<br />
Einführung des elektronischen Aktes in den Bezirkshauptmannschaften<br />
Niederösterreichs<br />
Studium: Masterstudium Wirtschaftsinformatik, Masterstudium<br />
<strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />
Abstrakt: Aufgabenstellung Die Niederösterreichische Landesregierung führt<br />
ein neues Kommunikations- und Informationssystem mit dem Namen NÖ<br />
LAKIS in allen Bezirkshauptmannschaften Niederösterreichs ein. In diesem<br />
Zusammenhang soll eine Mitarbeiter(innen)befragung stattfinden, die<br />
Meinungen über das neu eingeführte System liefert. Zusätzlich zur<br />
Einführung des neuen Systems soll auch die subjektiv wahrgenommene<br />
Qualität der Schulungen erfragt werden. Es wird also eine Beurteilung der<br />
Mitarbeiterinnen und Mitarbeiter (in dem Fall die Schülerinnen bzw. Schüler)<br />
über die Schulungsorganisation im Rahmen des Projektes NÖ LAKIS<br />
angestrebt, um so das notwendige Feed-back zu bekommen. Zielsetzung<br />
Das Ziel der Untersuchung soll darin liegen, festzustellen, wie sich diese<br />
Umstellung durch NÖ LAKIS bei den Angestellten in den<br />
Bezirkshauptmannschaften auswirkt. Es soll eine Aussage darüber getroffen<br />
werden, welchen Nutzen dieses neue System nun wirklich den eigentlichen<br />
Anwenderinnen und Anwendern bringt. Es soll auch eine Aussage über die<br />
Qualität der Schulung und Wissensvermittlung der Mitarbeiterinnen und<br />
Mitarbeiter getroffen und die dadurch entstehenden Probleme sollen<br />
analysiert werden. Das heißt, es wird hier auch auf die Bildungskonzepte<br />
und deren Durchführungen, die <strong>für</strong> die Anwenderinnen und Anwender<br />
eingerichtet wurden, näher eingegangen. Vorgehensweise Die Untersuchung<br />
wurde über Befragung der Mitarbeiterinnen und Mitarbeiter mittels eigens<br />
da<strong>für</strong> erstellten Fragebögen durchgeführt. Die Erstellung dieses<br />
Fragebogens erfolgte in Zusammenarbeit mit der Niederösterreichischen<br />
Landesregierung unter Mithilfe des Instituts <strong>für</strong> Managementwissenschaften<br />
an der <strong>Technische</strong>n <strong>Universität</strong> <strong>Wien</strong>. Es ist noch zu erwähnen, dass es sich<br />
fast ausschließlich um geschlossene Fragen handelte, die mit dem Multiple-<br />
Choice-Verfahren beantwortet werden konnten. Bevor der Fragebogen an<br />
alle Angestellten der Bezirkshauptmannschaften ausgeschickt wurde, führte
man mit einigen Mitarbeiterinnen und Mitarbeitern aus der IT-Abteilung<br />
(LAD1-IT) (die ebenfalls von der Umstellung auf das neue System betroffen<br />
sind) zunächst einen Pre-Test durch. Die dabei erzielten Erkenntnisse flossen<br />
dann als Erfahrungswerte zur Verbesserung des Fragebogens ein, um so<br />
eine höhere Qualität der Befragung zu erzielen.<br />
Harald Hübner<br />
Die Planung im Überblick - Begriffe, Prozesse, Methode<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Hon.Prof. Dr. Wolfgang Katzenberger<br />
Abstrakt: Diese Arbeit gibt einen Überblick über das Thema Planung im<br />
Allgemeinen. Weitverbreitete und gängige Begriffe werden erläutert und<br />
definiert, ebenso wie Unterschiede zu verwandten Themengebieten<br />
aufgezeigt. Der historischen Entwicklung folgt eine generelle Darstellung<br />
grundlegender Aspekte. Zur praktischen Veranschaulichung werden<br />
allgemeine und bekannte Beispiele <strong>für</strong> Planung kurz vorgestellt, um danach<br />
den prinzipiellen Planungsprozess näher zu beleuchten. Dieser ergibt sich<br />
aus der Summe der beschriebenen Aspekte, darunter fallen unter anderem<br />
Merkmale, Elemente, Phasen und Modelle der Planung. Um den immer<br />
detaillierter werdenden Inhalt der Arbeit aufrecht zu erhalten wird als<br />
abschließender Punkt auf Methoden und Instrumente der Planung<br />
eingegangen. Dabei werden weit verbreitete und wichtige Verfahren genau<br />
beschrieben und anhand von Beispielen erläutert.<br />
Andrea Kall<br />
Innovation(s)management – Volkswirtschaftliche Auswirkungen im Vergleich<br />
USA, Japan, Europa<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Doz. Dr. Leopold Sögner<br />
Abstrakt: Diese Arbeit gibt eine volkswirtschaftliche Betrachtung von<br />
Innovation wieder. Es wird sowohl die theoretische als auch die praktische<br />
Seite berücksichtigt. Beginnend mit einer detaillierten Definition und<br />
Erläuterung der historischen Entwicklung des Begriffs Innovation wird im<br />
Anschluss auf dessen Merkmale, sowie auf die Aufgaben und Ziele von<br />
Innovationsmanagement eingegangen.Unterschiedliche Wachstumsmodelle<br />
beschreiben Einflussfaktoren und deren Auswirkungen in der Theorie. Mittels<br />
empirischen Analysen werden die Wachstumsmodelle im Anschluss<br />
diskutiert. Hierbei werden die Entwicklungen der Einflussfaktoren <strong>für</strong><br />
Innovation und folglich des wirtschaftlichen Wachstums erläutert. Basierend<br />
darauf werden relevante Faktoren wie Forschung, Bildung, staatliche<br />
Unterstützung, etc. betrachtet. Für eine bessere Veranschaulichung werden<br />
die drei großen Wirtschaftsmächte USA, Japan und Europa <strong>für</strong> Vergleiche<br />
herangezogen.<br />
Dimitri Korenev<br />
Prozess und Instrumente der strategischen Planung am Beispiel einer Bank<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />
Karel Krobath<br />
Multiprojektmanagement im IT-Bereich<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />
Arnold Labenbacher<br />
Evaluation der Berechnungsdifferenzen zwischen den Berechnungsmethoden<br />
SHA und VGR im Bereich der Ausgaben des öffentlichen<br />
Gesundheitssystems<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Adolf Stepan<br />
Abstrakt: Die aktuelle Berechnungsmethode <strong>für</strong> die finanziellen Ausgaben im<br />
öffentlichen Gesundheitssystem heißt SHA (System of Health Account) und<br />
löste damit die Berechnungsmethode, welche zuvor verwendet wurde ab,<br />
das war die VGR (Europäisches System der Volkswirtschaftlichen<br />
Gesamtrechnung aus dem Jahre 1995). Diese Umstellung wurde aufgrund<br />
des Beitritts Österreichs zur Europäischen Union notwendig.Mit dieser<br />
Arbeit werden die Finanzierung und die Ausgaben des öffentlichen<br />
Gesundheitssystems in Österreich näher untersucht. In Österreich werden<br />
seit dem Jahr 2004 die Ausgaben <strong>für</strong> das öffentliche Gesundheitssystem<br />
von der Statistik Austria nach der Methode des System SHA berechnet. Die<br />
Statistik Austria ist jene Institution, welche dem Bundesministerium <strong>für</strong><br />
Frauen und Gesundheit (BMFG) das Zahlenmaterial liefert. Aufgrund dieser<br />
Umstellung der Berechnungsmethode lässt sich das Zahlenmaterial aus den<br />
Jahren welche vor der Umstellung liegen nicht mehr mit jenem Material<br />
nach der Umstellung vergleichen. Die Grundlagen <strong>für</strong> diese beiden<br />
Berechnungsmethoden sind verschiedene, folglich lassen sich auch die<br />
Ergebnisse der unterschiedlichen Berechnungen nicht direkt vergleichen.<br />
Aber gerade <strong>für</strong> die Interpretation des aktuellen Zahlenmaterials ist es sehr<br />
wichtig einen seriösen Vergleich der Ausgaben der Jahre vor der<br />
Umstellung zu den Ausgaben danach ziehen zu können, anders lässt sich<br />
keine ernsthafte Interpretation machen. Infolge dieses Mangels an<br />
79<br />
80
vergleichbarem Zahlenmaterial ist es das Ziel dieser Arbeit Veränderungen<br />
der Ausgaben <strong>für</strong> das öffentliche Gesundheitswesen in Österreich trotz der<br />
Umstellung der Berechnungsmethode darstellen zu können. Da<strong>für</strong> wurde<br />
eine Auflistung, welche nach der Berechnungsmethode des SHA erstellt<br />
wurde an jene Positionen anpassen, welche sich nach der<br />
Berechnungsmethode des VGR anders in den Gesundheitsausgaben<br />
auswirken. Die Veränderung der Anteile dieser beiden<br />
Berechnungsmethoden werden es ermöglichen eine seriöse Aussage über<br />
den tatsächlichen Anstieg der Kosten und die Verteilung dieser <strong>für</strong> das<br />
öffentliche österreichische Gesundheitssystem zu machen.<br />
Maximilian Alexander Löberbauer<br />
Entwicklung einer Engineering-Dienstleistung mit Kooperationspartner am<br />
Beispiel von Solaranlagen<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />
Abstrakt: Zweck dieser Arbeit ist es, einen Beitrag zum Verständnis der<br />
Entwicklung einer Engineering-Dienstleistung mit Kooperationspartnern am<br />
Beispiel von Solarstromanlagen zu liefern. Als Problemlösung setzt sich<br />
diese Arbeit zum Ziel, den aktuellen Stand der Technik zur systematischen<br />
Dienstleistungsentwicklung zu analysieren und diesen mit der klassischen<br />
Implementierung von Solarstromanlagen zu entwickeln. Dabei werden die<br />
Vorgehensmodule der Engineering-Dienstleistung mit Komponenten des<br />
Inputs, den Dienstleistungsvarianten, den Prozessen der Akquisition und der<br />
Leistungserbringung, den einfließenden Kooperationspartnern in einem<br />
Kooperationsmodell und dem Qualitätsmanagement entwickelt. Ein weiteres<br />
Ziel ist es die Informationen über eine IT-Plattform so zu bündeln, dass sie<br />
die richtigen Informationen <strong>für</strong> das richtige Teammitglied liefert. Der in<br />
jüngster Zeit entstandene Ansatz der Engineering-Dienstleistung zur<br />
systematischen Entwicklung und Gestaltung von Dienstleistungen steht dabei<br />
im Mittelpunkt der Betrachtung. Als wissenschaftliche Fachdisziplin<br />
beschäftigt sich die Engineering-Dienstleistung mit der Betrachtung von<br />
Dienstleistungssystemen, Vorgehensmodellen und Methoden des<br />
Engineering. Diese Betrachtungsweise beinhaltet auch die Zielsetzung dieser<br />
Arbeit. Bei der Untersuchung der Dienstleistungssysteme wird eine<br />
Systematisierung der Akquisition und der Leistungserbringung im<br />
Vordergrund stehen. Die Zielsetzung der gesamten Arbeit mit der<br />
Umsetzung der Implementierung einer Solarstromanlage sollte die maximale<br />
Kundenzufriedenheit erreichen. Die Kundenzufriedenheit kann mit der<br />
Wirtschaftlichkeit und der Zuverlässigkeit garantiert werden. Insbesondere<br />
sollen die unterschiedlichen Modelle der Dienstleistung auf die individuellen<br />
Bedürfnisse und Wünsche des Kunden abgestimmt werden. Die Engineering<br />
Dienstleistung, die in dieser Arbeit entwickelt wird, soll an erster Stelle dem<br />
Kunden den Nutzen bringen den er sich erwartet.<br />
81<br />
82<br />
Stefan Loibner<br />
Impacts of a change in production stratagy and implementation of Variant<br />
Configuration in SAP at Atronic Austria GmbH<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Florian Mayer<br />
Die implizite Wachstumsrate deutscher DAX – und MDAX – Werte<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Aussenegg<br />
Abstrakt: Für die Berechnungen der impliziten Wachstumsrate wurde die<br />
Unternehmenslebenszeit in drei Phasen gegliedert. Für Phase eins wurde<br />
auf die von Analysten prognostizierten Cashflows zurückgegriffen. In Phase<br />
drei wachsen die Cashflows eines Unternehmens mit der als konstant<br />
angenommen ewigen Wachstumsrate. Nach Damodaran (2001) kann die<br />
Wachstumsrate eines Unternehmens nicht über einem unbegrenzten<br />
Zeitraum über jener der Weltwirtschaft liegen. Für die dazwischen liegende<br />
zweite Phase wurde in Kapitel vier die implizite Wachstumsrate berechnet.<br />
Dabei wurde die zweite Phase zwischen sechs und acht Jahren variiert. Aus<br />
dem Discounted – Cashflow - Modell lässt sich bereits die Voraussage<br />
treffen, dass sich mit einer steigenden Anzahl von Jahren in Phase zwei die<br />
implizite Wachstumsrate der ewigen Wachstumsrate nähern muss. Die<br />
Untersuchung umfasst 55 deutsche Unternehmen, die entweder im DAX<br />
oder MDAX notieren. Die Analyse zeigt eine starke Korrelation der impliziten<br />
Wachstumsrate zu den durchschnittlichen Kapitalkosten. Die Streuung der<br />
impliziten Wachstumsrate nimmt innerhalb einer Branche ab. Ein<br />
Wachstumstrend einzelner Branchen ist erkennbar. Besonders auffallend ist<br />
ein vom Markt erwartetes negatives Wachstum in den Branchen Automobil<br />
(-6,29%), Pharma und Healthcare (-7,50%) sowie Transport und Logistik (-<br />
16,82%). Die deutlichsten positiven Wachstumserwartungen liegen in den<br />
Branchen Rohstoffe (25,18%), Bauindustrie (14,32%), Medien (23,50%),<br />
Software (19,04%) und Technologie (35,50%), wobei den drei<br />
letztgenannten jeweils nur ein Unternehmen zugeordnet werden konnte.<br />
Alexandra Mazak<br />
Effektivität von Sicherungsbeziehungen beim Hedge-Accounting<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ. Prof. Dr. Walter Schwaiger<br />
Abstrakt: Die Unsicherheit des Wissens über z.B. künftige<br />
Preisschwankungen am Markt und andere (wirtschaftliche) Ereignisse
esultiert aus dem Umstand, dass diese Ereignisse in der Zukunft liegen und<br />
deren Konsequenzen daher nicht absehbar sind und so ein Risiko in sich<br />
bergen. Die Unternehmensführung hat jedoch Erwartungen betreffend<br />
dieser künftigen Ereignisse. Tritt nun ein Ereignis tatsächlich ein, durch<br />
Informationsenthüllung im Zeitablauf, resultieren daraus Konsequenzen.<br />
Diese Konsequenzen können positiv sein, indem eine positive Abweichung in<br />
Form von /Chancen/ vom Erwartungswert "enthüllt" wurden, aber auch<br />
negativ. Negative Konsequenzen werden als /Risiken/ bezeichnet. Wurde<br />
nun eine offene Position, der eine bestimmte Risikoart anhaftet identifiziert<br />
und die Risikofaktoren als Risikoverursacher empirisch ermittelt, folgt<br />
daraus das Bestreben, diese Risiken und damit mögliche Verluste zu<br />
minimieren oder sogar gänzlich zu eliminieren. Einerseits benötigt man da<strong>für</strong><br />
genaue Modelle zur Vorhersage künftiger Ereignisse und andererseits<br />
geeignete Methoden und Sicherungsinstrumente zur effizienten<br />
Gegensteuerung bei drohender Verlustgefahr.<br />
Leopold Redlingshofer<br />
Der Zusammenhang von FL-LRAIC und der Diffussion von Innovationen im<br />
Telekombereich<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ.-Prof. Dr. Adolf Stepan<br />
Abstrakt: In dieser Arbeit soll untersucht werden, inwiefern der Ansatz FL-<br />
LRAIC (Forward Looking Long Run Average Costs) <strong>für</strong> die Bestimmung der<br />
Zusammenschaltungsentgelte realisiert ist. Dabei soll überprüft werden, wie<br />
sich der Ansatz allgemein auf die Innovationsfreudigkeit von Anbietern in der<br />
Telekommunikationbranche auswirkt. Falls der FL-LRAIC-Ansatz bereits<br />
Verwendung findet, soll der Telekommunikationsmarkt auf bereits<br />
durchgeführte Innovationen hin untersucht werden. Insbesondere soll<br />
diskutiert werden, ob Zusammenschaltungsentgelte auf Basis des FL-LRAIC-<br />
Ansatzes den technologischen Fortschritt in der gewünschten Ausprägung<br />
ermöglichen.<br />
Sander Rijdt, van de<br />
Zuliefernetzwerke der Automobilindustrie in Osteuropa<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Wilfried Sihn<br />
Abstrakt: Motiviert durch den durch die EU-Osterweiterung weiter voran<br />
getriebenen, wirtschaftlichen Aufschwung und der anhaltenden Auslagerung<br />
und Neugründung von Produktions- und Fertigungsstandorten durch<br />
Unternehmen in den so genannten Niedriglohnländern, vor allem durch die<br />
Automobilindustrie, die stets eine Vorreiterrolle einzunehmen scheint,<br />
befasst sich die Thematik dieser Arbeit mit der Entwicklung der<br />
83<br />
84<br />
Zulieferindustrie in Osteuropa rund um die neuen Standorte der<br />
Automobilhersteller. Kernelement der Arbeit wird durch die Identifizierung<br />
der Zulieferer und deren Standorte im Zuliefernetzwerk ausgewählter<br />
Automobilherstellerstandorte sowie durch eine standortorientierte Analyse<br />
und Bewertung dieser Zuliefernetzwerke dargestellt. Ziel ist es in Betracht<br />
zu definierender Bewertungskriterien die geographische Aufspannung des<br />
Zuliefernetzwerks eines Automobilherstellers zu erörtern und die<br />
verschiedenen Netzwerke vergleichbar zu machen. Die Arbeit gliedert sich in<br />
die inhaltlichen Bereiche Theoretische Grundlagen, Wirtschaftliche Region<br />
CEE, OEM in der Region CEE, Zulieferer in der Region CEE, Analyse und<br />
Bewertung sowie eine Zusammenfassung der Ergebnisse und Erstellung<br />
einer Trendprognose. Die theoretischen Grundlagen bilden das Fundament<br />
<strong>für</strong> die späteren Untersuchungen. Im Rahmen der Netzwerkstheorie werden<br />
die verschiedenen Erscheinungsformen von Netzwerken erläutert, die Typen<br />
der Arbeitsbeziehungen in einem Netzwerk betrachtet und die Aktivitäten<br />
zum Managements eines Netzwerks festgehalten. Auch die verschiedenen<br />
Motivationsgründe <strong>für</strong> die Zusammenarbeit in Netzwerken werden<br />
analysiert. In weiterer Folge werden diese theoretischen Grundlagen um die<br />
Aspekte der Automobilindustrie ergänzt. Das Ergebnis dieses ersten<br />
Kernschritts stellen alle benötigten theoretischen Grundlagen der Arbeit dar.<br />
Im Rahmen der Betrachtung der wirtschaftlichen Region CEE werden neben<br />
den Gründen <strong>für</strong> eine Produktions- und Standortverlagerung durch die<br />
Automobilindustrie nach Osteuropa auch die allgemeine wirtschaftliche<br />
Ausgangssituation in Osteuropa erläutert. Nach Definition benötigter<br />
Begriffe erfolgt die Eingrenzung des Untersuchungsraumes auf die<br />
ausgewählte Region CEE. Als Ergebnis dieses Kernschritts zeigt sich ein<br />
Überblick über die momentane wirtschaftliche Ist-Situation in der<br />
osteuropäischen Region CEE. In Kernschritt 3 erfolgt eine<br />
Bestandsaufnahme der Produktions- und Montagestandorte der in der<br />
Region CEE vertretenen OEM. Die Recherche erfolgt über die zur Verfügung<br />
gestellten Informationen der Automobilhersteller sowie die Veröffentlichung<br />
renommierter Fachzeitschriften. Ein geographischer Standortüberblick der<br />
OEM in der Region CEE liefert das Ergebnis dieses Kernschritts. Bei der<br />
Bestandsaufnahme der Zulieferer erfolgt aufgrund der großen Anzahl der<br />
Zulieferer und der sehr schwierigen Ausgangslage <strong>für</strong> dieses Kernelement<br />
der Arbeit die Entwicklung einer speziellen Vorgehensweise zur<br />
Identifizierung der entscheidenden Lieferanten. Das Ergebnis wird durch eine<br />
<strong>für</strong> die weitere Analyse eingeschränkte, jedoch weiterhin aussagekräftige<br />
Anzahl der großen Menge an Zulieferern sowie einen geographischen<br />
Standortüberblick der Automobilzulieferer in der Region CEE dargestellt. Im<br />
Rahmen der Analyse der Zuliefernetzwerke muss zuerst ein geeignetes<br />
Analysemodell entwickelt und entsprechende Bewertungskriterien defi niert<br />
werden, die es auch ermöglichen die verschiedenen Zuliefernetzwerke zu<br />
vergleichen. Die Bewertung der Zuliefernetzwerke beinhaltet die<br />
Aufbereitung der Analyseergebnisse und bildet die Grundlage <strong>für</strong> den<br />
folgenden Vergleich und eine abschließende Aussage und Interpretation.<br />
Ergebnis dieses Kernschrittes sind neben dem entwickelten Analysemodell<br />
die Analyseergebnisse und deren Bewertung. Weiters wird ein Vorgehen im
Falle uneindeutiger Informationslage festgelegt und im Rahmen der Analyse<br />
angewandt. Aufbauend auf den Ergebnissen aus Analyse und Bewertung der<br />
Zuliefernetzwerke erfolgen ein Vergleich der Zuliefernetzwerke nach den defi<br />
nierten Kriterien und die Beantwortung aller offenen Fragestellungen. Aus<br />
den gewonnenen Erkenntnissen wird ebenfalls versucht, eine Trendprognose<br />
<strong>für</strong> das Verhalten neu entstehender Zuliefernetzwerke zu entwickeln.<br />
Abschließend wird eine generelle Aussage der Arbeit generiert und eine<br />
Zusammenfassung aller Inhalte gegeben.<br />
Rita Solly<br />
Geschäftsprozessmodellierung in einem Lebensversicherungsunternehmen<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />
Abstrakt: Das Geschäftsprozessmanagement ist ein zeitgemäßer<br />
Managementansatz, um Abläufe in Unternehmen sowohl kunden- und<br />
leistungsorientiert als auch prozessorientiert zu optimieren. Basis hier<strong>für</strong><br />
bildet die Geschäftsprozessanalyse, bei welcher die Abläufe eines<br />
Unternehmens systematisch modelliert, dokumentiert und analysiert<br />
werden. Darauf aufbauend beschäftigt sich die Geschäftsprozessoptimierung<br />
mit der Identifizierung und Ausschöpfung vorhandener Potentiale in den<br />
zuvor dokumentierten betrieblichen Abläufen, welche die Unternehmensziele<br />
bestmöglich unterstützen. Die grafische Darstellung beider Schritte findet<br />
sich in der Geschäftsprozessmodellierung wieder. Die vorliegende Arbeit<br />
setzt sich mit der Theorie der Geschäftsprozessanalyse auseinander und<br />
zeigt die praktische Umsetzung in einem Versicherungsunternehmen anhand<br />
eines ausgewählten Geschäftsprozesses. Es sei somit explizit darauf<br />
hingewiesen, dass die Versicherungsprozesse modelliert und analysiert<br />
werden, um Verbesserungspotenziale zu identifizieren, jedoch keine<br />
Modellierung von verbesserten Prozessen durchgeführt wird. Den<br />
theoretischen Rahmen bildet das von A.-W. Scheer entwickelte ARIS®<br />
Konzept samt den darin zur Anwendung kommenden Modelle sowie ein<br />
Vorgehensmodell der Objektorientierten Geschäftsprozessmodellierung mit<br />
der UML nach B. Oestereich.<br />
Thomas Stelzhammer<br />
Erhebung der Zufriedenheit mit den Leistungen der Landesamtsdirektion<br />
Informationstechnologie (LAD1-IT) des Landes Niederösterreich<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />
Ergebnisse der Umfrage. Kapitel 8 beinhaltet eine Zusammenfassung.<br />
Kapitel zwei und drei beschreiben den Aufbau und die Struktur des<br />
Bundeslandes Niederösterreich, der Niederösterreichischen<br />
Landesregierung und der Abteilung LAD1-IT. Sie dienen dazu, den<br />
Verwaltungshintergrund und einen Überblick über die Weite der betroffenen<br />
Bereiche zu erhalten. Im Kapitel vier wird Hintergrundwissen über die<br />
theoretische Grundlage der Aufgabengebiete der LAD1-IT gebracht, die bei<br />
der Umfrage Inhalt waren. Es handelt sich dabei um Informationen zum<br />
laufenden Betrieb einer IT- Abteilung, zum Bereich Weiterbildung und<br />
Schulungen und zu Softwareentwicklung / Software-Ergonomie. Beim<br />
laufenden Betrieb wurde das Hauptaugenmerk auf den Bereich des Service<br />
Management gelegt. Im Gebiet der Weiterbildung bildet besonders das E-<br />
learning den Mittelpunkt, da die NÖ- Landesregierung auf diesen Weg der<br />
Weiterbildung verstärkt setzt. Der Bereich Softwareentwicklung / Software-<br />
Ergonomie wurde deshalb gewählt, da es sich bei den unterstützenden<br />
Programmen in der Verwaltung vermehrt um individuelle Programme<br />
handelt. Passend zu den theoretischen Grundlagen werden im Kapitel fünf<br />
relevante Punkte betreffend Mitarbeiterbefragung bearbeitet. Kapitel sechs<br />
und sieben beschäftigt sich mit der durchgeführten Bedienstetenbefragung<br />
und den Ergebnissen, die daraus gewonnen werden konnten. In Kapitel<br />
sechs wird der Fragebogen (Bereich und Fragen) näher behandelt, der bei<br />
der Umfrage zum Einsatz gekommen ist. Die einzelnen Bereiche der<br />
Umfrage sind: Bereich A Einschätzung der LAD1- IT ( besteht aus 5 Fragen<br />
) Bereich B Kontakt mit IT- Koordinatorin bzw. IT- Koordinator (besteht aus 4<br />
Fragen) Bereich C IT- Koordinatorin bzw. IT- Koordinator (besteht aus 8<br />
Fragen) Bereich D Kontakt mit LAD1- IT (besteht aus 4 Fragen) Bereich E<br />
Hardware / Software ( besteht aus 6 Fragen) Bereich F Weiterbildung und<br />
Schulungen ( besteht aus 11 Fragen) Bereich G Zu Ihrer Person (besteht<br />
aus 7 Fragen) Es wurden verschiedene Analysen durchgeführt und am Ende<br />
einer jeden Analyse eine Zusammenfassung der relevanten Ergebnisse<br />
erstellt. Diese Analysen sind Im Kapitel 7. dargestellt. Den Abschluss der<br />
Arbeit bildet eine Zusammenfassung mit den wichtigsten und relevanten<br />
Punkten, die aus der Umfrage gewonnen werden konnten. Das Ergebnis hat<br />
gezeigt, dass vor allem der Bereich Weiterbildung und Schulungen sehr<br />
wichtig <strong>für</strong> die Befragten ist. So wurden <strong>für</strong> diesen Bereich die meisten<br />
Anregungen und Wünsche der Bediensteten getätigt. Der Punkt Information<br />
war ebenfalls ein sehr zentrales Thema bei den Ergebnissen. Die Befragten<br />
würden gerne mehr Auskünfte und Mitteilungen über Geplantes erhalten.<br />
Vor allem wenn es ihren Bereich betrifft. Die Umfrage war sowohl aus Sicht<br />
der Abteilungsleitung, wie auch aus Sicht der Befragten ein Erfolg und wird<br />
nun im regelmäßigen Abstand, einmal jährlich, durchgeführt. So will man<br />
einen Trend und Ergebnisse, der geplanten und durchgeführten<br />
Änderungen, erheben.<br />
Abstrakt: Die Arbeit ist in zwei Bereiche gegliedert. Der erste Bereich<br />
(Kapitel 2,3,4 und 5) beschreibt die theoretischen Grundlagen. Der zweite<br />
Bereich (Kapitel 6 und 7) bearbeitet die praktische Umsetzung und die<br />
85<br />
86
Andreas Stollmayer<br />
Risikomanagement in Supply Chains<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Abstrakt: Immer mehr Unternehmen konzentrieren sich heutzutage auf ihre<br />
Kernkompetenzen, in der Regel ist damit eine Auslagerung von<br />
Unternehmensaktivitäten verbunden. Dies bedarf einer<br />
unternehmensübergreifenden Abstimmung, die Wertschöpfung erfolgt<br />
innerhalb von Supply Chains. Durch diesen Zusammenschluss entstehen<br />
Chancen, aber auch eine Vielzahl an Risiken. In folgender Magisterarbeit soll<br />
aufgezeigt werden, welche relevanten Risiken innerhalb<br />
branchenunabhängiger Supply Chains auftreten und wie diese Risiken<br />
bewältigt werden können. Weiters sollen beispielhafte Risiken innerhalb von<br />
Automobil Supply Chains aufgezeigt und deren Bewältigung erläutert<br />
werden. Basierend auf diesen Erkenntnissen, soll auf zukünftige<br />
Entwicklungen in Automobil Supply Chains sowie beim Risikomanagement in<br />
Supply Chains eingegangen werden. Das gesamte Risikomanagement<br />
bezieht sich auf das COSO-ERM Framework, welches erweitert und an eine<br />
Supply Chain angepasst wurde. Die Behandlung der Automobil Supply Chain<br />
basiert auf zahlreichen Artikeln der Automobilindustrie.<br />
Systemintegration in die bestehende IT-Landschaft des Unternehmens<br />
(technische Sicht) und der Akzeptanz, die die Mitarbeiter diesem neuen<br />
System entgegenbringen (soziologische Sicht) unterschieden. Eine Änderung<br />
der Unternehmenskultur ist bei der Einführung derart revolutionärer<br />
Software meist unumgänglich. Weiters wird der laufende Betrieb der<br />
Software näher untersucht und Fragen des Benutzersupports und laufender<br />
Wartungsverträge geklärt. Im siebten Kapitel, der Fallstudie via donau, wird<br />
gezeigt, wie sich die Evaluierung eines Projektmanagementsystems anhand<br />
eines praktischen Beispiels zutragen könnte und wie via donau auf mögliche<br />
grundlegenden Veränderungen während des Prozess reagiert hat. Die<br />
Arbeit schließt mit einem Conclusio ab und diskutiert mögliche<br />
Entwicklungrichtungen und Nachholbedarf aktueller Systeme und versucht<br />
Empfehlungen zu geben, die sich während der beobachteten<br />
Anforderungsermittlung bewährt haben.<br />
INSTI<strong>TU</strong>T FÜR COMPUTERTECHNIK<br />
Tobias Deutsch<br />
Geometric World Model Repository and Localization for Autonomous Mobile<br />
Robots<br />
Christoph Trunk<br />
Evaluierung eines softwarebasierten Projektmanagement-Tools in einer<br />
projektorientierten Entwicklungsgesellschaft und Empfehlung <strong>für</strong> die<br />
Umsetzung<br />
Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />
Abstrakt: Diese Arbeit handelt von der Auswahl eines softwarebasierten<br />
Projektmanagementsystems in eine projektorientierte<br />
Entwicklungsgesellschaft. Der gesamte Anforderungsermittlungsprozess<br />
wurde vom Autor dokumentiert und begleitet. Angefangen mit<br />
Begriffsdefinitionen und Abgrenzungen zum Thema Wissensmanagement<br />
und Projektmanagement wird eine Marktanalyse der angebotenen Systeme<br />
durchgeführt und deren Funktionen sowie Anforderungen an die<br />
entsprechenden Systeme aufgeführt und klassifiziert. Der Auswahlprozess<br />
stellt den Kernpunkt dieser Arbeit dar, da, wenn erst das ‚falsche’<br />
Projektmanagementsystem ausgewählt wurde, meist sehr viel investiert<br />
wurde und die beteiligten Benutzer das System nicht sinnvoll nutzen können.<br />
Die Systemauswahl besteht aus der Anforderungsdefinition, einer zweistufigen<br />
Vorauswahl und schließlich der Hauptauswahl. Eine Strength-<br />
Weakness-Opportunities-Threats Analyse rundet die Hauptauswahl ab und<br />
soll auf die positiven Aspekte der Benutzung eines derartigen Systems<br />
hinweisen. Danach, in der Softwareeinführung, wird zwischen der<br />
87<br />
88<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.-Prof. Dr. Hermann Kaindl<br />
Abstrakt: Wesentliche Voraussetzung <strong>für</strong> einen autonom agierenden<br />
Roboter ist die Fähigkeit, Wissen über seine Position in der Welt zu<br />
sammeln. Dieses Wissen basiert auf Sensordaten und einem Weltmodell,<br />
welches wiederum aus einer Karte von statischen Elementen und Daten<br />
über mobile Objekte besteht. Die Sensordaten werden gemeinsam mit dem<br />
Weltmodell zur Bestimmung des wahrscheinlichsten Aufenthaltsorts des<br />
Roboters in der Welt verwendet. Diese Diplomarbeit behandelt die<br />
Implementierung eines geometrischen Weltmodells und eines<br />
Lokalisierungssystems. Als Zielplattform dient Roboterfußball, gespielt von<br />
kleinen, autonomen Robotern. Da es keine zentrale Kontrolle gibt, müssen<br />
sie in der Lage sein, ihre eigenen strategischen Entscheidungen zu treffen<br />
und ihre Position in der Welt selbst zu bestimmen. Für das Weltmodell und<br />
die Lokalisierung wurde jeweils ein einfacher und ein komplexer<br />
Lösungsansatz entwickelt. Aufgrund der geringen Größe des Roboters sind<br />
die verfügbaren Ressourcen stark beschränkt. Abhängig von den<br />
vorhandenen Ressourcen und den Anforderungen an Strategie,<br />
Lokalisierung und Weltmodell kann durch die zwei Varianten ein geeignetes<br />
System realisiert werden. Das geometrische Weltmodell umfasst eine Karte<br />
und einen Positionsverlauf <strong>für</strong> die beweglichen Objekte (Ball und Roboter). In<br />
der einfachen Variante besteht die Karte aus einer Menge von<br />
Liniensegmenten; die Objekte werden auf einen Punkt simplifiziert. Für die<br />
komplexe Variante werden die Karte und die Objekte als Polygone modelliert.
Der einfache Lösungsansatz <strong>für</strong> das Lokalisierungssystem basiert auf einem<br />
linearen Näherungsverfahren und stellt eine Weiterentwicklung des bisher<br />
<strong>für</strong> Tinyphoon verwendeten Systems dar. Es können nur Sensordaten vom<br />
Odometer, vom Kompass und die von der Kamera erkannten Fixpunkte<br />
verwendet werden. Im Gegensatz dazu kann der verwendete Partikelfilter<br />
beim komplexen Lösungsansatz sämtliche Sensordaten, die der Roboter<br />
aufnehmen kann, in die Hypothese integrieren. Der in dieser Arbeit<br />
durchgeführte Vergleich der Lokalisierungsmethoden zeigt deutlich, dass der<br />
komplexe Ansatz bessere Ergebnisse erzielt als der einfache. Die<br />
Standardabweichung unterscheidet sich um den Faktor drei. Im Falle der<br />
zwei Varianten <strong>für</strong> das Weltmodell kann ein Vergleich mangels objektiver<br />
Kriterien nicht formuliert werden.<br />
Johannes Schmidt<br />
A Routing Simulation for Air Traffic Services Voice Communication Networks<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />
Abstrakt: Diese Diplomarbeit hat die Entwicklung eines Simulators <strong>für</strong> das<br />
leitungsvermittelte Sprachkommunikationsnetzwerk der österreichischen<br />
Flugsicherung zum Thema. Die Evaluierung neuer Routing Algorithmen, die<br />
gegenüber dem bestehenden, statischen Algorithmus ein besseres<br />
Verhalten zeigen, soll mit Hilfe der Simulation ermöglicht werden. Statt der<br />
Umsetzung des vollständigen Nachrichtenprotokolls, welches in der realen<br />
Applikation zum Einsatz kommt, wird ein vereinfachtes Modell des Protokolls<br />
vorgestellt und implementiert. Die Unterschiede zwischen dem realen<br />
Sprachnetzwerk und dem Simulationsmodell und die draus resultierenden<br />
Beschränkungen <strong>für</strong> die Verwendung des Simulators werden diskutiert.<br />
Neben einer Evaluierung von vorhandenen Netzwerksimulatoren<br />
dokumentiert diese Arbeit den Design-, Implementierungs- und<br />
Verifizierungsprozess. Der Vergleich des Verhaltens der Realapplikation mit<br />
dem Simulationsmodell ergab, dass die Simulation die<br />
Routingentscheidungen des simulierten Netzwerkes reproduziert wenn die<br />
realen Konfigurationsdaten genau bekannt sind. Der Simulator ist daher <strong>für</strong><br />
die Evaluierung neuer Routingalgorithmen geeignet.<br />
Abstrakt: Positionsabhängige Dienste (Location Based Services, LBS)<br />
bezeichnen Dienste, deren Funktion von der aktuellen Position des Nutzers<br />
abhängen. Da aktuelle LBS Systeme nicht auf einer Middleware aufbauen,<br />
muss derzeit jeder neue LBS Dienst alle Funktionen eines LBS Systems<br />
implementieren, wie Positionierung, Kommunikation und Realisierung des<br />
eigentlichen Dienstes. In dieser Diplomarbeit stellen wir den Location<br />
Enabler als gemeinsame Plattform <strong>für</strong> LBS Systeme vor. Voraussetzung <strong>für</strong><br />
eine breite Anwenderbasis ist der Einsatz offener und frei verfügbarer<br />
Standards, wie z.B. das von der Internet Engineering Task Force (IETF)<br />
standardisierte Session Initiation Protocol (SIP). Im Weiteren wird die<br />
Architektur <strong>für</strong> einen Client Centric Location Enabler <strong>für</strong> das IP Multimedia<br />
Subsystem (IMS) Netz vorgestellt. Im Gegensatz zu heute üblichen<br />
Implementierungen der Lokalisierung durch die Netz-Infrastruktur des<br />
Betreibers, erfordert diese Variante der Lokalisierung, dass jedes Endgerät<br />
(Mobiltelefon) mit einem eigenen Mechanismus zur Positionierung<br />
ausgestattet ist (z.B. GPS Empfänger). Das bietet erhöhte Genauigkeit und<br />
verringert die Kosten. Als Erweiterung werden Möglichkeiten analysiert, um<br />
den Umfang der anfallenden Nachrichten zu minimieren. Zum Beispiel<br />
benötigt ein Dienst oft nicht die exakte Position, sondern nur die<br />
Information, ob sich der Dienstnutzer in einem bestimmten Bereich aufhält.<br />
Deshalb sieht der Location Enabler vor, dass nicht Positionen sondern nur<br />
Ereignisse oder Zustandsänderungen gemeldet werden, z.B. wenn der<br />
Benutzer einen definierten Bereich betritt oder verlässt. Auf Basis dieser<br />
Architektur wird eine Implementierung in J2ME (Java Micro Edition)<br />
vorgestellt. Diese Anwendung wurde auf S60 3rd Edition Smartphones<br />
implementiert und getestet. Die Messergebnisse zeigen, dass der Prototyp<br />
des Location Enablers das beobachtete Gerät mit einer Genauigkeit von<br />
unter 15 m lokalisieren kann.<br />
Michael Hirschbichler<br />
A Traffic Generator and Performance Analysis Toolkit for the IP Multimedia<br />
Subsystem<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />
INSTI<strong>TU</strong>T FÜR BREITBANDKOMMUNIKATION<br />
Marco Happenhofer<br />
Eine Architektur <strong>für</strong> Positionsbestimmung im IP Multimedia Subsystem<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Harmen R van As<br />
89<br />
90<br />
Abstrakt: In den vergangenen Jahren konnte seitens der<br />
Telekommunikations-Industrie ein starker Trend in Richtung vereinheitlichter<br />
Dienstleistungen unabhängig von der Art der verwendeten<br />
Benutzerendgeräte festgestellt werden. Dies ist teilweise dadurch<br />
begründet, daß durch technische Fortschritte immer größere Bandbreiten<br />
den Endbenutzern zur Verfügung stehen. Die Breitbandanbindungen, seien<br />
sie nun im Mobilfunkbereich mittels UMTS/HSDPA und WLAN oder im<br />
Festnetzbereich mittels Kabel und xDSL, in Kombination mit der<br />
Durchdringung des Alltags durch das Internet fordern neue Services seitens<br />
der Provider und der Hersteller. So ist es <strong>für</strong> die Operatoren von
Telekommunikationsnetzen naheliegend, eine einheitliche Infrastruktur<br />
unabhängig des darunterliegenden Transportmediums zu entwickeln, welche<br />
alle bisherigen und alle zukünftigen Services zusammenfasst. Ein Ansatz <strong>für</strong><br />
ein solches Netzwerk der nächsten Generation (Next Generation Network<br />
NGN) ist das IP Multimedia Subsystem (IMS) des 3rd Generation<br />
Partnership Project (3GPP), einer Partnerschaft verschiedener<br />
Telekommunikationunternehmen. Das IMS verwendet als zugrundeliegende<br />
Technologie bewährte Internetprotokolle <strong>für</strong> die Signalisierung (Session<br />
Initiation Protocol SIP), <strong>für</strong> die Benutzerverwaltung (Diameter) und <strong>für</strong> die<br />
Übertragung der Echtzeitdatenströme (Real-time Transfer Protocol RTP),<br />
um ein paar Beispiele zu nennen. Das Ziel dieser Diplomarbeit ist es, eine<br />
umfangreiche Testplattform <strong>für</strong> ein IMS Netzwerk mit Schwerpunkt auf die<br />
Signalisierung mittels SIP zu entwickeln. Der erste Teil dieser Arbeit<br />
behandelt die Grundzüge der SIP Signalisierung und im speziellen im Kontext<br />
des IMS. Der zweite Teil der Diplomarbeit setzt die Testplattform aus<br />
mehreren Komponenten zusammen: Das erste Element der Testplattform<br />
ist SIPp, bisher ein Tool zum Testen von SIP-tauglichen Serverdiensten und<br />
Endgeräten. SIPp wird von uns dahingehend erweitert, daß, über den<br />
einfachen Verbindungsaufbau hinausgehend, Registrierungen in IMS-Netzen<br />
in Kombination mit dem Aufbau von Sprachverbindungen zu anderen<br />
Endgeräten möglich werden. SIPp in der neuen Form dient nun zum Testen<br />
von korrekten Konfigurationen der einzelnen Knoten eines IMS-Netzes<br />
einerseits, andererseits zum Testen der Skalierbarkeit dieser einzelnen IMS-<br />
Knoten bei hoher Last. Um die Testresultate konsistent vergleichen zu<br />
können, wird von uns zusätzlich zu SIPp noch das Testnetz um eine genaue<br />
Zeitsynchronisation erweitert. Wir verwenden das Network Time Protocol<br />
NTP zur mikrosekundengenauen Synchronisation der im Testlauf beteiligten<br />
Knoten. Nur dadurch ist es möglich, bei hohen Lasten die entstandenen<br />
großen Mengen an Logdaten aufzuzeichnen und zu vergleichen. OpenSER,<br />
die Routingsoftware der einzelnen IMS-Knoten, wird von uns erweitert, so<br />
daß auch dieses Programm in der Lage ist, Logdaten mit einer feinen<br />
zeitlichen Granularität auszugeben. Den Meßergebnissen unserer Testläufe<br />
ist ein Kapitel gewidmet, in dem die einzelnen Testläufe, welche unter<br />
verschiedenen Lasten entstanden sind, verglichen werden. Die dadurch<br />
gezogenen Rückschlüsse sind hilfreich beim Beseitigen von Engpässen der<br />
Bandbreiten der Verbindungen und der Leistungsfähigkeit der einzelnen<br />
Knoten dieses IMS-Netzes. Mit SIPp und den äußerst präzisen Logging-<br />
Information der einzelnen Knoten des Testnetzes wurde ein Toolkit<br />
entwickelt, welches unabhängig von der Größe des Netzwerkes detailierte<br />
Testroutinen möglich macht.<br />
Petr Kotik<br />
Availability Analysis of an IP Multimedia Subsystem Core<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />
Abstrakt: In den letzten Jahren zeichnet sich ein klarer Trend zur Fixed-<br />
Mobile Convergence ab. Durch die Konvergenz der Mobilfunk- und der Fixed-<br />
Line-Netze können Telekommunikationsbetreiber ihre Dienstleistungen den<br />
Kunden unabhängig vom Ort, der Art des Netzzugangs und dem Endgerät<br />
zur Verfügung stellen. Das IP Multimedia Subsystem (IMS) spielt angesichts<br />
dieses anhaltenden Trends eine bedeutende Rolle. Es ist eine globale,<br />
zugangsunabhängige und standardbasierte IP Konnektivität und Service<br />
Control Architektur, die es im Wesentlichen ermöglicht, Internet<br />
Applikationen wie “Presence” und “Messaging” in die Telekommunikationswelt<br />
zu integrieren. Dabei ist das IMS mit seinen vielfältigen<br />
Echtzeitdiensten wie beispielsweise “Voice over IP” (VoIP),<br />
Konferenzgesprächen und Multimedia Applikationen, von der Verfügbarkeit<br />
der IP Netzinfrastruktur und den von ihr zur Verfügung gestellten Diensten<br />
abhängig. In dieser Arbeit führen wir eine detailierte Verfügbarkeits-Analyse<br />
eines IMS-Core durch. Weiters geben wir einen eingehenden Überblick zum<br />
State of the Art relevanter Aspekte und Lösungen im Bereich<br />
Netzverfügbarkeit und Netzausfallsicherheit. Basierend auf verschiedenen<br />
Definitionen von Verfügbarkeit präsentieren wir verschiedene<br />
Verfügbarkeitsmodelle und analysieren Faktoren, welche Verfügbarkeit<br />
beeinflussen. Weiters beschreiben wir Technologien und Protokolle auf den<br />
jeweiligen Netzwerk-Schichten, die zu einer höheren Verfügbarkeit des<br />
Netzes beitragen. Die Methodologie einer Verfügbarkeits-Analyse wird<br />
vorgestellt und das am Markt vorhandene Softwareangebot an<br />
Verfügbarkeits-Simulatoren wird auf seine Fähigkeiten untersucht. Wir<br />
stellen ein Software-Modell des IMS Netzes vor und führen die<br />
Verfügbarkeits-Analyse des IMS-Core mit dem Network Availability Program<br />
(NAP) durch. Abschließend präsentieren wir die Resultate der Analyse und<br />
ziehen unsere Schlussfolgerungen.<br />
Bastian Preindl<br />
AAA Security Framework for Wireless Access Networks<br />
Studium: Masterstudium Software Engineering und Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />
Abstrakt: Ziel der vorliegenden Arbeit war die Entwicklung einer<br />
plattformunabhängigen Netzwerkmanagement-Lösung mit Fokus auf<br />
Integrierbarkeit, Transparenz und Dynamik mit Rücksicht auf Handhabung<br />
und Wartbarkeit. Besondere Aufmerksamkeit wurde dem Einsatz in WLAN-<br />
Umgebungen gewidmet, wodurch die entwickelte Lösung Funktionen <strong>für</strong><br />
Handover und Roaming beinhaltet. Die Arbeit gliedert sich in eine Einleitung,<br />
der Technik, der Implementierung, dem Testen und dem praktischen Einsatz<br />
der IronGate genannten Software. Im Abschnitt Einleitung wird der<br />
grundsätzliche Aufbau von IronGate nähergebracht, die Technik erklärt die<br />
Funktionsweise des Systems, die Implementierung befasst sich mit der<br />
programmtechnischen Umsetzung der beschriebenen Algorithmen und das<br />
91<br />
92
Testen und der praktische Einsatz zeigen das Verhalten des Systems in<br />
Extremsituationen und im Echtbetrieb.<br />
Markus Sommereder<br />
Modellierung von Warteschlangensystemen mit dynamisch erzeugten<br />
Markov-Ketten<br />
Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />
Abstrakt: Warteschlangensysteme treten in vielen Bereichen unseres<br />
Lebens auf. Eine wichtige Möglichkeit zur Untersuchung von<br />
Warteschlangensystemen ist die Modellierung. Unter Modellierung versteht<br />
man das Nachbilden eines realen Systems durch ein Modell, das<br />
ausschließlich die interessierenden Eigenschaften des Systems beinhaltet,<br />
und das anschließende Untersuchen des Verhaltens des Modells. Aus dem<br />
Verhalten des Modells können dann Rückschlüsse auf das Verhalten des<br />
realen Systems gezogen werden. Ziel dieser Arbeit ist es zu zeigen, wie<br />
Warteschlangensysteme unter Verwendung von dynamisch erzeugten<br />
Markov-Ketten als Modell untersucht werden können. Insbesondere werden<br />
Warteschlangensysteme, die in Telekommunikationseinrichtungen und -<br />
netzen auftreten, betrachtet. Markov-Ketten sind spezielle stochastische<br />
Prozesse, die die sehr angenehme Eigenschaft der Gedächtnislosigkeit<br />
haben. Es gibt zeitdiskrete und zeitkontinuierliche Markov-Ketten; in dieser<br />
Arbeit werden ausschließlich zeitkontinuierliche Markov-Ketten betrachtet.<br />
Bei der Untersuchung von zeitkontinuierlichen Markov-Ketten spielen die<br />
Chapman-Kolmogorov-Gleichungen eine große Rolle. Sie besagen, dass die<br />
Zustandsübergangswahrscheinlichkeiten von zeitkontinuierlichen Markov-<br />
Ketten durch ein System von gewöhnlichen Differentialgleichungen 1.<br />
Ordnung beschrieben werden können. Es können Markov-Ketten <strong>für</strong><br />
verschiedene Fragestellungen über ein Warteschlangensystem<br />
(Systemzustand, Durchflusszeit, ...) erstellt werden. Anhand der<br />
Eigenschaften dieser Markov-Ketten sind Aussagen über das<br />
zugrundeliegende Warteschlangensystem möglich. Da das händische<br />
Erzeugen der Markov-Ketten bei komplexen Warteschlangensystemen sehr<br />
aufwendig ist, ist es oft hilfreich, stattdessen die Struktur der Markov-Ketten<br />
zu beschreiben und die Markov-Ketten so weit wie möglich vom Computer<br />
erzeugen zu lassen. Mit Markov-Ketten können nur solche Prozesse<br />
nachgebildet werden, bei denen die Zwischenereigniszeiten<br />
exponentialverteilt sind. Die Wahrscheinlichkeitsverteilungen von nichtexponentialverteilten<br />
Zwischenereigniszeiten können jedoch oft durch eine<br />
Kombination von mehreren Exponentialverteilungen dargestellt oder<br />
angenähert werden. Zum Berechnen der stationären<br />
Zustandswahrscheinlichkeiten von zeitkontinuierlichen Markov-Ketten<br />
müssen lineare Gleichungssysteme gelöst werden. Da diese<br />
Gleichungssysteme oft sehr groß sind, eignen sich <strong>für</strong> ihre Lösung iterative<br />
Verfahren im allgemeinen besser als direkte Verfahren. Um transiente<br />
93<br />
94<br />
Zustandswahrscheinlichkeiten und Durchflusszeiten zu berechnen, muss<br />
man gewöhnliche Differentialgleichungssysteme 1. Ordnung lösen. Hierzu<br />
sind beispielsweise Runge-Kutta-Verfahren mit adaptiver<br />
Schrittweitensteuerung gut geeignet.<br />
Rainer Stangl<br />
Technical Aspects of Broadcast and Multicast TV over Mobile Cellular<br />
Networks<br />
Studium: Masterstudium Medieninformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />
Abstrakt: Aufgrund der ständigen technologischen Weiterentwicklung im<br />
Bereich der Mobilkommunikation hinsichtlich immer schneller werdender<br />
Datenraten und vermehrt besserer Endgeräte bezüglich der technischen<br />
Ausstattung, stellt die Einführung von digitalem Fernsehen am Handy nur<br />
einen weiteren logischen Schritt dar. Der Begriff Mobile TV umfasst<br />
Multimedia Inhalte, welche durch Unicast oder Broadcast/Multicast<br />
Technologien übertragen werden. Unicast Technologien bestehen aus<br />
einzelnen Punkt-zu-Punkt-Verbindungen und befinden sich in gegenwärtigen<br />
zellularen mobilen Netzwerken bereits im Einsatz (z. Bsp. Filmtrailer,<br />
Musikvideos...). Broadcast/Multicast Technologien funktionieren über Punktzu-Multipunkt<br />
Verbindungen, welche neben zahlreichen qualitativ<br />
hochwertigen TV Kanälen auch interaktive Services in nahezu Echtzeit<br />
anbieten. Weltweit befinden sich bereits mehrere Broadcast/Multicast<br />
Technologien in Entwicklung, welche auf drei verschiedenen Ansätzen<br />
basieren: a) entweder als Erweiterung der gegenwärtigen mobilen 2G/3G<br />
Netzwerke (MBMS, TDtv), b) als Implementierung eines neuen Broadcast<br />
Funknetzwerks, welches eine Ergänzung zu den bestehenden mobilen<br />
Netzwerken darstellt (DVB-H, ISDB-T, MediaFLO, T-DMB), oder c) eine<br />
hybride Lösung, die auf Satellitenübertragung basiert (S-DMB, DVB-H in S-<br />
Band). Diese Magisterarbeit behandelt die verschiedenen Technologien zur<br />
Umsetzung von Broadcast TV <strong>für</strong> mobile Endgeräte mit einem besonderen<br />
Blick auf die Implementierung von Mobile TV in mobilen zellularen<br />
Netzwerken.<br />
MEDIZINISCHE UNIVERSITÄT WIEN<br />
Musa Büyükkaba<br />
Online Data Transmission System - Problem und Anforderungen Analyse<br />
Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Ernst Schuster
Stefanie Feichter<br />
Analysis of unsupervised learning-methods for sensor data in cognitive<br />
robotics-comparison of two algorithms<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Georg Dorffner<br />
Peter Feuereisel<br />
Experimentelle Untersuchungen zur Funktionellen Elektrostimulation<br />
denervierter Skelettmuskulatur<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Winfried Mayr<br />
Abstrakt: In den letzten Jahrzehnten wurde die Funktionelle<br />
Elektrostimulation (FES) zur Regeneration langzeitdenervierter degenerierter<br />
Muskulatur im medizinischen Bereich <strong>für</strong> die Behandlung und Rehabilitation<br />
Querschnittsgelähmter immer wichtiger. Durch die Behandlung mittels<br />
Funktioneller Elektrostimulation konnte vielfach eine Verbesserung der<br />
Lebensqualität der Patienten erreicht werden. Im Rahmen des EU-Projektes<br />
RISE, „Use of electrical stimulation to restore standing in paraplegics with<br />
long-term denervated degenerated muscles“ wurden klinische und<br />
experimentelle Studien zur Reaktivierung von langzeitgelähmter<br />
quergestreifter Skelettmuskulatur mittels FES durchgeführt. In einer<br />
experimentellen Studie am Schwein wurden die Muskeln Tibialis Anterior<br />
(TA) und Extensor Digitorum Longus (EDL) denerviert. Um den<br />
Denervationsverlauf der beiden Muskeln zu dokumentieren wurden sie<br />
elektrophysiologisch vermessen. Mittels Nadel-Stimulations-<br />
Elektromyographie wurden die I/t-Kurve, Muskelleitgeschwindigkeit (Latenz<br />
bis zur elektrischen Muskelantwort) und die Refraktärzeit gemessen. Aus<br />
den I/t-Kurven konnten vereinfachend die Chronaxie/Rheobase Werte über<br />
den Denervationsverlauf ermittelt werden. Für die Chronaxie/Rheobase<br />
Messungen wurden Impulse von 0,1 ms bis 200 ms Impulsbreite mit<br />
„Constant Voltage“ verwendet. Zur Erfassung der Latenz wurden die<br />
Membranaktionspotentiale mit 0,1 ms langen Impulsen ausgelöst. Die<br />
Leitgeschwindigkeit wurde aus dem geometrischen Abstand und der Laufzeit<br />
des Aktionspotentiales zwischen der Stimulationsnadel und der EMG-<br />
Elektrodenadel bestimmt. Über eine Variante dieser Messung, die auf der<br />
Verwendung von Doppelimpulsen variablen Abstandes beruht, lässt sich ein<br />
kürzestes Interstimulusinterval (ISI) ermitteln, unterhalb dessen sich kein 2.<br />
Aktionspotential mehr auslösen lässt. Dieses Verfahren lässt gewisse<br />
Rückschlüsse auf das Refraktärverhalten der Membran zu. Mittels eines<br />
A/D-Wandlers wurden die Daten <strong>für</strong> spätere Analysen am PC im Programm<br />
DasyLab gespeichert und später im Programm Matlab ausgewertet. Das<br />
RISE-Projekt hat die Vorteile der Funktionellen Elektrostimulation <strong>für</strong> die<br />
95<br />
96<br />
Regeneration und Erhaltung langzeitdenervierter degenerierter Muskulatur<br />
und den Nutzen der Methode <strong>für</strong> die Rehabilitation bei schlaffer<br />
Querschnittlähmung aufgezeigt. Andererseits hat sich aber auch gezeigt,<br />
dass das Anwendungsspektrum dieser speziellen FES-Variante noch lange<br />
nicht ausgeschöpft ist und ein enormes Entwicklungspotential beinhaltet.<br />
Alexander Jautz<br />
Analyse und Umsetzung von Methoden zur Anonymisierung und<br />
Pseudonymisierung personenbezogener, medizinischer Date<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Georg Duftschmid<br />
Abstrakt: Die fortschreitende Vernetzung des Gesundheitswesens hat in den<br />
letzten Jahren zahlreiche Anwendungsfälle <strong>für</strong> den elektronischen Austausch<br />
medizinischer Daten mit sich gebracht. Sensible Daten - und als solche sind<br />
unter anderem personenbezogene, medizinische Daten im österreichischen<br />
Datenschutzgesetz definiert - dürfen jedoch nur verarbeitet, übermittelt bzw.<br />
überlassen werden, wenn entsprechende Gesetze eingehalten werden,<br />
welche fordern, dass Patientendaten in diesem Kontext so abzuwandeln<br />
sind, dass die betroffenen Personen nicht mehr eindeutig identifizierbar<br />
sind. Diese Arbeit widmet sich daher der Anonymisierung bzw.<br />
Pseudonymisierung personenbezogener Daten. Anhand von Beispielen wird<br />
gezeigt, dass „herkömmliche“ Anonymisierung bzw. Pseudonymisierung die<br />
Daten nicht ausreichend schützen kann. Um dieses Problem zu lösen, wird<br />
auf dem Konzept der k-Anonymität aufgesetzt. Die zusätzliche Sicherheit, die<br />
die k-Anonymität bietet, wird durch eine Abwandlung bzw. Verallgemeinerung<br />
der Daten erreicht, sodass pro Datensatz zumindest k−1 weitere<br />
Datensätze vorhanden sind, die hinsichtlich ihrer potentiell<br />
personenidentifizierenden Merkmale (z.B.: PLZ, Geburtsdatum, Beruf,…)<br />
nicht voneinander unterscheidbar sind, womit eine eindeutige Identifizierung<br />
einer Person weitgehend ausgeschlossen ist. Zusätzlich wird auf<br />
verschiedene Algorithmen zur k-Anonymisierung, Brauchbarkeit k-<br />
anonymisierter Daten, Laufzeitverhalten und Metriken zur Bewertung k-<br />
anonymisierter Daten eingegangen. Weiters wird die Umsetzung eines<br />
Werkzeuges zum Generieren und Exportieren k-anonymer Daten als<br />
Erweiterung des Studiensystems „ArchiMed“ vorgestellt. Die Kriterien, die<br />
zur Auswahl des zugrunde liegenden k-Anonymisierungsalgorithmus geführt<br />
haben, werden ebenso erläutert wie die Funktionsweise der verwendeten<br />
Methode. Die Beschreibung eines Exportvorgangs mittels des entwickelten<br />
Werkzeuges anhand eines konkreten Beispiels bildet den Abschluss der<br />
Arbeit.
Stefan Jud<br />
Sicherheitsanforderungen an webbasierte Portale der elektronischen<br />
Gesundheitsakte<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Georg Duftschmid<br />
Abstrakt: Das moderne Gesundheitswesen ist ohne Informationstechnologie<br />
kaum noch vorstellbar. Die Vernetzung der Einrichtungen wird weiter<br />
zunehmen und bringt eine Trendwende: Die bisher praktizierte<br />
institutionszentrierte Datenspeicherung wird durch eine patientenzentrierte<br />
ersetzt. Nicht mehr die Anforderungen eines Krankenhauses stehen im<br />
Mittelpunkt der Datenverarbeitung, sondern der Patient. Durch eine<br />
elektronische lebensbegleitende Gesundheitsakte sollen die Qualität der<br />
Versorgung verbessert und Kosten gespart werden. Jeder Bürger wird<br />
mittels Webportal auf seine persönliche Patientenakte über das Internet<br />
zugreifen können. Webbasierte elektronische Patientenakten stellen einen<br />
großen Fortschritt in der gemeinschaftlichen Behandlung von Patienten dar.<br />
Gleichzeitig darf aber die Sorge der Benutzer um die Sicherheit ihrer<br />
medizinischen Daten nicht außer Acht gelassen werden. Nur wenn es<br />
gelingt, den Patienten ein sicheres System zur Verfügung zu stellen, wird<br />
dieses auch angenommen und zu einem Erfolg werden. Für die Webportale<br />
gilt es daher umfassende Sicherheitsanforderungen zu definieren, um einen<br />
langfristigen, zuverlässigen und sicheren Systembetrieb gewährleisten zu<br />
können und die Sorge der Menschen um die Sicherheit ihrer medizinischen<br />
Daten zu zerstreuen. Diese Diplomarbeit stellt sich dieser<br />
Herausforderung.Als Methode wird das Referenzmodell <strong>für</strong> das taktische<br />
Management von Informationssystemen in Krankenhaus und<br />
Gesundheitswesen von Ammenwerth und Haux gewählt. In drei aufeinander<br />
aufbauenden Phasen wird zunächst eine Systemanalyse von bereits<br />
vorhandenen experimentellen elektronischen Gesundheitsakten hinsichtlich<br />
der umgesetzten Sicherheitsfunktionalität vorgenommen und deren Starkund<br />
Schwachstellen werden herausgearbeitet. In der zweiten Phase, der<br />
Systembewertung, werden die untersuchten Systeme miteinander verglichen<br />
und Optimierungsmöglichkeiten gesucht. In der abschließenden Phase der<br />
Systemspezifikation wird, aufbauend auf den Erkenntnissen der<br />
Systemanalyse und -bewertung und untermauert durch eine umfassende<br />
Literatursuche, ein Katalog von Sicherheitsanforderungen aufgestellt, der<br />
von webbasierten Portalen der elektronischen Gesundheitsakte erfüllt<br />
werden sollte. Die Anforderungen werden nach Bereichen gegliedert<br />
übersichtlich dargestellt. Für vertiefende Informationen sind zusätzliche<br />
Quellenangaben angegeben. Es zeigt sich, dass die Sicherheit von<br />
Webapplikationen nicht als isoliertes Problem betrachtet werden darf,<br />
sondern dass das gesamte Umfeld mit einbezogen werden muss. Neben<br />
den üblichen technischen Anforderungen sind das vor allem<br />
organisatorische Maßnahmen, die unternehmensweit umgesetzt werden<br />
müssen sowie verschiedene bauliche Maßnahmen. Auch die Benutzer<br />
müssen in das Sicherheitskonzept mit einbezogen werden und entsprechend<br />
<strong>für</strong> das Thema sensibilisiert werden.<br />
Philipp Ruisinger<br />
Methoden des CBT in der medizinischen Aus- und Weiterbildung<br />
Studium: Masterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Ernst Schuster<br />
Marcus Vitek<br />
FuzzyDBSexpert – Webbasierte Entscheidungsunterstützung zur Auswahl<br />
von Parkinson-Patienten <strong>für</strong> die Tiefe Hirnstimulation<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Klaus-Peter Adlassnig<br />
Abstrakt: Die Parkinson’sche Krankheit ist eine progressive, neurologische<br />
Krankheit, welche durch die Degeneration von Dopamin-produzierenden<br />
Neuronen entsteht. Die Behandlung dieser Krankheit beschränkt sich<br />
derzeit auf eine Dopamin-Ersatz-Therapie und eine Anzahl von<br />
Begleittherapien – Heilung ist derzeit nicht möglich. Damit werden die<br />
Kardinalsymptome, wie Ruhetremor, Rigidität und Bradykinesie gelindert.<br />
Mit der Zeit treten Langzeit-Nebenwirkungen der medikamentösen Therapie<br />
auf, wie zum Beispiel motorische Fluktuationen und Dyskinesien. Nur ein<br />
neurochirurgischer Eingriff kann die sonst inakzeptablen Nebenwirkungen<br />
mindern. Eine der möglichen Interventionen stellt die Tiefe Hirnstimulation<br />
dar. Die Indikation oder Kontraindikation der Operation <strong>für</strong> die Tiefe<br />
Hirnstimulation hängt von (a) dem bisherigen Erfolg der medikamentösen<br />
Therapie, (b) den Symptomen und Zeichen, welche sich in naher<br />
Vergangenheit gezeigt haben, (c) der subjektiven Lebensqualität des<br />
Patienten und (d) der Prognose des zu erwartenden Verlaufs der Krankheit<br />
ab. Aus diesem Grund wurde ein webbasiertes,<br />
entscheidungsunterstützendes System <strong>für</strong> Ärzte, welche nicht Experten auf<br />
diesem Gebiet sind, und Patienten und deren Verwandte geschaffen,<br />
welches auf einer Wissensbasis mit dem neuesten Stand des medizinischen<br />
Konsensus in dieser Domäne basiert. Das System, FuzzyDBSexpert<br />
genannt, besteht aus fünf Komponenten: (1) der Datenbank, welche die<br />
medizinischen Daten der Patienten enthält, welche mittels (2) dem<br />
Benutzerinterface – dargestellt via HTTP über das Internet –, welches die<br />
Unified Parkinson’s Disease Rating Scale (UPDRS), die derzeit am häufigsten<br />
benutzte Skala zur Bewertung der Einschränkungen der Patienten durch die<br />
Parkinson’sche Krankheit, und einem Eingabeformular <strong>für</strong> andere<br />
Patientendaten, (3) einer Wissensbasis, welche Fuzzy-WENN-DANN-Regeln,<br />
eingegeben durch (4) eine Experten-Schnittstelle, gespeichert hat, und (5)<br />
einer Fuzzy-Inferenzmaschine. Die Entwicklung des Systems wurde<br />
97<br />
98
abgeschlossen, weitere Studien über die Usability des Systems und zur<br />
Verfeinerung der Wissensbasis sind notwendig.<br />
Dana Prochazkova<br />
Architekturen der elektronischen, lebensbegleitenden Gesundheitsakte: Ein<br />
Vergleich der Archetypansätze von CEN und HL7 am Beispiel des Konzeptes<br />
"Diabetes"<br />
Studium: Masterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Georg Duftschmid<br />
Abstrakt: In dieser Arbeit werden die Architekturansätze der elektronischen<br />
lebensbegleitenden Gesundheitsakte, CEN prEN 13606 und HL7-CDA,<br />
hinsichtlich ihrer Modellierung sogenannter "Archetypen" miteinander<br />
verglichen. Archetypen dienen dabei der Repräsentation<br />
wiederverwendbarer Domänenkonzepte, die Inhalt einer elektronischen<br />
lebensbegleitenden Gesundheitsakte sein können. Der Vergleich wird anhand<br />
eines praktischen Beispiels durchgeführt, in dem von Patienten privat<br />
gemessene Diabetes-Daten mit Daten, die in einer Diabetesambulanz<br />
erhoben wurden, integriert werden sollen. Ziel des Vergleiches ist es, die<br />
Mächtigkeit und Praktikabilität der Archetyp-Modelle zu analysieren.<br />
Ausgehend von fünf bereits existierenden Archetypen der openEHR-Gruppe<br />
wird mit Hilfe des ebenfalls von openEHR angebotenen Archetyp-Editors ein<br />
weiterer Archetyp erstellt und im Rahmen eines übergreifenden Archetyps<br />
Private Diabetes Data zusammengefügt, wobei letzterer auf dem<br />
Architekturmodell von openEHR aufsetzt. Dieser Archetyp wird dann unter<br />
Anwendung von standardisierten Vorschriften in Archetypen des CEN-<br />
Modells prEN 13606 sowie der HL7-CDA (dort als Template bezeichnet)<br />
transformiert. Das HL7-Template wird anschließend mit dem CEN-Archetyp<br />
verglichen. Dabei wird speziell auf die Klassen und Attribute der Archetypen<br />
beziehungsweise Templates, die in den beiden Modellen unterschiedlich<br />
dargestellt wurden, eingegangen.<br />
UNIVERSITÄT WIEN<br />
Stefan Neuwirth<br />
Ein ADOscore- basiertes Informationssystem zur Unterstützung des<br />
Prozessmanagements im Flugbetrieb der Austrian Airlines<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gerald Quirchmayr<br />
99<br />
100<br />
Dominik Stoettner<br />
Threat Modeling: A Methodology for Assessing the Security Posture of IT<br />
Systems<br />
Studium: Masterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gerald Quirchmayr<br />
Abstrakt: Threat Modeling ist ein prozessorientierter Ansatz bei dem durch<br />
detailliertes Analysieren eines Systems oder Applikation mögliche Gefahren<br />
und Schwachstellen identifiziert werden können. Obwohl verschiedene<br />
Methoden existieren welche diesen Ansatz verfolgen, definiert kaum eine<br />
einen umfangreichen Prozess der sowohl vorbereitende Maßnahmen als<br />
auch abschließende Tätigkeiten beinhaltet. Nichtsdestotrotz stellen diese<br />
Methoden eine wertvolle Grundlage <strong>für</strong> die Erarbeitung der neuen Methode<br />
dar und werden daher im ersten Teil dieser Arbeit evaluiert und ihre<br />
jeweiligen Stärken und Schwächen aufgezeigt. Die Analyse dieser Methoden<br />
dient in Folge als Grundlage <strong>für</strong> die Definition der Ziele der neuen Methode.<br />
Im zweiten Teil der Arbeit wird die neue Methode zusammen mit dem<br />
zugrunde liegenden Prozess detailliert beschrieben. Durch Einbeziehen von<br />
vorbereitende Maßnahmen, einer gründlichen Analyse des System und der<br />
zugehörigen Betriebsumgebung, einer Identifizierung von möglichen<br />
Gefahren und geeigneter Gegenmaßnahmen, einem Risiko-Model, und<br />
angemessener Folge-Aktivitäten kann eine umfangreiche, hochqualitative<br />
Bewertung eines Systems oder Applikation erfolgen. Für jeden Schritt des<br />
definierten Prozesses wurden klare Kriterien in Form von Eintritts-, Austritts-<br />
Anforderungen, Ziele, und zu liefernde Ergebnisse definiert. Um das<br />
Erreichen dieser Kriterien zu unterstützen werden verschieden Ansätze<br />
vorgestellt, die in den jeweiligen Schritten zur Umsetzung der Methode<br />
angewendet werden können. Zusätzlich wird unterstützendes Material im<br />
Anhang zur Verfügung gestellt, um die Methode einfach und übersichtlich zu<br />
halten und dennoch eine umfangreiche Abdeckung der Thematik zu<br />
garantieren.<br />
JOHANNES KEPPLER UNIVERSITÄT LINZ<br />
Dominik Schnitzer<br />
Mirage - High Performance Computational Music Similarity and Automatic<br />
Playlist Generation<br />
Studium: Masterstudium Intelligente Systeme<br />
BetreuerIn: O.Univ.Prof. Dr. Gerhard Widmer<br />
Abstrakt: In großen Musiksammlungen und bei der Arbeit mit groÿen<br />
Mengen von Musikstücken, wird berechenbare Musikähnlichkeit ein immer<br />
wichtiger werdendes Forschungsgebiet. Denn mit einem berechenbaren<br />
Ähnlichkeitsmaß läßt sich Musik zum Beispiel automatisch klassifizieren,
sortieren oder zum automatischen Erstellen von Playlists nutzen. Viele der<br />
aktuell verwendeten Algorithmen zur computerbasierten Berechnung von<br />
Musikähnlichkeit sind leider aber zu rechen- und speicherintensiv, um<br />
tatsächlich breiten Einsatz finden zu können. Diese Arbeit widmet sich jenen<br />
Problemen und schlägt konkret Lösungen vor: MP3 Dateien werden direkt<br />
zur Ähnlichkeitsberechnung verwendet, die Rechenoperationen der<br />
Ähnlichkeitsberechnung drastisch reduziert und geeignete<br />
Speichermethoden vorgeschlagen. Jeder der diskutierten Vorschläge wird<br />
im Zuge der Arbeit auch in einer Programmbibliothek zur<br />
Musikähnlichkeitsberechnung (Mirage) mplementiert. Mirage kann frei aus<br />
dem Internet geladen werden. Die Bibliothek wird zur Demonstration ihrer<br />
Einsatzfähigkeit sowohl in einem Musik Player am PC als Plugin zur<br />
automatischen Playlist-Generierung eingesetzt, als auch zur<br />
Veranschaulichung, wie Musikähnlichkeit tatsächlich auf einem iPod-MP3<br />
Player eingesetzt werden könnte, verwendet. Zur Evaluation wird die<br />
Bibliothek nach Qualitäts- und Performanzkriterien getestet. Es zeigt sich<br />
dabei, dass die vorgeschlagenen Opimierungen keinen nennenswerten<br />
negativen Einfluß auf die Qualität der Ergebnisse haben, gleichzeitig aber<br />
durch den Einsatz der vorgeschlagenen Änderungen sehr beschleunigte<br />
Musikähnlichkeitsberechnung möglich ist.<br />
101<br />
102<br />
I N D E X<br />
AUTORINNEN UND AUTOREN<br />
Achs, Alexander, Institut <strong>für</strong> Rechnergestützte Automation/<br />
Automatisierungssysteme<br />
Akcaglayan, Ali, Institut <strong>für</strong> Wirtschaftsmathematik<br />
Altmann, Bernd, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Anglberger, Robert, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Rajaei Hajiagha, Ali Akbar, Institut <strong>für</strong> Analysis und Scientific Computing<br />
Bader, Markus, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung und<br />
Bildverarbeitung<br />
Baum, Doris, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Bergman, Omri, Institut <strong>für</strong> Managementwissenschaften<br />
Bernhard, Matthias, Institut <strong>für</strong> Computergraphik und<br />
Algorithmen/Computergraphik<br />
Bernthaler, Andreas, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong><br />
und Logik<br />
Binder, Aneta, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und Logik<br />
Binder, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Brandstetter, Andreas, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />
Brauneis, Andreas, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Brein, Christoph, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Breiteneder, Roland, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Brosch, Petra, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Brunnhofer, Leonhard, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />
Bucsics, Thomas, Institut <strong>für</strong> Computergraphik und Algorithmen/Algorithmen<br />
und Datenstrukturen<br />
Büyükkaba, Musa, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
Chalupa, Johannes, Institut <strong>für</strong> Wirtschaftsmathematik<br />
Csordas, Stefan, Institut <strong>für</strong> Wirtschaftsmathematik<br />
Demetz, Markus, Institut <strong>für</strong> Chemische Technologien und Analytik<br />
Dermaku, Artan, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />
Intelligence Group
Deutsch, Tobias, Institut <strong>für</strong> Computertechnik<br />
Dick, Alexander, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Dippelreiter, Birgit, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Drucker, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Dzakic, Emir, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Egger, Christoph, Institut <strong>für</strong> Breitbandkommunikation<br />
Ehrenschwendtner, Franz, Institut <strong>für</strong> Managementwissenschaften<br />
Erven, Hannes, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Eugster, Manuel, Institut <strong>für</strong> Statistik und Wahrscheinlichkeitstheorie<br />
Falschlehner, Reinhard, Institut <strong>für</strong> Managementwissenschaften<br />
Feichter, Stefanie, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
Fellner, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Fenz, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Ferstl, Klemens, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Feuereisel, Peter, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
Gärtner, Markus, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Genta, Wolfgang, Institut <strong>für</strong> Wirtschaftsmathematik<br />
Glos, Gerhard, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />
Gmeiner, Karl, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und Logik<br />
Gross, Roland, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Hadzisalihovic, Anis, Institut <strong>für</strong> Wirtschaftsmathematik<br />
Halwax, Michael, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />
Happenhofer, Marco, Institut <strong>für</strong> Breitbandkommunikation<br />
Henzinger, Gerald, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Hicker, Georg, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Hirschbichler, Michael, Institut <strong>für</strong> Breitbandkommunikation<br />
Hlavec, Peter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Hochreiter, Klaus, Institut <strong>für</strong> Managementwissenschaften<br />
Hübner, Harald, Institut <strong>für</strong> Managementwissenschaften<br />
Huemer, David, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Jakl, Michael, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />
Intelligence Group<br />
Jautz, Alexander, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
103<br />
Jud, Stefan, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
Kall, Andrea, Institut <strong>für</strong> Managementwissenschaften<br />
Karlberger, Christoph, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />
Karner, Arnold, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Kirchler, Jürgen, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Kleber, Florian, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung und<br />
Bildverarbeitung<br />
Knitel, Daniela, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Korenev, Dimitri, Institut <strong>für</strong> Managementwissenschaften<br />
Kotik, Petr, Institut <strong>für</strong> Breitbandkommunikation<br />
Kreutzer, Ulrich, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Krizan, Branislav, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />
Krobath, Karel, Institut <strong>für</strong> Managementwissenschaften<br />
Krywult, Stefan, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />
Kusternig, Michael, Institut <strong>für</strong> Computergraphik und<br />
Algorithmen/Computergraphik<br />
Labenbacher, Arnold, Institut <strong>für</strong> Managementwissenschaften<br />
Laister, David, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Leiner, Bernhard, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />
Lidy, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Löberbauer, Maximilian Alexander, Institut <strong>für</strong> Managementwissenschaften<br />
Loibner, Stefan, Institut <strong>für</strong> Managementwissenschaften<br />
Lojka, Georg, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und Logik<br />
Maquil, Valerie, Institut <strong>für</strong> Gestaltungs- und<br />
Wirkungsforschung/Multidisciplinary Design<br />
Matusek, Florian, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung<br />
und Bildverarbeitung<br />
Matzenberger, Andrea, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Matzner, Wolfgang, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Mayer, Florian, Institut <strong>für</strong> Managementwissenschaften<br />
Mayer, Rudolf, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Mayrhofer, Hannes, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Mazak, Alexandra, Institut <strong>für</strong> Managementwissenschaften<br />
Med, Michael, Institut <strong>für</strong> Computersprachen/Programmiersprachen und<br />
Übersetzerbau<br />
Meyer, Harald, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Interactive<br />
Media Systems<br />
104
Mörz, Michael, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />
Intelligence Group<br />
Moser, Roland, Institut <strong>für</strong> Computersprachen/Programmiersprachen und<br />
Übersetzerbau<br />
Moser, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Mosser, Robert, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Muigg, Philipp, Institut <strong>für</strong> Computergraphik und Algorithmen/Computergraphik<br />
Neuwirth, Stefan, <strong>Universität</strong> <strong>Wien</strong><br />
Ngo Van, Michaela, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Niederbacher, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Osztovits, Martina, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Ottensammer, Michael, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Paukovits, Christian, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />
Peneranda, Jérôme, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Peneranda, Julius, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Petritsch, Helmut, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Pinter, Doris, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Pirkwieser, Sandro, Institut <strong>für</strong> Computergraphik und Algorithmen/Algorithmen<br />
und Datenstrukturen<br />
Platter, Martin, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Preindl, Bastian, Institut <strong>für</strong> Breitbandkommunikation<br />
Prochazkova, Dana, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
Prokop, Hannes, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Embedded Computing<br />
Systems<br />
Rauchberger, Cornelia, Institut <strong>für</strong> Gestaltungs- und<br />
Wirkungsforschung/Multidisciplinary Design<br />
Rauscher, Christian, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Redlingshofer, Leopold, Institut <strong>für</strong> Managementwissenschaften<br />
Redwan-Tujar, Jasmin, Institut <strong>für</strong> Verfahrenstechnik, Umwelttechnik und Techn.<br />
Biowissenschaften<br />
Reichhold, Matthias, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Business Informatics<br />
Reinisch, Christian, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
105<br />
Rerych, Markus, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Rijdt, van de, Sander, Institut <strong>für</strong> Managementwissenschaften<br />
Ritzinger, Christian, Institut <strong>für</strong> Gestaltungs- und<br />
Wirkungsforschung/Multidisciplinary Design<br />
Roiger, Angela, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Ruisinger, Philipp, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
Sabadello, Markus, Institut <strong>für</strong> Computergraphik und<br />
Algorithmen/Computergraphik<br />
Schafhauser, Werner, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />
Intelligence Group<br />
Schauer, Stefan, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Scheiblauer, Claus, Institut <strong>für</strong> Computergraphik und<br />
Algorithmen/Computergraphik<br />
Schernhammer, Felix, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong><br />
und Logik<br />
Schliefnig, Martin, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und<br />
Logik<br />
Sschmidt, David, Institut <strong>für</strong> Chemische Technologien und Analytik<br />
Schmidt, Johannes, Institut <strong>für</strong> Computertechnik<br />
Schnitzer, Dominik, Johannes Kepler <strong>Universität</strong> Linz<br />
Schöbel, Christian, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Schröttner, Robert, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Schüller, Florian, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />
Schuster, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Schusterreiter, Christian, Institut <strong>für</strong> Computersprachen/Programmiersprachen<br />
und Übersetzerbau<br />
Schwärzler, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Schweigl, Sigfried, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />
Intelligence Group<br />
Sedlacek, Tanja, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Seidel, Ingo, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Semturs, Christopher, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />
Intelligence Group<br />
Skopik, Florian, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />
Informatics<br />
Solly, Rita, Institut <strong>für</strong> Managementwissenschaften<br />
Ibiloglu, Recep, Institut <strong>für</strong> Wirtschaftsmathematik<br />
Sommereder, Markus, Institut <strong>für</strong> Breitbandkommunikation<br />
106
Sommerhuber, Jakob, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />
Stangl, Rainer, Institut <strong>für</strong> Breitbandkommunikation<br />
Steiner, Edwin, Institut <strong>für</strong> Computersprachen/Programmiersprachen und<br />
Übersetzerbau<br />
Steinlesberger, Rainer, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Stelzhammer, Thomas, Institut <strong>für</strong> Managementwissenschaften<br />
Stoettner, Dominik, <strong>Universität</strong> <strong>Wien</strong><br />
Stollmayer, Andreas, Institut <strong>für</strong> Managementwissenschaften<br />
Sutor, Stephan, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung und<br />
Bildverarbeitung<br />
Taha, Abdel Aziz, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Tampir, Patrizia, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Thelian, Martin, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />
Thorstensen, Nicolas, Institut <strong>für</strong> Diskrete Mathematik und Geometrie<br />
Trauner, Jürgen, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Trojer, Josef, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />
Trunk, Christoph, Institut <strong>für</strong> Managementwissenschaften<br />
Tschabuschnig, Günther, Institut <strong>für</strong> Analysis und Scientific Computing<br />
Varvaroi, Ramona-Roxana, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Vecera, Roland, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Veigl, Christoph, Instistut "integriert studieren"<br />
Verhounig, Thomas, Institut <strong>für</strong> Rechnergestützte<br />
Automation/Automatisierungssysteme<br />
Vincze, Larissa, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Vitek, Marcus, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />
Wagner, Herfried Karl, Institut <strong>für</strong> Gestaltungs- und<br />
Wirkungsforschung/Multidisciplinary Design<br />
Wallner, Matthias, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
Wegscheider, Iris, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />
Computer Interaction<br />
Weismann, Benedikt, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Business Informatics<br />
Weissensteiner, Arnold, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Business Informatics<br />
Westreicher, Marion, Institut <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />
Umweltplanung<br />
Wihsböck, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Business Informatics<br />
Winkelhofer, Christian, Institut <strong>für</strong> Wirtschaftsmathematik<br />
107<br />
Yang, Un-Il, Institut <strong>für</strong> Informationssysteme/Database and Artificial Intelligence<br />
Group<br />
Zenz, Veronika, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />
und Software Engineering<br />
Zugaj, Andreas, Institut <strong>für</strong> Informationssysteme/Knowledge Based Systems<br />
Zwanzinger, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme/Information und Software Engineering<br />
108
INSTI<strong>TU</strong>TE DER FAKULTÄT FÜR INFORMATIK<br />
I N S T I T U T F Ü R T E C H N I S C H E I N F O R M A T I K .......................... 5<br />
Arbeitsbereich Real Time Systems....................................................... 5<br />
Arbeitsbereich Embedded Computing Systems ...................................... 8<br />
I N S T I T U T F Ü R R E C H N E R G E S T Ü T Z T E A U T O M A T I O N ......... 9<br />
Arbeitsbereich Automatisierungssysteme ............................................. 9<br />
Arbeitsbereich Mustererkennung und Bildverarbeitung......................... 17<br />
I N S T I T U T F Ü R I N F O R M A T I O N S S Y S T E M E ........................... 20<br />
Arbeitsbereich Distributed Systems................................................... 20<br />
Arbeitsbereich Database and Artificial Intelligence ............................... 23<br />
Arbeitsbereich Knowledge Based Systems.......................................... 26<br />
I N S T I T U T F Ü R C O M P U T E R S P R A C H E N ................................. 26<br />
Arbeitsbereich Programmiersprachen und Übersetzerbau .................... 26<br />
Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik ................................ 29<br />
I N S T I T U T F Ü R C O M P U T E R G R A P H I K U N D A L G O R I T H M E N ..... 31<br />
Arbeitsbereich Algorithmen und Datenstrukturen ................................ 31<br />
Arbeitsbereich Computergrafik.......................................................... 32<br />
ANDERE INSTI<strong>TU</strong>TE DER <strong>TU</strong> WIEN<br />
I N S T I T U T „I N T E G R I E R T S T U D I E R E N “ ..................................... 69<br />
INSTI<strong>TU</strong>T FÜR ANALYSIS UND SIENTIFIC COMPUTING 69<br />
INSTI<strong>TU</strong>T FÜR DISKRETE MATHEMATIK UND<br />
G E O M E T R I E .................................................................................. 71<br />
I N S T I T U T F Ü R W I R T S C H A F T S M A T H E M A T I K ...................... 71<br />
INSTI<strong>TU</strong>T FÜR STATISTIK UND<br />
W A H R S C H E I N L I C H K E I T S T H E O R I E ......................................... 74<br />
INSTI<strong>TU</strong>T FÜR CHEMISCHE TECHNOLOGIE UND<br />
A N A L I T I K ...................................................................................... 75<br />
INSTI<strong>TU</strong>T FÜR VERFAHRENSTECHNIK,UMWELTTECHNIK<br />
U N D T E C H N . B I O W I S S E N S C H A F T E N ................................... 76<br />
I N S T I T U T F Ü R F E R T I G U N G S T E C H N I K .................................. 76<br />
INSTI<strong>TU</strong>T FÜR RAUMENTWICKLUNG, INFRASTRUK<strong>TU</strong>R-<br />
U N D U M W E L T P L A N U N G ........................................................... 77<br />
I N S T I T U T F Ü R M A N A G E M E N T W I S S E N S C H A F T E N ............ 77<br />
I N S T I T U T F Ü R B R E I T B A N D K O M M U N I K A T I O N ................... 89<br />
M E D I Z I N I S C H E U N I V E R S I T Ä T W I E N .................................... 94<br />
U N I V E R S I T Ä T W I E N ................................................................... 99<br />
J O H A N N E S K E P P L E R U N I V E R S I T Ä T L I N Z ........................ 100<br />
INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND<br />
W I R K U N G S F O R S C H U N G ........................................................... 34<br />
Arbeitsbereich Multidisciplinary Design .............................................. 34<br />
Arbeitsbereich Human Computer Interaction....................................... 36<br />
INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND INTERAKTIVE<br />
S Y S T E M E ...................................................................................... 43<br />
Arbeitsbereich Information und Software Engineering .......................... 43<br />
Arbeitbereich Interactive Media Systems............................................ 60<br />
Arbeitsbereich Business Informatics .................................................. 61<br />
109<br />
110
KONTAKT<br />
http://www.informatik.tuwien.ac.at<br />
Zentrum <strong>für</strong> Koordination und Kommunikation der<br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Favoritenstraße 9/195<br />
1040 <strong>Wien</strong><br />
[IN:N]<br />
<strong>Informatik</strong>-Netzwerk <strong>für</strong> Absolventinnen und Absolventen der<br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> und andere interessierte Personen<br />
http://inn.tuwien.ac.at<br />
IMPRESSUM<br />
Konzept, Graphische Gestaltung: Dipl.-Ing. Karin Hraby<br />
© 2007 <strong>Technische</strong> <strong>Universität</strong> <strong>Wien</strong><br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>