30.01.2014 Aufrufe

e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...

e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...

e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

e p i l o g<br />

Präsentation der<br />

Diplom- und Masterarbeiten<br />

der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Sommersemester 2007<br />

Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von:<br />

Hauptsponsor


Die <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> präsentiert die Diplom- und Masterarbeiten<br />

des letzten halben Jahres in einer Posterausstellung und ausgewählten<br />

Vorträgen. Ziel der Veranstaltung ist es, einen Einblick in das breite<br />

Spektrum der Themen und Aufgabenstellungen der Abschlussarbeiten an<br />

den verschiedenen Instituten und Arbeitsbereichen zu geben.<br />

Für die beste Diplomarbeit wird von einer Jury aus Professorinnen und<br />

Professoren der <strong>Fakultät</strong> der mit 4.000 € dotierte "Distinguished Young<br />

Alumnus/Alumna"-Award vergeben. Das beste ausgestellte Poster wird<br />

mit dem mit 1.000 € dotierten „Best Poster Award“ ausgezeichnet.<br />

Zusätzlich gibt es <strong>für</strong> Firmen die Möglichkeit, spezielle "Firmenpreise" an<br />

die von der <strong>Fakultät</strong> nominierten Vortragenden zu vergeben.<br />

P R O G R A M M<br />

11. Juni 2007<br />

15:00 Uhr Eröffnung der Posterausstellung<br />

unter Anwesenheit der AutorInnen und BetreuerInnen der ausgestellten<br />

Poster.<br />

16:00 Uhr Vorträge (im HS5)<br />

• Begrüßung und Einleitung<br />

Vizerektor Gerhard Schimak, Dekan Gerald Steinhardt<br />

• Vorträge zu den nominierten Diplomarbeiten<br />

• Gastvortrag: Dipl.-Ing. P. Haunold, Fabasoft<br />

„Vitale Content Governance in Zeiten des Compliance Overkills“<br />

18:00 Uhr Auszeichnung der besten Diplomarbeit und des<br />

besten Poster mit anschließendem Buffet<br />

V O R T R Ä G E<br />

Aus den von den Instituten nominierten Vorträgen wird von einer Jury<br />

(bestehend aus WissenschafterInnen der <strong>Fakultät</strong>) ein/e AbsolventIn als<br />

„Distinguished Young Alumnus/Alumna” der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

ausgezeichnet. Beurteilungskriterien sind dabei die Diplomarbeit sowie<br />

der Vortrag. Darüber hinaus wird auch das beste Poster ausgezeichnet.<br />

Hannes Erven und Georg Hicker: Web-Transaktionen: Erweiterung der<br />

WS-BusinessActivity Spezifikation um WS-BusinessActivity-Initiator und<br />

Implementierung der beiden Protokolle im Open Source-Projekt Apache<br />

Kandula<br />

Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Business<br />

Informatics Group<br />

Thomas Lidy: Evaluation of New Audio Features and Their Utilization in<br />

Novel Music Retrieval Applications<br />

Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme, Information &<br />

Software Engineering Group<br />

Christian Paukovits: Applying Model-Integrated Computing on Time-<br />

Triggered Application Development<br />

Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>, Real Time Systems Group<br />

Werner Schafhauser: New Heuristic Methods for Tree Decompositions<br />

and Generalized Hypertree Decompositions<br />

Institut <strong>für</strong> Informationssysteme, Database and Artificial Intelligence<br />

Group<br />

3<br />

4


D I P L O M A R B E I T E N<br />

INSTI<strong>TU</strong>T FÜR TECHNISCHE INFORMATIK<br />

Arbeitsbereich Real Time Systems<br />

Andreas Brandstetter<br />

Scheduling for the Time-Triggered Ethernet<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof Dr. Hermann Kopetz<br />

the functionality on several hardware modules. Even in small autonomous<br />

systems the predictability of the communication and the synchronization of<br />

all modules is vitally important. This thesis provides a survey of five protocols<br />

that play a major role in the automotive industry and in the domain of realtime<br />

communication: CAN, LIN, Flexray, TTP/C, and TTP/A. The protocols<br />

are compared and analysed regarding their suitability for small autonomous<br />

systems. Following the results of this investigation, TTP/A is ported to the<br />

hardware of the Tinyphoon robot, a research platform for small autonomous<br />

and distributed systems. On the basis of the outcome of the case study<br />

enhancements and adoptions of TTP/A are proposed. To address the<br />

diversity of hardware a general concept of making TTP/A more portable is<br />

elaborated.<br />

Branislav Krizan<br />

A unit-test platform for design tools for fault-tolerant real-time systems<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner<br />

Abstrakt: Auf Grund der zunehmenden Komplexität von Software spielt die<br />

Funktionsfähigkeit von Software eine außerordentlich wichtige Rolle. Die<br />

Funktionsfähigkeit von Software kann durch eine Verbesserung des<br />

Entwicklungsprozesses und der Qualität von Software-Tests erhöht werden.<br />

Die Firma TTTech entwickelt Software-Produkte <strong>für</strong> den Entwurf von<br />

zuverlässigen Echtzeitsystemen, wodurch die Funktionsfähigkeit der<br />

entwickelten Software auf einem hohen Niveau bleibt. Diese Diplomarbeit<br />

beschreibt die Bewertung von Software-Tests, welche die Funktionsfähigkeit<br />

der in Python Plattform entwickelten Software prüfen, und untersucht<br />

insbesondere Testmethoden, Code-Metriken sowie die Implementierung<br />

eines neuen Unit-Test-Frameworks, das zusätzliche Metrikenenthält. Das<br />

neue Unit-Test-Framework, welches das derzeit in Verwendung befindliche<br />

ersetzen soll, stellt zusätzliche Metriken zur Verfügung,welche den<br />

Entwicklern bei der Entwicklung von qualitativ besseren Software-Tests und<br />

Source-Codes behilflich sind. Die Ergebnisse des neuen Unit-Test-Framework<br />

können auch als Input <strong>für</strong> das Qualitätsmanagement verwendet werden.<br />

Stefan Krywult<br />

Real-Time Communication Systems for Small Autonomous Robots<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich, Univ.Ass. Dr. Wilfried<br />

Elmenreich<br />

Abstrakt: Autonomous systems perform complex tasks to analyse and to<br />

react on their environment. One way to handle this complexity is distributing<br />

5<br />

6<br />

Bernhard Leiner<br />

A Partitioning Operating System based on RTAI-LXRT Linux<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />

Abstrakt: Integrierte Systemarchitekturen, die eine Plattform<br />

zusammengesetzt aus validierten Hardware und Softwarekomponenten<br />

bieten, gelten als eine mögliche Lösung <strong>für</strong> die Herausforderung immer<br />

komplexer werdender elektronischer embedded Systeme. Das DECOS<br />

(Dependable Embedded Components and Systems) Projekt, gesponsert von<br />

der europäischen Union, zielt darauf ab, grundlegende Technologien <strong>für</strong> die<br />

Einführung solcher integrierter Architekturen zu entwickeln. Eine solche<br />

Technologie sind partitionierende Betriebssysteme, die die Ausführung von<br />

mehreren Softwarekomponenten auf einem Prozessor ermöglichen und<br />

dabei garantieren, dass keine gegenseitige Beeinflussung zwischen diesen<br />

Komponenten stattfindet. Dies gilt sowohl <strong>für</strong> die zeitliche, als auch <strong>für</strong> die<br />

räumliche Dimension. Diese Arbeit zeigt eine mögliche Implementierung<br />

eines solchen partitionierenden Betriebssystem auf Basis eines RTAI (Real<br />

Time Application Interface) Echtzeit Linux Systems. Eine existierende<br />

Prototyp-Implementierung, durchgeführt im Rahmen des DECOS Projektes,<br />

wird auf Schwächen hinsichtlich Partitionierung untersucht. Um<br />

Informationen über das zeitliche Verhalten zu erhalten wird ein<br />

Kontrollsystem entwickelt, dass periodisch Zeitstempel über ein Netzwerk<br />

an einen Kontrollserver sendet. Zusätzlich werden Prüfsummen über<br />

verschiedene Speicherbereiche berechnet um eine Verletzung der<br />

räumlichen Partitionierung festzustellen. Das Ausführeren mehrerer<br />

Testfälle zeigt einige Lücken in der Partitionierung auf. Größtenteils werden<br />

diese durch die zu großzügige Verfügbarkeit von Funktionalität in der<br />

Schnittstelle <strong>für</strong> die Partitionsprozesse verursacht. Um diese Funktionalität<br />

einzuschränken wird ein Linux-Kernel Modul entwickelt. Sobald dieses<br />

geladen ist, haben Partitionsprozesse keinen Zugang zu Linux<br />

Systemaufrufen mehr und sind außerdem auf eine kleine Teilmenge der RTAI<br />

Funktionen beschränkt. Diese Teilmenge wird ihnen durch eine neue


Schnittstelle zur Verfügung gestellt die weiters einen zusätzlichen Signatur-<br />

Parameter <strong>für</strong> alle Funktionsaufrufe verlangt. Dieser wird verwendet um eine<br />

einfache Authentifizierung von Prozessen durchzuführen die auf eine<br />

Ressource zugreifen.<br />

Christian Paukovits<br />

Applying Model-Integrated Computing on Time-Triggered Application<br />

Development<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />

Abstrakt: Designing and implementing a distributed embedded real-time<br />

system is a challenging task. A possible approach to cope with the<br />

complexity is to employ tools in the design and implementation process, that<br />

relieve the designer from lower level issues like matching system<br />

parameters and determining communication message schedules. This talk<br />

presents a variation of the model-based tool suite Generic Modeling<br />

Environment (GME) for the time-triggered real-time communication system<br />

TTP/A. The tool builds on the Generic Modeling Environment (GME) an<br />

integrated modelling tool that supports a meta-level design technology. Due<br />

to the generic nature of the tool suite, the work presented in this thesis also<br />

applies, in general, to other real-time communication systems with minor<br />

modifications. Besides this, this work presents a comprehensive definition of<br />

the conceptual model of TTP/A applications, which makes up the major<br />

theoretical part.<br />

Florian Schüller<br />

Diagnosis of CAN-based Legacy Applications in the Time-Triggered<br />

Architecture<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />

strenge Zeitvorgaben in der Entwicklung und stetig zunehmende<br />

Systemkomplexität ist die Industrie gezwungen, Möglichkeiten zu schaffen,<br />

um eine Aufwandsreduktion in der Entwicklung derartiger Systeme<br />

herbeizuführen. Diese Magisterarbeit stellt eine Entwicklungsstrategie <strong>für</strong><br />

sicherheitskritische Echtzeitsysteme vor, die auf Basis der<br />

Anforderungsspezifikation das Wiederverwendungspotenzial des<br />

Systemverhaltens bestimmt. Die Kombination plattformorientierte Aspekte<br />

der „Model-driven Architecture (MDA)“ mit sicherheitskritischen<br />

Entwicklungskonzepten des RTCA/DO-178B resultiert in einer<br />

Wiederverwendungsstrategie <strong>für</strong> Anforderungen, welche ein<br />

Systemverhalten in vier verschiedene Klassifikationsfenster aufteilt. Die<br />

Zuteilung einer Anforderung zu dem jeweiligen Klassifikationsfenster erfolgt<br />

durch eine plattformorientierte Analyse der Anforderungseigenschaften,<br />

welche in natürlicher Sprache abgefasst sind. Jede dieser<br />

Anforderungseigenschaften ist einer Plattformschicht des Echtzeitsystems<br />

zugeteilt. Diese Plattformschicht spiegelt einen frei editierbaren,<br />

wiederverwendbaren Bereich innerhalb des Systemverhaltens des<br />

Echtzeitsystems wieder. Zusätzlich wird durch diese Schicht der<br />

Klassifikationsbereich innerhalb der selben technischen Domäne bestimmt.<br />

Die praktische Relevanz der in dieser Arbeit vorgestellten<br />

Wiederverwendungsstrategie wurde am Beispiel TTP-OS, einem<br />

sicherheitskritischen, fehlertoleranten Echtzeitbetriebssystem gemäß<br />

Sicherheitsstufe A in RTCA/DO-178B, evaluiert. Die Verwendung natürlicher<br />

Sprache als Spezifikationsinstrument <strong>für</strong> sicherheitskritische Anforderungen<br />

impliziert informelle Richtlinien, die zur korrekten Erfassung des<br />

Wiederverwendungspotenzials des Systemverhaltens beitragen. So spricht<br />

man von einem wiederverwendbaren Systemverhalten, wenn möglichst viele<br />

Anforderungen des Echtzeitsystems sich nach Anwendung des<br />

Klassifikationsmusters in den plattformunabhängigen Klassifikationsfenstern<br />

befinden. Die Abänderung von plattformspezifischen in plattformunabhängige<br />

Anforderungen impliziert zusätzlich eine Herangehensweise, welche es<br />

ermöglicht Anforderungsspezifikationen <strong>für</strong> sicherheitskritische<br />

Echtzeitsysteme wiederverwendbar zu entwickeln.<br />

Arbeitsbereich Embedded Computing Systems<br />

Josef Trojer<br />

Requirement Classification of Dependable Real-Time Systems<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Puschner<br />

Abstrakt: Heutzutage erfordert die Entwicklung sicherheitskritischer<br />

Systeme zeitaufwendige und kostenintensive Zertifizierungsaktivitäten<br />

basierend auf branchenspezifischen Sicherheitsstandards. Verschärft durch<br />

7<br />

8<br />

Hannes Prokop<br />

Reconfigurable Hardware Implementation of Polynomial Arithmetic over the<br />

Finite Field GF(3)<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />

Abstrakt: Diese Masterarbeit beschreibt die Entwicklung eines kombinierten<br />

Hardware/Software Systems zur Beschleunigung von arithmetischen<br />

Operationen über dem endlichen Körper GF(3). Die ersten Kapitel geben<br />

eine Einführung in die Bedeutung endlicher Körper im Allgemeinen und des


endlichen Körpers mit drei Elementen GF(3) im Speziellen. Für digitale<br />

Schaltungen geeignete Darstellungsformen werden vorgestellt und mögliche<br />

Anwendungsgebiete beleuchtet. Ausgehend von einer vorhandenen<br />

Software-Implementierung sowie Publikationen über Algorithmen und<br />

Datenrepräsentationen wurde ein dreiteiliges System implementiert. Ein<br />

Hardwarebeschleuniger, modifizierte Software und ein Gerätetreiber der<br />

Hard- und Software verbindet. Der Hardwarebeschleuniger, der mit Hilfe der<br />

Hardwarebeschreibungssprache VHDL entwickelt wurde, bildet die<br />

Funktionalität einer existierenden Softwareroutine als digitale Schaltung ab.<br />

Implementiert mittels rekonfigurierbarer Logik in der Gestalt eines Field<br />

Programmable Gate Array (FPGA), bietet der Beschleuniger sowohl hohe<br />

Performance als auch effiziente Ressourcennutzung. Die Anbindung an das<br />

Hostsystem erfolgt mittels einer PCI Steckkarte. Der Softwareteil der<br />

Lösung basiert auf einer vorhandenen Implementierung, die erweitert wurde<br />

um eine Nutzung des Hardwarebeschleunigers zu ermöglichen. Mit Hilfe<br />

eines spezialisierten Entwicklungstools wurde ein Gerätetreiber erstellt, der<br />

den Hardwarebeschleuniger ansteuert und ihn so in einer Desktop- oder<br />

Serverumgebung nutzbar macht. Das Zusammenspiel aller drei<br />

Komponenten wurde in umfangreichen Performancemessungen evaluiert<br />

und die gewonnenen Resultate mit anderen Software- und<br />

Hardwareimplementierungen verglichen. Die Bandbreite des PCI Bus wurde<br />

als die größte limitierende Rahmenbedingung identifiziert und es werden<br />

Lösungen präsentiert, wie diese Beschränkung bei künftigen Entwicklungen<br />

umgangen werden könnte. Das Ende dieser Arbeit bildet ein Kapitel mit<br />

möglichen Verbesserungen und weiterführenden Themen.<br />

INSTI<strong>TU</strong>T FÜR RECHNERGESTÜTZTE AUTOMATION<br />

Arbeitsbereich Automatisierungssysteme<br />

Alexander Achs<br />

Innovative Anwendungsszenarien von Radio Frequency Identification im<br />

Kontext von ERP Systemen<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Roland Breiteneder<br />

Entwurf und Entwicklung eines Code-Review-Moduls zur Unterstützung des<br />

Review-Prozesses in integrierten Entwicklungsumgebungen<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Code-Reviews sind weit verbreitete Aktivitäten des Software-<br />

Qualitätsmanagements. Obwohl sie sich als sehr effektive Methoden zur<br />

Fehlerreduzierung bewährt haben, weisen diese manuellen,<br />

dokumentbasierten und zeitintensiven Prüfverfahren in der Praxis Defizite<br />

auf. Im Besonderen wird in dieser Arbeit auf Probleme eingegangen, die auf<br />

Defizite einer unzureichenden Planung und fehlender Standardisierung, auf<br />

Defizite bei der Verwaltung und Erstellung von Problemberichten und Review-<br />

Dokumenten sowie auf Defizite bei der Messung des Review-Prozesses,<br />

zurückzuführen sind. Um diese Defizite zu reduzieren und damit die<br />

Effektivität der Reviews zu erhöhen, wird in dieser Arbeit ein Lösungskonzept<br />

<strong>für</strong> ein Code-Review-Modul, das den Review-Prozess in integrierten<br />

Entwicklungsumgebungen unterstützt, präsentiert. Integrierte<br />

Entwicklungsumgebungen stellen hilfreiche Werkzeuge, als Komponenten<br />

unter einer Benutzeroberfläche vereint, zur Verfügung. Mit Hilfe dieser<br />

Werkzeuge, einem definierten Review-Prozess und verschiedener Rollen,<br />

basierend auf dem IEEE-Standard 1028-1997 <strong>für</strong> Software-Reviews, soll<br />

eine optimale Unterstützung gewährleistet und die identifizierten Defizite<br />

reduziert werden. Das Konzept sieht neben einer zentralen Verwaltung von<br />

Review-Daten auch die Möglichkeit der automatisierten Erstellung von<br />

Review-Dokumenten vor. Zusätzlich wird die Analyse des Review-Prozesses<br />

durch das Modul unterstützt, um Aussagen über die Effektivität der Reviews<br />

treffen zu können. Diese werden mit Hilfe einiger von Barnard et<br />

al.vorgeschlagenen Metriken ermittelt. Basierend auf diesem<br />

Lösungskonzept wird anschließend eine prototypische Implementierung<br />

präsentiert. Hier<strong>für</strong> wurden sämtliche Anforderungen des Konzepts als<br />

Erweiterung <strong>für</strong> die integrierte Entwicklungsumgebung Eclipse umgesetzt.<br />

Zusammenfassend deuten entwicklungsbegleitende Ad-hoc-Evaluierungen auf<br />

eine potentielle Steigerung der Effektivität bei der Durchführung von Reviews<br />

hin. Eine kontrollierte empirische Studie, über das tatsächliche Ausmaß der<br />

Effektivität des Review- Prozesses, ist <strong>für</strong> die Zukunft geplant.<br />

Robert Anglberger<br />

Umsetzungsgrade organisatorischer, technischer und sicherheitsrelevanter<br />

Anforderungen an kommunale Informationssysteme - Fallbeispiel einer<br />

behördenübergreifenden Plattform<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Jürgen Kirchler<br />

Konzeptstudie E-Service "Antrag auf Baukonzession" am Fallbeispiel einer<br />

Südtiroler Kommune<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

9<br />

10


Andrea Matzenberger<br />

Konzeption einer allgemein verwendbaren Architektur <strong>für</strong> elektronische<br />

Distanzwahlen<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Im Rahmen dieser Arbeit sollen elektronische Distanzwahlen, d.h.<br />

Wahlen, bei denen die Abstimmung vom eigenen Heimrechner aus<br />

durchgeführt wird, vom technischen Standpunkt aus betrachtet werden.<br />

Derzeit verfügen laut Statistik Austria rund 52 Prozent der Österreicher<br />

über einen Internetzugang, sodass der Umsetzung elektronischer Wahlen<br />

heutzutage große Bedeutung zukommt. In vielen Ländern wurden bereits<br />

Pilotprojekte im E-Voting Bereich durchgeführt. Bei der Entwicklung dieser<br />

Projekte wurde allerdings in den wenigsten Fällen ein internationaler<br />

Standard eingehalten, wodurch die Interoperabilität zwischen den Systemen<br />

kaum bis gar nicht vorhanden ist. Derzeit existiert mit der Electronic Markup<br />

Language von OASIS ein „Quasi-Standard“, der die Daten- und<br />

Nachrichtenformate elektronischer Wahlsysteme beschreibt. Aufbauend auf<br />

diesem Standard werden in dieser Arbeit zwei Architekturen <strong>für</strong><br />

elektronische Wahlsysteme entwickelt. Dadurch soll die Austauschbarkeit<br />

der Komponenten eines Wahlsystems ermöglicht werden. Eine weitere<br />

Grundlage <strong>für</strong> diese Architekturen sind so genannte E-Voting-Schemata.<br />

Hauptziel jedes E-Voting Schemas ist es, die Wahlentscheidung eines<br />

Wählers als unantastbares Geheimnis zu bewahren. Jeder der beiden<br />

vorgestellten Architekturen liegt ein anderes Schema zugrunde, wobei die<br />

erste auf Homomorphismen basiert. Charakterisierend da<strong>für</strong> ist, dass nicht<br />

jede Stimme einzeln entschlüsselt werden muss, sondern nur das<br />

Gesamtergebnis. Die zweite Architektur basiert hingegen auf blinden<br />

Signaturen. Dabei signiert die authentifizierende Stelle die verblendete<br />

Stimme eines Wählers, ohne deren Inhalt lesen zu können. Beide Varianten<br />

gewährleisten auf sehr unterschiedliche Weise die Anonymität des Wählers.<br />

Zusammengefasst ist das Ziel dieser Arbeit die Erstellung einer offenen,<br />

austauschbaren Architektur durch Anwendung bestehender Schemata in<br />

Kombination mit der Electronic Markup Language als Nachrichtenstandard.<br />

Wolfgang Matzner<br />

Die Systemarchitektur flexibler und zuverlässiger Börseninformationsportale<br />

am Beispiel eines großen Anbieters von Finanz- und<br />

Börseninformationssystemen<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Finanzmärkte stellen ein komplexes Feld mit besonders hohen<br />

Anforderungen an ITSysteme hinsichtlich Flexibilität und Verläßlichkeit dar,<br />

wobei neue Dienste und Technologien in diesem Bereich frühzeitig eingesetzt<br />

11<br />

12<br />

werden. Das rasante Wachstum von kommunikationstechnologien ebenso<br />

wie der Finanzmärkte bedingt eine kontinuierliche Steigerung der<br />

Anforderungen an die Architektur solcher Portale. Somit bringt die Analyse<br />

eines in der Praxis bewährten Systems neue Erkenntnisse <strong>für</strong><br />

unterschiedliche wissenschaftliche Bereiche. Die vorliegende Arbeit<br />

beschäftigt sich mit der Analyse und Verallgemeinerung der Architektur von<br />

Börseninformationsportalen. Als Grundlage <strong>für</strong> diese Untersuchungen<br />

wurden die realisierten Portale eines großen Anbieters herangezogen.<br />

Anhand dieses Fallbeispiels wurden neben der Ableitung des allgemeinen<br />

Architekturmodells zusätzlich die wesentlichen Qualitätseigenschaften, die<br />

Börseninformationsportale heute aufweisen müssen, identifiziert.<br />

Börseninformationsportale sind eine spezielle Form von Web- oder<br />

Internetportalen, die Informationen rund um das Thema Börse bündeln.<br />

Neben reinen Kursinformationen werden dabei auch noch Finanz- und<br />

Wirtschaftsnachrichten sowie Zusammenstellungen von<br />

Unternehmenskennzahlen und –daten angeboten. Der Hauptzweck solcher<br />

Portale ist die Bereitstellung der <strong>für</strong> die Wertpapieranalyse notwendigen<br />

Daten, wobei hier zwischen der Fundamentalanalyse und der <strong>Technische</strong>n<br />

Analyse unterschieden wird.Im Rahmen der vorliegenden Arbeit wurden<br />

nach der Identifikation der wesentlichen Qualitätseigenschaften eines<br />

konkreten Börseninformationsportals eine allgemeine Hardware- und<br />

Softwarearchitektur abgeleitet sowie eine Detailanalyse der wichtigsten<br />

Spezialkomponenten durchgeführt. Kernstück der Architektur ist ein frei<br />

skalierbares, verteiltes System zur Kursdatenspeicherung. Von zentraler<br />

Bedeutung ist weiters der Einsatz von Middleware und einer eigenen<br />

Komponente zur Kursgrafikerzeugung, die in der vorliegenden Arbeit<br />

detailliert analysiert werden. Die Entwurfsentscheidungen werden auf Basis<br />

der identifizierten Qualitätseigenschaften argumentiert.<br />

Michaela Ngo Van<br />

Evaluierung von Texteingabemethoden <strong>für</strong> Game Controller: ABC vs: Multi-<br />

Tap Selection Keyboard<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: In dieser Arbeit werden die Texteingabemethoden ABC und Multi-<br />

Tap unter Anwendung eines Game Controllers miteinander verglichen. Zu<br />

zeigen ist, welche der beiden Methoden bessere Ergebnisse hinsichtlich der<br />

Eingabegeschwindigkeit, der Lernrate sowie der Fehlerrate liefert. Die<br />

Ergebnisse dieser Studie wurden anhand eines Experiments mit Hilfe von<br />

zehn freiwilligen Testteilnehmern ermittelt. Die Texteingabe auf Basis der<br />

ABC-Methode erfolgt durch Ansteuern des gewünschten Buchstaben auf<br />

einem Selection Keyboard. Für jedes einzelne Schriftzeichen steht ein<br />

eigenes Tastenfeld zur Verfügung. Bei Multi-Tap hingegen sind grundsätzlich<br />

weniger Tasten als Buchstaben vorhanden, es ist daher eine<br />

Mehrfachbelegung der einzelnen Tasten erforderlich. Nachdem man bei


dieser Methode eine Buchstabengruppe ansteuert, wird das verlangte<br />

Schriftzeichen abhängig von der Position des gewünschten Buchstaben auf<br />

dem Tastenfeld durch ein- oder mehrmaliges Drücken einer Controllertaste<br />

eingegeben. Die Ergebnisse dieser Studie zeigen deutlich, dass sich <strong>für</strong> die<br />

Eingabe mit einem Game Controller das ABC Selection Keyboard besser<br />

eignet als das Multi Tap Selection Keyboard. Im Laufe von 15 Testsessions<br />

je Methode und 20 gewerteten Textphrasen pro Session wurden<br />

hinsichtlich der Eingabegeschwindigkeit Mittelwerte von 10,29 WPM (SD =<br />

1,16) <strong>für</strong> ABC und 8,46 WPM (SD = 1) <strong>für</strong> Multi-Tap berechnet. Über die<br />

gesamten Sessions beobachtet war ABC somit um 21,63 % schneller als<br />

Multi-Tap. Die Fehlerraten änderten sich bei den im Experiment verwendeten<br />

Methoden im Verlauf der Sessions nur geringfügig. Mit dem ABC Keyboard<br />

wurden jedenfalls weitaus weniger Fehler gemacht als unter Anwendung<br />

von Multi-Tap. Die Total Error Rate betrug bei ABC 4,26 %, bei Multi-Tap<br />

indessen 6,8 %. Aufgrund der weitgehend erfolgten Korrekturen blieben<br />

schlussendlich bei ABC und bei Multi-Tap überhaupt nur 0,28 % (SD =<br />

0,09) bzw. 0,52 % (SD = 0,19) der insgesamt eingegeben Zeichen als<br />

Fehler stehen.<br />

Michael Ottensammer<br />

Analyse und Entwurf einer integrierten baubetrieblichen Controllinglösung<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Die vorherrschende Trennung von operativen Auftragssystemen<br />

und Buchhaltungs- bzw. Kostenrechnungssoftware führt zu einer<br />

Informationsteilung, welche es Anwendern dieser Applikationen schwer<br />

macht, die Kosten- und Auftragssituation eines Unternehmens in ihrer<br />

Gesamtheit entsprechend beurteilen zu können. Es ist Ziel dieser Arbeit, die<br />

Realisierung einer Kopplung von Controlling- und Operativsystem in einer<br />

integrierten Lösung zu zeigen und gleichzeitig die Forderung nach<br />

Übersichtlichkeit und Flexibilität zu erfüllen. Die verursachensgerechte<br />

Zurechnung der in Dienstleistungsbetrieben in hohem Ausmaß vorhandenen<br />

und zunehmenden Fixkosten an die entsprechenden Kostenträger wird dabei<br />

besonders fokussiert. Ermöglicht wird dies unter anderem durch die<br />

Umsetzung variabler Kombinationen unterschiedlicher<br />

Kostenrechnungsarten und der Implementierung aller notwendigen<br />

Funktionalitäten einer Angebots- und Auftragsbearbeitung. Die entwickelte<br />

Lösung verwendet dabei ein Objektmodell, welches Erweiterungen und<br />

Anpassungen an geänderte Anforderungen und Rahmenbedingungen ohne<br />

komplexe und in der Folge schwer wartbare Umgestaltungen der Codebasis<br />

ermöglicht. Im Rahmen dieser Arbeit wird somit klar aufgezeigt, dass eine<br />

vollständige und transparente Abbildung aller mit der Leistung verbundenen<br />

Kosten innerhalb eines Softwaresystems möglich ist. Daraus ergibt sich in<br />

weiterer Folge neben einem gesteigerten Kostenbewusstsein der<br />

Mitarbeiter die Möglichkeit, Kalkulationsansätze durch Nutzung dieses<br />

13<br />

14<br />

Analysetools stetig zu verbessern und somit rasch auf geänderte<br />

Marktsituationen reagieren zu können.<br />

Helmut Petritsch<br />

Understanding and Replaying Network Traffic in Windows XP for Dynamic<br />

Malware Analysis<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Priv.Doz. Dr. Christopher Krügel<br />

Doris Pinter<br />

Phishing und die Kunst der Täuschung Eine empirische Untersuchung zum<br />

Thema Authentizität von Internetseiten<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Phishing nutzt sowohl die technischen als auch die menschlichen<br />

Schwachstellen aus, um dem Opfer die Glaubwürdigkeit der erhaltenen<br />

Email-Nachricht oder den Inhalt einer aufgerufenen Internetseite<br />

vorzutäuschen. Ein Phishing-Angriff besteht klassischerweise aus zwei<br />

Komponenten: einer seriös wirkenden Email und einer betrügerischen<br />

Internetseite, welche beide das Corporate Design des vermeintlichen<br />

Unternehmens imitieren. Gibt das Opfer seine persönlichen<br />

Authentifizierungsdaten preis, kann der Angreifer daraufhin dessen Identität<br />

annehmen und sich finanziell bereichern. Das Hauptziel des empirischen<br />

Teils dieser Arbeit lag in der Erhebung von Merkmalen, an denen Nutzer,<br />

abhängig von ihrer Erfahrung im Internet, eine Webseite auf deren<br />

Authentizität prüfen. Zu diesem Zweck wurde ein Experiment mit 26<br />

Teilnehmern, sieben legalen Internetseiten und 13 selbst erstellten Phishing-<br />

Seiten durchgeführt. Sowohl die weniger versierten Nutzer als auch die<br />

versierten Nutzer verwendeten im Durchschnitt die gleiche Anzahl an<br />

erhobenen Merkmalen, um die Echtheit einer Seite zu eruieren. Die beiden<br />

Gruppen unterschieden sich jedoch in der Art der verwendeten Merkmale.<br />

Weniger versierte Nutzerachteten primär auf die Inhalte einer Internetseite<br />

und berücksichtigtenBrowser spezifische Sicherheitsindikatoren nicht. Bei<br />

den versierten Nutzernhingegen spielten die angezeigten Informationen<br />

eines Browsers, wie beispielsweise der Domainname in der Adressleiste und<br />

das Sicherheits-Symbol in der Statusleiste, eine relevante Rolle in ihrer<br />

Beurteilung. Betrugsversuche mit dem Domainnamen und dem Sicherheits-<br />

Symbol wurden jedoch von beiden Nutzergruppen selten bemerkt. Dies lässt<br />

den Schluss zu, dass Anti-Phishing Lösungen nicht nur peripher und passiv<br />

auf einen Betrug hinweisen, sondern aktiv in die Nutzerhandlung eingreifen<br />

sollten. Weiters ist es nicht ausreichend, den Nutzer auf einen potentiellen<br />

Betrug hinzuweisen, sondern es müssen zusätzlich mögliche Schritte und<br />

Lösungen aufgezeigt werden.


Martin Platter<br />

Analyse eines Groupwaretools <strong>für</strong> verteilte wissenschaftliche<br />

Kooperationsprojekte am Beispiel von Network of Excellences<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Das Ziel eines Exzellenznetzwerks(NoE) ist es, bestehende<br />

Kompetenzzentren in Europa zu vernetzen. Als wichtige Ziele der von der EU<br />

geförderten NoEs wurden eine verbesserte elektronische Kommunikation<br />

und eine gezielte Vernetzung von Aktivitäten zur Förderung des<br />

Wissenstransfers definiert, um die vorhandenen, aber zerstreuten<br />

Kompetenzen in Europa zu bündeln und somit die internationale<br />

Wettbewerbsfähigkeit zu erhöhen. Im Rahmen dieser Arbeit wurde ein<br />

detaillierter Anforderungskatalog an ein Groupware-Tool erstellt, das neben<br />

der Unterst¨utzung der Zusammenarbeit und Kommunikation zwischen<br />

Wissenschaftern auch zu einer signifikanten Verbesserung des<br />

Bewusstseins über und innerhalb des Exzellenznetzwerks, der”Group<br />

Awareness“, und letztendlich zum Herausbilden eines ”Common Grounds“<br />

beiträgt. Um sowohl konkrete funktionale als auch nicht-funktionale<br />

Anforderungen an ein NoE zu erfassen, wurden Interviews innerhalb eines<br />

ausgewählten Exzellenznetzwerkes durchgeführt. Diese identifizierten<br />

Anforderungen dienten als Basis zur Entwicklung eines Prototypen der<br />

Benutzerschnittstelle des vorgeschlagenen Groupwaretools und eines<br />

konkreten problemspezifischen Architekturvorschlages. Das vorgestellte Tool<br />

berücksichtigt neben unterschiedlichen Suchmechanismen (insbesondere die<br />

passive Suche zur automatischen Erkennung von Common Grounds) und<br />

Datenaustausch-Funktionen wesentliche Aspekte wie die Visualisierung von<br />

Organisationsstruktur und Kompetenzen, Einblick in Interaktionen<br />

unterschiedlicher Anwender und den Aufbau einer ”Chain of trust“.<br />

Intellectual Property Rights-Funktionen und eine einfache<br />

Benutzergruppenverwaltung wurden als weitere zentrale Anforderungen an<br />

ein NoE integriert. Als wesentlicher Bestandteil wurde im Rahmen dieser<br />

Arbeit ein ”Information Collector“ identifiziert, der die aktive Analyse<br />

relevanter interner und externer Informationsquellen wie etwa<br />

Kommunikationsthreads oder Suchmaschinen <strong>für</strong> wissenschaftliche Arbeiten<br />

integriert, wobei ein speziell zu entwickelnder Filter vor einem<br />

Informationsüberfluss schützt. Durch dieses Bewusstsein über die<br />

Möglichkeiten und Vorgänge in einem NoE wird zusammenfassend das<br />

Entstehen eines ”Common Grounds“ zwischen den Wissenschaftern<br />

gefördert und eine Grundlage <strong>für</strong> neue Kooperationen geschaffen.<br />

15<br />

16<br />

Christian Reinisch<br />

Wireless Communication in Home and Building Automation<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Abstrakt: Den Vorteilen des Einsatzes von drahtlosen Netzwerken in der<br />

Heim- und Gebäudeautomation stehen einige technologische<br />

Herausforderungen gegenüber. Da heute fast ausschließlich<br />

kabelgebundene Systeme eingesetzt werden, wird in näherer Zukunft<br />

hauptsächlich die Erneuerung und Aufwertung dieser Systeme mit<br />

Funktechnologie von Interesse sein. Die aus der Kombination resultierenden<br />

Hybrid-Systeme erfordern umfassendes Wissen des Systemdesigners aus<br />

beiden zugrundliegenden Technologien. Die Diplomarbeit fasst die<br />

Anforderungen und Probleme des Einsatzes von Funknetzwerken in der<br />

Heim- und Gebäudeautomation zusammen. Im Anschluss werden wichtige<br />

Funkprotokolle diskutiert und gegenübergestellt. Ausgehend von den<br />

vorgestellten Protokollen werden zwei Designkonzepte ausgearbeitet, die<br />

eine mögliche Integration des ZigBee Protokolls in ein bestehendes KNX<br />

Automatisierungssystem zeigen. Das Design der dazu nötigen Tunneling-<br />

Geräte ist konfigurationsfrei und erlaubt darüberhinaus die schnelle<br />

Integration von Security Methoden. Obwohl voll funktionsfähig, arbeiten die<br />

vorgestellten Tunneling-Geräte nicht optimal im Hinblick auf den Nachrichten<br />

Overhead, welcher mit Hilfe von Multicast Kommunikationsschemata<br />

erheblich reduziert werden könnte. Aus diesem Grund werden verschiedene<br />

Multicast Protokolle analysiert und verglichen. Zusätzlich werden die<br />

besprochenen Protokolle in eine neu erstellte Klassifizierung eingeteilt. Zum<br />

Abschluss wird ein spezieller Multicast Algorithmus, nämlich „Dynamic Core<br />

Multicast Protocol“ dahingehend modifiziert, so dass er <strong>für</strong> den Einsatz in<br />

einem ZigBee Netzwerk geeignet ist.<br />

Markus Rerych<br />

Analyse von bestehenden Mobile Guide Systemen unter besonderer<br />

Berücksichtigung ausgewählter Designkriterien und Beschreibung eines<br />

Gesamtsystems<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Die steigende Leistungsfähigkeit mobiler Geräte, wie Handy,<br />

Smartphone oder PDA einerseits, Technologien wie Internet, Mobilfunk oder<br />

satellitengestützte Ortungstechnologien andererseits, schaffen die<br />

Grundlagen <strong>für</strong> völlig neuartige mobile Anwendungen. Eine davon sind<br />

tragbare Reise- bzw. Touristenführer. Nach einer kurzen Einführung in das<br />

User Interface Design <strong>für</strong> mobile Geräte werden einige Forschungsprojekte<br />

bzw. bereits am Markt befindliche Tourismus-Informationssysteme<br />

vorgestellt und analysiert. Weiters werden Eigenschaften beschrieben, die


<strong>für</strong> deren Anwenderfreundlichkeit von besonderer Bedeutung sind. Bei der<br />

Entwicklung von Tourismus-Informationssystemen kommt der<br />

Personalisierung - der Anpassung an den jeweiligen User-Bedarf wie etwa<br />

besonderen Vorstellungen, Interessen und Fähigkeiten des Anwenders -<br />

besonders große Bedeutung zu. Es wird beschrieben, wie man diese<br />

Informationen erhält und auf welche Weise sie in der Anwendung<br />

Berücksichtigung finden. Positionierung dient der Ermittlung des eigenen<br />

Standortes. Informationen sind <strong>für</strong> den Benutzer einer mobilen Anwendung<br />

nur dann sinnvoll, wenn sie genau am richtigen Ort und zur richtigen Zeit<br />

angeboten werden. Verschiedene Lokalisierungstechnologien - sowohl im<br />

Inneren von Gebäuden als auch außerhalb - werden beschrieben. Die<br />

Präsentation betrifft insbesondere die möglichst intuitive und einfache<br />

Bedienbarkeit und die optimale visuelle bzw. auditive Aufbereitung der<br />

Information. Verschiedene Technologien und innovative Konzepte, die drei<br />

genannten Themenbereiche betreffend, werden vorgestellt, miteinander<br />

verglichen und auf ihre praktische Einsatzfähigkeit hin überprüft.<br />

Abschließend wird ein mögliches Gesamtsystem „Mobiler Reiseführer“<br />

präsentiert.<br />

Christian Schöbel<br />

Effiziente Software-Verteilung in Schulinfrastrukturen <strong>für</strong><br />

computerunterstützte Ausbildung auf Basis eines Reliable Multicast<br />

Protocols<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Thomas Verhounig<br />

Virtual Currencies als Verfahren zur Vermeidung der Sicherheitslücke<br />

egoistisches Verhalten in mobilen Ad-hoc-Netzwerken<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Objekterkennung, die Lokalisierung der eigenen Position und das<br />

Kartographieren eines Raumes sind Problemstellungen, die in der Robotik<br />

durch den Einsatz eines Bildsensors gelöst werden können. Ein Roboter<br />

namens Tinyphoon wurde im Rahmen dieser Diplomarbeit mit einem<br />

Bilderkennungssystem ausgestattet. Es werden Algorithmen und Methoden<br />

präsentiert, die bei der Implementierung dieses Bilderkennungssystems<br />

verwendet wurden, wodurch es dem Roboter ermöglicht wird, an einem<br />

Roboterfussballtunier teilzunehmen. Das Ziel dieser Arbeit ist es, <strong>für</strong> eine<br />

gegebene Hardware optimale Prozeduren zu finden und zu entwickeln, um<br />

3D-Informationen aus aufgenommen Bildern zu extrahieren. Diese 3D-<br />

Informationen bestehen aus Linien im dreidimensionalen Raum und den<br />

Positionsinformationen bekannter erkannter Objekte am Spielfeld wie<br />

Spielball und Tore. Die dazu verwendete Hardware basiert auf einen Dual<br />

Core DSP mit 256 Kbyte Cache und 32 MB SDRAM. Zwei Kameras, wie sie<br />

auch in kommerziellen mobilen Telefonen eingesetzt werden, sind im<br />

Abstand von 30 mm an der Front des Bilderkennungssystems montiert.<br />

Durch die kompakte Bauweise des Roboters ist die Größe des<br />

Bilderkennungssystems auf 75 mm x 75 mm beschränkt. Die Arbeit besteht<br />

aus vier Teilen. Der erste Teil beschäftigt sich mit dem Erkennen von Kanten<br />

und Linien in Bildern. Dabei kommt ein neuer, speziell <strong>für</strong> eingebettete<br />

Systeme optimierter Linienerkennungsalgorithmus zu Einsatz, welcher auf<br />

lokalen und globalen Linienparametern basiert. Ein Feature-Based Stereo<br />

Vision Algorithm wird im zweiten Teil der Arbeit beschrieben. Dieser<br />

verwendet als Features die im ersten Teil extrahierten Kanten und Linien,<br />

um Tiefeninformationen zu berechnen. Der dritte Teil beschäftigt sich mit<br />

einer auf Farben basieren Bildsegmentierung, um Blobs zu detektieren.<br />

Diese Segmentierung sowie die erkannten Kanten und Linien werden im<br />

letzten Teil genutzt, um Objekte und deren Position zu ermitteln. Als<br />

Testumgebung wird ein Roboterfussballspielfeld verwendet, in dem der<br />

Spielball, die Tore, die Roboter sowie die Linien der Bodenmarkierungen<br />

erkannt werden. Sowohl die Tore als auch die Roboter werden anhand ihrer<br />

Farbe erkannt. Des Weiteren wird der Spielball mit Hilfe eines<br />

Kreiserkennungsalgorithmus vermessen. Zudem enthält die<br />

Implementierung eine einfache Rektifizierung. Die vom System erreichte<br />

Bildwiederholrate ist abhängig vom gewählten Bildauschnitt und liegt<br />

zwischen 5 Hz und 11 Hz.<br />

Arbeitsbereich Mustererkennung und Bildverarbeitung<br />

Markus BADER<br />

Feature-Based Real-Time Stereo Vision on a Dual Core DSP with an Object<br />

Detection Algorithm<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

17<br />

18<br />

Florian Kleber<br />

High Resolution Image Scan and Mosaicing<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Robert Sablatnig<br />

Abstrakt: Diese Diplomarbeit stellt ein Verfahren vor, das mit<br />

hochauflösenden digitalen Aufnahmen Bilder von Gemälden oder anderen<br />

großflächigen Objekten mit einer Auflösung von bis zu 33 pixel/mm in<br />

unterschiedlichen Spektralbereichen (IR, VIS) liefert. Die Größe des Objektes


kann dabei bis zu 1.5 m x 1.3 m betragen. Die Gruppe “Kunstgeschichte”<br />

am Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsgruppe <strong>für</strong><br />

Mustererkennung und Bildverarbeitung hat im Rahmen des Projekts<br />

“CASANDRA - Computer Aided Analysis of Underdrawings in Infrared<br />

Reflectograms” zahlreiche Algorithmen zur Analyse von<br />

Untergrundzeichnungen in Gemälden entwickelt. Für die Analyse der<br />

Untergrundzeichnung wird das Gemälde in Segmente unterteilt, und in in<br />

hochauflösenden digitalen Bildern aufgenommen. Für die Bildaufnahmen<br />

müssen zuerst manuell ein Aufnahmebereich und die Größe des<br />

Überlappungsbereiches definiert werden. Ebenfalls vor dem Scan des<br />

Bildobjektes erfolgt die Kalibrierung der Kamera. Diese erlaubt es<br />

geometrische Verzerrungen, die durch das Linsensystem entstehen, zu<br />

korrigieren. Da aufgrund des Alters der Gemälde mit Wölbungen der<br />

Oberfläche zu rechnen ist, wird in einem Aufnahmevorgang ein 3D-Modell<br />

der Oberfläche erstellt, mit dessen Hilfe etwaige Verzerrungen in Bildern<br />

korrigiert werden können. Die Erfassung der Struktur der Oberfläche, sowie<br />

die anschließende Aufnahme aller Teilbilder erfolgt dabei voll automatisch.<br />

Nach der Korrektur werden die Teilbilder automatisiert wieder zu einem<br />

vollständigen Bild zusammengesetzt. Werden mehrere Aufnahmen des<br />

Objektes in unterschiedlichen spektralen Bereichen des Lichts benötigt, so<br />

muss zwischen den Aufnahmen lediglich ein optischer Filter am Objektiv<br />

gewechselt werden. Anhand von entworfenen Testbildern und eines 3D-<br />

Modells wurde die Qualität des Aufnahmesystems bewertet. Dabei wird<br />

einerseits das Mosaicing der Teilbilder und ebenfalls die geometrische<br />

Korrektur von Wölbungen in den einzelnen Bildern bewertet.<br />

Florian Matusek<br />

Shadow Detection in Image Sequences<br />

Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />

BetreuerIn: Univ.Ass.Dr. Martin Kampel<br />

Stephan Sutor<br />

A Mean Shift Based Approach towards Automated Person Tracking<br />

Studium: Masterstudium Computergraphik und Digitale Bildverarbeitung<br />

BetreuerIn: Univ.Ass.Dr. Martin Kampel<br />

INSTI<strong>TU</strong>T FÜR INFORMATIONSSYSTEME<br />

Arbeitsbereich Distributed Systems<br />

Leonhard Brunnhofer<br />

Social Network and Awareness Services for Peoplet<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof.Dr. Schahram Dustdar<br />

Gerhard Glos<br />

Performance and Usability Evaluation of Constraint Checking Approaches in<br />

Java<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Ass.Dr. Göschka<br />

Abstrakt: Die Überprüfung und Formulierung von Constraints im Sinne von<br />

Design by Contract ist bisher noch kein integraler Bestandteil der<br />

Programmiersprache Java. Dennoch bildet die Formulierung von Constraints<br />

bereits während der Designphase und das Überprüfen von Constraints zur<br />

Programmlaufzeit die Basis von verlässlichen Softwaresystemen und<br />

Komponenten. Diese Diplomarbeit implementiert aktuelle Techniken zur<br />

Constraintüberprüfung in Verbindung mit Java. Diese werden hinsichtlich<br />

Laufzeit, Wartbarkeit und Wiederverwendbarkeit verglichen und evaluiert.<br />

Neben anderen Ansätzen wurde ein Constraint Repository, wie in [D.1.1.1]<br />

beschrieben, implementiert. Der Hauptvorteil des Repositories ist es, dass<br />

Constraints während der Laufzeit hinzugefügt und entfernt werden können,<br />

während andere Techniken diese Möglichkeit nur zur compile time oder zur<br />

class load time bieten. Hinsichtlich der Performanz hat sich die manuelle<br />

Implementation der Constraints als inline if statements als die beste Technik<br />

und hinsichtlich der Wartbarkeit als die schlechteste erwiesen. Die<br />

Trennung des Codes der die reine business logic repräsentiert von Code zur<br />

Constraintüberprüfung durch Aspekt Orientierung erhöht die Wartbarkeit<br />

deutlich und bringt eine, im Vergleich zu den anderen Techniken geringe<br />

Performanz-Einbuße von 14% mit sich. Toolunterstützung, den Code zur<br />

Constraintüberprüfung automatisch aus OCL oder JML Statements<br />

generiert, nimmt dem Programmierer ein hohes Maß an Arbeit ab, zählt<br />

jedoch mit einer mindestens 56-mal höheren Laufzeit als die manuelle inline<br />

Constraint Überprüfung zu den langsameren Techniken. Die Laufzeit des<br />

optimierten Constraint Repositories, das manuell implementierten Code zur<br />

Constraintüberprüfung in separate Objekte kapselt, ist hingegen maximal 10-<br />

mal höher.<br />

19<br />

20


Michael Halwax<br />

Peoplet Communication Plugin Framework<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn:Univ.Prof.Dr. Schahram Dustdar<br />

Christoph Karlberger<br />

Prototyping A Career Messenger Application<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn:Univ.Prof. Dr. Schahram Dustdar<br />

Abstrakt: Online recruitment ist ein Service im Internet, das immer<br />

populärer wird. In aktuellen Online Recruitment Webseiten können Leute<br />

nach neuen Jobs oder nach neuen Angestellten suchen. Um das zu<br />

erreichen, müssen Firmen ihre Job-Beschreibungen auf einen Server laden,<br />

wo diese dann von Jobsuchenden abgerufen werden können. In ähnlicher<br />

Weise müssen Arbeitssuchende ihre persönlichen Daten auf einen Server<br />

laden, was allerdings bedeutet, dass sie die Kontrolle über ihre Daten<br />

teilweise aufgeben. Die Peoplet Plattform ist ein Peer-to-Peer Netzwerk das<br />

einen neuen Ansatz beim Online Recruitment verfolgt und eine neue Art von<br />

Software, den Career Messenger, hervor bringt. Die Peoplet Desktop<br />

Anwendung ist ein Client <strong>für</strong> das Peoplet Netzwerk und wird am<br />

persönlichem Gerät des Benutzers installiert. Es verwaltet die Daten des<br />

Benutzers ohne sie auf einen Server hochzuladen, wodurch man einen<br />

hohen Grad an Sicherheit erreicht. Über die Peoplet Plattform kann man<br />

nach neuen Jobs suchen und sich <strong>für</strong> diese auch online bewerben. Eine<br />

weitere Besonderheit der Peoplet Anwendung ist die Möglichkeit,<br />

Nachrichten in Echtzeit an andere Benutzer zu senden. Diese Arbeit<br />

beschreibt einen Prototyp der Peoplet Anwendung und die Realisierung der<br />

finalen Produkts. Der Prototyp implementiert grundlegende Eigenschaften<br />

wie Lebenslauf- und Bewerbungsverwaltung mit Standard User Interface<br />

Komponenten. Das finale Produkt benutzt hingegen selbst implementierte<br />

User Interface Elemente, um dem Programm ein einzigartiges Aussehen zu<br />

verleihen. Die Peoplet Plattform implementiert eine Layered Architecture,<br />

wobei sich Presentations- und Applikationsschicht an der Spitze der<br />

Hierarchie befinden. Der Fokus dieser Arbeit liegt auf dem Design und der<br />

Realisierung dieser zwei Schichten.<br />

Jakob Sommerhuber<br />

An Iterative Approach for Software Architecture Reengineering Using the<br />

Spring Framework<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

21<br />

22<br />

Abstrakt: In dieser Diplomarbeit wird ein neuer Ansatz vorgestellt, um die<br />

Architektur eines Software Systems zu restrukturieren. Basierend auf dem<br />

Spring Framework und anderen frei erhältlichen Software Tools kann mit<br />

diesem Ansatz eine Software Architektur schrittweise transformiert werden.<br />

Die resultierende Architektur wird robuster und resistenter gegen Software-<br />

Erosion sein und auch besser gerüstet sein <strong>für</strong> zukünftige Änderungen und<br />

Wartungsarbeiten.Dieser Ansatz wird auf MCoIP (Mobile Control over IP),<br />

ein Produkt vonSiemens PSE <strong>Wien</strong>, angewendet. MCoIP ermöglicht die<br />

Fernwartung von beliebigen Endgeräten, die von Kraftwerken bis hin zu<br />

privaten Heizungen reichen können. Es wird gezeigt, wie dieser Ansatz die<br />

Komplexität reduzieren und die Flexibilität, Erweiterbarkeit, Skalierbarkeit und<br />

Interoperabilität der Architektur verbessern kann indem Konzepte wie<br />

Inversion of Control, Aspect-Oriented Programming und Object-Relational<br />

Mapping angewendet werden.<br />

Martin Thelian<br />

Intermediary Message Processing using Open Pluggable Edge Services<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Abstrakt: Die stetig wachsende Zahl an Internetnutzern führte zur<br />

Entwicklung von Content-Delivery-Netzwerken (CDN), die im Laufe der Zeit<br />

um zusätzliche inhaltsorientierte Dienste wie die Filterung, Konvertierung<br />

oder Personalisierung von Inhalten erweitert wurden. Aufgrund mangelnder<br />

Standardisierung hat aber keine der eingesetzten Lösungen eine weite<br />

Verbreitung gefunden. Um einen Standard zu schaffen wurde die IETF Open-<br />

Pluggable-Edge-Services Working-Group (OPES-WG) gegründet. Zielsetzung<br />

war die Entwicklung eines flexiblen und offenen Frameworks <strong>für</strong> den Einsatz<br />

derartiger Application-Level Services. Bis jetzt wurden zehn RFCs<br />

veröffentlicht, welche die Architektur des Frameworks, Anforderungen an<br />

Richtlinien- und Authentifizierungsmechanismen, Anwendungsbeispiele und<br />

Einsatzszenarien sowie ein Callout-Protokoll zum entfernten Aufruf der OPES-<br />

Services beschreiben. Ziel dieser Arbeit ist die Analyse des OPES-<br />

Frameworks und seiner Komponenten. Zusätzlich wird eine Prototyp-<br />

Implementierung vorgestellt, die den Empfehlungen der OPES-WG Standards<br />

folgt, und unter anderem einen als HTTP-Proxy fungierenden OPES-<br />

Prozessor, einen Callout-Server, eine Implementierung des OPES-Callout-<br />

Protokolls (OCP) und des OCP-Profils <strong>für</strong> HTTP umsetzt. Zusätzlich<br />

implementiert der Prototyp eine IRML-basierte Rule-Engine zur<br />

regelabhängigen Ausführung von Services sowie eine Laufzeitumgebung <strong>für</strong><br />

Proxylets. Im Anschluss daran wird eine Fallstudie präsentiert, welche die<br />

Funktionsfähigkeit und Praxistauglichkeit des Prototyps demonstrieren soll.<br />

Die Fallstudie zeigt, dass der Prototyp gut geeignet ist um typische<br />

inhaltsorientierte Dienste zu realisieren. Zusätzlich können damit aber auch<br />

Services umgesetzt werden, die normalerweise den Einsatz von SOAP-


Intermediaries erfordern. Im Zuge der Durchführung der Arbeit wurden<br />

einige Ungereimtheiten und Probleme in der OCP-Spezifikation und dem<br />

Zusammenspiel zwischen OPES und Proxylets entdeckt, welche am Ende der<br />

Arbeit detailliert beschrieben werden.<br />

Arbeitsbereich Database and Artificial Intelligence<br />

Artan Dermaku<br />

Generalized Hypertree Decomposition based on Hypergraph Partitioning<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob<br />

Michael Jakl<br />

Efficient Algorithms through Bounded Treewidth<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Univ.Prof.Dr. Reinhard Pichler<br />

Abstrakt: Parameterisierte Komplexitätsanalyse weckte im letzten Jahrzent<br />

reges Interesse, besonders jedoch das Ergebnis von Bruno Courcelle das<br />

besagt, dass das Entscheidungsproblem von Monadic Second Order<br />

Formeln theoretisch ``schaffbar'' ist (mit Einschränkungen). Trotz der<br />

enormen Wichtigkeit des Theorems wurde nur wenig über erfolgreiche,<br />

oder fehlgeschlagene Implementierungen veröffentlicht. Wir implementieren<br />

dieses System und geben eine exakte Beschreibung der Komponenten des<br />

Systems und erläutern die Probleme, die bei der Umsetzung aufgetreten<br />

sind. Um eine praktisch sinnvolle Umsetzung zu ermöglichen, muss noch<br />

einiges an theoretischer Vorarbeit geleistet werden.<br />

Michael Mörz<br />

A new Tabu Search Framework and it`s Application<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.-Prof.Dr. Georg Gottlob<br />

Werner Schafhauser<br />

New Heuristic Methods for Tree Decompositions and Generalized Hypertree<br />

Decompositions<br />

Studium: Magisterstudium Computational Intelligence<br />

BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob<br />

Abstrakt: Constraint satisfaction problems (CSPs) bilden eine Problemklasse<br />

in der Mathematik und <strong>Informatik</strong>, die viele praxisrelevante und schwere<br />

Probleme beinhält. Tree decompositions und generalized hypertree<br />

decompositions sind zwei Methoden, mit denen effizient lösbare CSP<br />

Instanzen identifiziert und <strong>für</strong> solche Instanzen effizient Lösungen berechnet<br />

werden können. Leider ist das Auffinden der optimalen tree decomposition<br />

bzw. generalized hypertree decomposition einer CSP Instanz ein NPvollständiges<br />

Problem. Aus diesem Grund sind in der Vergangenheit bereits<br />

viele heuristische Methoden <strong>für</strong> tree decompositions und generalized<br />

hypertree decompositions vorgestellt worden. In dieser Magisterarbeit<br />

erweitern wir bereits existierende heuristische Verfahren <strong>für</strong> tree<br />

decompositions zu einem A* Algorithmus und einem genetischen<br />

Algorithmus <strong>für</strong> tree decompositions bzw. zu einem genetischen Algorithmus<br />

und einem selbst adaptierenden genetischen Algorithmus <strong>für</strong> generalized<br />

hypertree decompositions. Weiters beweisen wir, dass elimination orderings<br />

einen geeigneten Suchraum <strong>für</strong> die generalized hypertree width darstellen,<br />

und wir entwickeln eine lower bound Heuristik <strong>für</strong> die generalized hypertree<br />

width. Außerdem zeigen wir, dass existierende Techniken, um den<br />

Suchraum <strong>für</strong> optimale tree decompositions zu verkleinern, auch <strong>für</strong><br />

generalized hypertree decompositions angewendet werden können.<br />

Basierend auf diesen Resultaten entwickeln wir einen branch and bound<br />

Algorithmus und einen A* Algorithmus <strong>für</strong> generalized hypertree<br />

decompositions. Testergebnisse zeigen, dass die vorgestellten heuristischen<br />

Methoden in der Lage sind, mit anderen Verfahren zu konkurrieren. Die<br />

genetischen Algorithmen und der branch and bound Algorithmus finden <strong>für</strong><br />

viele benchmark Instanzen verbesserte obere Schranken <strong>für</strong> tree- und<br />

generalized hypertree width. Für einige Instanzen können die A* Algorithmen<br />

und der branch und bound Algorithmus tree- und generalized hypertree<br />

width exakt bestimmen.<br />

Sigfried Schweigl<br />

User-Interface Generator <strong>für</strong> SemCrypt Applikationen<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

Abstrakt: Die vorliegende Diplomarbeit beschäftigt sich mit der Erstellung<br />

eines Systems, das die automatische Generierung eines Web-Interfaces aus<br />

XML-Eingabedaten mit einem fix vorgegebenen Schema ermöglicht. Für die<br />

Generierung werden daher verschiedene Code-Generator Modelle<br />

vorgestellt. Weiters werden einige geräteunabhängige Markup-Sprachen<br />

beleuchtet, wodurch es ermöglicht werden soll, dass das generierte Web-<br />

Interface auf verschiedensten Geräten wie Handy, PDA, etc. dargestellt<br />

werden kann und in weiterer Folge Datenbankabfragen (XPath/XUpdate-<br />

Anweisungen) auf eine XML-Datenbank erlaubt. Der Generator mit seiner<br />

Bedienoberfläche wird als Eclipse Plug-in realisiert. Da diese Arbeit ein<br />

23<br />

24


Beitrag zur Unterstützung <strong>für</strong> Entwickler von SemCrypt Anwendungen ist,<br />

wird das Forschungsprojekt SemCrypt ebenfalls kurz erläutert.<br />

Christopher Semturs<br />

Using Lixto for Abstract Automation of Web-Applications<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Georg Gottlob<br />

Abstrakt: Lixto ist ein Produkt zur Extraktion von qualifizierten Daten aus<br />

beliebigen Web-Seiten. Übliche Anwendungsgebiete sind hierbei zum Beispiel<br />

Meta-Suchmaschinen über Flugdaten (auf Basis der Webseiten von<br />

verschiedenen Airlines), oder Preisvergleiche <strong>für</strong> Artikel über mehrere<br />

Verkäufer. Die im Kern verwendete Funktionalität – automatische Navigation<br />

und Extrahierung von Web-Seiten – kann allerdings auch gut <strong>für</strong><br />

automatisierten Software-Test verwendet werden. Das Ziel der Diplomarbeit<br />

war es, diese Funktionalität zu erarbeiten und einen funktionsfähigen<br />

Prototypen bereitzustellen, welcher vor allem moderne Konzepte (Abstrakte<br />

Automation) umsetzt und somit als Basis <strong>für</strong> Weiterentwicklungen dienen<br />

kann. Im ersten Teil der Diplomarbeit wird die aktuelle Theorie zum Thema<br />

Software-Testing präsentiert und erläutert. Neben einer Beleuchtung der<br />

Begriffe (z.B. Schönwetterflug, …) wird vor allem eine strukturierte<br />

Vorgehensweise zum Testen erläutert – bestehend aus Testfällen, deren<br />

Abhängigkeiten untereinander (z.B. Vorbedingungen) bis hin zu einer stark<br />

formalen Deklaration von Testfällen – das heißt, statt einem einfachen<br />

Freitext wird wirklich Schritt <strong>für</strong> Schritt erklärt, was der durchführende<br />

Tester anzuklicken hat, und welcher Text wo einzugeben ist. Durch diese<br />

stark normierte Deklaration von Testfällen kann eine Durchführung auch<br />

durch temporäre Arbeitskräfte (z.B. Werksstudenten) durchgeführt werden,<br />

was gerade bei wiederholenden Tätigkeiten eine große Kostenersparnis<br />

bringt. Die beiden allgemein existierenden Ansätzen zur konkreten<br />

Testautomatisierung – Capture'n'Replay und Abstrakte Automatisierung –<br />

werden näher beleuchtet und verglichen. Capture'n'Replay verhält sich de<br />

facto wie ein Makro-Rekorder, während die abstrakte Automation auf der<br />

Information der formal erfassten Testfälle aufbaut. Es stellt sich heraus,<br />

dass Capture'n'Replay zwar den „schnellen Erfolg" bringt. Aber wenn ein<br />

Projekt über einen längeren Zeitraum läuft (z.B. 10 Iterationen im Test bis<br />

zum endgültigen Release) zahlt sich eine Abstrakte Automation sehr bald<br />

aus. Im Rahmen der Diplomarbeit wurde nun ein Prototyp entwickelt,<br />

welcher formell erfasste Testfälle einliest und automatisch ein ein Lixto-<br />

Wrapper-Script umwandelt. Das heißt, die Testfälle sind ohne weitere<br />

technische Arbeiten in Lixto durchführbar. Dieses wurde an Hand einer<br />

eigenen bereitgestellten kleinen Web-Applikation bewiesen.<br />

25<br />

26<br />

Un-Il Yang<br />

Mobile Payment Provider Services – The Case of South Korea and Austria<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

Arbeitsbereich Knowledge Based Systems<br />

Andreas Zugaj<br />

Counter Lattice Generation for Non-provable Formulas<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Uwe Egly<br />

Abstrakt: Orthologik ist die Logik der Orthoverbände. Beweistheorie ist in<br />

Orthologik gut erforscht, jedoch gibt es kaum Arbeiten über das Generieren<br />

von Gegenbeispielen <strong>für</strong> nicht beweisbare Formeln. Außerdem gibt es nur<br />

wenige effiziente Implementierungen von Beweissystemen. Meine<br />

Magisterarbeit versucht diese Lücke zu schließen und beschreibt meine<br />

Implementierung eines Beweissystems in der Programmiersprache C,<br />

genannt CGOL. Diese ist ein effizienter Beweiser <strong>für</strong> Orthologik der auch in<br />

der Lage ist Gegenbeispiele <strong>für</strong> nicht beweisbare Formeln zu konstruieren.<br />

INSTI<strong>TU</strong>T FÜR COMPUTERSPRACHEN<br />

Arbeitsbereich Programmiersprachen und Übersetzerbau<br />

Michael Med<br />

Instruction Set Encoding Optimization for Code Size Reduction<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall<br />

Abstrakt: Die Kosten <strong>für</strong> On-Chip-Programmspeicher von Embedded<br />

Systemen sind oftmals ebenso hoch wie die Kosten <strong>für</strong> den Mikroprozessor<br />

selbst. Die vorliegende Arbeit untersucht Möglichkeiten, die Programmgröße<br />

durch einen modifizierten Befehlssatz zu verringern und somit Speicherplatz<br />

zu sparen. Wir stellen verschiedene Algorithmen vor, die einen optimierten<br />

Befehlssatz generieren und untersuchen die Auswirkung auf die Codegröße<br />

einiger Benchmarkprogramme. Ergebnisse zeigen, dass eine<br />

durchschnittliche Reduktion um 11 Prozent möglich ist, wobei dieser Wert<br />

durch Änderung der generierten Instruktionslänge weiter verbessert werden<br />

kann. Die Verwendung des optimierten Befehlssatzes kann jedoch zu<br />

größerem Code bei anderen Applikationen führen -- ein Effekt, der durch


Optimierung <strong>für</strong> eine synthetische Eingabe-Applikation weitestgehend<br />

vermieden werden kann.<br />

Roland Moser<br />

Communication Analysis of Distributed Data Acquisition Systems<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof.Dr. Eva Kühn<br />

Abstrakt: Das Compact Muon Solenid Experiment <strong>für</strong> das Large Hadron<br />

Collider Experiment am CERN benutzt ein verteiltes Daten Acquisition<br />

System. Dieses System erhebt, erfaßt und verarbeitet Sensordaten. Es<br />

besteht aus einem Computercluster verbunden durch eine Switching Fabric.<br />

Teile dieser Switching Fabric benutzen eine High-Throughput<br />

Netzwerktechnologie namens Myrinet <strong>für</strong> effiziente Datenverarbeitung. Die<br />

Programmierumgebung <strong>für</strong> das CMS Online-System umfaßt ein Framework<br />

namens XDAQ <strong>für</strong> die Entwicklung von verteilten Systemen. Diese<br />

Framework entkoppelt die verteilten Applikationen von der<br />

Netzwerktechnologie. Zum Beispiel kann Ethernet durch Myrinet ersetzt<br />

werden ohne die betroffene verteilte Applikation zu verändern. Das Ziel<br />

dieser Arbeit ist die Performance der Myrinet Netzwerktechnologie zu<br />

messen und das Verhalten ihrer Hardware- und Softwarekomponenten zu<br />

verstehen. Um die Gültigkeit der Tests <strong>für</strong> diese Arbeit zu verbessern,<br />

wurden diese Tests im CMS Data Acquisition Test Setup, welches eine Real-<br />

Scale Anwendung ist, durchgeführt. Die Ergebnisse verschiedener Cluster-<br />

Konfigurationen werden analysiert und Vergleiche zwischen Tests mit<br />

Myrinet und Ethernet werden durchgeführt. Eine Entscheidung, welcher<br />

Ansatz zur Integration einer neuen Bibliothek in ein bestehendes System<br />

verwendet und welche Myrinet Performance-Tests durchgeführt werden<br />

sollen, mußte getroffen werden. Es wird erwartet, daß die Ergebnisse Einfluß<br />

auf industrielle high-throughput Anwendungen, deren Hauptproblem der<br />

Datendurchsatz und nicht der Rechenaufwand ist, haben. Ein Beispiel <strong>für</strong><br />

eine solche Anwendung ist verteiltes Multimedia Streaming.<br />

Christian Schusterreiter<br />

Bionic Approaches for the Semantic Web<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof.Dr. Eva Kühn<br />

Abstrakt: Das Semantic Web ist eine Initiative, die sich mit Standards und<br />

Technologien auseinandersetzt, welche <strong>für</strong> die Etablierung von<br />

maschinenverständlichen Informationsinhalten notwendig sind. Dabei geht es<br />

um das Ermöglichen einer "intelligenten" Infrastruktur, die viele der heute<br />

bekannten Kommunikationsbarrieren, speziell im Bereich Maschine-<br />

Maschine-Kommunikation, überwinden soll. Obwohl bereits mehrere<br />

27<br />

28<br />

Standards zur Annotation von Metainformationen verfügbar sind treffen<br />

Entwickler einer Middleware <strong>für</strong> das Semantic Web immer noch auf<br />

zahlreiche Herausforderungen, die sich im Umgang mit heterogenen Daten<br />

oder internetweitem Datenmengen stellen. In meiner Arbeit verfolge ich den<br />

Ansatz, Barrieren, die sich durch das Semantic Web selbst ergeben, durch<br />

Zuhilfenahme von bionischen Ansätzen zu überwinden. Mein Ziel ist es eine<br />

Space-basierende und channel-theoretische Umgebung vorzuschlagen, die<br />

mit verteilten und heterogenen Daten soweit umgehen kann, dass sie deren<br />

"mitgelieferte" Komplexität verbergen. Eine solche Umgebung ist ein ideales<br />

Umfeld <strong>für</strong> Anwendung und Ausführen von bionische Methodiken. Bionische<br />

Ansätze wie Schwarmintelligenz oder zelluläre Automaten passen<br />

aussergewöhnlich gut in verteilte Szenarion, da sie allgemein nur auf lokaler<br />

Datenverarbeitung beruhen und Skalierbarkeitsfragen und<br />

Berechnungskomplexität mit eleganten Heuristiken und Parallelisierbarkeit<br />

begegnen. Dabei spielen Phänomene namens Emergenz und<br />

Selbstorganisation eine zentrale Rolle, sie ermöglichen eine bottum-up-<br />

Verarbeitung der enormen internetweiten Datenmengen ohne dabei zentrale<br />

oder globale Kontrollinstanzen zu benötigen. Diese Arbeit stellt<br />

ausgewählte Semantic Web Technologien, einen Baukasten um von der<br />

Natur inspirierte Algorithmen herzuleiten und die Anwendung solcher<br />

Algorithmen <strong>für</strong> SemanticWeb spezifsche Aufgaben vor. Es werden<br />

Synergien zwischen einer Semantic Web Umgebung, Schwarmintelligenz<br />

und Space-basierter Kommunikation aufgezeigt.<br />

Edwin Steiner<br />

Adaptive Inlining and On-Stack Replacement in a Java Virtual Machine<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall<br />

Abstrakt: Methoden-Inlining ist eine bekannte und wirkungsvolle Technik <strong>für</strong><br />

die Optimierung objekt-orientierter Programme. Im Zusammenhang mit<br />

dynamischer übersetzung kann Methoden-Inlining als adaptive Optimierung<br />

verwendet werden, um den Mehraufwand von häufig ausgeführten<br />

Methodenaufrufen zu vermeiden. Diese Arbeit stellt eine Umsetzung von<br />

Methoden-Inlining in CACAO vor, einem just-in-time Übersetzer <strong>für</strong> Java. Das<br />

Ersetzen von Methoden im Aufrufstapel ermöglicht die Installation von<br />

optimiertem Maschinencode und das Rückgängigmachen von<br />

Optimierungen, wenn optimistische Annahmen des Optimierers durch<br />

dynamisches Nachladen von Klassen ungültig werden. Drei Heuristiken <strong>für</strong><br />

Methoden-Inlining werden anhand empirischer Messungen an einem Satz<br />

von Benchmarkprogrammen verglichen. Ein typen-basierter Algorithmus<br />

zum Entfernen lokaler Unterprogramme wird beschrieben.


Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />

Andreas Bernthaler<br />

Reconstruction of Functional Context from Heterogenous Data Networks<br />

Studium: Masterstudium Software Engineering and Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />

Aneta Binder<br />

Applications of Membrane Systems for Distributed Systems<br />

Studium: Diplomstudium <strong>Informatik</strong>, Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />

Abstrakt: Mit dem Hintergrund von bekannten biologisch theoretischen<br />

Modellen befassen wir uns damit, diese im Bereich der informatischen<br />

Fragestellung anzuwenden. Eines dieser Modelle, präsentiert von A.<br />

Rustom, R. Saffrich, I. Markovic, P. Walther und HH. Gerdes in<br />

[Nanotubular highways for inter-cellular organelle transport, Science 303<br />

(2004), 1007–1010] hat sich als sehr geeignet erwiesen, um<br />

Kommunikationsprozesse in verteilten Systemen zu modellieren. In dieser<br />

Arbeit beschreiben wir diese mittels eines speziellen Modells von<br />

Membransystemen, welche erstmals 1998 von Gheorge Paun in<br />

[Computing with membranes, Journal of Computer and System Sciences<br />

61, 1 (2000), 108–14] vorgestellt wurden. Der erste Entwurf des Modells<br />

P system with dynamic channels transporting membrane vesicles wurde<br />

2005 von Rudolf Freund und Marion Oswald in [P systems with dynamic<br />

channels transporting membrane vesicles, Proceedings AROB 2005 ]<br />

publiziert. In unserer Arbeit erweitern wir dieses Modell mit Hilfe einiger<br />

neuer Regeln und weiterer neuer Eigenschaften, die sich <strong>für</strong> die<br />

Modellierung von verteilten Systemen als notwendig erwiesen haben. Diese<br />

Erweiterungen machen es uns möglich, verschiedene Architekturen und<br />

Kommunikationsabläufe in Abhängigkeit von den unterschiedlichen<br />

Netzwerktopologien zu modellieren. Die Funktionsweise unseres Modells<br />

demonstrieren wir an Hand einiger Beispiele unter Anwendung der im<br />

Modell definierten Regeln. Schließlich fügen wir zu den bestehenden<br />

Definitionen weitere neue Eigenschaften hinzu, um auch dynamische<br />

Prozesse, wie Adressenzuteilung und Resourcenverwaltung, darstellen zu<br />

können.<br />

Karl GMEINER<br />

Transformation of Conditional Term Rewriting Systems<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof.Dr. Bernhard Gramlich<br />

29<br />

30<br />

Abstrakt: Termersetzungssysteme sind einfache Systeme, die in vielen<br />

Gebieten der theoretischen <strong>Informatik</strong> wie gleichungsbasiertem Schließen<br />

oder deduktiver Programmierung eingesetzt werden. In der Vergangenheit<br />

wurden viele ihrer Eigenschaften genau untersucht, sodass diese Systeme<br />

gut verstanden werden. Bedingte Termersetzungssysteme stellen eine<br />

intuitive Erweiterung dar, die die Möglichkeit zu einer kompakteren Definition<br />

von Funktionen bietet. Durch das Einführen von Bedingungen sind diese<br />

Systeme jedoch schwerer zu analysieren. Aus diesem Grund versucht man,<br />

durch geeignete Transformationen bedingte Termersetzungssysteme in<br />

Unbedingte umzuwandeln, um Eigenschaften und Methoden unbedingter<br />

Systeme anwenden zu können. Diese Diplomarbeit bietet einen Überblick<br />

über generelle Ansätze und vergleicht konkrete Transformationen bzw.<br />

schlägt Verbesserungen vor.<br />

Georg Lojka<br />

Applications of Membrane Systems for Distributed Systems<br />

Studium: Diplomstudium <strong>Informatik</strong>, Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Rudolf Freund<br />

Abstrakt: siehe Aneta Binder<br />

Felix Schernhammer<br />

On Context-Sensitive Term Rewriting<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Bernhard Gramlich<br />

Abstrakt: Termersetzungssysteme bilden die formale Basis <strong>für</strong> funktionale<br />

und funktional-logische Programmiersprachen. Unglücklicherweise hängen<br />

die Effizienz und das Terminierungsverhalten von Reduktionen, die durch<br />

Termersetzungssysteme induziert werden, in hohem Maße von der<br />

verwendeten Evaluierungsstrategie ab, bei deren Wahl oft ein Kompromiss<br />

zwischen Effizienz und gutem Terminierungsverhalten getroffen werden<br />

muss. Mit Hilfe von Einschränkungen der Termersetzungsrelation kann<br />

dieses Problem teilweise gelöst werden. In dieser Arbeit werden drei<br />

Formalismen vorgestellt, die solche Einschränkungen vornehmen: Beim<br />

sogenannten Context-Sensitive Rewriting gibt die Replacement Map <strong>für</strong> jedes<br />

Funktionssymbol an welche Argumente reduziert werden sollen und welche<br />

nicht. Im Lazy Rewriting dürfen Argumente von Funktionen nur dann<br />

ausgewertet werden, wenn ihre Auswertung <strong>für</strong> das Berechnen der Funktion<br />

unbedingt notwendig ist. Beim Rewriting with Strategy Annotations wird <strong>für</strong><br />

jede Funktion eine Reihenfolge festgelegt, mit der ihre Argumente evaluiert<br />

werden. Ziel dieser Arbeit ist es einen Überblick und Vergleich bestehender<br />

Ansätze zu geben, und weitere Anwendungsgebiete der Termersetzung mit


Einschränkungen zu untersuchen (z. B. Einschränkungen der Relationen, die<br />

durch bedingte Termersetzungssysteme erzeugt werden). Die wichtigsten<br />

Resultate dieser Arbeit sind Kriterien <strong>für</strong> die Terminierung von "lazy"<br />

Termersetzungssystemen und <strong>für</strong> "Quasi-Reductivity" von deterministischen<br />

konditionalen Systemen. Außerdem wird ein neuer Ansatz von<br />

Kontexteinschränkungen definiert, der mit verbotenen Patterns arbeitet.<br />

Martin Schliefnig<br />

Reasoning in Semantic Web Applications<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gernot Salzer<br />

INSTI<strong>TU</strong>T FÜR COMPUTERGRAPHIK UND ALGORITHMEN<br />

Arbeitsbereich Algorithmen und Datenstrukturen<br />

Thomas Bucsics<br />

Metaheuristic Approaches for designing survivable Fiber-Optic Networks<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />

werden beide Algorithmen zu einem hybriden Algorithmus vereint, wobei sie<br />

entweder in sequenzieller oder verschachtelter Reihenfolge kombiniert<br />

werden können und dabei so viel Information wie möglich austauschen.<br />

Ausführliche Tests auf eigens generierten unterschiedlichen Instanzen<br />

ergeben, dass der Lagrangesche Algorithmus bis auf wenige Ausnahmen<br />

die optimale obere Schranke findet und vor allem zusammen mit der lokalen<br />

Suche auch sehr gute und meist sogar optimale Lösungen liefert. Er ist im<br />

Allgemeinen bisherigen Verfahren überlegen, besonders wenn man die<br />

Laufzeit in Betracht zieht. Der hybride Algorithmus kann dennoch diese<br />

Ergebnisse teilweise verbessern. Während die sequenzielle Variante mehr<br />

beweisbar optimale Lösungen <strong>für</strong> große maximal planare Graphen findet,<br />

ermöglicht die verschachtelte Variante, dass bei einem Lauf üblicherweise<br />

früher hochwertige Lösungen erlangt werden, besonders <strong>für</strong> vollständige<br />

Graphen.<br />

Arbeitsbereich Computergrafik<br />

Matthias Bernhard<br />

Efficient Direct Volume Rendering for CT-Angiography<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Univ.Doz. Dr. Milos Sramek<br />

Sandro Pirkwieser<br />

A Lagrangian Decomposition Approach Combined with Metaheuristics for<br />

the Knapsack Constrained Maximum Spanning Tree Problem<br />

Studium: Masterstudium Intelligente Systeme<br />

BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />

Abstrakt: Diese Masterarbeit befasst sich mit der Lösung des Knapsack<br />

Constrained Maximum Spanning Tree (KCMST) Problems, einem bisher<br />

wenig behandelten NP-schwierigen kombinatorischen Optimierungsproblem<br />

aus dem Bereich des Netzwerkdesigns. Dabei ist ein Spannbaum gesucht,<br />

dessen Profit maximal ist aber zugleich sein Gesamtgewicht einen gewissen<br />

Wert nicht überschreitet. Es wird ein Lagrangescher Dekompositionsansatz<br />

präsentiert, welcher eine spezielle Variante der Lagrangeschen Relaxierung<br />

ist, um obere Schranken zu ermitteln. Dabei wird das Problem in zwei<br />

ebenfalls zu maximierende Teilprobleme aufgespalten, die jedoch <strong>für</strong> sich<br />

gesehen leichter zu lösen sind. Um auch untere Schranken zu erhalten, wird<br />

eine einfache Lagrangesche Heuristik verwendet, die durch eine<br />

problemspezifische lokale Suche gestärkt wird. Des Weiteren wird ein<br />

Evolutionärer Algorithmus vorgestellt, der eine geeignete Lösungskodierung<br />

und entsprechende Operatoren verwendet, wobei letztere in der Lage sind<br />

Heuristiken basierend auf definierten Kantenprofiten einzusetzen. Danach<br />

31<br />

32<br />

Michael Kusternig<br />

Semi-automated plant modeling using Rule-Based Mesh-Growing<br />

Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />

BetreuerIn: Priv.Doz. Dr. Helwig Hauser<br />

Philipp Muigg<br />

Hybrid Multiresolution Unstructured and Structured Grid Volume Raycasting<br />

Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />

BetreuerIn: Priv.Doz. Dr. Helwig Hauser<br />

Abstrakt: Verschiedene Simulationstechniken sind in der letzten Zeit auf<br />

vielen Gebieten sehr wichtig geworden. Vor allem im Ingenieurswesen ist<br />

Computational Fluid Dynamics (CFD) ein wertvolles Werkzeug geworden,<br />

welches es ermöglicht verschiedene Entwürfe zu testen ohne teure<br />

Prototypen bauen zu müssen. Die Resultate solcher Simulationen sind meist<br />

multi-modale Volumendatensätze. Das bedeutet, dass <strong>für</strong> ein simuliertes<br />

Volumen verschiedene physikalische Größen gespeichert werden. Die diesen<br />

Daten zugrunde liegende Organisationsstruktur wird als volumetrisches<br />

Gitter bezeichnet. Diese unstrukturierten Gitter stellen einige Anforderungen


an Visualisierungssysteme, die die dazugehörigen Volumendaten darstellen<br />

sollen. Diese Arbeit beschreibt einen neuen Algorithmus um interaktiv<br />

Volumendaten die auf unstrukturierten Gittern gegeben sind darzustellen.<br />

Das Datenvolumen wird hierzu in einzelne Blöcke zerlegt welche dann mittels<br />

Grafikhardware basiertem Raycasting dargestellt werden. Das bedeutet,<br />

dass Blickstrahlen durch die einzelnen Blöcke geschossen werden und dabei<br />

Farb und Transparenz Informationen aufakkumuliert werden, wobei das<br />

Datenvolumen als halb durchsichtiges Medium behandelt wird. Hier können<br />

verschiedene optische Modelle gewählt werden, um verschiedene Resultate<br />

zu erzeugen. Anschließend werden die Visualisierungen der einzelnen Blöcke<br />

kombiniert um die endgültige Visualisierung zu erzeugen. Der beschriebene<br />

Raycasting Ansatz ist sehr flexibel und kann mit komplexeren Daten<br />

umgehen, als viele andere aktuelle Methoden. Die Unterteilung des<br />

Datenvolumens ermöglicht einige Optimierungen die eine interaktive<br />

Darstellung auf handelsüblichen PCs möglich macht. Wenn ein Block als leer<br />

eingestuft wird braucht nur die enthaltene Oberfläche dargestellt werden.<br />

Außerdem können wenig Information enthaltende Blöcke in eine niedriger<br />

aufgelöste Repräsentation konvertiert werden, die dann schneller als die<br />

originale unstrukturierte Version dargestellt werden kann.<br />

Markus SABADELLO<br />

History of Electronic Games and an Interactive Installation at the<br />

"<strong>Technische</strong>s Museum" in Vienna, Austria<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Werner Purgathofer<br />

Claus Scheiblauer<br />

Hardware-Accelerated Rendering of Unprocessed Point Clouds<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Werner Purgathofer<br />

Abstrakt: In dieser Diplomarbeit wird ein schneller Renderingalgorithmus <strong>für</strong><br />

Punktwolken beschrieben. Eine Punktwolke ist einfach eine Menge von<br />

unzusammenhängenden 3D Koordinaten im Kartesischen Raum. Jede<br />

Koordinate einer solchen Menge wird als Punkt im Raum interpretiert. Eine<br />

Punktwolke ist das Resultat eines Abtastprozesses, bei dem entweder ein<br />

Laserscanner eine reale Umgebung abtastet, oder bei dem die<br />

Datenstruktur eines bereits existierenden graphischen Modells in eine<br />

Punktwoke umgewandelt wird. Während des Renderings wird versucht das<br />

abgetastete Modell aus der gegebenen Punktwolke zu rekonstruieren. Der<br />

Algorithmus, der in dieser Diplomarbeit vorgestellt wird, basiert auf zwei<br />

neuen Datenstrukturen, nämlich auf Memory Optimized Sequential Point<br />

Trees und Nested Octrees. Er enthält einen Out-of-Core Teil und ist dadurch<br />

in der Lage Modelle zu rendern, die nicht komplett in den Hauptspeicher des<br />

33<br />

34<br />

Computers passen. Er enthält auch einen Occlusion Culling Teil, wodurch es<br />

möglich wird Objekte nicht zu rendern, die durch andere Objekte, welche<br />

näher beim Betrachter sind, verdeckt werden. Der Algorithmus wurde<br />

hauptsächlich <strong>für</strong> die schnelle Darstellung von Punktwolken entwickelt, das<br />

heißt <strong>für</strong> eine hohe Bildwiederholfrequenz, wohingegen der visuellen Qualität<br />

der gerenderten Punktwolken weniger Aufmerksamkeit geschenkt wurde.<br />

Der Algorithmus benötigt keine zusätzlichen Informationen zu einem Punkt<br />

ausser dessen Position.<br />

INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND<br />

WIRKUNGSFORSCHUNG<br />

Arbeitsbereich Multidisciplinary Design<br />

Valerie Maquil<br />

Tangible Interaction in Mixed Reality Applications<br />

Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />

BetreuerIn: Univ.Prof. Dr. Ina Wagner<br />

Abstrakt: Greifbare Benutzerschnittstellen (engl. Tangible User Interfaces)<br />

versprechen die Interaktion auf eine kollaborative und verständlichere Art zu<br />

unterstützen. Durch Verwendung physischer Objekte als Kontrollelemente<br />

digitaler Daten werden diese Informationen greifbar gemacht. Gemischte<br />

Realität (engl. Mixed Reality) beschreibt die Kombination von realen und<br />

virtuellen Elementen in einer gleichen visuellen Anzeige um so eine<br />

umfassendere Umgebung zu schaffen. Diese Masterarbeit beschäftigt sich<br />

mit den Hauptaufgaben der Interaktion in Mixed Reality Anwendungen und<br />

diskutiert wie diese mittels Tangible User Interfaces umgesetzt werden<br />

können. Das System des ColorTables wird in der Arbeit als Referenz benutzt<br />

um die verschiedenen Ansätze und Lösungen zu illustrieren. Es ist ein<br />

Tangible User Interface, das verschiedenartige kollaborative Arbeitszustände<br />

unterstützt, und durch seine flexible Zusammensetzung ein experimentelles<br />

Gestalten von Interaktionstechniken ermöglicht. Um Mixed Reality<br />

Konfigurationen zu klassifizieren wurden die verschiedenen Charakteristika<br />

von Mixed Reality Anwendungen bestimmt und entsprechende Hardwareund<br />

Softwarekonfigurationen vorgeschlagen. Mittels vorherigen Definitionen<br />

von Tangible User Interfaces kann ein neues Interaktionsmodell von "Tokens<br />

with constraints" erstellt werden, anhand dessen Interaktionstechniken<br />

beschrieben und klassifiziert werden können. Durch die gewonnenen<br />

Eindrücke zu Mixed Reality und Tangible User Interfaces können die<br />

verschiedenen Interaktionsaufgaben analysiert, sowie ensprechende<br />

Techniken präsentiert werden. Manipulationsaufgaben sowie<br />

Navigationsaufgaben werden beschrieben und Lösungen im Rahmen des<br />

ColorTable vorgeschlagen.


Cornelia Rauchberger<br />

The Cultural Meaning of Information and Communication Technologies to<br />

Organisations in Developing Countries<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />

in den Neuen Medien gegeben, wobei auch auf neue Möglichkeiten der<br />

Speicherung und des Bereitstellens von Informationen eingegangen wird.<br />

Arbeitsbereich Human Computer Interaction<br />

Bernd Altmann<br />

Neue Strategien in der Mobilkommunikation<br />

Christian Ritzinger<br />

Game Design Concepts<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Univ.Prof. Dr. Ina Wagner<br />

Abstrakt: In den letzten Jahren konnte nicht nur eine rasante Entwicklung in<br />

der Computerspiel-Entwicklung beobachtet werden, mit der zunehmenden<br />

Komplexität der Materie bedurfte es auch der Spezialisierung in<br />

verschiedenen Gebieten. Vorerst war eine Aufteilung in Grafikproduktion und<br />

Programmierung zu verzeichnen, dem eigentlichen Design des Spiels wurde<br />

nur stiefmütterlich Beachtung geschenkt. In den letzten Jahren konnte hier<br />

aber eine entscheidende Trendwende registriert werden und so finden sich<br />

nicht nur bei fast allen Produktionsfirmen eigene Gamedesigner, es wurden<br />

auch zahlreiche wissenschaftliche Arbeiten und Bücher zu diesem Thema<br />

veröffentlicht. Diese Arbeit möchte auf den folgenden Seiten einen Einstieg<br />

in die Materie bieten und essentielle aber auch spezielle Konzepte näher<br />

bringen.<br />

Herfried Karl Wagner<br />

Computervermittelte Kommunikation und Kooperation im Softwaresupport<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />

Abstrakt: Diese Arbeit gibt einen Überblick über die Arbeitspraxis im<br />

computervermittelten First-Level-Support <strong>für</strong> Softwareprodukte. Im Zuge der<br />

Untersuchung wurde mittels offener Leitfadeninterviews und durch die<br />

ergänzende qualitative Analyse von Artikeln aus ausgewählten Newsgroups<br />

des Supportangebots eines großen Softwareherstellers der Ablauf von<br />

Kommunikation dokumentiert und auf Basis von theoretischen Überlegungen<br />

daraufhin untersucht, wie weit Newsgroups zur Bearbeitung von<br />

Supportanfragen in der breitesten der Supportschichten geeignet sind.<br />

Zudem wurde analysiert, welchen Stellenwert Newsgroups als Mittel des<br />

First-Level-Supports im Supportangebot großer Softwarehersteller<br />

einnehmen. Abschließend wird, in Bezugnahme auf das Thema der<br />

Untersuchung, ein Überblick über die Veränderung der Wissensvermittlung<br />

35<br />

36<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

Abstrakt: Um heutzutage am Mobilfunkmarkt bestehen zu können, ist es <strong>für</strong><br />

die Service Provider notwendig, sich mit den Rahmenbedingungen und den<br />

eingesetzten Technologien auseinanderzusetzen. Die Sättigungsraten <strong>für</strong><br />

Mobilfunktelefone nähern sich der 100 Prozent Marke. Da stellt sich die<br />

Frage, mit welchen Strategien technischer und ökonomischer Art die<br />

Großen der Branche auf diese schwierige Situation reagieren. Auf diese und<br />

ähnliche Fragen geht die vorliegende Magisterarbeit ein. Um zukünftige<br />

Strategien in der Mobilkommunikation zu entwerfen, muss vorerst die<br />

aktuelle Situation am Mobilfunkmarkt analysiert werden. Ein Blick auf die<br />

derzeitigen Strategien ausgewählter Mobilfunkbetreiber soll dies<br />

ermöglichen. Im Mittelpunkt stehen dabei das aktuelle Produktangebot sowie<br />

verschiedene Geschäftsmodelle der jeweiligen Unternehmen. Diese werden<br />

allgemein und unternehmensbezogen dargestellt. Die Ableitung der<br />

zukünftigen Strategien basiert auf der aktuellen Situation in der<br />

Mobilkommunikation. Der Trend bei den Mobilfunkanbietern geht ganz<br />

deutlich in Richtung Kostentransparenz. Das umfassende Angebot an<br />

Verträgen, Tarifoptionen und Bündeln von Inklusivdiensten der<br />

verschiedensten Art verlangt nach klarer Kostendarlegung. Dadurch wird<br />

dem Kunden die Wahl des <strong>für</strong> ihn geeigneten Produktes erleichtert und es<br />

wird verhindert, dass eine hohe monatliche Rechnung die<br />

Kundenzufriedenheit beeinträchtigt. Speziell <strong>für</strong> die Akzeptanz neuer Dienste<br />

werden Mobilfunkanbieter ihre Bündelungs- und Preisstrategien gut<br />

überlegen und auf die Bedürfnisse der Kunden zuschneiden müssen. Die<br />

Möglichkeit kostenlosen Ausprobierens der Dienste sowie ein Übergang zur<br />

inhaltsbezogenen Abrechnung wird in Zukunft <strong>für</strong> erfolgreiche Unternehmen<br />

maßgebend sein.<br />

Andreas Brauneis<br />

Point and Speak - Design und Evaluation einer mobilen multimodalen<br />

Interaktionstechnik zur orts- und orientierungsbezogenen Serviceauswahl<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer


Christoph Brein<br />

Evaluation und Konzeption barrierefreier Weblösungen im E- Learning<br />

Bereich<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />

Klemens Ferstl<br />

Neue Strategien in der Mobilkommunikation<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

Abstrakt: Um heutzutage am Mobilfunkmarkt bestehen zu können, ist es <strong>für</strong><br />

die Service Provider notwendig, sich mit den Rahmenbedingungen und den<br />

eingesetzten Technologien auseinanderzusetzen. Die Sättigungsraten <strong>für</strong><br />

Mobilfunktelefone nähern sich der 100 Prozent Marke. Da stellt sich die<br />

Frage, mit welchen Strategien technischer und ökonomischer Art die<br />

Großen der Branche auf diese schwierige Situation reagieren. Auf diese und<br />

ähnliche Fragen geht die vorliegende Magisterarbeit ein. Um zukünftige<br />

Strategien in der Mobilkommunikation zu entwerfen, muss vorerst die<br />

aktuelle Situation am Mobilfunkmarkt analysiert werden. Ein Blick auf die<br />

derzeitigen Strategien ausgewählter Mobilfunkbetreiber soll dies<br />

ermöglichen. Im Mittelpunkt stehen dabei das aktuelle Produktangebot sowie<br />

verschiedene Geschäftsmodelle der jeweiligen Unternehmen. Diese werden<br />

allgemein und unternehmensbezogen dargestellt. Die Ableitung der<br />

zukünftigen Strategien basiert auf der aktuellen Situation in der<br />

Mobilkommunikation. Der Trend bei den Mobilfunkanbietern geht ganz<br />

deutlich in Richtung Kostentransparenz. Das umfassende Angebot an<br />

Verträgen, Tarifoptionen und Bündeln von Inklusivdiensten der<br />

verschiedensten Art verlangt nach klarer Kostendarlegung. Dadurch wird<br />

dem Kunden die Wahl des <strong>für</strong> ihn geeigneten Produktes erleichtert und es<br />

wird verhindert, dass eine hohe monatliche Rechnung die<br />

Kundenzufriedenheit beeinträchtigt. Speziell <strong>für</strong> die Akzeptanz neuer Dienste<br />

werden Mobilfunkanbieter ihre Bündelungs- und Preisstrategien gut<br />

überlegen und auf die Bedürfnisse der Kunden zuschneiden müssen. Die<br />

Möglichkeit kostenlosen Ausprobierens der Dienste sowie ein Übergang zur<br />

inhaltsbezogenen Abrechnung wird in Zukunft <strong>für</strong> erfolgreiche Unternehmen<br />

maßgebend sein.<br />

Gerald Henzinger<br />

Von Apfel-, Mango- und Verzeichnisbäumen<br />

Abstrakt: Der Titel "Von Apfel-, Mango- und Verzeichnisbäumen" ist eine<br />

metaphorische Bezeichnung <strong>für</strong> den eigentlichen Inhalt dieser Arbeit. Der<br />

Apfel, eine in Österreich typische Frucht, die Mango, eine im bolivianischen<br />

Tiefland wachsende Frucht und das Verzeichnis, ein Basiselement in einem<br />

elektronischen Dateisystem, stehen <strong>für</strong> den Vergleich des<br />

<strong>Informatik</strong>unterrichts zwischen Österreich und Bolivien. Die Geschichte<br />

Österreichs und Boliviens verlief sehr unterschiedlich und hat die Entwicklung<br />

der Wirtschaft, Umwelt und Technologie direkt und indirekt beeinflusst.<br />

Auf der einen Seite Österreich, wo die Industrialisierung wie in ganz Europa<br />

im 19. Jahrhundert und mit ihr die Entstehung von Schulen im großen Stil<br />

begonnen hat. Auf der anderen Seite Bolivien, ein Land, das vor der<br />

Entdeckung Amerikas durch Christoph Kolumbus unter der Herrschaft der<br />

Inkas bereits ein funktionierendes Staatssystem hatte und dann durch die<br />

Eroberung und Ausbeutung durch die Spanier sehr gelitten hat. Im Jahre<br />

1825 wurde Bolivien aus der Knechtschaft des Kolonialherrn Spanien<br />

entlassen. Aufgrund schwacher demokratischer Strukturen konnte sich die<br />

politische Lage nicht stabilisieren. Dieser Umstand beeinflusst in gewissem<br />

Maße auch das Bildungssystem, welches meist nach politischen Umstürzen<br />

reformiert wurde. Es gilt nun herauszufinden, inwiefern sich die<br />

Bildungssysteme Österreichs und Boliviens unterscheiden und welche<br />

Gemeinsamkeiten vorliegen. Dazu werden verschiedene Komponenten eines<br />

Schulunterrichts in <strong>Informatik</strong> untersucht. Die erste Komponente ist der<br />

Lehrer. Wir wollen wissen, wie ein Lehrer auf den <strong>Informatik</strong>unterricht<br />

vorbereitet wird. Die zweite Komponente ist der Lehrplan. In Österreich ist<br />

ein solcher vorhanden, in Bolivien ist dies nicht mehr so klar. Bis dato<br />

konnte ich noch kein Dokument mit dem Titel Lehrplan in <strong>Informatik</strong> finden.<br />

Die dritte Komponente ist die technische Ausstattung. Was wäre <strong>Informatik</strong><br />

ohne Computer? Das wäre ein sehr theoretisches Konstrukt, das allerdings<br />

nicht praktikabel zu unterrichten ist. So ist technische Ausstattung in Bezug<br />

auf Didaktik im <strong>Informatik</strong>unterricht ein essentieller Faktor. Eine weitere<br />

Komponente ist die Verwendung von Metaphern. Welche Rolle spielen diese<br />

in der <strong>Informatik</strong> und wie werden sie in Österreich bzw. in Bolivien<br />

verwendet? In Bolivien spielt Entwicklungshilfe beim <strong>Informatik</strong>unterricht an<br />

den Schulen eine gewisse Rolle. Als Beispiel werde ich ein Schulprojekt im<br />

bolivianischen Tiefland heranziehen, in welchem <strong>Informatik</strong>unterricht<br />

realisiert wird.<br />

Daniela Knitel<br />

Lernprogramme in der medizinischen Ausbildung mit besonderer<br />

Berücksichtigung der visuellen Darstellung<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

37<br />

38


Ulrich Kreutzer<br />

Aspekte des Designs und der Implementierung von partizipativen,<br />

ubiquitären Informationssystemen mit Hilfe von RFID-Technologie<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

Abstrakt: Diese Arbeit beschäftigt sich mit den Konzepten der RFID-<br />

Technologie, von Ubiquitous Computing und Web 2.0 und deren<br />

Rekombinations- und Vereinigungspotenzial. Die Radiofrequenz-<br />

Identifikations-Technologie, kurz RFID, bedeutet das automatische Erfassen<br />

von mit RFID-Transpondern ausgestatteten Objekten aller Art. Hierzu<br />

müssen die Transponder keinen Sichtkontakt zum Lesegerät haben.<br />

Ubiquitous Computing beschäftigt sich mit der Einbettung digitaler<br />

Rechenkraft in Alltagsgegenstände durch eine allgegenwärtige Integration<br />

von Computern in das Umfeld und die Umgebung des Menschen. Die<br />

Computer sind so klein und unscheinbar, sodass sie aus dem Bewusstsein<br />

des Menschen rücken. Das Bedienen eines Computers erfolgt somit nicht<br />

mehr aktiv und bewusst, sondern es geschieht eingebettet in den Kontext –<br />

der Mensch denkt bei der Bedienung nicht mehr an einen Computer, er<br />

verwendet ihn einfach so wie er mündliche Sprache <strong>für</strong> die<br />

zwischenmenschliche Kommunikation benutzt. Web 2.0 ist ein neues<br />

Schlagwort aus der Welt des Internets. Web 2.0 ist einerseits ein<br />

Containerbegriff <strong>für</strong> Techniken wie Ajax, andererseits umfasst Web 2.0<br />

auch soziale Aspekte, wie die sich ändernde Rolle des Internetbenutzers,<br />

soziale Software und kollektive Intelligenz. Die Nutzung des Internets ist<br />

gerade im Wandel begriffen. Wurde früher der Benutzer zum simplen<br />

Betrachter von starren Internetseiten degradiert, so gestaltet der<br />

Besucher im Web 2.0 aktiv die Inhalte von Websites. So werden dem<br />

Benutzer nur noch ein Framework und der Kontext zur<br />

Informationsgestaltung zur Verfügung gestellt – die Inhalte selbst bestimmt<br />

ganz alleine der Benutzer. „Wikipedia“ und ähnliche Portale setzen<br />

beispielsweise auf die aktive Beteiligung und Gestaltung durch die Besucher.<br />

Die Kontrolle über die moralische und ethische Verträglichkeit erfolgt nicht<br />

durch eine einzige kontrollierende Instanz und Obrigkeit, sondern durch das<br />

Erreichen der kritischen Masse an Benutzern; Benutzer kontrollieren sich<br />

selbst und die Inhalte – eine Korrektheit der Informationen wird somit<br />

sichergestellt. Die Rekombination und Vereinigung dieser Konzepte wird<br />

anhand der Beschreibung zweier Prototypen, welche im Rahmen dieser<br />

Arbeit entstanden, veranschaulicht. So entstanden ein Community-basiertes<br />

intelligentes System zur Literaturrecherche und ein sozial intelligenter<br />

Kühlschrank.<br />

39<br />

40<br />

Stefan Schauer<br />

soundtubes - Aspekte des Designs und der Implementierung eines<br />

Musikprogramms <strong>für</strong> die spezielle Zielgruppe Kinder<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

Abstrakt: In dieser Diplomarbeit wird das Programm “soundtubes”<br />

vorgestellt. Dieses Programm ist ein Musikprogramm, das <strong>für</strong> Kinder<br />

konzipiert wurde. Die Grundidee war es, einen loop-basierten Sequenzer zu<br />

programmieren, der es dem Benutzer ermöglicht, mit Samples musikalisch<br />

zu arbeiten. Trotz dieser sehr konventionellen Zielsetzung wurde versucht,<br />

die in Musiksoftware-Programmen häufig verwendeten Interface-Metaphern<br />

zu vermeiden, gängige Musikvorstellungen zu brechen und Kindern abseits<br />

vom Instrumentalunterricht einen anderen Zugang zu Musik zu ermöglichen.<br />

Das Programm wird unter den drei Aspekten Technik, Interface und Sound<br />

ausführlich beschrieben.<br />

Tanja SEDLACEK<br />

Mobiles Lernen<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

Patrizia Tampir<br />

Anwendungsorientierte Computerschulung <strong>für</strong> Erwachsene<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />

Abstrakt: Ausgehend von ausgewählten theoretischen Grundlagen der<br />

Didaktik und Lernpsychologie wird ein Konzept <strong>für</strong> eine<br />

zielgruppenspezifische Anwenderschulung von EDV-Grundlagen erstellt. Der<br />

Teilnehmerkreis setzt sich aus einer homogenen Gruppe hinsichtlich<br />

Geschlecht, Alter, Beruf, Beweggrund sowie Vorwissen zusammen, da<br />

ausschließlich Kindergartenpädagoginnen zwischen 45 und 55 Jahren ohne<br />

jegliche Computerkenntnisse unterrichtet werden, um den neuen beruflichen<br />

Anforderungen gerecht zu werden. Gerade die nicht vorhandenen<br />

Erfahrungen in der Bedienung von Computern stellen die größte<br />

Herausforderung dar, da <strong>für</strong> <strong>Informatik</strong>er selbstverständliche Inhalte in einer<br />

Form vermittelt werden müssen, die unerfahrenen Benutzern verständlich<br />

erscheint. So ist die spezifische Aufbereitung der Unterrichtsmaterialien<br />

hinsichtlich Inhaltsabgrenzung und Strukturierung ebenso zwingend<br />

notwendig, wie die geeignete Methodenwahl bei der Wissensvermittlung. In<br />

der praktischen Durchführung der Anwenderschulung haben sich der<br />

abstrakte Aufbau des Betriebs- und Dateisystems sowie die fundamentale


Handhabung von Maus und Tastatur als die größten Herausforderungen <strong>für</strong><br />

die Teilnehmer dargestellt. Nach intensiven Übungssequenzen in den<br />

Grundlagen hat sich die Einführung in die Bedienung der<br />

Anwendungsprogramme MS Word 2003, MS Excel 2003, MS Outlook<br />

2003 und Internet Explorer als weniger problematisch erwiesen. Zwar<br />

waren die <strong>für</strong> effizientes Arbeiten notwendigen Automatismen nicht<br />

vorhanden, doch die Teilnehmer konnten die gestellten Aufgaben mit<br />

kleineren Hilfestellungen durch entdeckendes Lernen ausnahmslos<br />

bewältigen. Anfragen von den Teilnehmern, die mehrere Wochen nach<br />

Abschluss der Schulung zu Funktionen und Vorgangsweisen gestellt werden,<br />

zeigen eine Beschäftigung mit dem Computer – auch über die berufliche<br />

Notwendigkeit hinaus und legen damit den Erfolg des Unterrichts nahe.<br />

Larissa Vincze<br />

Multidimensionale Auswertungen des Designs von Online-Bewerbungsbögen<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Peter Purgathofer<br />

Abstrakt: Ziel dieser Arbeit ist es bestehende online Bewerbungen zu<br />

analysieren und umfassende Kriterien zu erarbeiten nach denen solche<br />

Webseiten erstellt werden sollten und bewertet werden können. Um<br />

Hintergrund <strong>für</strong> eine umfassende und multidimensionale Evaluierung von<br />

Online-Bewerbungen zu schaffen, wird zuerst eine Analyse von vorhandenen<br />

Evaluierungsleitfäden <strong>für</strong> Internetauftritte und Webseiten von verschiedenen<br />

Organisationen gemacht werden. Danach sollten die Kriterien <strong>für</strong> die<br />

Evaluierung von Online-Bewerbungsbögen mit Berücksichtigung von Ziel und<br />

Zielpublikum bestimmt werden. Die Lösung schlägt ein multidimensionalen<br />

Bewertungsmodell vor: Usability, Accessability, Credibility und Ästhetik und<br />

graphisches Design. Aus einer umfassenden Recherche wurden <strong>für</strong> jede<br />

Dimension die <strong>für</strong> die Bewertung von Bewerbungsbögen relevanten Kriterien<br />

ausgewählt. Die Auswertung zeigt, dass die gefundenen Mängel durchaus<br />

von den traditionellen Usability-Bereichen abweichen und daher eine<br />

multidimensionale Analyse notwendig ist. So ist zu hinterfragen, was eine<br />

Seite bringt, die zwar gut benutzbar ist, aber nicht ausreichend glaubwürdig<br />

ist. Webseiten mit gutem Design sind nicht brauchbar, wenn sie nicht<br />

benutzbar sind. Nicht-glaubwürdige Webseiten trotz der guten Benutzbarkeit<br />

können ein Grund <strong>für</strong> abgebrochene Geschäftsaktionen oder Bewerbungen<br />

sein. Nicht zugängliche Seiten schränken die mögliche Anzahl an Bewerbern<br />

ein oder verhindern einen erfolgreichen Abschluss des<br />

Bewerbungsvorganges. Es zeigt sich, dass jeder kritische Fehler in einer der<br />

vier Dimensionen kann ein Grund sein, um den Bewerbungsvorgang zu<br />

verhindern oder zu unterbrechen. Die hier vorgeschlagene multidimensionale<br />

Auswertung kann auch als Vorschlag gesehen werden, wie eine Webseite<br />

umfassend richtig zu gestalten ist. Die multidimensionale Betrachtungsweise<br />

dient dabei einer klaren Strukturierung der Anforderungen.<br />

41<br />

42<br />

Iris Wegscheider<br />

Interaktive Marketinginstrumente im digitalen Fernsehen unter besonderer<br />

Berücksichtigung des österreichischen Marktes<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

Abstrakt: Die "Digitale Revolution" zieht einen starken wirtschaftlichen<br />

Wandel nach sich, der sich nun auch in der Fernsehlandschaft bemerkbar<br />

macht. Nach jahrzehntelanger Nutzung jeweils unterschiedlicher<br />

Übertragungstechnologien und Trägermedien werden Inhalte, wie Bilder,<br />

Musik, Informationen und Videos, zunehmend als digitale Daten übermittelt.<br />

Je nach Nutzensituation können somit verschiedene Endgeräte wie<br />

Fernseher, PC oder Mobiltelefon als Empfangs- und Wiedergabegerät und<br />

sogar als Kommunikationsinstrument dienen. Diese Medienkonvergenz lässt<br />

die Rundfunkindustrie auf zusätzliche Einkommensquellen durch neue<br />

Dienste und Werbeformen wie Video on Demand, Bannerwerbung im<br />

elektronischen Programmführer (EPG), digitale Produktplatzierung und<br />

interaktives Teleshopping hoffen. Diese Entwicklung hat wesentliche<br />

Auswirkungen auf die Wertschöpfungsstruktur von Rundfunkunternehmen,<br />

zumal Telekommunikations- und andere Unternehmen aus rundfunkfremden<br />

Branchen als neue Akteure in den Fernsehmarkt eindringen. Damit ergeben<br />

sich neue Konkurrenzsituationen, aber auch Chancen <strong>für</strong><br />

Kooperationen.Parallel zum Fortschritt der Medientechnologien vollzieht sich<br />

ein Wandel der kulturellen Rahmenbedingungen. Die Gesellschaft entwächst<br />

den starren Normen traditioneller Massenproduktion und ist von markanten<br />

Veränderungen geprägt, die durch Individualisierungstrends, Medienvielfalt<br />

und die Entwicklung der Bevölkerungsstruktur hervorgerufen wurden.<br />

Daraus ergeben sich neue Verhaltensmuster in derMediennutzung und<br />

höhere Ansprüche an das Rundfunkangebot. Der mündige Konsument wehrt<br />

sich gegen die Zwangsbeglückung der Unterbrecherwerbung, zeigt ein<br />

hybrides Kaufverhalten und vergleicht kritisch verschiedene<br />

Produktangebote. In Folge dessen macht sich unter Experten die Meinung<br />

breit, dass klassische Werbespots bald ausgedient haben und neue<br />

Konzepte entwickelt werden müssen. Neue Marketingkonzepte wie<br />

Dialogmarketing, Permissionmarketing, Database Marketing oder Virales<br />

Marketing beziehen den Konsumenten in den Kommunikationsprozess mit<br />

ein und setzen auf Personalisierung und Berücksichtigung von<br />

Kundenw¨unschen. Damit ist es möglich, dem Reaktanzverhalten und der<br />

Informationsüberlastung der Fernsehzuseher entgegenzuwirken. Da auf<br />

diesem Gebiet bei der Bewertung der Werbewirkung jedoch keine<br />

Erfahrungswerte vorliegen, muss auf Wissen und Modelle aus dem<br />

Internetmarketing und der traditionellen Medienwirkungsforschung<br />

zurückgegriffen werden. Großbritannien übernimmt in Europa die<br />

Vorreiterrolle bei digitalem interaktiven Fernsehen. So sind mit der<br />

Fernbedienung abrufbare Dienste wie multimediale Informationen, Wetten,<br />

Abstimmungen und Shoppingportale schon länger etabliert und auch


interaktive Werbung wird in verschiedenen Varianten schon seit März 2000<br />

erfolgreich eingesetzt. Der größte Anbieter Sky Digital erreicht im Jahr<br />

2006 mehr als acht Millionen Fernsehhaushalte mit seinem digitalen<br />

Satellitenangebot – das sind genügend Zuseher, um große Reichweiten <strong>für</strong><br />

die Werbeindustrie bieten zu können. Die grundlegenden<br />

Rahmenbedingungen sind mit Österreich kaum vergleichbar, die Akzeptanz<br />

von Bezahlfernsehen ist in Großbritannien aufgrund des Fehlens<br />

interessanter Premiuminhalte im Free-TV bei weitem höher, und das<br />

Publikum hatte sich durch die frühe Einführung von digitalem bzw.<br />

interaktivem Fernsehen bereits an die Interaktionsmöglichkeiten gewöhnt.<br />

Dennoch können bezüglich der Gestaltungs- und Vermarktungsrichtlinien<br />

auch <strong>für</strong> den österreichischen Markt wertvolle Rückschlüsse gezogen<br />

werden. Doch nicht nur aus wirtschaftlicher Sicht besteht dringender<br />

Handlungsbedarf. Auch der regulatorische Rahmen muss auf die neuen<br />

Gegebenheiten angepasst werden, so wird die zur Zeit bestehende<br />

Trennung der Medien nach technischen Kriterien in der Gesetzgebung<br />

hinterfragt. Es liegen bereits Entwürfe <strong>für</strong> eine Vereinheitlichung der<br />

rechtlichen Bestimmungen <strong>für</strong> gleiche Medienprodukte vor, unabhängig von<br />

der verwendeten Verbreitungsart. Erst mit flexiblen Rahmenbedingungen<br />

wird es möglich, das Potential der neuen Rundfunktechnologien vollständig<br />

auszuschöpfen und in ein neues Fernsehzeitalter einzutreten.<br />

INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND<br />

INTERAKTIVE SYSTEME<br />

Arbeitsbereich Information und Software Engineering<br />

Doris Baum<br />

Visualisations for Comparing Self-organising Maps<br />

Studium: Masterstudium Intelligente Systeme<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Thomas Binder<br />

Usability-Evaluierung von <strong>Universität</strong>swebsites<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />

Abstrakt: Das Internet stellt in der heutigen Informationsgesellschaft eines<br />

der wichtigsten Medien dar, um Informationen zugänglich zu machen. Das<br />

Potential, das es <strong>für</strong> Einrichtungen wie eine <strong>Universität</strong> bietet, ist enorm:<br />

Jede Information, die ein Benutzer der Website entnehmen kann, muss<br />

nicht auf einem anderen Weg erfragt werden und spart somit sowohl dem<br />

Nachfragenden als auch dem Informationsanbieter Zeit und Geld. Wichtig ist<br />

<strong>für</strong> die Website einer <strong>Universität</strong>, dass notwendige Informationen<br />

grundsätzlich vorhanden und leicht zu finden sind. Der entscheidende Faktor<br />

ist dabei die hohe Usability – also die Benutzbarkeit – der Website, da es<br />

Besuchern möglich sein muss, die Website zu bedienen. Ziel der Arbeit ist<br />

es, herauszufinden, wie es um die Usability von <strong>Universität</strong>swebsites<br />

allgemein und der Website der <strong>TU</strong> <strong>Wien</strong> im Speziellen bestellt ist. Zu diesem<br />

Zweck wird mittels Literaturrecherche eine geeignete Methode gesucht, um<br />

die Benutzbarkeit von <strong>Universität</strong>swebsites ermitteln und miteinander<br />

vergleichen zu können. Im Anschluss wird sowohl eine Evaluierung anhand<br />

einer Usability-Heuristik als auch ein Test von ausgewählten Websites<br />

zusammen mit „echten“ Benutzern durchgeführt. Die Ergebnisse zeigen,<br />

dass zahlreiche Usability-Vorschriften eingehalten und auch gute Ideen, wie<br />

sich eine <strong>Universität</strong> im Internet präsentieren kann, umgesetzt werden. Auf<br />

der anderen Seite existiert jedoch noch viel Potential zur Verbesserung, da<br />

bei weitem nicht alle Usability-Kriterien erfüllt werden und auch nicht alle<br />

notwendigen Informationen bereitgestellt werden. Die Arbeit soll somit<br />

helfen, bestehende Internetangebote zu verbessern und<br />

benutzerfreundlicher zu gestallten. Sie soll als Vorlage dienen, wie eine<br />

<strong>Universität</strong>swebsite evaluiert werden kann, und bietet auch gleichzeitig<br />

konkrete Verbesserungsvorschläge <strong>für</strong> die untersuchten Internetauftritte.<br />

Birgit Dippelreiter<br />

Einsatz von Groupware in und zwischen Unternehmen Auswirkungen auf die<br />

Arbeitsabläufe - Eine Analyse<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: Groupware-/Kollaborationstools umfassen ein sehr weites<br />

Spektrum an Funktionalitäten mit der Zielsetzung, Arbeitsabläufe zu<br />

beschleunigen, zu erleichtern und zu unterstützen, Kosten zu reduzieren und<br />

Ergebnis- bzw. Servicequalität zu verbessern. So ist es auch logisch, dass<br />

diesen Zielsetzungen ein sehr breit gefächertes Repertoire an<br />

Softwarelösungen und Designzielen von Software gegenüber steht. In dieser<br />

Arbeit wird der Zusammenhang zwischen Unternehmensführung und<br />

Technologie beschrieben. Im weiteren Verlauf werden Kollaborations-<br />

/Groupwaretools, deren Entwicklung, das Funktionsspektrum dieser Tools<br />

und die Designziele dieser Werkzeuge erklärt. Ein wichtiger Aspekt dieser<br />

Arbeit ist welche Motivation zu Entscheidungen geführt hat<br />

Groupwarelösungen einzusetzen und wie der Einsatz solcher Groupware den<br />

Arbeitsablauf verändern kann. Dieser Aspekt wird anhand einiger Beispiele<br />

aus Wirtschaft und öffentlicher Verwaltung veranschaulicht und näher<br />

gebracht<br />

43<br />

44


Andreas Drucker<br />

Software Project Management <strong>für</strong> embedded Systeme in der automotive<br />

Branche mit Fallstudie<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Abstrakt: Diese Arbeit beschreibt die heutigen Anforderungen der<br />

Automobil-Industrie an ihre Zulieferer betrachtet aus dem Bereich Body &<br />

Chassis. Der Fokus liegt speziell auf das Thema embedded SW und deren<br />

Management. Nach einer detaillierten Beschreibung des Software<br />

Projektmanagements werden die derzeit de-facto Standards nach CMMI<br />

bzw. SPICE <strong>für</strong> Bewertungen der Firmen beschrieben, und die<br />

Motivationsgründe <strong>für</strong> die Änderung der derzeit verwendeten Prozesse.<br />

Siemens VDO (kurz SV) setzt laufend entsprechende Maßnahmen, um den<br />

neuen geänderten Anforderungen gerecht zu werden. Durch die<br />

Beschreibung der Prozesslandschaft und der damit zusammenhängenden<br />

Toollandschaften, wird die Umsetzung im Konzern auf die neuen Bedürfnisse<br />

verdeutlicht. Die Fallstudie – Entwicklung "einer" Standheizung <strong>für</strong> die Firma<br />

Webasto – zeigt die Probleme im konkreten Fall auf. Vor allem durch die<br />

entsprechend lange Laufzeit des seit fünf Jahre laufenden Projektes, sieht<br />

man anhand der sich schnell ändernden Technik, Methodik und<br />

Anforderungen, dass eine ständige Anpassung notwendig ist. Aber auch,<br />

dass viele kleinere Verbesserungen schlussendlich in einem großen neuen<br />

Prozess Enden werden. Die Fallstudie zeigt meinen Erfahrungsbericht über<br />

die Zeit des Projektes, mit welchen (sich ändernden) Anforderungen man als<br />

Software Projektleiter im täglichen Leben konfrontiert ist und dass eigentlich<br />

immer kommerzielle Einschränkungen Kompromisse erfordern, die oft hart<br />

erkämpft oder manchmal leider auch einfach zur Kenntnis genommen<br />

werden müssen.<br />

Emir Dzakic<br />

SemCrypt Show Case: Tabellenkalkulation als verteilte, sichere Anwendung<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Jürgen Dorn<br />

Abstrakt: Die Entwicklung eines sicheren und externen Datenspeichers<br />

erfolgt im Projekt SemCrypt. Dieser arbeitet mit verschlüsselten XML und<br />

verwaltet den kontrollierten Zugriff auf die XML-Elemente. In dieser Arbeit<br />

wurde ein Show Case sensibler Daten <strong>für</strong> den Einsatz in einer SemCrypt<br />

Umgebung entwickelt. Mit dem verbreiteten Tabellenkalkulationsprogramm<br />

Microsoft Excel 2003 wird eine Lösung <strong>für</strong> das verteilte Projektmanagement<br />

vorgeschlagen. Ein standardisiertes XML-Schema <strong>für</strong> Projektmanagement<br />

stellt die Datenquelle <strong>für</strong> Microsoft Excel dar. Die zentrale Datenbasis, die<br />

auf dem externen Datenspeicher liegt, liefert <strong>für</strong> alle Beteiligten aktuelle und<br />

einheitliche Planungsdaten. Zusätzliche Kontrollmechanismen sorgen mittels<br />

45<br />

46<br />

XAccess <strong>für</strong> einen rollenbasierenden Zugang zu bestimmten<br />

Dokumentfragmenten. Microsoft Excel ist als örtlich verteiltes System<br />

positioniert und ermöglicht eine asynchrone Kollaboration. Spezielle<br />

Techniken geben dem Benutzer die Möglichkeit, die Projektdaten individuell<br />

darzustellen. In der Beispielanwendung wurden mehrere Benutzerrollen und<br />

Aufgaben definiert, um diese Techniken zu erproben.<br />

Andreas Fellner<br />

Treating Temporal Uncertainties Of Complex Hierarchical Data Visually<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />

Stefan Fenz<br />

Security Ontologies: Improving Quantitative Risk Analysis<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Abstrakt: Im Laufe der vergangenen Jahre entwickelte sich die IT-Sicherheit<br />

zu einem immer breiter werdenden Fachgebiet und speziell kleinere und<br />

mittlere Unternehmen sind finanziell nicht in der Lage umfassende und<br />

ganzheitliche IT-Sicherheitskonzepte zum Schutz ihrer IT-Infrastruktur zu<br />

implementieren. Ausgehend von dieser Problematik entwickelten wir eine<br />

Ontologie bzgl. IT-Sicherheit, welche eine solide Basis <strong>für</strong> kostengünstige und<br />

möglichst exakte Risiko- und Bedrohungsanalysen bietet. Basierend auf der<br />

Computer Security and Dependability Taxonomie nach Landwehr [ALRL04]<br />

und der Bedrohungsklassifikation nach Peltier [Pel01] wurde die erstellte<br />

Security Ontology verwendet, um systematisch strukturiertes Wissen über<br />

Bedrohungen, Gegenmaßnahmen und Infrastruktur in maschinenlesbarer<br />

und strukturierter Form zu speichern. In einem ersten Schritt werden die<br />

Definitionen von relevanten Klassen unabhängig vom konkreten<br />

Anwendungsfall erstellt und in der Ontologie implementiert um anschließend<br />

konkretes Wissen bezüglich des zu untersuchenden Unternehmens zu<br />

sammeln. Mit dem Wissen über generelle Beziehungen und Abhängigkeiten<br />

von Bedrohungs-, Gegenmaßnahmensund Infrastrukturselementen und dem<br />

konkretenWissen über die Unternehmensinfrastruktur ist es möglich diverse<br />

Bedrohungsszenarien, wie zum Beispiel Feuer oder Virenausbreitung, zu<br />

simulieren. Durch die Simulation von diversen Katastrophen, kombiniert mit<br />

unterschiedlichen Schutzprofilen, ist es möglich eine detaillierte<br />

Kosten/Nutzen-Analyse<br />

verschiedener<br />

Gegenmaßnahmensimplementierungen zu erstellen.


Markus Gärtner<br />

Agent-Mediated Electronic Commerce : e-Market Environment for Trading<br />

Agents<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: In dieser Diplomarbeit wird das Design und die Implementierung<br />

eines elektronischen Marktplatzes (e-Market), welcher Auktionen als<br />

Handelsmechanismus verwendet, erarbeitet. Die Umgebung besteht aus<br />

zwei Teilen. Einem e-Market Kernel, welcher die Handelsumgebung<br />

repräsentiert, und Softwareagenten die als Clients (Handelsagenten)<br />

fungieren. Der elektronische Marktplatz kontrolliert alle Aspekte des<br />

Marktes, der Güter, des Verkaufs und Kaufs sowie die verwendeten<br />

Handelsmechanismen. Am Ende jedes Laufs wird ein Report ausgegeben<br />

der Aufschluss über die Handelsstrategie der einzelnen Agenten gibt. Den<br />

Handelsagenten wird mit diesem elektronischen Marktplatz das nötige<br />

Handwerkszeug zum Kauf und Verkauf beliebiger Produkte zur Verfügung<br />

gestellt. Der elektronische Marktplatz ist im Breich des e-Tourism<br />

angesiedelt jedoch aufgrund einer offenen Architektur auch <strong>für</strong> andere<br />

Domänen einsetzbar. Die Handlungsumgebung bedient sich einem<br />

Regelwerk, den sogenannten Electronic Institutions, zur Festlegung einer<br />

formalen Spezifikation. Der elektronische Marktplatz wird anhand des<br />

Konzepts einer realen Institution entworfen. Handelsagenten soll es<br />

ermöglicht werden sich zu registrieren, Auktionen beizuwohnen, sich über<br />

gehandelte Güter zu informieren und bereits erworbene Güter wieder zu<br />

verkaufen. Die in dieser Arbeit präsentierte Handelsumgebung soll Einblick in<br />

das Verhalten von Handelsagenten, hinsichtlich ihrer Interaktionen zur<br />

Zielerreichung, geben. Ziel ist es einen elektronischen Marktplatz als<br />

wissenschaftliches Instrument zur empirsichen Untersuchung von<br />

Handelsmechanismen zu erstellen.<br />

Roland Gross<br />

Method Tailoring in the V-Modell XT process context for Small and Medium-<br />

Sized Software Development Projects in the Public Sector - Case Study at<br />

Bundesrechenzentrum GmbH<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Abstrakt: Vorgehensmodelle sind ein wesentlicher Erfolgsfaktor im Software<br />

Engineering. Vorgehensmodelle müssen auf die jeweiligen Bedürfnisse von<br />

Projekten angepasst werden um optimale Ergebnisse zu erzielen. Das neue<br />

V-Modell XT stellt ein innovatives Vorgehensmodell am Stand der Technik<br />

dar, dass als verpflichtender Standard <strong>für</strong> Projekte des Deutschen Bundes<br />

einzusetzen ist. Durch den modularen Aufbau, die XML Spezifikation und die<br />

integrierte Auftraggeber / Auftragnehmer Schnittstelle eignet es sich<br />

47<br />

48<br />

besonders <strong>für</strong> den Einsatz im öffentlichen Bereich. Das V-Modell XT hat in<br />

der operativen Beschreibung von Methoden einige Defizite, die mit dem hier<br />

beschriebenen Ansatz behoben werden. Auch Methoden verlangen <strong>für</strong> den<br />

optimalen Einsatz im Projekt eine Anpassung auf die Bedürfnisse der<br />

Projektstakeholder. Methoden-orientiertes Tailoring bietet diese Möglichkeit<br />

aufbauend auf dem Grundgerüst des V-Modell XT. Ausgehend von<br />

definierten Charakteristiken wird ein Projekt bewertet und einem Projekttyp<br />

zugewiesen. Aus dem Projekttyp kann gemeinsam mit der<br />

Durchführungsstrategie aus dem V-Modell XT eine Methoden Matrix erzeugt<br />

werden. Die Methoden Matrix ist das Werkzeug zum Auffinden von<br />

zielgenauen Methodeninformationen (Literatur, Kontaktpersonen, Beispiele,<br />

etc.) zur Projektlaufzeit. Mit der Methoden Matrix ist es dem Anwender<br />

möglich die Defizite auf Methodenlevel des V-Modell XT auszugleichen und<br />

gleichzeitig kontinuierliche Prozessverbesserung durch Feedback zu<br />

betreiben. Ein Prototyp der gemeinsam mit dem Partner<br />

Bundesrechenzentrum GmbH entwickelt wurde, zeigt die Anwendung des<br />

Konzepts in der Praxis.<br />

Peter Hlavec<br />

Innovative User Interfaces for accessing Music on Mobile Devices<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: In dieser Arbeit werden unterschiedliche Visualisierungsarten von<br />

Musiksammlungen auf mobilen Endgeräten vorgestellt. Weiters werden<br />

innovative Ideen zum Navigieren durch Musiksammlungen präsentiert. Um<br />

die angeführten Konzepte auf mobilen Endgeräten zu demonstrieren, wurde<br />

der Prototyp MobileSOM (Mobile Selection of Music) entwickelt. Der<br />

Prototyp basiert auf einem Grid-Unit Verfahren, welches eine Musikbibliothek<br />

als 2-dimensionale Musiklandkarte (Grid) in unterschiedlichen<br />

Visualisierungen darstellt, wobei Musikstücke mit ähnlichen Eigenschaften in<br />

Feldern (Units) zusammengefasst werden. MobileSOM verfügt über ein<br />

intuitives User Interface, das dem Benutzer ein einfaches Auswählen von<br />

beliebigen Musiktiteln auf der Landkarte ermöglicht und diese in einer<br />

Playlist abspeichert. Die Lieder können entweder direkt vom Gerät selbst<br />

oder von einem im Netzwerk verfügbaren Server abgespielt werden.<br />

Außerdem kann das Gerät in Kombination mit MobileSOM als Fernbedienung<br />

benutzt werden. Dabei werden die ausgewählten Songs auf einem anderen<br />

Gerät abgespielt und die Wiedergabe durch die Software ferngesteuert.<br />

Abhängig von den Ausstattung des mobilen Endgerätes kann der Prototyp<br />

Lieder in verschiedenen Audioformaten wie mp3, wav, amr, usw. abspielen.<br />

MobileSOM wurde nicht da<strong>für</strong> konzipiert, um punktgenau einen bestimmten<br />

Titel zu entdecken. Es gibt keine speziellen Suchmechanismen um genau<br />

einen vom Benutzer gewünschten Song zu finden. Vielmehr geht es darum,<br />

den Benutzer bei der Erstellung von Playlisten, abgestimmt auf dessen<br />

Stimmungslage oder Hörverhalten, zu unterstützen. MobileSOMwurde in


Java Micro Edition (J2ME) programmiert und ist somit einem breiten<br />

horizontalen Markt von mobilen Endgeräten zugänglich. Der Prototyp ist der<br />

erste verfügbare Audioplayer in J2ME, mit dem das Erstellen von Playlisten<br />

auf einer Musiklandkarte möglich ist. Zur Demonstration wurden zum<br />

Zeitpunkt der Implementierung die modernsten mobilen Endgeräte<br />

bestimmter Hersteller ausgewählt, um maximale Ressourcen <strong>für</strong> die<br />

rechenintensive Multimedia-Anwendung bereitzustellen. Trotz erfolgreicher<br />

Tests liefen auf Grund von eingeschränkter Leistungsfähigkeit der Hardware<br />

nicht immer alle Bestandteile der Software fließend. Der Speicher <strong>für</strong> mobile<br />

Anwendungen in J2ME ist sehr begrenzt, die Darstellung des User<br />

Interaces zum Teil sehr schleppend, die Wiedergabe von mp3 Dateien in<br />

Java wird nur auf wenigen Geräten unterstützt und das Streamen von<br />

Musikdateien in hoher Qualität über das Netzwerk ist oft mit längeren<br />

Verzögerungen verbunden. Bei den nächsten Generationen von mobilen<br />

Endgeräten werden die erwähnten Schwachstellen der Vergangenheit<br />

angehören. Der in dieser Arbeit präsentierte Prototyp bietet somit Anreiz<br />

<strong>für</strong> die Umsetzung der vorgestellten Konzepte in kommerziellen<br />

Musikanwendungen in der nahen Zukunft.<br />

David Huemer<br />

Development of a modular extensible Framework for Penetration Testing<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Abstrakt: Bei der entwickelten Applikation handelt es sich um ein<br />

Framework, welches externe Programme als Module einbinden kann, deren<br />

Ergebnisse mit Hilfe einer Parser-Engine in ein XML Format umwandelt und<br />

danach diese XML Daten an das Framework weiter reicht. Das Framework<br />

schließlich generiert aus den einzelnen Dateien eine einzige Datei mit allen<br />

Informationen. Diese Informationen werden bei sämtlichen Vorgängen<br />

verschlüsselt abgelegt und können jederzeit in einer beliebigen<br />

Granularitätsstufe abgerufen werden. Dies ist deshalb von Vorteil, da die<br />

Daten dann in weiterer Folge dazu verwendet werden, um einen Bericht <strong>für</strong><br />

verschiedene Stakeholder, wie Management oder Datenbankadministrator,<br />

aufbereitet werden müssen. Das kann nun mit Hilfe des Tools automatisiert<br />

erfolgen. Will man die Applikation erweitern, genügt es das externe<br />

Programm über die Applikation aufzurufen und gegebenenfalls eine Parser-<br />

Logik zu implementieren. Danach kann diese ohne zusätzlichen Aufwand im<br />

Framework verwendet werden.<br />

David Laister<br />

Optimierung der Merkmalsberechnung <strong>für</strong> Audio-Daten<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

49<br />

50<br />

Thomas Lidy<br />

Evaluation of New Audio Features and Their Utilization in Novel Music<br />

Retrieval Applications<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: Die wachsende Popularität und Größe von Musikarchiven – sowohl<br />

im privaten als auch im professionellen Bereich – erfordert neue Methoden<br />

<strong>für</strong> das Organisieren und Suchen von Musik sowie den Zugriff auf diese<br />

Musikkollektionen. Music Information Retrieval ist ein junges<br />

Forschungsgebiet, das sich mit der Entwicklung von automatischen<br />

Methoden zur Berechnung von Ähnlichkeit in Musik beschäftigt, um das<br />

Organisieren von großen Musikarchiven auf Basis von akustischer<br />

Ähnlichkeit zu ermöglichen. Für Musikähnlichkeit spielt eine Vielzahl an<br />

Aspekten eine Rolle: z.B. Tempo, Rhythmus, Melodie, Instrumentierung und<br />

potenziell auch die Struktur (Refrain und Vers), der Text und sogar die<br />

verwendete Sprache. Um Musik semantisch erfassen zu können, ohne jeden<br />

einzelnen Song manuell beschriften zu müssen, wird viel Forschung zur<br />

automatischen Extraktion solcher musikalischen Aspekte betrieben. Diese<br />

Algorithmen zur sogenannten Feature (Merkmals-) Extraktion bilden das<br />

Herzstück einer Reihe von weiteren Aufgaben. Unter Verwendung von<br />

Klassifikationsalgorithmen können damit ganze Musikarchive automatisch in<br />

Kategorien organisiert werden. Allerdings stellt oft die Einteilung dieser<br />

Kategorien selbst ein Problem dar, sodass andere Methoden gefunden<br />

wurden, die Musiksammlungen rein aufgrund von Musikähnlichkeiten in<br />

Cluster gruppieren. Dabei wird Musik, die sehr ähnlich klingt, zusammen<br />

gruppiert und gleichzeitig von Musik mit anderen Charakteristika distanziert.<br />

Um das Resultat intuitiv darstellen zu können, wurde eine Reihe von<br />

Visualisierungen <strong>für</strong> die Darstellung von Musikarchiven entwickelt. Diese<br />

Diplomarbeit stellt zwei neue Algorithmen <strong>für</strong> die automatische<br />

Merkmalsextraktion aus Musik vor und beschreibt eine Reihe von<br />

Verbesserungen an einem weiteren, bereits existierenden Verfahren.<br />

Weiters beinhaltet die Arbeit eine Studie zur Bedeutung der Psycho-Akustik<br />

in der Berechnung von Musikmerkmalen. Alle neuen Verfahren werden<br />

anhand von Referenz-Musikkollektionen sowie in internationalen<br />

Performancevergleichen (auf Basis von Genre-Klassifizierung, Interpret-<br />

Erkennung und Ähnlichkeitssuche) evaluiert. Darüber hinaus wird eine<br />

neuartige Software vorgestellt, die Musiksammlungen auf Musiklandkarten<br />

darstellt und das Finden ähnlicher Musik sowie die direkte Interaktion mit<br />

der Sammlung ermöglicht, und zwar sowohl auf PCs als auch auf mobilen<br />

Geräten. Zur Veranschaulichung wurden Mozarts gesamte Werke unter<br />

Verwendung der neuen Methoden zur Merkmalsberechnung auf einer<br />

Musiklandkarte organisiert und die Map of Mozart erstellt.


Hannes Mayrhofer<br />

IT Governance im KMU<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Thomas Moser<br />

Question Answering using the Wikipedia-Oracle<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Andreas Niederbacher<br />

The Blackman Project: Collecting GPS Data for the „Semantic Desktop“<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Martina Osztovits<br />

GenEdit - A Generic Editor and Tools for Questionnaires<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Silvia Miksch<br />

Abstrakt: Im Rahmen dieser Diplomarbeit soll ein generischer Editor <strong>für</strong><br />

Fragebögen entwickelt werden. Zusätzliche Werkzeuge sollen einen<br />

Überblick über die, während der Arbeit mit dem generischen Editor<br />

erfassten zeitorientierten und strukturierten Daten, ermöglichen. Da der<br />

Editor mit Fragebögen verschiedenster Problemstellungen arbeiten können<br />

soll, ist es notwendig, dass die spezifische Anwendung, und auch die<br />

Fragebögen und deren Antworten aufgrund verschiedenster<br />

Konfigurationsfiles zur Laufzeit erzeugt werden. Es wird darauf abgezielt die<br />

Implementation so allgemein wie möglich zu halten, damit das Programm <strong>für</strong><br />

möglichst viele Aufgabenstellungen eingesetzt werden kann. Schließlich wird<br />

der Einsatz des entwickelten Programms am Fall von Fragebögen, die<br />

während einer klinischen Studie der Kinder- und Jugendpsychiatrie der<br />

Medizinischen <strong>Universität</strong> <strong>Wien</strong> an magersüchtige Mädchen gerichtet<br />

werden, gezeigt. Ziel ist es eine einfachere Eingabemöglichkeit, der,<br />

während dieser Studie gesammelten zeitorientierten, strukturierten Daten,<br />

und eine einfache Verwaltungsmöglichkeit der Fragebögen, zu ermöglichen.<br />

51<br />

52<br />

Julius Peneranda<br />

Automatische Zusammenfassung von Textclustern<br />

Studium: Masterstudium Information and Knowledge Management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: Das Internet bietet eine ständig wachsende Menge an<br />

Informationen zu fast jedem Thema. Allerdings kann das Suchen nach<br />

bestimmten Informationen mit großem Zeitaufwand verbunden sein. Um das<br />

Finden und Wiederfinden von richtigen Informationen zu erleichtern,<br />

tauchten erste Suchmaschinen auf. Allerdings ist das Ergebnis einer<br />

Suchanfrage, in dem alle <strong>für</strong> den Nutzer relevanten Seiten aufgelistet<br />

werden, in der heutigen Zeit nicht mehr geeignet. Extraktionsalgorithmen <strong>für</strong><br />

automatische Zusammenfassungen können hierbei helfen, einen bzw.<br />

mehrere Texte zu einem Thema auf den wesentlichen Inhalt zu verkürzen, so<br />

dass Leser schnell und hochinformativ mit den Kernpunkten der Texte<br />

versorgt werden. Der Ausgangspunkt dieser Arbeit ist die automatische<br />

Zusammenfassung von Text Clustern. Es sollen verschiedene Ansätze, wie<br />

auch neue Methoden der automatischen Erstellung von<br />

Zusammenfassungen vorgestellt und analysiert werden. Weiters sollen die<br />

automatisch erstellten Zusammenfassungen in einer Evaluation mit manuell<br />

verfassten Zusammenfassungen verglichen werden.<br />

Jérôme Peneranda<br />

Text Mining von Songtexten<br />

Studium: Masterstudium Information and Knowledge Management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: In einer Zeit der starken Verbreitung digitaler Musik versucht man<br />

mit verschiedenen Techniken die großen Mengen an Musik zu organisieren.<br />

Ein bewährtes Mittel ist die Einteilung von Musik in das entsprechende<br />

Musikgenre. In dieser Arbeit erfolgt dies durch die Analyse von Musik in<br />

Form von Songtexten. Mit Hilfe von Text Categorization Methoden wird ein<br />

Ansatz zur automatischen Klassifikation von Songtexten, welche<br />

verschiedenen Lyric-Webseiten entnommen wurden, präsentiert. Dazu<br />

werden den Songtexten verschiedene Features, welche sowohl inhaltsbasiert<br />

als auch strukturbasiert sind, extrahiert. Mit diesen Features wird ein<br />

Klassifikator trainiert, welcher dann dem jeweiligen Songtext das<br />

entsprechende Musikgenre zuordnet. Bei der Klassifikation kommen Support<br />

Vector Machines und der Naive Bayes Klassifikator zum Einsatz. Die in<br />

dieser Arbeit durchgeführten Experimente umfassen die Evaluierung des<br />

Klassifikationsprozesses und die Kombination verschiedener Features zur<br />

Steigerung der Klassifikationsgenauigkeit. Mit Hilfe der Ergebnisse wird<br />

untersucht, wie viele Songtexte zur Definition eines Genres erforderlich sind,<br />

wie gut die Klassifikationen ausfallen und welche Featurekombinationen sich<br />

am Besten <strong>für</strong> diesen Ansatz der Songtextklassifikation eignen.


Christian Rauscher<br />

Appointment Arrangement Service: Online Terminabsprache mit .Net 2.0<br />

und Anbindung an MS Outlook 2003<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Angela Roiger<br />

Analyzing, Labeling and Interacting with SOMs for Knowledge Management<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: Self-Organizing Maps erfreuen sich großer Beliebtheit, wenn es<br />

darum geht, komplexe Zusammenhänge hochdimensionaler Daten<br />

vereinfacht darzustellen. Um diese Karten <strong>für</strong> einen Anwender leichter<br />

lesbar zu machen wurden im Rahmen dieser Arbeit Algorithmen<br />

implementiert die Clusterstrukturen in einer Self-Organizing Map aufzeigen.<br />

Das Wissen über die Struktur alleine ist aber noch nicht ausreichend; diese<br />

muss auch verständlich und übersichtlich dargestellt werden. Dazu wurden<br />

Methoden entwickelt die Cluster darzustellen und sie mit geeigneten<br />

Beschriftungen zu versehen. Die Anwendbarkeit wurde anhand einer<br />

Datenbasis von 20.000 Newsgroup Beiträgen untersucht.<br />

Robert Schröttner<br />

ISIM Investigation and Specification - a sample implementation on the IBM<br />

JavaCard (JC/OP)<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Doz. Dr. Ernst Piller<br />

Abstrakt: Diese Arbeit bietet eine Einführung in die ISIM Spezifikation und<br />

zeigt eine Implementierung auf der IBM JavaCard (JC/OP). ISIM ist eine<br />

Spezifikation von 3GPP und definiert, wie Public- und Private-Keys zur<br />

Authentifikation im IP-Multimedia Netz (IMS) auf einer Chipkarte abzulegen<br />

sind. Die Spezifikation weiters noch ein Zugriffsprotokoll und einige<br />

Sicherheitsfunktionen <strong>für</strong> die Karte. ISIM alleine kann zur Authentifizierung<br />

über das LAN im IMS verwendet werden. Bei Verwendung über das UMTS<br />

ist aber die Zusammenarbeit mit anderen Applikationen (z.B. der USIM)<br />

nötig. Die gezeigte Implementierung bietet einen Einblick, wie auf einer<br />

JavaCard die ISIM-Anwendung implementiert werden kann - bildet allerdings<br />

Aufgrund einiger Restriktionen und unterschiedlicher Standards der IBM<br />

JavaCard die Spezifikation nicht vollständig ab<br />

Michael Schuster<br />

Memebrowser: Establishing and Presenting semantic connections between<br />

Weblog entries<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: Personal Knowledge Management ist der jüngste Spross einer<br />

Entwicklung die bereits 1945 mit einem visionären Artikel von Vannevar<br />

Bush begonnen hat. In diesem Artikel beschrieb er den Memex, eine<br />

Maschine die es dem Individuum ermöglichen sollte, sämtliche Bücher,<br />

Erinnerungen und Kommunikationen zu speichern. Das ständig wachsende<br />

Ausmaß an Informationen hat bis dato kein Gerät oder Paradigma mit sich<br />

gebracht, welches in der Lage wäre uns bei der Ver- und Bearbeitung dieser<br />

Informationen (ähnlich dem Memex) behilflich zu sein. Computer selbst, die<br />

ursprünglich <strong>für</strong> genau diese Aufgabe erschaffen wurden, verschlimmerten<br />

die Lage nur noch. Tim Berners-Lee sah sich mit ähnlichen Problemen<br />

konfrontiert und schlug ein Informations Management System vor, welches<br />

wir heute als das World Wide Web kennen. Auch das WWW löste das<br />

Problem nicht, sondern trug nur noch weiter dazu bei. In jüngster Zeit<br />

bewegt sich das WWW wieder zurück zur ursprünglichen Vision, in der<br />

Jeder, unter der Verwendung von einfachen Werkzeugen, das Netz an<br />

Informationen erweitern kann. Eines dieser Tools sind Weblogs, die zu<br />

einem Mittel geworden sind um die Menge der Information im WWW<br />

leichter zu erreichen, sie werden als eine Art persönliches<br />

Wissensmanagement Werkzeug verwendet. Millionen von Bloggern<br />

schreiben ihre Gedanken nieder, äußern ihre Meinungen und Ansichten und<br />

erzeugen damit was Dawkins einst einen "Memepool" nannte. Der Überfluss<br />

an Informationen beginnt sich auf Grund der wachsenden Nutzung auch hier<br />

deutlich zu zeigen. Ein Paradigma welches geschaffen wurde um genau<br />

dieses Problem endlich zu lösen, ist jenes des Semantic Web, in welchem<br />

Computerprogramme sich automatisch durch das Netz bewegen und dieses<br />

verstehen um uns Arbeit abzunehmen. Diese Diplomarbeit hat das Ziel diese<br />

drei Paradigmen, Memes und die Memex Vision, das Semantic Web und<br />

Weblogs zu verbinden. Der Memebrowser ist ein erster Prototyp welcher<br />

den Nutzen von Weblogs als Personal Knowledge Management Tools<br />

erhöhen soll.<br />

Stefan Schwärzler<br />

Neuorientierung des Dokumenten- und Dateimanagements im End-User<br />

Anwendungsbereich<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Dieter Merkl<br />

53<br />

54


Abstrakt: Diese Arbeit stellt das Dateimanagement, wie es gegenwärtig<br />

praktiziert wird, in Frage. Die Anforderungen und der Aufwand <strong>für</strong> die<br />

Organisation der eigenen Dateien, besonders im Desktopbereich, steigt<br />

ständig, weil wir in der täglichen Arbeit mit einer Flut unterschiedlicher<br />

Dokumente zu tun haben: E-Mails und deren Attachments, Dokumente,<br />

welche wir selbst verfassen und speichern wollen, Downloads aus dem<br />

Web, Bilder aus Digitalkameras, Videos.Das bisherige System, diese zu<br />

strukturieren, einzuordnen, zu archivieren und wiederzufinden stößt<br />

zunehmend an seine Grenzen.In dieser Arbeit wird das im Web immer<br />

populärer werdende Tagging, das Annotieren von Objekten mit kleinen<br />

Zettelchen, als möglicher Weg <strong>für</strong> das zukünftige Dateimanagement am<br />

Desktop vorgeschlagen. Das beschriebene System beschränkt sich bei der<br />

Suche nach Objekten auf eine Und-Logik und ermöglicht damit die<br />

Verwendung von Tag-Sets sowohl als Suchspezifikationen als auch als<br />

gefühlte Orte zur Dateiablage. Diese verhalten sich ähnlich wie Verzeichnisse<br />

aus hierarchischen Dateisystemen.Es wurde ein Prototyp entwickelt, der die<br />

Verwaltung der persönlichen Dokumente und Dateien mit Hilfe von Tagging<br />

auf standard Desktop Systemen (Windows, Linux) ermöglicht. Im Rahmen<br />

einer User Study wurden Erfahrungen von acht Benutzern beim ersten<br />

Einsatz des neuen Systems auf ihrem persönlichen Desktop gesammelt.<br />

Ingo Seidel<br />

Integrating Electronic Institutions with 3D Virtual Worlds<br />

Studium: Masterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Dieter Merkl<br />

Abstrakt: Diese Arbeit ist im Zuge eines Forschungsprojektes, welches sich<br />

mit der Umsetzung einer 3D e-Tourismus Umgebung beschäftigt,<br />

entstanden. Das Ziel dieses Projekts ist die Entwicklung eines Instruments,<br />

um die komplexen Interaktionsmuster von Anbietern und Konsumenten im e-<br />

Tourismus zu unterstützen. Diese Anbieter und Konsumenten sind<br />

Teilnehmer in einer heterogenen Gesellschaft von Menschen und Software-<br />

Agenten, die gemeinschaftlich in einer 3D Umgebung basierend auf einem<br />

Multi Agenten System zusammenleben. Im konkreten besteht das System<br />

aus drei Ebenen: einer 3D Visualisierungs-, einer Middleware- und einer<br />

Multi Agenten System Ebene. Diese Arbeit beschäftigt sich mit der<br />

praktischen Umsetzung eines solchen Systems. Der Fokus ist dabei auf das<br />

Design und die Erstellung der Middleware Komponente, sowie auf die<br />

Visualisierung in der 3D Welt gelegt. Die Middleware verbindet das Multi<br />

Agenten System mit der 3D Welt und leitet Nachrichten in beiden<br />

Richtungen weiter. Sie garantiert damit ein konsistentes Verhältnis zwischen<br />

diesen beiden Komponenten, indem jeder Zustandswechsel in der einen<br />

Komponente in der anderen Komponente propagiert wird. Die 3D Welt dient<br />

einerseits als User Interface <strong>für</strong> Benutzer und wird andererseits <strong>für</strong> die<br />

Visualisierung von Softwareagenten verwendet. Die Steuerung dieser<br />

Agenten, sowie die Interaktionsmechanismen mit dem Benutzer werden<br />

ebenfalls in dieser Arbeit vorgestellt.<br />

Rainer Steinlesberger<br />

Codegeneration with Ruby on Rails-Bridging the Gap between Design and<br />

Implementation<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Abstrakt: Basierend auf den derzeitig vorherrschenden Prozessen der<br />

Medikation sowie der Rezeptverschreibung werden Modelle vorgestellt,<br />

welche <strong>für</strong> den elektronischen Ablauf der Rezeptverschreibung und <strong>für</strong> die<br />

Speicherung von Medikationsdaten geeignet sind. Diese Modelle werden<br />

modelliert und simuliert und mit den derzeitigen Prozessen der<br />

Rezeptverschreibung hinsichtlich Kosten- und Zeiteffizienz verglichen. Die<br />

Magisterarbeit demonstriert zum einen, wie die Umsetzung einer<br />

elektronischen Medikation langfristig Kosten- als auch Zeitaufwand reduziert.<br />

Zum anderen wird gezeigt, wie sich durch die Speicherung von<br />

medizinischen Daten die Qualität der medizinischen Versorgung erhöht.<br />

Abdel Aziz Taha<br />

SOM Coloring based on class lebels<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: Die Selbstorganisierende Karte (SOM) ist ein nützliches und<br />

starkesWerkzeug <strong>für</strong> die Datenanalyse, besonders <strong>für</strong> große Datensätze<br />

oder Datensätze von hoher Dimensionalität. SOM Visualisierungen bilden die<br />

Dimensionen des Datenmodells auf graphische Dimensionen wie Farbe und<br />

Position ab, so helfen sie der Navigation und dem Erforschen von dem SOM.<br />

SOM Visualisierungen können auch die Daten selbst einbeziehen, so dass<br />

der Zugriff auf Informationen möglich wird, die in einem reinen SOM nicht<br />

verfügbar sind. Dadurch wird ein tieferer Einblick in die Daten möglich.<br />

Wenn die Daten mit klassen gekennzeichnet sind, können diese Klassen<br />

auch in der Visualisierung einbezogen werden, so dass, eine klarere Idee<br />

über die Klassinformation gewonnen wird. In dieser Arbeit schlagen wir eine<br />

neuartige SOM Visualisierungsmethode, nämlich die SOM Klassenfärbung<br />

vor, welche auf den Datenklassen beruht. Diese Methode findet eine farbige<br />

Partition des SOM-Gitters, die die Klassenstruktur widerspiegelt. Diese<br />

Visualisierung ermöglicht das entdecken von Klassinformation wie<br />

Klassenstruktur, Klassenverteilung und Klassenclusters. Außerdem können<br />

neue Daten Klassen zugeordnet werden und zwar indem der Punkt auf dem<br />

SOM-Gitter ermittelt wird, welcher das neue Datum (Messwert) am besten<br />

55<br />

56


epräsentiert; das neue Datum wird dann jener Klasse zugeordnet, die die<br />

Partition repräsentiert, auf der sich der Punkt befindet.<br />

Jürgen Trauner<br />

Using Work Lists on Mobile Devices as an Example of Mobile Computing in<br />

Health Care Applications<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.-Doz. Dr. Andreas Holzinger<br />

Ramona-Roxana Varvaroi<br />

Investigating the Learning Effect of Usage-Based Reading Software<br />

Inspection in an Empirical Pilot Study<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Abstrakt: Learning is an important activity in software engineering to<br />

improve the understanding of application domains, methods and processes.<br />

One promising method to enable learning is software inspection because of<br />

the systematic and well-defined process. Important goals of inspection are<br />

defect detection regarding all types of software documents (written text<br />

documents and software code) and learning effects applying the method.<br />

Usage-Based Reading (UBR) support the inspection process by providing a<br />

systematic process for traversing the document under inspection based on<br />

a set of prioritized use cases according to their business value contribution.<br />

This thesis deals with the investigation of the learning effect of best-practice<br />

inspection in a large-scale empirical study. We derive learning effects from<br />

performance measures (effectiveness and efficiency of defect detection<br />

capability) on methodological level (applying best-practice inspection).<br />

Learning effects will be enabled by the experiment setup, which includes two<br />

study sessions. A set of predefined defects, seeded by experts, enable the<br />

evaluation of performance measures. Both sessions cover the same<br />

application domain (a taxi management system) from different view points<br />

(central and taxi part) applying the same method (UBR). Therefore, we<br />

derive learning effects between both sessions. The results will be used for<br />

analyzing how the performance results evolve by comparing the two<br />

experiment sessions. The method was applied paper-based so at the end all<br />

participants had to enter their results into a data gathering tool. All<br />

participants put UBR into practice by using a step-by-step guideline and<br />

prioritized use cases. The provided document package consists of<br />

requirements document, design document, method description, source<br />

code and use case prioritisation (with sequence charts). Method description<br />

and source code documents were seeded with defects classified by different<br />

defect types (missing or wrong) and different defect severity levels (risk). The<br />

results of this controlled experiment were evaluated statistically and<br />

57<br />

58<br />

visualized based on an Access Database via Excel and SPSS. A positive<br />

learning effect from the first (central) to the second (taxi) experiment<br />

session was expected and consequently a strong correlation of Qualification<br />

and Performance measurements.<br />

Roland Vecera<br />

Efficient Indexing, Search and Analysis of Event Streams - EventCloud:<br />

Exploration and Analysis Tool for Events<br />

Studium: Masterstudium Information and Knowledge Management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Abstrakt: Today’s business is event-driven. Businesses of all shapes and<br />

sizes are driven by and respond to events. Thus IT-Systems offer a large<br />

amount of events, representing notable activities in complex workflows and<br />

business processes, that are the subject of event analysis. This thesis<br />

highlights the necessity for specialized event analysis tools, explains the<br />

relationship to Complex Event Processing (CEP), outlines requirements and<br />

proposes the EventCloud system.EventCloud is a generic, offline event<br />

analysis tool for Complex Event Processing (CEP) scenarios. EventCloud<br />

enables its user to navigate through events, pick up single events and<br />

display their content, discover chains of events and how they are correlated,<br />

and to recognize patterns inside the events. Metrics can be defined to<br />

provide insight at a higher level and to measure business performance. It<br />

visualizes business and process developments at the fine-grained level of<br />

events.<br />

Matthias Wallner<br />

Modeling and Empirical Evaluation of Service Process Improvement based<br />

on ITIL Best Practices<br />

Studium: Masterstudium Information and Knowledge Management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Abstrakt: Business Prozesse entwickeln sich häufig über Jahre hinweg ohne<br />

entsprechend dokumentiert oder definiert zu sein. Deshalb fehlen den<br />

involvierten Personen exakte Richtlinien wie der Prozess zu handhaben ist.<br />

Die Werte und Risiken der Stakeholder sind ebenfalls oft nicht explizit<br />

bekannt. Ich habe daher eine Fallstudie beim Siemens PSE Windows<br />

Support Center durchgeführt um den Prozess der Handhabung einer<br />

Support Anfrage zu dokumentieren und definieren. Der Prozess wurde <strong>für</strong><br />

zehn Jahre „gelebt“, aber das Fehlen von Spezifikationen hatte zur Folge,<br />

dass einige Prozessteile von verschiedenen Personen unterschiedlich<br />

gehandhabt wurden. Dies kann zu inkonsistenter Dokumentation und<br />

höherem Aufwand <strong>für</strong> Berichte und im Ende bis hin zu niederer<br />

Kundenzufriedenheit führen.Um einen definierten Prozess zu erreichen,


analysierte ich den Prozess basierend auf Interviews mit den involvierten<br />

Stakeholdern und definierte Key Performance Indikatoren (KPI) um die<br />

kritischen Erfolgsfaktoren zu messen. Den KPIs wurden – basierend auf<br />

einer Nutzwertanalyse der Stakeholder – erwünschte Zielwerte und<br />

potentielle Risiken bei deren Nichterreichung zugewiesen. Der neue Prozess<br />

– basierend auf den optimalen Verfahrensrichtlinien von ITIL und den<br />

Prozessdefinitionen von Microsofts eigenem Support Prozess – wurde<br />

implementiert und verglichen mit den festgelegten Zielwerten. Des Weiteren<br />

wurde die Toolunterstützung verbessert um die Mitarbeiter mit dem neuen<br />

Prozess zu unterstützen. Zielpublikum sind sowohl Mitarbeiter in Support<br />

Zentren (Bearbeiter, Manager und Leitung) als auch das höhere<br />

Management, das auf zuverlässige Prozesse in Unterorganisationen<br />

angewiesen ist.<br />

auf 19 Teststücken aus dem Gebiet Unterhaltungmusik der letzten<br />

Jahrzehnte wurde erreicht und untermauert die Stärke dieses Ansatzes.<br />

Thomas Zwanzinger<br />

Interactive Previews in Document Workflows<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Arbeitbereich Interactive Media Systems<br />

Veronika Zenz<br />

Automatic Chord Detection in Polyphonic Audio Data<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Abstrakt: Die automatische Analyse digitalisierter Musikaufnahmen hat eine<br />

lange Tradition. Viele Aufgaben die <strong>für</strong> einen Menschen leicht lösbar sind,<br />

wie das Unterscheiden verschiedener Instrumente, das Erkennen des<br />

Rhythmus oder der Harmonien sind <strong>für</strong> den Computer jedoch noch nicht<br />

gelöst. Speziell von einem automatischen Transkriptionssystem, das aus<br />

einer digitalen Musikaufnahme eine Partitur erstellt, ist man trotz<br />

jahrzehntelanger Forschung noch weit entfernt. Diese Arbeit beschäftigt<br />

sich mit einem Teilproblem der automatischen Transkripition - der<br />

Akkorderkennung. Diese ist besonders interessant, weil Akkorde<br />

vergleichsweise simple und robuste, also über längere Zeitspannen gleich<br />

bleibende Strukturen sind, gleichzeitig aber die harmonischen Eigenschaften<br />

eines Musikstücks vollständig beschreiben. So können Musiker eine Melodie<br />

allein anhand vorgegebener Akkordsymbole begleiten. Ein weiteres<br />

Anwendungsgebiet dieser Arbeit stellt die automatisierte Annotation von<br />

Musikdaten dar. In einem Musikarchiv kann so nach bestimmten<br />

Akkordfolgen, harmonischen und emotionalen Eigenschaften gesucht<br />

werden. Bisherige Ansätze zur Akkorderkennung machen teilweise große<br />

Einschränkungen auf die zu analysierenden Musikdaten, indem sie sich zum<br />

Beispiel auf die Analyse von Musikstücken ohne Schlagzeug oder Gesang<br />

beschränken. Weiters bezieht ein Großteil der bestehenden Arbeiten<br />

musiktheoretische Regeln nicht in die Analyse mit ein und lässt dadurch<br />

hilfreiche Zusatzinformation zur Akkorderkennung unberücksichtigt. Das Ziel<br />

dieser Arbeit ist es, einen Algorithmus zu entwickeln, der auf Musikstücken<br />

mit beliebiger Instrumentierung arbeitet und dabei musiktheoretisches<br />

Wissen zu berücksichtigen. So fließen in den hier entworfenen Algorithmus<br />

Rhythmus, Tonart und das Wissen um Häufigkeiten von Akkordwechseln in<br />

die Akkorderkennung ein. Eine durchschnittliche Erkennungsrate von 64%<br />

59<br />

60<br />

Harald Meyer<br />

Template-based Face Detection in Videos<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />

Abstrakt: Die steigende Nachfrage nach biometrischen Systemen, welche<br />

durch die Bedrohung durch den Terrorismus weiter verstärkt wurde, führt<br />

zu einem stark gesteigerten Interesse an Gesichtserkennungssystemen die<br />

automatisch Individuen aus Bildern und Videos identifizieren können.<br />

Gesichtserkennung wird auf Bilder angewandt, die nur aus einem Gesicht<br />

bestehen. Diese müssen mit Hilfe von Gesichtsdetektionsmethoden<br />

extrahiert werden. In dieser Arbeit wird eine detaillierte übersicht über<br />

aktuelle Gesichtsdetektionssysteme gegeben, wobei der Fokus auf Videos<br />

gelegt wird. Videos haben im Gegensatz zu den meisten unbewegten Bildern<br />

einige Einschränkungen wie zum Beispiel geringere Auflösung und<br />

Störungen. Sie bieten aber auch raumzeitliche Informationen, die aus<br />

aufeinander folgenden Bildern extrahiert werden können. Gesichtserkennung<br />

wird oft erschwert durch Verdeckungen, wechselnde Beleuchtung und<br />

Haltung und Rotation. Der <strong>für</strong> diese Arbeit implementierte Ansatz vereint<br />

mehrere Methoden, um diese Probleme einzuschränken. Zuerst werden mit<br />

Hilfe eines Hautfarbenmodels Regionen extrahiert. Auf diese Regionen wird<br />

dann eine Kantenextraktion angewandt und die Korrelation zwischen<br />

Kantenbild und vorgefertigten Musterbildern über die Hausdorff Distanz<br />

berechnet. Weiters können Gesichtskandidaten mit Hilfe der normalisierten<br />

Kreuzkorrelation und mit einem Munddetektor weiter gefiltert werden.<br />

Videos können außerdem noch unter Ausnützung von raumzeitlichen<br />

Informationen verfeinert werden. Die Evaluierung des Systems zeigt gute<br />

Erkennungsraten in Bildern und Videos.


Arbeitsbereich Business Informatics<br />

Petra Brosch<br />

Ubiquitäre Web-Anwendungen - Realisierung von Adaptierung mit Hilfe<br />

aspektorientierter Programmierung<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Ubiquitäre Web-Anwendungen haben das<br />

anytime/anywhere/anymedia Paradigma zugrunde liegen, und bieten dem<br />

Anwender, egal wann, wo und mit welchem Gerät er diese nutzt, einen<br />

individuell abgestimmten und auf die Rahmenbedingungen des Benutzers<br />

angepassten Inhalt. Im Rahmen einer Kooperation von drei Magisterarbeiten<br />

[Brosch, Mayer, Weissensteiner] wurde ein ubiquitäres<br />

Tourismusinformationssystem entwickelt. Das Ziel dieses Projekts war die<br />

Konzeption, Modellierung und Implementierung einer Web-Anwendung mit<br />

Customizationunterstützung, dh. einer Web-Anwendungen die aufgrund<br />

mehrerer Kontextfaktoren wie Benutzer, Zeit, Ort, Gerät, etc., mit der<br />

Adaptierung ihrer Dienste reagiert. Die Implementierung der<br />

Customizationfunktionalität ist allerdings komplex, da sie an vielen Stellen der<br />

Web-Anwendung Berücksichtigung finden muss und sich quer durch den<br />

Code des Systems zieht. Separation of Concerns ist daher im Sinne der<br />

Wartbarkeit, Erweiterbarkeit, Änderbarkeit, etc. eines Systems<br />

anzustreben. Der Fokus dieser Arbeit liegt auf Aspektorientierung in der<br />

Entwicklung von ubiquitären Web-Anwendungen. Die aspektorientierte<br />

Programmierung unterstützt die Modularisierung von so genannten<br />

Crosscutting Concerns mit Hilfe eines neuen Konzepts, dem Aspekt. Diese<br />

Crosscutting Concerns lassen sich mit herkömmlichen<br />

Modularisierungsmethoden, die beispielsweise die objektorientierte<br />

Programmierung bietet, nicht kapseln, sondern sind über viele<br />

Komponenten eines Programms hinweg verteilt. Typische Beispiele <strong>für</strong><br />

Crosscutting Concerns sind Logging, Authentifizierung und<br />

Fehlerbehandlung. Die Kernfunktionalität eines Systems lässt sich<br />

üblicherweise in Klassen der Geschäftslogik kapseln, nicht so die<br />

Customizationfunktionalität. Daher demonstrieren wir anhand eines<br />

ubiquitären Tourismusinformationssystems den Nutzen und Beitrag von<br />

Aspektorientierung zur Behandlung von Separation of Concerns im<br />

Allgemeinen und insbesondere <strong>für</strong> die Trennung des Customization<br />

Concerns.<br />

Abstrakt: Durch die Veränderung des World Wide Web von einem<br />

statischen Informationsmedium hin zu einem dynamischen<br />

Anwendungsmedium ist der Bedarf an Webanwendungen, die <strong>für</strong> die<br />

Bereitstellung von Diensten über das Web verantwortlich sind, so hoch wie<br />

nie. Es haben sich bereits sehr viele Technologien etabliert, mit Hilfe derer<br />

es möglich ist, Webanwendungen zu entwickeln. Die Anforderungen an<br />

solche Webanwendungen sind sehr vielfältig und mit einer oft kürzeren<br />

Entwicklungszeit, die <strong>für</strong> die Erzeugung der Anwendung zur Verfügung steht,<br />

geht eine meist höhere Komplexität der benötigten Funktionalität einher. Um<br />

es den Entwicklern zu ermöglichen, sich mit dem eigentlichen Problem<br />

auseinander zu setzen und nicht <strong>für</strong> jede Webanwendung das Rad neu<br />

erfinden zu müssen, werden <strong>für</strong> die verschiedenen Technologien<br />

Frameworks geschaffen, die den Programmierer mit Hilfe integrierter<br />

Funktionalitäten bei der Implementierung unterstützen sollen. Eines dieser<br />

Frameworks, das sich erst seit kurzer Zeit im Web etabliert, ist Ruby on<br />

Rails. Es bietet Funktionalitäten, die es dem Entwickler ermöglichen rasch<br />

einen ersten, funktionstüchtigen Prototyp einer Webanwendung zu<br />

generieren, mit Hilfe dessen sofort Feedback vom Benutzer eingeholt<br />

werden kann. Wie es bei vielen Anwendungen im Web der Fall ist, basieren<br />

auch die Applikationen, die mit Ruby on Rails erstellt werden auf einem<br />

relationalen Datenbanksystem. Der Prototyp, der mit Hilfe eines in Rails<br />

integrierten Codegenerators erzeugt wird, bietet jedoch nur eingeschränkte<br />

Funktionalität und es wäre wünschenswert einerseits diese zu erweitern und<br />

andererseits die Anwendung ausgehend von einem Modell, das die<br />

Datenbank beschreibt, generieren zu können.Diese Arbeit versucht in einem<br />

ersten Schritt den von Ruby on Rails bereitgestellten Scaffold-Generator so<br />

zu erweitern, dass der Prototyp auch Validierungsfunktionalität beherrscht.<br />

Dies geschieht mit Hilfe zweier zusätzlicher Datenbanktabellen, die Regeln<br />

<strong>für</strong> die Validierung bereitstellen sollen. Weiters soll die Abbildung von<br />

Beziehungen zwischen Datenbanktabellen automatisch in die Modellklassen<br />

der Webanwendung eingebunden werden.Im zweiten Schritt wird ein<br />

grafischer Editor erstellt, der <strong>für</strong> die Erstellung von logischen<br />

Datenbankmodellen herangezogen werden kann.Schließlich soll am Ende ein<br />

Framework entstehen, das zuerst zur Modellierung von ER-Diagrammen<br />

dient, danach aus dem Modell über einen Zwischenschritt der<br />

Codegeneration die Struktur der Datenbank erstellt und zum Abschluss mit<br />

Hilfe des erweiterten Ruby-Generators den Prototyp einer datenintensiven<br />

Webanwendung erstellt. Aufgrund der Kombination von Modellierung und<br />

dem Einsatz von Ruby on Rails wird dieses Framework Models on Rails<br />

genannt.<br />

Alexander Dick<br />

Codegeneration with Ruby on Rails-Bridging the Gap between Design and<br />

Implementation<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

61<br />

62<br />

Hannes Erven<br />

Web-Transaktionen: Erweiterung der WS-BusinessActivity-Spezifikation um<br />

WS-BusinessActivity–Initiator und Implementierung der beiden Protokolle im<br />

Open Source-Projekt Apache Kandula


Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Derzeit ist der Trend bemerkbar, dass Unternehmen ihre<br />

Geschäftsprozesse in IT-Systemen abbilden und ihre internen Abläufe mit<br />

Hilfe von Geschäftsprozess- Engines koordinieren und teilweise<br />

automatisieren. Bisher waren Automatismen auf Berechnungen mit bereits<br />

vorhandenen Daten beschränkt oder auf aufwändig und individuell<br />

angepasste Schnittstellen zu anderen Systemen angewiesen. Web Services<br />

ermöglichen die einfache, weltweite Vernetzung von Computerprogrammen<br />

über das Internet und damit auch die Einbindung von Diensten, die von<br />

Geschäftspartnern betrieben werden. Um über diese Schnittstellen auch<br />

tatsächlich „Business“ betreiben zu können, ist es erforderlich, dass die<br />

beteiligten Computerprogramme Protokolle verwenden, die eine einheitliche<br />

Sicht beider Geschäftspartner auf die gemeinsamen Aktivitäten<br />

sicherstellen. In der vorliegenden Arbeit wird die Web Services<br />

Transactions-Protokollfamilie analysiert und eine Erweiterung des WS-<br />

BusinessActivity (WS-BA)–Protokolls entwickelt, das WS-BusinessActivity–<br />

Initiator (WS-BA–I)-Protokoll. Anhand einer Referenzimplementierung im<br />

Kandula-Projekt der Apache Software Foundation wird der Einsatz der beiden<br />

Protokolle in einer servicezentrierten Architektur (service oriented<br />

architecture, SOA) demonstriert. Diese Implementierung umfasst sowohl<br />

einen Koordinator <strong>für</strong> WS-BusinessActivity-Transaktionen als auch<br />

Clientbibliotheken <strong>für</strong> das Benutzen des Koordinators und zum Entwickeln<br />

WS-BA-fähiger Web Services. Besonders wichtig bei der Entwicklung des<br />

WS-BusinessActivity–Initiator-Protokoll war es, die Möglichkeit zu schaffen<br />

Initiator und Koordinator sauber von einander getrennt zu betreiben.<br />

Dadurch können Koordinierungsdienste durch vetrauenswürdige Dritte<br />

(trusted third parties) erbracht werden. Die erweiterte Spezifikation<br />

entspricht dem Konzept der getrennten Verantwortungsbereiche (separation<br />

of concerns) und trägt dadurch wesentlich zur Verbesserung von Qualität<br />

und Wiederverwendbarkeit der Softwarekomponenten bei. Sie beseitigt die<br />

wesentlichen Schwächen des Konzepts von WS-BusinessActivity.<br />

Georg Hicker<br />

Web-Transaktionen: Erweiterung der WS-BusinessActivity-Spezifikation um<br />

WS-BusinessActivity–Initiator und Implementierung der beiden Protokolle im<br />

Open Source-Projekt Apache Kandula<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: siehe Hannes Erven<br />

Arnold Karner<br />

Vollständige Codegenerierung mit AndroMDA<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Rudolf Mayer<br />

Ubiquitäre Web-Anwendungen - Entwicklung endgeräteunabhängiger<br />

Lösungsansätze<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Robert Mosser<br />

A B2B Benchmark On Top Of UMM and TPC-App<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Christian Huemer<br />

Abstrakt: Ziel der Diplomarbeit war es einen Benchmark zu kreieren, der<br />

einen Vergleich zwischen den vielen verschiedenen existierenden Businessto-Business<br />

(B2B) Technologien ermöglicht.TPC-App ist der bis dato einzige<br />

bekannte B2B-Benchmark. Er misst den "Throughput (Web Service<br />

Interactions/sec.)" von Application Servern unter Zuhilfenahme von Web<br />

Services. TPC-App ermöglicht es die Leistung der Hardware und der<br />

Software-Plattform (.NET/JAVA) zu messen. Allerdings ist der Benchmark<br />

beschränkt auf bestimmte IT-Technologien.Die UN/CEFACT Modeling<br />

Methodology dient zum Modellieren von B2B Kollaborationen von<br />

verschiedenen Partner unabhängig der zugrunde liegenden Technologien.<br />

Der Fokus liegt dabei auf "business logic, commitments and constraints of<br />

partnerships". Ein UMM Modell kann mit jeder beliebigen Technologie<br />

implementiert werden.Idee war es die Stärken von TPC-App und UMM zu<br />

verbinden. Via Reverse Engineering wurde das repräsentative B2B-Szenario<br />

des TPC-App mit UMM modelliert. Dabei galt es die teilweise grundlegenden<br />

Unterschiede zwischen TPC-App und UMM zu überwinden. Diese<br />

Unterschiede resultieren grossteils aus der unterschiedlichen Ausrichtung<br />

eines Benchmarks und einer Modellierungssprache. Das Resultat ist ein<br />

B2B-Benchmark-Framework das den Vergleich verschiedener B2B-<br />

Technologien ermöglicht. Um den Zusammenhang zu TPC-App und UMM zu<br />

unterstreichen haben wir ihm den Namen UMM-App gegeben. Aufbauend<br />

auf UMM-App wurde ausserdem ein Konzept eines Competition Games<br />

erstellt. In diesem Spiel konkurrieren unabhängige Softwareagenten in einem<br />

Internet-Retail-Markt um Kundenbestellungen und Nachlieferungen von<br />

Lieferanten.<br />

63<br />

64


Matthias Reichhold<br />

Evaluierung des UML Modellierungswerkzeuges StarUML<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Florian Skopik<br />

Moderne Softwareentwicklungsumgebungen - Evaluierung C++/C#-basierter<br />

Ansätze<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Die kurze Geschichte der Softwareentwicklung ist geprägt von<br />

Innovationen. Als relativ junge Ingenieursdisziplin, verglichen mit<br />

Maschinenbau, Elektrontechnik oder dem Bauingenieurswesen, spielt sie<br />

erst seit einigen Jahrzehnten eine tragende Rolle in der technischen<br />

Entwicklung. Ihre Bedeutung nimmt seither jedoch kontinuierlich zu.<br />

Angefangen, in den 1960ern mit Assemblerprogrammierung, etablierten<br />

sich in den 70ern die ersten Hochsprachen am Markt, gefolgt von<br />

objektorientierter Programmierung in den 90er-Jahren. Heute steht die<br />

nächste Revolution bevor, die Einführung der modellgetriebenen<br />

Softwareentwicklung, welche durch ihre noch größere Abstrahierung eine<br />

effizientere Arbeitsweise und eine schnellere Projektumsetzung, als mit<br />

bisher üblichen Mitteln, erlauben soll. Die Arbeitsschritte, die dabei von<br />

einer Entwicklungsumgebung unterstützt werden sollen, werden daher<br />

immer komplexer. Schon längst reicht ein einfacher Texteditor mit einem<br />

Kommandozeilencompiler nicht mehr aus. Für professionelle Entwicklung<br />

wird auch eine professionelle Herangehensweise erforderlich, welche erst<br />

durch ausgereifte Werkzeuge ermöglicht wird. Die vorliegende Arbeit<br />

untersucht, welche Softwareentwicklungsmethoden sich als Standards am<br />

Markt etabliert haben und welche Rolle der vielerorts propagierte<br />

modellgetriebene Ansatz dabei spielt. Weiters werden die heute größten<br />

und bekanntesten integrierten Entwicklungsumgebungen (IDEs) <strong>für</strong> die<br />

Hochsprachen C++ und C# auf deren Fähigkeiten in den Bereichen<br />

Modellierung, Programmierung, Softwarequalitätssicherung, Bedienbarkeit,<br />

Erweiterbarkeit und Support untersucht. Zu diesem Zweck wird ein<br />

Kriterienkatalog vorgestellt, welcher die üblichen Features einer IDE aufzählt<br />

und als Bewertungsgrundlage dient. Eine weitere Arbeit, welche IDEs mit<br />

Java-basierten Ansätzen untersucht, wurde zeitgleich ebenfalls an der <strong>TU</strong><br />

<strong>Wien</strong> / Business Informatics Group von Michael Wihsböck durchgeführt.<br />

65<br />

66<br />

Benedikt Weismann<br />

Architekturzentrierte Modellgetriebene Softwareentwicklung - Fallbeispiel und<br />

Evaluierung<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Constraint satisfaction problems (CSPs) bilden eine Problemklasse<br />

in der Mathematik und <strong>Informatik</strong>, die viele praxisrelevante und schwere<br />

Probleme beinhält. Tree decompositions und generalized hypertree<br />

decompositions sind zwei Methoden, mit denen effizient lösbare CSP<br />

Instanzen identifiziert und <strong>für</strong> solche Instanzen effizient Lösungen berechnet<br />

werden können. Leider ist das Auffinden der optimalen tree decomposition<br />

bzw. generalized hypertree decomposition einer CSP Instanz ein NPvollständiges<br />

Problem. Aus diesem Grund sind in der Vergangenheit bereits<br />

viele heuristische Methoden <strong>für</strong> tree decompositions und generalized<br />

hypertree decompositions vorgestellt worden. In dieser Magisterarbeit<br />

erweitern wir bereits existierende heuristische Verfahren <strong>für</strong> tree<br />

decompositions zu einem A* Algorithmus und einem genetischen<br />

Algorithmus <strong>für</strong> tree decompositions bzw. zu einem genetischen Algorithmus<br />

und einem selbst adaptierenden genetischen Algorithmus <strong>für</strong> generalized<br />

hypertree decompositions. Weiters beweisen wir, dass elimination orderings<br />

einen geeigneten Suchraum <strong>für</strong> die generalized hypertree width darstellen,<br />

und wir entwickeln eine lower bound Heuristik <strong>für</strong> die generalized hypertree<br />

width. Außerdem zeigen wir, dass existierende Techniken, um den<br />

Suchraum <strong>für</strong> optimale tree decompositions zu verkleinern, auch <strong>für</strong><br />

generalized hypertree decompositions angewendet werden können.<br />

Basierend auf diesen Resultaten entwickeln wir einen branch and bound<br />

Algorithmus und einen A* Algorithmus <strong>für</strong> generalized hypertree<br />

decompositions. Testergebnisse zeigen, dass die vorgestellten heuristischen<br />

Methoden in der Lage sind, mit anderen Verfahren zu konkurrieren. Die<br />

genetischen Algorithmen und der branch and bound Algorithmus finden <strong>für</strong><br />

viele benchmark Instanzen verbesserte obere Schranken <strong>für</strong> tree- und<br />

generalized hypertree width. Für einige Instanzen können die A* Algorithmen<br />

und der branch und bound Algorithmus tree- und generalized hypertree<br />

width exakt bestimmen.<br />

Arnold Weissensteiner<br />

Ubiquitäre Web-Anwendungen - Modellierung und Implementierung von<br />

Kontextinformation<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Ubiquitäre Web-Anwendungen sollen, entsprechend dem<br />

anytime/anywhere/anymedia Paradigma, dem Anwender, egal wann, wo<br />

und mit welchem Gerät er die Anwendung nutzt, einen individuell


abgestimmten und auf die Rahmenbedingungen des Benutzers angepassten<br />

Inhalt liefern. Im Rahmen einer Kooperation von drei Magisterarbeiten<br />

[Bros06, Maye06,Weis06] wurde ein ubiquitäres<br />

Tourismusinformationssystem entwickelt. Das Ziel dieses umfangreichen<br />

Projekts war die Konzeption, Modellierung und Implementierung einer Web-<br />

Anwendung mit Customizationunterstützung, dh. einer Web-Anwendungen,<br />

die aufgrund verschiedener Kontextfaktoren wie Benutzer, Zeit, Ort, Gerät,<br />

etc., mit der Adaptierung ihrer Dienste reagiert. Hierbei ist eine<br />

entsprechende Kontextbehandlung insbesondere betreffend die<br />

Repräsentation, die Erfassung und die Auswertung von Kontextinformation<br />

von entscheidender Bedeutung. Darüber hinaus ergibt sich das Problem,<br />

dass sich die Kontexterfassung und Auswertung des aktuellen Kontexts über<br />

die gesamte Web-Anwendung erstreckt. Diese Funktionalit¨aten sind meist<br />

fix im Sourcecode verankert, wodurch die Wartung und Flexibilität des<br />

Systems erheblich eingeschr ¨ankt wird. Daher sollen diese Komponenten<br />

gekapselt und separiert von der restlichen Anwendung implementiert<br />

werden, was in dieser Arbeit mit Hilfe von aspektorientierter<br />

Programmierung gelöst wird. Für ubiquit¨are Web-Anwendungen und die<br />

Customization ihrer Dienste ist der Kontext das Basiselement, ohne<br />

welchem keine Adaptierung m¨oglich ist. Die Rolle des Kontext in<br />

ubiquit¨aren Web-Anwendungen ist das Thema dieser Arbeit. Hierbei wird<br />

auf die Erfassung, Repr¨asentation und Auswertung von<br />

Kontextinformationen eingegangen, wobei Grundlagen verschiedener<br />

Kontextmodelle <strong>für</strong> die Repräsentation dargestellt werden und ein Einblick in<br />

Regelsysteme <strong>für</strong> die Auswertung von Kontextinformationen gegeben wird.<br />

Im Anschluss wird auf die Umsetzung der Kontextbehandlung und das<br />

entwickelte Regelsystem <strong>für</strong> die Adaptierungen im Forschungsprototyp<br />

eingegangen.<br />

werden. Reichten zur Entwicklung mit Assembler bzw. frühen Hochsprachen<br />

noch ein einfacher Texteditor in Kombination mit einem Compiler oder<br />

Linker, so wurden bei objektorientierten Sprachen großteils bereits<br />

umfangreiche integrierte Entwicklungsumgebungen eingesetzt. In dieser<br />

Arbeit sollen die Möglichkeiten gängiger integrierter<br />

Entwicklungsumgebungen anhand eines erstellten Kriterienkatalogs bewertet<br />

werden. Die Produkte werden hinsichtlich ihrer Möglichkeiten in den<br />

Bereichen Programmierung, Modellierung, Softwarequalitätssicherung,<br />

Erweiterbarkeit und Bedienung evaluiert. Es wurden bei den Produkten<br />

sowohl Vertreter aus dem kommerziellen, als auch dem freien (Open<br />

Source) Umfeld <strong>für</strong> die Entwicklung mit der Programmiersprache Java<br />

gewählt. Diese Arbeit konzentriert sich bei den Untersuchungen auf die<br />

Entwicklungsumgebungen Eclipse 3.2, Netbeans 5.5, JBuilder 2006 und<br />

IntelliJ IDEA 6.0. Eine weitere Arbeit, welche IDEs mit C++/C#-basierten<br />

Ansätzen untersucht, wurde zeitgleich ebenfalls an der <strong>TU</strong> <strong>Wien</strong> / Business<br />

Informatics Group von Florian Skopik durchgeführt.<br />

Michael Wihsböck<br />

Moderne Softwareentwicklungsumgebungen - Evaluierung Java-basierter<br />

Ansätze<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: In den letzten Jahrzehnten durchlief die Softwareentwicklung eine<br />

eindrucksvolle Evolution. Anfang der 1960er Jahre begann die kommerzielle<br />

Softwareentwicklung mit primitiven Assemblerinstruktionen, kurz darauf<br />

folgten bereits die ersten Hochsprachen. In den 1990er Jahren setzte sich<br />

schließlich die objektorientierte Softwareentwicklung durch. Nun scheint<br />

diese Evolution ihre Fortsetzung durch modellgetriebene Ansätze zu finden.<br />

Diese Ansätze versuchen die objektorientierte Programmierung durch<br />

grafische Modelle zu ergänzen, und so auch die Software allgemeiner zu<br />

gestalten, um gegebenenfalls auch die eigentliche Programmiersprache<br />

ersetzen zu können. Durch die Arbeit mit diesen neuen Techniken müssen<br />

die entsprechenden Entwicklungsumgebungen zwangsläufig komplexer<br />

67<br />

68


INSTI<strong>TU</strong>T „INTEGRIERT S<strong>TU</strong>DIEREN“<br />

Christoph Veigl<br />

Ein universelles System zur Anwendung von Biosignalen im Biofeedback und<br />

als Human Computer Interface<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Zagler<br />

Abstrakt: Die vorliegende Arbeit zeigt eine Hard- und Softwarelösung <strong>für</strong> ein<br />

System zur Erhebung, Analyse und Klassifikation von Biosignalen, das<br />

gänzlich aus OpenSource-Komponenten aufgebaut und somit kostengünstig<br />

realisierbar ist. Die Hardwarekom-ponenten basieren auf den EEG-<br />

Verstärkern des OpenEEG-Projektes (ModularEEG und MonolithEEG), welche<br />

bis zu sechs Kanäle <strong>für</strong> die Verstärkung und Digitalisie-rung bioelektrischer<br />

Signale wie EEG, EKG, EMG, EOG oder anderer Feedbackpa-rameter wie<br />

EDA, Atmung, Temperatur oder Lageänderung zur Verfügung stellen. Die<br />

erarbeitete Softwarelösung (BrainBay) dient zur Echtzeitanalyse und<br />

Auswertung dieser Parameter. Die Konfiguration der Signalverarbeitung<br />

erfolgt vollständig durch eine grafische Benutzeroberfläche, welche die<br />

Anordnung und Verbindung funktiona-ler Elemente während der Laufzeit<br />

erlaubt. Derzeit stehen mehr als 40 Elemente zur Verfügung, von denen<br />

einige zur Verwendung im Bereich der Kommunikationsunter-stützung <strong>für</strong><br />

motorisch behinderte Menschen geeignet sind. So ist etwa eine Gesichtserkennung<br />

über Webcam mit Bewegungstracking realisiert, die zur<br />

berührungs-losen Steuerung des Mauszeigers und zum Auslösen von<br />

Mausklicks verwendet werden kann (optische Maus). Die Arbeit gibt einen<br />

Überblick auf bestehende Lösungen in der Biosignal- und HCI-Technik, stellt<br />

das erabeitete System in seinen Komponenten und in der Anwendung dar<br />

und evaluiert Ergebnisse anhand konkreter Tests von Settings <strong>für</strong><br />

Neurofeed-back, Muskelrehabilitation und Kamera-Maus-Steuerung.<br />

INSTI<strong>TU</strong>T FÜR ANALYSIS UND SIENTIFIC<br />

COMPUTING<br />

Abstrakt: Bei der diagnostischen und auch therapeutischen<br />

Ultraschallanwendung werden Energien in den menschlichen Körper<br />

übertragen, die in Form von Wärme in Wechselwirkung mit dem Gewebe<br />

treten.Es ist daher erforderlich, bei Langzeitanwendungen genaue<br />

Informationen über die Temperaturerhöhungen an einzelnen<br />

Körperregionen, Organgrenzen oder an Implantaten zu ermitteln. Zu diesem<br />

Zweck wurde ein neuartiges modulares Thermosensorensystem entwickelt.<br />

[Methodik] Das Thermosensorensystem besteht aus einer so genannten<br />

Combobox, die als Schnittstelle zwischen Sensorensystem und<br />

datenauswertenden Komponenten (Notebook, Handheld) dient. Die<br />

Übertragung geschieht mittels drahtloser Bluetoothverbindung oder USB-<br />

Technik. Dies ermöglicht eine Miniaturisierung und Modularisierung von<br />

Messversuchen, da die Combobox mit einem variablen Interface<br />

ausgestattet ist. Auch die verwendeten Softwarealgorithmen und<br />

Visualisierungsmöglichkeiten sind durch Module gekoppelt und individuell,<br />

projektbasierend zusammensetzbar. [Technik] Die verwendeten<br />

Übertragungstechniken entsprechen internationalen Normen. Durch<br />

Verwendung des Miniatur-Messaufbaus und drahtloser<br />

Übertragungstechniken ist es möglich, die Messung und Auswertung in<br />

separaten Räumen durchzuführen und dadurch auch Versuche auszuführen,<br />

bei denen kein direkter Kontakt zum Versuchsaufbau möglich ist. Mit einer<br />

10 Bit Auflösung ist es hier möglich, eine Genauigkeit bis zu 0,09° zu<br />

erreichen. Die Visualisierungssoftware wurde eingehend getestet, um die<br />

Fehler auf ein Minimum zu reduzieren, und hat sich bei den präsentierten<br />

Testmessungen an einem Phantom als robust arbeitend erwiesen.<br />

[Ergebnisse] Größere Versuchsreihen wurden am Zentrum <strong>für</strong><br />

Biomedizinische Technik und Physik in Zusammenarbeit mit dem<br />

Orthopädischen Spital Speising durchgeführt. Hierbei lag der Fokus der<br />

Zusammenarbeit mit dem Orthopädischen Spital Speising auf Diagnose und<br />

Therapie von künstlichen Hüftgelenksprothesen mittels<br />

Ultraschallbehandlung. Dabei wurde ein prothetisches Hüftgelenk und das in<br />

dieser Arbeit vorgestellte „Prometheus“ Tool verwendet. Bei der üblichen<br />

Beschallung des Versuchsobjekts konnte eine Erhöhung der Temperatur um<br />

durchschnittlich 3-4°C festgestellt werden. Nach Absprache mit Dr. Gerda<br />

Vacariu, Oberärztin des Instituts <strong>für</strong> Physikalische Medizin und<br />

Orthopädische Rehabilitation, wurde auch eine medizinische Stellungnahme<br />

des thermischen Effektes erarbeitet und mit verschiedenen Stellungnahmen<br />

aus der Literatur diskutiert.<br />

Günther Tschabuschnig<br />

Prometheus:Qualitätskontrollierendes Simulations- und<br />

Datenauswerteverfahren <strong>für</strong> diagnostischen und therapeutischen Ultraschall<br />

an Hüftprothesen<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Frank Rattay<br />

69<br />

70


INSTI<strong>TU</strong>T FÜR DISKRETE MATHEMATIK UND<br />

GEOMETRIE<br />

Nicolas Thorstensen<br />

Measuring Cortical Tissue Thickness Computational<br />

Studium: Masterstudium Computergraphik und digitale Bildverarbeitung<br />

BetreuerIn: O.Univ.Prof. Dr. Helmut Pottmann<br />

gemeinsam mit den wachsenden Riesen der Welt, wie der Volksrepublik<br />

China, Brasilien, Russland, Indien, Mexiko, Argentinien, Indonesien, Thailand<br />

und Pakistan zu den sich am raschesten entwickelnden Märkten der Welt.<br />

Aufgabe und Ziel dieser Arbeit soll es somit sein, einerseits die wichtigsten<br />

Theorien und Motive der Direktinvestitionen im Ausland durchzunehmen und<br />

andererseits dieökonomischen Rahmenbedingungen der Türkei und die<br />

ausländische Direktinvestitionen in die Türkei nach dem Portfolio-<br />

Management darzustellen und zu analysieren.<br />

INSTI<strong>TU</strong>T FÜR WIRTSCHAFTSMATHEMATIK<br />

Ali Akcaglayan<br />

Analyse der ausländischen Direktinvestitionen in der Türkei mit Portfolio-<br />

Technik<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />

Abstrakt: Für viele international und global agierende Unternehmen ist die<br />

Entscheidung <strong>für</strong> eine Direktinvestition in einem ausländischen Markt schon<br />

lange keine optionale Frage mehr. Vielmehr ist das Ziel der Sicherung des<br />

eigenen Markteinteils oder das Wachstum des Unternehmens von der<br />

Nutzung der unternehmensspezifischen Wettbewerbsvorteile in einem<br />

fremden Markt abhängig. Der Wirtschaftstandort Türkei stellt hinsichtlich<br />

seiner geographischen und strategischen Lage im wahrsten Sinne des<br />

Wortes eine Brückenfunktion zwischen Europa und Asien dar. Kulturell<br />

gesehen ist die Türkei ein Bindeglied zwischen dem Orient und dem<br />

Okzident, doch in wirtschaftlicher Hinsicht fungiert die Türkei zunehmend als<br />

Drehscheibe zwischen Europa, dem Mittleren Osten und Zentralasien.<br />

Gerade aus diesem Grund ist die Türkei in ihrer Region ein bedeutender und<br />

strategisch wichtiger Wirtschaftsfaktor. Der interne Markt ist mit ca. 72<br />

Millionen Einwohnern sehr attraktiv. Außerdem bietet die Türkei<br />

ausländischen Investoren eine dynamische Wirtschaft, gut qualifizierte<br />

Arbeitskräfte mit niedrigen Löhnen, ein großes und stabiles Wachstum,<br />

günstige Produktionsmöglichkeiten, eine entwickelte Infrastruktur, ein<br />

liberales Investitionsklima, gute Investitionsförderungen und ein hohes<br />

Qualitätsniveau in der Industrie und im Dienstleistungssektor. Diese gute<br />

Position wurde schon vor langem von zahlreichen ausländischen Investoren<br />

entdeckt. Die Türkei gehört zu den wenigen Staaten, die in den letzten vier<br />

Jahren eine durchschnittliche Wachstumsrate von 8% erreicht haben. Es<br />

wird von Experten internationaler Organisationen, wie der OECD und dem<br />

IMF prognostiziert, dass die Türkei in den kommenden Jahren ähnlich hohe<br />

Wachstumsraten erzielen wird. Nach einer Studie der Weltbank steht die<br />

Türkei mit der gesamten Wachstumsrate des Bruttoinlandsproduktes unter<br />

127 Ländern an 16. Stelle. Der Weltbank zufolge gehört die Türkei<br />

71<br />

72<br />

Johannes Chalupa<br />

Makroökonomische Gesamtmodelle Europas<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />

Stefan Csordas<br />

Regionalism and the World Trade System<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />

Abstrakt: Nach Ende des 2. Weltkrieges wurden Handelsliberalisierungen<br />

auf zwei Ebenen durchgeführt; global im Rahmen des GATT und regional<br />

durch Gründung einer Vielzahl von regionalen Handelabkommen (RHAs). In<br />

den 1950er bzw. 1960er Jahren fand ein Regionalisierungsschub statt, der<br />

heute als alter Regionalismus bezeichnet wird. Insbesondere<br />

Entwicklungsländer schlossen in dieser Zeitperiode überall auf der Welt<br />

Handelbündnisse, doch die überwiegende Mehrheit dieser Initiativen blieb<br />

erfolglos. Der so genannte zweite oder neue Regionalismus setzte in den<br />

1990er Jahren ein und hält weiter an. Heute existieren weltweit mehr als<br />

200 RHAs, und beinahe jedes Land ist Mitglied in zumindest einem davon.<br />

Die rasante Verbreitung von RHAs hat unter Ökonomen und politische<br />

Entscheidungsträger zu einer breiten Diskussion geführt. Im Fokus der<br />

Forschung befinden sich insbesondere zwei Punkte. Erstens, die<br />

Wohlfahrtseffekte des neuen Regionalismus und zweitens, seine<br />

Auswirkungen auf das multilaterale Handelssystem. Die Fachwelt ist in zwei<br />

Gruppen gespalten: Diejenigen, die die Rolle von RHAs positiv einschätzen<br />

und andere, die in ihnen eine Gefahr <strong>für</strong> die multilaterale<br />

Handelsliberalisierung im Rahmen des GATT/WTO-Systems sehen. Diese<br />

Arbeit betrachtet die laufende, offene und dynamische Diskussion kritisch<br />

und versucht eine Synthese der verschiedenen analytischen Modelle.


Wolfgang Genta<br />

Stabilitäts- und Wachstumspakt-der Fall Italien<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />

Anis Hadzisalihovic<br />

Aktionsalgorithmen in der betrieblichen Optimierung<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Alexander Mehlmann<br />

Abstrakt: Optimierungsprobleme sind unmittelbare Faktoren der getro enen<br />

Entscheidungen in der Welt. Die Entscheidungsauswahl kann mit<br />

verschiedener Vorgehensweise algorithmisch dargestellt werden. Der<br />

Schwerpunkt ist es, ein Modell der Entscheidung zu entwickeln und<br />

verschiedene Aktionsalgorithmen anzuwenden. Der Name<br />

Aktionsalgorithmus soll den Zusammenhang zwischen einem abstrakten<br />

Konzept der <strong>Informatik</strong> und der praktischen wirtschaftlichen Dynamik in der<br />

Anwendung illustrieren. Die besondere Betonung der Aktion trägt der<br />

Tatsache Rechnung, dass in der Praxis häu g bestehende Forschungs oder<br />

Wirtschaftsalgorithmen durch Hinzuf ügen neuer Funktionalitäten an<br />

veränderte Anforderungen angepasst werden müssen. Da diese<br />

Funktionalitäten oft auch strukturelle Änderungen, zum Beispiel neue<br />

algorithmische Techniken, mit sich bringen müssen sie von allgemeinen<br />

Konzepten streng unterschieden werden. Diese Algorithmen werden mit<br />

starkem Bezug auf ihre Praxistauglichkeit betrachtet und mit verschiedenen<br />

Modelldarstellungen und separaten Kompetenzvergleich der einzelnen<br />

Aspekte analysiert. Diese Arbeit ist eine Kopplung zwischen Software<br />

Entwicklung und Unternehmensforschung mit Blickrichtung auf<br />

wirtschaftliche, informatische und anderen Forschungsmethoden in der<br />

Realität. Das Verständnis dieser Arbeit setzt gute technische Kenntnisse vor<br />

allem in der Programmierung und der Software Projektplanung voraus. Die<br />

erforderlichen Wirtschaftskenntnisse werden mit Hilfe der Ergebnisse der<br />

verschiedenen Algorithmen interpretiert um die Verständlichkeit zu erhöhen.<br />

Ziel dieser Arbeit ist es, die wichtigsten Algorithmen vorzustellen, zu<br />

vergleichen, zu mischen und ihre höhere Funktionalität um einige<br />

praxisrelevante Methoden zu erweitern. Die grundlegenden Funktionen und<br />

Konzepte der Optimierung sollen an realitätsnahen Beispielen erläutert<br />

werden. Die vorgestellten Algorithmen mit ihren Outputs sind noch nicht in<br />

der allgemeinen Wirtschaft bestätigt und akzeptiert.<br />

Christian Winkelhofer<br />

Agentenbasierte Simulationen der europäischen Energiewirtschaft und deren<br />

Einsatzmöglichkeiten im Unterricht<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />

INSTI<strong>TU</strong>T FÜR STATISTIK UND<br />

WAHRSCHEINLICHKEITSTHEORIE<br />

Manuel Eugster<br />

Meta-Learning: Machine Learning with No Idea?<br />

Studium: Magisterstudium Computational Intelligence<br />

BetreuerIn: Privat.-Doz. Dr. Friedrich Leisch<br />

Abstrakt: Das Ziel dieser Masterarbeit ist es, eine Antwort auf die Frage zu<br />

finden, die sich mir in verschiedenen Vorlesungen über Machine Learning,<br />

Data Mining und Neuronale Netzwerke gestellt hat: "Und wie entscheide ich<br />

mich jetzt <strong>für</strong> die richtige Methode bei einem neuen Lernproblem?" Eine<br />

mögliche Antwort liefert meta-learning. Dabei wird das Wissen bezüglich der<br />

Qualität verschiedener Machine Learning-Methoden aus schon behandelten<br />

Lernproblemen <strong>für</strong> einen Vorschlag <strong>für</strong> das neue Lernproblem verwendet.<br />

Die betrachteten Probleme beschränken sich auf Klassifikationsprobleme.<br />

Die Qualität und die daraus resultierende Reihenfolge verschiedener<br />

Klassifikationsmethoden <strong>für</strong> ein Lernproblem werden mittels Benchmark-<br />

Experimenten bestimmt. Maße <strong>für</strong> die Qualität sind die<br />

Missklassifikationsrate und die Zeit welche ein Benchmark-Experiment<br />

benötigt. Um die verschiedenen Probleme in Relation bringen zu können,<br />

wird eine Charakterisierung mittels statistischen und<br />

informationstheoretischen Maßen definiert. Ebenso wird ein Ähnlichkeitsmaß<br />

mit Behandlung der speziellen Eigenschaften der Charakterisierung<br />

eingeführt. Auf Basis dieser Daten wird ein neues Problem definiert,<br />

welches eine Antwort auf die eingangs gestellte Frage liefert. In der<br />

bestehenden Literatur existieren dazu drei verschiedene Methoden. Die<br />

ersten beiden Methoden formulieren das Problem als Klassifikations- bzw.<br />

Regressionsproblem mit unterschiedlichsten Möglichkeiten <strong>für</strong> die abhängige<br />

Variable. Die dritte Methode verwendet die Ähnlichkeit von Problemen und<br />

ein Schema <strong>für</strong> die Reihenfolgebestimmung.Alle drei Ansätze werden<br />

einführend erklärt, eine konkrete Formulierung wird <strong>für</strong> ein<br />

Regressionsproblem mittels Nadaraya-Watson-Schätzer und der dritte<br />

Methode mit drei verschieden komplexen Schemata angegeben. Die<br />

praktische Umsetzung der theoretischen Erläuterungen erfolgt mit dem R-<br />

System <strong>für</strong> statistische Berechnungen und ein Fallbeispiel mit 21<br />

Lernproblemen und 6 Methoden zeigt eine konkrete Anwendung.<br />

73<br />

74


Ali Akbar Rajaei Hajiagha<br />

Speech Synthesis durch "Speech <strong>für</strong> MS Word" Applikation<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dipl.-Ing. Dr. Karl Grill<br />

Abstrakt: Ziel dieser Arbeit ist es, eine Einführung und Zusammenfassung<br />

der Verwendeten Methoden auf dem Gebiet der Sprachsynthese und<br />

teilweise Spracherkennung. Letztendlich entsprechend dem Ziel der<br />

Diplomarbeit wurde die Erzeugung eines akustische Signals <strong>für</strong> MS Word<br />

Meldungen, die während der Arbeit mit dem Word vorkommt durch "Speech<br />

<strong>für</strong> MS Word" Applikation erstellt.<br />

INSTI<strong>TU</strong>T FÜR CHEMISCHE TECHNOLOGIE UND<br />

ANALITIK<br />

Markus Demetz<br />

Software modules for an electrochemical measurement system<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Günter Fafilek<br />

Abstrakt: Diese Diplomarbeit befasst sich mit der Erstellung von Software<br />

Komponenten <strong>für</strong> die Steuerung und Durchführung von Messaufgaben in<br />

einem komplexen System von elektrochemischen Messgeräten. Viele solche<br />

Messaufgaben erfordern eine koordinierte Zusammenarbeit von Geräten<br />

verschiedenster Hersteller. Dies ist eine groÿe Herausforderung <strong>für</strong><br />

diejenigen, die die Messabläufe durchführen und überwachen. Die meisten<br />

Geräte werden mit einer Steuerungssoftware geliefert welche sich jedoch im<br />

groÿteil der Fälle auf die Funktionen des Gerätes beschränkt. Im Rahmen<br />

dieser Diplomarbeit werden Software Komponenten vorgestellt, die sich im<br />

wesentlichen auf die Zusammenarbeit von mehreren Messinstrumenten<br />

konzentriert welche mit herkömmlichen Programmen nahezu unrealisierbar<br />

ist. Das Hauptaugenmerk der vorgestellten Software Komponenten ist das<br />

dynamische Einbinden von neuen Geräten ohne das bestehende System zu<br />

verändern. Die Erstellung solcher Module, sowie die Interpretation und<br />

Ausführung von Messaufgaben und der Frameworks die da<strong>für</strong> zur Verfügung<br />

stehen werden dieser Arbeit besprochen.<br />

INSTI<strong>TU</strong>T FÜR<br />

VERFAHRENSTECHNIK,UMWELTTECHNIK UND<br />

TECHN. BIOWISSENSCHAFTEN<br />

Jasmin Redwan-Tujar<br />

Etablierung einer prozessunterstützenden Drug Discovery Support -<br />

Plattform<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Robert Mach<br />

Abstrakt: Der Drug Discovery Support (DDS) in Pharmaunternehmen<br />

beschäftigt sich mit der Gesamtheit aller Prozesse, denen ein Arzneistoff im<br />

Körper unterliegt. Das Ziel der Masterarbeit ist es, durch Erstellung von<br />

User Requirements, die aus Interviews, Beobachtungen und Analysen<br />

ermittelt wurden, die Prozesse des DDS mittels<br />

Auftragsverwaltungsplattform zu implementieren und optimieren. Nach<br />

einem kurzen Überblick zum allgemeinen Ablauf in der<br />

Medikamentenforschung und –entwicklung beschäftigt sich die Masterarbeit<br />

mit dem Arbeitsablauf und den Anwendungen in der Forschung. Das<br />

derzeitige Auftragsverwaltungstool wird genau betrachtet und auf Fehler und<br />

Lücken überprüft. Anhand der Ergebnisse aus den Analysen und<br />

Experteninterviews werden Requirements erstellt, deren Umsetzung einen<br />

besseren Kommunikations-, Informations- und Arbeitsfluss bewirken. Die<br />

neue Plattform vermindert den bisherigen Zeitaufwand, Fehleranfälligkeiten<br />

sowie redundante Arbeiten. Zusätzlich wird durch individuelle<br />

Gestaltungsfreiheit ein besserer Überblick geboten und redundante<br />

Dokumente beseitigt. Abschließend werden Vorschläge über Funktionen <strong>für</strong><br />

zukünftige Versionen dargelegt.<br />

INSTI<strong>TU</strong>T FÜR FERTIGUNGSTECHNIK<br />

Recep Ibiloglu<br />

Qualitätsmanagement in der Öffentlichen Verwaltung<br />

David Schmidt<br />

Software zur Steuerung, Datenerfassung und Auswertung von<br />

elektrochemischen Sensoren<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Günter Fafilek<br />

75<br />

76<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ. Prof Dr. Herbert OSANNA<br />

Abstrakt: Ziel dieser Arbeit ist es, die Aufgaben und Abläufe sowie vor allem<br />

die Grundlagen der Qualitätsmanagementsysteme in öffentlichen<br />

Verwaltungen im Hinblick auf die entsprechenden Techniken und Methoden


zu betrachten; insbesondere sind die Maßnahmen herausfiltern, die<br />

Einflüsse auf die Qualität der Dienstleistungen in diesem Bereich haben;<br />

weiters sind die speziellen Lösungsansätze vorzustellen und es ist ein<br />

Einblick in die praktische Anwendung am Beispiel der Stadtgemeinde Bursa<br />

zu geben.<br />

INSTI<strong>TU</strong>T FÜR RAUMENTWICKLUNG,<br />

INFRASTRUK<strong>TU</strong>R- UND UMWELTPLANUNG<br />

Qualitätsmanagement-Systems dar. Es handelt sich dabei um ein<br />

prozessorientiertes System, welches sich am Referenzmodell der<br />

International Standard Organization (ISO) <strong>für</strong> Qualitätsmanagement-Systeme<br />

(DIN EN ISO 9000ff:2000) orientiert. Der zweite wichtige Punkt und<br />

zugleich eine Grundlage <strong>für</strong> ein normengerechtes<br />

Qualitätsmanagementsystem ist die unternehmensweite Ausrichtung nach<br />

Geschäftsprozessen. Das Thema Geschäftsprozessmanagement wird<br />

ausführlich behandelt. Ein weiteres Ziel der Arbeit ist die Betrachtung des<br />

Nutzens von Qualitätsmangement-Maßnahmen. Ein Beispiel aus der<br />

bankbetrieblichen Praxis schließt diese Kosten-Nutzen-Untersuchung ab.<br />

Marion Westreicher<br />

Internet-Auktionen<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof.Dr. Franz Zehetner<br />

INSTI<strong>TU</strong>T FÜR MANAGEMENTWISSENSCHAFTEN<br />

Omri Bergman<br />

Information Technology, Globalization and new Corporate Strategy<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Adolf Stepan<br />

Franz Ehrenschwendtner<br />

Entwicklung eines neuronalen Netzwerkes zur Prognose ausgewählter<br />

volkswirtschaftlicher Kennzahlen Österreichs<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Hon.Prof.Dr. Wolfgang Katzenberger<br />

Reinhard Falschlehner<br />

Konzeption eines Qualitätsmanagementsystems in einer österreichischen<br />

Regionalbank<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Abstrakt: Diese praxisorientierte Arbeit entstand in Zusammenarbeit mit<br />

einer österreichischen Regionalbank und verfolgte eine multiple Zielsetzung.<br />

Den Hauptpunkt der Arbeit stellt die Erarbeitung eines umfassenden<br />

77<br />

78<br />

Klaus Hochreiter<br />

Einführung des elektronischen Aktes in den Bezirkshauptmannschaften<br />

Niederösterreichs<br />

Studium: Masterstudium Wirtschaftsinformatik, Masterstudium<br />

<strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />

Abstrakt: Aufgabenstellung Die Niederösterreichische Landesregierung führt<br />

ein neues Kommunikations- und Informationssystem mit dem Namen NÖ<br />

LAKIS in allen Bezirkshauptmannschaften Niederösterreichs ein. In diesem<br />

Zusammenhang soll eine Mitarbeiter(innen)befragung stattfinden, die<br />

Meinungen über das neu eingeführte System liefert. Zusätzlich zur<br />

Einführung des neuen Systems soll auch die subjektiv wahrgenommene<br />

Qualität der Schulungen erfragt werden. Es wird also eine Beurteilung der<br />

Mitarbeiterinnen und Mitarbeiter (in dem Fall die Schülerinnen bzw. Schüler)<br />

über die Schulungsorganisation im Rahmen des Projektes NÖ LAKIS<br />

angestrebt, um so das notwendige Feed-back zu bekommen. Zielsetzung<br />

Das Ziel der Untersuchung soll darin liegen, festzustellen, wie sich diese<br />

Umstellung durch NÖ LAKIS bei den Angestellten in den<br />

Bezirkshauptmannschaften auswirkt. Es soll eine Aussage darüber getroffen<br />

werden, welchen Nutzen dieses neue System nun wirklich den eigentlichen<br />

Anwenderinnen und Anwendern bringt. Es soll auch eine Aussage über die<br />

Qualität der Schulung und Wissensvermittlung der Mitarbeiterinnen und<br />

Mitarbeiter getroffen und die dadurch entstehenden Probleme sollen<br />

analysiert werden. Das heißt, es wird hier auch auf die Bildungskonzepte<br />

und deren Durchführungen, die <strong>für</strong> die Anwenderinnen und Anwender<br />

eingerichtet wurden, näher eingegangen. Vorgehensweise Die Untersuchung<br />

wurde über Befragung der Mitarbeiterinnen und Mitarbeiter mittels eigens<br />

da<strong>für</strong> erstellten Fragebögen durchgeführt. Die Erstellung dieses<br />

Fragebogens erfolgte in Zusammenarbeit mit der Niederösterreichischen<br />

Landesregierung unter Mithilfe des Instituts <strong>für</strong> Managementwissenschaften<br />

an der <strong>Technische</strong>n <strong>Universität</strong> <strong>Wien</strong>. Es ist noch zu erwähnen, dass es sich<br />

fast ausschließlich um geschlossene Fragen handelte, die mit dem Multiple-<br />

Choice-Verfahren beantwortet werden konnten. Bevor der Fragebogen an<br />

alle Angestellten der Bezirkshauptmannschaften ausgeschickt wurde, führte


man mit einigen Mitarbeiterinnen und Mitarbeitern aus der IT-Abteilung<br />

(LAD1-IT) (die ebenfalls von der Umstellung auf das neue System betroffen<br />

sind) zunächst einen Pre-Test durch. Die dabei erzielten Erkenntnisse flossen<br />

dann als Erfahrungswerte zur Verbesserung des Fragebogens ein, um so<br />

eine höhere Qualität der Befragung zu erzielen.<br />

Harald Hübner<br />

Die Planung im Überblick - Begriffe, Prozesse, Methode<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Hon.Prof. Dr. Wolfgang Katzenberger<br />

Abstrakt: Diese Arbeit gibt einen Überblick über das Thema Planung im<br />

Allgemeinen. Weitverbreitete und gängige Begriffe werden erläutert und<br />

definiert, ebenso wie Unterschiede zu verwandten Themengebieten<br />

aufgezeigt. Der historischen Entwicklung folgt eine generelle Darstellung<br />

grundlegender Aspekte. Zur praktischen Veranschaulichung werden<br />

allgemeine und bekannte Beispiele <strong>für</strong> Planung kurz vorgestellt, um danach<br />

den prinzipiellen Planungsprozess näher zu beleuchten. Dieser ergibt sich<br />

aus der Summe der beschriebenen Aspekte, darunter fallen unter anderem<br />

Merkmale, Elemente, Phasen und Modelle der Planung. Um den immer<br />

detaillierter werdenden Inhalt der Arbeit aufrecht zu erhalten wird als<br />

abschließender Punkt auf Methoden und Instrumente der Planung<br />

eingegangen. Dabei werden weit verbreitete und wichtige Verfahren genau<br />

beschrieben und anhand von Beispielen erläutert.<br />

Andrea Kall<br />

Innovation(s)management – Volkswirtschaftliche Auswirkungen im Vergleich<br />

USA, Japan, Europa<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Doz. Dr. Leopold Sögner<br />

Abstrakt: Diese Arbeit gibt eine volkswirtschaftliche Betrachtung von<br />

Innovation wieder. Es wird sowohl die theoretische als auch die praktische<br />

Seite berücksichtigt. Beginnend mit einer detaillierten Definition und<br />

Erläuterung der historischen Entwicklung des Begriffs Innovation wird im<br />

Anschluss auf dessen Merkmale, sowie auf die Aufgaben und Ziele von<br />

Innovationsmanagement eingegangen.Unterschiedliche Wachstumsmodelle<br />

beschreiben Einflussfaktoren und deren Auswirkungen in der Theorie. Mittels<br />

empirischen Analysen werden die Wachstumsmodelle im Anschluss<br />

diskutiert. Hierbei werden die Entwicklungen der Einflussfaktoren <strong>für</strong><br />

Innovation und folglich des wirtschaftlichen Wachstums erläutert. Basierend<br />

darauf werden relevante Faktoren wie Forschung, Bildung, staatliche<br />

Unterstützung, etc. betrachtet. Für eine bessere Veranschaulichung werden<br />

die drei großen Wirtschaftsmächte USA, Japan und Europa <strong>für</strong> Vergleiche<br />

herangezogen.<br />

Dimitri Korenev<br />

Prozess und Instrumente der strategischen Planung am Beispiel einer Bank<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />

Karel Krobath<br />

Multiprojektmanagement im IT-Bereich<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />

Arnold Labenbacher<br />

Evaluation der Berechnungsdifferenzen zwischen den Berechnungsmethoden<br />

SHA und VGR im Bereich der Ausgaben des öffentlichen<br />

Gesundheitssystems<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Adolf Stepan<br />

Abstrakt: Die aktuelle Berechnungsmethode <strong>für</strong> die finanziellen Ausgaben im<br />

öffentlichen Gesundheitssystem heißt SHA (System of Health Account) und<br />

löste damit die Berechnungsmethode, welche zuvor verwendet wurde ab,<br />

das war die VGR (Europäisches System der Volkswirtschaftlichen<br />

Gesamtrechnung aus dem Jahre 1995). Diese Umstellung wurde aufgrund<br />

des Beitritts Österreichs zur Europäischen Union notwendig.Mit dieser<br />

Arbeit werden die Finanzierung und die Ausgaben des öffentlichen<br />

Gesundheitssystems in Österreich näher untersucht. In Österreich werden<br />

seit dem Jahr 2004 die Ausgaben <strong>für</strong> das öffentliche Gesundheitssystem<br />

von der Statistik Austria nach der Methode des System SHA berechnet. Die<br />

Statistik Austria ist jene Institution, welche dem Bundesministerium <strong>für</strong><br />

Frauen und Gesundheit (BMFG) das Zahlenmaterial liefert. Aufgrund dieser<br />

Umstellung der Berechnungsmethode lässt sich das Zahlenmaterial aus den<br />

Jahren welche vor der Umstellung liegen nicht mehr mit jenem Material<br />

nach der Umstellung vergleichen. Die Grundlagen <strong>für</strong> diese beiden<br />

Berechnungsmethoden sind verschiedene, folglich lassen sich auch die<br />

Ergebnisse der unterschiedlichen Berechnungen nicht direkt vergleichen.<br />

Aber gerade <strong>für</strong> die Interpretation des aktuellen Zahlenmaterials ist es sehr<br />

wichtig einen seriösen Vergleich der Ausgaben der Jahre vor der<br />

Umstellung zu den Ausgaben danach ziehen zu können, anders lässt sich<br />

keine ernsthafte Interpretation machen. Infolge dieses Mangels an<br />

79<br />

80


vergleichbarem Zahlenmaterial ist es das Ziel dieser Arbeit Veränderungen<br />

der Ausgaben <strong>für</strong> das öffentliche Gesundheitswesen in Österreich trotz der<br />

Umstellung der Berechnungsmethode darstellen zu können. Da<strong>für</strong> wurde<br />

eine Auflistung, welche nach der Berechnungsmethode des SHA erstellt<br />

wurde an jene Positionen anpassen, welche sich nach der<br />

Berechnungsmethode des VGR anders in den Gesundheitsausgaben<br />

auswirken. Die Veränderung der Anteile dieser beiden<br />

Berechnungsmethoden werden es ermöglichen eine seriöse Aussage über<br />

den tatsächlichen Anstieg der Kosten und die Verteilung dieser <strong>für</strong> das<br />

öffentliche österreichische Gesundheitssystem zu machen.<br />

Maximilian Alexander Löberbauer<br />

Entwicklung einer Engineering-Dienstleistung mit Kooperationspartner am<br />

Beispiel von Solaranlagen<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />

Abstrakt: Zweck dieser Arbeit ist es, einen Beitrag zum Verständnis der<br />

Entwicklung einer Engineering-Dienstleistung mit Kooperationspartnern am<br />

Beispiel von Solarstromanlagen zu liefern. Als Problemlösung setzt sich<br />

diese Arbeit zum Ziel, den aktuellen Stand der Technik zur systematischen<br />

Dienstleistungsentwicklung zu analysieren und diesen mit der klassischen<br />

Implementierung von Solarstromanlagen zu entwickeln. Dabei werden die<br />

Vorgehensmodule der Engineering-Dienstleistung mit Komponenten des<br />

Inputs, den Dienstleistungsvarianten, den Prozessen der Akquisition und der<br />

Leistungserbringung, den einfließenden Kooperationspartnern in einem<br />

Kooperationsmodell und dem Qualitätsmanagement entwickelt. Ein weiteres<br />

Ziel ist es die Informationen über eine IT-Plattform so zu bündeln, dass sie<br />

die richtigen Informationen <strong>für</strong> das richtige Teammitglied liefert. Der in<br />

jüngster Zeit entstandene Ansatz der Engineering-Dienstleistung zur<br />

systematischen Entwicklung und Gestaltung von Dienstleistungen steht dabei<br />

im Mittelpunkt der Betrachtung. Als wissenschaftliche Fachdisziplin<br />

beschäftigt sich die Engineering-Dienstleistung mit der Betrachtung von<br />

Dienstleistungssystemen, Vorgehensmodellen und Methoden des<br />

Engineering. Diese Betrachtungsweise beinhaltet auch die Zielsetzung dieser<br />

Arbeit. Bei der Untersuchung der Dienstleistungssysteme wird eine<br />

Systematisierung der Akquisition und der Leistungserbringung im<br />

Vordergrund stehen. Die Zielsetzung der gesamten Arbeit mit der<br />

Umsetzung der Implementierung einer Solarstromanlage sollte die maximale<br />

Kundenzufriedenheit erreichen. Die Kundenzufriedenheit kann mit der<br />

Wirtschaftlichkeit und der Zuverlässigkeit garantiert werden. Insbesondere<br />

sollen die unterschiedlichen Modelle der Dienstleistung auf die individuellen<br />

Bedürfnisse und Wünsche des Kunden abgestimmt werden. Die Engineering<br />

Dienstleistung, die in dieser Arbeit entwickelt wird, soll an erster Stelle dem<br />

Kunden den Nutzen bringen den er sich erwartet.<br />

81<br />

82<br />

Stefan Loibner<br />

Impacts of a change in production stratagy and implementation of Variant<br />

Configuration in SAP at Atronic Austria GmbH<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Florian Mayer<br />

Die implizite Wachstumsrate deutscher DAX – und MDAX – Werte<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Aussenegg<br />

Abstrakt: Für die Berechnungen der impliziten Wachstumsrate wurde die<br />

Unternehmenslebenszeit in drei Phasen gegliedert. Für Phase eins wurde<br />

auf die von Analysten prognostizierten Cashflows zurückgegriffen. In Phase<br />

drei wachsen die Cashflows eines Unternehmens mit der als konstant<br />

angenommen ewigen Wachstumsrate. Nach Damodaran (2001) kann die<br />

Wachstumsrate eines Unternehmens nicht über einem unbegrenzten<br />

Zeitraum über jener der Weltwirtschaft liegen. Für die dazwischen liegende<br />

zweite Phase wurde in Kapitel vier die implizite Wachstumsrate berechnet.<br />

Dabei wurde die zweite Phase zwischen sechs und acht Jahren variiert. Aus<br />

dem Discounted – Cashflow - Modell lässt sich bereits die Voraussage<br />

treffen, dass sich mit einer steigenden Anzahl von Jahren in Phase zwei die<br />

implizite Wachstumsrate der ewigen Wachstumsrate nähern muss. Die<br />

Untersuchung umfasst 55 deutsche Unternehmen, die entweder im DAX<br />

oder MDAX notieren. Die Analyse zeigt eine starke Korrelation der impliziten<br />

Wachstumsrate zu den durchschnittlichen Kapitalkosten. Die Streuung der<br />

impliziten Wachstumsrate nimmt innerhalb einer Branche ab. Ein<br />

Wachstumstrend einzelner Branchen ist erkennbar. Besonders auffallend ist<br />

ein vom Markt erwartetes negatives Wachstum in den Branchen Automobil<br />

(-6,29%), Pharma und Healthcare (-7,50%) sowie Transport und Logistik (-<br />

16,82%). Die deutlichsten positiven Wachstumserwartungen liegen in den<br />

Branchen Rohstoffe (25,18%), Bauindustrie (14,32%), Medien (23,50%),<br />

Software (19,04%) und Technologie (35,50%), wobei den drei<br />

letztgenannten jeweils nur ein Unternehmen zugeordnet werden konnte.<br />

Alexandra Mazak<br />

Effektivität von Sicherungsbeziehungen beim Hedge-Accounting<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ. Prof. Dr. Walter Schwaiger<br />

Abstrakt: Die Unsicherheit des Wissens über z.B. künftige<br />

Preisschwankungen am Markt und andere (wirtschaftliche) Ereignisse


esultiert aus dem Umstand, dass diese Ereignisse in der Zukunft liegen und<br />

deren Konsequenzen daher nicht absehbar sind und so ein Risiko in sich<br />

bergen. Die Unternehmensführung hat jedoch Erwartungen betreffend<br />

dieser künftigen Ereignisse. Tritt nun ein Ereignis tatsächlich ein, durch<br />

Informationsenthüllung im Zeitablauf, resultieren daraus Konsequenzen.<br />

Diese Konsequenzen können positiv sein, indem eine positive Abweichung in<br />

Form von /Chancen/ vom Erwartungswert "enthüllt" wurden, aber auch<br />

negativ. Negative Konsequenzen werden als /Risiken/ bezeichnet. Wurde<br />

nun eine offene Position, der eine bestimmte Risikoart anhaftet identifiziert<br />

und die Risikofaktoren als Risikoverursacher empirisch ermittelt, folgt<br />

daraus das Bestreben, diese Risiken und damit mögliche Verluste zu<br />

minimieren oder sogar gänzlich zu eliminieren. Einerseits benötigt man da<strong>für</strong><br />

genaue Modelle zur Vorhersage künftiger Ereignisse und andererseits<br />

geeignete Methoden und Sicherungsinstrumente zur effizienten<br />

Gegensteuerung bei drohender Verlustgefahr.<br />

Leopold Redlingshofer<br />

Der Zusammenhang von FL-LRAIC und der Diffussion von Innovationen im<br />

Telekombereich<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ.-Prof. Dr. Adolf Stepan<br />

Abstrakt: In dieser Arbeit soll untersucht werden, inwiefern der Ansatz FL-<br />

LRAIC (Forward Looking Long Run Average Costs) <strong>für</strong> die Bestimmung der<br />

Zusammenschaltungsentgelte realisiert ist. Dabei soll überprüft werden, wie<br />

sich der Ansatz allgemein auf die Innovationsfreudigkeit von Anbietern in der<br />

Telekommunikationbranche auswirkt. Falls der FL-LRAIC-Ansatz bereits<br />

Verwendung findet, soll der Telekommunikationsmarkt auf bereits<br />

durchgeführte Innovationen hin untersucht werden. Insbesondere soll<br />

diskutiert werden, ob Zusammenschaltungsentgelte auf Basis des FL-LRAIC-<br />

Ansatzes den technologischen Fortschritt in der gewünschten Ausprägung<br />

ermöglichen.<br />

Sander Rijdt, van de<br />

Zuliefernetzwerke der Automobilindustrie in Osteuropa<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Wilfried Sihn<br />

Abstrakt: Motiviert durch den durch die EU-Osterweiterung weiter voran<br />

getriebenen, wirtschaftlichen Aufschwung und der anhaltenden Auslagerung<br />

und Neugründung von Produktions- und Fertigungsstandorten durch<br />

Unternehmen in den so genannten Niedriglohnländern, vor allem durch die<br />

Automobilindustrie, die stets eine Vorreiterrolle einzunehmen scheint,<br />

befasst sich die Thematik dieser Arbeit mit der Entwicklung der<br />

83<br />

84<br />

Zulieferindustrie in Osteuropa rund um die neuen Standorte der<br />

Automobilhersteller. Kernelement der Arbeit wird durch die Identifizierung<br />

der Zulieferer und deren Standorte im Zuliefernetzwerk ausgewählter<br />

Automobilherstellerstandorte sowie durch eine standortorientierte Analyse<br />

und Bewertung dieser Zuliefernetzwerke dargestellt. Ziel ist es in Betracht<br />

zu definierender Bewertungskriterien die geographische Aufspannung des<br />

Zuliefernetzwerks eines Automobilherstellers zu erörtern und die<br />

verschiedenen Netzwerke vergleichbar zu machen. Die Arbeit gliedert sich in<br />

die inhaltlichen Bereiche Theoretische Grundlagen, Wirtschaftliche Region<br />

CEE, OEM in der Region CEE, Zulieferer in der Region CEE, Analyse und<br />

Bewertung sowie eine Zusammenfassung der Ergebnisse und Erstellung<br />

einer Trendprognose. Die theoretischen Grundlagen bilden das Fundament<br />

<strong>für</strong> die späteren Untersuchungen. Im Rahmen der Netzwerkstheorie werden<br />

die verschiedenen Erscheinungsformen von Netzwerken erläutert, die Typen<br />

der Arbeitsbeziehungen in einem Netzwerk betrachtet und die Aktivitäten<br />

zum Managements eines Netzwerks festgehalten. Auch die verschiedenen<br />

Motivationsgründe <strong>für</strong> die Zusammenarbeit in Netzwerken werden<br />

analysiert. In weiterer Folge werden diese theoretischen Grundlagen um die<br />

Aspekte der Automobilindustrie ergänzt. Das Ergebnis dieses ersten<br />

Kernschritts stellen alle benötigten theoretischen Grundlagen der Arbeit dar.<br />

Im Rahmen der Betrachtung der wirtschaftlichen Region CEE werden neben<br />

den Gründen <strong>für</strong> eine Produktions- und Standortverlagerung durch die<br />

Automobilindustrie nach Osteuropa auch die allgemeine wirtschaftliche<br />

Ausgangssituation in Osteuropa erläutert. Nach Definition benötigter<br />

Begriffe erfolgt die Eingrenzung des Untersuchungsraumes auf die<br />

ausgewählte Region CEE. Als Ergebnis dieses Kernschritts zeigt sich ein<br />

Überblick über die momentane wirtschaftliche Ist-Situation in der<br />

osteuropäischen Region CEE. In Kernschritt 3 erfolgt eine<br />

Bestandsaufnahme der Produktions- und Montagestandorte der in der<br />

Region CEE vertretenen OEM. Die Recherche erfolgt über die zur Verfügung<br />

gestellten Informationen der Automobilhersteller sowie die Veröffentlichung<br />

renommierter Fachzeitschriften. Ein geographischer Standortüberblick der<br />

OEM in der Region CEE liefert das Ergebnis dieses Kernschritts. Bei der<br />

Bestandsaufnahme der Zulieferer erfolgt aufgrund der großen Anzahl der<br />

Zulieferer und der sehr schwierigen Ausgangslage <strong>für</strong> dieses Kernelement<br />

der Arbeit die Entwicklung einer speziellen Vorgehensweise zur<br />

Identifizierung der entscheidenden Lieferanten. Das Ergebnis wird durch eine<br />

<strong>für</strong> die weitere Analyse eingeschränkte, jedoch weiterhin aussagekräftige<br />

Anzahl der großen Menge an Zulieferern sowie einen geographischen<br />

Standortüberblick der Automobilzulieferer in der Region CEE dargestellt. Im<br />

Rahmen der Analyse der Zuliefernetzwerke muss zuerst ein geeignetes<br />

Analysemodell entwickelt und entsprechende Bewertungskriterien defi niert<br />

werden, die es auch ermöglichen die verschiedenen Zuliefernetzwerke zu<br />

vergleichen. Die Bewertung der Zuliefernetzwerke beinhaltet die<br />

Aufbereitung der Analyseergebnisse und bildet die Grundlage <strong>für</strong> den<br />

folgenden Vergleich und eine abschließende Aussage und Interpretation.<br />

Ergebnis dieses Kernschrittes sind neben dem entwickelten Analysemodell<br />

die Analyseergebnisse und deren Bewertung. Weiters wird ein Vorgehen im


Falle uneindeutiger Informationslage festgelegt und im Rahmen der Analyse<br />

angewandt. Aufbauend auf den Ergebnissen aus Analyse und Bewertung der<br />

Zuliefernetzwerke erfolgen ein Vergleich der Zuliefernetzwerke nach den defi<br />

nierten Kriterien und die Beantwortung aller offenen Fragestellungen. Aus<br />

den gewonnenen Erkenntnissen wird ebenfalls versucht, eine Trendprognose<br />

<strong>für</strong> das Verhalten neu entstehender Zuliefernetzwerke zu entwickeln.<br />

Abschließend wird eine generelle Aussage der Arbeit generiert und eine<br />

Zusammenfassung aller Inhalte gegeben.<br />

Rita Solly<br />

Geschäftsprozessmodellierung in einem Lebensversicherungsunternehmen<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />

Abstrakt: Das Geschäftsprozessmanagement ist ein zeitgemäßer<br />

Managementansatz, um Abläufe in Unternehmen sowohl kunden- und<br />

leistungsorientiert als auch prozessorientiert zu optimieren. Basis hier<strong>für</strong><br />

bildet die Geschäftsprozessanalyse, bei welcher die Abläufe eines<br />

Unternehmens systematisch modelliert, dokumentiert und analysiert<br />

werden. Darauf aufbauend beschäftigt sich die Geschäftsprozessoptimierung<br />

mit der Identifizierung und Ausschöpfung vorhandener Potentiale in den<br />

zuvor dokumentierten betrieblichen Abläufen, welche die Unternehmensziele<br />

bestmöglich unterstützen. Die grafische Darstellung beider Schritte findet<br />

sich in der Geschäftsprozessmodellierung wieder. Die vorliegende Arbeit<br />

setzt sich mit der Theorie der Geschäftsprozessanalyse auseinander und<br />

zeigt die praktische Umsetzung in einem Versicherungsunternehmen anhand<br />

eines ausgewählten Geschäftsprozesses. Es sei somit explizit darauf<br />

hingewiesen, dass die Versicherungsprozesse modelliert und analysiert<br />

werden, um Verbesserungspotenziale zu identifizieren, jedoch keine<br />

Modellierung von verbesserten Prozessen durchgeführt wird. Den<br />

theoretischen Rahmen bildet das von A.-W. Scheer entwickelte ARIS®<br />

Konzept samt den darin zur Anwendung kommenden Modelle sowie ein<br />

Vorgehensmodell der Objektorientierten Geschäftsprozessmodellierung mit<br />

der UML nach B. Oestereich.<br />

Thomas Stelzhammer<br />

Erhebung der Zufriedenheit mit den Leistungen der Landesamtsdirektion<br />

Informationstechnologie (LAD1-IT) des Landes Niederösterreich<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />

Ergebnisse der Umfrage. Kapitel 8 beinhaltet eine Zusammenfassung.<br />

Kapitel zwei und drei beschreiben den Aufbau und die Struktur des<br />

Bundeslandes Niederösterreich, der Niederösterreichischen<br />

Landesregierung und der Abteilung LAD1-IT. Sie dienen dazu, den<br />

Verwaltungshintergrund und einen Überblick über die Weite der betroffenen<br />

Bereiche zu erhalten. Im Kapitel vier wird Hintergrundwissen über die<br />

theoretische Grundlage der Aufgabengebiete der LAD1-IT gebracht, die bei<br />

der Umfrage Inhalt waren. Es handelt sich dabei um Informationen zum<br />

laufenden Betrieb einer IT- Abteilung, zum Bereich Weiterbildung und<br />

Schulungen und zu Softwareentwicklung / Software-Ergonomie. Beim<br />

laufenden Betrieb wurde das Hauptaugenmerk auf den Bereich des Service<br />

Management gelegt. Im Gebiet der Weiterbildung bildet besonders das E-<br />

learning den Mittelpunkt, da die NÖ- Landesregierung auf diesen Weg der<br />

Weiterbildung verstärkt setzt. Der Bereich Softwareentwicklung / Software-<br />

Ergonomie wurde deshalb gewählt, da es sich bei den unterstützenden<br />

Programmen in der Verwaltung vermehrt um individuelle Programme<br />

handelt. Passend zu den theoretischen Grundlagen werden im Kapitel fünf<br />

relevante Punkte betreffend Mitarbeiterbefragung bearbeitet. Kapitel sechs<br />

und sieben beschäftigt sich mit der durchgeführten Bedienstetenbefragung<br />

und den Ergebnissen, die daraus gewonnen werden konnten. In Kapitel<br />

sechs wird der Fragebogen (Bereich und Fragen) näher behandelt, der bei<br />

der Umfrage zum Einsatz gekommen ist. Die einzelnen Bereiche der<br />

Umfrage sind: Bereich A Einschätzung der LAD1- IT ( besteht aus 5 Fragen<br />

) Bereich B Kontakt mit IT- Koordinatorin bzw. IT- Koordinator (besteht aus 4<br />

Fragen) Bereich C IT- Koordinatorin bzw. IT- Koordinator (besteht aus 8<br />

Fragen) Bereich D Kontakt mit LAD1- IT (besteht aus 4 Fragen) Bereich E<br />

Hardware / Software ( besteht aus 6 Fragen) Bereich F Weiterbildung und<br />

Schulungen ( besteht aus 11 Fragen) Bereich G Zu Ihrer Person (besteht<br />

aus 7 Fragen) Es wurden verschiedene Analysen durchgeführt und am Ende<br />

einer jeden Analyse eine Zusammenfassung der relevanten Ergebnisse<br />

erstellt. Diese Analysen sind Im Kapitel 7. dargestellt. Den Abschluss der<br />

Arbeit bildet eine Zusammenfassung mit den wichtigsten und relevanten<br />

Punkten, die aus der Umfrage gewonnen werden konnten. Das Ergebnis hat<br />

gezeigt, dass vor allem der Bereich Weiterbildung und Schulungen sehr<br />

wichtig <strong>für</strong> die Befragten ist. So wurden <strong>für</strong> diesen Bereich die meisten<br />

Anregungen und Wünsche der Bediensteten getätigt. Der Punkt Information<br />

war ebenfalls ein sehr zentrales Thema bei den Ergebnissen. Die Befragten<br />

würden gerne mehr Auskünfte und Mitteilungen über Geplantes erhalten.<br />

Vor allem wenn es ihren Bereich betrifft. Die Umfrage war sowohl aus Sicht<br />

der Abteilungsleitung, wie auch aus Sicht der Befragten ein Erfolg und wird<br />

nun im regelmäßigen Abstand, einmal jährlich, durchgeführt. So will man<br />

einen Trend und Ergebnisse, der geplanten und durchgeführten<br />

Änderungen, erheben.<br />

Abstrakt: Die Arbeit ist in zwei Bereiche gegliedert. Der erste Bereich<br />

(Kapitel 2,3,4 und 5) beschreibt die theoretischen Grundlagen. Der zweite<br />

Bereich (Kapitel 6 und 7) bearbeitet die praktische Umsetzung und die<br />

85<br />

86


Andreas Stollmayer<br />

Risikomanagement in Supply Chains<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Abstrakt: Immer mehr Unternehmen konzentrieren sich heutzutage auf ihre<br />

Kernkompetenzen, in der Regel ist damit eine Auslagerung von<br />

Unternehmensaktivitäten verbunden. Dies bedarf einer<br />

unternehmensübergreifenden Abstimmung, die Wertschöpfung erfolgt<br />

innerhalb von Supply Chains. Durch diesen Zusammenschluss entstehen<br />

Chancen, aber auch eine Vielzahl an Risiken. In folgender Magisterarbeit soll<br />

aufgezeigt werden, welche relevanten Risiken innerhalb<br />

branchenunabhängiger Supply Chains auftreten und wie diese Risiken<br />

bewältigt werden können. Weiters sollen beispielhafte Risiken innerhalb von<br />

Automobil Supply Chains aufgezeigt und deren Bewältigung erläutert<br />

werden. Basierend auf diesen Erkenntnissen, soll auf zukünftige<br />

Entwicklungen in Automobil Supply Chains sowie beim Risikomanagement in<br />

Supply Chains eingegangen werden. Das gesamte Risikomanagement<br />

bezieht sich auf das COSO-ERM Framework, welches erweitert und an eine<br />

Supply Chain angepasst wurde. Die Behandlung der Automobil Supply Chain<br />

basiert auf zahlreichen Artikeln der Automobilindustrie.<br />

Systemintegration in die bestehende IT-Landschaft des Unternehmens<br />

(technische Sicht) und der Akzeptanz, die die Mitarbeiter diesem neuen<br />

System entgegenbringen (soziologische Sicht) unterschieden. Eine Änderung<br />

der Unternehmenskultur ist bei der Einführung derart revolutionärer<br />

Software meist unumgänglich. Weiters wird der laufende Betrieb der<br />

Software näher untersucht und Fragen des Benutzersupports und laufender<br />

Wartungsverträge geklärt. Im siebten Kapitel, der Fallstudie via donau, wird<br />

gezeigt, wie sich die Evaluierung eines Projektmanagementsystems anhand<br />

eines praktischen Beispiels zutragen könnte und wie via donau auf mögliche<br />

grundlegenden Veränderungen während des Prozess reagiert hat. Die<br />

Arbeit schließt mit einem Conclusio ab und diskutiert mögliche<br />

Entwicklungrichtungen und Nachholbedarf aktueller Systeme und versucht<br />

Empfehlungen zu geben, die sich während der beobachteten<br />

Anforderungsermittlung bewährt haben.<br />

INSTI<strong>TU</strong>T FÜR COMPUTERTECHNIK<br />

Tobias Deutsch<br />

Geometric World Model Repository and Localization for Autonomous Mobile<br />

Robots<br />

Christoph Trunk<br />

Evaluierung eines softwarebasierten Projektmanagement-Tools in einer<br />

projektorientierten Entwicklungsgesellschaft und Empfehlung <strong>für</strong> die<br />

Umsetzung<br />

Studium: Diplomstudium Wirtschafts<strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Franz Wojda<br />

Abstrakt: Diese Arbeit handelt von der Auswahl eines softwarebasierten<br />

Projektmanagementsystems in eine projektorientierte<br />

Entwicklungsgesellschaft. Der gesamte Anforderungsermittlungsprozess<br />

wurde vom Autor dokumentiert und begleitet. Angefangen mit<br />

Begriffsdefinitionen und Abgrenzungen zum Thema Wissensmanagement<br />

und Projektmanagement wird eine Marktanalyse der angebotenen Systeme<br />

durchgeführt und deren Funktionen sowie Anforderungen an die<br />

entsprechenden Systeme aufgeführt und klassifiziert. Der Auswahlprozess<br />

stellt den Kernpunkt dieser Arbeit dar, da, wenn erst das ‚falsche’<br />

Projektmanagementsystem ausgewählt wurde, meist sehr viel investiert<br />

wurde und die beteiligten Benutzer das System nicht sinnvoll nutzen können.<br />

Die Systemauswahl besteht aus der Anforderungsdefinition, einer zweistufigen<br />

Vorauswahl und schließlich der Hauptauswahl. Eine Strength-<br />

Weakness-Opportunities-Threats Analyse rundet die Hauptauswahl ab und<br />

soll auf die positiven Aspekte der Benutzung eines derartigen Systems<br />

hinweisen. Danach, in der Softwareeinführung, wird zwischen der<br />

87<br />

88<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.-Prof. Dr. Hermann Kaindl<br />

Abstrakt: Wesentliche Voraussetzung <strong>für</strong> einen autonom agierenden<br />

Roboter ist die Fähigkeit, Wissen über seine Position in der Welt zu<br />

sammeln. Dieses Wissen basiert auf Sensordaten und einem Weltmodell,<br />

welches wiederum aus einer Karte von statischen Elementen und Daten<br />

über mobile Objekte besteht. Die Sensordaten werden gemeinsam mit dem<br />

Weltmodell zur Bestimmung des wahrscheinlichsten Aufenthaltsorts des<br />

Roboters in der Welt verwendet. Diese Diplomarbeit behandelt die<br />

Implementierung eines geometrischen Weltmodells und eines<br />

Lokalisierungssystems. Als Zielplattform dient Roboterfußball, gespielt von<br />

kleinen, autonomen Robotern. Da es keine zentrale Kontrolle gibt, müssen<br />

sie in der Lage sein, ihre eigenen strategischen Entscheidungen zu treffen<br />

und ihre Position in der Welt selbst zu bestimmen. Für das Weltmodell und<br />

die Lokalisierung wurde jeweils ein einfacher und ein komplexer<br />

Lösungsansatz entwickelt. Aufgrund der geringen Größe des Roboters sind<br />

die verfügbaren Ressourcen stark beschränkt. Abhängig von den<br />

vorhandenen Ressourcen und den Anforderungen an Strategie,<br />

Lokalisierung und Weltmodell kann durch die zwei Varianten ein geeignetes<br />

System realisiert werden. Das geometrische Weltmodell umfasst eine Karte<br />

und einen Positionsverlauf <strong>für</strong> die beweglichen Objekte (Ball und Roboter). In<br />

der einfachen Variante besteht die Karte aus einer Menge von<br />

Liniensegmenten; die Objekte werden auf einen Punkt simplifiziert. Für die<br />

komplexe Variante werden die Karte und die Objekte als Polygone modelliert.


Der einfache Lösungsansatz <strong>für</strong> das Lokalisierungssystem basiert auf einem<br />

linearen Näherungsverfahren und stellt eine Weiterentwicklung des bisher<br />

<strong>für</strong> Tinyphoon verwendeten Systems dar. Es können nur Sensordaten vom<br />

Odometer, vom Kompass und die von der Kamera erkannten Fixpunkte<br />

verwendet werden. Im Gegensatz dazu kann der verwendete Partikelfilter<br />

beim komplexen Lösungsansatz sämtliche Sensordaten, die der Roboter<br />

aufnehmen kann, in die Hypothese integrieren. Der in dieser Arbeit<br />

durchgeführte Vergleich der Lokalisierungsmethoden zeigt deutlich, dass der<br />

komplexe Ansatz bessere Ergebnisse erzielt als der einfache. Die<br />

Standardabweichung unterscheidet sich um den Faktor drei. Im Falle der<br />

zwei Varianten <strong>für</strong> das Weltmodell kann ein Vergleich mangels objektiver<br />

Kriterien nicht formuliert werden.<br />

Johannes Schmidt<br />

A Routing Simulation for Air Traffic Services Voice Communication Networks<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. Dietmar Dietrich<br />

Abstrakt: Diese Diplomarbeit hat die Entwicklung eines Simulators <strong>für</strong> das<br />

leitungsvermittelte Sprachkommunikationsnetzwerk der österreichischen<br />

Flugsicherung zum Thema. Die Evaluierung neuer Routing Algorithmen, die<br />

gegenüber dem bestehenden, statischen Algorithmus ein besseres<br />

Verhalten zeigen, soll mit Hilfe der Simulation ermöglicht werden. Statt der<br />

Umsetzung des vollständigen Nachrichtenprotokolls, welches in der realen<br />

Applikation zum Einsatz kommt, wird ein vereinfachtes Modell des Protokolls<br />

vorgestellt und implementiert. Die Unterschiede zwischen dem realen<br />

Sprachnetzwerk und dem Simulationsmodell und die draus resultierenden<br />

Beschränkungen <strong>für</strong> die Verwendung des Simulators werden diskutiert.<br />

Neben einer Evaluierung von vorhandenen Netzwerksimulatoren<br />

dokumentiert diese Arbeit den Design-, Implementierungs- und<br />

Verifizierungsprozess. Der Vergleich des Verhaltens der Realapplikation mit<br />

dem Simulationsmodell ergab, dass die Simulation die<br />

Routingentscheidungen des simulierten Netzwerkes reproduziert wenn die<br />

realen Konfigurationsdaten genau bekannt sind. Der Simulator ist daher <strong>für</strong><br />

die Evaluierung neuer Routingalgorithmen geeignet.<br />

Abstrakt: Positionsabhängige Dienste (Location Based Services, LBS)<br />

bezeichnen Dienste, deren Funktion von der aktuellen Position des Nutzers<br />

abhängen. Da aktuelle LBS Systeme nicht auf einer Middleware aufbauen,<br />

muss derzeit jeder neue LBS Dienst alle Funktionen eines LBS Systems<br />

implementieren, wie Positionierung, Kommunikation und Realisierung des<br />

eigentlichen Dienstes. In dieser Diplomarbeit stellen wir den Location<br />

Enabler als gemeinsame Plattform <strong>für</strong> LBS Systeme vor. Voraussetzung <strong>für</strong><br />

eine breite Anwenderbasis ist der Einsatz offener und frei verfügbarer<br />

Standards, wie z.B. das von der Internet Engineering Task Force (IETF)<br />

standardisierte Session Initiation Protocol (SIP). Im Weiteren wird die<br />

Architektur <strong>für</strong> einen Client Centric Location Enabler <strong>für</strong> das IP Multimedia<br />

Subsystem (IMS) Netz vorgestellt. Im Gegensatz zu heute üblichen<br />

Implementierungen der Lokalisierung durch die Netz-Infrastruktur des<br />

Betreibers, erfordert diese Variante der Lokalisierung, dass jedes Endgerät<br />

(Mobiltelefon) mit einem eigenen Mechanismus zur Positionierung<br />

ausgestattet ist (z.B. GPS Empfänger). Das bietet erhöhte Genauigkeit und<br />

verringert die Kosten. Als Erweiterung werden Möglichkeiten analysiert, um<br />

den Umfang der anfallenden Nachrichten zu minimieren. Zum Beispiel<br />

benötigt ein Dienst oft nicht die exakte Position, sondern nur die<br />

Information, ob sich der Dienstnutzer in einem bestimmten Bereich aufhält.<br />

Deshalb sieht der Location Enabler vor, dass nicht Positionen sondern nur<br />

Ereignisse oder Zustandsänderungen gemeldet werden, z.B. wenn der<br />

Benutzer einen definierten Bereich betritt oder verlässt. Auf Basis dieser<br />

Architektur wird eine Implementierung in J2ME (Java Micro Edition)<br />

vorgestellt. Diese Anwendung wurde auf S60 3rd Edition Smartphones<br />

implementiert und getestet. Die Messergebnisse zeigen, dass der Prototyp<br />

des Location Enablers das beobachtete Gerät mit einer Genauigkeit von<br />

unter 15 m lokalisieren kann.<br />

Michael Hirschbichler<br />

A Traffic Generator and Performance Analysis Toolkit for the IP Multimedia<br />

Subsystem<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />

INSTI<strong>TU</strong>T FÜR BREITBANDKOMMUNIKATION<br />

Marco Happenhofer<br />

Eine Architektur <strong>für</strong> Positionsbestimmung im IP Multimedia Subsystem<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Harmen R van As<br />

89<br />

90<br />

Abstrakt: In den vergangenen Jahren konnte seitens der<br />

Telekommunikations-Industrie ein starker Trend in Richtung vereinheitlichter<br />

Dienstleistungen unabhängig von der Art der verwendeten<br />

Benutzerendgeräte festgestellt werden. Dies ist teilweise dadurch<br />

begründet, daß durch technische Fortschritte immer größere Bandbreiten<br />

den Endbenutzern zur Verfügung stehen. Die Breitbandanbindungen, seien<br />

sie nun im Mobilfunkbereich mittels UMTS/HSDPA und WLAN oder im<br />

Festnetzbereich mittels Kabel und xDSL, in Kombination mit der<br />

Durchdringung des Alltags durch das Internet fordern neue Services seitens<br />

der Provider und der Hersteller. So ist es <strong>für</strong> die Operatoren von


Telekommunikationsnetzen naheliegend, eine einheitliche Infrastruktur<br />

unabhängig des darunterliegenden Transportmediums zu entwickeln, welche<br />

alle bisherigen und alle zukünftigen Services zusammenfasst. Ein Ansatz <strong>für</strong><br />

ein solches Netzwerk der nächsten Generation (Next Generation Network<br />

NGN) ist das IP Multimedia Subsystem (IMS) des 3rd Generation<br />

Partnership Project (3GPP), einer Partnerschaft verschiedener<br />

Telekommunikationunternehmen. Das IMS verwendet als zugrundeliegende<br />

Technologie bewährte Internetprotokolle <strong>für</strong> die Signalisierung (Session<br />

Initiation Protocol SIP), <strong>für</strong> die Benutzerverwaltung (Diameter) und <strong>für</strong> die<br />

Übertragung der Echtzeitdatenströme (Real-time Transfer Protocol RTP),<br />

um ein paar Beispiele zu nennen. Das Ziel dieser Diplomarbeit ist es, eine<br />

umfangreiche Testplattform <strong>für</strong> ein IMS Netzwerk mit Schwerpunkt auf die<br />

Signalisierung mittels SIP zu entwickeln. Der erste Teil dieser Arbeit<br />

behandelt die Grundzüge der SIP Signalisierung und im speziellen im Kontext<br />

des IMS. Der zweite Teil der Diplomarbeit setzt die Testplattform aus<br />

mehreren Komponenten zusammen: Das erste Element der Testplattform<br />

ist SIPp, bisher ein Tool zum Testen von SIP-tauglichen Serverdiensten und<br />

Endgeräten. SIPp wird von uns dahingehend erweitert, daß, über den<br />

einfachen Verbindungsaufbau hinausgehend, Registrierungen in IMS-Netzen<br />

in Kombination mit dem Aufbau von Sprachverbindungen zu anderen<br />

Endgeräten möglich werden. SIPp in der neuen Form dient nun zum Testen<br />

von korrekten Konfigurationen der einzelnen Knoten eines IMS-Netzes<br />

einerseits, andererseits zum Testen der Skalierbarkeit dieser einzelnen IMS-<br />

Knoten bei hoher Last. Um die Testresultate konsistent vergleichen zu<br />

können, wird von uns zusätzlich zu SIPp noch das Testnetz um eine genaue<br />

Zeitsynchronisation erweitert. Wir verwenden das Network Time Protocol<br />

NTP zur mikrosekundengenauen Synchronisation der im Testlauf beteiligten<br />

Knoten. Nur dadurch ist es möglich, bei hohen Lasten die entstandenen<br />

großen Mengen an Logdaten aufzuzeichnen und zu vergleichen. OpenSER,<br />

die Routingsoftware der einzelnen IMS-Knoten, wird von uns erweitert, so<br />

daß auch dieses Programm in der Lage ist, Logdaten mit einer feinen<br />

zeitlichen Granularität auszugeben. Den Meßergebnissen unserer Testläufe<br />

ist ein Kapitel gewidmet, in dem die einzelnen Testläufe, welche unter<br />

verschiedenen Lasten entstanden sind, verglichen werden. Die dadurch<br />

gezogenen Rückschlüsse sind hilfreich beim Beseitigen von Engpässen der<br />

Bandbreiten der Verbindungen und der Leistungsfähigkeit der einzelnen<br />

Knoten dieses IMS-Netzes. Mit SIPp und den äußerst präzisen Logging-<br />

Information der einzelnen Knoten des Testnetzes wurde ein Toolkit<br />

entwickelt, welches unabhängig von der Größe des Netzwerkes detailierte<br />

Testroutinen möglich macht.<br />

Petr Kotik<br />

Availability Analysis of an IP Multimedia Subsystem Core<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />

Abstrakt: In den letzten Jahren zeichnet sich ein klarer Trend zur Fixed-<br />

Mobile Convergence ab. Durch die Konvergenz der Mobilfunk- und der Fixed-<br />

Line-Netze können Telekommunikationsbetreiber ihre Dienstleistungen den<br />

Kunden unabhängig vom Ort, der Art des Netzzugangs und dem Endgerät<br />

zur Verfügung stellen. Das IP Multimedia Subsystem (IMS) spielt angesichts<br />

dieses anhaltenden Trends eine bedeutende Rolle. Es ist eine globale,<br />

zugangsunabhängige und standardbasierte IP Konnektivität und Service<br />

Control Architektur, die es im Wesentlichen ermöglicht, Internet<br />

Applikationen wie “Presence” und “Messaging” in die Telekommunikationswelt<br />

zu integrieren. Dabei ist das IMS mit seinen vielfältigen<br />

Echtzeitdiensten wie beispielsweise “Voice over IP” (VoIP),<br />

Konferenzgesprächen und Multimedia Applikationen, von der Verfügbarkeit<br />

der IP Netzinfrastruktur und den von ihr zur Verfügung gestellten Diensten<br />

abhängig. In dieser Arbeit führen wir eine detailierte Verfügbarkeits-Analyse<br />

eines IMS-Core durch. Weiters geben wir einen eingehenden Überblick zum<br />

State of the Art relevanter Aspekte und Lösungen im Bereich<br />

Netzverfügbarkeit und Netzausfallsicherheit. Basierend auf verschiedenen<br />

Definitionen von Verfügbarkeit präsentieren wir verschiedene<br />

Verfügbarkeitsmodelle und analysieren Faktoren, welche Verfügbarkeit<br />

beeinflussen. Weiters beschreiben wir Technologien und Protokolle auf den<br />

jeweiligen Netzwerk-Schichten, die zu einer höheren Verfügbarkeit des<br />

Netzes beitragen. Die Methodologie einer Verfügbarkeits-Analyse wird<br />

vorgestellt und das am Markt vorhandene Softwareangebot an<br />

Verfügbarkeits-Simulatoren wird auf seine Fähigkeiten untersucht. Wir<br />

stellen ein Software-Modell des IMS Netzes vor und führen die<br />

Verfügbarkeits-Analyse des IMS-Core mit dem Network Availability Program<br />

(NAP) durch. Abschließend präsentieren wir die Resultate der Analyse und<br />

ziehen unsere Schlussfolgerungen.<br />

Bastian Preindl<br />

AAA Security Framework for Wireless Access Networks<br />

Studium: Masterstudium Software Engineering und Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />

Abstrakt: Ziel der vorliegenden Arbeit war die Entwicklung einer<br />

plattformunabhängigen Netzwerkmanagement-Lösung mit Fokus auf<br />

Integrierbarkeit, Transparenz und Dynamik mit Rücksicht auf Handhabung<br />

und Wartbarkeit. Besondere Aufmerksamkeit wurde dem Einsatz in WLAN-<br />

Umgebungen gewidmet, wodurch die entwickelte Lösung Funktionen <strong>für</strong><br />

Handover und Roaming beinhaltet. Die Arbeit gliedert sich in eine Einleitung,<br />

der Technik, der Implementierung, dem Testen und dem praktischen Einsatz<br />

der IronGate genannten Software. Im Abschnitt Einleitung wird der<br />

grundsätzliche Aufbau von IronGate nähergebracht, die Technik erklärt die<br />

Funktionsweise des Systems, die Implementierung befasst sich mit der<br />

programmtechnischen Umsetzung der beschriebenen Algorithmen und das<br />

91<br />

92


Testen und der praktische Einsatz zeigen das Verhalten des Systems in<br />

Extremsituationen und im Echtbetrieb.<br />

Markus Sommereder<br />

Modellierung von Warteschlangensystemen mit dynamisch erzeugten<br />

Markov-Ketten<br />

Studium: Masterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />

Abstrakt: Warteschlangensysteme treten in vielen Bereichen unseres<br />

Lebens auf. Eine wichtige Möglichkeit zur Untersuchung von<br />

Warteschlangensystemen ist die Modellierung. Unter Modellierung versteht<br />

man das Nachbilden eines realen Systems durch ein Modell, das<br />

ausschließlich die interessierenden Eigenschaften des Systems beinhaltet,<br />

und das anschließende Untersuchen des Verhaltens des Modells. Aus dem<br />

Verhalten des Modells können dann Rückschlüsse auf das Verhalten des<br />

realen Systems gezogen werden. Ziel dieser Arbeit ist es zu zeigen, wie<br />

Warteschlangensysteme unter Verwendung von dynamisch erzeugten<br />

Markov-Ketten als Modell untersucht werden können. Insbesondere werden<br />

Warteschlangensysteme, die in Telekommunikationseinrichtungen und -<br />

netzen auftreten, betrachtet. Markov-Ketten sind spezielle stochastische<br />

Prozesse, die die sehr angenehme Eigenschaft der Gedächtnislosigkeit<br />

haben. Es gibt zeitdiskrete und zeitkontinuierliche Markov-Ketten; in dieser<br />

Arbeit werden ausschließlich zeitkontinuierliche Markov-Ketten betrachtet.<br />

Bei der Untersuchung von zeitkontinuierlichen Markov-Ketten spielen die<br />

Chapman-Kolmogorov-Gleichungen eine große Rolle. Sie besagen, dass die<br />

Zustandsübergangswahrscheinlichkeiten von zeitkontinuierlichen Markov-<br />

Ketten durch ein System von gewöhnlichen Differentialgleichungen 1.<br />

Ordnung beschrieben werden können. Es können Markov-Ketten <strong>für</strong><br />

verschiedene Fragestellungen über ein Warteschlangensystem<br />

(Systemzustand, Durchflusszeit, ...) erstellt werden. Anhand der<br />

Eigenschaften dieser Markov-Ketten sind Aussagen über das<br />

zugrundeliegende Warteschlangensystem möglich. Da das händische<br />

Erzeugen der Markov-Ketten bei komplexen Warteschlangensystemen sehr<br />

aufwendig ist, ist es oft hilfreich, stattdessen die Struktur der Markov-Ketten<br />

zu beschreiben und die Markov-Ketten so weit wie möglich vom Computer<br />

erzeugen zu lassen. Mit Markov-Ketten können nur solche Prozesse<br />

nachgebildet werden, bei denen die Zwischenereigniszeiten<br />

exponentialverteilt sind. Die Wahrscheinlichkeitsverteilungen von nichtexponentialverteilten<br />

Zwischenereigniszeiten können jedoch oft durch eine<br />

Kombination von mehreren Exponentialverteilungen dargestellt oder<br />

angenähert werden. Zum Berechnen der stationären<br />

Zustandswahrscheinlichkeiten von zeitkontinuierlichen Markov-Ketten<br />

müssen lineare Gleichungssysteme gelöst werden. Da diese<br />

Gleichungssysteme oft sehr groß sind, eignen sich <strong>für</strong> ihre Lösung iterative<br />

Verfahren im allgemeinen besser als direkte Verfahren. Um transiente<br />

93<br />

94<br />

Zustandswahrscheinlichkeiten und Durchflusszeiten zu berechnen, muss<br />

man gewöhnliche Differentialgleichungssysteme 1. Ordnung lösen. Hierzu<br />

sind beispielsweise Runge-Kutta-Verfahren mit adaptiver<br />

Schrittweitensteuerung gut geeignet.<br />

Rainer Stangl<br />

Technical Aspects of Broadcast and Multicast TV over Mobile Cellular<br />

Networks<br />

Studium: Masterstudium Medieninformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />

Abstrakt: Aufgrund der ständigen technologischen Weiterentwicklung im<br />

Bereich der Mobilkommunikation hinsichtlich immer schneller werdender<br />

Datenraten und vermehrt besserer Endgeräte bezüglich der technischen<br />

Ausstattung, stellt die Einführung von digitalem Fernsehen am Handy nur<br />

einen weiteren logischen Schritt dar. Der Begriff Mobile TV umfasst<br />

Multimedia Inhalte, welche durch Unicast oder Broadcast/Multicast<br />

Technologien übertragen werden. Unicast Technologien bestehen aus<br />

einzelnen Punkt-zu-Punkt-Verbindungen und befinden sich in gegenwärtigen<br />

zellularen mobilen Netzwerken bereits im Einsatz (z. Bsp. Filmtrailer,<br />

Musikvideos...). Broadcast/Multicast Technologien funktionieren über Punktzu-Multipunkt<br />

Verbindungen, welche neben zahlreichen qualitativ<br />

hochwertigen TV Kanälen auch interaktive Services in nahezu Echtzeit<br />

anbieten. Weltweit befinden sich bereits mehrere Broadcast/Multicast<br />

Technologien in Entwicklung, welche auf drei verschiedenen Ansätzen<br />

basieren: a) entweder als Erweiterung der gegenwärtigen mobilen 2G/3G<br />

Netzwerke (MBMS, TDtv), b) als Implementierung eines neuen Broadcast<br />

Funknetzwerks, welches eine Ergänzung zu den bestehenden mobilen<br />

Netzwerken darstellt (DVB-H, ISDB-T, MediaFLO, T-DMB), oder c) eine<br />

hybride Lösung, die auf Satellitenübertragung basiert (S-DMB, DVB-H in S-<br />

Band). Diese Magisterarbeit behandelt die verschiedenen Technologien zur<br />

Umsetzung von Broadcast TV <strong>für</strong> mobile Endgeräte mit einem besonderen<br />

Blick auf die Implementierung von Mobile TV in mobilen zellularen<br />

Netzwerken.<br />

MEDIZINISCHE UNIVERSITÄT WIEN<br />

Musa Büyükkaba<br />

Online Data Transmission System - Problem und Anforderungen Analyse<br />

Studium: Masterstudium Wirtschaftsingenieurwesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Ernst Schuster


Stefanie Feichter<br />

Analysis of unsupervised learning-methods for sensor data in cognitive<br />

robotics-comparison of two algorithms<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Georg Dorffner<br />

Peter Feuereisel<br />

Experimentelle Untersuchungen zur Funktionellen Elektrostimulation<br />

denervierter Skelettmuskulatur<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Winfried Mayr<br />

Abstrakt: In den letzten Jahrzehnten wurde die Funktionelle<br />

Elektrostimulation (FES) zur Regeneration langzeitdenervierter degenerierter<br />

Muskulatur im medizinischen Bereich <strong>für</strong> die Behandlung und Rehabilitation<br />

Querschnittsgelähmter immer wichtiger. Durch die Behandlung mittels<br />

Funktioneller Elektrostimulation konnte vielfach eine Verbesserung der<br />

Lebensqualität der Patienten erreicht werden. Im Rahmen des EU-Projektes<br />

RISE, „Use of electrical stimulation to restore standing in paraplegics with<br />

long-term denervated degenerated muscles“ wurden klinische und<br />

experimentelle Studien zur Reaktivierung von langzeitgelähmter<br />

quergestreifter Skelettmuskulatur mittels FES durchgeführt. In einer<br />

experimentellen Studie am Schwein wurden die Muskeln Tibialis Anterior<br />

(TA) und Extensor Digitorum Longus (EDL) denerviert. Um den<br />

Denervationsverlauf der beiden Muskeln zu dokumentieren wurden sie<br />

elektrophysiologisch vermessen. Mittels Nadel-Stimulations-<br />

Elektromyographie wurden die I/t-Kurve, Muskelleitgeschwindigkeit (Latenz<br />

bis zur elektrischen Muskelantwort) und die Refraktärzeit gemessen. Aus<br />

den I/t-Kurven konnten vereinfachend die Chronaxie/Rheobase Werte über<br />

den Denervationsverlauf ermittelt werden. Für die Chronaxie/Rheobase<br />

Messungen wurden Impulse von 0,1 ms bis 200 ms Impulsbreite mit<br />

„Constant Voltage“ verwendet. Zur Erfassung der Latenz wurden die<br />

Membranaktionspotentiale mit 0,1 ms langen Impulsen ausgelöst. Die<br />

Leitgeschwindigkeit wurde aus dem geometrischen Abstand und der Laufzeit<br />

des Aktionspotentiales zwischen der Stimulationsnadel und der EMG-<br />

Elektrodenadel bestimmt. Über eine Variante dieser Messung, die auf der<br />

Verwendung von Doppelimpulsen variablen Abstandes beruht, lässt sich ein<br />

kürzestes Interstimulusinterval (ISI) ermitteln, unterhalb dessen sich kein 2.<br />

Aktionspotential mehr auslösen lässt. Dieses Verfahren lässt gewisse<br />

Rückschlüsse auf das Refraktärverhalten der Membran zu. Mittels eines<br />

A/D-Wandlers wurden die Daten <strong>für</strong> spätere Analysen am PC im Programm<br />

DasyLab gespeichert und später im Programm Matlab ausgewertet. Das<br />

RISE-Projekt hat die Vorteile der Funktionellen Elektrostimulation <strong>für</strong> die<br />

95<br />

96<br />

Regeneration und Erhaltung langzeitdenervierter degenerierter Muskulatur<br />

und den Nutzen der Methode <strong>für</strong> die Rehabilitation bei schlaffer<br />

Querschnittlähmung aufgezeigt. Andererseits hat sich aber auch gezeigt,<br />

dass das Anwendungsspektrum dieser speziellen FES-Variante noch lange<br />

nicht ausgeschöpft ist und ein enormes Entwicklungspotential beinhaltet.<br />

Alexander Jautz<br />

Analyse und Umsetzung von Methoden zur Anonymisierung und<br />

Pseudonymisierung personenbezogener, medizinischer Date<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Georg Duftschmid<br />

Abstrakt: Die fortschreitende Vernetzung des Gesundheitswesens hat in den<br />

letzten Jahren zahlreiche Anwendungsfälle <strong>für</strong> den elektronischen Austausch<br />

medizinischer Daten mit sich gebracht. Sensible Daten - und als solche sind<br />

unter anderem personenbezogene, medizinische Daten im österreichischen<br />

Datenschutzgesetz definiert - dürfen jedoch nur verarbeitet, übermittelt bzw.<br />

überlassen werden, wenn entsprechende Gesetze eingehalten werden,<br />

welche fordern, dass Patientendaten in diesem Kontext so abzuwandeln<br />

sind, dass die betroffenen Personen nicht mehr eindeutig identifizierbar<br />

sind. Diese Arbeit widmet sich daher der Anonymisierung bzw.<br />

Pseudonymisierung personenbezogener Daten. Anhand von Beispielen wird<br />

gezeigt, dass „herkömmliche“ Anonymisierung bzw. Pseudonymisierung die<br />

Daten nicht ausreichend schützen kann. Um dieses Problem zu lösen, wird<br />

auf dem Konzept der k-Anonymität aufgesetzt. Die zusätzliche Sicherheit, die<br />

die k-Anonymität bietet, wird durch eine Abwandlung bzw. Verallgemeinerung<br />

der Daten erreicht, sodass pro Datensatz zumindest k−1 weitere<br />

Datensätze vorhanden sind, die hinsichtlich ihrer potentiell<br />

personenidentifizierenden Merkmale (z.B.: PLZ, Geburtsdatum, Beruf,…)<br />

nicht voneinander unterscheidbar sind, womit eine eindeutige Identifizierung<br />

einer Person weitgehend ausgeschlossen ist. Zusätzlich wird auf<br />

verschiedene Algorithmen zur k-Anonymisierung, Brauchbarkeit k-<br />

anonymisierter Daten, Laufzeitverhalten und Metriken zur Bewertung k-<br />

anonymisierter Daten eingegangen. Weiters wird die Umsetzung eines<br />

Werkzeuges zum Generieren und Exportieren k-anonymer Daten als<br />

Erweiterung des Studiensystems „ArchiMed“ vorgestellt. Die Kriterien, die<br />

zur Auswahl des zugrunde liegenden k-Anonymisierungsalgorithmus geführt<br />

haben, werden ebenso erläutert wie die Funktionsweise der verwendeten<br />

Methode. Die Beschreibung eines Exportvorgangs mittels des entwickelten<br />

Werkzeuges anhand eines konkreten Beispiels bildet den Abschluss der<br />

Arbeit.


Stefan Jud<br />

Sicherheitsanforderungen an webbasierte Portale der elektronischen<br />

Gesundheitsakte<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Georg Duftschmid<br />

Abstrakt: Das moderne Gesundheitswesen ist ohne Informationstechnologie<br />

kaum noch vorstellbar. Die Vernetzung der Einrichtungen wird weiter<br />

zunehmen und bringt eine Trendwende: Die bisher praktizierte<br />

institutionszentrierte Datenspeicherung wird durch eine patientenzentrierte<br />

ersetzt. Nicht mehr die Anforderungen eines Krankenhauses stehen im<br />

Mittelpunkt der Datenverarbeitung, sondern der Patient. Durch eine<br />

elektronische lebensbegleitende Gesundheitsakte sollen die Qualität der<br />

Versorgung verbessert und Kosten gespart werden. Jeder Bürger wird<br />

mittels Webportal auf seine persönliche Patientenakte über das Internet<br />

zugreifen können. Webbasierte elektronische Patientenakten stellen einen<br />

großen Fortschritt in der gemeinschaftlichen Behandlung von Patienten dar.<br />

Gleichzeitig darf aber die Sorge der Benutzer um die Sicherheit ihrer<br />

medizinischen Daten nicht außer Acht gelassen werden. Nur wenn es<br />

gelingt, den Patienten ein sicheres System zur Verfügung zu stellen, wird<br />

dieses auch angenommen und zu einem Erfolg werden. Für die Webportale<br />

gilt es daher umfassende Sicherheitsanforderungen zu definieren, um einen<br />

langfristigen, zuverlässigen und sicheren Systembetrieb gewährleisten zu<br />

können und die Sorge der Menschen um die Sicherheit ihrer medizinischen<br />

Daten zu zerstreuen. Diese Diplomarbeit stellt sich dieser<br />

Herausforderung.Als Methode wird das Referenzmodell <strong>für</strong> das taktische<br />

Management von Informationssystemen in Krankenhaus und<br />

Gesundheitswesen von Ammenwerth und Haux gewählt. In drei aufeinander<br />

aufbauenden Phasen wird zunächst eine Systemanalyse von bereits<br />

vorhandenen experimentellen elektronischen Gesundheitsakten hinsichtlich<br />

der umgesetzten Sicherheitsfunktionalität vorgenommen und deren Starkund<br />

Schwachstellen werden herausgearbeitet. In der zweiten Phase, der<br />

Systembewertung, werden die untersuchten Systeme miteinander verglichen<br />

und Optimierungsmöglichkeiten gesucht. In der abschließenden Phase der<br />

Systemspezifikation wird, aufbauend auf den Erkenntnissen der<br />

Systemanalyse und -bewertung und untermauert durch eine umfassende<br />

Literatursuche, ein Katalog von Sicherheitsanforderungen aufgestellt, der<br />

von webbasierten Portalen der elektronischen Gesundheitsakte erfüllt<br />

werden sollte. Die Anforderungen werden nach Bereichen gegliedert<br />

übersichtlich dargestellt. Für vertiefende Informationen sind zusätzliche<br />

Quellenangaben angegeben. Es zeigt sich, dass die Sicherheit von<br />

Webapplikationen nicht als isoliertes Problem betrachtet werden darf,<br />

sondern dass das gesamte Umfeld mit einbezogen werden muss. Neben<br />

den üblichen technischen Anforderungen sind das vor allem<br />

organisatorische Maßnahmen, die unternehmensweit umgesetzt werden<br />

müssen sowie verschiedene bauliche Maßnahmen. Auch die Benutzer<br />

müssen in das Sicherheitskonzept mit einbezogen werden und entsprechend<br />

<strong>für</strong> das Thema sensibilisiert werden.<br />

Philipp Ruisinger<br />

Methoden des CBT in der medizinischen Aus- und Weiterbildung<br />

Studium: Masterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Ernst Schuster<br />

Marcus Vitek<br />

FuzzyDBSexpert – Webbasierte Entscheidungsunterstützung zur Auswahl<br />

von Parkinson-Patienten <strong>für</strong> die Tiefe Hirnstimulation<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Klaus-Peter Adlassnig<br />

Abstrakt: Die Parkinson’sche Krankheit ist eine progressive, neurologische<br />

Krankheit, welche durch die Degeneration von Dopamin-produzierenden<br />

Neuronen entsteht. Die Behandlung dieser Krankheit beschränkt sich<br />

derzeit auf eine Dopamin-Ersatz-Therapie und eine Anzahl von<br />

Begleittherapien – Heilung ist derzeit nicht möglich. Damit werden die<br />

Kardinalsymptome, wie Ruhetremor, Rigidität und Bradykinesie gelindert.<br />

Mit der Zeit treten Langzeit-Nebenwirkungen der medikamentösen Therapie<br />

auf, wie zum Beispiel motorische Fluktuationen und Dyskinesien. Nur ein<br />

neurochirurgischer Eingriff kann die sonst inakzeptablen Nebenwirkungen<br />

mindern. Eine der möglichen Interventionen stellt die Tiefe Hirnstimulation<br />

dar. Die Indikation oder Kontraindikation der Operation <strong>für</strong> die Tiefe<br />

Hirnstimulation hängt von (a) dem bisherigen Erfolg der medikamentösen<br />

Therapie, (b) den Symptomen und Zeichen, welche sich in naher<br />

Vergangenheit gezeigt haben, (c) der subjektiven Lebensqualität des<br />

Patienten und (d) der Prognose des zu erwartenden Verlaufs der Krankheit<br />

ab. Aus diesem Grund wurde ein webbasiertes,<br />

entscheidungsunterstützendes System <strong>für</strong> Ärzte, welche nicht Experten auf<br />

diesem Gebiet sind, und Patienten und deren Verwandte geschaffen,<br />

welches auf einer Wissensbasis mit dem neuesten Stand des medizinischen<br />

Konsensus in dieser Domäne basiert. Das System, FuzzyDBSexpert<br />

genannt, besteht aus fünf Komponenten: (1) der Datenbank, welche die<br />

medizinischen Daten der Patienten enthält, welche mittels (2) dem<br />

Benutzerinterface – dargestellt via HTTP über das Internet –, welches die<br />

Unified Parkinson’s Disease Rating Scale (UPDRS), die derzeit am häufigsten<br />

benutzte Skala zur Bewertung der Einschränkungen der Patienten durch die<br />

Parkinson’sche Krankheit, und einem Eingabeformular <strong>für</strong> andere<br />

Patientendaten, (3) einer Wissensbasis, welche Fuzzy-WENN-DANN-Regeln,<br />

eingegeben durch (4) eine Experten-Schnittstelle, gespeichert hat, und (5)<br />

einer Fuzzy-Inferenzmaschine. Die Entwicklung des Systems wurde<br />

97<br />

98


abgeschlossen, weitere Studien über die Usability des Systems und zur<br />

Verfeinerung der Wissensbasis sind notwendig.<br />

Dana Prochazkova<br />

Architekturen der elektronischen, lebensbegleitenden Gesundheitsakte: Ein<br />

Vergleich der Archetypansätze von CEN und HL7 am Beispiel des Konzeptes<br />

"Diabetes"<br />

Studium: Masterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Georg Duftschmid<br />

Abstrakt: In dieser Arbeit werden die Architekturansätze der elektronischen<br />

lebensbegleitenden Gesundheitsakte, CEN prEN 13606 und HL7-CDA,<br />

hinsichtlich ihrer Modellierung sogenannter "Archetypen" miteinander<br />

verglichen. Archetypen dienen dabei der Repräsentation<br />

wiederverwendbarer Domänenkonzepte, die Inhalt einer elektronischen<br />

lebensbegleitenden Gesundheitsakte sein können. Der Vergleich wird anhand<br />

eines praktischen Beispiels durchgeführt, in dem von Patienten privat<br />

gemessene Diabetes-Daten mit Daten, die in einer Diabetesambulanz<br />

erhoben wurden, integriert werden sollen. Ziel des Vergleiches ist es, die<br />

Mächtigkeit und Praktikabilität der Archetyp-Modelle zu analysieren.<br />

Ausgehend von fünf bereits existierenden Archetypen der openEHR-Gruppe<br />

wird mit Hilfe des ebenfalls von openEHR angebotenen Archetyp-Editors ein<br />

weiterer Archetyp erstellt und im Rahmen eines übergreifenden Archetyps<br />

Private Diabetes Data zusammengefügt, wobei letzterer auf dem<br />

Architekturmodell von openEHR aufsetzt. Dieser Archetyp wird dann unter<br />

Anwendung von standardisierten Vorschriften in Archetypen des CEN-<br />

Modells prEN 13606 sowie der HL7-CDA (dort als Template bezeichnet)<br />

transformiert. Das HL7-Template wird anschließend mit dem CEN-Archetyp<br />

verglichen. Dabei wird speziell auf die Klassen und Attribute der Archetypen<br />

beziehungsweise Templates, die in den beiden Modellen unterschiedlich<br />

dargestellt wurden, eingegangen.<br />

UNIVERSITÄT WIEN<br />

Stefan Neuwirth<br />

Ein ADOscore- basiertes Informationssystem zur Unterstützung des<br />

Prozessmanagements im Flugbetrieb der Austrian Airlines<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gerald Quirchmayr<br />

99<br />

100<br />

Dominik Stoettner<br />

Threat Modeling: A Methodology for Assessing the Security Posture of IT<br />

Systems<br />

Studium: Masterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gerald Quirchmayr<br />

Abstrakt: Threat Modeling ist ein prozessorientierter Ansatz bei dem durch<br />

detailliertes Analysieren eines Systems oder Applikation mögliche Gefahren<br />

und Schwachstellen identifiziert werden können. Obwohl verschiedene<br />

Methoden existieren welche diesen Ansatz verfolgen, definiert kaum eine<br />

einen umfangreichen Prozess der sowohl vorbereitende Maßnahmen als<br />

auch abschließende Tätigkeiten beinhaltet. Nichtsdestotrotz stellen diese<br />

Methoden eine wertvolle Grundlage <strong>für</strong> die Erarbeitung der neuen Methode<br />

dar und werden daher im ersten Teil dieser Arbeit evaluiert und ihre<br />

jeweiligen Stärken und Schwächen aufgezeigt. Die Analyse dieser Methoden<br />

dient in Folge als Grundlage <strong>für</strong> die Definition der Ziele der neuen Methode.<br />

Im zweiten Teil der Arbeit wird die neue Methode zusammen mit dem<br />

zugrunde liegenden Prozess detailliert beschrieben. Durch Einbeziehen von<br />

vorbereitende Maßnahmen, einer gründlichen Analyse des System und der<br />

zugehörigen Betriebsumgebung, einer Identifizierung von möglichen<br />

Gefahren und geeigneter Gegenmaßnahmen, einem Risiko-Model, und<br />

angemessener Folge-Aktivitäten kann eine umfangreiche, hochqualitative<br />

Bewertung eines Systems oder Applikation erfolgen. Für jeden Schritt des<br />

definierten Prozesses wurden klare Kriterien in Form von Eintritts-, Austritts-<br />

Anforderungen, Ziele, und zu liefernde Ergebnisse definiert. Um das<br />

Erreichen dieser Kriterien zu unterstützen werden verschieden Ansätze<br />

vorgestellt, die in den jeweiligen Schritten zur Umsetzung der Methode<br />

angewendet werden können. Zusätzlich wird unterstützendes Material im<br />

Anhang zur Verfügung gestellt, um die Methode einfach und übersichtlich zu<br />

halten und dennoch eine umfangreiche Abdeckung der Thematik zu<br />

garantieren.<br />

JOHANNES KEPPLER UNIVERSITÄT LINZ<br />

Dominik Schnitzer<br />

Mirage - High Performance Computational Music Similarity and Automatic<br />

Playlist Generation<br />

Studium: Masterstudium Intelligente Systeme<br />

BetreuerIn: O.Univ.Prof. Dr. Gerhard Widmer<br />

Abstrakt: In großen Musiksammlungen und bei der Arbeit mit groÿen<br />

Mengen von Musikstücken, wird berechenbare Musikähnlichkeit ein immer<br />

wichtiger werdendes Forschungsgebiet. Denn mit einem berechenbaren<br />

Ähnlichkeitsmaß läßt sich Musik zum Beispiel automatisch klassifizieren,


sortieren oder zum automatischen Erstellen von Playlists nutzen. Viele der<br />

aktuell verwendeten Algorithmen zur computerbasierten Berechnung von<br />

Musikähnlichkeit sind leider aber zu rechen- und speicherintensiv, um<br />

tatsächlich breiten Einsatz finden zu können. Diese Arbeit widmet sich jenen<br />

Problemen und schlägt konkret Lösungen vor: MP3 Dateien werden direkt<br />

zur Ähnlichkeitsberechnung verwendet, die Rechenoperationen der<br />

Ähnlichkeitsberechnung drastisch reduziert und geeignete<br />

Speichermethoden vorgeschlagen. Jeder der diskutierten Vorschläge wird<br />

im Zuge der Arbeit auch in einer Programmbibliothek zur<br />

Musikähnlichkeitsberechnung (Mirage) mplementiert. Mirage kann frei aus<br />

dem Internet geladen werden. Die Bibliothek wird zur Demonstration ihrer<br />

Einsatzfähigkeit sowohl in einem Musik Player am PC als Plugin zur<br />

automatischen Playlist-Generierung eingesetzt, als auch zur<br />

Veranschaulichung, wie Musikähnlichkeit tatsächlich auf einem iPod-MP3<br />

Player eingesetzt werden könnte, verwendet. Zur Evaluation wird die<br />

Bibliothek nach Qualitäts- und Performanzkriterien getestet. Es zeigt sich<br />

dabei, dass die vorgeschlagenen Opimierungen keinen nennenswerten<br />

negativen Einfluß auf die Qualität der Ergebnisse haben, gleichzeitig aber<br />

durch den Einsatz der vorgeschlagenen Änderungen sehr beschleunigte<br />

Musikähnlichkeitsberechnung möglich ist.<br />

101<br />

102<br />

I N D E X<br />

AUTORINNEN UND AUTOREN<br />

Achs, Alexander, Institut <strong>für</strong> Rechnergestützte Automation/<br />

Automatisierungssysteme<br />

Akcaglayan, Ali, Institut <strong>für</strong> Wirtschaftsmathematik<br />

Altmann, Bernd, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Anglberger, Robert, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Rajaei Hajiagha, Ali Akbar, Institut <strong>für</strong> Analysis und Scientific Computing<br />

Bader, Markus, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung und<br />

Bildverarbeitung<br />

Baum, Doris, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Bergman, Omri, Institut <strong>für</strong> Managementwissenschaften<br />

Bernhard, Matthias, Institut <strong>für</strong> Computergraphik und<br />

Algorithmen/Computergraphik<br />

Bernthaler, Andreas, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong><br />

und Logik<br />

Binder, Aneta, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und Logik<br />

Binder, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Brandstetter, Andreas, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />

Brauneis, Andreas, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Brein, Christoph, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Breiteneder, Roland, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Brosch, Petra, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Brunnhofer, Leonhard, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />

Bucsics, Thomas, Institut <strong>für</strong> Computergraphik und Algorithmen/Algorithmen<br />

und Datenstrukturen<br />

Büyükkaba, Musa, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

Chalupa, Johannes, Institut <strong>für</strong> Wirtschaftsmathematik<br />

Csordas, Stefan, Institut <strong>für</strong> Wirtschaftsmathematik<br />

Demetz, Markus, Institut <strong>für</strong> Chemische Technologien und Analytik<br />

Dermaku, Artan, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />

Intelligence Group


Deutsch, Tobias, Institut <strong>für</strong> Computertechnik<br />

Dick, Alexander, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Dippelreiter, Birgit, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Drucker, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Dzakic, Emir, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Egger, Christoph, Institut <strong>für</strong> Breitbandkommunikation<br />

Ehrenschwendtner, Franz, Institut <strong>für</strong> Managementwissenschaften<br />

Erven, Hannes, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Eugster, Manuel, Institut <strong>für</strong> Statistik und Wahrscheinlichkeitstheorie<br />

Falschlehner, Reinhard, Institut <strong>für</strong> Managementwissenschaften<br />

Feichter, Stefanie, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

Fellner, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Fenz, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Ferstl, Klemens, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Feuereisel, Peter, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

Gärtner, Markus, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Genta, Wolfgang, Institut <strong>für</strong> Wirtschaftsmathematik<br />

Glos, Gerhard, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />

Gmeiner, Karl, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und Logik<br />

Gross, Roland, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Hadzisalihovic, Anis, Institut <strong>für</strong> Wirtschaftsmathematik<br />

Halwax, Michael, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />

Happenhofer, Marco, Institut <strong>für</strong> Breitbandkommunikation<br />

Henzinger, Gerald, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Hicker, Georg, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Hirschbichler, Michael, Institut <strong>für</strong> Breitbandkommunikation<br />

Hlavec, Peter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Hochreiter, Klaus, Institut <strong>für</strong> Managementwissenschaften<br />

Hübner, Harald, Institut <strong>für</strong> Managementwissenschaften<br />

Huemer, David, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Jakl, Michael, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />

Intelligence Group<br />

Jautz, Alexander, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

103<br />

Jud, Stefan, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

Kall, Andrea, Institut <strong>für</strong> Managementwissenschaften<br />

Karlberger, Christoph, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />

Karner, Arnold, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Kirchler, Jürgen, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Kleber, Florian, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung und<br />

Bildverarbeitung<br />

Knitel, Daniela, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Korenev, Dimitri, Institut <strong>für</strong> Managementwissenschaften<br />

Kotik, Petr, Institut <strong>für</strong> Breitbandkommunikation<br />

Kreutzer, Ulrich, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Krizan, Branislav, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />

Krobath, Karel, Institut <strong>für</strong> Managementwissenschaften<br />

Krywult, Stefan, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />

Kusternig, Michael, Institut <strong>für</strong> Computergraphik und<br />

Algorithmen/Computergraphik<br />

Labenbacher, Arnold, Institut <strong>für</strong> Managementwissenschaften<br />

Laister, David, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Leiner, Bernhard, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />

Lidy, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Löberbauer, Maximilian Alexander, Institut <strong>für</strong> Managementwissenschaften<br />

Loibner, Stefan, Institut <strong>für</strong> Managementwissenschaften<br />

Lojka, Georg, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und Logik<br />

Maquil, Valerie, Institut <strong>für</strong> Gestaltungs- und<br />

Wirkungsforschung/Multidisciplinary Design<br />

Matusek, Florian, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung<br />

und Bildverarbeitung<br />

Matzenberger, Andrea, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Matzner, Wolfgang, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Mayer, Florian, Institut <strong>für</strong> Managementwissenschaften<br />

Mayer, Rudolf, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Mayrhofer, Hannes, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Mazak, Alexandra, Institut <strong>für</strong> Managementwissenschaften<br />

Med, Michael, Institut <strong>für</strong> Computersprachen/Programmiersprachen und<br />

Übersetzerbau<br />

Meyer, Harald, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Interactive<br />

Media Systems<br />

104


Mörz, Michael, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />

Intelligence Group<br />

Moser, Roland, Institut <strong>für</strong> Computersprachen/Programmiersprachen und<br />

Übersetzerbau<br />

Moser, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Mosser, Robert, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Muigg, Philipp, Institut <strong>für</strong> Computergraphik und Algorithmen/Computergraphik<br />

Neuwirth, Stefan, <strong>Universität</strong> <strong>Wien</strong><br />

Ngo Van, Michaela, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Niederbacher, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Osztovits, Martina, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Ottensammer, Michael, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Paukovits, Christian, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />

Peneranda, Jérôme, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Peneranda, Julius, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Petritsch, Helmut, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Pinter, Doris, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Pirkwieser, Sandro, Institut <strong>für</strong> Computergraphik und Algorithmen/Algorithmen<br />

und Datenstrukturen<br />

Platter, Martin, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Preindl, Bastian, Institut <strong>für</strong> Breitbandkommunikation<br />

Prochazkova, Dana, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

Prokop, Hannes, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Embedded Computing<br />

Systems<br />

Rauchberger, Cornelia, Institut <strong>für</strong> Gestaltungs- und<br />

Wirkungsforschung/Multidisciplinary Design<br />

Rauscher, Christian, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Redlingshofer, Leopold, Institut <strong>für</strong> Managementwissenschaften<br />

Redwan-Tujar, Jasmin, Institut <strong>für</strong> Verfahrenstechnik, Umwelttechnik und Techn.<br />

Biowissenschaften<br />

Reichhold, Matthias, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Business Informatics<br />

Reinisch, Christian, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

105<br />

Rerych, Markus, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Rijdt, van de, Sander, Institut <strong>für</strong> Managementwissenschaften<br />

Ritzinger, Christian, Institut <strong>für</strong> Gestaltungs- und<br />

Wirkungsforschung/Multidisciplinary Design<br />

Roiger, Angela, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Ruisinger, Philipp, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

Sabadello, Markus, Institut <strong>für</strong> Computergraphik und<br />

Algorithmen/Computergraphik<br />

Schafhauser, Werner, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />

Intelligence Group<br />

Schauer, Stefan, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Scheiblauer, Claus, Institut <strong>für</strong> Computergraphik und<br />

Algorithmen/Computergraphik<br />

Schernhammer, Felix, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong><br />

und Logik<br />

Schliefnig, Martin, Institut <strong>für</strong> Computersprachen/Theoretische <strong>Informatik</strong> und<br />

Logik<br />

Sschmidt, David, Institut <strong>für</strong> Chemische Technologien und Analytik<br />

Schmidt, Johannes, Institut <strong>für</strong> Computertechnik<br />

Schnitzer, Dominik, Johannes Kepler <strong>Universität</strong> Linz<br />

Schöbel, Christian, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Schröttner, Robert, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Schüller, Florian, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />

Schuster, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Schusterreiter, Christian, Institut <strong>für</strong> Computersprachen/Programmiersprachen<br />

und Übersetzerbau<br />

Schwärzler, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Schweigl, Sigfried, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />

Intelligence Group<br />

Sedlacek, Tanja, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Seidel, Ingo, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Semturs, Christopher, Institut <strong>für</strong> Informationssysteme/Database and Artificial<br />

Intelligence Group<br />

Skopik, Florian, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Business<br />

Informatics<br />

Solly, Rita, Institut <strong>für</strong> Managementwissenschaften<br />

Ibiloglu, Recep, Institut <strong>für</strong> Wirtschaftsmathematik<br />

Sommereder, Markus, Institut <strong>für</strong> Breitbandkommunikation<br />

106


Sommerhuber, Jakob, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />

Stangl, Rainer, Institut <strong>für</strong> Breitbandkommunikation<br />

Steiner, Edwin, Institut <strong>für</strong> Computersprachen/Programmiersprachen und<br />

Übersetzerbau<br />

Steinlesberger, Rainer, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Stelzhammer, Thomas, Institut <strong>für</strong> Managementwissenschaften<br />

Stoettner, Dominik, <strong>Universität</strong> <strong>Wien</strong><br />

Stollmayer, Andreas, Institut <strong>für</strong> Managementwissenschaften<br />

Sutor, Stephan, Institut <strong>für</strong> Rechnergestützte Automation/Mustererkennung und<br />

Bildverarbeitung<br />

Taha, Abdel Aziz, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Tampir, Patrizia, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Thelian, Martin, Institut <strong>für</strong> Informationssysteme/Distributed Systems<br />

Thorstensen, Nicolas, Institut <strong>für</strong> Diskrete Mathematik und Geometrie<br />

Trauner, Jürgen, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Trojer, Josef, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong>/Real Time Systems<br />

Trunk, Christoph, Institut <strong>für</strong> Managementwissenschaften<br />

Tschabuschnig, Günther, Institut <strong>für</strong> Analysis und Scientific Computing<br />

Varvaroi, Ramona-Roxana, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Vecera, Roland, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Veigl, Christoph, Instistut "integriert studieren"<br />

Verhounig, Thomas, Institut <strong>für</strong> Rechnergestützte<br />

Automation/Automatisierungssysteme<br />

Vincze, Larissa, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Vitek, Marcus, Medizinische <strong>Universität</strong> <strong>Wien</strong><br />

Wagner, Herfried Karl, Institut <strong>für</strong> Gestaltungs- und<br />

Wirkungsforschung/Multidisciplinary Design<br />

Wallner, Matthias, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

Wegscheider, Iris, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung/Human<br />

Computer Interaction<br />

Weismann, Benedikt, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Business Informatics<br />

Weissensteiner, Arnold, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Business Informatics<br />

Westreicher, Marion, Institut <strong>für</strong> Raumentwicklung, Infrastruktur- und<br />

Umweltplanung<br />

Wihsböck, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Business Informatics<br />

Winkelhofer, Christian, Institut <strong>für</strong> Wirtschaftsmathematik<br />

107<br />

Yang, Un-Il, Institut <strong>für</strong> Informationssysteme/Database and Artificial Intelligence<br />

Group<br />

Zenz, Veronika, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme/Information<br />

und Software Engineering<br />

Zugaj, Andreas, Institut <strong>für</strong> Informationssysteme/Knowledge Based Systems<br />

Zwanzinger, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme/Information und Software Engineering<br />

108


INSTI<strong>TU</strong>TE DER FAKULTÄT FÜR INFORMATIK<br />

I N S T I T U T F Ü R T E C H N I S C H E I N F O R M A T I K .......................... 5<br />

Arbeitsbereich Real Time Systems....................................................... 5<br />

Arbeitsbereich Embedded Computing Systems ...................................... 8<br />

I N S T I T U T F Ü R R E C H N E R G E S T Ü T Z T E A U T O M A T I O N ......... 9<br />

Arbeitsbereich Automatisierungssysteme ............................................. 9<br />

Arbeitsbereich Mustererkennung und Bildverarbeitung......................... 17<br />

I N S T I T U T F Ü R I N F O R M A T I O N S S Y S T E M E ........................... 20<br />

Arbeitsbereich Distributed Systems................................................... 20<br />

Arbeitsbereich Database and Artificial Intelligence ............................... 23<br />

Arbeitsbereich Knowledge Based Systems.......................................... 26<br />

I N S T I T U T F Ü R C O M P U T E R S P R A C H E N ................................. 26<br />

Arbeitsbereich Programmiersprachen und Übersetzerbau .................... 26<br />

Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik ................................ 29<br />

I N S T I T U T F Ü R C O M P U T E R G R A P H I K U N D A L G O R I T H M E N ..... 31<br />

Arbeitsbereich Algorithmen und Datenstrukturen ................................ 31<br />

Arbeitsbereich Computergrafik.......................................................... 32<br />

ANDERE INSTI<strong>TU</strong>TE DER <strong>TU</strong> WIEN<br />

I N S T I T U T „I N T E G R I E R T S T U D I E R E N “ ..................................... 69<br />

INSTI<strong>TU</strong>T FÜR ANALYSIS UND SIENTIFIC COMPUTING 69<br />

INSTI<strong>TU</strong>T FÜR DISKRETE MATHEMATIK UND<br />

G E O M E T R I E .................................................................................. 71<br />

I N S T I T U T F Ü R W I R T S C H A F T S M A T H E M A T I K ...................... 71<br />

INSTI<strong>TU</strong>T FÜR STATISTIK UND<br />

W A H R S C H E I N L I C H K E I T S T H E O R I E ......................................... 74<br />

INSTI<strong>TU</strong>T FÜR CHEMISCHE TECHNOLOGIE UND<br />

A N A L I T I K ...................................................................................... 75<br />

INSTI<strong>TU</strong>T FÜR VERFAHRENSTECHNIK,UMWELTTECHNIK<br />

U N D T E C H N . B I O W I S S E N S C H A F T E N ................................... 76<br />

I N S T I T U T F Ü R F E R T I G U N G S T E C H N I K .................................. 76<br />

INSTI<strong>TU</strong>T FÜR RAUMENTWICKLUNG, INFRASTRUK<strong>TU</strong>R-<br />

U N D U M W E L T P L A N U N G ........................................................... 77<br />

I N S T I T U T F Ü R M A N A G E M E N T W I S S E N S C H A F T E N ............ 77<br />

I N S T I T U T F Ü R B R E I T B A N D K O M M U N I K A T I O N ................... 89<br />

M E D I Z I N I S C H E U N I V E R S I T Ä T W I E N .................................... 94<br />

U N I V E R S I T Ä T W I E N ................................................................... 99<br />

J O H A N N E S K E P P L E R U N I V E R S I T Ä T L I N Z ........................ 100<br />

INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND<br />

W I R K U N G S F O R S C H U N G ........................................................... 34<br />

Arbeitsbereich Multidisciplinary Design .............................................. 34<br />

Arbeitsbereich Human Computer Interaction....................................... 36<br />

INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND INTERAKTIVE<br />

S Y S T E M E ...................................................................................... 43<br />

Arbeitsbereich Information und Software Engineering .......................... 43<br />

Arbeitbereich Interactive Media Systems............................................ 60<br />

Arbeitsbereich Business Informatics .................................................. 61<br />

109<br />

110


KONTAKT<br />

http://www.informatik.tuwien.ac.at<br />

Zentrum <strong>für</strong> Koordination und Kommunikation der<br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Favoritenstraße 9/195<br />

1040 <strong>Wien</strong><br />

[IN:N]<br />

<strong>Informatik</strong>-Netzwerk <strong>für</strong> Absolventinnen und Absolventen der<br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> und andere interessierte Personen<br />

http://inn.tuwien.ac.at<br />

IMPRESSUM<br />

Konzept, Graphische Gestaltung: Dipl.-Ing. Karin Hraby<br />

© 2007 <strong>Technische</strong> <strong>Universität</strong> <strong>Wien</strong><br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!