30.01.2014 Aufrufe

e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...

e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...

e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

e p i l o g<br />

Präsentation der<br />

Diplom- und Masterarbeiten<br />

der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Wintersemester 2006/07


Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von:


e p i l o g<br />

Die <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> präsentiert die Diplom- und Masterarbeiten<br />

des letzten halben Jahres in einer Posterausstellung und ausgewählten<br />

Vorträgen. Ziel der Veranstaltung ist es, einen Einblick in das breite<br />

Spektrum der Themen und Aufgabenstellungen der Abschlussarbeiten an<br />

den verschiedenen Instituten und Arbeitsbereichen zu geben. Für die<br />

beste Diplomarbeit wird der „Distinguished Young Alumnus/Alumna”-<br />

Award vergeben.<br />

P R O G R A M M<br />

8. November 2006<br />

15:00 Uhr Eröffnung der Posterausstellung<br />

unter Anwesenheit der AutorInnen und BetreuerInnen der ausgestellten<br />

Posters.<br />

16:00 Uhr Vorträge<br />

• Begrüßung und Einleitung<br />

Rektor Peter Skalicky, Dekan Gerald Steinhardt<br />

• Vorträge zu den nominierten Diplomarbeiten<br />

• Gastvortrag: DI Tina Reisenbichler<br />

Manufactoring Industries, T-Systems Austria<br />

„Zukunftschancen von <strong>Informatik</strong>-AbsolventInnen in Zeiten von<br />

Globalisierung und Outsourcing.“<br />

18:30 Uhr Auszeichnung der besten Diplomarbeit und des<br />

besten Posters mit anschließendem Büffet<br />

3


V O R T R Ä G E<br />

Aus den von den Instituten nominierten Vorträgen wird von einer Jury<br />

(bestehend aus WissenschafterInnen der <strong>Fakultät</strong>) ein/e AbsolventIn als<br />

„Distinguished Young Alumnus/Alumna” der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

ausgezeichnet. Beurteilungskriterien sind dabei die Diplomarbeit sowie<br />

der Vortrag. Darüber hinaus wird auch das beste Poster ausgezeichnet.<br />

Thomas Illetschko: Minimal Combinatorial Maps for analyzing 3D Data<br />

Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />

Mustererkennung und Bildverarbeitung<br />

Maria Magdalena Ortiz de la Fuente: Ontologies as Data Repositories:<br />

Data Complexity of Expressive Description Logics<br />

Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />

Systems<br />

Peter Robinson: Log File Processing by Machine Learning and<br />

Information Extraction<br />

Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische <strong>Informatik</strong><br />

und Logik<br />

Christian Steiner: Shadow Volumes in Complex Scenes<br />

Institute <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />

Computergraphik<br />

4


D I P L O M A R B E I T E N<br />

INSTI<strong>TU</strong>T FÜR TECHNISCHE INFORMATIK<br />

Arbeitsbereich Real Time Systems<br />

Martin HÖLLER<br />

Gateway Generation for Virtual Networks in the DECOS Integrated<br />

Architecture<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />

Martin KIRNER<br />

Automatic Loop Bound Analysis of Programs written in C<br />

Studium: Magisterstudium Technisch <strong>Informatik</strong><br />

BetreuerIn: Ao. Univ.-Prof. Dr. Peter Puschner<br />

Abstrakt: Das Wissen um die maximale Ausführungszeit ist wichtig <strong>für</strong> das<br />

Design von Echtzeitsystemen. Ohne einer sicheren oberen Grenze <strong>für</strong> die<br />

Ausführungszeit kann nicht garantiert werden, dass das System alle seine<br />

zeitlichen Grenzen einhält. Als Teil der Analyse der maximalen<br />

Ausführungszeit ist es wichtig zu wissen, wie oft der Schleifenrumpf bei<br />

erstmaligen Treffen auf den Schleifenkopf ausgeführt wird. Traditionell wurde<br />

diese Begrenzung zur Unterstützung der zeitlichen Analyse explizit als<br />

Kommentar in den Quellcode eingefügt. Diese Diplomarbeit präsentiert eine<br />

Methode, welche eine untere und eine obere Grenze <strong>für</strong> die Anzahl der<br />

Durchläufe von verschieden Schleifentypen durch Analyse der Semantic<br />

eines in der Programmiersprache C geschriebenen Quellcodes berechnet.<br />

Nur wenn die Anzahl der Schleifendurchläufe von unbekannten<br />

Variablenwerten abhängt, sind zusätzliche Kommentare mit<br />

Wertebegrenzungen dieser Variablen im Quellcode erforderlich. Die Analyse<br />

der Schleifen wird auf dem Level des Quellcodes durchgeführt. Für jede<br />

unterstützte Schleife wird das Ergebnis der Berechnung in den Quellcode,<br />

zur Unterstützung weiterer WCET Analyseschritte, als Kommentar<br />

zurückgeschrieben.<br />

Angela SCHÖRGENDORFER<br />

Extended Confidence-weighted-Averaging in Sensor Fusion<br />

Studium: Magisterstudium Intelligente Systeme<br />

BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />

5


Abstrakt: Sensor Fusion bezeichnet die Zusammenführung von<br />

Informationen, die von mehreren verschiedenen Sensoren eines Systems<br />

ermittelt wurden, mit dem Ziel, eine genaueres, verlässlicheres und<br />

umfassenderes Bild der Umwelt zu erhalten. Jeder einzelne Sensor ist nur<br />

bedingt zuverlässig, da er von Faktoren wie Umwelteinflüssen oder<br />

zufälligem Rauschen beeinflusst wird, oder gar ausfallen kann. Relevante<br />

Funktionen und Entscheidungen sollten daher nicht auf Informationen, eines<br />

einzigen Sensors basieren. Diese Arbeit betrachtet derzeitige Techniken der<br />

Sensor Fusion, im Speziellen der Vereinigung von Sensorrohdaten.<br />

Ausgehend von dabei identifizierten Schwächen wird eine neue Methode <strong>für</strong><br />

die zustandslose Fusion von Sensorrohdaten präsentiert - die der<br />

erweiterten konfidenzgewichteten Mittelwerte. Basierend auf der Methode<br />

der konfidenzgewichteten Mittelwerte berücksichtigt dieser neue<br />

Algorithmus zusätzlich Korrelationen zwischen den Fehlern der einzelnen<br />

Sensoren. Die Vorteile, die daraus zu erwarten sind, sind eine Verbesserung<br />

der Genauigkeit des Ergebnisses einerseits und eine verlässlichere<br />

Schätzung der verbleibenden Unsicherheit andererseits. Die<br />

Verbesserungen durch diesen neuen Ansatz gegenüber bereits bestehenden<br />

werden schließlich anhand Analysen von Messungen, die von einem mobilen<br />

Roboter durchgeführt wurden, gezeigt.<br />

Arbeitsbereich Embedded Computing Systems<br />

Markus FERRINGER<br />

An Asynchronous Hardware Design for Distributed Tick Generation<br />

Studium: Magisterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr.Andreas Steininger<br />

6<br />

Abstrakt: The main topic of this diploma thesis is the hardwareimplementation<br />

of a distributed fault tolerant algorithm, which generates<br />

local (clock-)ticks that are, within a certain precision, synchronous to each<br />

other. This work is done in the context of DARTS (Distributed Algorithms for<br />

Robust Tick Synchronization) and is funded by the BMVIT within the scope of<br />

FIT-IT. DARTS is a joint project between the Institute for Computer<br />

Engineering — Embedded Computing Systems Group at the Vienna<br />

University of Technology and Austrian Aerospace GmbH. The motivation of<br />

the project is to avoid the use of global clock signals and the related<br />

disadvantages: Single nodes generate local tick-transitions in dependence<br />

upon each other. The underlying distributed algorithm assures that these<br />

transitions occur within a certain but evaluable time span at all (non-faulty)<br />

nodes. Therefore, the different clocks do not drift apart, which<br />

makes explicit resynchronization obsolete. Based on the algorithm,<br />

functional units are identified and modified such that a high-performance and<br />

area-saving hardware realization is feasible. Since the logic is designed to<br />

generate a clock signal, it has to meet asynchronous design paradigms.<br />

Thereby, one of the most important gates is the Muller- C-Element, which is


a basic part of various asynchronous modules like, for example,<br />

micropipelines. This work describes two different hardware<br />

implementations: On the one hand, there is a non-optimized design for an<br />

FPGA board, which is used to test the correct behaviour of the underlying<br />

algorithm. In addition, an area and speed-optimized ASIC design is<br />

developed, which shall form the basis for the fabrication of a prototype.<br />

Thereby, the logic needs to meet several constraints which can only be<br />

fulfilled by clever place and route.<br />

Christian VARGA<br />

Analyse und Implementierbarkeit einer aktiven Schallunterdrückungslösung in<br />

Hardware<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />

Abstrakt: Durch die enormen Fortschritte der Halbleitertechnik sind aktive<br />

Schallunterdrückungsmethoden ökonomisch realisierbar geworden. Die<br />

gesteigerte Leistungsfähigkeit verfügbarer Mikroprozessoren und dem<br />

Einsatz von dedizierter Hardware - wie zum Beispiel FPGAs - ist es möglich<br />

geworden flexible und portable Systeme zur aktiven Dämpfung von<br />

Schallwellen zu entwickeln. Während jedoch in vielen Abhandlungen nur die<br />

Theorie eine Rolle spielt, soll diese Arbeit dazu dienen, die praktischen<br />

Aspekte einer Realisierung zu untersuchen. Zu diesem Zweck sollen die<br />

Algorithmen der LMS (least mean square) Familie untersucht werden, um<br />

eine Aussage über die Güte einer erreichbaren Schalldämpfung zu erhalten.<br />

Es soll weiters die Auswirkung der zugrunde liegenden Arithmetik unter die<br />

Lupe genommen werden. Diese Notwendigkeit resultiert aus der<br />

Komplexität der Implementierung einer Gleitkommalösung. Dazu werden<br />

Filter mit Gleitkomma- und Fixkommaarithmetik in Hinsicht auf Konvergenz<br />

verglichen. Nachdem gezeigt wurde, daß der Einsatz dieser Algorithmen<br />

durchaus<br />

vertretbar ist, soll ein weiterer Schritt in Richtung Hardware gesetzt<br />

werden. Dabei wird der Aufbau schematisch dargestellt und die einzelnen<br />

Komponenten auf ihr Übertragungsverhalten hin überprüft. Durch diese<br />

Daten und die Erfahrungen aus den Simulationen, kann nun eine Aussage<br />

über die Realisierung getroffen werden. Im Laufe der Untersuchung werden<br />

Grenzen aufgezeigt, die besonders das Konvergenzverhalten und die Arten<br />

von Schall, welche bedämpft werden können, betreffen. Es ist im Laufe der<br />

Arbeit bestätigt worden, daß es nur theoretisch möglich ist beliebigen Schall<br />

zu eliminieren und, daß die Wahl der Parameter des Filters von<br />

entscheidender Bedeutung ist.<br />

7


INSTI<strong>TU</strong>T FÜR RECHNERGESTÜTZTE AUTOMATION<br />

Arbeitsbereich Automatisierungssysteme<br />

Manfred BALLUCH<br />

Entwicklung und Einsatzmöglichkeiten von Composite Applications basierend<br />

auf der Enterprise Services Architecture am Beispiel der Automobilindustrie<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Matthias BAUER<br />

Analyse und Entwurf einer XML basierenden Kommunikationsarchitektur zur<br />

Abbildung formularbasierter Genehmigungsprozesse am Beispiel einer<br />

Kommunalen Verwaltung<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Manoj CHOPRA<br />

Entwurf und Implementierung eines GIS basierten online<br />

Bürgerbeteiligungssystems<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Marcin DAVIES<br />

Towards a Knowledge Portal for European Research Projects<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

8<br />

Abstrakt: Wissenschaftliche Forschung ist heutzutage hauptsächlich durch<br />

gemeinsame Anstrengungen geprägt, wobei ein effizienter Austausch von<br />

Wissen entscheidend ist, um der zunehmenden Komplexität neuer<br />

Forschungsthemen gerecht werden zu können. Angesichts der speziellen<br />

Situation der europäischen Forschung und Europas ehrgeizigem Ziel, der<br />

international führende Forschungsraum zu werden, behandelt diese Arbeit<br />

die Frage, in welcher Form man technologische Unterstützung <strong>für</strong> den<br />

erfolgreichen Wissensaustausch innerhalb gesamteuropäischer<br />

Forschungsprojekte bereitstellen kann. Diese Arbeit gibt einen Überblick<br />

über die theoretischen und technischen Grundlagen des<br />

Wissensaustausches und erläutert die Charakteristika wissenschaftlicher<br />

Kooperation. Darauf basierend werden sowohl organisatorische als auch<br />

technische Anforderungen <strong>für</strong> den Austausch und das Verteilen von


forschungsrelevantem Wissen behandelt. Als allgemeine Herausforderungen<br />

auf der organisatorischen Ebene sind die Herstellung einer Kultur des<br />

Teilens und Probleme, denen wissenschaftliche Rivalität und ein Mangel an<br />

Vertrauen zugrunde liegen, zu nennen. Auf der technischen Seite müssen<br />

Systeme geboten werden, welche einfach zu verwenden, aber dennoch<br />

leistungsfähig sind. Eine Reihe erweiterter Funktionen ist ebenfalls<br />

notwendig, um die fehlende Nähe zwischen internationalen Forschern und<br />

Forscherinnen auszugleichen. In Anbetracht der derzeitigen<br />

Forschungssituation in Europa, welche durch eine starke Fragmentierung<br />

wissenschaftlicher Aktivitäten und Ressourcen gekennzeichnet ist, beinhaltet<br />

diese Arbeit die Fallstudie eines Forschungsprojektes innerhalb des sechsten<br />

Forschungsrahmenprogramms und analysiert Defizite untersuchter Systeme<br />

und Anwendungen. Im Wesentlichen beeinträchtigen mangelnde<br />

Funktionalität, Verwendbarkeit und Einheitlichkeit die gegenwärtigen<br />

technischen Implementierungen. Zusätzlich werden die Probleme<br />

vorhandener Lösungen durch das Fehlen offizieller und wieder verwendbarer<br />

Frameworks verstärkt. Infolgedessen werden Bemühungen, eine<br />

funktionierende technische Infrastruktur zu entwickeln, erschwert, der<br />

Einsatz von effizienter Technologie verzögert und Konsistenz und<br />

Einheitlichkeit verhindert. Als ein Vorschlag in Richtung einer wieder<br />

verwendbaren und erweiterbaren Plattform <strong>für</strong> den Austausch von<br />

forschungsrelevantem Wissen stellt diese Arbeit einen technischen Entwurf<br />

eines Wissensportals <strong>für</strong> europäische Forschungsprojekte vor. Auf der<br />

Basis eines Open-Source Content Management Systems, welches eine<br />

flexible und erweiterbare Infrastruktur bereitstellt, zeigt der vorliegende<br />

Prototyp konkrete Implementierungsmöglichkeiten auf und verfolgt dabei die<br />

Ideen der Portal-Technologie, welche aus der Notwendigkeit von<br />

Unternehmen, einen einheitlichen Zugang zu relevanten Informationen und<br />

Diensten zu schaffen, stammt. Neben der Vereinheitlichung von Wissensund<br />

Contentmanagement und der Einbindung von Interaktions- und<br />

Personalisierungstechniken macht der hohe Grad an Funktionalität,<br />

Benutzbarkeit und Integration Wissensportale zu einem viel versprechenden<br />

Ansatz <strong>für</strong> die effektive Unterstützung des Wissensaustausches in verteilten<br />

Forschungsumgebungen.<br />

Bernhard ERB<br />

Safety Related Mechanisms in Networked Building Automation Systems<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dipl.-Ing. Dr. Wolfgang Kastner<br />

Andreas LEHNER<br />

Integrierte Objekte als periphere Informationsträger - Entwurf einer<br />

Taxonomie <strong>für</strong> Ambient Displays<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

9


BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: Informationstechnologie findet in modernen Lebensumgebungen<br />

immer stärkere Verbreitung. Das erhöhte Potential an technologischen<br />

Endgeräten führt zu starker kognitiver Belastung beim Benutzer und<br />

aufdringlicher Technologie. Ambient Displays als Informationsmedien, die<br />

minimale Aufmerksamkeit benötigen und in die physische Umgebung<br />

integriert sind, stellen eine mögliche Lösung <strong>für</strong> die Beruhigung der<br />

Umgebung dar. Die Vielseitigkeit an Realisierungsmöglichkeiten von Ambient<br />

Displays, die zahlreichen Einflussfaktoren und die Eigenschaft als junges<br />

Forschungsfeld der HCI führen zu Problemfeldern, wie der Existenz einer<br />

unzureichenden Anzahl von Evaluierungsmethoden und Richtlinien <strong>für</strong> Design<br />

und Gestaltung. Weiters stellen Ambient Displays einen eher<br />

unorganisierten und schwach abgegrenzten Forschungsbereich dar. Die<br />

Entwicklung einer Taxonomie ist ein erster Schritt diese Problemfelder zu<br />

bewältigen. Durch die genaue Analyse einer nahezu kompletten Sammlung<br />

bisher existierender Ambient Displays werden wesentliche Eigenschaften von<br />

Ambient Displays herausgearbeitet. Aufbauend auf den Ergebnissen dieser<br />

Analyse werden die wichtigsten Eigenschaften zu Kriterien und<br />

Designdimensionen zusammengefasst, mit deren Hilfe eine Kategorisierung<br />

von Ambient Displays möglich wird. Durch die Zuordnung einer geeigneten<br />

Metrik zur jeweiligen Designdimension werden die einzelnen<br />

Anwendungen bewertet und in eine Taxonomie überführt. Das Ergebnis der<br />

entwickelten Taxonomie kann als Grundlage dienen, Trends und bisherige<br />

Entwicklungen offensichtlich zu machen und so eine theoretische Basis <strong>für</strong><br />

weitere Arbeiten im Bereich der Ambient Displays schaffen.<br />

Arthur LINHART<br />

Darstellung und Restklassifizierung von Forschungsschwerpunkten im<br />

Bereich des Software-Qualitätsmanagements<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Joachim LUKASSER<br />

Regelungstechnik mit Mathematica<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />

Roland PEZZEI<br />

Herleitung und Spezifikation einer sicherheitserzeugenden dezentralen<br />

Systemkomponente <strong>für</strong> eine landesweite Gesundheitstelematik<br />

10


Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Thomas PIRNGRUBER<br />

Projektorganisatorische Analyse und Klassifizierung von State-of-the-Art<br />

Softwareentwicklungs-Prozessmodellen<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Christa RAINER<br />

Änderungsfreundliche Strukturen von ERP Systemen am Fallbeispiel Axapta<br />

Studium: Magisterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Helene RICHTER<br />

The Impact of Inaccurate Social Perception on Conflicts in Small Software<br />

Engineering Teams<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Martin SAUPP<br />

Stabile und effiziente IT-Infrastruktur <strong>für</strong> kleine und mittelständische Betriebe<br />

auf Basis von Open Source Projekten<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Wojciech URBANCZYK<br />

Erhöhung des Sicherheitsniveaus durch Komplexitätsreduktion in<br />

Netzwerken auf basis einer Migration von IPv4 auf IPv6<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Abstrakt: In technischen Systemen stellen Komplexität und Sicherheit duale<br />

Eigenschaften dar. Im sich rasch entwickelnden Bereich der<br />

Netzwerktechnologie war in der vergangenen Dekade das Auftreten einer<br />

Vielzahl von Sicherheitsproblemen beobachtbar. Diese betrafen und<br />

betreffen auch heute sowohl die Vertraulichkeit, Authentizität und Integrität<br />

11


übertragener Informationen als auch die Verfügbarkeit der diese<br />

Informationen verarbeitenden Systeme. Einen wesentlichen Anteil am<br />

Entstehen dieser Sicherheitsprobleme haben neben der Missachtung von<br />

Sicherheitsthemen während der initialen Entwicklung des Internet Protokolls<br />

Version 4 (IPv4) vor allem die rasche funktionale und quantitative<br />

Weiterentwicklung des Internets und der damit verbundenen Systeme. Der<br />

stetige Wandel an zu berücksichtigenden und auf IPv4 aufbauenden<br />

Protokollen und Diensten erhöht kontinuierlich die von Entwicklern,<br />

Administratoren und Endanwendern zu überblickende systemische<br />

Komplexität. Durch diesen Wandel treten auch überwunden geglaubte<br />

Sicherheitsprobleme erneut auf, wie das Beispiel der Einführung von<br />

drahtlosen Netzwerkverbindungen über leicht abzuhörende WLAN-<br />

Technologien zeigt. Für diese Sicherheitsprobleme werden zwar im einzelnen<br />

Lösungen gefunden und auch umgesetzt, da diese aber nicht Teil eines<br />

ganzheitlichen Konzeptes sind, werden wiederum Entwickler,<br />

Administratoren und Endanwender mit einer steigenden Zahl an möglichen<br />

Optionen zur sicheren Gestaltung von Systemen konfrontiert. Mit der<br />

vorliegenden Arbeit werden anhand eines Vergleichs konkreter Aspekte von<br />

IPv4 und IPv6 wesentliche sicherheitstechnische, aber auch letztendlich<br />

wirtschaftliche Vorteile einer Migration zu IPv6 unter dem Aspekt einer<br />

Reduktion der gewachsenen Komplexität argumentiert. Da bei<br />

Migrationsprojekten im allgemeinen und bei Größenordnungen wie dem<br />

Umstieg von IPv4 auf IPv6 besonders in der Migrationsphase eine weitaus<br />

höhere Komplexität vorliegt als vor Beginn der Migration bzw. nach deren<br />

erfolgreichen Abschluss, werden in dieser Arbeit verschiedene<br />

Migrationsstrategien verglichen.<br />

Armin WANDALLER<br />

Analyse und Prototypische Implementierung einer<br />

Kommunikationsarchitektur <strong>für</strong> die moderne öffentliche Verwaltung<br />

basierend auf der Interaktion von atomaren Services<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />

Arbeitsbereich Mustererkennung und Bildverarbeitung<br />

Thomas ILLETSCHKO<br />

Minimal Combinatorial Maps for analyzing 3D Data<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Walter Kropatsch<br />

12<br />

Abstrakt: Das Konzept kombinatorischer Karten bzw. irregulärer Pyramiden,<br />

die aus kombinatorischen Karten bestehen, bietet zahlreiche Vorteile <strong>für</strong><br />

Applikationen im Bereich Mustererkennung und Bildverarbeitung. Im


Speziellen ist die Möglichkeit die topologische Struktur von Daten abzubilden<br />

oft eine wichtige Voraussetzung <strong>für</strong> solche Applikationen. Obwohl<br />

kombinatorische Karten <strong>für</strong> Daten beliebiger Dimensionalität definiert sind,<br />

haben sich bisherige Studien zumeist auf 2D konzentriert. In der Folge<br />

existieren nur wenige Ergebnisse <strong>für</strong> die Verwendung kombinatorischer<br />

Karten <strong>für</strong> Daten höherer Dimension. Diese Diplomarbeit untersucht die<br />

Eigenschaften dreidimensionaler kombinatorischer Karten mit dem<br />

Hauptaugenmerk auf der Erzeugung minimaler Karten mittels Contractionund<br />

Removal-Operationen. Dazu werden zusätzlich zu den Operationen 10<br />

formale Vorbedingungen definiert, die garantieren, dass die Anwendung<br />

dieser Operationen eine vereinfachte, korrekte und topologisch äquivalente<br />

kombinatorische Karte erzeugt. Es wird gezeigt, dass diese Operationen mit<br />

ihren Vorbedingungen ausreichen, um jede kombinatorische Karte, die<br />

bestimmten Kriterien genügt, zu einer minimalen Karte zu vereinfachen. Die<br />

Repräsentation topologischer Beziehungen in minimalen Konfigurationen<br />

wird untersucht, und es wird gezeigt, dass primitive topologische<br />

Beziehungen anhand von Pseudo-Elementen erkannt und unterschieden<br />

werden können. Minimale kombinatorische Karten haben daher großes<br />

Potential <strong>für</strong> die Analyse dreidimensionaler Daten. Sie eignen sich zur<br />

Repräsentation und Unterscheidung topologischer Relationen während ihre<br />

geringe Größe eine effiziente Verarbeitung ermöglicht.<br />

13


INSTI<strong>TU</strong>T FÜR INFORMATIONSSYSTEME<br />

Arbeitsbereich Distributed Systems<br />

Manuel EGELE<br />

Behaviour-Based Spyware Detection Using Dynamic Taint Analysis<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Abstrakt: Diese Diplomarbeit beschreibt TQAna -- ein Werkzeug zum<br />

Aufspüren von Spyware mittels verhaltens-basierter Analyse. Das Erstellen<br />

und Verteilen von Signaturen <strong>für</strong> die heute üblichen Anti-Spyware Produkte<br />

ist eine Herausforderung <strong>für</strong> die Hersteller, und selbst wenn die<br />

Signaturdatenbanken immer aktuell gehalten werden, können diese Produkte<br />

keine unbekannten Bedrohungen erkennen. Wir sind davon überzeugt, dass<br />

eine verhaltens-basierte Analyse durchaus in der Lage ist dieses Manko<br />

auszubessern. TQAna basiert im wesentlichen auf zwei Ansätzen; der taint<br />

Analyse und dem Beobachten von Funktionsaufrufen, um eine dynamische<br />

Analyse in einem emulierten System vorzunehmen. Während das System<br />

durch die taint Analyse in der Lage ist die Bewegungen von sensiblen Daten<br />

auf Hardware-Ebene zu verfolgen, decken die überwachten Funktionen alle<br />

Aspekte des Windows Betriebssystems, wie Dateisystem-, oder<br />

Netzwerkzugriffe ab. Die Analyse konzentriert sich auf so genannte Browser<br />

Helper Objects die erweiterte Funktionen <strong>für</strong> den Microsoft Internet Explorer<br />

beinhalten. Während der Analyse wird ein detailliertes Protokoll erstellt das<br />

alle beobachteten Vorgänge im System enthält und jene Vorgänge die<br />

getaintete Daten verwenden besonders hervorhebt. Während der Evaluation<br />

von TQAna konnten wir feststellen, dass die erstellten Protokolle tiefe<br />

Einblicke in die Vorgänge des Windows Betriebssystems geben und dass<br />

unser verhaltens- basierter Ansatz wirklich in der Lage ist, bisher<br />

unbekannte Bedrohungen zu entdecken.<br />

14<br />

Matthias GLADT<br />

Implementation und Evaluation of Replication Protocols using the Neko<br />

Framework<br />

Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />

BetreuerIn: Projektass. Dr. Karl Michael Göschka<br />

Abstrakt: In verteilten Systemen werden Anwender bzw.<br />

Hardwarekomponenten so miteinander verbunden, dass das Austauschen<br />

von Informationen in einem Maße möglich ist, dass eine da<strong>für</strong> vorgesehenen<br />

Applikation problemlos funktioniert. Wenn verteilte Systeme richtig<br />

konfiguriert werden ist einer ihrer größten Vorteile im Vergleich zu einzelnen<br />

Komponenten, dass sie die Verfügbarkeit von Daten erhöhen können indem<br />

sie Kopien auf mehreren Knoten erzeugen. Die Konsistenz kann jedoch


aufgrund von Netzwerkfehlern oder Fehlern einzelner Knoten abnehmen.<br />

Genaue Replikationsvorgaben können gewährleisten, dass zu jedem<br />

Zeitpunkt Konsistenz garantiert werden kann. Ein Nebeneffekt davon wäre<br />

allerdings, dass die Verfügbarkeit leiden würde. Ebenso ist es möglich die<br />

Verfügbarkeit ohne Rücksicht auf Konsistenz zu garantieren. Die vorliegende<br />

Arbeit hat die Implementierung des Primary-per-Partition Protokolls zum<br />

Gegenstand, das es ermöglicht, ein verteiltes System so zu konfigurieren,<br />

dass die Konsistenz zu Lasten der Verfügbarkeit erhöht wird oder<br />

umgekehrt. Um ein verteiltes System simulieren zu können, wird die<br />

Implementierung in das Neko Framework eingebettet, eine Java Plattform,<br />

die leicht konfiguriert werden kann und in einer simulierten Umgebung<br />

ebenso verwendet werden kann wie in einer echten. Neko Anwendungen<br />

implementieren einen Protokoll Stack, d. h. dass einzelnen Komponenten<br />

unterschiedliche Aufgaben zugewiesen werden können. Im simulierten<br />

Modus werden Knoten erzeugt indem mehrere Instanzen der einzelnen<br />

Klassen erzeugt werden. Es kann sowohl in einer simulierten als auch in<br />

einer echten Umgebung ein und derselbe Code ausgeführt werden. Die<br />

Implementierung des Primary-per-Partition Protokolls stellt Integrität sicher<br />

indem bestimmte, im Wesentlichen frei wählbare, Randbedingungen erfüllt<br />

werden. Im so genannten „degraded“ Modus, in dem Knoten- oder<br />

Netzwerkfehler aufgetreten sind, müssen einige dieser Randbedingungen<br />

nicht jederzeit erfüllt werden um eine höhere Verfügbarkeit zu erreichen.<br />

Sobald das System wieder repariert ist muss die Integrität wieder<br />

hergestellt werden.<br />

Lukas JUSZCZYK<br />

Replication and Synchronization of Web Services in Ad-hoc Networks<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Abstrakt: Web Services ermöglichen eine standardisierte, erweiterbare und<br />

vollständig kompatible Interaktion zwischen Maschinen. Diese<br />

Interoperabilität hat maßgeblich zur steigenden Akzeptanz von Web Services<br />

als Kommunikationsstandard im Internet beigetragen. Besonders dienlich<br />

wurden Web Services in mobilen Ad-hoc Netzwerken, die spontan gebildete<br />

und höchst dynamische Netzwerk- und Kommunikationsinfrastrukturen<br />

ermöglichen. Doch diese dynamischen Netzwerktopologien erschweren das<br />

Anbieten von hochverfügbaren Web Service-basierten Architekturen. Im<br />

Zuge dieser Diplomarbeit wurde ein System entwickelt, das Verfügbarkeit<br />

und Zuverlässigkeit von Web Services mit Hilfe von Replikation und<br />

Synchronisation signifikant erhöht und fähig ist, mit der Dynamik und<br />

Unberechenbarkeit von Ad-hoc Netzwerken umzugehen.<br />

15


Jaroslaw LAZOWSKI<br />

Web Services in Ad-Hoc Netzwerken<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Florian MITTER<br />

Tracking Source Code Propagation in Software Systems via Release History<br />

Data and Code Clone Detection<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Harald Gall<br />

Abstrakt: Laut Untersuchungen beinhalten große Softwaresysteme 17 bis<br />

25 Prozent duplizierten Quellcode, wodurch zusätzlicher Aufwand,<br />

insbesondere bei der Wartung, entsteht. Auch wenn manche dieser Klone<br />

absichtlich erzeugt und gewartet werden, so stellen sie im Regelfall doch so<br />

genannte bad smells dar. In den letzten Jahren ist in diesem Bereich viel<br />

Forschung betrieben worden, und es wurden verschiedenste Ansätze zur<br />

Erkennung, Wartung, und auch zur Entfernung von dupliziertem Quellcode<br />

publiziert, jedoch weisen viele davon Defizite auf. Außerdem wurde die<br />

qualitative Beschaffenheit sowie die evolutionäre Entwicklung von Klonen<br />

noch nicht ausreichend untersucht. In dieser Arbeit stellen wir eine Clone<br />

Reference Database vor, die einige aktuelle Mängel durch die<br />

Zusammenführung und Filterung der Ergebnisse verschiedener<br />

Klonerkennungstools beseitigen soll. Wir führen dazu die Metriken overlap<br />

und confidence ein, um die Ergebnisse besser qualifizieren zu können. Durch<br />

eine weitere Klassifizierung der Klone, die durch eine Verknüpfung mit<br />

Sprachkonstrukten ermöglicht wird, sollen die Ergebnisse besser<br />

verständlich werden. Außerdem führen wir weitere Metriken ein, um<br />

evolutionäre Änderungen von Klonen analysieren zu können. Mit deren Hilfe<br />

sowie eines einfachen Clone Trackers wollen wir die Verbreitung von Klonen<br />

und Klongruppen über einen gewissen Zeitraum untersuchen. Zur<br />

Ausführung und Unterstützung aller genannten Aufgaben haben wir die<br />

Clone Detection Toolbox entwickelt. Zur Evaluierung unseres Ansatzes haben<br />

wir sieben Versionen von Mozilla ausgewählt. Alle Klonerkennungstools<br />

konnten die bis zu vier Millionen Zeilen Quellcode bewältigen, wenn auch die<br />

Ergebnisse qualitative und quantitative Unterschiede aufweisen. In jeder<br />

Version haben wir etwa 200.000 Klonfragmente gefunden, von denen etwa<br />

die Hälfte unseren Qualitätsanforderungen eines sicheren Klonfragments<br />

genügt, und nur etwa 1/20 von allen überlappen zumindest drei Viertel<br />

einer Funktion oder Methode. Diese sicheren Klonfragmente bestehen <strong>für</strong><br />

gewöhnlich aus acht bis 16-18 Zeilen Quellcode und gehören zu<br />

Klongruppen, die aus vier Klonfragmenten bestehen. Mit Hilfe unserer<br />

Qualitätsmetriken konnten wir außerdem zeigen, dass unsere anfängliche<br />

Annahme zutreffend ist: Es Bedarf mehr als einfacher Metriken, die aus<br />

16


Attributen von Klonen oder Klongruppen gebildet werden, um Klone<br />

eindeutig klassifizieren zu können.<br />

Christioph NAGL<br />

ViDRE - A Distributed Service-Oriented Business Rule Engine Based on<br />

RuleML<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Abstrakt: Die heutige Geschäftswelt befindet sich in einem ständigen<br />

Wandel. Unternehmen müssen rasch auf Veränderungen des Marktes<br />

reagieren. Dieses dynamische Geschäftsumfeld erfordert flexible und<br />

anpassungsfähige Unternehmensanwendungen, in denen Änderungen der<br />

Geschäftslogik effektiv und schnell umgesetzt werden können. Business<br />

Rules (Geschäftsregeln) sind ein möglicher Ansatz um dynamische<br />

Geschäftslogik von Unternehmen abzubilden. Der Einsatz von Business Rules<br />

ermöglicht die Entwicklung von flexiblen und vor allem leicht wartbaren<br />

Unternehmensanwendungen. Business Rules sind Regeln, die bestimmte<br />

Bereiche einer Unternehmung definieren, bzw. einschränken. Sie<br />

ermöglichen eine strikte Trennung von Geschäftslogik und dem übrigen<br />

Applikationscode. Folglich kann Geschäftslogik schnell und unabhängig vom<br />

Applikationscode geändert und neu eingesetzt werden. Der Nachteil der<br />

meisten Business Rules Ansätze ist die mangelnde Standardisierung und<br />

Interoperabilität der Rule Engines. Die fehlende Service- Orientierung<br />

erschwert die Integration von Rule Engines in bestehende Enterprise<br />

Applikationen. Derzeit ist es kaum möglich, auf heterogene Rule Engines in<br />

einer uniformen Art und Weise zuzugreifen. Geschäftsprozesse und<br />

Anwendungen in den heutigen Unternehmen laufen verteilt ab. Um diese<br />

verteilte Natur der Geschäftsprozesse abbilden zu können, benötigt man<br />

Unterstützung <strong>für</strong> verteilte Business Rules Ausführung. Diese Diplomarbeit<br />

beschreibt das Design und die Implementierung von ViDRE (Vienna<br />

Distributed Rules Engine). ViDRE ist eine verteilte Service-Orientierte Rule<br />

Engine, basierend auf RuleML. ViDRE ermöglicht eine einfache Integration<br />

von Business Rules in Unternehmensanwendungen. ViDRE verwendet<br />

RuleML als Metasprache, um Fakten, Regeln und Abfragen auf die<br />

Wissensbasis darzustellen. ViDRE bietet eine Infrastruktur, welche die<br />

Verwendung von heterogenen Rule Engines ermöglicht, ohne dass man sich<br />

an einen bestimmten Rule Engine Hersteller bindet.<br />

David TISCHLER<br />

WSFW: An Open Source Web Service Firewall<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Ass. Dr. Engin Kirda / Univ.Ass. Dr. Christopher Krügel<br />

17


Abstrakt: Web Services, über Netzwerke erreichbare Anwendungen, mit<br />

ihren standardisierten Schnittstellenbeschreibungen (WSDL) und<br />

Nachrichtenformaten (XML/SOAP) sind den selben Gefahren wie jede<br />

Software ausgesetzt, die mit der Außenwelt kommuniziert, z.B. Denial Of<br />

Service Attacken oder das Ausnutzen von Programm- oder<br />

Konfigurationsschwächen um Zugriff auf private Daten zu erlangen. Firewalls<br />

sind ein bewährtes Konzept zum Verhindern von illegitimen Zugriffen auf<br />

Computer über Netzwerke. Diese Arbeit zeigt, warum herkömmliche<br />

Firewalls <strong>für</strong> den Schutz von Web Services nicht ausreichen, wie diese aber<br />

durch spezielle Web Service Firewalls, von denen es im kommerziellen<br />

Bereich sehr wenige, im Open Source Bereich noch gar keine gibt, ergänzt<br />

(aber nicht ersetzt) werden können, wie sich Web Service Firewalls auf<br />

Grund der standardisierten Schnittstellenberschreibungen teilweise selbst<br />

konfigurieren können, und wie eine Stateful Web Service Firewall Angriffe,<br />

die nicht nur aus einzelnen Requests bestehen, erkennen und darauf<br />

reagieren können. Dazu wurde eine im Kern plattformunabhängige Open<br />

Source Web Service Firewall implementiert.<br />

Gilbert WONDRACEK<br />

A Pluggable Architecture for Peoplet<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />

Arbeitsbereich Knowledge Based Systems<br />

Maria Magdalena ORTIZ DE LA FUENTE<br />

Answering Conjunctive Queries in Expressive Description Logics<br />

Studium: Magisterstudium Computational Logic<br />

BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />

18<br />

Abstrakt: Ontologies are increasingly seen as a mechanism to query data<br />

repositories. This novel context poses a combination of challenges that has<br />

not been addressed before: (i) sufficient expressive power of the ontology<br />

language to capture common data modelling constructs; (ii) well established<br />

and flexible query mechanisms such as those inspired by database<br />

technology; (iii) optimization of inference techniques with respect to data<br />

size, which typically dominates the size of ontologies. In this work, we<br />

investigate data complexity of query answering in the two very expressive<br />

Description Logics (DLs) SHIQ and SHOIQ, which provide formal foundations<br />

of some of the most prominent web ontology languages. While the<br />

complexity of DLs has been studied extensively, data complexity of query<br />

answering in expressive DLs has been characterized only for restricted<br />

forms of queries, and was still open for the standard query languages<br />

mutuated from databases, such a conjunctive queries (CQs) and unions of


CQs. We tackle this issue and prove a tight coNP upper bound for the<br />

problem in SHOIQ, for the case where the query does not contain transitive<br />

roles. We thus establish that for a whole range of DLs from AL to SHOIQ,<br />

answering such CQs has coNP-complete data complexity. We obtain our<br />

result by a novel tableaux-based algorithm for checking query entailment,<br />

inspired by work on hybrid knowledge bases, but which manages the<br />

technical challenges caused by the simultaneous presence of inverse roles,<br />

number restrictions (which already lead to a DL lacking the finite model<br />

property), and nominals. Some other applications of the novel tableauxbased<br />

algorithm are discussed. Notably, we introduce the hybrid language<br />

Carin-SHOIQ, a hybrid knowledge representation language combining very<br />

expressive DLs and non-recursive Datalog rules, and provide a sound and<br />

complete reasoning algorithm for it.<br />

Mantas SIMKUS<br />

Deciding Description Logics around SHIQ by Translation into Decidable<br />

Disjunctive Logic Programs<br />

Studium: Magisterstudium Computational Logic<br />

BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />

Abstrakt: This work follows the line of research that tries to propose<br />

alternative reasoning techniques for Description Logics, which may<br />

overcome the performance limitations of the current tableaux-based<br />

implementations in the presence of large ABoxes. We explore the possibility<br />

of reducing reasoning in the Description Logic SHIQ to the evaluation of<br />

disjunctive logic programs. In contrast to other works in the area, we<br />

consider disjunctive programs with function symbols. Since this is an<br />

undecidable formalism, the main challenge we face is to identify a fragment<br />

which is expressive enough to capture expressive Description Logics, and is<br />

still decidable. We address the issue by identifying a fragment that we call F-<br />

programs , and giving a sound and complete decision procedure for<br />

checking the existence of models for these programs. Furthermore, we<br />

show how the main reasoning tasks for an expressive fragment of SHIQ can<br />

be reduced to checking the existence of models for F -programs.<br />

19


INSTI<strong>TU</strong>T FÜR COMPUTERSPRACHEN<br />

Arbeitsbereich Programmiersprachen und Übersetzerbau<br />

Gerald FESSL<br />

XL-AOF-Design and Implementation of an Extensible Lightweight Aspect-<br />

Oriented Framework for Distributed Applications<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. eva Kühn<br />

Christian JUDT<br />

Scannergenarator mit benannten regulären Teilausdrücken<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Martin Ertl<br />

Abstrakt: Die üblichen Scannergeneratoren wie z.B. Lex und Flex haben<br />

einen Nachteil. Die Scanner liefern nur den jeweils erkannten String, sowie<br />

welche Regel ihn beschreibt. Sie liefern keine Information über die innere<br />

Struktur des Strings (z.B. bei einer Gleitkommazahl die Ziffern der Mantisse<br />

vor und nach dem Komma sowie den Exponenten), sodass dieser in vielen<br />

Fällen von handgeschriebenem scannerähnlichen Code nachbearbeitet<br />

werden muss. Diese Magisterarbeit beschreibt die Möglichkeiten einen<br />

Scannergenerator zu implementieren, der diesen Nachteil nicht hat, sowie<br />

die dabei auftretenden allgemeinen Probleme und dazugehörigen Lösungen<br />

bzw. Lösungsansätze. Außerdem wird eine Erweiterung des<br />

Scannergenerators Flex beschrieben, welche ein derartiges System<br />

implementiert.<br />

Adrian PRANTL<br />

Creating a GCC Back End for a VLIW-Architecture<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall<br />

20<br />

Abstrakt: Der Control Processor ist ein 24-Bit, 4-fach VLIW (very long<br />

instruction word)-Prozessor, der von On Demand Microelectronics entwickelt<br />

wurde. In dieser Arbeit wird eine Portierung der GNU Compiler Collection<br />

vorgestellt, die in der Lage ist, den Parallelismus des Prozessors voll<br />

auszunützen und parallele Assemblerbefehle auszugeben. Weiters wurden<br />

die GNU Binutils und die C-Laufzeitbibliothek Newlib an den Control<br />

Processor angepasst. Das vorgestellte GCC-Backend verwendet eine<br />

einfache Pipelinebeschreibung, um die Funktionseinheiten des Control<br />

Processors <strong>für</strong> den Instruction-Scheduler zu modellieren. Anhand der<br />

Resultate des Schedulers werden die Befehle in einem eigenen Durchlauf auf


die Slots eines VLIW-Bündels aufgeteilt. Durch diese Methode wird eine<br />

Slotausnutzung von bis zu 2,5 Befehlen pro VLIW-Bündel erreicht. Eine<br />

besondere Herausforderung stellte die ungewöhnliche Wortbreite des<br />

Control Processors von 24 Bit dar, die das Design des Backends<br />

entscheidend geprägt hat. In einem zweiten Teil wurde der bereits<br />

vorhandene Assembler des Control Processor um die Fähigkeit erweitert,<br />

ELF-Objektdateien (Executable and Linkable Format) zu erstellen. Weiters<br />

wurden die GNU Binutils auf diese neue Plattform portiert, um den darin<br />

enthaltenen Linker mit diesem Format nutzen zu können. Darauf basierend<br />

wurde auch der GNU Debugger um die Möglichkeit erweitert, den Simulator<br />

<strong>für</strong> den Control Processor direkt einzubinden. Um die<br />

Entwicklungsumgebung zu vervollständigen, wurde auch die C-<br />

Laufzeitbibliothek Newlib <strong>für</strong> den Control Processor angepasst.<br />

Reinhold STROBL<br />

Component-Based Development: A comparison of Enterprise Java Beans<br />

and Zope<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Ao.Univ.Prof. Dr. Franz Puntigam<br />

Abstrakt: Die Komponentenbasierte Entwicklung befasst sich mit der<br />

Erstellung von Systemen auf der Basis von Komponenten. Alles in allem<br />

liegen die Vorteile dabei in der verbesserten System-<br />

Qualität, in der verkürzten Entwicklungszeit und in der modularen und daher<br />

flexiblen Struktur der Applikation. Obwohl die Enterprise Java Beans (EJB)<br />

2.1 Komponententechnologie in J2EE 1.4 (basierend auf Java) heute zu den<br />

Marktführern zählt, kritisieren Programmierer sie vor allem wegen ihrer<br />

großen Komplexität. Das Zope 3 Framework wurde <strong>für</strong> die<br />

Programmiersprache Python entworfen. Im Allgemeinen reduziert Python<br />

sowohl die Entwicklungszeit, als auch den Codeumfang. Diese Arbeit<br />

untersucht, ob und in welchem Ausmaß Zope 3 ein Ersatz <strong>für</strong> EJB 2.1 sein<br />

kann, wobei angenommen wird, dass die verwendete Programmiersprache<br />

frei wählbar ist. Wir vergleichen die beiden Komponentenmodelle anhand<br />

von Basiskonzepten und legen einen speziellen Fokus auf Anforderungen von<br />

verteilten Komponententechnologien. Es zeigt sich, dass beide<br />

Komponentenmodelle sowohl Stärken als auch Schwächen haben. Einerseits<br />

können Zopes Einfachheit und Klarheit die Entwicklung beschleunigen und<br />

überdies den Aufwand und die Kosten der Installation im Vergleich zu EJB<br />

reduzieren, da Zope standardmäßig mit einem Webserver und einer<br />

objektbasierten Datenbank ausgestattet ist. Aber die unüberprüfte<br />

Einhaltung der Schnittstellenimplementierung, das fehlende verteilte<br />

Objektmodell und auch fehlende CORBA Integration bilden die Kehrseite der<br />

Medaille.<br />

21


Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />

Peter ROBINSON<br />

Log File Processing by Machine Learning and Information Extraction<br />

Studium: Magisterstudium Computational Intelligence<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gernot Salzer<br />

Abstrakt: In Computernetzwerken werden ständig eine Vielzahl von<br />

Ereignissen in so genannten Log-Files mitprotokolliert. Es gibt jedoch keinen<br />

Standard, der die Struktur des Inhalts dieser Nachrichten, die teils in<br />

Maschinensprache, teils in natürlicher Sprache sind, festlegt. Das Fehlen<br />

eines solchen Standards erschwert das automatische Verarbeiten von Log-<br />

Files. Diese Masterarbeit beschreibt die Architektur und Implementierung<br />

des LoP-Systems. Das LoP-System erzeugt aus Log-File Nachrichten<br />

maschinenlesbare Ereignisstrukturen durch Verwendung von natürlicher<br />

Sprachverarbeitung. Die Arbeit beschreibt neben den technischen Details<br />

auch die verwendeten theoretischen Konzepte. Das System besteht aus in<br />

Serie geschalteten unabhängigen Komponenten, die teilweise durch<br />

maschinelles Lernen trainiert werden. Zuerst werden syntaktische Einheiten<br />

(z.B. IP Adressen) durch einen simplen Top-Down-Parser in den<br />

ursprünglichen Log-File-Nachrichten erkannt. Diese syntaktischen Einheiten<br />

werden dann von einem auf Markov Modellen basierenden Wortart-Tagger<br />

verarbeitet. Im nächsten Schritt werden Wortgruppen und simple<br />

Wortphrasen durch Anwendung von regulären Ausdrücken erkannt und<br />

daraufhin semantisch analysiert. Diese Ausgabe wird letztendlich von einem<br />

Ereigniskonstruktor verwendet, um Ereignisstrukturen zu erzeugen. Als<br />

Implementierungssprache <strong>für</strong> alle Komponenten wurde die rein funktionale<br />

Programmiersprache Haskell verwendet. Manche der Komponenten,<br />

insbesondere der Wortart-Tagger sind Instanzen von natürlichen<br />

Sprachverarbeitungswerkzeugen, die ohne zusätzlichen Aufwand auch auf<br />

andere Anwendungsbereiche adaptiert werden können.<br />

22


INSTI<strong>TU</strong>T FÜR COMPUTERGRAPHIK UND ALGORITHMEN<br />

Arbeitsbereich Algorithmen und Datenstrukturen<br />

Markus Karl LEITNER<br />

Solving two generalized Network Design Problems with exact and heuristic<br />

methods<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />

Abstrakt: Diese Diplomarbeit beschäftigt sich mit zwei NP schweren,<br />

generalisierten Netzwerkdesignproblemen bei denen die Knotenmenge in so<br />

genannte Cluster unterteilt ist. Eine zulässige Lösung eines solchen<br />

Problems enthält genau einen Knoten aus jedem dieser Cluster, die optimale<br />

Lösung ist jene mit der geringsten Summe an Kantenkosten. Das<br />

Generalisierte Minimale Spannbaum (GMST) Problem, bei dem es sich um<br />

eine Erweiterung des klassischen minimalen Spannbaum Problems handelt,<br />

sucht einen möglichst kostengünstigen, kreisfreien Teilgraph, der aus jedem<br />

Cluster genau einen Knoten enthält und alle gewählten Knoten verbindet.<br />

Dieses Problem wird mit Variabler Nachbarschaftssuche (VNS) mittels drei<br />

verschiedener Nachbarschaftstypen gelöst, welche jeweils entweder auf die<br />

zu wählenden Knoten oder die globalen Kanten zwischen den Clustern<br />

fokussiert sind. Ein Nachbarschaftstyp verwendet ganzzahlige lineare<br />

Programmierung (ILP) um Teile des Problems exakt zu lösen.<br />

Testergebnisse zeigen, dass der entwickelte Ansatz speziell dann, wenn die<br />

Anzahl der Knoten pro Cluster groß ist, bessere Ergebnisse als bisherige<br />

heuristische Ansätze liefern. Beim Generalisierten Minimalen Kanten-<br />

Zweizusammenhängenden Netzwerk (GMEBCN) Problem, wird ein möglichst<br />

kostengünstiger, bezüglich der Kanten zweifach zusammenhängender<br />

Teilgraph gesucht, der aus jedem Cluster genau einen Knoten enthält. Für<br />

dieses Problem wurden zwei verschiedene VNS Ansätze mit vier<br />

Nachbarschaftstypen entwickelt und gegenübergestellt. Analog zum GMST<br />

Problem optimieren die Nachbarschaften unterschiedliche Aspekte des<br />

Problems. Zusätzlich verwendet der zweite VNS Ansatz aufwändigere<br />

Versionen der Nachbarschaften, welche auf einem reduzierten Graphen<br />

operieren, bei dem die gewählten Knoten <strong>für</strong> die meisten Cluster exakt<br />

berechnet werden können. Tests zeigen, dass die Ergebnisse des Ansatzes<br />

mit den komplizierteren, aber auch langsameren Nachbarschaftsstrukturen,<br />

eindeutig besser sind als jene des einfacheren und schnelleren.<br />

23


Arbeitsbereich Computergrafik<br />

Andrea HARANT<br />

Towards Automatic Processing of Peripheral CT-A Datasets<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Univ.Doz. Dr. Milos Sramek<br />

Abstrakt: Die AngioVis ToolBox ist eine Software zur Verarbeitung und<br />

Visualisierung von CTAngiographie Daten. Als Angiographie bezeichnet man<br />

die Visualisierung von Blutgefäßen. Diese Software wird bereits im AKH in<br />

<strong>Wien</strong> und im Stanford Medical Center (USA) zur täglichen Diagnose und<br />

Behandlungsplanung verwendet. Ein Kernbereich der Software ist der<br />

„Vessel Tracker“, ein Modul mit dem der Gefäßbaum interaktiv erstellt wird.<br />

Dieser Gefäßbaum, der durch die Mittellinien der Hauptarterien verläuft,<br />

wird <strong>für</strong> die korrekte Darstellung der CPR-Bilder (CPR = Curved Planar<br />

Reformation) benötigt. Dieser Verarbeitungsschritt benötigt ein sehr hohes<br />

Maß an manueller Userinteraktion. Ziel der Magisterarbeit war es, das<br />

Modul „Vessel Tracker“ zu verbessern indem Teile davon automatisiert<br />

werden. Ein Hauptteil der Magisterarbeit beschäftigt sich mit der<br />

automatisierten Modellierung von Bifurkationen, denn sie mussten bisher<br />

immer vollständig manuell modelliert werden. Die in der Magisterarbeit<br />

gefundene Technik, die die automatische Modellierung der Aortabifurkation<br />

beschreibt, besteht aus folgenden<br />

Schritten: Zuerst definiert der User mit Hilfe der Maus eine Punkt um den<br />

eine kreisförmige Region of Interest (ROI) gezogen wird. Als Datengrundlage<br />

dient das 2D MIP-Bild des Datensatzes. Nun wird nach einer<br />

Rauschunterdrückung eine Kantendetektion gestartet um einen Punkt<br />

innerhalb der Aorta zu finden. Von diesem Punkt aus besteht die nächste<br />

Aufgabe darin, ins Zentrum der Bifurkation zu gelangen, wo<strong>für</strong> eine 3D<br />

Technik verwendet wird. Hier<strong>für</strong> berechnet man sich mit einem Struktur<br />

Tensor die Richtung in die die Aorta verläuft und verfolgt diesen<br />

Richtungsvektor so lange, bis ein ellipsenförmiger Querschnitt (= Zentrum<br />

der Bifurkation) gefunden wurde. Die Resultate der angewandten Methoden<br />

sind sehr stabil und laufen, abgesehen von der manuelle ROI Spezifikation,<br />

vollständig automatisch ab. Die Userinteraktion wurde deutlich verringert.<br />

Georg SPIELMANN<br />

A New Efficient Real-Time Global Tone Mapping<br />

Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />

BetreuerIn: Univ.Prof. Dr. Werner Purgathofer / Univ.Ass. Dr. Michael<br />

Wimmer<br />

24<br />

Abstrakt: In der Computergraphik, Visualisierung und vor allem in der<br />

digitalen Photographie spielt Tone Mapping eine wichtige Rolle. Der Kontrast<br />

eines Bildes ist endlich und abhängig vom Ausgabegerät. Normalerweise ist


er zwischen 4-6 auf einer log2 Skala. Der Kontrast der realen Szene ist<br />

aber meistens bedeutend höher, so dass sehr helle und sehr dunkle Teile<br />

des Bildes Detailarm dargestellt werden. In dieser Arbeit wird ein Überblick<br />

über Farbtheorie, das menschliche Sehen und über verschiedene<br />

Ausgabegeräte gegeben. Es werden bekannte globale Tone Mapping<br />

Methoden beschrieben und einige effiziente lokale Methoden. Das<br />

Hauptaugenmerk dieser Arbeit ist es das optimale Kontrastfenster <strong>für</strong><br />

Globales Tone Mapping zu finden und festzustellen ob es bessere globale<br />

und lokale Mapping Methoden als das weit verbreitete Mean Value Mapping<br />

gibt. In der Arbeit wird eine Verallgemeinerung der Minimal Information Loss<br />

Methode beschrieben und es wird empirisch nach den besten<br />

Parameterkombinationen <strong>für</strong> diese Methode gesucht. Diese Methode ist in<br />

einer innovativen Weise mit dem max(r,g,b) Prinzip kombiniert das <strong>für</strong><br />

Incident Light Metering vorgestellt wurde. Diese Kombination erzeugt visuell<br />

ansprechende Bilder <strong>für</strong> Szenen mit Gegenlicht oder Szenen mit<br />

Informationen aus dem Inneren und dem Äußeren. Da es sich um eine<br />

Echtzeit Methode handelt könnte sie, nach weiterer Entwicklung, in Digital<br />

Kameras eingebaut werden.<br />

Christian STEINER<br />

Shadow Volumes in Complex Scenes<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Prof. Dr. Werner Purgathofer / Univ.Ass. Dr. Michael<br />

Wimmer<br />

Michael WOHLFAHRT<br />

Storytelling for Presentation in Volume Visualization - Visualization Stories<br />

Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />

BetreuerIn: Priv.-Doz. Dr. Helwig Hauser<br />

25


INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND<br />

WIRKUNGSFORSCHUNG<br />

Arbeitsbereich Multidisciplinary Design<br />

Stefan ESSL<br />

Virtuelle Gemeinschaften in <strong>Wien</strong><br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />

Alexander HÖFER<br />

Evaluation von Joint Applikation Design aus der Perspektive systemischer<br />

Organisationsberatung<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Doz. Dr. Johannes Gärtner<br />

Abstrakt: „The hardest single part of building software is deciding what to<br />

build. No other part of the work so cripples the resulting system if done<br />

wrong. No other part is more difficult to rectify later.” [BROOKS, 1987].<br />

Genau dieses „deciding what to build“ ist Kernthema der in dieser<br />

Diplomarbeit evaluierten partizipativen Requirements Engineering Methode<br />

namens Joint Application Design (JAD). Ausgehend von eigenen JAD<br />

Erfahrungen des Autors mit einem unter den Erwartungen gelegenen<br />

Projektergebnis, wird der Frage nachgegangen, wie man aus diesen<br />

Erfahrungen systematisch lernen kann. Dazu werden<br />

Beobachtungskategorien aus der systemischen Organisationsberatung<br />

herangezogen. Systemisch bedeutet im Rahmen dieser Diplomarbeit eine<br />

Sichtweise auf Organisationen, „wobei diese als soziale Systeme begriffen<br />

werden und der gesamte Prozeß der Beratung methodisch unter<br />

Gesichtspunkten der modernen Systemtheorie reflektiert und angeleitet<br />

wird.“[KÖNIGSWIESER, EXNER]. Mit der Wahl systemischer<br />

Beobachtungskategorien wird eine andere Perspektive eingenommen, als<br />

dies in der Evaluation von Softwareentwicklungsmethoden üblich ist. Durch<br />

diesen Perspektivenwechsel werden zunächst Wirkungsweisen und<br />

Problemzonen von JAD sichtbar gemacht, um dann Versprechen der<br />

Methode zu überprüfen und Kritik an ihr zu üben. Zum Abschluss dieser<br />

Diplomarbeit werden zu den identifizierten Problemzonen von JAD<br />

systemische Erweiterungen vorgeschlagen, welche die Erfolgschancen von<br />

JAD Projekten zusätzlich erhöhen könnten.<br />

26


David KAMMERZELT<br />

Konzept <strong>für</strong> das IT-Configuration Management einer Bank<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Doz. Dr. Johannes Gärtner<br />

Abstrakt: Den Anstoß <strong>für</strong> diese Arbeit gab das Management der IT-Abteilung<br />

einer österreichischen Bank mit der Initiierung eines Projektes zum Thema<br />

„Einführung von ITIL und IT-Service Management“. Service Management in<br />

diesem Zusammenhang befasst sich mit der Verwaltung und Kontrolle von<br />

Dienstleistungen - den Services -, die mit Hilfe von Informationstechnologie<br />

erbracht werden. Als Teil des Service Managements ist es das Ziel von<br />

Configuration Management, ein logisches Abbild der IT-Infrastruktur zu<br />

schaffen. Dies geschieht durch Identifizieren, Kontrollieren, Pflegen und<br />

Verifizieren der Versionen aller existierenden Infrastrukturteile, der so<br />

genannten Konfigurationselemente. Diese Diplomarbeit beschäftigt sich mit<br />

dem Entwurf von Konzepten eines solchen Configuration Managements <strong>für</strong><br />

die IT-Abteilung. Da<strong>für</strong> war es notwendig Information sowohl zur<br />

gegenwärtigen IT Infrastruktur der Bank als auch zu Configuration<br />

Management zusammen zu tragen. Mit dem erworbenen Wissen konnte<br />

eine Ist-Analyse durchgeführt werden, die als Basis <strong>für</strong> die Konzepte dient.<br />

Dabei spielte die Information Technology Infrastructure Library (ITIL) eine<br />

zentrale Rolle. Diese Sammlung von Empfehlungen und „best practices“ stellt<br />

einen de-facto Standard <strong>für</strong> IT-Service Management dar und bietet somit die<br />

Möglichkeit der Bewertung eines gewachsenen Systems an objektiven<br />

Maßstäben. Die Analyse wurde mittels eines Vergleiches der ITIL<br />

Empfehlungen zu Configuration Management und der Beschreibung der<br />

Systemlandschaft auf der Ebene von Datenbanken und Prozessen realisiert.<br />

Das Ergebnis zeigte, dass einigen Forderungen des Standards bereits<br />

entsprochen wird, eine Vielzahl von Empfehlungen jedoch nicht oder nur<br />

teilweise realisiert sind. Die so festgestellten Abweichungen wurden in den<br />

beiden entwickelten Konzepten besonders berücksichtigt, um bestmögliche<br />

ITIL Kompatibilität zu gewährleisten. Das erste Konzept zeigt, wie die<br />

Abweichungen durch Adaptionen der bestehenden Prozesse und<br />

Datenbanken korrigiert werden können, während das zweite Kriterien<br />

vorstellt, die bei der Anschaffung eines Tools <strong>für</strong> Configuration Management<br />

sicherstellen sollen, dass den ITIL Empfehlungen entsprochen wird. Es zeigte<br />

sich, dass eine Realisierung des Standards <strong>für</strong> Configuration Management<br />

allein durchaus mit bestehenden Mitteln möglich ist, im Hinblick auf ein<br />

zukünftiges ganzheitliches IT – Service Management dieser Methode jedoch<br />

Grenzen gesetzt sind und ein Fremdsystem vorzuziehen wäre.<br />

Rene KITZER<br />

Multiplayer-Computerspiele<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />

27


Abstrakt: Computerspiele nehmen in der heutigen Unterhaltungsindustrie<br />

eine immer bedeutendere Rolle ein. Während sie anfangs nur einen<br />

Nischenmarkt bedienten wurde in den letzten zwanzig Jahren daraus ein<br />

Wirtschaftszweig dessen Umsätze mit der Hollywoodfilmindustrie<br />

vergleichbar sind. Durch die fortschreitende Verbreitung des Internets<br />

werden die Spiele immer mehr zu einer Möglichkeit, andere Menschen aus<br />

aller Welt kennen zu lernen. Es entstehen Beziehungen zwischen Menschen,<br />

die sich im realen Leben nie kennen lernen würden, da zu große<br />

geographische Distanzen zwischen ihnen liegen. Ich habe diese Beziehungen<br />

anhand von „Massively Multiplayer Online Roleplaying Games“, einer relativ<br />

neuen Art von Computerspielen, die es den Spielern ermöglicht in einer<br />

Spielwelt mit mehreren Tausenden anderen Spielern gleichzeitig zu spielen,<br />

untersucht. Die Untersuchung wurde in Form einer teilnehmenden<br />

Beobachtung, einer Fallstudie und qualitativer Interviews durchgeführt.<br />

Dadurch versuchte ich herausfinden, inwieweit solche Spiele Kontakte zu<br />

anderen Menschen fördern und neue Beziehungen entstehen lassen. Als<br />

Grundlage da<strong>für</strong> habe ich mich mit bestehender Literatur zum Thema<br />

auseinandergesetzt. Weiters habe ich mich hier<strong>für</strong> mit der Geschichte der<br />

Computerspiele, von einfachen Pingpong – Versionen hin zu den heutigen<br />

Onlinetiteln beschäftigt. Die Entwicklung dieser neuen Art von Beziehungen<br />

hat gerade erst begonnen und ist deswegen sehr interessant zu<br />

beobachten. Noch befindet sich die Online-Community in einer Phase der<br />

„Unschuld“ in der man seinen Mitstreitern vertraut und keine Geheimnisse<br />

voreinander haben will und muss. Doch das Internet an sich befindet sich<br />

gerade in einem Prozess in dem viele Aspekte der uneingeschränkten<br />

Freiheit des Mediums in Frage gestellt werden. Dadurch sind automatisch<br />

auch die Online-Spiele und natürlich auch die „Online-Beziehungen“ betroffen.<br />

Deswegen erschien es mir interessant, gerade jetzt diese Beziehungen zu<br />

untersuchen. Wie sich herausstellte nimmt die Bedeutung solch neuer<br />

Beziehungsformen immer mehr zu.<br />

Arbeitsbereich Human Computer Interaction<br />

Alexander BANFIELD-MUMB-MÜHLHAIM<br />

Die Digitalisierung des österreichischen Fernsehmarktes - Österreich auf<br />

dem Weg zum digitalen Antennenfernsehen<br />

Studium: Magisterstudium Medieninformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

28<br />

Abstrakt: Gegenstand der hier vorgestellten Arbeit ist die Digitalisierung des<br />

österreichischen Rundfunksektors, in Zuge dessen die Übertragung von<br />

analogen Fernsehsignalen durch digitale abgelöst wird. Das digitale<br />

terrestrische Fernsehen, auch bekannt unter der Abkürzung DVB-T, bzw. die<br />

Digitaltechnik im Allgemeinen bieten sowohl <strong>für</strong> die KonsumentInnen, als<br />

auch <strong>für</strong> die Programmanbieter und Sendernetzbetreiber viele Vorzüge, die


vereinfacht ausgedrückt alle auf der Verarbeitung und Komprimierung<br />

digitaler Daten beruhen. Dazu lassen sich beispielsweise eine verbesserte<br />

Bild- und Tonqualität und eine größere Programmauswahl zählen. Auf Grund<br />

des Stellenwertes, den das Fernsehen in unserer Gesellschaft hat, geht die<br />

Umstellung allerdings über die rein technische Ebene hinaus und bringt<br />

gesellschaftliche, ökonomische und medienpolitische Auswirkungen mit sich.<br />

Diese gilt es in der Arbeit darzustellen und im Weiteren mögliche Probleme<br />

aufzuzeigen, die mit der Digitalisierung einhergehen. Österreich ist im<br />

Vergleich zu anderen europäischen Ländern ein Nachzügler im Bereich des<br />

digitalen terrestrischen Fernsehens, hat aber durch die schrittweise und<br />

nicht überhastete Planung der letzten Jahre die Möglichkeit, zu anderen<br />

Ländern der EU aufzuschließen.<br />

Bernhard BUGELMÜLLER<br />

Nationale Implementierung von TETRA-Netzen im europäischen Raum<br />

Studium: Magisterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

Abstrakt: Zur Harmonisierung des europäischen Bündelfunkmarktes<br />

beschloss das Europäische Institut <strong>für</strong> Telekommunikationsnormen ETSI<br />

bereits im Jahr 1988 einen Standard <strong>für</strong> ein paneuropäisches, digitales<br />

Bündelfunknetz zu erarbeiten. Ende 1991 wurde der Begriff TETRA<br />

(Terrestrial Trunked Radio) eingeführt. TETRA ist in erster Linie <strong>für</strong> den<br />

professionellen Mobilfunk ausgelegt und eignet sich durch seine Dienste und<br />

Merkmale besonders <strong>für</strong> den Einsatz durch Behörden und Organisationen<br />

mit Sicherheitsaufgaben (BOS). So werden beispielsweise die erhöhten<br />

Security-Anforderungen dieser Nutzergruppen durch ausgeklügelte<br />

Authorisierungsprozeduren und integrierte Ende-zu-Ende-Verschlüsselung<br />

bestens erfüllt. Weiters tragen Bündelfunksysteme wie TETRA durch die<br />

Optimierung der Frequenzausnutzung und durch die Erhöhung der<br />

Kanalnutzung zur Verbesserung der Dienstgüte sowohl <strong>für</strong> Endbenutzer als<br />

auch <strong>für</strong> Netzbetreiber bei. Aus diesen Gründen werden im europäischen<br />

Raum immer mehr nationale Behördenfunksysteme, auf dem TETRA-<br />

Standard basierend, errichtet. Dadurch werden einerseits die bestehenden,<br />

in den meisten Fällen veralteten, analogen Systeme ersetzt und andererseits<br />

die operativen Anforderungen, die in den Schengener-Katalogen von 1992<br />

bis 1996 definiert wurden, erfüllt. Dies konnte während des<br />

Dreiländerprojekts, welches zur Erprobung grenzüberschreitender Sprachund<br />

Datenkommunikation im Grenzgebiet Lüttich, Aachen und Maastricht<br />

durchgeführt wurde, belegt werden. Auch in Österreich startete die<br />

Bundesregierung Mitte der neunziger Jahre mit Überlegungen zur<br />

Realisierung eines bundesweiten digitalen Bündelfunksystems <strong>für</strong> alle so<br />

genannten Blaulichtorganisationen. Nach dem Scheitern des Projekts<br />

"Behördenfunknetz ADONIS" soll nun durch das Projekt "Digitalfunk BOS<br />

Austria" die Fertigstellung eines bundesweiten TETRA-Netzes gelingen.<br />

29


Mario GRATZER<br />

Web 2.0<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dipl.-Ing. Dr. Peter Purgathofer<br />

Abstrakt: Web 2.0 beschreibt die Entwicklung des Internets ausgehend von<br />

einem statischen Informationssystem hin zu einem dynamischen,<br />

interaktiven, benutzerzentrierten Medium. Web 2.0 ist ein breit gefächerter<br />

Sammelbegriff <strong>für</strong> eine Vielzahl von Internetprojekten verschiedener<br />

Prägung. Das Ziel der vorliegenden Diplomarbeit ist eine ausführliche<br />

Diskussion von Web 2.0 aus einer theoretischen und einer technischen<br />

Perspektive, um einen umfassenden Überblick über die Thematik zu geben.<br />

Ausgehend von einem Definitionsansatz zu Web 2.0 werden jene zugrunde<br />

liegenden Prinzipien erörtert, die eine Sammlung von Best Practices<br />

repräsentieren. Typische Web 2.0 Anwendungen werden exemplarisch<br />

diskutiert. Zentrale Beobachtungen sind, dass die angebotenen Services von<br />

der Partizipation und Interaktion der Benutzer geprägt werden. Es folgt eine<br />

Diskussion ausgewählter Konzepte, die in einem engen Zusammenhang zu<br />

Web 2.0 stehen. Weitere Schwerpunkte sind die Betrachtung und<br />

Darstellung von technischen Aspekten, wie z.B. AJAX, RSS und Tags.<br />

Florian SCHIMAK<br />

Workflow Management Systeme - Einsatz im Broadcasting Bereich<br />

Studium: Magisterstudium Medieninformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

30<br />

Abstrakt: Seit der Mensch arbeitet, ist es auch sein Bestreben, diese zu<br />

vereinfachen, sie sich mit anderen zu teilen oder zu automatisieren. Vor<br />

allem durch neue Erfindungen und technische Errungenschaften wurde<br />

dieses Vorhaben immer wieder vorangetrieben. Bestes Beispiel hier<strong>für</strong> ist<br />

die Einführung der Fließbandarbeit durch Henry Ford. Die Entwicklung des<br />

Workflow Managements Anfang der 90er Jahre steht in engem<br />

Zusammenhang mit der Entwicklung der Geschäftsprozessorientierung in<br />

Unternehmen. Mit zunehmendem Wachstum und steigendem<br />

Wettbewerbsdruck sahen sich immer mehr Firmen auch einem steigenden<br />

Bedarf an Optimierungsmöglichkeiten gegenübergestellt. Eine zentrale Rolle<br />

spielt dabei der Begriff „Workflow“, der sich wortwörtlich am besten mit<br />

“Arbeitsfluss” oder auch „Arbeitsablauf“ übersetzen lässt. Nur selten kommt<br />

es vor, dass man einer Tätigkeit vollkommen alleine nachkommt, ohne in<br />

irgendeiner Form in Kommunikation mit anderen zu stehen. Jeder ist zu<br />

einem Teil davon abhängig über den Fortschritt und die Tätigkeiten von<br />

Kollegen Bescheid zu wissen, und andererseits nach Abschluss der eigenen<br />

Aufgaben diese wiederum anderen Mitarbeitern mitzuteilen. So entsteht ein<br />

Fluss an Informationen und Aufgaben, die teilweise parallel und teilweise


hintereinander ausgeführt werden, ein so genannter Workflow. Workflows<br />

finden sich also überall, wo Menschen miteinander arbeiten. Workflow<br />

Management Systeme sollen dabei helfen diese Vorgänge zu gestalten und<br />

zu optimieren. Für den Broadcasting Bereich ergeben sich dabei eine Reihe<br />

von speziellen Anforderungen. Die vorliegende Arbeit soll nicht nur eine<br />

Einführung in die Thematik bieten, sondern darüber hinaus auch näher auf<br />

den Einsatz in diesem Anwendungsbereich eingehen. Eine Marktanalyse gibt<br />

einen Einblick in bestehende Systeme. Abgerundet wird das Bild zusätzlich<br />

durch eine Betrachtung der Auswirkungen, die die Einführung eines solchen<br />

Systems <strong>für</strong> ein Unternehmen und seine Mitarbeiter mit sich bringen kann.<br />

Michael TESAR<br />

m-learning: Zukunftsvision oder Hype?<br />

Studium: Magisterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />

Abstrakt: Mobiles Lernen - eine neue Art des Lernens. Wer viel unterwegs<br />

ist, oder aber auch Zeit beim Warten auf Bus, Straßenbahn u.ä. mit Lernen<br />

vertreiben möchte, <strong>für</strong> den bietet diese neue Technologie genau das<br />

Richtige. Lernen zu jeder Zeit und an jedem Ort. Doch hat diese Form des<br />

Lernens Zukunft? Dies ist der zentrale Inhalt dieser Arbeit. Ist m-Learning<br />

also eine Zukunftsvision oder nur ein Hype? Begonnen wird mit einer kurzen<br />

und prägnanten Beschreibung der gängigsten Lerntheorien und -konzepte.<br />

Weiters werden in dieser Arbeit zahlreiche Begriffe aus dem Bereich des e-<br />

Learnings erläutert und in Zusammenhang mit m-Learning gebracht. Neben<br />

der zentralen Frage, die in dieser Magisterarbeit beantwortet wird, wird<br />

auch ausführlichst auf die Gestaltung von Benutzerschnittstellen kleiner,<br />

mobiler Geräte eingegangen. Zahlreiche Richtlinien werden <strong>für</strong> die<br />

Anwendung in mobilen Geräten, die zum Lernen dienen sollen,<br />

zusammengefasst. Neben einer Literaturrecherche zum aktuellen Stand der<br />

Technik, wird diese Arbeit mit einer umfangreichen Analyse aktueller m-<br />

Learning-Angebote abgerundet. Diese Analyse bietet einen sehr guten<br />

Überblick über die verwendeten Technologien, Inhalte und Lerntheorien. Das<br />

Ergebnis meiner Arbeit ergibt sich sowohl aus der Analyse der Angebote,<br />

als auch einer persönlichen Bewertung und einer Beurteilung des Marktes.<br />

Klemens WESSELY<br />

IT-Sicherheit <strong>für</strong> Institute der <strong>TU</strong> <strong>Wien</strong><br />

Studium: Magisterstudium Medieninformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />

Abstrakt: IT-Sicherheit ist ein sehr medienpräsentes Thema. Regelmäßig<br />

wird von neuen Software-Schwachstellen oder neuer Malware berichtet.<br />

Gerade Institute einer technischen <strong>Universität</strong> haben eine gewisse<br />

31


32<br />

Vorbildwirkung im Umgang mit derartigen Bedrohungen zu erfüllen, weshalb<br />

untersucht wird, wie gut Institute vor solchen Bedrohungen geschützt sind<br />

und welche Maßnahmen zur Optimierung der Sicherheitssituation notwendig<br />

sind. Ausgehend von Interviews betroffener Mitarbeiter wird die<br />

Sicherheitssituation analysiert. Auf dem daraus ermittelten Bedrohungsbild<br />

sowie entsprechender Literatur baut ein Sicherheitskonzept <strong>für</strong><br />

<strong>Universität</strong>sinstitute auf, welches die konkreten technischen und<br />

organisatorischen Rahmenbedingungen der <strong>TU</strong> <strong>Wien</strong> berücksichtigt.<br />

Hauptaugenmerk wird dabei auf die mitarbeitergerechte Gestaltung der<br />

einzelnen Maßnahmen gelegt. Für gängige Sicherheitsmaßnahmen werden<br />

mitarbeitertaugliche Umsetzungsmöglichkeiten beschrieben, wobei vor allem<br />

auf die Anforderungen von Mitarbeitern mit geringeren IT-Kenntnissen<br />

eingegangen wird. Nur eine umfassende Lösung, die Mitarbeiter,<br />

Organisation, Technik sowie die zugrunde liegenden rechtlichen Aspekte<br />

berücksichtigt, führt zu einem möglichst sicheren Gesamtsystem. Deshalb<br />

bildet die Darstellung der rechtlichen Grundlagen, die vor allem die an<br />

Instituten wichtigen Bereiche des Datenschutzgesetzes sowie des<br />

Urheberrechts berücksichtigt, einen weiteren Schwerpunkt.


INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND<br />

INTERAKTIVE SYSTEME<br />

Arbeitsbereich Information und Software Engineering<br />

Thomas BENNAR<br />

Sichere Web-Services mit ASP .NET 2.0: eine Beispielanwendung <strong>für</strong> das<br />

Projektmanagement agiler Softwareentwicklung<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Abstrakt: Das Microsoft .Net Framework ist eine Komponente des<br />

Betriebssystems Windows. Das Framework spielt zurzeit eine Schlüsselrolle<br />

bei Microsoft. Ein Teil des Frameworks ist auch ASP.NET in der Version<br />

2.0. Es handelt sich um die neueste Technologie von Microsoft, mit der<br />

man web-basierte Lösungen einfach und schnell entwickeln kann. Meine<br />

Aufgabe war es, ein plattformunabhängiges Zeit- und Projektmanagement<br />

System <strong>für</strong> kleine Softwareunternehmen zu entwickeln. Als Plattform habe<br />

ich ASP.NET 2.0 gewählt. Durch diese Wahl habe ich die<br />

Plattformunabhängigkeit erfüllt, weil die Applikation in jedem neueren<br />

Browser angezeigt werden kann. Ein weiteres Kriterium <strong>für</strong> meine<br />

Applikation war die Nutzung auch im Offline-Zustand. Für diese Aufgabe habe<br />

ich einige Web-Services vorgesehen, über die die Web-Applikation mit Offline<br />

Clienten kommunizieren kann. Jegliche Kommunikation zwischen der Web-<br />

Applikation und den Offline Clienten wird asymmetrisch verschlüsselt. Als<br />

Ausgang <strong>für</strong> das Projektmanagement habe ich SCRUM und agiles<br />

Projektmanagement genommen. Ich habe mich bemüht das System so<br />

flexibel wie möglich zu machen, damit man agile auf jede Situation reagieren<br />

kann. Das System ist insofern flexibel, dass es dem Projektmanager erlaubt,<br />

selbst zu entscheiden wie er die einzelne Tätigkeiten, bei z. B. SCRUM-<br />

Sprinten, einteilen und granulieren will. Das System protokolliert die einzelne<br />

Tätigkeiten der Mitarbeiter und ermöglicht eine Erstellung von Übersichten<br />

über die einzelne Schritte bzw. Stadien bei Projekten. Weiters kann man mit<br />

Hilfe des Systems detaillierte Rechnungen und Statistiken <strong>für</strong> die Kunden<br />

erstellen. Bei der Implementierung der Applikation hat sich meine<br />

Annahmen, dass man mit ASP.NET 2.0 Web-Applikationen leicht und<br />

schnell entwickeln kann, bestätigt. Dieses Projekt hat mit geholfen, die Idee<br />

des agilen Softwareprojektmanagements und der ganzen agilen<br />

Methodologie bei der Softwareentwicklung besser zu verstehen und die .NET<br />

Plattform tiefer kennen zu lernen.<br />

33


Florian BISTRICKY<br />

Charakterisierung der Komplexität öffentlicher Software-Projekte<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Ines BITTNER<br />

Implemtierung und Evaluierung eines Systems zur Beantwortung<br />

natürlichsprachiger Fragen<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />

Peter GERSTBACH<br />

Generating Structured Documents to Create Reports by Integrating Data<br />

from CMS/DMS and EAI Systems<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Ass. Dr. Alexander Schatten<br />

34<br />

Abstrakt: Strukturierte Dokumente sind im Geschäftsleben allgegenwärtig,<br />

da sie wichtige Informationen enthalten und automatisiert erzeugt und<br />

weiter verarbeitet werden können. Neben den einzelnen Text- oder Grafik-<br />

Bestandteilen enthalten sie Metainformationen, die meist durch ein<br />

bestimmtes Layout dargestellt werden. Beispiele strukturierter Dokumente<br />

sind: Angebote, Verträge, Geschäftsberichte, Briefe oder Kataloge. Für<br />

solche Dokumente ist ein System, das deren automatisierte Erzeugung<br />

unterstützt, besonders hilfreich, weil viele gleichartige Dokumente mit<br />

unterschiedlichen Daten gefüllt werden. Die Verarbeitungslogik und das<br />

Layout wird einmal zu Beginn festgelegt, während ein automatisierter<br />

Prozess in Folge die benötigten Daten aus externen Systemen lädt und die<br />

Dokumente entsprechend den Regeln generiert. Diese Diplomarbeit<br />

analysiert Softwaresysteme und Techniken, die strukturierte Dokumente<br />

erstellen und verarbeiten können. Neben Business Reporting Systeme, die<br />

meistens in Verbund mit Datenbanken angewendet werden, liegt der<br />

Schwerpunkt auf XML-bezogene Systeme wie beispielsweise Stylesheet-<br />

Designer oder Lösungen zur Anwendungsintegration (EAI). Die Etablierung<br />

von XML hat neue Möglichkeiten geschaffen, um strukturierte Dokumente<br />

zu erstellen. Deswegen wird das Thema der Dokumentverarbeitung mit XML<br />

gesondert behandelt und Techniken wie XSLT und XSL-FO beschrieben.<br />

Weiters wird die Entwicklung eines XML-basierten Dokumentmanagement-<br />

Systems beschrieben, das neben der Dokumenterstellung auch die<br />

Einbindung von externen Daten aus CMS, DMS und EAI Systemen<br />

ermöglicht. Durch die Anfertigung von Dokumentvorlagen können diese<br />

Daten automatisiert und wiederholt zu ansprechenden Schriftstücken<br />

weiterverarbeitet werden. Der Einsatz von standardisierten Techniken wie


XSLT und XSL-FO ermöglicht einen flexiblen und offenen Ansatz, um die<br />

Transformation durchzuführen. Da eine grafische Oberfläche die einfache<br />

Erstellung dieser Vorlagen ermöglicht, können jedoch auch Anwender ohne<br />

Kenntnisse von XML und XSLT das Programm benutzen.<br />

Stefan GLATZ<br />

Maussteuerung mit 2 Tasten. Entwicklung einer Individuallösung <strong>für</strong> einen<br />

motorisch stark eingeschränkten User<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />

Abstrakt: Diese Arbeit behandelt den Prozess der Entwicklung eines<br />

Softwareproduktes von der Idee weg bis hin zum voll funktionalen<br />

Prototypen. Innerhalb dieses Entwicklungsprozesses werden Bereiche wie<br />

Planung, User Interface Design, Implementierung und Testen behandelt.<br />

Das Ziel der zu entwickelnden Software ist es, eine Alternative zur<br />

herkömmlichen Maussteuerung zu entwickeln. Diese soll die Anforderungen<br />

einer speziellen Zielperson bestmöglich erfüllen und deren Fähigkeiten so gut<br />

wie möglich ausnutzen. Im konkreten ist die Zielperson motorisch so stark<br />

eingeschränkt, dass sie lediglich zwei Taster bedienen kann, um eingaben<br />

am Computer vorzunehmen. Um keine redundante Entwicklung zu machen,<br />

werden natürlich auch bereits vorhandene alternative Eingabemethoden<br />

betrachtet. In der Designphase wird einerseits entschieden, über welche<br />

Hardwareschnittstelle die Kommunikation mit der Software ermöglicht<br />

werden soll, andererseits wird auch über das User Interface Design der<br />

Software entschieden. Das Kapitel des Prototypings soll dem Leser einen<br />

Einblick in die verwendeten Programmiertechniken gewähren und erklärt die<br />

Funktionen einiger wichtiger Programmteile genauer. Ein weiterer<br />

umfangreicher Punkt der Arbeit ist die Qualitätssicherung der Software,<br />

welche hauptsächlich mittels Blackbox – und User Tests sichergestellt<br />

wurde.<br />

Michael PAESOLD<br />

Monitoring Temporal Patterns in Guideline-Based<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof Dr. Silvia Miksch<br />

35


Arno PANY<br />

SIMULANT: Design and implementation of a simulation environment for ant<br />

algorithms in peer-to-peer networks<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof Dr. Silvia Miksch<br />

Albrecht PRADER<br />

e-Learning zum Erlernen und Optimieren der Technik des Schilanglaufs<br />

Studium: Magisterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />

Abstrakt: Ziel der vorliegenden Arbeit ist es, eine e-Learning-Plattform <strong>für</strong><br />

die motorisch komplizierte Bewegungsform des Schilanglaufens zu schaffen.<br />

Durch die Nutzung des Internet soll die Sportart einerseits <strong>für</strong> eine<br />

möglichst breite Öffentlichkeit zugänglich gemacht werden. Andererseits ist<br />

die Plattform als Ergänzung zu praktischen Unterrichtseinheiten bei<br />

fachkundigem Lehrpersonal gedacht. Sie gibt den bereits Lernenden die<br />

Möglichkeit, die in den praktischen Einheiten gemachten<br />

Bewegungserfahrungen kognitiv zu erfassen und über Vergleiche mit einem<br />

Modell zu verbessern. Die angeführten Lernprozesse beinhalten passive<br />

Komponenten (Studium von beschreibenden Texten, Fotos und<br />

Videoaufnahmen) und aktive Komponenten (Bewegungspuzzle, Vergleich von<br />

Fotos und Videos der eigenen Bewegung mit denen des Modells durch<br />

Überlagerung und Bildkorrelation). Die Lernplattform wurde als Website<br />

unter Zuhilfenahme eines Content Management Systems erstellt. Die <strong>für</strong> die<br />

angeführten Lernprozesse notwendigen Software-Tools sind in den<br />

Programmiersprachen DHTML, Javascript und Java ausgeführt. Um das<br />

Projekt während der Entwicklung in einem überschaubaren Rahmen zu<br />

halten, wurde die Umsetzung exemplarisch <strong>für</strong> eine Teiltechnik (Schrittart)<br />

des Schilanglaufens ausgeführt.<br />

Heinz ROTH<br />

Probing an Monitoring of WSBPEL Processes with Web Services<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

36<br />

Abstrakt: In dieser Magisterarbeit wird ein neuer Ansatz zur Überwachung<br />

von Geschäftsprozessen, die auf dem Prozessstandard WSBPEL (Web<br />

Service Business Process Execution Language) basieren, beschrieben. Die<br />

ersten beiden Kapitel geben einen Überblick über den Themenbereich<br />

Business Process Management. Dabei werden die unterschiedlichen<br />

Lebenszyklen eines Geschäftsprozesse diskutiert. In Kapitel 3 werden<br />

Basiskonzepte der Prozessbeschreibungssprache WSBPEL vorgestellt.


Dabei werden wichtige Konstrukte von WSBPEL diskutiert, die als<br />

Ausgangsbasis <strong>für</strong> die weitere Arbeit dienen. In Kapitel 4 werden die<br />

Themen Prozessüberwachung und Prozesssteuerung behandelt. Dabei wird<br />

insbesondere auf die Gründe, Datenquellen und Applikationen beschrieben,<br />

die <strong>für</strong> die Prozessüberwachung und –Steuerung ausschlaggebend sind. Im<br />

praktischen Teil der Arbeit ab Kapitel 5 wird ein Ansatz beschrieben, mit<br />

dem WS-BPEL Prozesse automatisch erweitert werden können, um diese<br />

überwachbar zu machen. Ausgehend von einer existierenden WSBPEL<br />

Prozessbeschreibung wird diese mit Hilfe von XSLT (Extensible Stylesheet<br />

Language Transformation) erweitert, um zusätzlich Web-Service Aufrufe <strong>für</strong><br />

Sondierungsaufgaben einzubetten. Im Rahmen dieser Web-Service Aufrufe<br />

können beliebige Laufzeitinformationen eines Geschäftsprozesses an externe<br />

Systeme weitergegeben werden. Für die Sondierung wurden so genannte<br />

„Preaudit“ und „Postaudit“ Stellen <strong>für</strong> Prozessaktivitäten in die<br />

Prozessbeschreibung eingebettet, die während der Prozessdurchführung<br />

Laufzeitinformationen automatisch erfassen. Für die „Preaudit“ und<br />

„Postaudit“ Stellen wurden standardbasierte Web-Service Schnittstellen<br />

spezifiziert Im Rahmen der Magisterarbeit wurde ein Tool entwickelt,<br />

welches automatisch eine existierende WSBPEL Prozessbeschreibung mit<br />

Hilfe eines XSL (Extensible Stylesheet Language ) Stylesheets mit „Preaudit“<br />

und „Postaudit“ Stellen erweitert. Das entwickelte Tool wurde anhand eines<br />

Beispielprozesses mit dem Oracle BPEL Process Manager evaluiert.<br />

Wesentliche Beiträge der Magisterarbeit sind das entwickelte XSL<br />

Stylesheet zur Erweiterung von WSBPEL Prozessen sowie die Spezifikation<br />

der Web-Service Schnittstellen <strong>für</strong> „Preaudit“ und „Postaudit“<br />

Sondierungsstellen.<br />

Szabolcs ROZSNYAI<br />

Efficient indexing and searching in correlated business event streams<br />

Studium: Magisterstudium Information & Knowledge Management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />

Anneliese SCHIEFER<br />

Strukturierung von XML-Dokumenten - Vergleich von Schemasprachen und<br />

Diskussionen ihrer Mächtigkeit<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />

Abstrakt: Die Arbeit zeigt verschiedene Strukturierungsmöglichkeiten von<br />

XML-Dokumenten. Strukturierungsmechanismen spielen im Kontext der<br />

automatischen Generierung von Software-komponenten, der Optimierung<br />

dynamischer Abfragen von XML-Dokumenten, der automatischen<br />

Übersetzung von relationalen Daten in XML-Daten, der<br />

Applika-tions-integration etc. eine bedeutende Rolle. Hierzu werden in der<br />

37


Arbeit zuerst die Strukturierungsmechanismen DTD, W3C-XML-Schema,<br />

RELAX NG und Schematron vorgestellt. Nach einem Überblick über die<br />

verschieden Implementierungen, werden die Stärken und Schwächen der<br />

einzelnen Schemasprachen beschrieben und anschließend in Bezug auf ihre<br />

Verwendung, ihre Unterstützung von Elementen, Attributen und Datentypen,<br />

ihre Wiederverwendbarkeit, ihre Unter-stützung von<br />

Konsistenzeigenschaften und weitere Aspekte verglichen. Die vorgestellten<br />

Strukturierungsmethoden bilden die Grundlage <strong>für</strong> die Strukturierung von<br />

Geschäftsprozessereignissen. Anhand eines praktischen Beispiels, welches<br />

die Kombinationsmöglichkeit eines W3C-XML-Schemas und eines<br />

Schematron-Schemas zeigt, wird die Strukturierungsmöglichkeit von XML-<br />

Dokumenten <strong>für</strong> Geschäftsprozessereignisse demonstriert. Ein typischer<br />

Anwendungsbereich <strong>für</strong> strukturierte Geschäftsprozessereignisse sind zum<br />

Beispiel Business Performance Management Systeme, welche Ereignisse in<br />

Geschäftskennzahlen umwandeln und diese dann analysieren. Durch die<br />

Strukturierung der Ereignisse wird die Kennzahlenberechnung und<br />

Datenanalyse wesentlich erleichtert. Ein Ergebnis des praktischen Beispiels<br />

ist ein Ereignismodell, mit dem Unternehmen beliebige<br />

Geschäftsprozessereignisse erfassen, transformieren und weiterverarbeiten<br />

können. Zusätzlich wird das Ereignismodell mit Schematron-Regeln<br />

unterstützt, um Beschränkungen <strong>für</strong> Ereignisattribute abzubilden.<br />

Michael SCHRAMEL<br />

Development and Implementation of a Quantitative Multi-Disciplinary<br />

Information Security Risk Analysis Workshop<br />

Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

38<br />

Abstrakt: In den letzten Jahren hat Internet und Computer Kriminalität an<br />

Professionalität und Einfluss auf Unternehmen zugenommen. Wirksames<br />

Information security management wird <strong>für</strong> Unternehmen immer wichtiger,<br />

wie die steigende Anzahl an Frameworks und Verfahren beweist. Verfügbare<br />

information security management Verfahren sind entweder sehr<br />

kostenintensiv (Risiko Analysen) oder unvollständig und nicht Kundenspezifisch<br />

(Check-Listen und Best Practises). Die Mehrheit legt den<br />

Schwerpunkt auf technische Lösungen und vernachlässigt die soziale und<br />

organisatorische Komponente. Diese Arbeit stellt ein neues Verfahren vor,<br />

das aus einer ganzheitlichen quantitativen Risiko Analyse besteht und durch<br />

ein group decision support system (GDSS) unterstützt wird. Sie stellt dar,<br />

wie Risiken der Informationssicherheit und<br />

Informationssicherheitsmaßnahmen definiert und quantifiziert werden<br />

können, wie Gruppenentscheidungen effektiv und effizient erreicht werden<br />

und welche Möglichkeiten bestehen, Alternativen zu bewerten und zu<br />

ordnen. Die Anforderungen (requirements) an ein GDSS, welches Kosten<br />

reduzierte Gruppen-Risiko Analysen bei hochqualitativen Ergebnissen<br />

ermöglichen soll, werden präsentiert. Anschließend wird ein Workshop


Konzept entwickelt, implementiert und anhand der Anforderungen und der<br />

empirischen Ergebnisse einer Fallstudie validiert. Die vorgestellte Lösung<br />

ermöglicht Gruppen von Entscheidungsträgern, Entscheidungen der<br />

Informationssicherheit anhand mehrerer Kriterien im Rahmen eines kurzen<br />

Workshops zu modellieren. Es bezweckt die Reduzierung von Risiken, die<br />

gehäuft bei Gruppenentscheidungen auftreten, und versucht auf effiziente<br />

und komplette Weise, die Präferenzen der Gruppenmitglieder zu ermitteln.<br />

Die statistische Analyse der gesammelten Daten - unterstützt durch<br />

Funktionalitäten des GDSS wie der Portfolio Analyse, der Pareto<br />

Optimierung, der Monte Carlo Simulation und der Sensitivitätsanalyse -<br />

ermöglicht die effizienten Sicherheitsmaßnahmen schnell zu identifizieren<br />

und Empfehlungen zu formulieren: das vorgestellte Verfahren versucht<br />

durch den Einsatz dieser quantitativer Analysemethoden die Zufriedenheit<br />

der Entscheidungsträger bezüglich der Ergebnisse zu erreichen und will,<br />

dass der Entscheidungsfindungsprozess vom Management angenommen<br />

wird.<br />

Peter SCHRAMMEL<br />

Feasibility Study for RFID-based Temperature Monitoring of Blood Bags<br />

Studium: Magisterstudium <strong>Technische</strong> <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Abstrakt: Blutkonserven sind temperaturempfindliche Produkte, die strengen<br />

Qualitätsbestimmungen bezüglich Tests und Lagerungsbedingungen<br />

unterliegen. Allerdings ist derzeit die Nachvollziehbarkeit der Lagerungs- und<br />

Transporttemperatur nicht gegeben. Eine nicht unerhebliche Anzahl von<br />

Erythrozytenkonzentraten wird auf Grund einer möglichen Unterbrechung<br />

der Kühlkette verworfen. Diese Arbeit untersucht die Machbarkeit eines<br />

Systems zur durchgehenden Temperaturüberwachung eines jeden einzelnen<br />

Blutbeutels „von Vene zu Vene“ basierend auf der RFID-Technologie. Damit<br />

soll die Qualität der Blutprodukte gesteigert werden, indem das<br />

verantwortliche medizinische Personal in Fragen der Temperaturintegrität<br />

unterstützt wird. Weiters kann durch das Erkennen und Beseitigen von<br />

Problemen in der Lieferkette längerfristig der Verwurf reduziert werden.<br />

Nach einer detaillierten Analyse einer exemplarischen Blut-Supply-Chain von<br />

der Blutgewinnung über die Verarbeitung bis hin zur Transfusion, der<br />

Stärken und Schwächen der RFID-Technolgie, sowie der spezifischen<br />

Probleme der Temperaturmessung werden die Anforderungen an ein<br />

solches System untersucht. Die erforderlichen Basisfähigkeiten von<br />

Transpondern mit Temperatur-Logging-Funktion werden festgelegt. Neben<br />

der geeigneten Einbettung des Systems in den Prozessablauf soll auch eine<br />

Wiederverwendung der Transponder ermöglicht werden. Designoptionen<br />

von RFID-Systemarchitekturen werden hinsichtlich der gegebenen<br />

Anwendung diskutiert. Ein RFID-Temperaturmonitoring-Framework wurde<br />

implementiert, sowie einige repräsentative Anwendungsfälle, um die<br />

technische Machbarkeit der Schlüsselkonzepte zu untermauern. Aspekte<br />

39


der Security und Reliability werden in die Diskussion miteinbezogen ebenso<br />

wie die Möglichkeiten der Pulkerkennung, RFID-Middleware und der<br />

derzeitige Stand der Standardisierung. Als weitere Anwendungen der<br />

Technologie wird der Weinhandel, die Verfolgung von Bierfässern,<br />

Medikamente und die Klimakontrolle alter Handschriften vorgestellt. Einige<br />

Fragen der Reliability der Transponder müssen noch praktischen Tests<br />

unterzogen werden. Basierend auf den ausgearbeiteten Konzepten ist die<br />

Machbarkeit eines RFID-basierten Systems zur Temperaturüberwachung von<br />

Blutkonserven gegeben. Außerdem ergeben sich noch andere Vorteile des<br />

RFID-Einsatzes, wie Rückverfolgbarkeit, automatische Dokumentation, eine<br />

Reduktion der Fehleranfälligkeit der Prozesse, z.B. betreffend die<br />

Verwechslung von Blutbeuteln, und lückenloseres Hämovigilanz-Reporting.<br />

Wilhelm Maximilian STEGERWALD<br />

IT-Projektmanagement: Management des Forschungsprojekts "StegIT" mit<br />

Schwerpunkt Steganographie in der digitalen Sprachübertragung<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Doz. Dr. Ernst Piller<br />

Stefan STEIGERWALD<br />

Einsatz von Projektmanagement in Softwareprojekten und eine<br />

Veranschaulichung anhand des Projekts LIMA<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Doz. Dr. Ernst Piller<br />

Jamil WAHBEH<br />

WLAN Authentifizierungsmechanismen anhand einer praktischen<br />

Implementierung von EAP-TLS<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />

Arbeitsbereich Interaktive Mediensysteme<br />

Michael BRANDEJSKY<br />

Automatische Erkennung von text in Videosequenzen<br />

Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />

BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />

40


Abstrakt: Text zählt nach wie vor zu den wichtigsten Kommunikationsmitteln,<br />

die das Fernsehen zu bieten hat. Kein anderes Medium bietet die<br />

Möglichkeit, so störungsfrei Informationen zu übermitteln und dabei den<br />

raschen Überblick über das Geschehen zu behalten wie Texteinblendungen.<br />

Ob aktueller Spielstand, wichtige Meldungen oder der Name des<br />

Moderators, die Anwendungsmöglichkeiten dazu sind vielfältig. Diese Fülle<br />

an Informationen ermöglicht eine präzise Indexierung und Archivierung der<br />

Videosequenzen. Was <strong>für</strong> den Menschen einfach ist, ist <strong>für</strong> eine Software<br />

jedoch eine komplexe Problemstellung. Dabei muss die Software einerseits<br />

feststellen, wo und ob sich im aktuellen Videobild ein Textblock befindet,<br />

diesen extrahieren und daraus die einzelnen Buchstaben erkennen,<br />

andererseits aber auch Störungen und Falschdetektionen herausfiltern.<br />

Trotz der bereits langen Geschichte der Forschung an automatischen<br />

Texterkennungsfunktionen und der Vielzahl an Forschungserkenntnissen gibt<br />

es noch immer etliche Fehlerquellen und Probleme, welche zu schlechten<br />

Ergebnissen führen. So ist die Kombination aus PAL-Fernsehauflösung,<br />

Störungen bei der analogen Übertragung und den verwendeten kleinen<br />

Schriftarten (wie beispielsweise bei Einblendungen in Sportübertragungen)<br />

sehr problematisch und führt zu vielen Fehlinterpretationen. Im Rahmen<br />

dieser Diplomarbeit wird ein selbst entwickeltes Verfahren<br />

zur automatischen Detektion und Erkennung von Texteinblendungen in<br />

Videosequenzen vorgestellt. Das Ziel der Arbeit war die Entwicklung eines<br />

Prototypen, welcher insbesondere mit den kleinen Schriftarten von<br />

Sportübertragungen umgehen kann. Dabei sollte nicht nur auf die Detektion<br />

und Extraktion der Buchstaben Wert gelegt werden, sondern es sollten<br />

auch Methoden zur Mustererkennung der Buchstaben erforscht und<br />

weiterentwickelt werden. Es wurde daher ein neues Feature eingeführt,<br />

welches bisher nicht <strong>für</strong> Texterkennung benutzt wurde. Dieses Feature<br />

berechnet die Winkelabhängigkeit der Pixel eines Segments und ermöglicht<br />

durch die Berechnung eines Histogramms einen Vergleich mit anderen<br />

Segmenten. Im Zuge der Entwicklung wurden verschiedene<br />

Klassifikationsmethoden getestet und implementiert. Der Prototyp wurde so<br />

realisiert, dass die einzelnen Systemteile leicht austauschbar sind, um<br />

weitere Forschung zu ermöglichen.<br />

Mathis CSISINKO<br />

Long distance Distribution of virtual and augmented reality applications<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Ass. Dr. Hannes Kaufmann<br />

Abstrakt: Kollaboration ist ein faszinierender und viel versprechender Aspekt<br />

von Virtual und Augmented Reality Systemen, unabhängig von der Tatsache,<br />

ob die Teilnehmer am selben Ort versammelt sind. Zumindest Kollaboration<br />

über Entfernung erfordert die Fähigkeiten zur Verteilung, um das Virtual<br />

Environment an jeden teilnehmenden Ort replizieren zu können. Studierstube<br />

ist ein kollaboratives Augmented Reality System und stellt zuverlässige<br />

41


Verteilung in einem beschränkten Ausmaß zur Verfügung. Diese<br />

Diplomarbeit stellt eine Erweiterung dieser Fähigkeiten um die Möglichkeit<br />

zur Verteilung über weite Strecken auf herkömmlichen IP-basierenden<br />

Netzwerken wie dem Internet dar. Kollaboration zwischen Teilnehmern aus<br />

verschiedenen Städten, Ländern, ja sogar Kontinenten wird damit möglich.<br />

Um diese neuen Möglichkeiten anzuwenden, wurde Construct3D, ein<br />

dynamisches Konstruktions-Programm <strong>für</strong> 3D-Geometrie zu schulischen<br />

Zwecken, adaptiert. Durch Reduktion des zu übertragenden Datenvolumens<br />

ließ sich die Verteilungs-Effizienz steigern. Des weiteren wurden<br />

Eigenschaften betreffend Robustheit, Flexibilität und Skalierbarkeit<br />

verbessert. Die Fähigkeiten zur Applikations-Verteilung und Kollaboration<br />

profitieren von all diesen Bemühungen direkt.<br />

Robert LIEBO<br />

Visualization of Complex Function Graphs in Augmented Reality<br />

Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />

BetreuerIn: Univ. Ass. Dr. Hannes Kaufmann<br />

Abstrakt: Understanding the properties of a function over complex numbers<br />

can be much more difficult than with a function over real numbers. This<br />

work provides one approach in the area of visualization and augmented<br />

reality to gain insight into these properties. The applied visualization<br />

techniques use the full palette of a 3D scene graph's basic elements, the<br />

complex function can be seen and understood through the location, the<br />

shape, the colour and even the animation of a resulting visual object. The<br />

proper usage of these visual mappings provides an intuitive graphical<br />

representation of the function graph and reveals the important features of a<br />

specific function. Augmented reality (AR) combines the real world with virtual<br />

objects generated by a computer. Using multi user AR for mathematical<br />

visualization enables sophisticated educational solutions for studies dealing<br />

with complex functions. A software framework that has been implemented<br />

will be explained in detail, it is tailored to provide an optimal solution for<br />

complex function graph visualization, but shows as well an approach to<br />

visualize general data sets with more than 3 dimensions. The framework<br />

can be used in a variety of environments, a desktop setup and an immersive<br />

setup will be shown as examples. Finally some common tasks involving<br />

complex functions will be shown in connection with this framework as<br />

example usage possibilities.<br />

42


Arbeitsbereich Business Informatics<br />

Mario PRINZ<br />

Modellgetriebene Entwicklung ubiquitärer Web-Anwendungen<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Einhergehend mit der zunehmenden Verbreitung und Komplexität<br />

von Web-Anwendungen und der daraus resultierenden Wandlung des World<br />

Wide Web von einem statischen Informationsmedium zu einem<br />

dynamischen Anwendungsmedium, entwickelte sich eine Reihe von<br />

Modellierungsansätzen <strong>für</strong> Web-Anwendungen. Die Bandbreite reicht dabei<br />

von sehr spezifischen Modellierungsansätzen, die nur auf Teilaspekte von<br />

Web-Anwendungen fokussieren, bis zu solchen, die den gesamten<br />

Entwicklungsprozess umfassen. Neue Herausforderungen an diese Ansätze<br />

ergeben sich einerseits aus dem zunehmenden Bedürfnis nach<br />

Adaptierbarkeit von Web-Anwendungen und andererseits aus dem<br />

aufkommenden Trend der modellgetriebenen Software-Entwicklung. Ziel<br />

dieser Arbeit ist es, einen Überblick über aktuelle Modellierungsansätze und<br />

deren Werkzeugunterstützung zu geben und diese einer Evaluierung anhand<br />

eines Kriterienkataloges zu unterziehen, der die bereits erwähnten<br />

Anforderungen berücksichtigt. Um praktische Erfahrung im Umgang mit den<br />

untersuchten Werkzeugen zu sammeln sollen die Ansätze auch anhand<br />

eines Beispiels verglichen werden. Die Evaluierung soll aufzeigen, ob eine<br />

modellgetriebene Entwicklung mit aktuellen Modellierungsansätzen bereits<br />

möglich ist und in wie weit auf die speziellen Erfordernisse von ubiquitären<br />

Web-Anwendungen eingegangen wird.<br />

Andreas STARIBACHER<br />

Content Wiederverwendung in verteilten Content Management Systemen<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Content Management Systeme sind in Unternehmen feste<br />

Bestandteile beim Contenterstellungsprozess. Sie unterstützen Autoren<br />

beim Erstellen und Bearbeiten von Content durch grafische<br />

Benutzeroberflächen, einfache Bedienung und unzähligen Hilfestellungen. Da<br />

oft gleicher Content auf verschiedenen Webseiten angezeigt und nur einmal<br />

erstellt werden soll, setzen immer mehr Unternehmen Content<br />

Wiederverwendung ein. Die meisten Content Management Systeme<br />

beinhalten – oft recht einfache – Funktionen, um Content wieder zu<br />

verwenden. Doch wie kann Content in Unternehmen, wo mehrere<br />

Abteilungen Content erfassen und verschiedene Content Management<br />

Systeme im Einsatz sind, wieder verwendet werden? Diese Arbeit befasst<br />

sich mit allgemeinen Aspekten von Content Management Systemen und<br />

43


Content Wiederverwendung, wie Content Wiederverwendung in verteilten<br />

Content Management Systemen realisiert werden kann und wie Content<br />

Wiederverwendung von derzeit am Markt erhältlichen Content Management<br />

Systemen unterstützt wird.<br />

Walter SUNK<br />

Entwurf und Realisierung einer Internetplattform <strong>für</strong> den Verlag von<br />

fotounterstützenden Dokumentationen alpiner Touren<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />

Abstrakt: Immer mehr Wanderer und Bergsteiger werden durch die<br />

Faszination der Gebirgswelt sowie deren Erlebnis- und Erholungswert in das<br />

Gebirge gezogen. Voraussetzung zum erfolgreichen und<br />

sicheren Durchführen von Touren im Gebirge ist eine sehr genaue<br />

Tourenplanung. Von besonderem Interesse bei der Tourenplanung sind<br />

genaue Informationen über den Tourenverlauf sowie über mögliche Gefahren<br />

und Schlüsselstellen. Die meisten Informationen werden in Textform<br />

angeboten. Sowohl Fachliteratur als auch Informationen im Internet<br />

beschreiben Touren überwiegend in Worten, es fehlt in der Regel gutes<br />

Fotomaterial. Doch gerade dieses verbessert die Vorstellung über eine<br />

alpine Tour ganz wesentlich. Aus diesem Grund beschäftigt sich die<br />

vorliegende Arbeit mit der Entwicklung einer Internetplattform <strong>für</strong> den Verlag<br />

von fotounterstützten Dokumentationen alpiner Touren. Jede Dokumentation<br />

soll dabei genügend Fotomaterial <strong>für</strong> eine umfangreiche Tourenplanung<br />

enthalten können und den gesamten Verlauf einer Tour sowie alle<br />

Schlüsselstellen auf der Tour sichtbar machen. Die Plattform wurde mit<br />

Sommerbeginn 2006 unter www.AlpinImageS.com eröffnet und stellt als<br />

Basisinhalt einen Osttirol Wander- und Hochtourenführer sowie einen kleinen<br />

Zentralpyrenäen Wanderführer zur Verfügung. Da es Berge weltweit gibt<br />

und Alpinisten unterschiedlichste Sprachen sprechen, wurde die<br />

Internetplattform mehrsprachig ausgeführt, zur Zeit in den Sprachen<br />

Deutsch, Englisch und Französisch. Gezeigt wird, dass <strong>für</strong> die Umsetzung<br />

eines derartigen Verlages neben umfangreichen technischen und<br />

sprachlichen Kenntnissen sowie neben Erfahrungen in der Alpinistik auch<br />

grundlegende Kenntnisse in den Gebieten der Buchhaltung und im Datenund<br />

<strong>Informatik</strong>recht notwendig sind. Die Realisierung der Plattform stellt<br />

sich diesbezüglich als ein multidisziplinäres Projekt in dem spannenden<br />

Gebiet des Bergsports heraus.<br />

44


INSTI<strong>TU</strong>T FÜR WIRTSCHAFTSMATHEMATIK<br />

Yvonne KASCHKE<br />

Der österreichische Lotto-Markt<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.-Prof. Dr. Helmut Frisch<br />

Lara LEBEDINSKI<br />

Die Koordinierung der Wirtschaftspolitik in der Europäischen Union<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: O.Univ.-Prof. Dr. Helmut Frisch<br />

Manuel WÄCKERLE<br />

Evolution von Demokratie in Makro- und Mikrosphäre<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />

Leonhard ZEHENTNER<br />

Multikriterielle Routenplanung mit Tabu-Suche<br />

Studium: Magisterstudium Computational Intelligence<br />

BetreuerIn: Ao. Univ.-Prof. Dr. Alexander Mehlmann<br />

Abstrakt: Was ist die beste Route von A nach B? Antwort des Controllers:<br />

die Billigste. Antwort des Pendlers um 06:35 früh: die Schnellste. Antwort<br />

des Grünwählers: Hauptsache mit dem Bus. Es gibt viele Möglichkeiten eine<br />

Route zu beurteilen. Nimmt man nur ein Kriterium als<br />

Entscheidungsgrundlage, dann ist die Berechnung der besten Route aus<br />

computationaler Sicht einfach. Sind mehrere Kriterien gleichzeitig zu<br />

beachten wird es schwieriger. Die Länge der Fahrzeit kann eine billige Route<br />

teuer machen, die kurze Route über einen Pass kann den Schadstoffausstoß<br />

empfindlich erhöhen. Bei vielen Kriterien bewirkt ein Verbessern des einen<br />

Kriteriums ein Verschlechtern des anderen. Es ergeben sich aus<br />

mathematischer Sicht folgende<br />

3 Situationen: 1. Die Lösungen X und Y sind gleich gut, das heißt: X und Y<br />

unterscheiden sich in keinem Kriterium. 2. Die Lösung X ist besser als Y,<br />

das heißt: X ist in mindestens einem Kriterium besser als Y aber Y in<br />

keinem besser als X. 3. Die Lösungen X und Y sind unvergleichbar, das<br />

heißt: X ist in mindestens einem Kriterium besser als Y und umgekehrt. Ist<br />

eine Lösung gegenüber allen anderen Lösungen unvergleichbar, dann wird<br />

sie auch pareto-optimal genannt. Alle pareto-optimalen Lösungen zusammen<br />

werden Pareto-Menge genannt. In dieser Arbeit versuche ich festzustellen,<br />

45


ob Tabu-Suche geeignet ist, eine möglichst große Menge von paretooptimalen<br />

Lösungen zu finden. Diese Pareto-Menge kann <strong>für</strong> kleine Aufgaben<br />

in vertretbarer Zeit exakt bestimmt werden. Bei größeren Aufgaben ist das<br />

nicht mehr möglich. Um die Effizienz des Algorithmus zu testen, habe ich ein<br />

C++Programm geschrieben und mit diversen mittelgroßen Problemen<br />

gefüttert. Da sich eine frühere Diplomarbeit am Institut <strong>für</strong><br />

Wirtschaftsmathematik mit demselben Problem über einen anderen<br />

Algorithmus (evolutionären) genähert hat, konnte ich entsprechende<br />

Vergleiche durchführen. In dieser erwähnten Arbeit wird auch die<br />

Problematik von hybriden Lösungen aufgeworfen. Hybride Lösungen sind<br />

konvexe Kombinationen von Lösungen. Wenn eine pareto-optimale Lösung<br />

von einer Hybriden dominiert wird, wird sie "non-supported" genannt. Ein<br />

Kapitel der Magisterarbeit widmet sich diesem Thema.<br />

INSTI<strong>TU</strong>T FÜR STATISTIK UND<br />

WAHRSCHEINLICHKEITSTHEORIE<br />

Markus COZOWICZ<br />

Large Vocabulary Continuous Speech Recognition Systems and Maximum<br />

Mutual Information Estimation<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Privatdozent Dr. Friedrich Leisch<br />

Abstrakt: Diese Arbeit gibt eine allgemeine Einführung in den Bereich der<br />

automatisierten Spracherkennung mit Hilfe von Hidden Markov Modellen<br />

(HMM). Es wurde eine vollständige Trainingsumgebung von Sprachmodellen<br />

inklusive Erzeugung von Mix Modellen unter Verwendung des Hidden-Markov-<br />

Toolkit (HTK) und eines Spracherkenners von Sail Labs' erstellt. Um die<br />

Erkennungsrate zu erhöhen, wurde Maximum Mutual Information (MMI)<br />

Parameterschätzung implementiert. Ein 93 Stunden umfassender<br />

arabischer Broadcast News Korpus wurde <strong>für</strong> die Experimente verwendet.<br />

Eine Verbesserung der Erkennungsrate durch MMI am verwendeten Korpus<br />

konnte nicht festgestellt werden, es wird aber vermutet, dass die nötige<br />

Modell Umwandlung um HTK trainierte Modelle in Sail Labs Spracherkenner<br />

zu verwenden, da<strong>für</strong> verantwortlich ist.<br />

46


INSTI<strong>TU</strong>T FÜR VERFAHRENSTECHNIK,<br />

UMWELTTECHNIK UND TECHN.<br />

BIOWISSENSCHAFTEN<br />

Richard <strong>TU</strong>SCHL<br />

Matrixmethoden als Grundlage produktbezogener Evaluierung<br />

Studium: Diplomstudium <strong>Informatik</strong><br />

BetreuerIn: Univ.Doz. Dr. Andreas Windsperger<br />

INSTI<strong>TU</strong>T FÜR RAUMENTWICKLUNG,<br />

INFRASTRUK<strong>TU</strong>R UND UMWELTPLANUNG<br />

Michael MEIER<br />

Projektierung, Planung und Umsetzung eines Fachmarktzentrums<br />

Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Blaas<br />

INSTI<strong>TU</strong>T FÜR HANDHABUNGSGERÄTE UND<br />

ROBOTERTECHNIK<br />

Fabriba MOTEDAYEN<br />

Roboter in der Chirurgie<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. DDr. Peter Kopacek<br />

Abstrakt: In kaum einem anderen Beruf wird die Verantwortung <strong>für</strong> das<br />

Schicksal eines Menschen so unmittelbar wahrgenommen wie in der<br />

Chirurgie. Es haben sich mittlerweile zwei Meinungsfelder gebildet. Die<br />

einen, die meinen, dass der Chirurg in Zukunft gänzlich durch die Maschinen<br />

ersetzt werden kann bzw. dass der Roboter immer komplexere<br />

Bearbeitungsvorgänge übernimmt und der Operateur zunehmend in die Rolle<br />

eines Konstrukteurs gerät; und die anderen, die meinen, dass diese<br />

Systeme nur Assistenzsysteme sein werden, die den Chirurgen beim<br />

genauen Arbeiten unterstützten – ihn aber nicht ersetzten. Voraussetzung<br />

<strong>für</strong> Eingriffe mittels Manipulator- und Robotersysteme ist die<br />

Weiterentwicklung der Navigationssysteme. Notwendig sind hier Systeme<br />

<strong>für</strong> eine exakte Lokalisierung des Instruments relativ zum Gewebe und<br />

detaillierter Informationen über den Gewebetyp und -zustand. Ein innovativer<br />

Einsatz ist die multimodale und lokale Navigation, bei der parallel mehrere<br />

47


Sensoren ausgewertet werden. Aus den Messergebnissen der<br />

unterschiedlichen Modalitäten kann ein aktuelles Gesamtbild vom Situs<br />

zusammengesetzt werden, von denen eine genauere Beschreibung erwartet<br />

wird. Der Vorteil ist, dass kleine Sensoren an der Instrumentenspitze direkt<br />

am Situs angebracht werden, die kontinuierlich im Operationsverlauf messen<br />

und den gleichzeitigen Effektoreinsatz nicht behindern. Die Fortschritte in<br />

der Mikrosystemtechnik werden möglicherweise die Gestalt des<br />

Robotereinsatzes in Zukunft vollständig verändern. Die ersten Ansätze <strong>für</strong><br />

solche Systeme erscheinen zwar noch primitiv, trotzdem hätten diese<br />

Systeme eine Reihe von Vorteilen. Im Idealfall ist kein Zugang mehr<br />

erforderlich und die Bewegungsfreiheit am Ziel würde nicht durch die<br />

Verbindung nach außen eingeschränkt. Für die nächsten Jahre oder<br />

Jahrzehnte bleibt diese Vision jedoch noch ein Wunschbild der minimalinvasiven<br />

Operationstechnik. Dennoch hält man es <strong>für</strong> möglich, dass die<br />

Technologie <strong>für</strong> den MIC – Roboter eines Tages verfügbar sein wird.<br />

Lukas-Sebastian SILBERBAUER<br />

Robots for Landmine Detection<br />

Studium: Magisterstudium <strong>für</strong> Wirtschaftsingenieurswesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. DDr. Peter Kopacek<br />

Abstrakt: Humanitäre Entminung stellt zur Zeit ein arbeits- und<br />

kostenintensives Unterfangen dar. Roboter <strong>für</strong> gefährliche<br />

Aufgabenstellungen wie diese prädestiniert, da sie monotone Aufgaben<br />

ermüdungsfrei und sicher durchführen können. Im Rahmen der Arbeit<br />

"Robots for Landmine Detection" wurde ein Roboterprototyp zur<br />

Landminensuche gebaut und in Betrieb genommen.<br />

Stefan Khao-I-Dang TAING<br />

Implementierung eines Frameworks <strong>für</strong> die echtzeitfähige Steuerungseinheit<br />

eines humanoiden Roboters<br />

Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />

BetreuerIn: O.Univ.Prof. DDr. Peter Kopacek<br />

48<br />

Abstrakt: Die Erschaffung künstlichen Lebens nach menschlichem Vorbild ist<br />

wohl einer der ältesten Menschheitsträume. Durch den rasanten Fortschritt<br />

im Bereich der <strong>Informatik</strong> und Elektronik ist es heute möglich, autonome<br />

Roboter zu bauen, die sich stabil auf zwei Beinen fortbewegen können.<br />

Wenn die Entwicklung der Roboter ähnlich verläuft wie die der Computer, ist<br />

es wohl nur mehr eine Frage der Zeit bis jeder Haushalt seinen eigenen<br />

Roboterassistenten hat. Die Magisterarbeit befasst sich mit den<br />

Softwareaspekten der zentralen Steuerungseinheit eines humanoiden<br />

Roboters. Das Ziel der Arbeit ist die Auswahl eines Echtzeitbetriebssystems<br />

(RTOS) und die Implementierung eines Frameworks. Unter Framework ist


hier eine Architektur zu verstehen, die einem Benutzer Schnittstellen zur<br />

Verfügung stellt. Die Einleitung bildet ein kurzer Einblick in die Geschichte,<br />

Gegenwart und Zukunft der humanoiden Roboter. Im Anschluss werden die<br />

Grundlagen zur verwendeten Software erläutert sowie die eingesetzte<br />

Hardware näher beschrieben. Anhand von vier definierten Kriterien werden<br />

die verfügbaren RTOS bewertet. Die in die engere Wahl kommenden<br />

Produkte werden anhand ihrer Systemarchitektur verglichen. Weiters erfolgt<br />

eine praktische Bewertung auf Basis von Testinstallationen. Schlussendlich<br />

wurde das Echtzeitbetriebssystem RTAI ausgewählt. RTAI ist eine<br />

Echtzeiterweiterung des freien Betriebssystems Linux. Im Anschluss wird die<br />

Implementierung eines Frameworks beschrieben. Ziel des Frameworks sind<br />

Schnittstellen <strong>für</strong> das Versenden von Kommandos von einem Laptop an die<br />

Zentrale Steuerungseinheit und <strong>für</strong> die Kommunikation zwischen Echtzeitund<br />

Userspace-Anwendungen. Den Abschluss bildet ein kurzer Überblick<br />

über weiterführende Software und Komponenten, welche <strong>für</strong> anschließende<br />

Arbeiten in dem Projekt relevant sind.<br />

INSTI<strong>TU</strong>T FÜR MANAGEMENTWISSENSCHAFTEN<br />

Michael EHRENHÖFER<br />

IT-basiertes Risikomanagement Risikomanagement - Entwicklung und<br />

Implementierung eines Geschäftsrisikomodells am Beispiel der phi premium<br />

oil HandelsgesmbH<br />

Studium: Diplomstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Prof. Dr. Walter S.A. Schwaiger<br />

Thomas JEZEK<br />

Organisation und Entwicklung einer E-Learningplattform am Institut <strong>für</strong><br />

Managementwissenschaften, Bereich Betriebstechnik und Systemplanung<br />

Studium: Magisterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Abstrakt: Ziel der Arbeit ist es einerseits die Bedeutung der Thematik e-<br />

Learning herauszustreichen und andererseits einen grundlegenden Überblick<br />

über den aktuellen Status quo in der Literatur zu gewährleisten. Die<br />

Erkenntnisse daraus werden in der e-Learning Plattform "<strong>TU</strong>WEL" anhand<br />

der Gegebenheiten des Instituts Managementwissenschaften, Bereich<br />

Betriebstechnik und Systemplanung an der <strong>TU</strong> <strong>Wien</strong> implementiert.<br />

Voraussetzung da<strong>für</strong> ist eine Organisation und Überarbeitung der<br />

Lehrinhalte <strong>für</strong> die Semester 2006/2007.<br />

49


Michael MOSER<br />

Controlling von Softwareprodukten unter Unsicherheit<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Prof. Dr. Walter S.A. Schwaiger<br />

Gerd S<strong>TU</strong>MPFL<br />

IT-basiertes Risikomanagement Risikomanagement - Entwicklung und<br />

Implementierung eines Geschäftsrisikomodells am Beispiel der phi premium<br />

oil HandelsgesmbH<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Univ.Prof. Dr. Walter S.A. Schwaiger<br />

50<br />

Abstrakt: Spätestens seit der Veröffentlichung des Enterprise Risk<br />

Management Frameworks durch COSO fand das Management von Chancen<br />

und Risiken verstärkt Einzug in die strategische Unternehmensführung.<br />

Diese Entwicklung führte zum neuen interdisziplinären Selbstverständnis des<br />

Enterprise Risk Managements. Risiken werden somit nicht mehr durch<br />

einfache Checklisten isoliert von der durch das Management entwickelten<br />

Unternehmensvision betrachtet, sondern sind im Hinblick auf die Verfehlung<br />

der Unternehmensziele zu verstehen. Die Balanced Scorecard stellt ein<br />

bewährtes und etabliertes Instrument zur strategischen<br />

Unternehmensführung dar. Ebenso wie beim Enterprise Risk Management<br />

nach COSO steht im Zentrum der Betrachtungen ein Zielsystem mit aus<br />

Vision und Strategie abgeleiteten operativen Zielen. Ausgehend von dieser<br />

Gemeinsamkeit wird im Rahmen dieser Arbeit versucht, die beiden Konzepte<br />

unter besonderer Berücksichtigung prozessorientierter, zirkulär – kausaler<br />

Sichtweisen und Zusammenhänge zu verbinden. Als konkretes Beispiel wird<br />

<strong>für</strong> die phi premium oil handelsgesmbh ein Modell zur Simulation des<br />

zukünftigen Unternehmenserfolges entwickelt, das die Konzepte von<br />

Balanced Scorecard und Enterprise Risk Management berücksichtigt.<br />

Mithilfe der Risikofaktoren Absatzwachstum, Einkaufspreiswachstum und<br />

Rohaufschlag ergibt sich ein Geschäftsrisikomodell, das Umsatz und<br />

Rohertrag unter Berücksichtigung unternehmensspezifischer Stellgrößen<br />

modelliert. Durch eine unterjährige Modellierung sollen Abweichungen von<br />

Planwerten frühzeitig erkannt und Gegenmaßnahmen eingeleitet werden<br />

können. Im zweiten Teil der Arbeit wird das Modell als Softwareprototyp auf<br />

Basis einer verteilten Anwendung implementiert. Ziel der Applikation soll die<br />

Unterstützung des Anwenders bei Modellkalibrierung anhand historischer<br />

Ist-Daten sowie die risikoadjustierte Simulation von Absatz, Umsatz,<br />

Materialeinsatz und Ergebnis der gewöhnlichen Geschäftstätigkeit (EGT)<br />

aufgrund der vom Benutzer erfassten Plan-Daten sein. Der Prototyp soll<br />

ferner unter der Prämisse eines offenen, auf der Client- sowie Serverseite<br />

plattformunabhängigen, skalierbaren und ortsungebundenen Systems<br />

entwickelt werden. Um diese Anforderung bestmöglich zu unterstützten,<br />

wird die Webapplikation mithilfe von Java und PHP entwickelt. Als


Datenbanksystem wird mySQL in Betracht gezogen, da sowohl eine<br />

Anbindung von Java als auch von PHP an die Datenbank durch integrierte<br />

Bibliotheken relativ rasch bewerkstelligt werden kann. Einerseits bietet Java<br />

mit RMI eine Möglichkeit zur Verteilung von Komponenten einer Applikation<br />

und andererseits kann durch PHP sehr effektiv und effizient ein User-<br />

Interface, unter Beachtung von etablierten Usability – Regeln, entwickelt<br />

werden. Für den Prototyp bedeutet dies, dass komplexe Operationen, wie<br />

etwa die Kalibrierung der Ist- Daten oder Simulationsläufe des EGT, des<br />

Absatzes etc. in Java implementiert werden. Hingegen übernimmt PHP die<br />

Funktion zur Verwaltung der Ist- und Plandatenbestände, die Visualisierung<br />

von Simulationsergebnissen sowie die Abwicklung der Benutzerinteraktion.<br />

Durch die Kombination von Java, PHP und mySQL sollte das gesetzte Ziel –<br />

die Implementierung des Geschäftsrisikomodells der phi premium oil<br />

HandelsgmbH auf Basis einer verteilten Webapplikation – erreicht werden<br />

können.<br />

Josef UNTERBERGER<br />

Qualitätsmanagment im Customer Care der Telekommunikationsbranche<br />

unter Einbindung moderner Informationstechnologien<br />

Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Abstrakt: Unternehmen der Telekommunikationsbranche mit starkem<br />

Kundenfokus fordern heutzutage ein gezieltes und fest-verankertes<br />

Qualitätsmanagement. Oftmals geht die gewünschte, hohe Qualität an<br />

Informationen, die durch ein Call Center System fließt aufgrund des stetig<br />

wachsenden Informationsdrucks an das Unternehmen und seine Umwelt,<br />

verloren. Ziel dieser Arbeit ist es die Komplexität von Call Center Systemen<br />

aufzuzeigen, die damit verbundenen Reorganisationsmöglichkeiten von<br />

Informations- und Kommunikationsstrukturen im Hinblick auf<br />

qualitätsverbessernde Maßnahmen zu untersuchen und einen Prototypen<br />

eines „Quality-Checkup-Systems“ zu entwickeln. Die behandelte Materie ist in<br />

ihrer Art und Weise auf Call Center Systeme ausgerichtet und beschrieben<br />

als: (x) Organisations- und Managementstrukturen, (x)<br />

Qualitätsmanagementmethoden, (x) Informations- und<br />

Kommunikationssysteme, (x) Sozialwissenschaftliche Aspekte und die (x)<br />

Entwicklung eines Prototypen. Die Arbeit soll schließlich dazu beitragen, den<br />

Informationsinput und -output anhand eines, in einem<br />

Qualitätsmanagementsystem eingebunden Regelwerks qualitativ zu steuern<br />

und messbar zu machen, um davon zweckentsprechende Maßnahmen<br />

ableiten zu können.<br />

Markus WEBER<br />

Analyse und Optimierung des Beschaffungsprozesses in Unternehmen mit<br />

Hilfe der Data-Warehouse-Lösung SAP BW<br />

51


Studium: Magisterstudium Wirtschaftsinformatik<br />

BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />

Abstrakt: Diese Arbeit zeigt die Vorteile des Einsatzes eines Data-<br />

Warehouse in den verschiedenen Bereichen der Beschaffung auf.<br />

Aufbauend auf theoretische Grundlagen zum Beschaffungsprozess selbst,<br />

wird der Fokus auf die strategischen Kernelemente des<br />

Beschaffungsmanagements gelegt und in Folge näher auf langfristig<br />

ausgelegte Strategien eingegangen. Basierend auf dabei erlangte Einsichten<br />

und analysierte Betrachtungen von bewährten Methoden innerhalb der<br />

Beschaffung, wird die typische Einkaufssituation eines Handelskonzerns<br />

mittels SAP BW simuliert. Das Ziel dabei ist die Aufbereitung und<br />

Darstellung von relevanten Kennzahlen, welche auf eine Harmonisierung von<br />

Daten unterschiedlicher Herkunft beruht. Dabei liegt der Fokus nicht nur auf<br />

dem Aufbau einer einheitlichen Datenbasis, sondern auch auf die<br />

Analysemöglichkeiten durch ein darauf aufbauendes<br />

entscheidungsunterstützendes Reporting. Unternehmen soll anhand der<br />

aufgezeigten Möglichkeiten die Entscheidung <strong>für</strong> den Einsatz und die<br />

Investition in eine Data-Warehouse-Lösung wie SAP BW erleichtert werden.<br />

INSTI<strong>TU</strong>T FÜR BREITBANDKOMMUNIKATION<br />

52<br />

Elmar NADSCHLÄGER<br />

Technological and Economical Aspects of Digital Video Broadcasting for<br />

Handheld Devices<br />

Studium: Magisterstudium <strong>Informatik</strong>management<br />

BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />

Abstrakt: Mobile Endgeräte bieten heutzutage bereits eine Reihe<br />

verschiedener Funktionalitäten. Neben Kommunikation über Sprache und<br />

Textnachrichten wird das Fotografieren, das Versenden von Bildern sowie<br />

das Downloaden und Abspielen Music-Clips von den meisten Endgeräten und<br />

Anbietern unterstützt. Der nächste logische Schritt ist die Integration von<br />

digitalem TV. Da sich digitales TV bereits weiter Verbreitung erfreut, ist die<br />

Adaptierung dieser Technologie in die Welt der mobilen Geräte nicht mehr<br />

aufzuhalten. Das bietet viele neue wirtschaftliche Möglichkeiten, wobei<br />

natürlich auch etliche Vorgaben beachtet werden müssen. Diese Arbeit<br />

erörtert die Möglichkeiten von mobile TV unter spezieller Betrachtung des<br />

Übertragungsstandards DVB-H (Digital Video Broadcasting – Handheld).<br />

Zuerst werden die möglichen Services, die auf mobilen Geräten angeboten<br />

werden können, betrachtet. Die einfache Übertragung von normalen TV<br />

Kanälen oder die Erzeugung von speziellen Inhalten stellt eine wichtige Frage<br />

dar. Mögliche neue Services werden in dieser Arbeit ebenfalls vorgestellt.<br />

Die Übertragung von TV erfordert hohe technische Voraussetzungen. Eine<br />

hohe Datenrate, kleine Bildschirme und limitierte Akkuleistungen müssen


erücksichtigt werden. Für die Übertragung über Funk existieren<br />

verschiedene Möglichkeiten. Für Mobilfunknetzwerke wurden diverse<br />

Standards wie GSM, GPRS, EDGE, UMTS und HSDPA entwickelt.<br />

Broadcasting Netzwerke verwenden eigene andere Standards: ATSC, DMB,<br />

DVB, ISDB, MBMS und MediaFLO sind die wichtigsten Vertreter. Da DVB<br />

den Standard <strong>für</strong> digitales TV in Europa repräsentiert, wird dieser im Detail<br />

beleuchtet. Die drei Untertypen DVB-S (satellite), DVB-C (cable) und DVB-T<br />

(terrestrial) werden so wie die zugehörige MPEG-2 Übertragungstechnologie<br />

erläutert. DVB-H (handheld) basiert auf DVB-T und stellt eine der wichtigsten<br />

Technologien <strong>für</strong> Übertragung von digitalen Daten über Funk an mobile<br />

Empfänger dar. Es bietet eine Reihe von neuen Funktionen, wie die 4K-Mode<br />

Übertragung, Time-slicing und die Fehlererkorrekturtechnik MPE-FEC (Multi<br />

Protocol Encapsulation – Forward Error Correction). Eine wichtige Neuerung<br />

in DVB-H, die in dieser Arbeit erklärt wird, ist IP Datacast, die Übertragung<br />

von IP-Paketen über Funk. Einen weiteren Hauptteil dieser Arbeit stellen die<br />

wirtschaftlichen Aspekte von DVB-H dar. Mögliche Geschäftsmodelle, die<br />

unterschiedliche Möglichkeiten <strong>für</strong> Provider und Kunden bieten, werden<br />

vorgestellt. Da verschiedene Produkte unterschiedliche Abrechnungsarten<br />

benötigen, werden auch die wichtigsten Modelle <strong>für</strong> die Verrechnung mit<br />

dem Kunden erläutert. Weiters enthält diese Arbeit eine Beschreibung von<br />

aktuellen DVB-H Projekte und zugehörigen Forschungsaktivitäten.<br />

MEDIZINISCHE UNIVERSITÄT WIEN<br />

Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme<br />

Reinhard EGELKRAUT<br />

Internationale Entwicklung des elektronischen lebensbegleitenden<br />

Gesundheitsakts am Beispiel Kanada und USA<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. DDr. Dorda<br />

Abstrakt: In den letzten Jahren kam es weltweit zu einer verstärkten<br />

Entwicklung auf dem Gebiet der elektronischen Gesundheitsakte, einer<br />

elektronischen Aufzeichnung der medizinischen Daten eines Patienten. Die<br />

österreichische Version wird als "Elektronischer Lebensbegleitender<br />

Gesundheitsakt", oder kurz ELGA, bezeichnet. In Österreich befindet man<br />

sich noch in der Planungsphase, daher ist es wichtig, sich an internationalen<br />

Strategien und Entwicklungen zu orientieren. Diese Vorgehensweise bietet<br />

die Möglichkeit auf bereits bestehendes Know-how<br />

aufzubauen und die Gefahr einer isolierten Einzellösung zu verringern.<br />

Zusätzlich lassen sich Fehler bei der Implementierung des ELGA bereits im<br />

Vorhinein vermeiden. Daher befasst sich diese Magisterarbeit mit der<br />

internationalen Entwicklung des elektronischen lebensbegleitenden<br />

Gesundheitsakts am Beispiel Kanadas und der USA. In beiden Ländern<br />

konzentriert man sich nicht nur auf die Entwicklungen der elektronischen<br />

53


Patientenakte, sondern vor allem auf die Implementierung von ganzen<br />

"Electronic Health Record"-Systemen. Diese interagieren mit anderen<br />

Informationssystemen, wie z.B. Laborinformationssystemen oder Systemen<br />

<strong>für</strong> diagnostische Bildgebung.<br />

Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme<br />

Isabella HINTERLEITNER<br />

Developing Ontologies for the Biomedical Semantic Web<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Univ.-Prof. Dr. Klaus-Peter Adlassnig<br />

Abstrakt: In den vergangenen Jahren hat das biomedizinische Semantische<br />

Web an Bedeutung zugenommen. Nicht zuletzt aufgrund der Tatsache, dass<br />

im medizinischen und biomedizinischen Bereich mehr Information als je<br />

vorliegt. Es gibt faktisch kein absehbares Ende dieses<br />

Informationswachstums. Mit all dieser Information ist es von großer<br />

Bedeutung, wie man all diese Information sinnvoll darstellt, um sie mit<br />

digitalen Maschinen zu verarbeiten. Datenkonzepte und Techniken wie man<br />

das Wissen abfragen kann sind ein großes Forschungsfeld. Dies ist eines<br />

der Hauptziele, die das Semantische Web erfüllt. Es fügt semantische<br />

Bedeutung zu bestehender Information und verbindet neue Information mit<br />

alter Information. Die Sprachen, die eingesetzt werden um dies zu<br />

erreichen, sind: XML – Extensible Markup Language, RDF – Resource<br />

Description Schema Language und OWL – Web Ontology Language. Sie<br />

werden in dieser Arbeit zusammen mit den Techniken XPath und XQuery<br />

hinsichtlich ihrer technischen und performanten Eigenschaften beschrieben.<br />

Dazu ergänzend werden Mechanismen, die <strong>für</strong> den Prozess der<br />

Datenmigration verwendet werden, beschrieben, wie zum Beispiel<br />

Ontologiekonzepte. Das Semantic Synapse Projekt, das von Matthias<br />

Samwald ins Leben gerufen wurde, beschäftigt sich damit aktuelle<br />

biomolekulare Information mittels einer Ontologie abruffähig zu machen. Ziel<br />

des Projekts ist es, ein synaptisches Portal in drei Stadien zu entwickeln. In<br />

der ersten Phase wird nach passenden Theorien <strong>für</strong> die Entwicklung, wie<br />

zum Beispiel welche Art von Wissen aus welcher Datenbank benötigt wird,<br />

gesucht. Die zweite Phase beschäftigt sich mit der Datenmigration, wobei<br />

hier der Konvertierungsprozess enthalten ist. Hierbei spielt auch das<br />

Mapping der verschiedenen Ontologien eine Rolle, um bei minimalem<br />

intellektuellen Einsatz das maximal Mögliche herauszuholen, indem bereits<br />

existierende Einheiten wieder verwendet werden. Diese Arbeit beschreibt<br />

hauptsächlich das zweite Stadium des Entwicklungsprozesses. Die dritte<br />

Phase umfasst die Entwicklung eines Harvesters um Wissen zu aggregieren<br />

und leicht zugänglich zu machen. Diese Arbeit gibt einen verständlichen<br />

Überblick, wie man Ontologien im biomedizinischen Bereich mit den aktuellen<br />

Technologien entwickelt. Schließlich beschäftigt sie sich mit den<br />

54


Erfahrungen, die mit der Software und den Werkzeugen während des<br />

Migrations- und Entwicklungsprozesses gemacht wurden.<br />

Institut <strong>für</strong> Medizinische Kybernetik und Artificial Intelligence<br />

Petr KADLEC<br />

Extraction of visual features for dynamic object recognition<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Georg Dorffner<br />

Institut <strong>für</strong> Medizinische Bildverarbeitung und Mustererkennung<br />

Sabine KOLICS<br />

Visualisierungstechnische Konzepte des 3D-Ultraschalls<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster<br />

Abstrakt: Diese Magisterarbeit beschreibt den technischen Hintergrund und<br />

die verschiedenen Visualisierungstechniken des 3D-Ultraschalls, die in der<br />

medizinischen <strong>Informatik</strong> zur Anwendung kommen. Physikalische Prinzipien,<br />

wichtige Charakteristika und Kenngrößen aus der Ultraschalltechnik werden<br />

erläutert. Unterschiedliche Artefakte, die unter bestimmten Umständen<br />

auftreten können, werden beschrieben und auf mögliche Abhilfen wird<br />

hingewiesen. Im Weiteren werden verschiedene Aufnahmetechniken mit<br />

ihren technischen Besonderheiten und ihren speziellen Einsatzgebieten in<br />

der Medizin beschrieben. Danach werden wichtige 3D-<br />

Visualisierungstechniken des 3D-Ultraschalls behandelt und zwei spezielle<br />

Visualisierungsmethoden vorgestellt und genauer beschrieben. Der<br />

diagnostische und therapeutische Nutzen des 3D-Ultraschalls in der Medizin<br />

wird deutlich herausgearbeitet. Die unterschiedlichen medizinischen<br />

Anwendungsgebiete werden mit Abbildungen, die aus 3D-Datensätzen<br />

gewonnen wurden, hinterlegt und beschrieben. Das Ziel meiner<br />

Magisterarbeit ist es, dem Interessierten einen umfassenden Überblick über<br />

den technischen Hintergrund, die wichtigsten Standard-<br />

Visualisierungstechniken, zwei sehr spezielle Visualisierungsmethoden und<br />

die unterschiedlichen medizinischen Anwendungsgebiete des 3D-Ultraschalls<br />

zu bieten.<br />

55


Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme<br />

Udo KRONBERGER<br />

Wissenserwerbssysteme <strong>für</strong> RHEUMexpert/Web<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Univ.-Prof. Dr. Klaus-Peter Adlassnig<br />

Abstrakt: Im Zuge dieser Magisterarbeit werden sowohl die theoretische<br />

Seite, als auch die praktische Entwicklung eines Werkzeugs zur grafischen<br />

Manipulation der Wissensbasis von RHEUMexpert/Web behandelt. Im<br />

Detail sollten graphische Komponenten <strong>für</strong> die Darstellung der Regeln der<br />

Wissensbasis entwickelt werden, sowie eine eigenständige Client-Server<br />

Applikation in Form eines Wissenserwerbssystems. Die Abschnitte der<br />

Arbeit bieten einen Überblick über folgende Themen: (x) Den derzeitigen<br />

Aufbau der Wissensbasis von RHEUMexpert/Web. (x) Hintergründe zu<br />

visuellen, diagrammbasierten Darstellungsformen in der<br />

Softwareentwicklung. (x) Eine Analyse der Anforderungen an das System. (x)<br />

Eine detaillierte Beschreibung des Entwurfes. Zum Abschluss werden<br />

mögliche zukünftige Erweiterungen des Systems diskutiert.<br />

Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme<br />

Shohreh MOTEDAEINY<br />

Internationale Entwicklung des elektronischen lebensbegleitenden<br />

Gesundheitsaktes am Beispiel Dänemark, Großbritannien, Australien und<br />

Neuseeland<br />

Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />

BetreuerIn: Ao.Univ.Prof. DDr. Dorda<br />

56<br />

Abstrakt: Heutzutage stehen viele Gesundheitssysteme weltweit vor großen<br />

Herausforderungen und Veränderungsprozessen. Eines dieser<br />

Herausforderungen ist die Entwicklung der Elektronischen Gesundheitsakte,<br />

welche in Österreich als „Elektronischer Lebensbegleitender<br />

Gesundheitsakt“, oder kurz ELGA, bekannt ist. Der Schwerpunkt dieser<br />

Arbeit ist die internationale Entwicklung des elektronischen,<br />

lebensbegleitenden Gesundheitsakts am Beispiel Dänemark, Großbritannien,<br />

Australien und Neuseeland. Im Kontext dieser Länder werden in dieser<br />

Arbeit einige Detailbereiche, wie zum Beispiel die verschiedenen Standards,<br />

Datenschutz und Datensicherheit, Zukunftsaussichten etc. näher<br />

beschrieben, um einen genaueren Überblick zu bekommen. Die Gliederung<br />

dieser Magisterarbeit ist in drei Hauptteile gegliedert. Im Kapitel 1 werden<br />

wichtige Informationen über die elektronische Gesundheitsakte, der aktuelle<br />

Status in Österreich, sowie einige Standardisierungen beschrieben, um eine<br />

bessere Vorstellung über diese Arbeit zu bekommen. Im zweiten Hauptteil<br />

dieser Arbeit (Kapitel 2) wird auf die nationale Umsetzung der


elektronischen Gesundheitsakte in Dänemark, Großbritannien, Australien<br />

und Neuseeland eingegangen. Darin werden u.a eine Übersicht über die<br />

EGA, die Entwicklungen, Standards, Datenschutz und Datensicherheit sowie<br />

ein Ausblick über zukünftige Entwicklungen in den einzelnen Ländern<br />

beschrieben. Im letzten Teil (Kapitel 3) wird eine Diskussion mit dem<br />

Vergleich zwischen den vier Ländern durchgeführt, mit einer detaillierten<br />

Beschreibung der wichtigsten Kriterien.<br />

UNIVERSITÄT WIEN<br />

Institut <strong>für</strong> Verteilte und Multimedia Systeme<br />

Markus DABERGER<br />

Quantitative Untersuchungen der Eigenschaften von Unsolicited Bulk E-Mail<br />

und Unsolicited Commercial E-Mail<br />

Studium: Magisterstudium Software Engineering und Internet Computing<br />

BetreuerIn: Univ. Ass. Dr. Wilfried Gansterer<br />

Abstrakt: In dieser Magisterarbeit werden die Eigenschaften von Spam E-<br />

Mails untersucht. Die <strong>Universität</strong> <strong>Wien</strong> sammelt seit einiger Zeit mit<br />

Spamtraps jeden Tag eine große Anzahl an unerwünschten E-Mails, die dem<br />

Autor zur Verfügung gestellt wurden, um damit eine von ihm erstellte<br />

Datenbank mit einem von ihm programmierten Tool zu befüllen. Dieses<br />

Dokument stellt das Ergebnis seiner Arbeit dar. Das verwendete Tool wird<br />

vorgestellt, alle an die Datenbank gestellten Abfragen werden anschaulich<br />

abgebildet, dabei viele verschiedene Eigenschaften und Inhalte von Spam E-<br />

Mails vorgestellt und sowohl Vergleiche zu erwünschten E-Mails wie auch zu<br />

anderen Statistiken im World Wide Web durchgeführt. Wo immer das<br />

möglich ist, wird außerdem versucht, markante Unterschiede zwischen<br />

Spam und Ham hervorzuheben, um Ansatzpunkte <strong>für</strong> weitere Forschungen<br />

in die Richtung der Spamerkennung zu bieten. Diese Magisterarbeit ist<br />

natürlich nur ein Anfang, ein Ansatzpunkt <strong>für</strong> weitere Forschungstätigkeiten.<br />

Viele Eigenschaften von Spam E-Mails sind noch kein Teil der Datenbank,<br />

viele Fragen bleiben unbeantwortet oder ergeben sich erst aus den<br />

durchgeführten Auswertungen.<br />

57


WIRTSCHAFTSUNIVERSITÄT WIEN<br />

Institut <strong>für</strong> Revisions-, Treuhand- und Rechnungswesen<br />

Krisztina JOO<br />

Die Rolle der Informationstechnologie in Banken - Mit Fokus auf die<br />

Bilanzierung und Bewertung von Finanzinstrumenten nach IAS 39<br />

Studium: Magisterstudium <strong>Informatik</strong>management<br />

BetreuerIn: Univ.-Prof. Dr. H. Peter Holzer<br />

Abstrakt: Die Rechnungslegung befindet sich gegenwärtig in einer<br />

historischen Umbruchsphase. Die Entwicklung ist vor allem durch die<br />

zunehmende Internationalisierung aller wirtschaftlichen Aktivitäten<br />

gekennzeichnet. Diese Entwicklung erhöhte den Bedarf an Informationen<br />

über international agierende Unternehmen in der ganzen Welt. Angesichts<br />

der gestiegenen Anforderungen, die u.a. aus der Internationalisierung der<br />

Märkte oder neuen gesetzlichen Regelungen (wie z.B. IFRS) resultieren, sind<br />

heute viele Banken gezwungen, erhebliche Investitionen in ihre IT-<br />

Infrastruktur, gleichermaßen in Hardware wie Software, zu tätigen.<br />

Bestehende IT-Systeme, vor allem Core-Banking-Systeme und damit das<br />

Herz der Bank, sind häufig selbst entwickelte Lösungen, die einen hohen<br />

Pflegeaufwand erfordern. Damit ist und bleibt der IT-Bereich ein<br />

Kostenfaktor, der die Ertragslage der Banken stark beeinflusst. Viele<br />

Kreditinstitute ziehen deshalb gegenwärtig einen Umstieg auf<br />

plattformunabhängiges Gesamtbanksystem in Betracht. Diese Diplomarbeit<br />

ist auf das Forschungsgebiet Informationstechnologie in Banken mit<br />

gezieltem Akzent auf Bilanzierung und Bewertung von Finanzinstrumenten<br />

nach dem IAS 39 fokussiert. Im Rahmen dieser Diplomarbeit stellt die<br />

Autorin die aus dem IAS 39 resultierenden Anforderungen vor und führt<br />

einen möglichen Lösungsansatz vor.<br />

58


I N D E X<br />

AUTORINNEN UND AUTOREN<br />

BALLUCH, Manfred, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

BANFIELD-MUMB-MÜHLHAIM, Alexander, Institut <strong>für</strong> Gestaltungs- und<br />

Wirkungsforschung - Arbeitsbereich Human Computer Interaction<br />

BAUER, Matthias, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

BENNAR, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

BISTRICKY, Florian, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

BITTNER, Ines, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />

Programmiersprachen und Übersetzerbau<br />

BRANDEJSKY, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitbereich Interaktive Mediensysteme<br />

BUGELMÜLLER, Bernhard, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />

Arbeitsbereich Human Computer Interaction<br />

CHOPRA, Manoj, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

COZOWICZ, Markus, Institut <strong>für</strong> Statistik und Wahrscheinlichkeitstheorie<br />

CSISINKO, Mathis, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitbereich Interaktive Mediensysteme<br />

DABERGER, Markus, Institut <strong>für</strong> Verteilte und Multimedia Systeme<br />

DANEK, Angela, Institut <strong>für</strong> Managementwissenschaften<br />

DAVIES, Marcin, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

EGELE, Manuel, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />

Systems<br />

EGELKRAUT, Reinhard, Institut <strong>für</strong> Medizinische Informations- und<br />

Auswertesysteme<br />

EHRENHÖFER, Michael, Institut <strong>für</strong> Managementwissenschaften<br />

ERB, Bernhard, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Rechnergestützte Automation<br />

ESSL, Stefan, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung - Arbeitsbereich<br />

Multidisciplinary Design<br />

FERRINGER, Markus, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich<br />

Embedded Computing Systems<br />

FESSL, Gerald, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />

Programmiersprachen und Übersetzerbau<br />

GERSTBACH, Peter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

GLADT, Matthias, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />

Systems<br />

59


GLATZ, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

GRATZER, Mario, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />

Arbeitsbereich Human Computer Interaction<br />

HARANT, Andrea, Institut <strong>für</strong> Computergraphik und Algorithmen - Arbeitsbereich<br />

Computergrafik<br />

HINTERLEITNER, Isabella, Institut <strong>für</strong> Medizinische Experten- und<br />

Wissensbasierte Systeme<br />

HÖFER, Alexander, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />

Arbeitsbereich Multidisciplinary Design<br />

HÖLLER, Martin, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich Real Time<br />

Systems<br />

ILLETSCHKO, Thomas, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Mustererkennung und Bildverarbeitung<br />

JEZEK, Thomas, Institut <strong>für</strong> Managementwissenschaften<br />

JOO, Krisztina, Institut <strong>für</strong> Revisions-, Treuhand- und Rechnungswesen<br />

JUDT, Christian, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />

Programmiersprachen und Übersetzerbau<br />

JUSZCZYK, Lukas, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />

Systems<br />

KADLEC, Petr, Institut <strong>für</strong> Medizinische Kybernetik und Artificial Intelligence<br />

KAMMERZELT, David, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />

Arbeitsbereich Multidisciplinary Design<br />

KASCHKE, Yvonne, Institut <strong>für</strong> Wirtschaftsmathematik<br />

KIRNER, Martin, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich Real Time<br />

Systems<br />

KITZER, Rene, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung - Arbeitsbereich<br />

Multidisciplinary Design<br />

KOLICS, Sabine, Institut <strong>für</strong> Medizinische Bildverarbeitung und Mustererkennung<br />

KRONBERGER, Udo, Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte<br />

Systeme<br />

LAZOWSKI, Jaroslaw, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich<br />

Distributed Systems<br />

LEBEDINSKI, Lara, Institut <strong>für</strong> Wirtschaftsmathematik<br />

LEHNER, Andreas, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

LEITNER, Markus Karl, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />

Arbeitsbereich Algorithmen und Datenstrukturen<br />

LIEBO, Robert, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitbereich Interaktive Mediensysteme<br />

LINHART, Arthur, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

LUKASSER, Joachim, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

MEIER, Michael, Institut <strong>für</strong> Raumentwicklung, Infrastruktur und Umweltplanung<br />

MITTER, Florian, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />

Systems<br />

60


MOSER, Michael, Institut <strong>für</strong> Managementwissenschaften<br />

MOTEDAEINY, Shohreh, Institut <strong>für</strong> Medizinische Informations- und<br />

Auswertesysteme<br />

MOTEDAYEN, Fabriba, Institut <strong>für</strong> Handhabungsgeräte und Robotertechnik<br />

NADSCHLÄGER, Elmar, Institut <strong>für</strong> Breitbandkommunikation<br />

NAGL, Christioph, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />

Systems<br />

ORTIZ DE LA FUENTE, Maria Magdalena, Institut <strong>für</strong> Informationssysteme -<br />

Arbeitsbereich Knowledge Based Systems<br />

PAESOLD, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

PANY, Arno, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

PEZZEI, Roland, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

PIRNGRUBER, Thomas, Institut <strong>für</strong> Rechnergestützte Automation -<br />

Arbeitsbereich Automatisierungssysteme<br />

PRADER, Albrecht, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

PRANTL, Adrian, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />

Programmiersprachen und Übersetzerbau<br />

PRINZ, Mario, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Business Informatics<br />

RAINER, Christa, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

RICHTER, Helene, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

ROBINSON, Peter, Institut <strong>für</strong> Computersprachen - Arbeitsbereich Theoretische<br />

<strong>Informatik</strong> und Logik<br />

ROTH, Heinz, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

ROZSNYAI, Szabolcs, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

SAUPP, Martin, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

SCHIEFER, Anneliese, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

SCHIMAK, Florian, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />

Arbeitsbereich Human Computer Interaction<br />

SCHÖRGENDORFER, Angela, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich<br />

Real Time Systems<br />

SCHRAMEL, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

SCHRAMMEL, Peter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

SILBERBAUER, Lukas-Sebastian, Institut <strong>für</strong> Mechanik und Mechatronik -<br />

Arbeitsbereich Intelligente Handhabungs- und Robotertechnik<br />

61


SIMKUS, Mantas, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Knowledge<br />

Based Systems<br />

SPIELMANN, Georg, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />

Arbeitsbereich Computergrafik<br />

STARIBACHER, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Business Informatics<br />

STEGERWALD, Wilhelm Maximilian, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />

Systeme<br />

STEIGERWALD, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme<br />

STEINER, Christian, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />

Arbeitsbereich Computergrafik<br />

STROBL, Reinhold, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />

Programmiersprachen und Übersetzerbau<br />

S<strong>TU</strong>MPFL, Gerd, Institut <strong>für</strong> Managementwissenschaften<br />

SUNK, Walter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Business Informatics<br />

TAING, Stefan Khao-I-Dang, Institut <strong>für</strong> Handhabungsgeräte und Robotertechnik<br />

TESAR, Michael, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />

Arbeitsbereich Human Computer Interaction<br />

TISCHLER, David, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />

Systems<br />

<strong>TU</strong>SCHL, Richard, Institut <strong>für</strong> Verfahrenstechnik, Umwelttechnik und Techn.<br />

Biowissenschaften<br />

UNTERBERGER, Josef, Institut <strong>für</strong> Managementwissenschaften<br />

URBANCZYK, Wojciech, Institut <strong>für</strong> Rechnergestützte Automation -<br />

Arbeitsbereich Automatisierungssysteme<br />

VARGA, Christian, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich Embedded<br />

Computing Systems<br />

WÄCKERLE, Manuel, Institut <strong>für</strong> Wirtschaftsmathematik<br />

WAHBEH, Jamil, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />

Arbeitsbereich Information und Software Engineering<br />

WANDALLER, Armin, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />

Automatisierungssysteme<br />

WEBER, Markus, Institut <strong>für</strong> Managementwissenschaften<br />

WESSELY, Klemens, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />

Arbeitsbereich Human Computer Interaction<br />

WOHLFAHRT, Michael, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />

Arbeitsbereich Computergraphik<br />

WONDRACEK, Gilbert, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich<br />

Distributed Systems<br />

ZEHENTNER, Leonhard, Institut <strong>für</strong> Wirtschaftsmathematik<br />

62


INSTI<strong>TU</strong>TE<br />

INSTI<strong>TU</strong>TE DER FAKULTÄT FÜR INFORMATIK AN DER <strong>TU</strong> WIEN<br />

INSTI<strong>TU</strong>T FÜR TECHNISCHE INFORMATIK 5<br />

Arbeitsbereich Real Time Systems 5<br />

Arbeitsbereich Embedded Computing Systems 6<br />

INSTI<strong>TU</strong>T FÜR RECHNERGESTÜTZTE AUTOMATION 8<br />

Arbeitsbereich Automatisierungssysteme 8<br />

Arbeitsbereich Mustererkennung und Bildverarbeitung 12<br />

INSTI<strong>TU</strong>T FÜR INFORMATIONSSYSTEME 14<br />

Arbeitsbereich Distributed Systems 14<br />

Arbeitsbereich Knowledge Based Systems 18<br />

INSTI<strong>TU</strong>T FÜR COMPUTERSPRACHEN 20<br />

Arbeitsbereich Programmiersprachen und Übersetzerbau 20<br />

Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik 22<br />

INSTI<strong>TU</strong>T FÜR COMPUTERGRAPHIK UND ALGORITHMEN 23<br />

Arbeitsbereich Algorithmen und Datenstrukturen 23<br />

Arbeitsbereich Computergrafik 24<br />

INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND WIRKUNGSFORSCHUNG 26<br />

Arbeitsbereich Multidisciplinary Design 26<br />

Arbeitsbereich Human Computer Interaction 28<br />

INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND INTERAKTIVE SYSTEME 33<br />

Arbeitsbereich Information und Software Engineering 33<br />

Arbeitsbereich Interaktive Mediensysteme 40<br />

Arbeitsbereich Business Informatics 43<br />

63


WEITERE INSTI<strong>TU</strong>TE DER <strong>TU</strong> WIEN<br />

Institut <strong>für</strong> Wirtschaftsmathematik 45<br />

Institut <strong>für</strong> Statistik und Wahrscheinlichkeitstheorie 46<br />

Institut <strong>für</strong> Verfahrenstechnik, Umwelttechnik und Techn. Biowiss. 47<br />

Institut <strong>für</strong> Raumentwicklung, Infrastruktur und Umweltplanung 47<br />

Institut <strong>für</strong> Handhabungsgeräte und Robotertechnik 47<br />

Institut <strong>für</strong> Managementwissenschaften 49<br />

Institut <strong>für</strong> Breitbandkommunikation 52<br />

MEDIZINISCHE UNIVERSITÄT WIEN 53<br />

Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme 53<br />

Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme 54<br />

Institut <strong>für</strong> Medizinische Kybernetik und Artificial Intelligence 55<br />

Institut <strong>für</strong> Medizinische Bildverarbeitung und Mustererkennung 55<br />

Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme 56<br />

Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme 56<br />

UNIVERSITÄT WIEN 57<br />

Institut <strong>für</strong> Verteilte und Multimedia Systeme 57<br />

WIRTSCHAFTSUNIVERSITÄT WIEN 58<br />

Institut <strong>für</strong> Revisions-, Treuhand- und Rechnungswesen 58<br />

64


KONTAKT<br />

http://www.informatik.tuwien.ac.at<br />

Zentrum <strong>für</strong> Koordination und Kommunikation der<br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />

Favoritenstraße 9/195<br />

1040 <strong>Wien</strong><br />

[IN:N]<br />

<strong>Informatik</strong>-Netzwerk <strong>für</strong> Absolventinnen und Absolventen der<br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> und andere interessierte Personen<br />

http://inn.tuwien.ac.at<br />

IMPRESSUM<br />

Konzept, Graphische Gestaltung: Dipl.-Ing. Karin Hraby<br />

© 2006 <strong>Technische</strong> <strong>Universität</strong> <strong>Wien</strong><br />

<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!