e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...
e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...
e p i l o g - Fakultät für Informatik, TU Wien - Technische Universität ...
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
e p i l o g<br />
Präsentation der<br />
Diplom- und Masterarbeiten<br />
der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Wintersemester 2006/07
Diese Veranstaltung der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> wird unterstützt von:
e p i l o g<br />
Die <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> präsentiert die Diplom- und Masterarbeiten<br />
des letzten halben Jahres in einer Posterausstellung und ausgewählten<br />
Vorträgen. Ziel der Veranstaltung ist es, einen Einblick in das breite<br />
Spektrum der Themen und Aufgabenstellungen der Abschlussarbeiten an<br />
den verschiedenen Instituten und Arbeitsbereichen zu geben. Für die<br />
beste Diplomarbeit wird der „Distinguished Young Alumnus/Alumna”-<br />
Award vergeben.<br />
P R O G R A M M<br />
8. November 2006<br />
15:00 Uhr Eröffnung der Posterausstellung<br />
unter Anwesenheit der AutorInnen und BetreuerInnen der ausgestellten<br />
Posters.<br />
16:00 Uhr Vorträge<br />
• Begrüßung und Einleitung<br />
Rektor Peter Skalicky, Dekan Gerald Steinhardt<br />
• Vorträge zu den nominierten Diplomarbeiten<br />
• Gastvortrag: DI Tina Reisenbichler<br />
Manufactoring Industries, T-Systems Austria<br />
„Zukunftschancen von <strong>Informatik</strong>-AbsolventInnen in Zeiten von<br />
Globalisierung und Outsourcing.“<br />
18:30 Uhr Auszeichnung der besten Diplomarbeit und des<br />
besten Posters mit anschließendem Büffet<br />
3
V O R T R Ä G E<br />
Aus den von den Instituten nominierten Vorträgen wird von einer Jury<br />
(bestehend aus WissenschafterInnen der <strong>Fakultät</strong>) ein/e AbsolventIn als<br />
„Distinguished Young Alumnus/Alumna” der <strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
ausgezeichnet. Beurteilungskriterien sind dabei die Diplomarbeit sowie<br />
der Vortrag. Darüber hinaus wird auch das beste Poster ausgezeichnet.<br />
Thomas Illetschko: Minimal Combinatorial Maps for analyzing 3D Data<br />
Institut <strong>für</strong> Rechnergestützte Automation, Arbeitsbereich<br />
Mustererkennung und Bildverarbeitung<br />
Maria Magdalena Ortiz de la Fuente: Ontologies as Data Repositories:<br />
Data Complexity of Expressive Description Logics<br />
Institut <strong>für</strong> Informationssysteme, Arbeitsbereich Knowledge Based<br />
Systems<br />
Peter Robinson: Log File Processing by Machine Learning and<br />
Information Extraction<br />
Institut <strong>für</strong> Computersprachen, Arbeitsbereich Theoretische <strong>Informatik</strong><br />
und Logik<br />
Christian Steiner: Shadow Volumes in Complex Scenes<br />
Institute <strong>für</strong> Computergraphik und Algorithmen, Arbeitsbereich<br />
Computergraphik<br />
4
D I P L O M A R B E I T E N<br />
INSTI<strong>TU</strong>T FÜR TECHNISCHE INFORMATIK<br />
Arbeitsbereich Real Time Systems<br />
Martin HÖLLER<br />
Gateway Generation for Virtual Networks in the DECOS Integrated<br />
Architecture<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />
Martin KIRNER<br />
Automatic Loop Bound Analysis of Programs written in C<br />
Studium: Magisterstudium Technisch <strong>Informatik</strong><br />
BetreuerIn: Ao. Univ.-Prof. Dr. Peter Puschner<br />
Abstrakt: Das Wissen um die maximale Ausführungszeit ist wichtig <strong>für</strong> das<br />
Design von Echtzeitsystemen. Ohne einer sicheren oberen Grenze <strong>für</strong> die<br />
Ausführungszeit kann nicht garantiert werden, dass das System alle seine<br />
zeitlichen Grenzen einhält. Als Teil der Analyse der maximalen<br />
Ausführungszeit ist es wichtig zu wissen, wie oft der Schleifenrumpf bei<br />
erstmaligen Treffen auf den Schleifenkopf ausgeführt wird. Traditionell wurde<br />
diese Begrenzung zur Unterstützung der zeitlichen Analyse explizit als<br />
Kommentar in den Quellcode eingefügt. Diese Diplomarbeit präsentiert eine<br />
Methode, welche eine untere und eine obere Grenze <strong>für</strong> die Anzahl der<br />
Durchläufe von verschieden Schleifentypen durch Analyse der Semantic<br />
eines in der Programmiersprache C geschriebenen Quellcodes berechnet.<br />
Nur wenn die Anzahl der Schleifendurchläufe von unbekannten<br />
Variablenwerten abhängt, sind zusätzliche Kommentare mit<br />
Wertebegrenzungen dieser Variablen im Quellcode erforderlich. Die Analyse<br />
der Schleifen wird auf dem Level des Quellcodes durchgeführt. Für jede<br />
unterstützte Schleife wird das Ergebnis der Berechnung in den Quellcode,<br />
zur Unterstützung weiterer WCET Analyseschritte, als Kommentar<br />
zurückgeschrieben.<br />
Angela SCHÖRGENDORFER<br />
Extended Confidence-weighted-Averaging in Sensor Fusion<br />
Studium: Magisterstudium Intelligente Systeme<br />
BetreuerIn: O.Univ.Prof. Dr. Hermann Kopetz<br />
5
Abstrakt: Sensor Fusion bezeichnet die Zusammenführung von<br />
Informationen, die von mehreren verschiedenen Sensoren eines Systems<br />
ermittelt wurden, mit dem Ziel, eine genaueres, verlässlicheres und<br />
umfassenderes Bild der Umwelt zu erhalten. Jeder einzelne Sensor ist nur<br />
bedingt zuverlässig, da er von Faktoren wie Umwelteinflüssen oder<br />
zufälligem Rauschen beeinflusst wird, oder gar ausfallen kann. Relevante<br />
Funktionen und Entscheidungen sollten daher nicht auf Informationen, eines<br />
einzigen Sensors basieren. Diese Arbeit betrachtet derzeitige Techniken der<br />
Sensor Fusion, im Speziellen der Vereinigung von Sensorrohdaten.<br />
Ausgehend von dabei identifizierten Schwächen wird eine neue Methode <strong>für</strong><br />
die zustandslose Fusion von Sensorrohdaten präsentiert - die der<br />
erweiterten konfidenzgewichteten Mittelwerte. Basierend auf der Methode<br />
der konfidenzgewichteten Mittelwerte berücksichtigt dieser neue<br />
Algorithmus zusätzlich Korrelationen zwischen den Fehlern der einzelnen<br />
Sensoren. Die Vorteile, die daraus zu erwarten sind, sind eine Verbesserung<br />
der Genauigkeit des Ergebnisses einerseits und eine verlässlichere<br />
Schätzung der verbleibenden Unsicherheit andererseits. Die<br />
Verbesserungen durch diesen neuen Ansatz gegenüber bereits bestehenden<br />
werden schließlich anhand Analysen von Messungen, die von einem mobilen<br />
Roboter durchgeführt wurden, gezeigt.<br />
Arbeitsbereich Embedded Computing Systems<br />
Markus FERRINGER<br />
An Asynchronous Hardware Design for Distributed Tick Generation<br />
Studium: Magisterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr.Andreas Steininger<br />
6<br />
Abstrakt: The main topic of this diploma thesis is the hardwareimplementation<br />
of a distributed fault tolerant algorithm, which generates<br />
local (clock-)ticks that are, within a certain precision, synchronous to each<br />
other. This work is done in the context of DARTS (Distributed Algorithms for<br />
Robust Tick Synchronization) and is funded by the BMVIT within the scope of<br />
FIT-IT. DARTS is a joint project between the Institute for Computer<br />
Engineering — Embedded Computing Systems Group at the Vienna<br />
University of Technology and Austrian Aerospace GmbH. The motivation of<br />
the project is to avoid the use of global clock signals and the related<br />
disadvantages: Single nodes generate local tick-transitions in dependence<br />
upon each other. The underlying distributed algorithm assures that these<br />
transitions occur within a certain but evaluable time span at all (non-faulty)<br />
nodes. Therefore, the different clocks do not drift apart, which<br />
makes explicit resynchronization obsolete. Based on the algorithm,<br />
functional units are identified and modified such that a high-performance and<br />
area-saving hardware realization is feasible. Since the logic is designed to<br />
generate a clock signal, it has to meet asynchronous design paradigms.<br />
Thereby, one of the most important gates is the Muller- C-Element, which is
a basic part of various asynchronous modules like, for example,<br />
micropipelines. This work describes two different hardware<br />
implementations: On the one hand, there is a non-optimized design for an<br />
FPGA board, which is used to test the correct behaviour of the underlying<br />
algorithm. In addition, an area and speed-optimized ASIC design is<br />
developed, which shall form the basis for the fabrication of a prototype.<br />
Thereby, the logic needs to meet several constraints which can only be<br />
fulfilled by clever place and route.<br />
Christian VARGA<br />
Analyse und Implementierbarkeit einer aktiven Schallunterdrückungslösung in<br />
Hardware<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Steininger<br />
Abstrakt: Durch die enormen Fortschritte der Halbleitertechnik sind aktive<br />
Schallunterdrückungsmethoden ökonomisch realisierbar geworden. Die<br />
gesteigerte Leistungsfähigkeit verfügbarer Mikroprozessoren und dem<br />
Einsatz von dedizierter Hardware - wie zum Beispiel FPGAs - ist es möglich<br />
geworden flexible und portable Systeme zur aktiven Dämpfung von<br />
Schallwellen zu entwickeln. Während jedoch in vielen Abhandlungen nur die<br />
Theorie eine Rolle spielt, soll diese Arbeit dazu dienen, die praktischen<br />
Aspekte einer Realisierung zu untersuchen. Zu diesem Zweck sollen die<br />
Algorithmen der LMS (least mean square) Familie untersucht werden, um<br />
eine Aussage über die Güte einer erreichbaren Schalldämpfung zu erhalten.<br />
Es soll weiters die Auswirkung der zugrunde liegenden Arithmetik unter die<br />
Lupe genommen werden. Diese Notwendigkeit resultiert aus der<br />
Komplexität der Implementierung einer Gleitkommalösung. Dazu werden<br />
Filter mit Gleitkomma- und Fixkommaarithmetik in Hinsicht auf Konvergenz<br />
verglichen. Nachdem gezeigt wurde, daß der Einsatz dieser Algorithmen<br />
durchaus<br />
vertretbar ist, soll ein weiterer Schritt in Richtung Hardware gesetzt<br />
werden. Dabei wird der Aufbau schematisch dargestellt und die einzelnen<br />
Komponenten auf ihr Übertragungsverhalten hin überprüft. Durch diese<br />
Daten und die Erfahrungen aus den Simulationen, kann nun eine Aussage<br />
über die Realisierung getroffen werden. Im Laufe der Untersuchung werden<br />
Grenzen aufgezeigt, die besonders das Konvergenzverhalten und die Arten<br />
von Schall, welche bedämpft werden können, betreffen. Es ist im Laufe der<br />
Arbeit bestätigt worden, daß es nur theoretisch möglich ist beliebigen Schall<br />
zu eliminieren und, daß die Wahl der Parameter des Filters von<br />
entscheidender Bedeutung ist.<br />
7
INSTI<strong>TU</strong>T FÜR RECHNERGESTÜTZTE AUTOMATION<br />
Arbeitsbereich Automatisierungssysteme<br />
Manfred BALLUCH<br />
Entwicklung und Einsatzmöglichkeiten von Composite Applications basierend<br />
auf der Enterprise Services Architecture am Beispiel der Automobilindustrie<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Matthias BAUER<br />
Analyse und Entwurf einer XML basierenden Kommunikationsarchitektur zur<br />
Abbildung formularbasierter Genehmigungsprozesse am Beispiel einer<br />
Kommunalen Verwaltung<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Manoj CHOPRA<br />
Entwurf und Implementierung eines GIS basierten online<br />
Bürgerbeteiligungssystems<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Marcin DAVIES<br />
Towards a Knowledge Portal for European Research Projects<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
8<br />
Abstrakt: Wissenschaftliche Forschung ist heutzutage hauptsächlich durch<br />
gemeinsame Anstrengungen geprägt, wobei ein effizienter Austausch von<br />
Wissen entscheidend ist, um der zunehmenden Komplexität neuer<br />
Forschungsthemen gerecht werden zu können. Angesichts der speziellen<br />
Situation der europäischen Forschung und Europas ehrgeizigem Ziel, der<br />
international führende Forschungsraum zu werden, behandelt diese Arbeit<br />
die Frage, in welcher Form man technologische Unterstützung <strong>für</strong> den<br />
erfolgreichen Wissensaustausch innerhalb gesamteuropäischer<br />
Forschungsprojekte bereitstellen kann. Diese Arbeit gibt einen Überblick<br />
über die theoretischen und technischen Grundlagen des<br />
Wissensaustausches und erläutert die Charakteristika wissenschaftlicher<br />
Kooperation. Darauf basierend werden sowohl organisatorische als auch<br />
technische Anforderungen <strong>für</strong> den Austausch und das Verteilen von
forschungsrelevantem Wissen behandelt. Als allgemeine Herausforderungen<br />
auf der organisatorischen Ebene sind die Herstellung einer Kultur des<br />
Teilens und Probleme, denen wissenschaftliche Rivalität und ein Mangel an<br />
Vertrauen zugrunde liegen, zu nennen. Auf der technischen Seite müssen<br />
Systeme geboten werden, welche einfach zu verwenden, aber dennoch<br />
leistungsfähig sind. Eine Reihe erweiterter Funktionen ist ebenfalls<br />
notwendig, um die fehlende Nähe zwischen internationalen Forschern und<br />
Forscherinnen auszugleichen. In Anbetracht der derzeitigen<br />
Forschungssituation in Europa, welche durch eine starke Fragmentierung<br />
wissenschaftlicher Aktivitäten und Ressourcen gekennzeichnet ist, beinhaltet<br />
diese Arbeit die Fallstudie eines Forschungsprojektes innerhalb des sechsten<br />
Forschungsrahmenprogramms und analysiert Defizite untersuchter Systeme<br />
und Anwendungen. Im Wesentlichen beeinträchtigen mangelnde<br />
Funktionalität, Verwendbarkeit und Einheitlichkeit die gegenwärtigen<br />
technischen Implementierungen. Zusätzlich werden die Probleme<br />
vorhandener Lösungen durch das Fehlen offizieller und wieder verwendbarer<br />
Frameworks verstärkt. Infolgedessen werden Bemühungen, eine<br />
funktionierende technische Infrastruktur zu entwickeln, erschwert, der<br />
Einsatz von effizienter Technologie verzögert und Konsistenz und<br />
Einheitlichkeit verhindert. Als ein Vorschlag in Richtung einer wieder<br />
verwendbaren und erweiterbaren Plattform <strong>für</strong> den Austausch von<br />
forschungsrelevantem Wissen stellt diese Arbeit einen technischen Entwurf<br />
eines Wissensportals <strong>für</strong> europäische Forschungsprojekte vor. Auf der<br />
Basis eines Open-Source Content Management Systems, welches eine<br />
flexible und erweiterbare Infrastruktur bereitstellt, zeigt der vorliegende<br />
Prototyp konkrete Implementierungsmöglichkeiten auf und verfolgt dabei die<br />
Ideen der Portal-Technologie, welche aus der Notwendigkeit von<br />
Unternehmen, einen einheitlichen Zugang zu relevanten Informationen und<br />
Diensten zu schaffen, stammt. Neben der Vereinheitlichung von Wissensund<br />
Contentmanagement und der Einbindung von Interaktions- und<br />
Personalisierungstechniken macht der hohe Grad an Funktionalität,<br />
Benutzbarkeit und Integration Wissensportale zu einem viel versprechenden<br />
Ansatz <strong>für</strong> die effektive Unterstützung des Wissensaustausches in verteilten<br />
Forschungsumgebungen.<br />
Bernhard ERB<br />
Safety Related Mechanisms in Networked Building Automation Systems<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dipl.-Ing. Dr. Wolfgang Kastner<br />
Andreas LEHNER<br />
Integrierte Objekte als periphere Informationsträger - Entwurf einer<br />
Taxonomie <strong>für</strong> Ambient Displays<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
9
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: Informationstechnologie findet in modernen Lebensumgebungen<br />
immer stärkere Verbreitung. Das erhöhte Potential an technologischen<br />
Endgeräten führt zu starker kognitiver Belastung beim Benutzer und<br />
aufdringlicher Technologie. Ambient Displays als Informationsmedien, die<br />
minimale Aufmerksamkeit benötigen und in die physische Umgebung<br />
integriert sind, stellen eine mögliche Lösung <strong>für</strong> die Beruhigung der<br />
Umgebung dar. Die Vielseitigkeit an Realisierungsmöglichkeiten von Ambient<br />
Displays, die zahlreichen Einflussfaktoren und die Eigenschaft als junges<br />
Forschungsfeld der HCI führen zu Problemfeldern, wie der Existenz einer<br />
unzureichenden Anzahl von Evaluierungsmethoden und Richtlinien <strong>für</strong> Design<br />
und Gestaltung. Weiters stellen Ambient Displays einen eher<br />
unorganisierten und schwach abgegrenzten Forschungsbereich dar. Die<br />
Entwicklung einer Taxonomie ist ein erster Schritt diese Problemfelder zu<br />
bewältigen. Durch die genaue Analyse einer nahezu kompletten Sammlung<br />
bisher existierender Ambient Displays werden wesentliche Eigenschaften von<br />
Ambient Displays herausgearbeitet. Aufbauend auf den Ergebnissen dieser<br />
Analyse werden die wichtigsten Eigenschaften zu Kriterien und<br />
Designdimensionen zusammengefasst, mit deren Hilfe eine Kategorisierung<br />
von Ambient Displays möglich wird. Durch die Zuordnung einer geeigneten<br />
Metrik zur jeweiligen Designdimension werden die einzelnen<br />
Anwendungen bewertet und in eine Taxonomie überführt. Das Ergebnis der<br />
entwickelten Taxonomie kann als Grundlage dienen, Trends und bisherige<br />
Entwicklungen offensichtlich zu machen und so eine theoretische Basis <strong>für</strong><br />
weitere Arbeiten im Bereich der Ambient Displays schaffen.<br />
Arthur LINHART<br />
Darstellung und Restklassifizierung von Forschungsschwerpunkten im<br />
Bereich des Software-Qualitätsmanagements<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Joachim LUKASSER<br />
Regelungstechnik mit Mathematica<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Kastner<br />
Roland PEZZEI<br />
Herleitung und Spezifikation einer sicherheitserzeugenden dezentralen<br />
Systemkomponente <strong>für</strong> eine landesweite Gesundheitstelematik<br />
10
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Thomas PIRNGRUBER<br />
Projektorganisatorische Analyse und Klassifizierung von State-of-the-Art<br />
Softwareentwicklungs-Prozessmodellen<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Christa RAINER<br />
Änderungsfreundliche Strukturen von ERP Systemen am Fallbeispiel Axapta<br />
Studium: Magisterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Helene RICHTER<br />
The Impact of Inaccurate Social Perception on Conflicts in Small Software<br />
Engineering Teams<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Martin SAUPP<br />
Stabile und effiziente IT-Infrastruktur <strong>für</strong> kleine und mittelständische Betriebe<br />
auf Basis von Open Source Projekten<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Wojciech URBANCZYK<br />
Erhöhung des Sicherheitsniveaus durch Komplexitätsreduktion in<br />
Netzwerken auf basis einer Migration von IPv4 auf IPv6<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Abstrakt: In technischen Systemen stellen Komplexität und Sicherheit duale<br />
Eigenschaften dar. Im sich rasch entwickelnden Bereich der<br />
Netzwerktechnologie war in der vergangenen Dekade das Auftreten einer<br />
Vielzahl von Sicherheitsproblemen beobachtbar. Diese betrafen und<br />
betreffen auch heute sowohl die Vertraulichkeit, Authentizität und Integrität<br />
11
übertragener Informationen als auch die Verfügbarkeit der diese<br />
Informationen verarbeitenden Systeme. Einen wesentlichen Anteil am<br />
Entstehen dieser Sicherheitsprobleme haben neben der Missachtung von<br />
Sicherheitsthemen während der initialen Entwicklung des Internet Protokolls<br />
Version 4 (IPv4) vor allem die rasche funktionale und quantitative<br />
Weiterentwicklung des Internets und der damit verbundenen Systeme. Der<br />
stetige Wandel an zu berücksichtigenden und auf IPv4 aufbauenden<br />
Protokollen und Diensten erhöht kontinuierlich die von Entwicklern,<br />
Administratoren und Endanwendern zu überblickende systemische<br />
Komplexität. Durch diesen Wandel treten auch überwunden geglaubte<br />
Sicherheitsprobleme erneut auf, wie das Beispiel der Einführung von<br />
drahtlosen Netzwerkverbindungen über leicht abzuhörende WLAN-<br />
Technologien zeigt. Für diese Sicherheitsprobleme werden zwar im einzelnen<br />
Lösungen gefunden und auch umgesetzt, da diese aber nicht Teil eines<br />
ganzheitlichen Konzeptes sind, werden wiederum Entwickler,<br />
Administratoren und Endanwender mit einer steigenden Zahl an möglichen<br />
Optionen zur sicheren Gestaltung von Systemen konfrontiert. Mit der<br />
vorliegenden Arbeit werden anhand eines Vergleichs konkreter Aspekte von<br />
IPv4 und IPv6 wesentliche sicherheitstechnische, aber auch letztendlich<br />
wirtschaftliche Vorteile einer Migration zu IPv6 unter dem Aspekt einer<br />
Reduktion der gewachsenen Komplexität argumentiert. Da bei<br />
Migrationsprojekten im allgemeinen und bei Größenordnungen wie dem<br />
Umstieg von IPv4 auf IPv6 besonders in der Migrationsphase eine weitaus<br />
höhere Komplexität vorliegt als vor Beginn der Migration bzw. nach deren<br />
erfolgreichen Abschluss, werden in dieser Arbeit verschiedene<br />
Migrationsstrategien verglichen.<br />
Armin WANDALLER<br />
Analyse und Prototypische Implementierung einer<br />
Kommunikationsarchitektur <strong>für</strong> die moderne öffentliche Verwaltung<br />
basierend auf der Interaktion von atomaren Services<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Thomas Grechenig<br />
Arbeitsbereich Mustererkennung und Bildverarbeitung<br />
Thomas ILLETSCHKO<br />
Minimal Combinatorial Maps for analyzing 3D Data<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Walter Kropatsch<br />
12<br />
Abstrakt: Das Konzept kombinatorischer Karten bzw. irregulärer Pyramiden,<br />
die aus kombinatorischen Karten bestehen, bietet zahlreiche Vorteile <strong>für</strong><br />
Applikationen im Bereich Mustererkennung und Bildverarbeitung. Im
Speziellen ist die Möglichkeit die topologische Struktur von Daten abzubilden<br />
oft eine wichtige Voraussetzung <strong>für</strong> solche Applikationen. Obwohl<br />
kombinatorische Karten <strong>für</strong> Daten beliebiger Dimensionalität definiert sind,<br />
haben sich bisherige Studien zumeist auf 2D konzentriert. In der Folge<br />
existieren nur wenige Ergebnisse <strong>für</strong> die Verwendung kombinatorischer<br />
Karten <strong>für</strong> Daten höherer Dimension. Diese Diplomarbeit untersucht die<br />
Eigenschaften dreidimensionaler kombinatorischer Karten mit dem<br />
Hauptaugenmerk auf der Erzeugung minimaler Karten mittels Contractionund<br />
Removal-Operationen. Dazu werden zusätzlich zu den Operationen 10<br />
formale Vorbedingungen definiert, die garantieren, dass die Anwendung<br />
dieser Operationen eine vereinfachte, korrekte und topologisch äquivalente<br />
kombinatorische Karte erzeugt. Es wird gezeigt, dass diese Operationen mit<br />
ihren Vorbedingungen ausreichen, um jede kombinatorische Karte, die<br />
bestimmten Kriterien genügt, zu einer minimalen Karte zu vereinfachen. Die<br />
Repräsentation topologischer Beziehungen in minimalen Konfigurationen<br />
wird untersucht, und es wird gezeigt, dass primitive topologische<br />
Beziehungen anhand von Pseudo-Elementen erkannt und unterschieden<br />
werden können. Minimale kombinatorische Karten haben daher großes<br />
Potential <strong>für</strong> die Analyse dreidimensionaler Daten. Sie eignen sich zur<br />
Repräsentation und Unterscheidung topologischer Relationen während ihre<br />
geringe Größe eine effiziente Verarbeitung ermöglicht.<br />
13
INSTI<strong>TU</strong>T FÜR INFORMATIONSSYSTEME<br />
Arbeitsbereich Distributed Systems<br />
Manuel EGELE<br />
Behaviour-Based Spyware Detection Using Dynamic Taint Analysis<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Abstrakt: Diese Diplomarbeit beschreibt TQAna -- ein Werkzeug zum<br />
Aufspüren von Spyware mittels verhaltens-basierter Analyse. Das Erstellen<br />
und Verteilen von Signaturen <strong>für</strong> die heute üblichen Anti-Spyware Produkte<br />
ist eine Herausforderung <strong>für</strong> die Hersteller, und selbst wenn die<br />
Signaturdatenbanken immer aktuell gehalten werden, können diese Produkte<br />
keine unbekannten Bedrohungen erkennen. Wir sind davon überzeugt, dass<br />
eine verhaltens-basierte Analyse durchaus in der Lage ist dieses Manko<br />
auszubessern. TQAna basiert im wesentlichen auf zwei Ansätzen; der taint<br />
Analyse und dem Beobachten von Funktionsaufrufen, um eine dynamische<br />
Analyse in einem emulierten System vorzunehmen. Während das System<br />
durch die taint Analyse in der Lage ist die Bewegungen von sensiblen Daten<br />
auf Hardware-Ebene zu verfolgen, decken die überwachten Funktionen alle<br />
Aspekte des Windows Betriebssystems, wie Dateisystem-, oder<br />
Netzwerkzugriffe ab. Die Analyse konzentriert sich auf so genannte Browser<br />
Helper Objects die erweiterte Funktionen <strong>für</strong> den Microsoft Internet Explorer<br />
beinhalten. Während der Analyse wird ein detailliertes Protokoll erstellt das<br />
alle beobachteten Vorgänge im System enthält und jene Vorgänge die<br />
getaintete Daten verwenden besonders hervorhebt. Während der Evaluation<br />
von TQAna konnten wir feststellen, dass die erstellten Protokolle tiefe<br />
Einblicke in die Vorgänge des Windows Betriebssystems geben und dass<br />
unser verhaltens- basierter Ansatz wirklich in der Lage ist, bisher<br />
unbekannte Bedrohungen zu entdecken.<br />
14<br />
Matthias GLADT<br />
Implementation und Evaluation of Replication Protocols using the Neko<br />
Framework<br />
Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />
BetreuerIn: Projektass. Dr. Karl Michael Göschka<br />
Abstrakt: In verteilten Systemen werden Anwender bzw.<br />
Hardwarekomponenten so miteinander verbunden, dass das Austauschen<br />
von Informationen in einem Maße möglich ist, dass eine da<strong>für</strong> vorgesehenen<br />
Applikation problemlos funktioniert. Wenn verteilte Systeme richtig<br />
konfiguriert werden ist einer ihrer größten Vorteile im Vergleich zu einzelnen<br />
Komponenten, dass sie die Verfügbarkeit von Daten erhöhen können indem<br />
sie Kopien auf mehreren Knoten erzeugen. Die Konsistenz kann jedoch
aufgrund von Netzwerkfehlern oder Fehlern einzelner Knoten abnehmen.<br />
Genaue Replikationsvorgaben können gewährleisten, dass zu jedem<br />
Zeitpunkt Konsistenz garantiert werden kann. Ein Nebeneffekt davon wäre<br />
allerdings, dass die Verfügbarkeit leiden würde. Ebenso ist es möglich die<br />
Verfügbarkeit ohne Rücksicht auf Konsistenz zu garantieren. Die vorliegende<br />
Arbeit hat die Implementierung des Primary-per-Partition Protokolls zum<br />
Gegenstand, das es ermöglicht, ein verteiltes System so zu konfigurieren,<br />
dass die Konsistenz zu Lasten der Verfügbarkeit erhöht wird oder<br />
umgekehrt. Um ein verteiltes System simulieren zu können, wird die<br />
Implementierung in das Neko Framework eingebettet, eine Java Plattform,<br />
die leicht konfiguriert werden kann und in einer simulierten Umgebung<br />
ebenso verwendet werden kann wie in einer echten. Neko Anwendungen<br />
implementieren einen Protokoll Stack, d. h. dass einzelnen Komponenten<br />
unterschiedliche Aufgaben zugewiesen werden können. Im simulierten<br />
Modus werden Knoten erzeugt indem mehrere Instanzen der einzelnen<br />
Klassen erzeugt werden. Es kann sowohl in einer simulierten als auch in<br />
einer echten Umgebung ein und derselbe Code ausgeführt werden. Die<br />
Implementierung des Primary-per-Partition Protokolls stellt Integrität sicher<br />
indem bestimmte, im Wesentlichen frei wählbare, Randbedingungen erfüllt<br />
werden. Im so genannten „degraded“ Modus, in dem Knoten- oder<br />
Netzwerkfehler aufgetreten sind, müssen einige dieser Randbedingungen<br />
nicht jederzeit erfüllt werden um eine höhere Verfügbarkeit zu erreichen.<br />
Sobald das System wieder repariert ist muss die Integrität wieder<br />
hergestellt werden.<br />
Lukas JUSZCZYK<br />
Replication and Synchronization of Web Services in Ad-hoc Networks<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Abstrakt: Web Services ermöglichen eine standardisierte, erweiterbare und<br />
vollständig kompatible Interaktion zwischen Maschinen. Diese<br />
Interoperabilität hat maßgeblich zur steigenden Akzeptanz von Web Services<br />
als Kommunikationsstandard im Internet beigetragen. Besonders dienlich<br />
wurden Web Services in mobilen Ad-hoc Netzwerken, die spontan gebildete<br />
und höchst dynamische Netzwerk- und Kommunikationsinfrastrukturen<br />
ermöglichen. Doch diese dynamischen Netzwerktopologien erschweren das<br />
Anbieten von hochverfügbaren Web Service-basierten Architekturen. Im<br />
Zuge dieser Diplomarbeit wurde ein System entwickelt, das Verfügbarkeit<br />
und Zuverlässigkeit von Web Services mit Hilfe von Replikation und<br />
Synchronisation signifikant erhöht und fähig ist, mit der Dynamik und<br />
Unberechenbarkeit von Ad-hoc Netzwerken umzugehen.<br />
15
Jaroslaw LAZOWSKI<br />
Web Services in Ad-Hoc Netzwerken<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Florian MITTER<br />
Tracking Source Code Propagation in Software Systems via Release History<br />
Data and Code Clone Detection<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Harald Gall<br />
Abstrakt: Laut Untersuchungen beinhalten große Softwaresysteme 17 bis<br />
25 Prozent duplizierten Quellcode, wodurch zusätzlicher Aufwand,<br />
insbesondere bei der Wartung, entsteht. Auch wenn manche dieser Klone<br />
absichtlich erzeugt und gewartet werden, so stellen sie im Regelfall doch so<br />
genannte bad smells dar. In den letzten Jahren ist in diesem Bereich viel<br />
Forschung betrieben worden, und es wurden verschiedenste Ansätze zur<br />
Erkennung, Wartung, und auch zur Entfernung von dupliziertem Quellcode<br />
publiziert, jedoch weisen viele davon Defizite auf. Außerdem wurde die<br />
qualitative Beschaffenheit sowie die evolutionäre Entwicklung von Klonen<br />
noch nicht ausreichend untersucht. In dieser Arbeit stellen wir eine Clone<br />
Reference Database vor, die einige aktuelle Mängel durch die<br />
Zusammenführung und Filterung der Ergebnisse verschiedener<br />
Klonerkennungstools beseitigen soll. Wir führen dazu die Metriken overlap<br />
und confidence ein, um die Ergebnisse besser qualifizieren zu können. Durch<br />
eine weitere Klassifizierung der Klone, die durch eine Verknüpfung mit<br />
Sprachkonstrukten ermöglicht wird, sollen die Ergebnisse besser<br />
verständlich werden. Außerdem führen wir weitere Metriken ein, um<br />
evolutionäre Änderungen von Klonen analysieren zu können. Mit deren Hilfe<br />
sowie eines einfachen Clone Trackers wollen wir die Verbreitung von Klonen<br />
und Klongruppen über einen gewissen Zeitraum untersuchen. Zur<br />
Ausführung und Unterstützung aller genannten Aufgaben haben wir die<br />
Clone Detection Toolbox entwickelt. Zur Evaluierung unseres Ansatzes haben<br />
wir sieben Versionen von Mozilla ausgewählt. Alle Klonerkennungstools<br />
konnten die bis zu vier Millionen Zeilen Quellcode bewältigen, wenn auch die<br />
Ergebnisse qualitative und quantitative Unterschiede aufweisen. In jeder<br />
Version haben wir etwa 200.000 Klonfragmente gefunden, von denen etwa<br />
die Hälfte unseren Qualitätsanforderungen eines sicheren Klonfragments<br />
genügt, und nur etwa 1/20 von allen überlappen zumindest drei Viertel<br />
einer Funktion oder Methode. Diese sicheren Klonfragmente bestehen <strong>für</strong><br />
gewöhnlich aus acht bis 16-18 Zeilen Quellcode und gehören zu<br />
Klongruppen, die aus vier Klonfragmenten bestehen. Mit Hilfe unserer<br />
Qualitätsmetriken konnten wir außerdem zeigen, dass unsere anfängliche<br />
Annahme zutreffend ist: Es Bedarf mehr als einfacher Metriken, die aus<br />
16
Attributen von Klonen oder Klongruppen gebildet werden, um Klone<br />
eindeutig klassifizieren zu können.<br />
Christioph NAGL<br />
ViDRE - A Distributed Service-Oriented Business Rule Engine Based on<br />
RuleML<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Abstrakt: Die heutige Geschäftswelt befindet sich in einem ständigen<br />
Wandel. Unternehmen müssen rasch auf Veränderungen des Marktes<br />
reagieren. Dieses dynamische Geschäftsumfeld erfordert flexible und<br />
anpassungsfähige Unternehmensanwendungen, in denen Änderungen der<br />
Geschäftslogik effektiv und schnell umgesetzt werden können. Business<br />
Rules (Geschäftsregeln) sind ein möglicher Ansatz um dynamische<br />
Geschäftslogik von Unternehmen abzubilden. Der Einsatz von Business Rules<br />
ermöglicht die Entwicklung von flexiblen und vor allem leicht wartbaren<br />
Unternehmensanwendungen. Business Rules sind Regeln, die bestimmte<br />
Bereiche einer Unternehmung definieren, bzw. einschränken. Sie<br />
ermöglichen eine strikte Trennung von Geschäftslogik und dem übrigen<br />
Applikationscode. Folglich kann Geschäftslogik schnell und unabhängig vom<br />
Applikationscode geändert und neu eingesetzt werden. Der Nachteil der<br />
meisten Business Rules Ansätze ist die mangelnde Standardisierung und<br />
Interoperabilität der Rule Engines. Die fehlende Service- Orientierung<br />
erschwert die Integration von Rule Engines in bestehende Enterprise<br />
Applikationen. Derzeit ist es kaum möglich, auf heterogene Rule Engines in<br />
einer uniformen Art und Weise zuzugreifen. Geschäftsprozesse und<br />
Anwendungen in den heutigen Unternehmen laufen verteilt ab. Um diese<br />
verteilte Natur der Geschäftsprozesse abbilden zu können, benötigt man<br />
Unterstützung <strong>für</strong> verteilte Business Rules Ausführung. Diese Diplomarbeit<br />
beschreibt das Design und die Implementierung von ViDRE (Vienna<br />
Distributed Rules Engine). ViDRE ist eine verteilte Service-Orientierte Rule<br />
Engine, basierend auf RuleML. ViDRE ermöglicht eine einfache Integration<br />
von Business Rules in Unternehmensanwendungen. ViDRE verwendet<br />
RuleML als Metasprache, um Fakten, Regeln und Abfragen auf die<br />
Wissensbasis darzustellen. ViDRE bietet eine Infrastruktur, welche die<br />
Verwendung von heterogenen Rule Engines ermöglicht, ohne dass man sich<br />
an einen bestimmten Rule Engine Hersteller bindet.<br />
David TISCHLER<br />
WSFW: An Open Source Web Service Firewall<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Ass. Dr. Engin Kirda / Univ.Ass. Dr. Christopher Krügel<br />
17
Abstrakt: Web Services, über Netzwerke erreichbare Anwendungen, mit<br />
ihren standardisierten Schnittstellenbeschreibungen (WSDL) und<br />
Nachrichtenformaten (XML/SOAP) sind den selben Gefahren wie jede<br />
Software ausgesetzt, die mit der Außenwelt kommuniziert, z.B. Denial Of<br />
Service Attacken oder das Ausnutzen von Programm- oder<br />
Konfigurationsschwächen um Zugriff auf private Daten zu erlangen. Firewalls<br />
sind ein bewährtes Konzept zum Verhindern von illegitimen Zugriffen auf<br />
Computer über Netzwerke. Diese Arbeit zeigt, warum herkömmliche<br />
Firewalls <strong>für</strong> den Schutz von Web Services nicht ausreichen, wie diese aber<br />
durch spezielle Web Service Firewalls, von denen es im kommerziellen<br />
Bereich sehr wenige, im Open Source Bereich noch gar keine gibt, ergänzt<br />
(aber nicht ersetzt) werden können, wie sich Web Service Firewalls auf<br />
Grund der standardisierten Schnittstellenberschreibungen teilweise selbst<br />
konfigurieren können, und wie eine Stateful Web Service Firewall Angriffe,<br />
die nicht nur aus einzelnen Requests bestehen, erkennen und darauf<br />
reagieren können. Dazu wurde eine im Kern plattformunabhängige Open<br />
Source Web Service Firewall implementiert.<br />
Gilbert WONDRACEK<br />
A Pluggable Architecture for Peoplet<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Schahram Dustdar<br />
Arbeitsbereich Knowledge Based Systems<br />
Maria Magdalena ORTIZ DE LA FUENTE<br />
Answering Conjunctive Queries in Expressive Description Logics<br />
Studium: Magisterstudium Computational Logic<br />
BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />
18<br />
Abstrakt: Ontologies are increasingly seen as a mechanism to query data<br />
repositories. This novel context poses a combination of challenges that has<br />
not been addressed before: (i) sufficient expressive power of the ontology<br />
language to capture common data modelling constructs; (ii) well established<br />
and flexible query mechanisms such as those inspired by database<br />
technology; (iii) optimization of inference techniques with respect to data<br />
size, which typically dominates the size of ontologies. In this work, we<br />
investigate data complexity of query answering in the two very expressive<br />
Description Logics (DLs) SHIQ and SHOIQ, which provide formal foundations<br />
of some of the most prominent web ontology languages. While the<br />
complexity of DLs has been studied extensively, data complexity of query<br />
answering in expressive DLs has been characterized only for restricted<br />
forms of queries, and was still open for the standard query languages<br />
mutuated from databases, such a conjunctive queries (CQs) and unions of
CQs. We tackle this issue and prove a tight coNP upper bound for the<br />
problem in SHOIQ, for the case where the query does not contain transitive<br />
roles. We thus establish that for a whole range of DLs from AL to SHOIQ,<br />
answering such CQs has coNP-complete data complexity. We obtain our<br />
result by a novel tableaux-based algorithm for checking query entailment,<br />
inspired by work on hybrid knowledge bases, but which manages the<br />
technical challenges caused by the simultaneous presence of inverse roles,<br />
number restrictions (which already lead to a DL lacking the finite model<br />
property), and nominals. Some other applications of the novel tableauxbased<br />
algorithm are discussed. Notably, we introduce the hybrid language<br />
Carin-SHOIQ, a hybrid knowledge representation language combining very<br />
expressive DLs and non-recursive Datalog rules, and provide a sound and<br />
complete reasoning algorithm for it.<br />
Mantas SIMKUS<br />
Deciding Description Logics around SHIQ by Translation into Decidable<br />
Disjunctive Logic Programs<br />
Studium: Magisterstudium Computational Logic<br />
BetreuerIn: O.Univ.Prof. Dr. Thomas Eiter<br />
Abstrakt: This work follows the line of research that tries to propose<br />
alternative reasoning techniques for Description Logics, which may<br />
overcome the performance limitations of the current tableaux-based<br />
implementations in the presence of large ABoxes. We explore the possibility<br />
of reducing reasoning in the Description Logic SHIQ to the evaluation of<br />
disjunctive logic programs. In contrast to other works in the area, we<br />
consider disjunctive programs with function symbols. Since this is an<br />
undecidable formalism, the main challenge we face is to identify a fragment<br />
which is expressive enough to capture expressive Description Logics, and is<br />
still decidable. We address the issue by identifying a fragment that we call F-<br />
programs , and giving a sound and complete decision procedure for<br />
checking the existence of models for these programs. Furthermore, we<br />
show how the main reasoning tasks for an expressive fragment of SHIQ can<br />
be reduced to checking the existence of models for F -programs.<br />
19
INSTI<strong>TU</strong>T FÜR COMPUTERSPRACHEN<br />
Arbeitsbereich Programmiersprachen und Übersetzerbau<br />
Gerald FESSL<br />
XL-AOF-Design and Implementation of an Extensible Lightweight Aspect-<br />
Oriented Framework for Distributed Applications<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. eva Kühn<br />
Christian JUDT<br />
Scannergenarator mit benannten regulären Teilausdrücken<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Martin Ertl<br />
Abstrakt: Die üblichen Scannergeneratoren wie z.B. Lex und Flex haben<br />
einen Nachteil. Die Scanner liefern nur den jeweils erkannten String, sowie<br />
welche Regel ihn beschreibt. Sie liefern keine Information über die innere<br />
Struktur des Strings (z.B. bei einer Gleitkommazahl die Ziffern der Mantisse<br />
vor und nach dem Komma sowie den Exponenten), sodass dieser in vielen<br />
Fällen von handgeschriebenem scannerähnlichen Code nachbearbeitet<br />
werden muss. Diese Magisterarbeit beschreibt die Möglichkeiten einen<br />
Scannergenerator zu implementieren, der diesen Nachteil nicht hat, sowie<br />
die dabei auftretenden allgemeinen Probleme und dazugehörigen Lösungen<br />
bzw. Lösungsansätze. Außerdem wird eine Erweiterung des<br />
Scannergenerators Flex beschrieben, welche ein derartiges System<br />
implementiert.<br />
Adrian PRANTL<br />
Creating a GCC Back End for a VLIW-Architecture<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Krall<br />
20<br />
Abstrakt: Der Control Processor ist ein 24-Bit, 4-fach VLIW (very long<br />
instruction word)-Prozessor, der von On Demand Microelectronics entwickelt<br />
wurde. In dieser Arbeit wird eine Portierung der GNU Compiler Collection<br />
vorgestellt, die in der Lage ist, den Parallelismus des Prozessors voll<br />
auszunützen und parallele Assemblerbefehle auszugeben. Weiters wurden<br />
die GNU Binutils und die C-Laufzeitbibliothek Newlib an den Control<br />
Processor angepasst. Das vorgestellte GCC-Backend verwendet eine<br />
einfache Pipelinebeschreibung, um die Funktionseinheiten des Control<br />
Processors <strong>für</strong> den Instruction-Scheduler zu modellieren. Anhand der<br />
Resultate des Schedulers werden die Befehle in einem eigenen Durchlauf auf
die Slots eines VLIW-Bündels aufgeteilt. Durch diese Methode wird eine<br />
Slotausnutzung von bis zu 2,5 Befehlen pro VLIW-Bündel erreicht. Eine<br />
besondere Herausforderung stellte die ungewöhnliche Wortbreite des<br />
Control Processors von 24 Bit dar, die das Design des Backends<br />
entscheidend geprägt hat. In einem zweiten Teil wurde der bereits<br />
vorhandene Assembler des Control Processor um die Fähigkeit erweitert,<br />
ELF-Objektdateien (Executable and Linkable Format) zu erstellen. Weiters<br />
wurden die GNU Binutils auf diese neue Plattform portiert, um den darin<br />
enthaltenen Linker mit diesem Format nutzen zu können. Darauf basierend<br />
wurde auch der GNU Debugger um die Möglichkeit erweitert, den Simulator<br />
<strong>für</strong> den Control Processor direkt einzubinden. Um die<br />
Entwicklungsumgebung zu vervollständigen, wurde auch die C-<br />
Laufzeitbibliothek Newlib <strong>für</strong> den Control Processor angepasst.<br />
Reinhold STROBL<br />
Component-Based Development: A comparison of Enterprise Java Beans<br />
and Zope<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Ao.Univ.Prof. Dr. Franz Puntigam<br />
Abstrakt: Die Komponentenbasierte Entwicklung befasst sich mit der<br />
Erstellung von Systemen auf der Basis von Komponenten. Alles in allem<br />
liegen die Vorteile dabei in der verbesserten System-<br />
Qualität, in der verkürzten Entwicklungszeit und in der modularen und daher<br />
flexiblen Struktur der Applikation. Obwohl die Enterprise Java Beans (EJB)<br />
2.1 Komponententechnologie in J2EE 1.4 (basierend auf Java) heute zu den<br />
Marktführern zählt, kritisieren Programmierer sie vor allem wegen ihrer<br />
großen Komplexität. Das Zope 3 Framework wurde <strong>für</strong> die<br />
Programmiersprache Python entworfen. Im Allgemeinen reduziert Python<br />
sowohl die Entwicklungszeit, als auch den Codeumfang. Diese Arbeit<br />
untersucht, ob und in welchem Ausmaß Zope 3 ein Ersatz <strong>für</strong> EJB 2.1 sein<br />
kann, wobei angenommen wird, dass die verwendete Programmiersprache<br />
frei wählbar ist. Wir vergleichen die beiden Komponentenmodelle anhand<br />
von Basiskonzepten und legen einen speziellen Fokus auf Anforderungen von<br />
verteilten Komponententechnologien. Es zeigt sich, dass beide<br />
Komponentenmodelle sowohl Stärken als auch Schwächen haben. Einerseits<br />
können Zopes Einfachheit und Klarheit die Entwicklung beschleunigen und<br />
überdies den Aufwand und die Kosten der Installation im Vergleich zu EJB<br />
reduzieren, da Zope standardmäßig mit einem Webserver und einer<br />
objektbasierten Datenbank ausgestattet ist. Aber die unüberprüfte<br />
Einhaltung der Schnittstellenimplementierung, das fehlende verteilte<br />
Objektmodell und auch fehlende CORBA Integration bilden die Kehrseite der<br />
Medaille.<br />
21
Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik<br />
Peter ROBINSON<br />
Log File Processing by Machine Learning and Information Extraction<br />
Studium: Magisterstudium Computational Intelligence<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gernot Salzer<br />
Abstrakt: In Computernetzwerken werden ständig eine Vielzahl von<br />
Ereignissen in so genannten Log-Files mitprotokolliert. Es gibt jedoch keinen<br />
Standard, der die Struktur des Inhalts dieser Nachrichten, die teils in<br />
Maschinensprache, teils in natürlicher Sprache sind, festlegt. Das Fehlen<br />
eines solchen Standards erschwert das automatische Verarbeiten von Log-<br />
Files. Diese Masterarbeit beschreibt die Architektur und Implementierung<br />
des LoP-Systems. Das LoP-System erzeugt aus Log-File Nachrichten<br />
maschinenlesbare Ereignisstrukturen durch Verwendung von natürlicher<br />
Sprachverarbeitung. Die Arbeit beschreibt neben den technischen Details<br />
auch die verwendeten theoretischen Konzepte. Das System besteht aus in<br />
Serie geschalteten unabhängigen Komponenten, die teilweise durch<br />
maschinelles Lernen trainiert werden. Zuerst werden syntaktische Einheiten<br />
(z.B. IP Adressen) durch einen simplen Top-Down-Parser in den<br />
ursprünglichen Log-File-Nachrichten erkannt. Diese syntaktischen Einheiten<br />
werden dann von einem auf Markov Modellen basierenden Wortart-Tagger<br />
verarbeitet. Im nächsten Schritt werden Wortgruppen und simple<br />
Wortphrasen durch Anwendung von regulären Ausdrücken erkannt und<br />
daraufhin semantisch analysiert. Diese Ausgabe wird letztendlich von einem<br />
Ereigniskonstruktor verwendet, um Ereignisstrukturen zu erzeugen. Als<br />
Implementierungssprache <strong>für</strong> alle Komponenten wurde die rein funktionale<br />
Programmiersprache Haskell verwendet. Manche der Komponenten,<br />
insbesondere der Wortart-Tagger sind Instanzen von natürlichen<br />
Sprachverarbeitungswerkzeugen, die ohne zusätzlichen Aufwand auch auf<br />
andere Anwendungsbereiche adaptiert werden können.<br />
22
INSTI<strong>TU</strong>T FÜR COMPUTERGRAPHIK UND ALGORITHMEN<br />
Arbeitsbereich Algorithmen und Datenstrukturen<br />
Markus Karl LEITNER<br />
Solving two generalized Network Design Problems with exact and heuristic<br />
methods<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Günther Raidl<br />
Abstrakt: Diese Diplomarbeit beschäftigt sich mit zwei NP schweren,<br />
generalisierten Netzwerkdesignproblemen bei denen die Knotenmenge in so<br />
genannte Cluster unterteilt ist. Eine zulässige Lösung eines solchen<br />
Problems enthält genau einen Knoten aus jedem dieser Cluster, die optimale<br />
Lösung ist jene mit der geringsten Summe an Kantenkosten. Das<br />
Generalisierte Minimale Spannbaum (GMST) Problem, bei dem es sich um<br />
eine Erweiterung des klassischen minimalen Spannbaum Problems handelt,<br />
sucht einen möglichst kostengünstigen, kreisfreien Teilgraph, der aus jedem<br />
Cluster genau einen Knoten enthält und alle gewählten Knoten verbindet.<br />
Dieses Problem wird mit Variabler Nachbarschaftssuche (VNS) mittels drei<br />
verschiedener Nachbarschaftstypen gelöst, welche jeweils entweder auf die<br />
zu wählenden Knoten oder die globalen Kanten zwischen den Clustern<br />
fokussiert sind. Ein Nachbarschaftstyp verwendet ganzzahlige lineare<br />
Programmierung (ILP) um Teile des Problems exakt zu lösen.<br />
Testergebnisse zeigen, dass der entwickelte Ansatz speziell dann, wenn die<br />
Anzahl der Knoten pro Cluster groß ist, bessere Ergebnisse als bisherige<br />
heuristische Ansätze liefern. Beim Generalisierten Minimalen Kanten-<br />
Zweizusammenhängenden Netzwerk (GMEBCN) Problem, wird ein möglichst<br />
kostengünstiger, bezüglich der Kanten zweifach zusammenhängender<br />
Teilgraph gesucht, der aus jedem Cluster genau einen Knoten enthält. Für<br />
dieses Problem wurden zwei verschiedene VNS Ansätze mit vier<br />
Nachbarschaftstypen entwickelt und gegenübergestellt. Analog zum GMST<br />
Problem optimieren die Nachbarschaften unterschiedliche Aspekte des<br />
Problems. Zusätzlich verwendet der zweite VNS Ansatz aufwändigere<br />
Versionen der Nachbarschaften, welche auf einem reduzierten Graphen<br />
operieren, bei dem die gewählten Knoten <strong>für</strong> die meisten Cluster exakt<br />
berechnet werden können. Tests zeigen, dass die Ergebnisse des Ansatzes<br />
mit den komplizierteren, aber auch langsameren Nachbarschaftsstrukturen,<br />
eindeutig besser sind als jene des einfacheren und schnelleren.<br />
23
Arbeitsbereich Computergrafik<br />
Andrea HARANT<br />
Towards Automatic Processing of Peripheral CT-A Datasets<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Univ.Doz. Dr. Milos Sramek<br />
Abstrakt: Die AngioVis ToolBox ist eine Software zur Verarbeitung und<br />
Visualisierung von CTAngiographie Daten. Als Angiographie bezeichnet man<br />
die Visualisierung von Blutgefäßen. Diese Software wird bereits im AKH in<br />
<strong>Wien</strong> und im Stanford Medical Center (USA) zur täglichen Diagnose und<br />
Behandlungsplanung verwendet. Ein Kernbereich der Software ist der<br />
„Vessel Tracker“, ein Modul mit dem der Gefäßbaum interaktiv erstellt wird.<br />
Dieser Gefäßbaum, der durch die Mittellinien der Hauptarterien verläuft,<br />
wird <strong>für</strong> die korrekte Darstellung der CPR-Bilder (CPR = Curved Planar<br />
Reformation) benötigt. Dieser Verarbeitungsschritt benötigt ein sehr hohes<br />
Maß an manueller Userinteraktion. Ziel der Magisterarbeit war es, das<br />
Modul „Vessel Tracker“ zu verbessern indem Teile davon automatisiert<br />
werden. Ein Hauptteil der Magisterarbeit beschäftigt sich mit der<br />
automatisierten Modellierung von Bifurkationen, denn sie mussten bisher<br />
immer vollständig manuell modelliert werden. Die in der Magisterarbeit<br />
gefundene Technik, die die automatische Modellierung der Aortabifurkation<br />
beschreibt, besteht aus folgenden<br />
Schritten: Zuerst definiert der User mit Hilfe der Maus eine Punkt um den<br />
eine kreisförmige Region of Interest (ROI) gezogen wird. Als Datengrundlage<br />
dient das 2D MIP-Bild des Datensatzes. Nun wird nach einer<br />
Rauschunterdrückung eine Kantendetektion gestartet um einen Punkt<br />
innerhalb der Aorta zu finden. Von diesem Punkt aus besteht die nächste<br />
Aufgabe darin, ins Zentrum der Bifurkation zu gelangen, wo<strong>für</strong> eine 3D<br />
Technik verwendet wird. Hier<strong>für</strong> berechnet man sich mit einem Struktur<br />
Tensor die Richtung in die die Aorta verläuft und verfolgt diesen<br />
Richtungsvektor so lange, bis ein ellipsenförmiger Querschnitt (= Zentrum<br />
der Bifurkation) gefunden wurde. Die Resultate der angewandten Methoden<br />
sind sehr stabil und laufen, abgesehen von der manuelle ROI Spezifikation,<br />
vollständig automatisch ab. Die Userinteraktion wurde deutlich verringert.<br />
Georg SPIELMANN<br />
A New Efficient Real-Time Global Tone Mapping<br />
Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer / Univ.Ass. Dr. Michael<br />
Wimmer<br />
24<br />
Abstrakt: In der Computergraphik, Visualisierung und vor allem in der<br />
digitalen Photographie spielt Tone Mapping eine wichtige Rolle. Der Kontrast<br />
eines Bildes ist endlich und abhängig vom Ausgabegerät. Normalerweise ist
er zwischen 4-6 auf einer log2 Skala. Der Kontrast der realen Szene ist<br />
aber meistens bedeutend höher, so dass sehr helle und sehr dunkle Teile<br />
des Bildes Detailarm dargestellt werden. In dieser Arbeit wird ein Überblick<br />
über Farbtheorie, das menschliche Sehen und über verschiedene<br />
Ausgabegeräte gegeben. Es werden bekannte globale Tone Mapping<br />
Methoden beschrieben und einige effiziente lokale Methoden. Das<br />
Hauptaugenmerk dieser Arbeit ist es das optimale Kontrastfenster <strong>für</strong><br />
Globales Tone Mapping zu finden und festzustellen ob es bessere globale<br />
und lokale Mapping Methoden als das weit verbreitete Mean Value Mapping<br />
gibt. In der Arbeit wird eine Verallgemeinerung der Minimal Information Loss<br />
Methode beschrieben und es wird empirisch nach den besten<br />
Parameterkombinationen <strong>für</strong> diese Methode gesucht. Diese Methode ist in<br />
einer innovativen Weise mit dem max(r,g,b) Prinzip kombiniert das <strong>für</strong><br />
Incident Light Metering vorgestellt wurde. Diese Kombination erzeugt visuell<br />
ansprechende Bilder <strong>für</strong> Szenen mit Gegenlicht oder Szenen mit<br />
Informationen aus dem Inneren und dem Äußeren. Da es sich um eine<br />
Echtzeit Methode handelt könnte sie, nach weiterer Entwicklung, in Digital<br />
Kameras eingebaut werden.<br />
Christian STEINER<br />
Shadow Volumes in Complex Scenes<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Prof. Dr. Werner Purgathofer / Univ.Ass. Dr. Michael<br />
Wimmer<br />
Michael WOHLFAHRT<br />
Storytelling for Presentation in Volume Visualization - Visualization Stories<br />
Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />
BetreuerIn: Priv.-Doz. Dr. Helwig Hauser<br />
25
INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND<br />
WIRKUNGSFORSCHUNG<br />
Arbeitsbereich Multidisciplinary Design<br />
Stefan ESSL<br />
Virtuelle Gemeinschaften in <strong>Wien</strong><br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />
Alexander HÖFER<br />
Evaluation von Joint Applikation Design aus der Perspektive systemischer<br />
Organisationsberatung<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Doz. Dr. Johannes Gärtner<br />
Abstrakt: „The hardest single part of building software is deciding what to<br />
build. No other part of the work so cripples the resulting system if done<br />
wrong. No other part is more difficult to rectify later.” [BROOKS, 1987].<br />
Genau dieses „deciding what to build“ ist Kernthema der in dieser<br />
Diplomarbeit evaluierten partizipativen Requirements Engineering Methode<br />
namens Joint Application Design (JAD). Ausgehend von eigenen JAD<br />
Erfahrungen des Autors mit einem unter den Erwartungen gelegenen<br />
Projektergebnis, wird der Frage nachgegangen, wie man aus diesen<br />
Erfahrungen systematisch lernen kann. Dazu werden<br />
Beobachtungskategorien aus der systemischen Organisationsberatung<br />
herangezogen. Systemisch bedeutet im Rahmen dieser Diplomarbeit eine<br />
Sichtweise auf Organisationen, „wobei diese als soziale Systeme begriffen<br />
werden und der gesamte Prozeß der Beratung methodisch unter<br />
Gesichtspunkten der modernen Systemtheorie reflektiert und angeleitet<br />
wird.“[KÖNIGSWIESER, EXNER]. Mit der Wahl systemischer<br />
Beobachtungskategorien wird eine andere Perspektive eingenommen, als<br />
dies in der Evaluation von Softwareentwicklungsmethoden üblich ist. Durch<br />
diesen Perspektivenwechsel werden zunächst Wirkungsweisen und<br />
Problemzonen von JAD sichtbar gemacht, um dann Versprechen der<br />
Methode zu überprüfen und Kritik an ihr zu üben. Zum Abschluss dieser<br />
Diplomarbeit werden zu den identifizierten Problemzonen von JAD<br />
systemische Erweiterungen vorgeschlagen, welche die Erfolgschancen von<br />
JAD Projekten zusätzlich erhöhen könnten.<br />
26
David KAMMERZELT<br />
Konzept <strong>für</strong> das IT-Configuration Management einer Bank<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Doz. Dr. Johannes Gärtner<br />
Abstrakt: Den Anstoß <strong>für</strong> diese Arbeit gab das Management der IT-Abteilung<br />
einer österreichischen Bank mit der Initiierung eines Projektes zum Thema<br />
„Einführung von ITIL und IT-Service Management“. Service Management in<br />
diesem Zusammenhang befasst sich mit der Verwaltung und Kontrolle von<br />
Dienstleistungen - den Services -, die mit Hilfe von Informationstechnologie<br />
erbracht werden. Als Teil des Service Managements ist es das Ziel von<br />
Configuration Management, ein logisches Abbild der IT-Infrastruktur zu<br />
schaffen. Dies geschieht durch Identifizieren, Kontrollieren, Pflegen und<br />
Verifizieren der Versionen aller existierenden Infrastrukturteile, der so<br />
genannten Konfigurationselemente. Diese Diplomarbeit beschäftigt sich mit<br />
dem Entwurf von Konzepten eines solchen Configuration Managements <strong>für</strong><br />
die IT-Abteilung. Da<strong>für</strong> war es notwendig Information sowohl zur<br />
gegenwärtigen IT Infrastruktur der Bank als auch zu Configuration<br />
Management zusammen zu tragen. Mit dem erworbenen Wissen konnte<br />
eine Ist-Analyse durchgeführt werden, die als Basis <strong>für</strong> die Konzepte dient.<br />
Dabei spielte die Information Technology Infrastructure Library (ITIL) eine<br />
zentrale Rolle. Diese Sammlung von Empfehlungen und „best practices“ stellt<br />
einen de-facto Standard <strong>für</strong> IT-Service Management dar und bietet somit die<br />
Möglichkeit der Bewertung eines gewachsenen Systems an objektiven<br />
Maßstäben. Die Analyse wurde mittels eines Vergleiches der ITIL<br />
Empfehlungen zu Configuration Management und der Beschreibung der<br />
Systemlandschaft auf der Ebene von Datenbanken und Prozessen realisiert.<br />
Das Ergebnis zeigte, dass einigen Forderungen des Standards bereits<br />
entsprochen wird, eine Vielzahl von Empfehlungen jedoch nicht oder nur<br />
teilweise realisiert sind. Die so festgestellten Abweichungen wurden in den<br />
beiden entwickelten Konzepten besonders berücksichtigt, um bestmögliche<br />
ITIL Kompatibilität zu gewährleisten. Das erste Konzept zeigt, wie die<br />
Abweichungen durch Adaptionen der bestehenden Prozesse und<br />
Datenbanken korrigiert werden können, während das zweite Kriterien<br />
vorstellt, die bei der Anschaffung eines Tools <strong>für</strong> Configuration Management<br />
sicherstellen sollen, dass den ITIL Empfehlungen entsprochen wird. Es zeigte<br />
sich, dass eine Realisierung des Standards <strong>für</strong> Configuration Management<br />
allein durchaus mit bestehenden Mitteln möglich ist, im Hinblick auf ein<br />
zukünftiges ganzheitliches IT – Service Management dieser Methode jedoch<br />
Grenzen gesetzt sind und ein Fremdsystem vorzuziehen wäre.<br />
Rene KITZER<br />
Multiplayer-Computerspiele<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Steinhardt<br />
27
Abstrakt: Computerspiele nehmen in der heutigen Unterhaltungsindustrie<br />
eine immer bedeutendere Rolle ein. Während sie anfangs nur einen<br />
Nischenmarkt bedienten wurde in den letzten zwanzig Jahren daraus ein<br />
Wirtschaftszweig dessen Umsätze mit der Hollywoodfilmindustrie<br />
vergleichbar sind. Durch die fortschreitende Verbreitung des Internets<br />
werden die Spiele immer mehr zu einer Möglichkeit, andere Menschen aus<br />
aller Welt kennen zu lernen. Es entstehen Beziehungen zwischen Menschen,<br />
die sich im realen Leben nie kennen lernen würden, da zu große<br />
geographische Distanzen zwischen ihnen liegen. Ich habe diese Beziehungen<br />
anhand von „Massively Multiplayer Online Roleplaying Games“, einer relativ<br />
neuen Art von Computerspielen, die es den Spielern ermöglicht in einer<br />
Spielwelt mit mehreren Tausenden anderen Spielern gleichzeitig zu spielen,<br />
untersucht. Die Untersuchung wurde in Form einer teilnehmenden<br />
Beobachtung, einer Fallstudie und qualitativer Interviews durchgeführt.<br />
Dadurch versuchte ich herausfinden, inwieweit solche Spiele Kontakte zu<br />
anderen Menschen fördern und neue Beziehungen entstehen lassen. Als<br />
Grundlage da<strong>für</strong> habe ich mich mit bestehender Literatur zum Thema<br />
auseinandergesetzt. Weiters habe ich mich hier<strong>für</strong> mit der Geschichte der<br />
Computerspiele, von einfachen Pingpong – Versionen hin zu den heutigen<br />
Onlinetiteln beschäftigt. Die Entwicklung dieser neuen Art von Beziehungen<br />
hat gerade erst begonnen und ist deswegen sehr interessant zu<br />
beobachten. Noch befindet sich die Online-Community in einer Phase der<br />
„Unschuld“ in der man seinen Mitstreitern vertraut und keine Geheimnisse<br />
voreinander haben will und muss. Doch das Internet an sich befindet sich<br />
gerade in einem Prozess in dem viele Aspekte der uneingeschränkten<br />
Freiheit des Mediums in Frage gestellt werden. Dadurch sind automatisch<br />
auch die Online-Spiele und natürlich auch die „Online-Beziehungen“ betroffen.<br />
Deswegen erschien es mir interessant, gerade jetzt diese Beziehungen zu<br />
untersuchen. Wie sich herausstellte nimmt die Bedeutung solch neuer<br />
Beziehungsformen immer mehr zu.<br />
Arbeitsbereich Human Computer Interaction<br />
Alexander BANFIELD-MUMB-MÜHLHAIM<br />
Die Digitalisierung des österreichischen Fernsehmarktes - Österreich auf<br />
dem Weg zum digitalen Antennenfernsehen<br />
Studium: Magisterstudium Medieninformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
28<br />
Abstrakt: Gegenstand der hier vorgestellten Arbeit ist die Digitalisierung des<br />
österreichischen Rundfunksektors, in Zuge dessen die Übertragung von<br />
analogen Fernsehsignalen durch digitale abgelöst wird. Das digitale<br />
terrestrische Fernsehen, auch bekannt unter der Abkürzung DVB-T, bzw. die<br />
Digitaltechnik im Allgemeinen bieten sowohl <strong>für</strong> die KonsumentInnen, als<br />
auch <strong>für</strong> die Programmanbieter und Sendernetzbetreiber viele Vorzüge, die
vereinfacht ausgedrückt alle auf der Verarbeitung und Komprimierung<br />
digitaler Daten beruhen. Dazu lassen sich beispielsweise eine verbesserte<br />
Bild- und Tonqualität und eine größere Programmauswahl zählen. Auf Grund<br />
des Stellenwertes, den das Fernsehen in unserer Gesellschaft hat, geht die<br />
Umstellung allerdings über die rein technische Ebene hinaus und bringt<br />
gesellschaftliche, ökonomische und medienpolitische Auswirkungen mit sich.<br />
Diese gilt es in der Arbeit darzustellen und im Weiteren mögliche Probleme<br />
aufzuzeigen, die mit der Digitalisierung einhergehen. Österreich ist im<br />
Vergleich zu anderen europäischen Ländern ein Nachzügler im Bereich des<br />
digitalen terrestrischen Fernsehens, hat aber durch die schrittweise und<br />
nicht überhastete Planung der letzten Jahre die Möglichkeit, zu anderen<br />
Ländern der EU aufzuschließen.<br />
Bernhard BUGELMÜLLER<br />
Nationale Implementierung von TETRA-Netzen im europäischen Raum<br />
Studium: Magisterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
Abstrakt: Zur Harmonisierung des europäischen Bündelfunkmarktes<br />
beschloss das Europäische Institut <strong>für</strong> Telekommunikationsnormen ETSI<br />
bereits im Jahr 1988 einen Standard <strong>für</strong> ein paneuropäisches, digitales<br />
Bündelfunknetz zu erarbeiten. Ende 1991 wurde der Begriff TETRA<br />
(Terrestrial Trunked Radio) eingeführt. TETRA ist in erster Linie <strong>für</strong> den<br />
professionellen Mobilfunk ausgelegt und eignet sich durch seine Dienste und<br />
Merkmale besonders <strong>für</strong> den Einsatz durch Behörden und Organisationen<br />
mit Sicherheitsaufgaben (BOS). So werden beispielsweise die erhöhten<br />
Security-Anforderungen dieser Nutzergruppen durch ausgeklügelte<br />
Authorisierungsprozeduren und integrierte Ende-zu-Ende-Verschlüsselung<br />
bestens erfüllt. Weiters tragen Bündelfunksysteme wie TETRA durch die<br />
Optimierung der Frequenzausnutzung und durch die Erhöhung der<br />
Kanalnutzung zur Verbesserung der Dienstgüte sowohl <strong>für</strong> Endbenutzer als<br />
auch <strong>für</strong> Netzbetreiber bei. Aus diesen Gründen werden im europäischen<br />
Raum immer mehr nationale Behördenfunksysteme, auf dem TETRA-<br />
Standard basierend, errichtet. Dadurch werden einerseits die bestehenden,<br />
in den meisten Fällen veralteten, analogen Systeme ersetzt und andererseits<br />
die operativen Anforderungen, die in den Schengener-Katalogen von 1992<br />
bis 1996 definiert wurden, erfüllt. Dies konnte während des<br />
Dreiländerprojekts, welches zur Erprobung grenzüberschreitender Sprachund<br />
Datenkommunikation im Grenzgebiet Lüttich, Aachen und Maastricht<br />
durchgeführt wurde, belegt werden. Auch in Österreich startete die<br />
Bundesregierung Mitte der neunziger Jahre mit Überlegungen zur<br />
Realisierung eines bundesweiten digitalen Bündelfunksystems <strong>für</strong> alle so<br />
genannten Blaulichtorganisationen. Nach dem Scheitern des Projekts<br />
"Behördenfunknetz ADONIS" soll nun durch das Projekt "Digitalfunk BOS<br />
Austria" die Fertigstellung eines bundesweiten TETRA-Netzes gelingen.<br />
29
Mario GRATZER<br />
Web 2.0<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dipl.-Ing. Dr. Peter Purgathofer<br />
Abstrakt: Web 2.0 beschreibt die Entwicklung des Internets ausgehend von<br />
einem statischen Informationssystem hin zu einem dynamischen,<br />
interaktiven, benutzerzentrierten Medium. Web 2.0 ist ein breit gefächerter<br />
Sammelbegriff <strong>für</strong> eine Vielzahl von Internetprojekten verschiedener<br />
Prägung. Das Ziel der vorliegenden Diplomarbeit ist eine ausführliche<br />
Diskussion von Web 2.0 aus einer theoretischen und einer technischen<br />
Perspektive, um einen umfassenden Überblick über die Thematik zu geben.<br />
Ausgehend von einem Definitionsansatz zu Web 2.0 werden jene zugrunde<br />
liegenden Prinzipien erörtert, die eine Sammlung von Best Practices<br />
repräsentieren. Typische Web 2.0 Anwendungen werden exemplarisch<br />
diskutiert. Zentrale Beobachtungen sind, dass die angebotenen Services von<br />
der Partizipation und Interaktion der Benutzer geprägt werden. Es folgt eine<br />
Diskussion ausgewählter Konzepte, die in einem engen Zusammenhang zu<br />
Web 2.0 stehen. Weitere Schwerpunkte sind die Betrachtung und<br />
Darstellung von technischen Aspekten, wie z.B. AJAX, RSS und Tags.<br />
Florian SCHIMAK<br />
Workflow Management Systeme - Einsatz im Broadcasting Bereich<br />
Studium: Magisterstudium Medieninformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
30<br />
Abstrakt: Seit der Mensch arbeitet, ist es auch sein Bestreben, diese zu<br />
vereinfachen, sie sich mit anderen zu teilen oder zu automatisieren. Vor<br />
allem durch neue Erfindungen und technische Errungenschaften wurde<br />
dieses Vorhaben immer wieder vorangetrieben. Bestes Beispiel hier<strong>für</strong> ist<br />
die Einführung der Fließbandarbeit durch Henry Ford. Die Entwicklung des<br />
Workflow Managements Anfang der 90er Jahre steht in engem<br />
Zusammenhang mit der Entwicklung der Geschäftsprozessorientierung in<br />
Unternehmen. Mit zunehmendem Wachstum und steigendem<br />
Wettbewerbsdruck sahen sich immer mehr Firmen auch einem steigenden<br />
Bedarf an Optimierungsmöglichkeiten gegenübergestellt. Eine zentrale Rolle<br />
spielt dabei der Begriff „Workflow“, der sich wortwörtlich am besten mit<br />
“Arbeitsfluss” oder auch „Arbeitsablauf“ übersetzen lässt. Nur selten kommt<br />
es vor, dass man einer Tätigkeit vollkommen alleine nachkommt, ohne in<br />
irgendeiner Form in Kommunikation mit anderen zu stehen. Jeder ist zu<br />
einem Teil davon abhängig über den Fortschritt und die Tätigkeiten von<br />
Kollegen Bescheid zu wissen, und andererseits nach Abschluss der eigenen<br />
Aufgaben diese wiederum anderen Mitarbeitern mitzuteilen. So entsteht ein<br />
Fluss an Informationen und Aufgaben, die teilweise parallel und teilweise
hintereinander ausgeführt werden, ein so genannter Workflow. Workflows<br />
finden sich also überall, wo Menschen miteinander arbeiten. Workflow<br />
Management Systeme sollen dabei helfen diese Vorgänge zu gestalten und<br />
zu optimieren. Für den Broadcasting Bereich ergeben sich dabei eine Reihe<br />
von speziellen Anforderungen. Die vorliegende Arbeit soll nicht nur eine<br />
Einführung in die Thematik bieten, sondern darüber hinaus auch näher auf<br />
den Einsatz in diesem Anwendungsbereich eingehen. Eine Marktanalyse gibt<br />
einen Einblick in bestehende Systeme. Abgerundet wird das Bild zusätzlich<br />
durch eine Betrachtung der Auswirkungen, die die Einführung eines solchen<br />
Systems <strong>für</strong> ein Unternehmen und seine Mitarbeiter mit sich bringen kann.<br />
Michael TESAR<br />
m-learning: Zukunftsvision oder Hype?<br />
Studium: Magisterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Margit Pohl<br />
Abstrakt: Mobiles Lernen - eine neue Art des Lernens. Wer viel unterwegs<br />
ist, oder aber auch Zeit beim Warten auf Bus, Straßenbahn u.ä. mit Lernen<br />
vertreiben möchte, <strong>für</strong> den bietet diese neue Technologie genau das<br />
Richtige. Lernen zu jeder Zeit und an jedem Ort. Doch hat diese Form des<br />
Lernens Zukunft? Dies ist der zentrale Inhalt dieser Arbeit. Ist m-Learning<br />
also eine Zukunftsvision oder nur ein Hype? Begonnen wird mit einer kurzen<br />
und prägnanten Beschreibung der gängigsten Lerntheorien und -konzepte.<br />
Weiters werden in dieser Arbeit zahlreiche Begriffe aus dem Bereich des e-<br />
Learnings erläutert und in Zusammenhang mit m-Learning gebracht. Neben<br />
der zentralen Frage, die in dieser Magisterarbeit beantwortet wird, wird<br />
auch ausführlichst auf die Gestaltung von Benutzerschnittstellen kleiner,<br />
mobiler Geräte eingegangen. Zahlreiche Richtlinien werden <strong>für</strong> die<br />
Anwendung in mobilen Geräten, die zum Lernen dienen sollen,<br />
zusammengefasst. Neben einer Literaturrecherche zum aktuellen Stand der<br />
Technik, wird diese Arbeit mit einer umfangreichen Analyse aktueller m-<br />
Learning-Angebote abgerundet. Diese Analyse bietet einen sehr guten<br />
Überblick über die verwendeten Technologien, Inhalte und Lerntheorien. Das<br />
Ergebnis meiner Arbeit ergibt sich sowohl aus der Analyse der Angebote,<br />
als auch einer persönlichen Bewertung und einer Beurteilung des Marktes.<br />
Klemens WESSELY<br />
IT-Sicherheit <strong>für</strong> Institute der <strong>TU</strong> <strong>Wien</strong><br />
Studium: Magisterstudium Medieninformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Peter Fleissner<br />
Abstrakt: IT-Sicherheit ist ein sehr medienpräsentes Thema. Regelmäßig<br />
wird von neuen Software-Schwachstellen oder neuer Malware berichtet.<br />
Gerade Institute einer technischen <strong>Universität</strong> haben eine gewisse<br />
31
32<br />
Vorbildwirkung im Umgang mit derartigen Bedrohungen zu erfüllen, weshalb<br />
untersucht wird, wie gut Institute vor solchen Bedrohungen geschützt sind<br />
und welche Maßnahmen zur Optimierung der Sicherheitssituation notwendig<br />
sind. Ausgehend von Interviews betroffener Mitarbeiter wird die<br />
Sicherheitssituation analysiert. Auf dem daraus ermittelten Bedrohungsbild<br />
sowie entsprechender Literatur baut ein Sicherheitskonzept <strong>für</strong><br />
<strong>Universität</strong>sinstitute auf, welches die konkreten technischen und<br />
organisatorischen Rahmenbedingungen der <strong>TU</strong> <strong>Wien</strong> berücksichtigt.<br />
Hauptaugenmerk wird dabei auf die mitarbeitergerechte Gestaltung der<br />
einzelnen Maßnahmen gelegt. Für gängige Sicherheitsmaßnahmen werden<br />
mitarbeitertaugliche Umsetzungsmöglichkeiten beschrieben, wobei vor allem<br />
auf die Anforderungen von Mitarbeitern mit geringeren IT-Kenntnissen<br />
eingegangen wird. Nur eine umfassende Lösung, die Mitarbeiter,<br />
Organisation, Technik sowie die zugrunde liegenden rechtlichen Aspekte<br />
berücksichtigt, führt zu einem möglichst sicheren Gesamtsystem. Deshalb<br />
bildet die Darstellung der rechtlichen Grundlagen, die vor allem die an<br />
Instituten wichtigen Bereiche des Datenschutzgesetzes sowie des<br />
Urheberrechts berücksichtigt, einen weiteren Schwerpunkt.
INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND<br />
INTERAKTIVE SYSTEME<br />
Arbeitsbereich Information und Software Engineering<br />
Thomas BENNAR<br />
Sichere Web-Services mit ASP .NET 2.0: eine Beispielanwendung <strong>für</strong> das<br />
Projektmanagement agiler Softwareentwicklung<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Abstrakt: Das Microsoft .Net Framework ist eine Komponente des<br />
Betriebssystems Windows. Das Framework spielt zurzeit eine Schlüsselrolle<br />
bei Microsoft. Ein Teil des Frameworks ist auch ASP.NET in der Version<br />
2.0. Es handelt sich um die neueste Technologie von Microsoft, mit der<br />
man web-basierte Lösungen einfach und schnell entwickeln kann. Meine<br />
Aufgabe war es, ein plattformunabhängiges Zeit- und Projektmanagement<br />
System <strong>für</strong> kleine Softwareunternehmen zu entwickeln. Als Plattform habe<br />
ich ASP.NET 2.0 gewählt. Durch diese Wahl habe ich die<br />
Plattformunabhängigkeit erfüllt, weil die Applikation in jedem neueren<br />
Browser angezeigt werden kann. Ein weiteres Kriterium <strong>für</strong> meine<br />
Applikation war die Nutzung auch im Offline-Zustand. Für diese Aufgabe habe<br />
ich einige Web-Services vorgesehen, über die die Web-Applikation mit Offline<br />
Clienten kommunizieren kann. Jegliche Kommunikation zwischen der Web-<br />
Applikation und den Offline Clienten wird asymmetrisch verschlüsselt. Als<br />
Ausgang <strong>für</strong> das Projektmanagement habe ich SCRUM und agiles<br />
Projektmanagement genommen. Ich habe mich bemüht das System so<br />
flexibel wie möglich zu machen, damit man agile auf jede Situation reagieren<br />
kann. Das System ist insofern flexibel, dass es dem Projektmanager erlaubt,<br />
selbst zu entscheiden wie er die einzelne Tätigkeiten, bei z. B. SCRUM-<br />
Sprinten, einteilen und granulieren will. Das System protokolliert die einzelne<br />
Tätigkeiten der Mitarbeiter und ermöglicht eine Erstellung von Übersichten<br />
über die einzelne Schritte bzw. Stadien bei Projekten. Weiters kann man mit<br />
Hilfe des Systems detaillierte Rechnungen und Statistiken <strong>für</strong> die Kunden<br />
erstellen. Bei der Implementierung der Applikation hat sich meine<br />
Annahmen, dass man mit ASP.NET 2.0 Web-Applikationen leicht und<br />
schnell entwickeln kann, bestätigt. Dieses Projekt hat mit geholfen, die Idee<br />
des agilen Softwareprojektmanagements und der ganzen agilen<br />
Methodologie bei der Softwareentwicklung besser zu verstehen und die .NET<br />
Plattform tiefer kennen zu lernen.<br />
33
Florian BISTRICKY<br />
Charakterisierung der Komplexität öffentlicher Software-Projekte<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Ines BITTNER<br />
Implemtierung und Evaluierung eines Systems zur Beantwortung<br />
natürlichsprachiger Fragen<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Andreas Rauber<br />
Peter GERSTBACH<br />
Generating Structured Documents to Create Reports by Integrating Data<br />
from CMS/DMS and EAI Systems<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Ass. Dr. Alexander Schatten<br />
34<br />
Abstrakt: Strukturierte Dokumente sind im Geschäftsleben allgegenwärtig,<br />
da sie wichtige Informationen enthalten und automatisiert erzeugt und<br />
weiter verarbeitet werden können. Neben den einzelnen Text- oder Grafik-<br />
Bestandteilen enthalten sie Metainformationen, die meist durch ein<br />
bestimmtes Layout dargestellt werden. Beispiele strukturierter Dokumente<br />
sind: Angebote, Verträge, Geschäftsberichte, Briefe oder Kataloge. Für<br />
solche Dokumente ist ein System, das deren automatisierte Erzeugung<br />
unterstützt, besonders hilfreich, weil viele gleichartige Dokumente mit<br />
unterschiedlichen Daten gefüllt werden. Die Verarbeitungslogik und das<br />
Layout wird einmal zu Beginn festgelegt, während ein automatisierter<br />
Prozess in Folge die benötigten Daten aus externen Systemen lädt und die<br />
Dokumente entsprechend den Regeln generiert. Diese Diplomarbeit<br />
analysiert Softwaresysteme und Techniken, die strukturierte Dokumente<br />
erstellen und verarbeiten können. Neben Business Reporting Systeme, die<br />
meistens in Verbund mit Datenbanken angewendet werden, liegt der<br />
Schwerpunkt auf XML-bezogene Systeme wie beispielsweise Stylesheet-<br />
Designer oder Lösungen zur Anwendungsintegration (EAI). Die Etablierung<br />
von XML hat neue Möglichkeiten geschaffen, um strukturierte Dokumente<br />
zu erstellen. Deswegen wird das Thema der Dokumentverarbeitung mit XML<br />
gesondert behandelt und Techniken wie XSLT und XSL-FO beschrieben.<br />
Weiters wird die Entwicklung eines XML-basierten Dokumentmanagement-<br />
Systems beschrieben, das neben der Dokumenterstellung auch die<br />
Einbindung von externen Daten aus CMS, DMS und EAI Systemen<br />
ermöglicht. Durch die Anfertigung von Dokumentvorlagen können diese<br />
Daten automatisiert und wiederholt zu ansprechenden Schriftstücken<br />
weiterverarbeitet werden. Der Einsatz von standardisierten Techniken wie
XSLT und XSL-FO ermöglicht einen flexiblen und offenen Ansatz, um die<br />
Transformation durchzuführen. Da eine grafische Oberfläche die einfache<br />
Erstellung dieser Vorlagen ermöglicht, können jedoch auch Anwender ohne<br />
Kenntnisse von XML und XSLT das Programm benutzen.<br />
Stefan GLATZ<br />
Maussteuerung mit 2 Tasten. Entwicklung einer Individuallösung <strong>für</strong> einen<br />
motorisch stark eingeschränkten User<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />
Abstrakt: Diese Arbeit behandelt den Prozess der Entwicklung eines<br />
Softwareproduktes von der Idee weg bis hin zum voll funktionalen<br />
Prototypen. Innerhalb dieses Entwicklungsprozesses werden Bereiche wie<br />
Planung, User Interface Design, Implementierung und Testen behandelt.<br />
Das Ziel der zu entwickelnden Software ist es, eine Alternative zur<br />
herkömmlichen Maussteuerung zu entwickeln. Diese soll die Anforderungen<br />
einer speziellen Zielperson bestmöglich erfüllen und deren Fähigkeiten so gut<br />
wie möglich ausnutzen. Im konkreten ist die Zielperson motorisch so stark<br />
eingeschränkt, dass sie lediglich zwei Taster bedienen kann, um eingaben<br />
am Computer vorzunehmen. Um keine redundante Entwicklung zu machen,<br />
werden natürlich auch bereits vorhandene alternative Eingabemethoden<br />
betrachtet. In der Designphase wird einerseits entschieden, über welche<br />
Hardwareschnittstelle die Kommunikation mit der Software ermöglicht<br />
werden soll, andererseits wird auch über das User Interface Design der<br />
Software entschieden. Das Kapitel des Prototypings soll dem Leser einen<br />
Einblick in die verwendeten Programmiertechniken gewähren und erklärt die<br />
Funktionen einiger wichtiger Programmteile genauer. Ein weiterer<br />
umfangreicher Punkt der Arbeit ist die Qualitätssicherung der Software,<br />
welche hauptsächlich mittels Blackbox – und User Tests sichergestellt<br />
wurde.<br />
Michael PAESOLD<br />
Monitoring Temporal Patterns in Guideline-Based<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof Dr. Silvia Miksch<br />
35
Arno PANY<br />
SIMULANT: Design and implementation of a simulation environment for ant<br />
algorithms in peer-to-peer networks<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof Dr. Silvia Miksch<br />
Albrecht PRADER<br />
e-Learning zum Erlernen und Optimieren der Technik des Schilanglaufs<br />
Studium: Magisterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />
Abstrakt: Ziel der vorliegenden Arbeit ist es, eine e-Learning-Plattform <strong>für</strong><br />
die motorisch komplizierte Bewegungsform des Schilanglaufens zu schaffen.<br />
Durch die Nutzung des Internet soll die Sportart einerseits <strong>für</strong> eine<br />
möglichst breite Öffentlichkeit zugänglich gemacht werden. Andererseits ist<br />
die Plattform als Ergänzung zu praktischen Unterrichtseinheiten bei<br />
fachkundigem Lehrpersonal gedacht. Sie gibt den bereits Lernenden die<br />
Möglichkeit, die in den praktischen Einheiten gemachten<br />
Bewegungserfahrungen kognitiv zu erfassen und über Vergleiche mit einem<br />
Modell zu verbessern. Die angeführten Lernprozesse beinhalten passive<br />
Komponenten (Studium von beschreibenden Texten, Fotos und<br />
Videoaufnahmen) und aktive Komponenten (Bewegungspuzzle, Vergleich von<br />
Fotos und Videos der eigenen Bewegung mit denen des Modells durch<br />
Überlagerung und Bildkorrelation). Die Lernplattform wurde als Website<br />
unter Zuhilfenahme eines Content Management Systems erstellt. Die <strong>für</strong> die<br />
angeführten Lernprozesse notwendigen Software-Tools sind in den<br />
Programmiersprachen DHTML, Javascript und Java ausgeführt. Um das<br />
Projekt während der Entwicklung in einem überschaubaren Rahmen zu<br />
halten, wurde die Umsetzung exemplarisch <strong>für</strong> eine Teiltechnik (Schrittart)<br />
des Schilanglaufens ausgeführt.<br />
Heinz ROTH<br />
Probing an Monitoring of WSBPEL Processes with Web Services<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
36<br />
Abstrakt: In dieser Magisterarbeit wird ein neuer Ansatz zur Überwachung<br />
von Geschäftsprozessen, die auf dem Prozessstandard WSBPEL (Web<br />
Service Business Process Execution Language) basieren, beschrieben. Die<br />
ersten beiden Kapitel geben einen Überblick über den Themenbereich<br />
Business Process Management. Dabei werden die unterschiedlichen<br />
Lebenszyklen eines Geschäftsprozesse diskutiert. In Kapitel 3 werden<br />
Basiskonzepte der Prozessbeschreibungssprache WSBPEL vorgestellt.
Dabei werden wichtige Konstrukte von WSBPEL diskutiert, die als<br />
Ausgangsbasis <strong>für</strong> die weitere Arbeit dienen. In Kapitel 4 werden die<br />
Themen Prozessüberwachung und Prozesssteuerung behandelt. Dabei wird<br />
insbesondere auf die Gründe, Datenquellen und Applikationen beschrieben,<br />
die <strong>für</strong> die Prozessüberwachung und –Steuerung ausschlaggebend sind. Im<br />
praktischen Teil der Arbeit ab Kapitel 5 wird ein Ansatz beschrieben, mit<br />
dem WS-BPEL Prozesse automatisch erweitert werden können, um diese<br />
überwachbar zu machen. Ausgehend von einer existierenden WSBPEL<br />
Prozessbeschreibung wird diese mit Hilfe von XSLT (Extensible Stylesheet<br />
Language Transformation) erweitert, um zusätzlich Web-Service Aufrufe <strong>für</strong><br />
Sondierungsaufgaben einzubetten. Im Rahmen dieser Web-Service Aufrufe<br />
können beliebige Laufzeitinformationen eines Geschäftsprozesses an externe<br />
Systeme weitergegeben werden. Für die Sondierung wurden so genannte<br />
„Preaudit“ und „Postaudit“ Stellen <strong>für</strong> Prozessaktivitäten in die<br />
Prozessbeschreibung eingebettet, die während der Prozessdurchführung<br />
Laufzeitinformationen automatisch erfassen. Für die „Preaudit“ und<br />
„Postaudit“ Stellen wurden standardbasierte Web-Service Schnittstellen<br />
spezifiziert Im Rahmen der Magisterarbeit wurde ein Tool entwickelt,<br />
welches automatisch eine existierende WSBPEL Prozessbeschreibung mit<br />
Hilfe eines XSL (Extensible Stylesheet Language ) Stylesheets mit „Preaudit“<br />
und „Postaudit“ Stellen erweitert. Das entwickelte Tool wurde anhand eines<br />
Beispielprozesses mit dem Oracle BPEL Process Manager evaluiert.<br />
Wesentliche Beiträge der Magisterarbeit sind das entwickelte XSL<br />
Stylesheet zur Erweiterung von WSBPEL Prozessen sowie die Spezifikation<br />
der Web-Service Schnittstellen <strong>für</strong> „Preaudit“ und „Postaudit“<br />
Sondierungsstellen.<br />
Szabolcs ROZSNYAI<br />
Efficient indexing and searching in correlated business event streams<br />
Studium: Magisterstudium Information & Knowledge Management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Stefan Biffl<br />
Anneliese SCHIEFER<br />
Strukturierung von XML-Dokumenten - Vergleich von Schemasprachen und<br />
Diskussionen ihrer Mächtigkeit<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerald Futschek<br />
Abstrakt: Die Arbeit zeigt verschiedene Strukturierungsmöglichkeiten von<br />
XML-Dokumenten. Strukturierungsmechanismen spielen im Kontext der<br />
automatischen Generierung von Software-komponenten, der Optimierung<br />
dynamischer Abfragen von XML-Dokumenten, der automatischen<br />
Übersetzung von relationalen Daten in XML-Daten, der<br />
Applika-tions-integration etc. eine bedeutende Rolle. Hierzu werden in der<br />
37
Arbeit zuerst die Strukturierungsmechanismen DTD, W3C-XML-Schema,<br />
RELAX NG und Schematron vorgestellt. Nach einem Überblick über die<br />
verschieden Implementierungen, werden die Stärken und Schwächen der<br />
einzelnen Schemasprachen beschrieben und anschließend in Bezug auf ihre<br />
Verwendung, ihre Unterstützung von Elementen, Attributen und Datentypen,<br />
ihre Wiederverwendbarkeit, ihre Unter-stützung von<br />
Konsistenzeigenschaften und weitere Aspekte verglichen. Die vorgestellten<br />
Strukturierungsmethoden bilden die Grundlage <strong>für</strong> die Strukturierung von<br />
Geschäftsprozessereignissen. Anhand eines praktischen Beispiels, welches<br />
die Kombinationsmöglichkeit eines W3C-XML-Schemas und eines<br />
Schematron-Schemas zeigt, wird die Strukturierungsmöglichkeit von XML-<br />
Dokumenten <strong>für</strong> Geschäftsprozessereignisse demonstriert. Ein typischer<br />
Anwendungsbereich <strong>für</strong> strukturierte Geschäftsprozessereignisse sind zum<br />
Beispiel Business Performance Management Systeme, welche Ereignisse in<br />
Geschäftskennzahlen umwandeln und diese dann analysieren. Durch die<br />
Strukturierung der Ereignisse wird die Kennzahlenberechnung und<br />
Datenanalyse wesentlich erleichtert. Ein Ergebnis des praktischen Beispiels<br />
ist ein Ereignismodell, mit dem Unternehmen beliebige<br />
Geschäftsprozessereignisse erfassen, transformieren und weiterverarbeiten<br />
können. Zusätzlich wird das Ereignismodell mit Schematron-Regeln<br />
unterstützt, um Beschränkungen <strong>für</strong> Ereignisattribute abzubilden.<br />
Michael SCHRAMEL<br />
Development and Implementation of a Quantitative Multi-Disciplinary<br />
Information Security Risk Analysis Workshop<br />
Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
38<br />
Abstrakt: In den letzten Jahren hat Internet und Computer Kriminalität an<br />
Professionalität und Einfluss auf Unternehmen zugenommen. Wirksames<br />
Information security management wird <strong>für</strong> Unternehmen immer wichtiger,<br />
wie die steigende Anzahl an Frameworks und Verfahren beweist. Verfügbare<br />
information security management Verfahren sind entweder sehr<br />
kostenintensiv (Risiko Analysen) oder unvollständig und nicht Kundenspezifisch<br />
(Check-Listen und Best Practises). Die Mehrheit legt den<br />
Schwerpunkt auf technische Lösungen und vernachlässigt die soziale und<br />
organisatorische Komponente. Diese Arbeit stellt ein neues Verfahren vor,<br />
das aus einer ganzheitlichen quantitativen Risiko Analyse besteht und durch<br />
ein group decision support system (GDSS) unterstützt wird. Sie stellt dar,<br />
wie Risiken der Informationssicherheit und<br />
Informationssicherheitsmaßnahmen definiert und quantifiziert werden<br />
können, wie Gruppenentscheidungen effektiv und effizient erreicht werden<br />
und welche Möglichkeiten bestehen, Alternativen zu bewerten und zu<br />
ordnen. Die Anforderungen (requirements) an ein GDSS, welches Kosten<br />
reduzierte Gruppen-Risiko Analysen bei hochqualitativen Ergebnissen<br />
ermöglichen soll, werden präsentiert. Anschließend wird ein Workshop
Konzept entwickelt, implementiert und anhand der Anforderungen und der<br />
empirischen Ergebnisse einer Fallstudie validiert. Die vorgestellte Lösung<br />
ermöglicht Gruppen von Entscheidungsträgern, Entscheidungen der<br />
Informationssicherheit anhand mehrerer Kriterien im Rahmen eines kurzen<br />
Workshops zu modellieren. Es bezweckt die Reduzierung von Risiken, die<br />
gehäuft bei Gruppenentscheidungen auftreten, und versucht auf effiziente<br />
und komplette Weise, die Präferenzen der Gruppenmitglieder zu ermitteln.<br />
Die statistische Analyse der gesammelten Daten - unterstützt durch<br />
Funktionalitäten des GDSS wie der Portfolio Analyse, der Pareto<br />
Optimierung, der Monte Carlo Simulation und der Sensitivitätsanalyse -<br />
ermöglicht die effizienten Sicherheitsmaßnahmen schnell zu identifizieren<br />
und Empfehlungen zu formulieren: das vorgestellte Verfahren versucht<br />
durch den Einsatz dieser quantitativer Analysemethoden die Zufriedenheit<br />
der Entscheidungsträger bezüglich der Ergebnisse zu erreichen und will,<br />
dass der Entscheidungsfindungsprozess vom Management angenommen<br />
wird.<br />
Peter SCHRAMMEL<br />
Feasibility Study for RFID-based Temperature Monitoring of Blood Bags<br />
Studium: Magisterstudium <strong>Technische</strong> <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Abstrakt: Blutkonserven sind temperaturempfindliche Produkte, die strengen<br />
Qualitätsbestimmungen bezüglich Tests und Lagerungsbedingungen<br />
unterliegen. Allerdings ist derzeit die Nachvollziehbarkeit der Lagerungs- und<br />
Transporttemperatur nicht gegeben. Eine nicht unerhebliche Anzahl von<br />
Erythrozytenkonzentraten wird auf Grund einer möglichen Unterbrechung<br />
der Kühlkette verworfen. Diese Arbeit untersucht die Machbarkeit eines<br />
Systems zur durchgehenden Temperaturüberwachung eines jeden einzelnen<br />
Blutbeutels „von Vene zu Vene“ basierend auf der RFID-Technologie. Damit<br />
soll die Qualität der Blutprodukte gesteigert werden, indem das<br />
verantwortliche medizinische Personal in Fragen der Temperaturintegrität<br />
unterstützt wird. Weiters kann durch das Erkennen und Beseitigen von<br />
Problemen in der Lieferkette längerfristig der Verwurf reduziert werden.<br />
Nach einer detaillierten Analyse einer exemplarischen Blut-Supply-Chain von<br />
der Blutgewinnung über die Verarbeitung bis hin zur Transfusion, der<br />
Stärken und Schwächen der RFID-Technolgie, sowie der spezifischen<br />
Probleme der Temperaturmessung werden die Anforderungen an ein<br />
solches System untersucht. Die erforderlichen Basisfähigkeiten von<br />
Transpondern mit Temperatur-Logging-Funktion werden festgelegt. Neben<br />
der geeigneten Einbettung des Systems in den Prozessablauf soll auch eine<br />
Wiederverwendung der Transponder ermöglicht werden. Designoptionen<br />
von RFID-Systemarchitekturen werden hinsichtlich der gegebenen<br />
Anwendung diskutiert. Ein RFID-Temperaturmonitoring-Framework wurde<br />
implementiert, sowie einige repräsentative Anwendungsfälle, um die<br />
technische Machbarkeit der Schlüsselkonzepte zu untermauern. Aspekte<br />
39
der Security und Reliability werden in die Diskussion miteinbezogen ebenso<br />
wie die Möglichkeiten der Pulkerkennung, RFID-Middleware und der<br />
derzeitige Stand der Standardisierung. Als weitere Anwendungen der<br />
Technologie wird der Weinhandel, die Verfolgung von Bierfässern,<br />
Medikamente und die Klimakontrolle alter Handschriften vorgestellt. Einige<br />
Fragen der Reliability der Transponder müssen noch praktischen Tests<br />
unterzogen werden. Basierend auf den ausgearbeiteten Konzepten ist die<br />
Machbarkeit eines RFID-basierten Systems zur Temperaturüberwachung von<br />
Blutkonserven gegeben. Außerdem ergeben sich noch andere Vorteile des<br />
RFID-Einsatzes, wie Rückverfolgbarkeit, automatische Dokumentation, eine<br />
Reduktion der Fehleranfälligkeit der Prozesse, z.B. betreffend die<br />
Verwechslung von Blutbeuteln, und lückenloseres Hämovigilanz-Reporting.<br />
Wilhelm Maximilian STEGERWALD<br />
IT-Projektmanagement: Management des Forschungsprojekts "StegIT" mit<br />
Schwerpunkt Steganographie in der digitalen Sprachübertragung<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Doz. Dr. Ernst Piller<br />
Stefan STEIGERWALD<br />
Einsatz von Projektmanagement in Softwareprojekten und eine<br />
Veranschaulichung anhand des Projekts LIMA<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Doz. Dr. Ernst Piller<br />
Jamil WAHBEH<br />
WLAN Authentifizierungsmechanismen anhand einer praktischen<br />
Implementierung von EAP-TLS<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. A Min Tjoa<br />
Arbeitsbereich Interaktive Mediensysteme<br />
Michael BRANDEJSKY<br />
Automatische Erkennung von text in Videosequenzen<br />
Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />
BetreuerIn: Ao.Univ.Prof. Dr. Horst Eidenberger<br />
40
Abstrakt: Text zählt nach wie vor zu den wichtigsten Kommunikationsmitteln,<br />
die das Fernsehen zu bieten hat. Kein anderes Medium bietet die<br />
Möglichkeit, so störungsfrei Informationen zu übermitteln und dabei den<br />
raschen Überblick über das Geschehen zu behalten wie Texteinblendungen.<br />
Ob aktueller Spielstand, wichtige Meldungen oder der Name des<br />
Moderators, die Anwendungsmöglichkeiten dazu sind vielfältig. Diese Fülle<br />
an Informationen ermöglicht eine präzise Indexierung und Archivierung der<br />
Videosequenzen. Was <strong>für</strong> den Menschen einfach ist, ist <strong>für</strong> eine Software<br />
jedoch eine komplexe Problemstellung. Dabei muss die Software einerseits<br />
feststellen, wo und ob sich im aktuellen Videobild ein Textblock befindet,<br />
diesen extrahieren und daraus die einzelnen Buchstaben erkennen,<br />
andererseits aber auch Störungen und Falschdetektionen herausfiltern.<br />
Trotz der bereits langen Geschichte der Forschung an automatischen<br />
Texterkennungsfunktionen und der Vielzahl an Forschungserkenntnissen gibt<br />
es noch immer etliche Fehlerquellen und Probleme, welche zu schlechten<br />
Ergebnissen führen. So ist die Kombination aus PAL-Fernsehauflösung,<br />
Störungen bei der analogen Übertragung und den verwendeten kleinen<br />
Schriftarten (wie beispielsweise bei Einblendungen in Sportübertragungen)<br />
sehr problematisch und führt zu vielen Fehlinterpretationen. Im Rahmen<br />
dieser Diplomarbeit wird ein selbst entwickeltes Verfahren<br />
zur automatischen Detektion und Erkennung von Texteinblendungen in<br />
Videosequenzen vorgestellt. Das Ziel der Arbeit war die Entwicklung eines<br />
Prototypen, welcher insbesondere mit den kleinen Schriftarten von<br />
Sportübertragungen umgehen kann. Dabei sollte nicht nur auf die Detektion<br />
und Extraktion der Buchstaben Wert gelegt werden, sondern es sollten<br />
auch Methoden zur Mustererkennung der Buchstaben erforscht und<br />
weiterentwickelt werden. Es wurde daher ein neues Feature eingeführt,<br />
welches bisher nicht <strong>für</strong> Texterkennung benutzt wurde. Dieses Feature<br />
berechnet die Winkelabhängigkeit der Pixel eines Segments und ermöglicht<br />
durch die Berechnung eines Histogramms einen Vergleich mit anderen<br />
Segmenten. Im Zuge der Entwicklung wurden verschiedene<br />
Klassifikationsmethoden getestet und implementiert. Der Prototyp wurde so<br />
realisiert, dass die einzelnen Systemteile leicht austauschbar sind, um<br />
weitere Forschung zu ermöglichen.<br />
Mathis CSISINKO<br />
Long distance Distribution of virtual and augmented reality applications<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Ass. Dr. Hannes Kaufmann<br />
Abstrakt: Kollaboration ist ein faszinierender und viel versprechender Aspekt<br />
von Virtual und Augmented Reality Systemen, unabhängig von der Tatsache,<br />
ob die Teilnehmer am selben Ort versammelt sind. Zumindest Kollaboration<br />
über Entfernung erfordert die Fähigkeiten zur Verteilung, um das Virtual<br />
Environment an jeden teilnehmenden Ort replizieren zu können. Studierstube<br />
ist ein kollaboratives Augmented Reality System und stellt zuverlässige<br />
41
Verteilung in einem beschränkten Ausmaß zur Verfügung. Diese<br />
Diplomarbeit stellt eine Erweiterung dieser Fähigkeiten um die Möglichkeit<br />
zur Verteilung über weite Strecken auf herkömmlichen IP-basierenden<br />
Netzwerken wie dem Internet dar. Kollaboration zwischen Teilnehmern aus<br />
verschiedenen Städten, Ländern, ja sogar Kontinenten wird damit möglich.<br />
Um diese neuen Möglichkeiten anzuwenden, wurde Construct3D, ein<br />
dynamisches Konstruktions-Programm <strong>für</strong> 3D-Geometrie zu schulischen<br />
Zwecken, adaptiert. Durch Reduktion des zu übertragenden Datenvolumens<br />
ließ sich die Verteilungs-Effizienz steigern. Des weiteren wurden<br />
Eigenschaften betreffend Robustheit, Flexibilität und Skalierbarkeit<br />
verbessert. Die Fähigkeiten zur Applikations-Verteilung und Kollaboration<br />
profitieren von all diesen Bemühungen direkt.<br />
Robert LIEBO<br />
Visualization of Complex Function Graphs in Augmented Reality<br />
Studium: Magisterstudium Computergrafik und Digitale Bildverarbeitung<br />
BetreuerIn: Univ. Ass. Dr. Hannes Kaufmann<br />
Abstrakt: Understanding the properties of a function over complex numbers<br />
can be much more difficult than with a function over real numbers. This<br />
work provides one approach in the area of visualization and augmented<br />
reality to gain insight into these properties. The applied visualization<br />
techniques use the full palette of a 3D scene graph's basic elements, the<br />
complex function can be seen and understood through the location, the<br />
shape, the colour and even the animation of a resulting visual object. The<br />
proper usage of these visual mappings provides an intuitive graphical<br />
representation of the function graph and reveals the important features of a<br />
specific function. Augmented reality (AR) combines the real world with virtual<br />
objects generated by a computer. Using multi user AR for mathematical<br />
visualization enables sophisticated educational solutions for studies dealing<br />
with complex functions. A software framework that has been implemented<br />
will be explained in detail, it is tailored to provide an optimal solution for<br />
complex function graph visualization, but shows as well an approach to<br />
visualize general data sets with more than 3 dimensions. The framework<br />
can be used in a variety of environments, a desktop setup and an immersive<br />
setup will be shown as examples. Finally some common tasks involving<br />
complex functions will be shown in connection with this framework as<br />
example usage possibilities.<br />
42
Arbeitsbereich Business Informatics<br />
Mario PRINZ<br />
Modellgetriebene Entwicklung ubiquitärer Web-Anwendungen<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Einhergehend mit der zunehmenden Verbreitung und Komplexität<br />
von Web-Anwendungen und der daraus resultierenden Wandlung des World<br />
Wide Web von einem statischen Informationsmedium zu einem<br />
dynamischen Anwendungsmedium, entwickelte sich eine Reihe von<br />
Modellierungsansätzen <strong>für</strong> Web-Anwendungen. Die Bandbreite reicht dabei<br />
von sehr spezifischen Modellierungsansätzen, die nur auf Teilaspekte von<br />
Web-Anwendungen fokussieren, bis zu solchen, die den gesamten<br />
Entwicklungsprozess umfassen. Neue Herausforderungen an diese Ansätze<br />
ergeben sich einerseits aus dem zunehmenden Bedürfnis nach<br />
Adaptierbarkeit von Web-Anwendungen und andererseits aus dem<br />
aufkommenden Trend der modellgetriebenen Software-Entwicklung. Ziel<br />
dieser Arbeit ist es, einen Überblick über aktuelle Modellierungsansätze und<br />
deren Werkzeugunterstützung zu geben und diese einer Evaluierung anhand<br />
eines Kriterienkataloges zu unterziehen, der die bereits erwähnten<br />
Anforderungen berücksichtigt. Um praktische Erfahrung im Umgang mit den<br />
untersuchten Werkzeugen zu sammeln sollen die Ansätze auch anhand<br />
eines Beispiels verglichen werden. Die Evaluierung soll aufzeigen, ob eine<br />
modellgetriebene Entwicklung mit aktuellen Modellierungsansätzen bereits<br />
möglich ist und in wie weit auf die speziellen Erfordernisse von ubiquitären<br />
Web-Anwendungen eingegangen wird.<br />
Andreas STARIBACHER<br />
Content Wiederverwendung in verteilten Content Management Systemen<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Content Management Systeme sind in Unternehmen feste<br />
Bestandteile beim Contenterstellungsprozess. Sie unterstützen Autoren<br />
beim Erstellen und Bearbeiten von Content durch grafische<br />
Benutzeroberflächen, einfache Bedienung und unzähligen Hilfestellungen. Da<br />
oft gleicher Content auf verschiedenen Webseiten angezeigt und nur einmal<br />
erstellt werden soll, setzen immer mehr Unternehmen Content<br />
Wiederverwendung ein. Die meisten Content Management Systeme<br />
beinhalten – oft recht einfache – Funktionen, um Content wieder zu<br />
verwenden. Doch wie kann Content in Unternehmen, wo mehrere<br />
Abteilungen Content erfassen und verschiedene Content Management<br />
Systeme im Einsatz sind, wieder verwendet werden? Diese Arbeit befasst<br />
sich mit allgemeinen Aspekten von Content Management Systemen und<br />
43
Content Wiederverwendung, wie Content Wiederverwendung in verteilten<br />
Content Management Systemen realisiert werden kann und wie Content<br />
Wiederverwendung von derzeit am Markt erhältlichen Content Management<br />
Systemen unterstützt wird.<br />
Walter SUNK<br />
Entwurf und Realisierung einer Internetplattform <strong>für</strong> den Verlag von<br />
fotounterstützenden Dokumentationen alpiner Touren<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: O.Univ.Prof. Dr. Gertrude Kappel<br />
Abstrakt: Immer mehr Wanderer und Bergsteiger werden durch die<br />
Faszination der Gebirgswelt sowie deren Erlebnis- und Erholungswert in das<br />
Gebirge gezogen. Voraussetzung zum erfolgreichen und<br />
sicheren Durchführen von Touren im Gebirge ist eine sehr genaue<br />
Tourenplanung. Von besonderem Interesse bei der Tourenplanung sind<br />
genaue Informationen über den Tourenverlauf sowie über mögliche Gefahren<br />
und Schlüsselstellen. Die meisten Informationen werden in Textform<br />
angeboten. Sowohl Fachliteratur als auch Informationen im Internet<br />
beschreiben Touren überwiegend in Worten, es fehlt in der Regel gutes<br />
Fotomaterial. Doch gerade dieses verbessert die Vorstellung über eine<br />
alpine Tour ganz wesentlich. Aus diesem Grund beschäftigt sich die<br />
vorliegende Arbeit mit der Entwicklung einer Internetplattform <strong>für</strong> den Verlag<br />
von fotounterstützten Dokumentationen alpiner Touren. Jede Dokumentation<br />
soll dabei genügend Fotomaterial <strong>für</strong> eine umfangreiche Tourenplanung<br />
enthalten können und den gesamten Verlauf einer Tour sowie alle<br />
Schlüsselstellen auf der Tour sichtbar machen. Die Plattform wurde mit<br />
Sommerbeginn 2006 unter www.AlpinImageS.com eröffnet und stellt als<br />
Basisinhalt einen Osttirol Wander- und Hochtourenführer sowie einen kleinen<br />
Zentralpyrenäen Wanderführer zur Verfügung. Da es Berge weltweit gibt<br />
und Alpinisten unterschiedlichste Sprachen sprechen, wurde die<br />
Internetplattform mehrsprachig ausgeführt, zur Zeit in den Sprachen<br />
Deutsch, Englisch und Französisch. Gezeigt wird, dass <strong>für</strong> die Umsetzung<br />
eines derartigen Verlages neben umfangreichen technischen und<br />
sprachlichen Kenntnissen sowie neben Erfahrungen in der Alpinistik auch<br />
grundlegende Kenntnisse in den Gebieten der Buchhaltung und im Datenund<br />
<strong>Informatik</strong>recht notwendig sind. Die Realisierung der Plattform stellt<br />
sich diesbezüglich als ein multidisziplinäres Projekt in dem spannenden<br />
Gebiet des Bergsports heraus.<br />
44
INSTI<strong>TU</strong>T FÜR WIRTSCHAFTSMATHEMATIK<br />
Yvonne KASCHKE<br />
Der österreichische Lotto-Markt<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.-Prof. Dr. Helmut Frisch<br />
Lara LEBEDINSKI<br />
Die Koordinierung der Wirtschaftspolitik in der Europäischen Union<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: O.Univ.-Prof. Dr. Helmut Frisch<br />
Manuel WÄCKERLE<br />
Evolution von Demokratie in Makro- und Mikrosphäre<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Gerhard Hanappi<br />
Leonhard ZEHENTNER<br />
Multikriterielle Routenplanung mit Tabu-Suche<br />
Studium: Magisterstudium Computational Intelligence<br />
BetreuerIn: Ao. Univ.-Prof. Dr. Alexander Mehlmann<br />
Abstrakt: Was ist die beste Route von A nach B? Antwort des Controllers:<br />
die Billigste. Antwort des Pendlers um 06:35 früh: die Schnellste. Antwort<br />
des Grünwählers: Hauptsache mit dem Bus. Es gibt viele Möglichkeiten eine<br />
Route zu beurteilen. Nimmt man nur ein Kriterium als<br />
Entscheidungsgrundlage, dann ist die Berechnung der besten Route aus<br />
computationaler Sicht einfach. Sind mehrere Kriterien gleichzeitig zu<br />
beachten wird es schwieriger. Die Länge der Fahrzeit kann eine billige Route<br />
teuer machen, die kurze Route über einen Pass kann den Schadstoffausstoß<br />
empfindlich erhöhen. Bei vielen Kriterien bewirkt ein Verbessern des einen<br />
Kriteriums ein Verschlechtern des anderen. Es ergeben sich aus<br />
mathematischer Sicht folgende<br />
3 Situationen: 1. Die Lösungen X und Y sind gleich gut, das heißt: X und Y<br />
unterscheiden sich in keinem Kriterium. 2. Die Lösung X ist besser als Y,<br />
das heißt: X ist in mindestens einem Kriterium besser als Y aber Y in<br />
keinem besser als X. 3. Die Lösungen X und Y sind unvergleichbar, das<br />
heißt: X ist in mindestens einem Kriterium besser als Y und umgekehrt. Ist<br />
eine Lösung gegenüber allen anderen Lösungen unvergleichbar, dann wird<br />
sie auch pareto-optimal genannt. Alle pareto-optimalen Lösungen zusammen<br />
werden Pareto-Menge genannt. In dieser Arbeit versuche ich festzustellen,<br />
45
ob Tabu-Suche geeignet ist, eine möglichst große Menge von paretooptimalen<br />
Lösungen zu finden. Diese Pareto-Menge kann <strong>für</strong> kleine Aufgaben<br />
in vertretbarer Zeit exakt bestimmt werden. Bei größeren Aufgaben ist das<br />
nicht mehr möglich. Um die Effizienz des Algorithmus zu testen, habe ich ein<br />
C++Programm geschrieben und mit diversen mittelgroßen Problemen<br />
gefüttert. Da sich eine frühere Diplomarbeit am Institut <strong>für</strong><br />
Wirtschaftsmathematik mit demselben Problem über einen anderen<br />
Algorithmus (evolutionären) genähert hat, konnte ich entsprechende<br />
Vergleiche durchführen. In dieser erwähnten Arbeit wird auch die<br />
Problematik von hybriden Lösungen aufgeworfen. Hybride Lösungen sind<br />
konvexe Kombinationen von Lösungen. Wenn eine pareto-optimale Lösung<br />
von einer Hybriden dominiert wird, wird sie "non-supported" genannt. Ein<br />
Kapitel der Magisterarbeit widmet sich diesem Thema.<br />
INSTI<strong>TU</strong>T FÜR STATISTIK UND<br />
WAHRSCHEINLICHKEITSTHEORIE<br />
Markus COZOWICZ<br />
Large Vocabulary Continuous Speech Recognition Systems and Maximum<br />
Mutual Information Estimation<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Privatdozent Dr. Friedrich Leisch<br />
Abstrakt: Diese Arbeit gibt eine allgemeine Einführung in den Bereich der<br />
automatisierten Spracherkennung mit Hilfe von Hidden Markov Modellen<br />
(HMM). Es wurde eine vollständige Trainingsumgebung von Sprachmodellen<br />
inklusive Erzeugung von Mix Modellen unter Verwendung des Hidden-Markov-<br />
Toolkit (HTK) und eines Spracherkenners von Sail Labs' erstellt. Um die<br />
Erkennungsrate zu erhöhen, wurde Maximum Mutual Information (MMI)<br />
Parameterschätzung implementiert. Ein 93 Stunden umfassender<br />
arabischer Broadcast News Korpus wurde <strong>für</strong> die Experimente verwendet.<br />
Eine Verbesserung der Erkennungsrate durch MMI am verwendeten Korpus<br />
konnte nicht festgestellt werden, es wird aber vermutet, dass die nötige<br />
Modell Umwandlung um HTK trainierte Modelle in Sail Labs Spracherkenner<br />
zu verwenden, da<strong>für</strong> verantwortlich ist.<br />
46
INSTI<strong>TU</strong>T FÜR VERFAHRENSTECHNIK,<br />
UMWELTTECHNIK UND TECHN.<br />
BIOWISSENSCHAFTEN<br />
Richard <strong>TU</strong>SCHL<br />
Matrixmethoden als Grundlage produktbezogener Evaluierung<br />
Studium: Diplomstudium <strong>Informatik</strong><br />
BetreuerIn: Univ.Doz. Dr. Andreas Windsperger<br />
INSTI<strong>TU</strong>T FÜR RAUMENTWICKLUNG,<br />
INFRASTRUK<strong>TU</strong>R UND UMWELTPLANUNG<br />
Michael MEIER<br />
Projektierung, Planung und Umsetzung eines Fachmarktzentrums<br />
Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Wolfgang Blaas<br />
INSTI<strong>TU</strong>T FÜR HANDHABUNGSGERÄTE UND<br />
ROBOTERTECHNIK<br />
Fabriba MOTEDAYEN<br />
Roboter in der Chirurgie<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. DDr. Peter Kopacek<br />
Abstrakt: In kaum einem anderen Beruf wird die Verantwortung <strong>für</strong> das<br />
Schicksal eines Menschen so unmittelbar wahrgenommen wie in der<br />
Chirurgie. Es haben sich mittlerweile zwei Meinungsfelder gebildet. Die<br />
einen, die meinen, dass der Chirurg in Zukunft gänzlich durch die Maschinen<br />
ersetzt werden kann bzw. dass der Roboter immer komplexere<br />
Bearbeitungsvorgänge übernimmt und der Operateur zunehmend in die Rolle<br />
eines Konstrukteurs gerät; und die anderen, die meinen, dass diese<br />
Systeme nur Assistenzsysteme sein werden, die den Chirurgen beim<br />
genauen Arbeiten unterstützten – ihn aber nicht ersetzten. Voraussetzung<br />
<strong>für</strong> Eingriffe mittels Manipulator- und Robotersysteme ist die<br />
Weiterentwicklung der Navigationssysteme. Notwendig sind hier Systeme<br />
<strong>für</strong> eine exakte Lokalisierung des Instruments relativ zum Gewebe und<br />
detaillierter Informationen über den Gewebetyp und -zustand. Ein innovativer<br />
Einsatz ist die multimodale und lokale Navigation, bei der parallel mehrere<br />
47
Sensoren ausgewertet werden. Aus den Messergebnissen der<br />
unterschiedlichen Modalitäten kann ein aktuelles Gesamtbild vom Situs<br />
zusammengesetzt werden, von denen eine genauere Beschreibung erwartet<br />
wird. Der Vorteil ist, dass kleine Sensoren an der Instrumentenspitze direkt<br />
am Situs angebracht werden, die kontinuierlich im Operationsverlauf messen<br />
und den gleichzeitigen Effektoreinsatz nicht behindern. Die Fortschritte in<br />
der Mikrosystemtechnik werden möglicherweise die Gestalt des<br />
Robotereinsatzes in Zukunft vollständig verändern. Die ersten Ansätze <strong>für</strong><br />
solche Systeme erscheinen zwar noch primitiv, trotzdem hätten diese<br />
Systeme eine Reihe von Vorteilen. Im Idealfall ist kein Zugang mehr<br />
erforderlich und die Bewegungsfreiheit am Ziel würde nicht durch die<br />
Verbindung nach außen eingeschränkt. Für die nächsten Jahre oder<br />
Jahrzehnte bleibt diese Vision jedoch noch ein Wunschbild der minimalinvasiven<br />
Operationstechnik. Dennoch hält man es <strong>für</strong> möglich, dass die<br />
Technologie <strong>für</strong> den MIC – Roboter eines Tages verfügbar sein wird.<br />
Lukas-Sebastian SILBERBAUER<br />
Robots for Landmine Detection<br />
Studium: Magisterstudium <strong>für</strong> Wirtschaftsingenieurswesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. DDr. Peter Kopacek<br />
Abstrakt: Humanitäre Entminung stellt zur Zeit ein arbeits- und<br />
kostenintensives Unterfangen dar. Roboter <strong>für</strong> gefährliche<br />
Aufgabenstellungen wie diese prädestiniert, da sie monotone Aufgaben<br />
ermüdungsfrei und sicher durchführen können. Im Rahmen der Arbeit<br />
"Robots for Landmine Detection" wurde ein Roboterprototyp zur<br />
Landminensuche gebaut und in Betrieb genommen.<br />
Stefan Khao-I-Dang TAING<br />
Implementierung eines Frameworks <strong>für</strong> die echtzeitfähige Steuerungseinheit<br />
eines humanoiden Roboters<br />
Studium: Magisterstudium Wirtschaftsingenieurswesen <strong>Informatik</strong><br />
BetreuerIn: O.Univ.Prof. DDr. Peter Kopacek<br />
48<br />
Abstrakt: Die Erschaffung künstlichen Lebens nach menschlichem Vorbild ist<br />
wohl einer der ältesten Menschheitsträume. Durch den rasanten Fortschritt<br />
im Bereich der <strong>Informatik</strong> und Elektronik ist es heute möglich, autonome<br />
Roboter zu bauen, die sich stabil auf zwei Beinen fortbewegen können.<br />
Wenn die Entwicklung der Roboter ähnlich verläuft wie die der Computer, ist<br />
es wohl nur mehr eine Frage der Zeit bis jeder Haushalt seinen eigenen<br />
Roboterassistenten hat. Die Magisterarbeit befasst sich mit den<br />
Softwareaspekten der zentralen Steuerungseinheit eines humanoiden<br />
Roboters. Das Ziel der Arbeit ist die Auswahl eines Echtzeitbetriebssystems<br />
(RTOS) und die Implementierung eines Frameworks. Unter Framework ist
hier eine Architektur zu verstehen, die einem Benutzer Schnittstellen zur<br />
Verfügung stellt. Die Einleitung bildet ein kurzer Einblick in die Geschichte,<br />
Gegenwart und Zukunft der humanoiden Roboter. Im Anschluss werden die<br />
Grundlagen zur verwendeten Software erläutert sowie die eingesetzte<br />
Hardware näher beschrieben. Anhand von vier definierten Kriterien werden<br />
die verfügbaren RTOS bewertet. Die in die engere Wahl kommenden<br />
Produkte werden anhand ihrer Systemarchitektur verglichen. Weiters erfolgt<br />
eine praktische Bewertung auf Basis von Testinstallationen. Schlussendlich<br />
wurde das Echtzeitbetriebssystem RTAI ausgewählt. RTAI ist eine<br />
Echtzeiterweiterung des freien Betriebssystems Linux. Im Anschluss wird die<br />
Implementierung eines Frameworks beschrieben. Ziel des Frameworks sind<br />
Schnittstellen <strong>für</strong> das Versenden von Kommandos von einem Laptop an die<br />
Zentrale Steuerungseinheit und <strong>für</strong> die Kommunikation zwischen Echtzeitund<br />
Userspace-Anwendungen. Den Abschluss bildet ein kurzer Überblick<br />
über weiterführende Software und Komponenten, welche <strong>für</strong> anschließende<br />
Arbeiten in dem Projekt relevant sind.<br />
INSTI<strong>TU</strong>T FÜR MANAGEMENTWISSENSCHAFTEN<br />
Michael EHRENHÖFER<br />
IT-basiertes Risikomanagement Risikomanagement - Entwicklung und<br />
Implementierung eines Geschäftsrisikomodells am Beispiel der phi premium<br />
oil HandelsgesmbH<br />
Studium: Diplomstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Prof. Dr. Walter S.A. Schwaiger<br />
Thomas JEZEK<br />
Organisation und Entwicklung einer E-Learningplattform am Institut <strong>für</strong><br />
Managementwissenschaften, Bereich Betriebstechnik und Systemplanung<br />
Studium: Magisterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Abstrakt: Ziel der Arbeit ist es einerseits die Bedeutung der Thematik e-<br />
Learning herauszustreichen und andererseits einen grundlegenden Überblick<br />
über den aktuellen Status quo in der Literatur zu gewährleisten. Die<br />
Erkenntnisse daraus werden in der e-Learning Plattform "<strong>TU</strong>WEL" anhand<br />
der Gegebenheiten des Instituts Managementwissenschaften, Bereich<br />
Betriebstechnik und Systemplanung an der <strong>TU</strong> <strong>Wien</strong> implementiert.<br />
Voraussetzung da<strong>für</strong> ist eine Organisation und Überarbeitung der<br />
Lehrinhalte <strong>für</strong> die Semester 2006/2007.<br />
49
Michael MOSER<br />
Controlling von Softwareprodukten unter Unsicherheit<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Prof. Dr. Walter S.A. Schwaiger<br />
Gerd S<strong>TU</strong>MPFL<br />
IT-basiertes Risikomanagement Risikomanagement - Entwicklung und<br />
Implementierung eines Geschäftsrisikomodells am Beispiel der phi premium<br />
oil HandelsgesmbH<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Univ.Prof. Dr. Walter S.A. Schwaiger<br />
50<br />
Abstrakt: Spätestens seit der Veröffentlichung des Enterprise Risk<br />
Management Frameworks durch COSO fand das Management von Chancen<br />
und Risiken verstärkt Einzug in die strategische Unternehmensführung.<br />
Diese Entwicklung führte zum neuen interdisziplinären Selbstverständnis des<br />
Enterprise Risk Managements. Risiken werden somit nicht mehr durch<br />
einfache Checklisten isoliert von der durch das Management entwickelten<br />
Unternehmensvision betrachtet, sondern sind im Hinblick auf die Verfehlung<br />
der Unternehmensziele zu verstehen. Die Balanced Scorecard stellt ein<br />
bewährtes und etabliertes Instrument zur strategischen<br />
Unternehmensführung dar. Ebenso wie beim Enterprise Risk Management<br />
nach COSO steht im Zentrum der Betrachtungen ein Zielsystem mit aus<br />
Vision und Strategie abgeleiteten operativen Zielen. Ausgehend von dieser<br />
Gemeinsamkeit wird im Rahmen dieser Arbeit versucht, die beiden Konzepte<br />
unter besonderer Berücksichtigung prozessorientierter, zirkulär – kausaler<br />
Sichtweisen und Zusammenhänge zu verbinden. Als konkretes Beispiel wird<br />
<strong>für</strong> die phi premium oil handelsgesmbh ein Modell zur Simulation des<br />
zukünftigen Unternehmenserfolges entwickelt, das die Konzepte von<br />
Balanced Scorecard und Enterprise Risk Management berücksichtigt.<br />
Mithilfe der Risikofaktoren Absatzwachstum, Einkaufspreiswachstum und<br />
Rohaufschlag ergibt sich ein Geschäftsrisikomodell, das Umsatz und<br />
Rohertrag unter Berücksichtigung unternehmensspezifischer Stellgrößen<br />
modelliert. Durch eine unterjährige Modellierung sollen Abweichungen von<br />
Planwerten frühzeitig erkannt und Gegenmaßnahmen eingeleitet werden<br />
können. Im zweiten Teil der Arbeit wird das Modell als Softwareprototyp auf<br />
Basis einer verteilten Anwendung implementiert. Ziel der Applikation soll die<br />
Unterstützung des Anwenders bei Modellkalibrierung anhand historischer<br />
Ist-Daten sowie die risikoadjustierte Simulation von Absatz, Umsatz,<br />
Materialeinsatz und Ergebnis der gewöhnlichen Geschäftstätigkeit (EGT)<br />
aufgrund der vom Benutzer erfassten Plan-Daten sein. Der Prototyp soll<br />
ferner unter der Prämisse eines offenen, auf der Client- sowie Serverseite<br />
plattformunabhängigen, skalierbaren und ortsungebundenen Systems<br />
entwickelt werden. Um diese Anforderung bestmöglich zu unterstützten,<br />
wird die Webapplikation mithilfe von Java und PHP entwickelt. Als
Datenbanksystem wird mySQL in Betracht gezogen, da sowohl eine<br />
Anbindung von Java als auch von PHP an die Datenbank durch integrierte<br />
Bibliotheken relativ rasch bewerkstelligt werden kann. Einerseits bietet Java<br />
mit RMI eine Möglichkeit zur Verteilung von Komponenten einer Applikation<br />
und andererseits kann durch PHP sehr effektiv und effizient ein User-<br />
Interface, unter Beachtung von etablierten Usability – Regeln, entwickelt<br />
werden. Für den Prototyp bedeutet dies, dass komplexe Operationen, wie<br />
etwa die Kalibrierung der Ist- Daten oder Simulationsläufe des EGT, des<br />
Absatzes etc. in Java implementiert werden. Hingegen übernimmt PHP die<br />
Funktion zur Verwaltung der Ist- und Plandatenbestände, die Visualisierung<br />
von Simulationsergebnissen sowie die Abwicklung der Benutzerinteraktion.<br />
Durch die Kombination von Java, PHP und mySQL sollte das gesetzte Ziel –<br />
die Implementierung des Geschäftsrisikomodells der phi premium oil<br />
HandelsgmbH auf Basis einer verteilten Webapplikation – erreicht werden<br />
können.<br />
Josef UNTERBERGER<br />
Qualitätsmanagment im Customer Care der Telekommunikationsbranche<br />
unter Einbindung moderner Informationstechnologien<br />
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Abstrakt: Unternehmen der Telekommunikationsbranche mit starkem<br />
Kundenfokus fordern heutzutage ein gezieltes und fest-verankertes<br />
Qualitätsmanagement. Oftmals geht die gewünschte, hohe Qualität an<br />
Informationen, die durch ein Call Center System fließt aufgrund des stetig<br />
wachsenden Informationsdrucks an das Unternehmen und seine Umwelt,<br />
verloren. Ziel dieser Arbeit ist es die Komplexität von Call Center Systemen<br />
aufzuzeigen, die damit verbundenen Reorganisationsmöglichkeiten von<br />
Informations- und Kommunikationsstrukturen im Hinblick auf<br />
qualitätsverbessernde Maßnahmen zu untersuchen und einen Prototypen<br />
eines „Quality-Checkup-Systems“ zu entwickeln. Die behandelte Materie ist in<br />
ihrer Art und Weise auf Call Center Systeme ausgerichtet und beschrieben<br />
als: (x) Organisations- und Managementstrukturen, (x)<br />
Qualitätsmanagementmethoden, (x) Informations- und<br />
Kommunikationssysteme, (x) Sozialwissenschaftliche Aspekte und die (x)<br />
Entwicklung eines Prototypen. Die Arbeit soll schließlich dazu beitragen, den<br />
Informationsinput und -output anhand eines, in einem<br />
Qualitätsmanagementsystem eingebunden Regelwerks qualitativ zu steuern<br />
und messbar zu machen, um davon zweckentsprechende Maßnahmen<br />
ableiten zu können.<br />
Markus WEBER<br />
Analyse und Optimierung des Beschaffungsprozesses in Unternehmen mit<br />
Hilfe der Data-Warehouse-Lösung SAP BW<br />
51
Studium: Magisterstudium Wirtschaftsinformatik<br />
BetreuerIn: Ao.Univ.Prof. Dr. Kurt Matyas<br />
Abstrakt: Diese Arbeit zeigt die Vorteile des Einsatzes eines Data-<br />
Warehouse in den verschiedenen Bereichen der Beschaffung auf.<br />
Aufbauend auf theoretische Grundlagen zum Beschaffungsprozess selbst,<br />
wird der Fokus auf die strategischen Kernelemente des<br />
Beschaffungsmanagements gelegt und in Folge näher auf langfristig<br />
ausgelegte Strategien eingegangen. Basierend auf dabei erlangte Einsichten<br />
und analysierte Betrachtungen von bewährten Methoden innerhalb der<br />
Beschaffung, wird die typische Einkaufssituation eines Handelskonzerns<br />
mittels SAP BW simuliert. Das Ziel dabei ist die Aufbereitung und<br />
Darstellung von relevanten Kennzahlen, welche auf eine Harmonisierung von<br />
Daten unterschiedlicher Herkunft beruht. Dabei liegt der Fokus nicht nur auf<br />
dem Aufbau einer einheitlichen Datenbasis, sondern auch auf die<br />
Analysemöglichkeiten durch ein darauf aufbauendes<br />
entscheidungsunterstützendes Reporting. Unternehmen soll anhand der<br />
aufgezeigten Möglichkeiten die Entscheidung <strong>für</strong> den Einsatz und die<br />
Investition in eine Data-Warehouse-Lösung wie SAP BW erleichtert werden.<br />
INSTI<strong>TU</strong>T FÜR BREITBANDKOMMUNIKATION<br />
52<br />
Elmar NADSCHLÄGER<br />
Technological and Economical Aspects of Digital Video Broadcasting for<br />
Handheld Devices<br />
Studium: Magisterstudium <strong>Informatik</strong>management<br />
BetreuerIn: O.Univ.Prof. Dr. Harmen R. Van As<br />
Abstrakt: Mobile Endgeräte bieten heutzutage bereits eine Reihe<br />
verschiedener Funktionalitäten. Neben Kommunikation über Sprache und<br />
Textnachrichten wird das Fotografieren, das Versenden von Bildern sowie<br />
das Downloaden und Abspielen Music-Clips von den meisten Endgeräten und<br />
Anbietern unterstützt. Der nächste logische Schritt ist die Integration von<br />
digitalem TV. Da sich digitales TV bereits weiter Verbreitung erfreut, ist die<br />
Adaptierung dieser Technologie in die Welt der mobilen Geräte nicht mehr<br />
aufzuhalten. Das bietet viele neue wirtschaftliche Möglichkeiten, wobei<br />
natürlich auch etliche Vorgaben beachtet werden müssen. Diese Arbeit<br />
erörtert die Möglichkeiten von mobile TV unter spezieller Betrachtung des<br />
Übertragungsstandards DVB-H (Digital Video Broadcasting – Handheld).<br />
Zuerst werden die möglichen Services, die auf mobilen Geräten angeboten<br />
werden können, betrachtet. Die einfache Übertragung von normalen TV<br />
Kanälen oder die Erzeugung von speziellen Inhalten stellt eine wichtige Frage<br />
dar. Mögliche neue Services werden in dieser Arbeit ebenfalls vorgestellt.<br />
Die Übertragung von TV erfordert hohe technische Voraussetzungen. Eine<br />
hohe Datenrate, kleine Bildschirme und limitierte Akkuleistungen müssen
erücksichtigt werden. Für die Übertragung über Funk existieren<br />
verschiedene Möglichkeiten. Für Mobilfunknetzwerke wurden diverse<br />
Standards wie GSM, GPRS, EDGE, UMTS und HSDPA entwickelt.<br />
Broadcasting Netzwerke verwenden eigene andere Standards: ATSC, DMB,<br />
DVB, ISDB, MBMS und MediaFLO sind die wichtigsten Vertreter. Da DVB<br />
den Standard <strong>für</strong> digitales TV in Europa repräsentiert, wird dieser im Detail<br />
beleuchtet. Die drei Untertypen DVB-S (satellite), DVB-C (cable) und DVB-T<br />
(terrestrial) werden so wie die zugehörige MPEG-2 Übertragungstechnologie<br />
erläutert. DVB-H (handheld) basiert auf DVB-T und stellt eine der wichtigsten<br />
Technologien <strong>für</strong> Übertragung von digitalen Daten über Funk an mobile<br />
Empfänger dar. Es bietet eine Reihe von neuen Funktionen, wie die 4K-Mode<br />
Übertragung, Time-slicing und die Fehlererkorrekturtechnik MPE-FEC (Multi<br />
Protocol Encapsulation – Forward Error Correction). Eine wichtige Neuerung<br />
in DVB-H, die in dieser Arbeit erklärt wird, ist IP Datacast, die Übertragung<br />
von IP-Paketen über Funk. Einen weiteren Hauptteil dieser Arbeit stellen die<br />
wirtschaftlichen Aspekte von DVB-H dar. Mögliche Geschäftsmodelle, die<br />
unterschiedliche Möglichkeiten <strong>für</strong> Provider und Kunden bieten, werden<br />
vorgestellt. Da verschiedene Produkte unterschiedliche Abrechnungsarten<br />
benötigen, werden auch die wichtigsten Modelle <strong>für</strong> die Verrechnung mit<br />
dem Kunden erläutert. Weiters enthält diese Arbeit eine Beschreibung von<br />
aktuellen DVB-H Projekte und zugehörigen Forschungsaktivitäten.<br />
MEDIZINISCHE UNIVERSITÄT WIEN<br />
Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme<br />
Reinhard EGELKRAUT<br />
Internationale Entwicklung des elektronischen lebensbegleitenden<br />
Gesundheitsakts am Beispiel Kanada und USA<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. DDr. Dorda<br />
Abstrakt: In den letzten Jahren kam es weltweit zu einer verstärkten<br />
Entwicklung auf dem Gebiet der elektronischen Gesundheitsakte, einer<br />
elektronischen Aufzeichnung der medizinischen Daten eines Patienten. Die<br />
österreichische Version wird als "Elektronischer Lebensbegleitender<br />
Gesundheitsakt", oder kurz ELGA, bezeichnet. In Österreich befindet man<br />
sich noch in der Planungsphase, daher ist es wichtig, sich an internationalen<br />
Strategien und Entwicklungen zu orientieren. Diese Vorgehensweise bietet<br />
die Möglichkeit auf bereits bestehendes Know-how<br />
aufzubauen und die Gefahr einer isolierten Einzellösung zu verringern.<br />
Zusätzlich lassen sich Fehler bei der Implementierung des ELGA bereits im<br />
Vorhinein vermeiden. Daher befasst sich diese Magisterarbeit mit der<br />
internationalen Entwicklung des elektronischen lebensbegleitenden<br />
Gesundheitsakts am Beispiel Kanadas und der USA. In beiden Ländern<br />
konzentriert man sich nicht nur auf die Entwicklungen der elektronischen<br />
53
Patientenakte, sondern vor allem auf die Implementierung von ganzen<br />
"Electronic Health Record"-Systemen. Diese interagieren mit anderen<br />
Informationssystemen, wie z.B. Laborinformationssystemen oder Systemen<br />
<strong>für</strong> diagnostische Bildgebung.<br />
Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme<br />
Isabella HINTERLEITNER<br />
Developing Ontologies for the Biomedical Semantic Web<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Univ.-Prof. Dr. Klaus-Peter Adlassnig<br />
Abstrakt: In den vergangenen Jahren hat das biomedizinische Semantische<br />
Web an Bedeutung zugenommen. Nicht zuletzt aufgrund der Tatsache, dass<br />
im medizinischen und biomedizinischen Bereich mehr Information als je<br />
vorliegt. Es gibt faktisch kein absehbares Ende dieses<br />
Informationswachstums. Mit all dieser Information ist es von großer<br />
Bedeutung, wie man all diese Information sinnvoll darstellt, um sie mit<br />
digitalen Maschinen zu verarbeiten. Datenkonzepte und Techniken wie man<br />
das Wissen abfragen kann sind ein großes Forschungsfeld. Dies ist eines<br />
der Hauptziele, die das Semantische Web erfüllt. Es fügt semantische<br />
Bedeutung zu bestehender Information und verbindet neue Information mit<br />
alter Information. Die Sprachen, die eingesetzt werden um dies zu<br />
erreichen, sind: XML – Extensible Markup Language, RDF – Resource<br />
Description Schema Language und OWL – Web Ontology Language. Sie<br />
werden in dieser Arbeit zusammen mit den Techniken XPath und XQuery<br />
hinsichtlich ihrer technischen und performanten Eigenschaften beschrieben.<br />
Dazu ergänzend werden Mechanismen, die <strong>für</strong> den Prozess der<br />
Datenmigration verwendet werden, beschrieben, wie zum Beispiel<br />
Ontologiekonzepte. Das Semantic Synapse Projekt, das von Matthias<br />
Samwald ins Leben gerufen wurde, beschäftigt sich damit aktuelle<br />
biomolekulare Information mittels einer Ontologie abruffähig zu machen. Ziel<br />
des Projekts ist es, ein synaptisches Portal in drei Stadien zu entwickeln. In<br />
der ersten Phase wird nach passenden Theorien <strong>für</strong> die Entwicklung, wie<br />
zum Beispiel welche Art von Wissen aus welcher Datenbank benötigt wird,<br />
gesucht. Die zweite Phase beschäftigt sich mit der Datenmigration, wobei<br />
hier der Konvertierungsprozess enthalten ist. Hierbei spielt auch das<br />
Mapping der verschiedenen Ontologien eine Rolle, um bei minimalem<br />
intellektuellen Einsatz das maximal Mögliche herauszuholen, indem bereits<br />
existierende Einheiten wieder verwendet werden. Diese Arbeit beschreibt<br />
hauptsächlich das zweite Stadium des Entwicklungsprozesses. Die dritte<br />
Phase umfasst die Entwicklung eines Harvesters um Wissen zu aggregieren<br />
und leicht zugänglich zu machen. Diese Arbeit gibt einen verständlichen<br />
Überblick, wie man Ontologien im biomedizinischen Bereich mit den aktuellen<br />
Technologien entwickelt. Schließlich beschäftigt sie sich mit den<br />
54
Erfahrungen, die mit der Software und den Werkzeugen während des<br />
Migrations- und Entwicklungsprozesses gemacht wurden.<br />
Institut <strong>für</strong> Medizinische Kybernetik und Artificial Intelligence<br />
Petr KADLEC<br />
Extraction of visual features for dynamic object recognition<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Georg Dorffner<br />
Institut <strong>für</strong> Medizinische Bildverarbeitung und Mustererkennung<br />
Sabine KOLICS<br />
Visualisierungstechnische Konzepte des 3D-Ultraschalls<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. Dr. Ernst Schuster<br />
Abstrakt: Diese Magisterarbeit beschreibt den technischen Hintergrund und<br />
die verschiedenen Visualisierungstechniken des 3D-Ultraschalls, die in der<br />
medizinischen <strong>Informatik</strong> zur Anwendung kommen. Physikalische Prinzipien,<br />
wichtige Charakteristika und Kenngrößen aus der Ultraschalltechnik werden<br />
erläutert. Unterschiedliche Artefakte, die unter bestimmten Umständen<br />
auftreten können, werden beschrieben und auf mögliche Abhilfen wird<br />
hingewiesen. Im Weiteren werden verschiedene Aufnahmetechniken mit<br />
ihren technischen Besonderheiten und ihren speziellen Einsatzgebieten in<br />
der Medizin beschrieben. Danach werden wichtige 3D-<br />
Visualisierungstechniken des 3D-Ultraschalls behandelt und zwei spezielle<br />
Visualisierungsmethoden vorgestellt und genauer beschrieben. Der<br />
diagnostische und therapeutische Nutzen des 3D-Ultraschalls in der Medizin<br />
wird deutlich herausgearbeitet. Die unterschiedlichen medizinischen<br />
Anwendungsgebiete werden mit Abbildungen, die aus 3D-Datensätzen<br />
gewonnen wurden, hinterlegt und beschrieben. Das Ziel meiner<br />
Magisterarbeit ist es, dem Interessierten einen umfassenden Überblick über<br />
den technischen Hintergrund, die wichtigsten Standard-<br />
Visualisierungstechniken, zwei sehr spezielle Visualisierungsmethoden und<br />
die unterschiedlichen medizinischen Anwendungsgebiete des 3D-Ultraschalls<br />
zu bieten.<br />
55
Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme<br />
Udo KRONBERGER<br />
Wissenserwerbssysteme <strong>für</strong> RHEUMexpert/Web<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Univ.-Prof. Dr. Klaus-Peter Adlassnig<br />
Abstrakt: Im Zuge dieser Magisterarbeit werden sowohl die theoretische<br />
Seite, als auch die praktische Entwicklung eines Werkzeugs zur grafischen<br />
Manipulation der Wissensbasis von RHEUMexpert/Web behandelt. Im<br />
Detail sollten graphische Komponenten <strong>für</strong> die Darstellung der Regeln der<br />
Wissensbasis entwickelt werden, sowie eine eigenständige Client-Server<br />
Applikation in Form eines Wissenserwerbssystems. Die Abschnitte der<br />
Arbeit bieten einen Überblick über folgende Themen: (x) Den derzeitigen<br />
Aufbau der Wissensbasis von RHEUMexpert/Web. (x) Hintergründe zu<br />
visuellen, diagrammbasierten Darstellungsformen in der<br />
Softwareentwicklung. (x) Eine Analyse der Anforderungen an das System. (x)<br />
Eine detaillierte Beschreibung des Entwurfes. Zum Abschluss werden<br />
mögliche zukünftige Erweiterungen des Systems diskutiert.<br />
Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme<br />
Shohreh MOTEDAEINY<br />
Internationale Entwicklung des elektronischen lebensbegleitenden<br />
Gesundheitsaktes am Beispiel Dänemark, Großbritannien, Australien und<br />
Neuseeland<br />
Studium: Magisterstudium Medizinische <strong>Informatik</strong><br />
BetreuerIn: Ao.Univ.Prof. DDr. Dorda<br />
56<br />
Abstrakt: Heutzutage stehen viele Gesundheitssysteme weltweit vor großen<br />
Herausforderungen und Veränderungsprozessen. Eines dieser<br />
Herausforderungen ist die Entwicklung der Elektronischen Gesundheitsakte,<br />
welche in Österreich als „Elektronischer Lebensbegleitender<br />
Gesundheitsakt“, oder kurz ELGA, bekannt ist. Der Schwerpunkt dieser<br />
Arbeit ist die internationale Entwicklung des elektronischen,<br />
lebensbegleitenden Gesundheitsakts am Beispiel Dänemark, Großbritannien,<br />
Australien und Neuseeland. Im Kontext dieser Länder werden in dieser<br />
Arbeit einige Detailbereiche, wie zum Beispiel die verschiedenen Standards,<br />
Datenschutz und Datensicherheit, Zukunftsaussichten etc. näher<br />
beschrieben, um einen genaueren Überblick zu bekommen. Die Gliederung<br />
dieser Magisterarbeit ist in drei Hauptteile gegliedert. Im Kapitel 1 werden<br />
wichtige Informationen über die elektronische Gesundheitsakte, der aktuelle<br />
Status in Österreich, sowie einige Standardisierungen beschrieben, um eine<br />
bessere Vorstellung über diese Arbeit zu bekommen. Im zweiten Hauptteil<br />
dieser Arbeit (Kapitel 2) wird auf die nationale Umsetzung der
elektronischen Gesundheitsakte in Dänemark, Großbritannien, Australien<br />
und Neuseeland eingegangen. Darin werden u.a eine Übersicht über die<br />
EGA, die Entwicklungen, Standards, Datenschutz und Datensicherheit sowie<br />
ein Ausblick über zukünftige Entwicklungen in den einzelnen Ländern<br />
beschrieben. Im letzten Teil (Kapitel 3) wird eine Diskussion mit dem<br />
Vergleich zwischen den vier Ländern durchgeführt, mit einer detaillierten<br />
Beschreibung der wichtigsten Kriterien.<br />
UNIVERSITÄT WIEN<br />
Institut <strong>für</strong> Verteilte und Multimedia Systeme<br />
Markus DABERGER<br />
Quantitative Untersuchungen der Eigenschaften von Unsolicited Bulk E-Mail<br />
und Unsolicited Commercial E-Mail<br />
Studium: Magisterstudium Software Engineering und Internet Computing<br />
BetreuerIn: Univ. Ass. Dr. Wilfried Gansterer<br />
Abstrakt: In dieser Magisterarbeit werden die Eigenschaften von Spam E-<br />
Mails untersucht. Die <strong>Universität</strong> <strong>Wien</strong> sammelt seit einiger Zeit mit<br />
Spamtraps jeden Tag eine große Anzahl an unerwünschten E-Mails, die dem<br />
Autor zur Verfügung gestellt wurden, um damit eine von ihm erstellte<br />
Datenbank mit einem von ihm programmierten Tool zu befüllen. Dieses<br />
Dokument stellt das Ergebnis seiner Arbeit dar. Das verwendete Tool wird<br />
vorgestellt, alle an die Datenbank gestellten Abfragen werden anschaulich<br />
abgebildet, dabei viele verschiedene Eigenschaften und Inhalte von Spam E-<br />
Mails vorgestellt und sowohl Vergleiche zu erwünschten E-Mails wie auch zu<br />
anderen Statistiken im World Wide Web durchgeführt. Wo immer das<br />
möglich ist, wird außerdem versucht, markante Unterschiede zwischen<br />
Spam und Ham hervorzuheben, um Ansatzpunkte <strong>für</strong> weitere Forschungen<br />
in die Richtung der Spamerkennung zu bieten. Diese Magisterarbeit ist<br />
natürlich nur ein Anfang, ein Ansatzpunkt <strong>für</strong> weitere Forschungstätigkeiten.<br />
Viele Eigenschaften von Spam E-Mails sind noch kein Teil der Datenbank,<br />
viele Fragen bleiben unbeantwortet oder ergeben sich erst aus den<br />
durchgeführten Auswertungen.<br />
57
WIRTSCHAFTSUNIVERSITÄT WIEN<br />
Institut <strong>für</strong> Revisions-, Treuhand- und Rechnungswesen<br />
Krisztina JOO<br />
Die Rolle der Informationstechnologie in Banken - Mit Fokus auf die<br />
Bilanzierung und Bewertung von Finanzinstrumenten nach IAS 39<br />
Studium: Magisterstudium <strong>Informatik</strong>management<br />
BetreuerIn: Univ.-Prof. Dr. H. Peter Holzer<br />
Abstrakt: Die Rechnungslegung befindet sich gegenwärtig in einer<br />
historischen Umbruchsphase. Die Entwicklung ist vor allem durch die<br />
zunehmende Internationalisierung aller wirtschaftlichen Aktivitäten<br />
gekennzeichnet. Diese Entwicklung erhöhte den Bedarf an Informationen<br />
über international agierende Unternehmen in der ganzen Welt. Angesichts<br />
der gestiegenen Anforderungen, die u.a. aus der Internationalisierung der<br />
Märkte oder neuen gesetzlichen Regelungen (wie z.B. IFRS) resultieren, sind<br />
heute viele Banken gezwungen, erhebliche Investitionen in ihre IT-<br />
Infrastruktur, gleichermaßen in Hardware wie Software, zu tätigen.<br />
Bestehende IT-Systeme, vor allem Core-Banking-Systeme und damit das<br />
Herz der Bank, sind häufig selbst entwickelte Lösungen, die einen hohen<br />
Pflegeaufwand erfordern. Damit ist und bleibt der IT-Bereich ein<br />
Kostenfaktor, der die Ertragslage der Banken stark beeinflusst. Viele<br />
Kreditinstitute ziehen deshalb gegenwärtig einen Umstieg auf<br />
plattformunabhängiges Gesamtbanksystem in Betracht. Diese Diplomarbeit<br />
ist auf das Forschungsgebiet Informationstechnologie in Banken mit<br />
gezieltem Akzent auf Bilanzierung und Bewertung von Finanzinstrumenten<br />
nach dem IAS 39 fokussiert. Im Rahmen dieser Diplomarbeit stellt die<br />
Autorin die aus dem IAS 39 resultierenden Anforderungen vor und führt<br />
einen möglichen Lösungsansatz vor.<br />
58
I N D E X<br />
AUTORINNEN UND AUTOREN<br />
BALLUCH, Manfred, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
BANFIELD-MUMB-MÜHLHAIM, Alexander, Institut <strong>für</strong> Gestaltungs- und<br />
Wirkungsforschung - Arbeitsbereich Human Computer Interaction<br />
BAUER, Matthias, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
BENNAR, Thomas, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
BISTRICKY, Florian, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
BITTNER, Ines, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />
Programmiersprachen und Übersetzerbau<br />
BRANDEJSKY, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitbereich Interaktive Mediensysteme<br />
BUGELMÜLLER, Bernhard, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />
Arbeitsbereich Human Computer Interaction<br />
CHOPRA, Manoj, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
COZOWICZ, Markus, Institut <strong>für</strong> Statistik und Wahrscheinlichkeitstheorie<br />
CSISINKO, Mathis, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitbereich Interaktive Mediensysteme<br />
DABERGER, Markus, Institut <strong>für</strong> Verteilte und Multimedia Systeme<br />
DANEK, Angela, Institut <strong>für</strong> Managementwissenschaften<br />
DAVIES, Marcin, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
EGELE, Manuel, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />
Systems<br />
EGELKRAUT, Reinhard, Institut <strong>für</strong> Medizinische Informations- und<br />
Auswertesysteme<br />
EHRENHÖFER, Michael, Institut <strong>für</strong> Managementwissenschaften<br />
ERB, Bernhard, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Rechnergestützte Automation<br />
ESSL, Stefan, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung - Arbeitsbereich<br />
Multidisciplinary Design<br />
FERRINGER, Markus, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich<br />
Embedded Computing Systems<br />
FESSL, Gerald, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />
Programmiersprachen und Übersetzerbau<br />
GERSTBACH, Peter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
GLADT, Matthias, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />
Systems<br />
59
GLATZ, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
GRATZER, Mario, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />
Arbeitsbereich Human Computer Interaction<br />
HARANT, Andrea, Institut <strong>für</strong> Computergraphik und Algorithmen - Arbeitsbereich<br />
Computergrafik<br />
HINTERLEITNER, Isabella, Institut <strong>für</strong> Medizinische Experten- und<br />
Wissensbasierte Systeme<br />
HÖFER, Alexander, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />
Arbeitsbereich Multidisciplinary Design<br />
HÖLLER, Martin, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich Real Time<br />
Systems<br />
ILLETSCHKO, Thomas, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Mustererkennung und Bildverarbeitung<br />
JEZEK, Thomas, Institut <strong>für</strong> Managementwissenschaften<br />
JOO, Krisztina, Institut <strong>für</strong> Revisions-, Treuhand- und Rechnungswesen<br />
JUDT, Christian, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />
Programmiersprachen und Übersetzerbau<br />
JUSZCZYK, Lukas, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />
Systems<br />
KADLEC, Petr, Institut <strong>für</strong> Medizinische Kybernetik und Artificial Intelligence<br />
KAMMERZELT, David, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />
Arbeitsbereich Multidisciplinary Design<br />
KASCHKE, Yvonne, Institut <strong>für</strong> Wirtschaftsmathematik<br />
KIRNER, Martin, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich Real Time<br />
Systems<br />
KITZER, Rene, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung - Arbeitsbereich<br />
Multidisciplinary Design<br />
KOLICS, Sabine, Institut <strong>für</strong> Medizinische Bildverarbeitung und Mustererkennung<br />
KRONBERGER, Udo, Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte<br />
Systeme<br />
LAZOWSKI, Jaroslaw, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich<br />
Distributed Systems<br />
LEBEDINSKI, Lara, Institut <strong>für</strong> Wirtschaftsmathematik<br />
LEHNER, Andreas, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
LEITNER, Markus Karl, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />
Arbeitsbereich Algorithmen und Datenstrukturen<br />
LIEBO, Robert, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitbereich Interaktive Mediensysteme<br />
LINHART, Arthur, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
LUKASSER, Joachim, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
MEIER, Michael, Institut <strong>für</strong> Raumentwicklung, Infrastruktur und Umweltplanung<br />
MITTER, Florian, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />
Systems<br />
60
MOSER, Michael, Institut <strong>für</strong> Managementwissenschaften<br />
MOTEDAEINY, Shohreh, Institut <strong>für</strong> Medizinische Informations- und<br />
Auswertesysteme<br />
MOTEDAYEN, Fabriba, Institut <strong>für</strong> Handhabungsgeräte und Robotertechnik<br />
NADSCHLÄGER, Elmar, Institut <strong>für</strong> Breitbandkommunikation<br />
NAGL, Christioph, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />
Systems<br />
ORTIZ DE LA FUENTE, Maria Magdalena, Institut <strong>für</strong> Informationssysteme -<br />
Arbeitsbereich Knowledge Based Systems<br />
PAESOLD, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
PANY, Arno, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
PEZZEI, Roland, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
PIRNGRUBER, Thomas, Institut <strong>für</strong> Rechnergestützte Automation -<br />
Arbeitsbereich Automatisierungssysteme<br />
PRADER, Albrecht, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
PRANTL, Adrian, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />
Programmiersprachen und Übersetzerbau<br />
PRINZ, Mario, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Business Informatics<br />
RAINER, Christa, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
RICHTER, Helene, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
ROBINSON, Peter, Institut <strong>für</strong> Computersprachen - Arbeitsbereich Theoretische<br />
<strong>Informatik</strong> und Logik<br />
ROTH, Heinz, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
ROZSNYAI, Szabolcs, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
SAUPP, Martin, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
SCHIEFER, Anneliese, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
SCHIMAK, Florian, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />
Arbeitsbereich Human Computer Interaction<br />
SCHÖRGENDORFER, Angela, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich<br />
Real Time Systems<br />
SCHRAMEL, Michael, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
SCHRAMMEL, Peter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
SILBERBAUER, Lukas-Sebastian, Institut <strong>für</strong> Mechanik und Mechatronik -<br />
Arbeitsbereich Intelligente Handhabungs- und Robotertechnik<br />
61
SIMKUS, Mantas, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Knowledge<br />
Based Systems<br />
SPIELMANN, Georg, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />
Arbeitsbereich Computergrafik<br />
STARIBACHER, Andreas, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Business Informatics<br />
STEGERWALD, Wilhelm Maximilian, Institut <strong>für</strong> Softwaretechnik und Interaktive<br />
Systeme<br />
STEIGERWALD, Stefan, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme<br />
STEINER, Christian, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />
Arbeitsbereich Computergrafik<br />
STROBL, Reinhold, Institut <strong>für</strong> Computersprachen - Arbeitsbereich<br />
Programmiersprachen und Übersetzerbau<br />
S<strong>TU</strong>MPFL, Gerd, Institut <strong>für</strong> Managementwissenschaften<br />
SUNK, Walter, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Business Informatics<br />
TAING, Stefan Khao-I-Dang, Institut <strong>für</strong> Handhabungsgeräte und Robotertechnik<br />
TESAR, Michael, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />
Arbeitsbereich Human Computer Interaction<br />
TISCHLER, David, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich Distributed<br />
Systems<br />
<strong>TU</strong>SCHL, Richard, Institut <strong>für</strong> Verfahrenstechnik, Umwelttechnik und Techn.<br />
Biowissenschaften<br />
UNTERBERGER, Josef, Institut <strong>für</strong> Managementwissenschaften<br />
URBANCZYK, Wojciech, Institut <strong>für</strong> Rechnergestützte Automation -<br />
Arbeitsbereich Automatisierungssysteme<br />
VARGA, Christian, Institut <strong>für</strong> <strong>Technische</strong> <strong>Informatik</strong> - Arbeitsbereich Embedded<br />
Computing Systems<br />
WÄCKERLE, Manuel, Institut <strong>für</strong> Wirtschaftsmathematik<br />
WAHBEH, Jamil, Institut <strong>für</strong> Softwaretechnik und Interaktive Systeme -<br />
Arbeitsbereich Information und Software Engineering<br />
WANDALLER, Armin, Institut <strong>für</strong> Rechnergestützte Automation - Arbeitsbereich<br />
Automatisierungssysteme<br />
WEBER, Markus, Institut <strong>für</strong> Managementwissenschaften<br />
WESSELY, Klemens, Institut <strong>für</strong> Gestaltungs- und Wirkungsforschung -<br />
Arbeitsbereich Human Computer Interaction<br />
WOHLFAHRT, Michael, Institut <strong>für</strong> Computergraphik und Algorithmen -<br />
Arbeitsbereich Computergraphik<br />
WONDRACEK, Gilbert, Institut <strong>für</strong> Informationssysteme - Arbeitsbereich<br />
Distributed Systems<br />
ZEHENTNER, Leonhard, Institut <strong>für</strong> Wirtschaftsmathematik<br />
62
INSTI<strong>TU</strong>TE<br />
INSTI<strong>TU</strong>TE DER FAKULTÄT FÜR INFORMATIK AN DER <strong>TU</strong> WIEN<br />
INSTI<strong>TU</strong>T FÜR TECHNISCHE INFORMATIK 5<br />
Arbeitsbereich Real Time Systems 5<br />
Arbeitsbereich Embedded Computing Systems 6<br />
INSTI<strong>TU</strong>T FÜR RECHNERGESTÜTZTE AUTOMATION 8<br />
Arbeitsbereich Automatisierungssysteme 8<br />
Arbeitsbereich Mustererkennung und Bildverarbeitung 12<br />
INSTI<strong>TU</strong>T FÜR INFORMATIONSSYSTEME 14<br />
Arbeitsbereich Distributed Systems 14<br />
Arbeitsbereich Knowledge Based Systems 18<br />
INSTI<strong>TU</strong>T FÜR COMPUTERSPRACHEN 20<br />
Arbeitsbereich Programmiersprachen und Übersetzerbau 20<br />
Arbeitsbereich Theoretische <strong>Informatik</strong> und Logik 22<br />
INSTI<strong>TU</strong>T FÜR COMPUTERGRAPHIK UND ALGORITHMEN 23<br />
Arbeitsbereich Algorithmen und Datenstrukturen 23<br />
Arbeitsbereich Computergrafik 24<br />
INSTI<strong>TU</strong>T FÜR GESTAL<strong>TU</strong>NGS- UND WIRKUNGSFORSCHUNG 26<br />
Arbeitsbereich Multidisciplinary Design 26<br />
Arbeitsbereich Human Computer Interaction 28<br />
INSTI<strong>TU</strong>T FÜR SOFTWARETECHNIK UND INTERAKTIVE SYSTEME 33<br />
Arbeitsbereich Information und Software Engineering 33<br />
Arbeitsbereich Interaktive Mediensysteme 40<br />
Arbeitsbereich Business Informatics 43<br />
63
WEITERE INSTI<strong>TU</strong>TE DER <strong>TU</strong> WIEN<br />
Institut <strong>für</strong> Wirtschaftsmathematik 45<br />
Institut <strong>für</strong> Statistik und Wahrscheinlichkeitstheorie 46<br />
Institut <strong>für</strong> Verfahrenstechnik, Umwelttechnik und Techn. Biowiss. 47<br />
Institut <strong>für</strong> Raumentwicklung, Infrastruktur und Umweltplanung 47<br />
Institut <strong>für</strong> Handhabungsgeräte und Robotertechnik 47<br />
Institut <strong>für</strong> Managementwissenschaften 49<br />
Institut <strong>für</strong> Breitbandkommunikation 52<br />
MEDIZINISCHE UNIVERSITÄT WIEN 53<br />
Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme 53<br />
Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme 54<br />
Institut <strong>für</strong> Medizinische Kybernetik und Artificial Intelligence 55<br />
Institut <strong>für</strong> Medizinische Bildverarbeitung und Mustererkennung 55<br />
Institut <strong>für</strong> Medizinische Experten- und Wissensbasierte Systeme 56<br />
Institut <strong>für</strong> Medizinische Informations- und Auswertesysteme 56<br />
UNIVERSITÄT WIEN 57<br />
Institut <strong>für</strong> Verteilte und Multimedia Systeme 57<br />
WIRTSCHAFTSUNIVERSITÄT WIEN 58<br />
Institut <strong>für</strong> Revisions-, Treuhand- und Rechnungswesen 58<br />
64
KONTAKT<br />
http://www.informatik.tuwien.ac.at<br />
Zentrum <strong>für</strong> Koordination und Kommunikation der<br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong><br />
Favoritenstraße 9/195<br />
1040 <strong>Wien</strong><br />
[IN:N]<br />
<strong>Informatik</strong>-Netzwerk <strong>für</strong> Absolventinnen und Absolventen der<br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong> und andere interessierte Personen<br />
http://inn.tuwien.ac.at<br />
IMPRESSUM<br />
Konzept, Graphische Gestaltung: Dipl.-Ing. Karin Hraby<br />
© 2006 <strong>Technische</strong> <strong>Universität</strong> <strong>Wien</strong><br />
<strong>Fakultät</strong> <strong>für</strong> <strong>Informatik</strong>