15.10.2013 Aufrufe

Professur für Maß- und Integrationstheorie

Professur für Maß- und Integrationstheorie

Professur für Maß- und Integrationstheorie

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

Mass- <strong>und</strong> <strong>Integrationstheorie</strong><br />

<strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>-<br />

<strong>und</strong> <strong>Integrationstheorie</strong><br />

<strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong><br />

Flächen- bzw. Volumenbestimmungen <strong>für</strong> spezielle<br />

geometrische Objekte beschäftigten die Mathematiker<br />

schon vor mehr als 2000 Jahren. Dabei wurde der Begriff<br />

des Flächeninhalts einer ebenen geometrischen Figur <strong>und</strong><br />

des Volumens eines Körpers zunächst als <strong>und</strong>efi nierter<br />

Gr<strong>und</strong>begriff vorausgesetzt, der keiner weiteren Erklärung<br />

bedurfte. Erst mit der Entwicklung der Mengenlehre<br />

<strong>und</strong> dem damit verb<strong>und</strong>enen Auftreten immer komplizierterer<br />

Mengen ergab sich die Notwendigkeit, Länge,<br />

Fläche bzw. Volumen von ein-, zwei- bzw. dreidimensionalen<br />

Objekten exakt zu defi nieren. Daraus entstand die<br />

moderne <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong>, die als abstrakten<br />

Oberbegriff <strong>für</strong> Länge, Fläche <strong>und</strong> Volumen den<br />

<strong>Maß</strong>begriff entwickelte <strong>und</strong> den Begriff des Integrals in<br />

einen neuen Kontext<br />

stellte. Heute liefert<br />

die <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong>unentbehrlicheHilfsmittel<br />

<strong>für</strong> zahlreiche<br />

Disziplinen in <strong>und</strong><br />

außerhalb der Mathematik.<br />

Neben der<br />

klassischen Analysis<br />

(= Differential- <strong>und</strong><br />

Integralrechnung) fi n-<br />

Veranschaulichung eines <strong>Maß</strong>es<br />

durch eine Grauwertbelegung<br />

den ihre Konzepte <strong>und</strong> Resultate unter anderem Anwendungen<br />

bei der Untersuchung von Funktionenräumen in<br />

der Funktionalanalysis, bei der Formulierung der Quantenmechanik,<br />

bei der mathematischen Modellierung von<br />

Zufallsphänomenen in der Wahrscheinlichkeitstheorie<br />

<strong>und</strong> bei der Analyse von Signalen <strong>und</strong> Bildern. Im zuletzt<br />

genannten Bereich sind die beiden folgenden Vorlesungen<br />

der <strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong><br />

angesiedelt.<br />

Mathematische Gr<strong>und</strong>lagen<br />

der Computertomographie<br />

Prof. Dr. Siegfried Graf<br />

Sekretariat:<br />

Gislinde Oberländer<br />

Wiss. Mitarbeiter:<br />

Dr. Wolfgang Kreitmeier<br />

In einem Computertomographen wird der zu untersuchende<br />

Querschnitt des Patienten aus allen Richtungen<br />

mit Röntgenstrahlen „durchleuchtet“. Die Schwächung<br />

jedes der Strahlen wird gemessen. Diese <strong>Maß</strong>zahl entspricht<br />

mathematisch über eine einfache Umrechnungsformel<br />

dem Integral der sogenannten Gewebedichtefunktion<br />

längs des jeweiligen Strahls. Dabei entspricht<br />

die Gewebedichtefunktion auf dem Patientenquerschnitt<br />

einem Grauwertbild dieses Querschnitts. Aus den Inte-<br />

gralen längs der Röntgenstrahlen lässt sich nun mit Methoden<br />

der <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong> <strong>und</strong> mit Hilfe<br />

eines Computers die Gewebedichtefunktion <strong>und</strong> damit<br />

das Bild des Patientenquerschnitts berechnen <strong>und</strong> auf<br />

dem Bildschirm ausgeben. Dieses Bild ist aber kein Röntgenbild<br />

im klassischen Sinne, sondern eine mittels komplizierter<br />

Mathematik errechnete Darstellung.<br />

Mathematische Gr<strong>und</strong>lagen der<br />

Bilddatenkompression<br />

Bei einer Aufnahme mit einer digitalen Kamera wird ein<br />

Bild zunächst in Pixel zerlegt <strong>und</strong> <strong>für</strong> jedes Pixel werden<br />

die Grau- bzw. die Farbwerte in Bitfolgen umgesetzt. Dabei<br />

entsteht eine riesige Datenmenge, die auch mit modernen<br />

Computern nur schwer zu bewältigen ist. Deshalb<br />

werden mathematische Verfahren eingesetzt, die die zu<br />

einem Bild gehörende Datenmenge reduzieren sollen,<br />

ohne dabei die Bildqualität wesentlich zu beeinträchtigen.<br />

Solche Bilddatenkompressionsverfahren nutzen<br />

statistische Eigenschaften der Bilder aus, die als zufällig<br />

erzeugt gedacht werden. Bei der Entwicklung <strong>und</strong> Analyse<br />

von Datenkompressionsverfahren spielt die <strong>Maß</strong>- <strong>und</strong><br />

<strong>Integrationstheorie</strong> sowohl bei der Modellierung des<br />

zugr<strong>und</strong>e gelegten Zufallsmechanismus als auch bei der<br />

Konstruktion geeigneter <strong>Maß</strong>e <strong>für</strong> die Bildqualität eine<br />

wichtige Rolle.<br />

Fraktale Geometrie<br />

Objekte der klassischen Geometrie der Ebene <strong>und</strong><br />

des Raumes zeichnen sich dadurch aus, dass sie weitgehend<br />

glatt sind <strong>und</strong> nur wenige Ecken <strong>und</strong> Kanten<br />

Computertomograph (Foto aus Wikipedia)<br />

besitzen. Wegen dieser Eigenschaft eignen sie sich<br />

nur sehr bedingt, um Gegenstände aus der Natur<br />

wie z.B. Schneefl ocken, Farne, Baumkronen, Küstenlinien,<br />

Gebirge oder Wolken abzubilden. Andererseits<br />

lassen sich Objekte der klassischen Geometrie<br />

in der Regel mit wenigen reellen Zahlen beschreiben<br />

<strong>und</strong> mit einfachen Algorithmen aus den charakterisierenden<br />

Parametern zurückgewinnen. Auf der<br />

Suche nach einer Geometrie, die diesen Vorteil beibehält<br />

<strong>und</strong> gleichzeitig natürliche Phänomene visuell<br />

überzeugender mathematisch modelliert, entstand<br />

in der zweiten Hälfte des letzten Jahrh<strong>und</strong>erts<br />

die fraktale Geometrie. Sie erlaubt es zum Beispiel,<br />

alle Informationen über das Bild eines Farns oder<br />

einer Schneefl ocke in jeweils einer 4x6-Tabelle reeller<br />

Zahlen abzuspeichern <strong>und</strong> liefert auch die Methoden,<br />

um diese Bilder aus den Tabellen neu entstehen<br />

zu lassen. Die gr<strong>und</strong>legende Idee in diesem<br />

Zusammenhang ist die Selbstaffi nität.<br />

29


Selbstaffine <strong>und</strong> statistisch selbstaffine Mengen<br />

Mengen in der Ebene oder im Raum sind selbstaffin,<br />

wenn sie Vereinigung von endlich vielen kleinen affinen<br />

Kopien ihrer selbst sind. Alle Informationen über eine solche<br />

Menge kann man aus den reellen Zahlen zurückgewinnen,<br />

die die affinen Abbildungen beschreiben, welche<br />

die Gesamtmenge auf die affinen Kopien abbilden, aus<br />

denen sie sich konstituiert. Ausgehend von Überlegungen<br />

von Mandelbrot wurde nachgewiesen, dass zahlreiche<br />

Phänomene in Natur, Wissenschaft <strong>und</strong> Technik sich (annähernd)<br />

durch selbstaffine Mengen modellieren lassen.<br />

Um die Modellierungseigenschaften zu verbessern,<br />

wurde zusätzlich der Zufall ins Spiel gebracht. So entstand<br />

das Konzept der statistisch selbstaffinen zufälligen<br />

Menge. Die <strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong><br />

hat sich ausgiebig mit Erzeugungsprinzipien <strong>für</strong> diese<br />

Mengen beschäftigt. Außerdem wurde <strong>für</strong> die Unterklasse<br />

der statistisch selbstähnlichen Mengen die (Hausdorff)<br />

Dimension bestimmt.<br />

Fraktale Dimensionskonzepte<br />

Eine Kenngröße <strong>für</strong> die Ausdehnung einer Menge ist<br />

ihre Dimension. In der klassischen Geometrie sind<br />

Dimensionen immer ganzzahlig. So hat eine Strecke<br />

Dimension 1, ein Quadrat Dimension 2 <strong>und</strong> ein<br />

Farn (nach Barnsley)<br />

a b c d e f<br />

0 0 0 0,16 0 0<br />

0,85 0,04 -0,04 0,85 0 1,6<br />

0,2 -0,26 0,26 0,22 0 0,8<br />

-0,15 0,28 0,26 0,24 0 1<br />

Daten <strong>für</strong> den Farn<br />

Kubus Dimension 3. Mit Hilfe der <strong>Maß</strong>theorie hat<br />

Hausdorff ein Dimensionskonzept eingeführt, das<br />

beliebige nicht negative reelle Zahlen als Dimensionen<br />

zulässt. Stark zerklüftete Küsten sind dann<br />

keine eindimensionalen Linien, sondern haben<br />

eine Hausdorff Dimension strikt zwischen 1 <strong>und</strong> 2.<br />

Ähnlich haben Gebirgsoberflächen eine Dimension<br />

zwischen 2 <strong>und</strong> 3. Die Bestimmung der Hausdorff<br />

Dimension <strong>für</strong> fraktale Mengen <strong>und</strong> der Vergleich<br />

der Hausdorff Dimension mit anderen fraktalen<br />

Dimensionen wie etwa der Quantisierungsdimension<br />

sind der Inhalt eines wichtigen Arbeitsgebiets der<br />

<strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong>.<br />

Fraktale Bilddatenkompression<br />

Selbstaffintätsüberlegungen bilden auch den Ausgangspunkt<br />

<strong>für</strong> Verfahren der Bilddatenkompression.<br />

Verschiedene der daraus abgeleiteten Algorithmen<br />

wurden in Praktika <strong>und</strong> Diplomarbeiten<br />

hinsichtlich ihrer Brauchbarkeit genauer untersucht.<br />

Quantisierung von <strong>Maß</strong>en<br />

Der Begriff „Quantisierung“ stammt ursprünglich<br />

aus dem Bereich der Signalverarbeitung <strong>und</strong> bezeichnet<br />

dort Methoden der Digitalisierung von<br />

analogen Signalen (wie z.B. Sprache, Bilder, Video)<br />

oder der Kompression von bereits digitalisierten<br />

Signalen, die bei bekannter beschränkter Übertragungs-<br />

oder Speicherkapazität übertragen oder ge-<br />

Quantisierung<br />

speichert werden sollen. Dies ist im Allgemeinen nur<br />

möglich, wenn ein Informationsverlust (= Quantisierungsfehler)<br />

in Kauf genommen wird. Natürlich<br />

ist man an Verfahren interessiert, die den Quantisierungsfehler<br />

unter den genannten Randbedingungen<br />

möglichst klein halten. Dabei ist es wichtig, die<br />

Größenordnung des kleinsten möglichen Quantisierungsfehlers<br />

in Abhängigkeit von der zur Verfügung<br />

stehenden Speicher- bzw. Übertragungskapazität<br />

zu kennen <strong>und</strong> Verfahren der Quantisierung zu entwickeln,<br />

die den kleinstmöglichen Quantisierungs-<br />

fehler realisieren oder ihm doch nahe kommen. Um<br />

entsprechende Verfahren zu entwickeln, geht man<br />

davon aus, dass statistische Eigenschaften der interessierenden<br />

Signale bekannt sind.<br />

In der mathematischen Theorie stellt man Signale<br />

als Elemente eines endlich- oder unendlich dimensionalen<br />

Raumes dar, in dem der Abstand von je<br />

zwei Elementen definiert ist. Die Signale denkt<br />

man sich von einer Zufallsquelle erzeugt, die durch<br />

ein Wahrscheinlichkeitsmaß P modelliert wird. Ein<br />

Quantisierungsverfahren wird nun bei verfügbarer<br />

Speicher- bzw. Übertragungskapazität n durch ein<br />

n-elementiges Codebuch bestimmt, das alle möglichen<br />

digitalisierten bzw. komprimierten Signale<br />

enthält. Einem Ausgangssignal wird dann ein Signal<br />

mit kleinstem Abstand aus dem Codebuch zugeordnet.<br />

Der Quantisierungsfehler bei Verwendung des<br />

Codebuchs ist dann das Integral<br />

bezüglich des Wahrscheinlichkeitsmaßes<br />

P über<br />

alle Abstände einzelner<br />

Signale zum Codebuch. Ein<br />

n-elementiges Codebuch ist<br />

n-optimal, wenn sein Quantisierungsfehlerkleinstmöglich<br />

unter allen n-elemen-<br />

Selbstaffine Simulation<br />

eines „Vulkanausbruchs“<br />

Quantisierungsschema <strong>für</strong> ein<br />

Codebuch (schwarze Punkte)<br />

(Diagramm aus Wikipedia)<br />

tigen Codebüchern ist. Bisher konnten nur <strong>für</strong> wenige<br />

Wahrscheinlichkeitsmaße optimale Codebücher bestimmt<br />

werden. In zahlreichen Fällen gelang es aber,<br />

näherungsweise optimale Codebücher anzugeben.<br />

Für große Klassen von Wahrscheinlichkeitsmaßen<br />

konnte die Größenordnung der Quantisierungsfehler<br />

<strong>für</strong> große n bestimmt werden. Diese Größenordnungen<br />

hängen auf überraschende Weise mit fraktalen<br />

Dimensionen des Wahrscheinlichkeitsmaßes<br />

P zusammen. Hier eröffnet sich ein interessantes<br />

Forschungsgebiet, das in den nächsten Jahren im<br />

Mittelpunkt der Aktivitäten der <strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>-<br />

<strong>und</strong> <strong>Integrationstheorie</strong> stehen wird.<br />

Neben der Anwendung der mathematischen Quantisierungstheorie<br />

in der Signalverarbeitung ergeben<br />

sich unter anderem auch Anwendungen in folgenden<br />

Gebieten:<br />

• Cluster Analysis<br />

(Quantisierung von empirischen <strong>Maß</strong>en)<br />

• Mustererkennung, Spracherkennung<br />

• Numerische Integration<br />

• Mathematische Modelle in der Ökonomie<br />

(optimale Platzierung von Servicezentren)<br />

Schneeflockenkurve (nach von Koch)<br />

31

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!