Professur für Maß- und Integrationstheorie
Professur für Maß- und Integrationstheorie
Professur für Maß- und Integrationstheorie
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
Mass- <strong>und</strong> <strong>Integrationstheorie</strong><br />
<strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>-<br />
<strong>und</strong> <strong>Integrationstheorie</strong><br />
<strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong><br />
Flächen- bzw. Volumenbestimmungen <strong>für</strong> spezielle<br />
geometrische Objekte beschäftigten die Mathematiker<br />
schon vor mehr als 2000 Jahren. Dabei wurde der Begriff<br />
des Flächeninhalts einer ebenen geometrischen Figur <strong>und</strong><br />
des Volumens eines Körpers zunächst als <strong>und</strong>efi nierter<br />
Gr<strong>und</strong>begriff vorausgesetzt, der keiner weiteren Erklärung<br />
bedurfte. Erst mit der Entwicklung der Mengenlehre<br />
<strong>und</strong> dem damit verb<strong>und</strong>enen Auftreten immer komplizierterer<br />
Mengen ergab sich die Notwendigkeit, Länge,<br />
Fläche bzw. Volumen von ein-, zwei- bzw. dreidimensionalen<br />
Objekten exakt zu defi nieren. Daraus entstand die<br />
moderne <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong>, die als abstrakten<br />
Oberbegriff <strong>für</strong> Länge, Fläche <strong>und</strong> Volumen den<br />
<strong>Maß</strong>begriff entwickelte <strong>und</strong> den Begriff des Integrals in<br />
einen neuen Kontext<br />
stellte. Heute liefert<br />
die <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong>unentbehrlicheHilfsmittel<br />
<strong>für</strong> zahlreiche<br />
Disziplinen in <strong>und</strong><br />
außerhalb der Mathematik.<br />
Neben der<br />
klassischen Analysis<br />
(= Differential- <strong>und</strong><br />
Integralrechnung) fi n-<br />
Veranschaulichung eines <strong>Maß</strong>es<br />
durch eine Grauwertbelegung<br />
den ihre Konzepte <strong>und</strong> Resultate unter anderem Anwendungen<br />
bei der Untersuchung von Funktionenräumen in<br />
der Funktionalanalysis, bei der Formulierung der Quantenmechanik,<br />
bei der mathematischen Modellierung von<br />
Zufallsphänomenen in der Wahrscheinlichkeitstheorie<br />
<strong>und</strong> bei der Analyse von Signalen <strong>und</strong> Bildern. Im zuletzt<br />
genannten Bereich sind die beiden folgenden Vorlesungen<br />
der <strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong><br />
angesiedelt.<br />
Mathematische Gr<strong>und</strong>lagen<br />
der Computertomographie<br />
Prof. Dr. Siegfried Graf<br />
Sekretariat:<br />
Gislinde Oberländer<br />
Wiss. Mitarbeiter:<br />
Dr. Wolfgang Kreitmeier<br />
In einem Computertomographen wird der zu untersuchende<br />
Querschnitt des Patienten aus allen Richtungen<br />
mit Röntgenstrahlen „durchleuchtet“. Die Schwächung<br />
jedes der Strahlen wird gemessen. Diese <strong>Maß</strong>zahl entspricht<br />
mathematisch über eine einfache Umrechnungsformel<br />
dem Integral der sogenannten Gewebedichtefunktion<br />
längs des jeweiligen Strahls. Dabei entspricht<br />
die Gewebedichtefunktion auf dem Patientenquerschnitt<br />
einem Grauwertbild dieses Querschnitts. Aus den Inte-<br />
gralen längs der Röntgenstrahlen lässt sich nun mit Methoden<br />
der <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong> <strong>und</strong> mit Hilfe<br />
eines Computers die Gewebedichtefunktion <strong>und</strong> damit<br />
das Bild des Patientenquerschnitts berechnen <strong>und</strong> auf<br />
dem Bildschirm ausgeben. Dieses Bild ist aber kein Röntgenbild<br />
im klassischen Sinne, sondern eine mittels komplizierter<br />
Mathematik errechnete Darstellung.<br />
Mathematische Gr<strong>und</strong>lagen der<br />
Bilddatenkompression<br />
Bei einer Aufnahme mit einer digitalen Kamera wird ein<br />
Bild zunächst in Pixel zerlegt <strong>und</strong> <strong>für</strong> jedes Pixel werden<br />
die Grau- bzw. die Farbwerte in Bitfolgen umgesetzt. Dabei<br />
entsteht eine riesige Datenmenge, die auch mit modernen<br />
Computern nur schwer zu bewältigen ist. Deshalb<br />
werden mathematische Verfahren eingesetzt, die die zu<br />
einem Bild gehörende Datenmenge reduzieren sollen,<br />
ohne dabei die Bildqualität wesentlich zu beeinträchtigen.<br />
Solche Bilddatenkompressionsverfahren nutzen<br />
statistische Eigenschaften der Bilder aus, die als zufällig<br />
erzeugt gedacht werden. Bei der Entwicklung <strong>und</strong> Analyse<br />
von Datenkompressionsverfahren spielt die <strong>Maß</strong>- <strong>und</strong><br />
<strong>Integrationstheorie</strong> sowohl bei der Modellierung des<br />
zugr<strong>und</strong>e gelegten Zufallsmechanismus als auch bei der<br />
Konstruktion geeigneter <strong>Maß</strong>e <strong>für</strong> die Bildqualität eine<br />
wichtige Rolle.<br />
Fraktale Geometrie<br />
Objekte der klassischen Geometrie der Ebene <strong>und</strong><br />
des Raumes zeichnen sich dadurch aus, dass sie weitgehend<br />
glatt sind <strong>und</strong> nur wenige Ecken <strong>und</strong> Kanten<br />
Computertomograph (Foto aus Wikipedia)<br />
besitzen. Wegen dieser Eigenschaft eignen sie sich<br />
nur sehr bedingt, um Gegenstände aus der Natur<br />
wie z.B. Schneefl ocken, Farne, Baumkronen, Küstenlinien,<br />
Gebirge oder Wolken abzubilden. Andererseits<br />
lassen sich Objekte der klassischen Geometrie<br />
in der Regel mit wenigen reellen Zahlen beschreiben<br />
<strong>und</strong> mit einfachen Algorithmen aus den charakterisierenden<br />
Parametern zurückgewinnen. Auf der<br />
Suche nach einer Geometrie, die diesen Vorteil beibehält<br />
<strong>und</strong> gleichzeitig natürliche Phänomene visuell<br />
überzeugender mathematisch modelliert, entstand<br />
in der zweiten Hälfte des letzten Jahrh<strong>und</strong>erts<br />
die fraktale Geometrie. Sie erlaubt es zum Beispiel,<br />
alle Informationen über das Bild eines Farns oder<br />
einer Schneefl ocke in jeweils einer 4x6-Tabelle reeller<br />
Zahlen abzuspeichern <strong>und</strong> liefert auch die Methoden,<br />
um diese Bilder aus den Tabellen neu entstehen<br />
zu lassen. Die gr<strong>und</strong>legende Idee in diesem<br />
Zusammenhang ist die Selbstaffi nität.<br />
29
Selbstaffine <strong>und</strong> statistisch selbstaffine Mengen<br />
Mengen in der Ebene oder im Raum sind selbstaffin,<br />
wenn sie Vereinigung von endlich vielen kleinen affinen<br />
Kopien ihrer selbst sind. Alle Informationen über eine solche<br />
Menge kann man aus den reellen Zahlen zurückgewinnen,<br />
die die affinen Abbildungen beschreiben, welche<br />
die Gesamtmenge auf die affinen Kopien abbilden, aus<br />
denen sie sich konstituiert. Ausgehend von Überlegungen<br />
von Mandelbrot wurde nachgewiesen, dass zahlreiche<br />
Phänomene in Natur, Wissenschaft <strong>und</strong> Technik sich (annähernd)<br />
durch selbstaffine Mengen modellieren lassen.<br />
Um die Modellierungseigenschaften zu verbessern,<br />
wurde zusätzlich der Zufall ins Spiel gebracht. So entstand<br />
das Konzept der statistisch selbstaffinen zufälligen<br />
Menge. Die <strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong><br />
hat sich ausgiebig mit Erzeugungsprinzipien <strong>für</strong> diese<br />
Mengen beschäftigt. Außerdem wurde <strong>für</strong> die Unterklasse<br />
der statistisch selbstähnlichen Mengen die (Hausdorff)<br />
Dimension bestimmt.<br />
Fraktale Dimensionskonzepte<br />
Eine Kenngröße <strong>für</strong> die Ausdehnung einer Menge ist<br />
ihre Dimension. In der klassischen Geometrie sind<br />
Dimensionen immer ganzzahlig. So hat eine Strecke<br />
Dimension 1, ein Quadrat Dimension 2 <strong>und</strong> ein<br />
Farn (nach Barnsley)<br />
a b c d e f<br />
0 0 0 0,16 0 0<br />
0,85 0,04 -0,04 0,85 0 1,6<br />
0,2 -0,26 0,26 0,22 0 0,8<br />
-0,15 0,28 0,26 0,24 0 1<br />
Daten <strong>für</strong> den Farn<br />
Kubus Dimension 3. Mit Hilfe der <strong>Maß</strong>theorie hat<br />
Hausdorff ein Dimensionskonzept eingeführt, das<br />
beliebige nicht negative reelle Zahlen als Dimensionen<br />
zulässt. Stark zerklüftete Küsten sind dann<br />
keine eindimensionalen Linien, sondern haben<br />
eine Hausdorff Dimension strikt zwischen 1 <strong>und</strong> 2.<br />
Ähnlich haben Gebirgsoberflächen eine Dimension<br />
zwischen 2 <strong>und</strong> 3. Die Bestimmung der Hausdorff<br />
Dimension <strong>für</strong> fraktale Mengen <strong>und</strong> der Vergleich<br />
der Hausdorff Dimension mit anderen fraktalen<br />
Dimensionen wie etwa der Quantisierungsdimension<br />
sind der Inhalt eines wichtigen Arbeitsgebiets der<br />
<strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>- <strong>und</strong> <strong>Integrationstheorie</strong>.<br />
Fraktale Bilddatenkompression<br />
Selbstaffintätsüberlegungen bilden auch den Ausgangspunkt<br />
<strong>für</strong> Verfahren der Bilddatenkompression.<br />
Verschiedene der daraus abgeleiteten Algorithmen<br />
wurden in Praktika <strong>und</strong> Diplomarbeiten<br />
hinsichtlich ihrer Brauchbarkeit genauer untersucht.<br />
Quantisierung von <strong>Maß</strong>en<br />
Der Begriff „Quantisierung“ stammt ursprünglich<br />
aus dem Bereich der Signalverarbeitung <strong>und</strong> bezeichnet<br />
dort Methoden der Digitalisierung von<br />
analogen Signalen (wie z.B. Sprache, Bilder, Video)<br />
oder der Kompression von bereits digitalisierten<br />
Signalen, die bei bekannter beschränkter Übertragungs-<br />
oder Speicherkapazität übertragen oder ge-<br />
Quantisierung<br />
speichert werden sollen. Dies ist im Allgemeinen nur<br />
möglich, wenn ein Informationsverlust (= Quantisierungsfehler)<br />
in Kauf genommen wird. Natürlich<br />
ist man an Verfahren interessiert, die den Quantisierungsfehler<br />
unter den genannten Randbedingungen<br />
möglichst klein halten. Dabei ist es wichtig, die<br />
Größenordnung des kleinsten möglichen Quantisierungsfehlers<br />
in Abhängigkeit von der zur Verfügung<br />
stehenden Speicher- bzw. Übertragungskapazität<br />
zu kennen <strong>und</strong> Verfahren der Quantisierung zu entwickeln,<br />
die den kleinstmöglichen Quantisierungs-<br />
fehler realisieren oder ihm doch nahe kommen. Um<br />
entsprechende Verfahren zu entwickeln, geht man<br />
davon aus, dass statistische Eigenschaften der interessierenden<br />
Signale bekannt sind.<br />
In der mathematischen Theorie stellt man Signale<br />
als Elemente eines endlich- oder unendlich dimensionalen<br />
Raumes dar, in dem der Abstand von je<br />
zwei Elementen definiert ist. Die Signale denkt<br />
man sich von einer Zufallsquelle erzeugt, die durch<br />
ein Wahrscheinlichkeitsmaß P modelliert wird. Ein<br />
Quantisierungsverfahren wird nun bei verfügbarer<br />
Speicher- bzw. Übertragungskapazität n durch ein<br />
n-elementiges Codebuch bestimmt, das alle möglichen<br />
digitalisierten bzw. komprimierten Signale<br />
enthält. Einem Ausgangssignal wird dann ein Signal<br />
mit kleinstem Abstand aus dem Codebuch zugeordnet.<br />
Der Quantisierungsfehler bei Verwendung des<br />
Codebuchs ist dann das Integral<br />
bezüglich des Wahrscheinlichkeitsmaßes<br />
P über<br />
alle Abstände einzelner<br />
Signale zum Codebuch. Ein<br />
n-elementiges Codebuch ist<br />
n-optimal, wenn sein Quantisierungsfehlerkleinstmöglich<br />
unter allen n-elemen-<br />
Selbstaffine Simulation<br />
eines „Vulkanausbruchs“<br />
Quantisierungsschema <strong>für</strong> ein<br />
Codebuch (schwarze Punkte)<br />
(Diagramm aus Wikipedia)<br />
tigen Codebüchern ist. Bisher konnten nur <strong>für</strong> wenige<br />
Wahrscheinlichkeitsmaße optimale Codebücher bestimmt<br />
werden. In zahlreichen Fällen gelang es aber,<br />
näherungsweise optimale Codebücher anzugeben.<br />
Für große Klassen von Wahrscheinlichkeitsmaßen<br />
konnte die Größenordnung der Quantisierungsfehler<br />
<strong>für</strong> große n bestimmt werden. Diese Größenordnungen<br />
hängen auf überraschende Weise mit fraktalen<br />
Dimensionen des Wahrscheinlichkeitsmaßes<br />
P zusammen. Hier eröffnet sich ein interessantes<br />
Forschungsgebiet, das in den nächsten Jahren im<br />
Mittelpunkt der Aktivitäten der <strong>Professur</strong> <strong>für</strong> <strong>Maß</strong>-<br />
<strong>und</strong> <strong>Integrationstheorie</strong> stehen wird.<br />
Neben der Anwendung der mathematischen Quantisierungstheorie<br />
in der Signalverarbeitung ergeben<br />
sich unter anderem auch Anwendungen in folgenden<br />
Gebieten:<br />
• Cluster Analysis<br />
(Quantisierung von empirischen <strong>Maß</strong>en)<br />
• Mustererkennung, Spracherkennung<br />
• Numerische Integration<br />
• Mathematische Modelle in der Ökonomie<br />
(optimale Platzierung von Servicezentren)<br />
Schneeflockenkurve (nach von Koch)<br />
31