Registrierung

Registrierung Registrierung

cs.uni.paderborn.de
von cs.uni.paderborn.de Mehr von diesem Publisher
01.03.2014 Aufrufe

Registrierung Berthold Krevert Inhaltsverzeichnis 1 Einleitung 1 2 Definition 2 3 Anwendungsfälle 2 4 Verzerrungen und Bildfehler 3 5 Transformationen 4 5.1 Rigide Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 5.2 Affine Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 5.3 Elastische Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 6 Algorithmen 5 6.1 Punktbasierte Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 6.2 Surface Matching . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 6.3 Elastische Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 6.4 Intensitätsalgorithmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 6.4.1 Differenzbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 7 Literatur 9 1 Einleitung Moderne Tomographieverfahren wie CT (Computertomographie), MRT (Magnetresonanztomographie), PET (Positronen-Emissions-Tomographie) oder SPECT (Single-Photonen- Emissionstomographie) geben dem Mediziner Verfahren zur Hand, um Krankheiten frühzeitig erkennen und einordnen zu können. Um aus den von den Tomographen gewonnenen Daten einen möglichst großen Nutzen zu ziehen, ist eine Weiterverarbeitung notwendig. Zum einen müssen die Daten entsprechend visualisiert werden, zum anderen ist häufig auch ein Vergleich zwischen verschiedenen Datensätzen notwendig. Als Beispiel sollen die Aufnahmen auf Abbildung 1 betrachtet werden: Die ersten beiden Bilder in der oberen Zeile zeigen eine MRT-Aufnahme des menschlichen Kopfes; besonders gut zu erkennen sind hierbei die Gewebestrukturen. In den beiden rechten Bildern der oberen Zeile sieht man eine CT-Aufnahme des Kopfes. CT ist ein Röntgenverfahren; daher ist der Schädelknochen deutlich hervorgehoben. Die vier Bilder zeigen dabei unterschiedliche Sichtfelder. Sollen die MRT- und die CT-Aufnahmen zusammengefügt - fusioniert - werden ist erst eine Transformation in ein gemeinsames Koordinatensystem nötig. Die Berechnung 1

<strong>Registrierung</strong><br />

Berthold Krevert<br />

Inhaltsverzeichnis<br />

1 Einleitung 1<br />

2 Definition 2<br />

3 Anwendungsfälle 2<br />

4 Verzerrungen und Bildfehler 3<br />

5 Transformationen 4<br />

5.1 Rigide Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

5.2 Affine Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

5.3 Elastische Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

6 Algorithmen 5<br />

6.1 Punktbasierte Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

6.2 Surface Matching . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

6.3 Elastische Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

6.4 Intensitätsalgorithmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

6.4.1 Differenzbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

7 Literatur 9<br />

1 Einleitung<br />

Moderne Tomographieverfahren wie CT (Computertomographie), MRT (Magnetresonanztomographie),<br />

PET (Positronen-Emissions-Tomographie) oder SPECT (Single-Photonen-<br />

Emissionstomographie) geben dem Mediziner Verfahren zur Hand, um Krankheiten frühzeitig<br />

erkennen und einordnen zu können. Um aus den von den Tomographen gewonnenen<br />

Daten einen möglichst großen Nutzen zu ziehen, ist eine Weiterverarbeitung notwendig.<br />

Zum einen müssen die Daten entsprechend visualisiert werden, zum anderen ist häufig auch<br />

ein Vergleich zwischen verschiedenen Datensätzen notwendig.<br />

Als Beispiel sollen die Aufnahmen auf Abbildung 1 betrachtet werden: Die ersten beiden<br />

Bilder in der oberen Zeile zeigen eine MRT-Aufnahme des menschlichen Kopfes; besonders<br />

gut zu erkennen sind hierbei die Gewebestrukturen. In den beiden rechten Bildern der oberen<br />

Zeile sieht man eine CT-Aufnahme des Kopfes. CT ist ein Röntgenverfahren; daher ist<br />

der Schädelknochen deutlich hervorgehoben. Die vier Bilder zeigen dabei unterschiedliche<br />

Sichtfelder. Sollen die MRT- und die CT-Aufnahmen zusammengefügt - fusioniert - werden<br />

ist erst eine Transformation in ein gemeinsames Koordinatensystem nötig. Die Berechnung<br />

1


Abbildung 1: Oben: MRT- (links) und CT-Bilder (rechts) Unten: Die fusionierten Bilder<br />

dieser Transformation nennt man <strong>Registrierung</strong>. Das Ergebnis der Fusion ist in der unteren<br />

Zeile zu sehen.<br />

2 Definition<br />

In der Einleitung haben wir ein Beispiel für ein <strong>Registrierung</strong>sverfahren gesehen. Hier soll<br />

der Begriff ”<br />

<strong>Registrierung</strong>“ genauer definiert werden: Nach [DLH2000] berechnet eine <strong>Registrierung</strong><br />

die räumliche Ausrichtung zweier Bilder, die nötig ist, um diese Bilder miteinander<br />

vergleichen und in dasselbe Koordinatensystem mappen zu können. <strong>Registrierung</strong> setzt Objekte<br />

in einem Bild A zu Objekten in einem anderen Bild B in Beziehung und gibt eine<br />

Berechnungsvorschrift für eine Transformation von A nach B zurück. Zudem müpssen die<br />

Intensitätswerte der beiden Bilder - die Voxel oder Pixel - angeglichen werden (siehe Abschnitt<br />

6.4).<br />

Formal besprochen bezeichnet eine <strong>Registrierung</strong> also die Berechnung einer Abbildung:<br />

T : X A → X B<br />

⇐⇒ T (X A ) = X B<br />

Der Punkt X A in Bild A wird also durch die Transformation T auf die entsprechende<br />

Position X B in Bild B gemappt. Die Schwierigkeit ist es sicherlich, die passende Transformation<br />

zu finden, die das eine Bild auf das andere ausrichtet. Für eine vollautomatische<br />

<strong>Registrierung</strong> müssen innerhalb der Bilder mit stochastischen Modellen, Heuristiken die gemeinsamen<br />

Strukturen gefunden werden. Eine Alternative sind manuelle <strong>Registrierung</strong>en,<br />

für die ein Benutzer oder ein Arzt die gemeinsamen Punkte angibt.<br />

3 Anwendungsfälle<br />

In diesem Abschnitt gebe ich verschiedene Anwendungsfälle an, in denen eine <strong>Registrierung</strong><br />

der Daten und eine Transformation der Bilder nötig ist: Wie bereits im ersten Kapitel<br />

erwähnt, kann es wichtig sein, Aufnahmen verschiedener Eingabegeräte miteinander zu<br />

vergleichen. Dies liegt daran, dass verschiedene Tomographieverfahren auch unterschiedliche<br />

Informationen liefern. Eine CT-Aufnahme bildet sehr gut Strukturen ab, wie man sie


eispielsweise bei Knochen und Muskelgewebe findet. MRT-Aufnahmen eignen sich für Gewebestrukturen;<br />

Knochen werden dabei nicht so gut dargestellt, da Knochen kaum Wasser<br />

enthalten und ein MRT technisch auf bestimmten Eigenschaften von Wasserstoffatomen<br />

aufsetzt. PET-Aufnahmen eignen sich hervorragend um Stoffwechselfunktionen sichtbar zu<br />

machen und sind damit zum Beispiel in der Früherkennung von Tumoren unerlässlich. Um<br />

Körperstrukturen abzubilden sind PET-Aufnahmen nicht so gut geeignet - die genaue Position<br />

der Tumore lässt sich also eher schlecht bestimmen. Wie man sieht, haben die unterschiedlichen<br />

Tomographieverfahren ihre Vor- und Nachteile. Daher versucht man ihre<br />

Stärken miteinander zu kombinieren. Beispiele für typische Fusionen zwischen Bildern zweier<br />

Aufnahmeverfahren sind CT-MRT und CT-PET.<br />

Bei den verschiedenen Aufnahmegeräten spricht man auch von Modalitäten. Eine Modalität<br />

kann also eine CT, eine MRT, eine PET oder auch eine SPECT sein. Da bei dem<br />

oben beschriebenen Verfahren Aufnahmen verschiedener Modalitäten vorliegen, spricht man<br />

auch von Multi-Modalität. Im Gegensatz dazu gibt es Verfahren, die zwei verschiedene<br />

Bilder der gleichen Modalität verwenden - hier spricht man analog von Uni-Modalität.<br />

Ein anderer Anwendungsfall kann darin bestehen, Veränderungen eines Organs, eines Tumors<br />

oder eines anderen Bereiches innerhalb einer Aufnahme sichtbar zu machen. In diesem<br />

Fall müssen verschiedene, über eine bestimmte Zeitspanne gemachte Aufnahmen miteinander<br />

abgeglichen (registriert und transformiert) werden. Dies kann beispielsweise hilfreich<br />

sein, um zu erkennen, ob sich ein Tumor bösartig entwickelt hat, oder um Aufnahmen zu<br />

vergleichen, die vor und nach einer Operation gemacht worden sind.<br />

Diese beiden Beispiele beziehen sich auf Bilder eines einzelnen Patienten. Man spricht in<br />

diesen Fällen von Intrasubjekt-<strong>Registrierung</strong>. Vergleicht man Datensätze von Bildern, die<br />

von verschiedenen Patienten erstellt wurden, spricht man von Intersubjekt-<strong>Registrierung</strong>.<br />

Ein Anwendungsfall von Intersubjekt-<strong>Registrierung</strong> ist die <strong>Registrierung</strong> einer Patienten-<br />

Aufnahme an einen Atlas. Ein Atlas ist ein abstrakter Patient: Hier hat man Daten von<br />

mehreren Patienten genommen, und deren Mittelwerte berechnet. Man kann sich einen Atlas<br />

also als eine Durchschnittsanatomie vorstellen, die möglichst allgemein gehalten ist und keine<br />

besonderen Merkmale aufweist. Der Nachteil der Intersubjekt-<strong>Registrierung</strong> sind sicherlich<br />

die oft stark voneinander abweichenden Ausgangsbilder. Da Aufnahmen von zwei verschiedenen<br />

Patienten sehr stark unterscheiden, fällt eine korrekte <strong>Registrierung</strong> sehr schwer.<br />

Neben der Unterscheidung zwischen Multi- und Unimodalitäten und der Unterscheidung<br />

zwischen Intra- und Intersubjekt-<strong>Registrierung</strong>, kann man auch nach der Dimension unterscheiden,<br />

in der transformiert wird: Es gibt Transformationen im 2D-Bereich (vor allem bei<br />

Röntgenbildern), im 3D-Bereich (bei Bildern, die von Tomographen erstellt werden), aber<br />

auch zwischen dem 2D- und 3D-Bereich (ein räumliches Tomographiebild, auf das ein Röntgenbild<br />

projiziert wird).<br />

4 Verzerrungen und Bildfehler<br />

Tomographen sind sehr anfällig für Bildfehler, was zu zahlreichen Problemen in der Weiterverarbeitung<br />

führen kann. [DH2000] Fehlerhaft kalibrierte Tomographen führen zu Verzerrungen<br />

im Ausgabebild, zum Beispiel, weil das Koordinatensystem falsch skaliert und<br />

geschert wurde. Es ist zwar möglich, diese geometrischen Fehler zu beheben, in der Praxis<br />

fehlen jedoch meistens die Informationen, die hierfür nötig sind. Diese lassen sich auch nur


sehr schwer berechnen.<br />

Ein weiteres Problem stellen Bewegungen des Patienten während des Aufnahmevorgangs<br />

dar. Hiermit sind nicht einmal nur Bewegungen gemeint, die der Patient macht, um seine<br />

Position zu verändern und die eventuell durch ein Fixieren oder das Verabreichen von Beruhigungsmitteln<br />

gelöst werden könnten, sondern auch solche Bewegungen wie der Herzschlag<br />

oder die Atmung. Aus ihnen resultieren Verschiebungen der einzelnen aufgenommenen Slices<br />

- also der einzelnen Schichten, die das Gesamtbild geben. Die Probleme hierbei sind bisher<br />

nicht zufriedenstellend gelöst und gehören zum wichtigsten Interessensgebiet der Forschung<br />

in diesem Bereich.<br />

Weitere Fehler können in Rauschen oder in Artefakten bestehen und können - wenn<br />

sie nicht zu stark ausfallen - mit Filtern, wie man sie innerhalb der Computergrafik kennt,<br />

behoben werden.<br />

5 Transformationen<br />

Die <strong>Registrierung</strong> ist eng mit der ihr folgenden Transformation verknüpft. Man unterscheidet<br />

zwischen den allgemeinen affinen Transformationen und den spezielleren rigiden Transformationen.<br />

Zudem gibt es noch elastische Transformationen für stark verzerrte Bilder.<br />

5.1 Rigide Transformationen<br />

Rigide Transformationen ändern nichts an der Struktur des Objektes - sprich: Die Abstände<br />

zwischen sämtlichen Punkte bleiben erhalten. Erlaubt bei einer rigiden Transformation sind<br />

eine Verschiebung (Translation), eine Rotation und eine Spiegelung bzw. eine Kombination<br />

aus diesen drei Transformationen. Man kann sich leicht klar machen, dass sowohl beim Verschieben,<br />

beim Rotieren als auch beim Spiegeln die Punkte auf der Fläche des transformierten<br />

Objektes den gleichen Abstand bewahren. Rigide Transformationen werden immer dann<br />

angewandt, wenn Objekte zu registrieren und transformieren sind, die eine feste Struktur haben<br />

und sich auf den Aufnahmen nur in ihren Positionen und Ausrichtungen unterscheiden.<br />

Formell lässt sich eine rigide Transformation in einer einfachen Formel beschreiben:<br />

X B = R AB X A + t AB<br />

Der Punkt X A im ersten Bild soll also auf den Punkt X B im zweiten Bild gemappt<br />

werden. Dazu wird er passend rotiert und anschließend verschoben.<br />

5.2 Affine Transformationen<br />

Affine Transformationen bezeichnen einen allgemeineren Vorgang. Bei affinen Transformationen<br />

müssen die Abstände zwischen den Punkten nicht erhalten bleiben; wichtig ist es,<br />

dass Linien, die vor der Transformation parallel sind, dies auch nach der Transformation<br />

bleiben. Rigide Transformationen bilden also eine Teilmenge der affinen Transformationen.<br />

Zusätzlich zu Translationen, Rotationen und Spiegelungen, können noch Skalierungen und<br />

Scherungen hinzukommen. Skalierungen vergrößern oder verkleinern das Ausgangsbild, Scherungen<br />

”<br />

klaffen“ es auseinander, erhalten jedoch definitionsgemäß die Parallelität. Wichtig<br />

sind affine Transformationen immer, wenn Gewebe oder andere nicht-rigide Strukturen registriert<br />

werden müssen. Bei zu starken Bildfehlern und Verzerrungen zwischen den Bildern<br />

sind rigide Transformationen dagegen nicht geeignet.


5.3 Elastische Transformationen<br />

Elastische Transformationen sind nicht-affine Transformationen. Sie werden dann eingesetzt,<br />

wenn die beiden Bilder stark verzerrt sind. [Lgb92] beschreibt eine elastische Transformationen<br />

als das Resultat, das entsteht, wenn man elastisches Material deformiert und diese<br />

Deformationen mit der geringstmöglichen Anzahl an Verformungen stattfinden.<br />

Ähnlichkeiten in den Bildern wirken bei elastischen Transformationen als Kraft oder als<br />

Energie, die eines der Bilder so lange verformen, bis es auf das andere gemappt werden kann.<br />

Algorithmen, die elastische Transformationen registrieren und ausführen, suchen nach dem<br />

minimalen Energiezustand, mit dem die Transformation ausgeführt werden kann.<br />

6 Algorithmen<br />

Hier sollen drei <strong>Registrierung</strong>sverfahren angerissen werden: Eine punktbasierte Methode,<br />

eine Methode für Surface Matching und ein Verfahren für elastische Transformation.<br />

6.1 Punktbasierte Verfahren<br />

Zunächst soll ein punktbasiertes Verfahren für rigide oder affine Transformationen angegeben<br />

werden [MS2003]: Hierfür benötigen wir zwei Punktmengen P = (p 1 , p 2 , ..., p ) und<br />

Q = (q 1 , q 2 , ..., q n ). Die erste Punktmenge verweist auf die Punkte im Eingabebild, die zweite<br />

auf die Punkte im Bild, auf das gemappt werden soll; die in der zweiten Menge enthaltenen<br />

Punkte nennt man Landmarks. Für das vorgestellte Verfahren muss gelten, dass die beiden<br />

Punktmengen gleich groß sind - es gilt also SIZE(P) = SIZE(Q) -, welcher Punkt in dem<br />

einen Bild zu welchem Punkt in dem anderen Bild gehört ist dabei als bekannt vorauszusetzen.<br />

Abbildung 2: Mapping auf die Landmarken<br />

Es lässt sich die Güte einer <strong>Registrierung</strong> bestimmen: Mappt man die Punkte p i auf die<br />

korrespondierenden Punkte q i , kann man die Fehlerrate messen, d.h. den Abstand, den ein<br />

Punkt p i vom Landmarkenpunkt q i abweicht. In Abbildung 2 sieht man insgesamt vierzehn


Punkte - die blauen Punkte stammen dabei aus der Menge P, die roten aus der Menge Q.<br />

Die Pfeile zwischen den korrespondierenden Punkten geben die Fehler an, also die Abstände<br />

zwischen dem transformierten Punkt p i und dem Landmarkenpunkt q i :<br />

Err = T (p i ) − q i<br />

Eine perfekte <strong>Registrierung</strong> wäre die, in der jeder Punkt in P ohne Abweichung auf den<br />

korrespondierenden Punkt in Q gemappt werden kann. Hier gilt für alle p i , q i ERR = 0. Somit<br />

lässt sich eine Güte der <strong>Registrierung</strong> angeben, indem sämtliche Fehlerwerte aufsummiert<br />

und dann gemittelt werden:<br />

MSE = 1 n<br />

n∑<br />

|T (p i ) − q i | 2<br />

i=1<br />

Durch die Quadrierung werden die Fehler mit größeren Werten stärker gewichtet. Das<br />

Ziel der <strong>Registrierung</strong> ist es, diesen Mean Square Error (MSE) zu minimieren.<br />

Abbildung 3: Korrespondierende Landmarken<br />

Abbildung 3 zeigt zwei Vierecke, die jeweils einen Ausschnitt der beiden zu registrierenden<br />

Bilder repräsentieren. Punkte grenzen diese Vierecke ab; dabei korrespondiert der<br />

linke obere Punkt des ersten Bildauschnitts mit dem linken oberen Punkte des zweiten<br />

Bildauschnitts, usw. ... Nun fehlt noch eine Berechnungsvorschrift, wie die Pixel oder Voxel<br />

der beiden Bildauschnitte transformiert werden sollen. [GW1992] verwendet als Beispiel<br />

für eine Berechnungsvorschrift zwei bilineare Gleichungen, die die geometrische Verzerrung<br />

modellieren:<br />

ˆx = c 1 x + c 2 y + c 3 xy + c 4<br />

ŷ = c 5 x + c 6 y + c 7 xy + c 8<br />

Dabei sind x und y die Koordinaten aus dem ersten Bild, die in die Koordinaten ˆx und<br />

ŷ des zweiten Bildes transformiert werden sollen. Wie können wir nun die Koeffizienten c 1<br />

bis c 8 bestimmen? Dafür haben wir die Landmarken bzw. Markierungspunkte: Wir müssen<br />

die erste Punkt-Koordinate des ersten Vierecks in die beiden Gleichungen für x und y einsetzen;<br />

dann betrachten wir, auf welchen Punkt im zweiten Bild gemappt werden soll und<br />

tragen die entsprechenden Koordinatenwerte für ˆx und ŷ ein. Mit den drei verbleibenden<br />

Markierungspunkten verfahren wir analog. Dann können wir das Gleichungssystem für die


Koeffizienten auflösen. Sobald wir die Koeffizienten kennen, können wir sämtliche Pixel innerhalb<br />

der Vierecke transformieren. Um das gesamte Bild zu transformieren, benötigen wir<br />

ausreichend Punkte, um die beiden Bilder vollständig mit Vierecken abzudecken, für die<br />

dann jeweils eigene Koeffizienten berechnet werden.<br />

Es gibt zwei Möglichkeiten, Markierungspunkte bzw. Landmarken zu setzen. In vielen<br />

Fällen geschieht dies manuell, d. h. ein Arzt oder ein anderer Fachmann muss die Landmarken<br />

per Hand eingeben. Allerdings gibt es für bestimmte Konfigurationen auch automatisierte<br />

Verfahren und auf die Konfigurationen abgestimmte Heuristiken.<br />

6.2 Surface Matching<br />

Oberflächen (oder Grenzen zwischen Oberflächen) stechen deutlicher hervor als Landmarken:<br />

Wenn die Kontraste zwischen den Oberflächen groß genug sind, können Segmentierungsalgorithmen<br />

diese erkennen. Dies gilt vor allem für die Oberfläche der Haut, für deren<br />

<strong>Registrierung</strong> Surface Matching optimal ist. Nachfolgend sei der in [DLG2000] angegebene<br />

Algorithmus Head&Hat vorgestellt:<br />

Der Algorithmus bekommt als Eingabe ein hochauflösendes Bild von einem Tomographen<br />

(Head) und eine dazu passende Punktmenge (Hat) - wobei die Punkte nicht miteinander<br />

verbunden sind -, und führt iterativ rigide Transformationen der Punktmenge aus. Dies<br />

macht er solange, bis die ”<br />

beste Position“ gefunden ist, die die Punktmenge (Hat) mit dem<br />

hochauflösenden Bild (Head) verbindet. Die ”<br />

beste Position“ ist dabei die Position, die das<br />

Quadrat des Abstandes zwischen den einzelnen Punkten aus der Punktmenge und dem<br />

einzelnen Punkt an der Oberfläche des Bildes minimiert. In der Iteration verwendet der Algorithmus<br />

eine Optimierung, die die Punktmenge in jeder Iteration verschiebt. Er bricht ab,<br />

wenn in einer Iteration - abhängig von einer Fehlertoleranz - keine bessere Lösung gefunden<br />

werden kann.<br />

6.3 Elastische Transformationen<br />

Elastische Transformationen verformen ein Bild so, dass es in ein zweites gemappt werden<br />

kann. Dies sollte mit einer möglichst geringen Anzahl an Verformungen geschehen. Die Verformungen<br />

bzw. Ähnlichkeiten zwischen den beiden Bildern, die zu Verformungen führen,<br />

werden als Energie gemessen. Damit suchen Algorithmen, die elastische Transformationen<br />

berechnen, nach möglichst geringen Energiezuständen, mit denen die Transformation ausgeführt<br />

werden kann.<br />

Eine Methode für eine automatische elastische Transformation stammt von Burr [LB1992].<br />

Das Verfahren ist besonders geeignet für handgezeichnete Bilder, da diese aus scharf abgegrenzten<br />

Kanten bestehen, Burr hat es aber auch erfolgreich auf zwei Bildern ausgeführt,<br />

auf denen der Kopf eines Mädchens einmal mit geöffnetem und einmal mit geschlossenem<br />

Mund zu sehen ist. Der Algorithmus arbeitet iterativ: In jeder Iteration schaut er sich eine<br />

Kante (oder ein Objekt) in dem einen Bild und seinen nächsten Nachbar im zweiten an.<br />

Dann werden die beiden Kanten (oder Objekte) zusammengefügt ( ”<br />

Smooth Composite“).<br />

Ebenfalls betrachtet werden müssen die Nachbarn, die - je nach Abstand -, ebenfalls zu<br />

formieren sind. Nach jedem Iterationsschritt sind die beiden Bilder näher zusammen, bis sie<br />

dann mit der gewünschten Genauigkeit aufeinander gemappt sind.


6.4 Intensitätsalgorithmen<br />

In Abschnitt 6.1 habe ich ein punktbasiertes Verfahren zum Registrieren und abschließendem<br />

Transformieren vorgestellt. Das Verfahren liefert jedoch lediglich eine räumliche Aussage,<br />

also wohin ein Pixel transformiert werden soll - und nicht, welchen Farbwert es erhält. Zur<br />

Erinnerung gebe ich noch einmal die in Abschnitt 6.1 verwendeten bilinearen Gleichungen<br />

an:<br />

ˆx = c 1 x + c 2 y + c 3 xy + c 4<br />

ŷ = c 5 x + c 6 y + c 7 xy + c 8<br />

Wie man leicht erkennen kann, können - je nach den verwendeten Koeffizienten c 1 bis c 8<br />

- für ˆx und ŷ Werte mit Nachkomma-Anteil herauskommen. Mit anderen Worten: Es kann<br />

passieren, dass für ˆx und ŷ keine konkreten Farbwerte definiert sind. Der Algorithmus muss<br />

in diesem Fall die nächsten ganzzahligen Werte betrachten und den Farbwert dieser Koordinate<br />

übernehmen. Diese naive Verfahren ist in [GW1992] als Zero-Order Interpolation<br />

beschrieben: Im ersten Schritt berechnet der Algorithmus die Werte für ˆx und ŷ, im zweiten<br />

Schritt wählt der Algorithmus den nächsten ganzzahligen Nachbar von (ˆx, ŷ) und färbt im<br />

dritten Schritt das Pixel entsprechend.<br />

Leider erscheint dem Betrachter das Ausgabebild, das dieses Verfahren erstellt, oft sehr<br />

pixelig oder kantig. Darum verwendet man häufig eine bilineare Interpolation, die einen guten<br />

Kompromiss zwischen Bildqualität und Laufzeit darstellt. Die bilineare Interpolation<br />

betrachtet nicht einen Nachbarpixel, sondern vier. Zum Interpolieren verwendet der Algorithmus<br />

die folgende bilineare Gleichung:<br />

v(ˆx, ŷ) = aˆx + bŷ + cˆxŷ + d<br />

Dabei können die vier Koeffizienten a, b, c, d mit Hilfe der vier Gleichungen berechnet<br />

werden, die beim Einsetzen der vier Nachbarkoordinatenwerte von (ˆx, ŷ) entstehen. Damit<br />

berechnen wir die Koordinate v(ˆx, ŷ) und betrachten den hierzu korrespondieren Farbwert im<br />

Ausgangsbild. Der Rest des Algorithmus verhält sich analog zur Zero-Order Interpolation:<br />

Es muss nun noch der Farbwert gesetzt werden.<br />

6.4.1 Differenzbilder<br />

Die Güte der <strong>Registrierung</strong> kann mit Hilfe von Differenzbildern betrachtet werden: Differenzbilder<br />

sind Bilder, die entstehen, wenn man zwei unterschiedliche Bilder übereinanderlegt<br />

und die einzelnen Farbwerte subtrahiert. Hat man zwei Pixel mit dem gleichen (hier:<br />

Graustufen-)Farbwert, ist die Differenz der beiden Pixel Null, d. h. das entsprechende Pixel<br />

im Differenzbild ist schwarz. Unterscheiden sich die Pixel stark voneinander ist ihr Wert im<br />

Differenzbild entsprechend hell.<br />

Differenzbilder zwischen zwei von Tomographen gemachten Aufnahmen lassen sich folgendermaßen<br />

interpretieren: Falls sich nur etwas Rauschen im Differenzbild befindet, unterscheiden<br />

sich die beiden Aufnahmen nur um einen Störfaktor. Sind dagegen viele Strukturen<br />

im Differenzbild erkennbar, kann man von einigen Unterschieden in den Aufnahmen ausgehen.<br />

Sind dagegen Artefakte sichtbar, kann man eventuell von einer fehlerhaften <strong>Registrierung</strong><br />

ausgehen.


Optimal ist es, die Bilder so zu registrieren, dass sich möglichst wenig Artefakte im<br />

Differenzbild befinden, diese Formel also minimiert wird:<br />

SSD = 1 n<br />

n∑<br />

|A(x i ) − B T (x i )| 2<br />

i=1<br />

Dabei ist A(x i ) der Itensitätswert im ersten Bild und B T (x i ) der Itensitätswert des<br />

transformierten Pixels im zweiten Bild.<br />

7 Literatur<br />

[AFP1999] Michel A. Audette, Frank P. Ferrie, Terry M. Peters, 1999. An algorithmic overview<br />

of surface registration techniques for medical imaging, Medical Image Analysis 4 (2000)<br />

Seite 201-217<br />

[DH2000] Derek L. G. Hill, Philipp G. Batchelor, Mark Holden and David J Hawkes,<br />

2000. Medical image registration. Radiological Sciences, King’s College London.<br />

[LB1992] Lisa Gottesfeld Brown, 1992. A Survey of Image Registration Techniques, In:<br />

ACM Computing Surveys,VoI 24, No. 4, December1992, Seite 326-359<br />

[MS2003] Julian Mattes, Rainer Schubert, Medizinische Bildverarbeitung 2,Institut für<br />

Medizinische Wissensrepräsentation und Visualisierung<br />

[GW1992] Rafael C. Gonzalez, Richard E. Woods, 1992, Digital Image Processing, Addison-<br />

Wesley-Verlag, Seite 246-250

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!