01.03.2014 Aufrufe

Einführung in die medizinische Bildverarbeitung SS 2013

Einführung in die medizinische Bildverarbeitung SS 2013

Einführung in die medizinische Bildverarbeitung SS 2013

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische<br />

<strong>Bildverarbeitung</strong><br />

<strong>SS</strong> <strong>2013</strong><br />

Stephan Gimbel<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

1


Registrierung<br />

Multi-Resolution Registrierung<br />

‣ Optimierung durch Multi-Resolution Registrierung<br />

‣ e<strong>in</strong>e (von vielen) Möglichkeiten den Registrierungsprozess zu beschleunigen<br />

‣ durch Image Pyramids werden <strong>die</strong> Bilder downgesampled<br />

‣ <strong>die</strong> Registrierung wird dann erst grob für e<strong>in</strong> niedrig aufgelöstes Bild vorgenommen und<br />

dann Schritt für Schritt verfe<strong>in</strong>ert<br />

380 Chapter 8. Registration<br />

Fixed Image<br />

Pyramid<br />

Mov<strong>in</strong>g Image<br />

Pyramid<br />

Metric<br />

Interpolator<br />

Transform<br />

Optimizer<br />

Figure 8.36: Components of the multi-resolution registration framework.<br />

has two additional components: a pair of image pyramids that are used to down-sample the<br />

fixed and mov<strong>in</strong>g images as illustrated <strong>in</strong> Figure 8.36. Thepyramidssmoothandsubsamplethe<br />

images accord<strong>in</strong>g to user-def<strong>in</strong>ed schedul<strong>in</strong>g of shr<strong>in</strong>k factors.<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

We now present the ma<strong>in</strong> capabilities of the multi-resolutionframeworkbywayofanexample.<br />

2


Registrierung<br />

Multi-Resolution Registrierung<br />

‣ Optimierung durch Multi-Resolution Registrierung<br />

8.7. Multi-Resolution Registration 381<br />

Registration Level 0<br />

Transform<br />

Registration Level 1<br />

Transform<br />

Registration Level 2<br />

Transform<br />

Registration Level 3<br />

Transform<br />

Mov<strong>in</strong>g Image<br />

Pyramid<br />

Registration Level 4<br />

Transform<br />

Fixed Image<br />

Pyramid<br />

Figure 8.37: Conceptual representation of the multi-resolution registration process.<br />

it may be possible to take more aggressive step sizes and have amorerelaxedconvergencecriterion.<br />

Another possible scheme is to use a simple translation transform for the <strong>in</strong>itial coarse<br />

© Stephan Gimbel registration and upgrade <strong>E<strong>in</strong>führung</strong> to an aff<strong>in</strong>e <strong>die</strong> transform mediz<strong>in</strong>ische at the<strong>Bildverarbeitung</strong><br />

f<strong>in</strong>er levels.<br />

h_da<br />

Tweak<strong>in</strong>g the components between resolution levels can be done us<strong>in</strong>g ITK’s implementation<br />

3


Registrierung<br />

Mutual Information<br />

‣ Woods et al.<br />

‣ Regionen gleichen Gewebes (ähnliche Grauwerte) korrespon<strong>die</strong>ren zue<strong>in</strong>ander<br />

‣ Ideal: Verhältnis zwischen Grauwerten variiert kaum<br />

‣ → Durchschnittliche Varianz des Verhältnisses wird m<strong>in</strong>imiert für Registrierung<br />

‣ Hill et al.<br />

‣ Nutzt Feature Space<br />

‣ Komb<strong>in</strong>ation von Grauwerten korrespon<strong>die</strong>render Punkte <strong>in</strong> e<strong>in</strong>em Plot<br />

‣ Unterschied zu Woods: Cluster von Regionen im Feature Space<br />

‣ Ändert sich mit der Registrierung (Jo<strong>in</strong>t Histogramm)<br />

‣ Collignon et al. & Studholme et al.<br />

‣ Verwendung der Entropie um <strong>die</strong> Registrierung zu messen<br />

‣ Nutzung e<strong>in</strong>es Jo<strong>in</strong>t Histogramms um <strong>die</strong> Wahrsche<strong>in</strong>lichkeitsverteilugn zu schätzen (jeden<br />

E<strong>in</strong>trag im Histogramm durch <strong>die</strong> Anzahl aller E<strong>in</strong>träge teilen)<br />

‣ Shannon-Entropy für Jo<strong>in</strong>t-Distribution:<br />

− p( i, j)log p( i.j)<br />

∑<br />

i, j<br />

‣ E<strong>in</strong>e Transformation welche <strong>die</strong> Jo<strong>in</strong>t-Entropy m<strong>in</strong>imiert, registriert <strong>die</strong> Bilder<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

4


Registrierung<br />

Mutual Information<br />

‣ Def<strong>in</strong>ition<br />

‣ Drei Formen, <strong>die</strong> alle zue<strong>in</strong>ander überführt werden können<br />

‣ Form I:<br />

‣ Bilder A und B<br />

‣ I bezeichnet <strong>die</strong> Mutual Information<br />

‣ Für A und B gilt: I(A,B) = H(B) - H(A|B)<br />

‣ H(B) ist dabei <strong>die</strong> Shannon-Entropie von Bild B<br />

‣ berechnet durch <strong>die</strong> Wahrsche<strong>in</strong>lichkeitsverteilung der Grauwerte des Bildes<br />

‣ H(A|B) ist <strong>die</strong> bed<strong>in</strong>gte Entropie, basiert auf der bed<strong>in</strong>gten Wahrsche<strong>in</strong>lichkeit p(b|a)<br />

‣ Wahrsche<strong>in</strong>lichkeit e<strong>in</strong>es Grauwertes des Pixels b <strong>in</strong> Bild B, wenn <strong>in</strong> Bild A der Pixel a<br />

e<strong>in</strong>en bestimmten Grauwert hat<br />

‣ verwendet wird <strong>die</strong> Entropie von B und <strong>die</strong> Unsicherheit über B, wenn A bekannt ist, wird<br />

abgezogen<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

5


Registrierung<br />

Mutual Information<br />

‣ → I(A,B) ist <strong>die</strong> Verr<strong>in</strong>gerung der Unsicherheit über B, wenn A gegeben ist<br />

‣ → Bezeichnet <strong>die</strong> Informationen <strong>die</strong> A über B enthält<br />

‣ Austauschbar: Menge der Informationen <strong>die</strong> A über B enthält bzw. Menge der Informationen<br />

<strong>die</strong> B über A enthält<br />

‣ Ziel:<br />

‣ Maximierung der Mutual Information durch Transformationen<br />

‣ ist das Ziel erreicht, hat jedes Bild e<strong>in</strong>e maximale Information über das andere<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

6


Registrierung<br />

Mutual Information<br />

‣ Form II<br />

‣ Bilder A und B<br />

‣ I bezeichnet wieder <strong>die</strong> Mutual Information<br />

‣ Idee: geme<strong>in</strong>same Entropie. Diese m<strong>in</strong>imiert sich, wenn <strong>die</strong> Objekte <strong>in</strong> den Bildern optimal<br />

aufe<strong>in</strong>ander liegen<br />

‣ Es gilt: I(A,B) = H(A) + H(B) - H(A,B)<br />

‣ H ist dabei <strong>die</strong> Shannon-Entropie von A bzw. B<br />

‣ H(A,B) ist <strong>die</strong> „jo<strong>in</strong>t entropy“ <strong>die</strong> beide Bilder geme<strong>in</strong>sam enthalten<br />

‣ Shannon Entropie von H(A) und H(B) (niedrig für H<strong>in</strong>tergrund, hoch für anatomische<br />

Strukturen) wird ad<strong>die</strong>rt, <strong>die</strong> Unsicherheit (Unterschiede durch <strong>die</strong> Registrierung) wird vom<br />

Gesamten abgezogen<br />

‣ Jo<strong>in</strong>t Entropie wird m<strong>in</strong>imiert<br />

‣ somit erhält man <strong>die</strong> maximal mögliche Information <strong>die</strong> <strong>die</strong> beiden Bilder über das jeweils<br />

andere be<strong>in</strong>halten<br />

‣ Im Gegensatz zum vorherigen Beispiel werden <strong>die</strong> Entropien beider Bilder verwendet<br />

‣ Vorteil: Bilder mit großem H<strong>in</strong>tergrundanteil erzeugen e<strong>in</strong> „jo<strong>in</strong>t histogram“ mit m<strong>in</strong>imaler<br />

Streuung. Durch Nutzung beider Entropien, <strong>die</strong> sehr ger<strong>in</strong>g ausfallen, wird der Fehler der<br />

„jo<strong>in</strong>t entropy“ abgefangen<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

7


Registrierung<br />

Mutual Information<br />

‣ Form III: Kullback-Leibler Divergenz<br />

‣ betrachtet wird <strong>die</strong> Unterschiedlichkeit zweier Wahrsche<strong>in</strong>lichkeitsverteilungen (p und q)<br />

bzgl. des gleichen Ereignisses<br />

‣ Def<strong>in</strong>ition:<br />

∑<br />

i<br />

( )<br />

( )<br />

⎛<br />

p( i)log p i<br />

⎝<br />

⎜ q i<br />

⎞<br />

⎠<br />

⎟<br />

‣ <br />

I(A, B) =<br />

∑<br />

a,b<br />

⎛<br />

p( a,b)log<br />

⎝<br />

⎜<br />

( )<br />

( ) p( b)<br />

p a,b<br />

p a<br />

⎞<br />

⎠<br />

⎟<br />

‣ mit p = p(a,b) und q = p(a)p(b)<br />

‣ p(a,b) entspricht den zusammenhängenden Grauwerten beider Bilder<br />

‣ p(a)p(b) entspricht den Grauwerten der Bilder, wenn <strong>die</strong>se Unabhängig s<strong>in</strong>d<br />

‣ gemessen wird der Abstand (Abhängigkeit) zwischen p und q<br />

‣ Maximale Abhängigkeit zwischen Grauwerten der Bilder, bei guter Registrierung<br />

‣ Fehlregistrierung resultiert <strong>in</strong> Erhöhung<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

8


Registrierung<br />

Mutual Information<br />

‣ Kullback-Leibler Divergenz (Bezug zu Hartley)<br />

‣ aus der Anzahl von Ereignissen mit gleicher Wahrsche<strong>in</strong>lichkeit folgte <strong>die</strong> monoton<br />

wachsende, normierte Funktion H = log m n<br />

‣ Shannon erweiterte <strong>die</strong> Ereignisse mit verschiedenen Wahrsche<strong>in</strong>lichkeiten bzw.<br />

Informationsgehalt über <strong>die</strong> Shannon-Entropie:<br />

−<br />

∑<br />

i<br />

‣ es sei q = (q(1), ..., q(i)) <strong>die</strong> reelen Grauwertwahrsche<strong>in</strong>lichkeiten und p = (p(1), ..., p(i))<br />

<strong>die</strong> errechneten Grauwertverteilungen<br />

‣ Kullback-Leibler Divergenz, <strong>in</strong> <strong>die</strong> <strong>die</strong> Def<strong>in</strong>ition der Grauwertvergleiche e<strong>in</strong>gesetzt<br />

wird<br />

p i<br />

log p i<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

9


Registrierung<br />

Mutual Information<br />

‣ Kullback-Leibler Divergenz (M<strong>in</strong>imierung)<br />

‣ sei E das Maß der Unabhängigkeit der Bilder A und B und deren Zufallsvariablen F und<br />

G<br />

‣ Sei f(x i ) ∼ F, g(x i ) ∼ G, (f(x i ), g(x i )) ∼ (F, G) dann ist T gegeben durch<br />

T * = argm<strong>in</strong><br />

T<br />

( ( ))<br />

E f ( x),g T x<br />

( )<br />

‣ hierbei wird <strong>die</strong> Transformation gefunden, <strong>die</strong> <strong>die</strong> Unterschiedlichkeiten zwischen A und<br />

B m<strong>in</strong>imiert<br />

‣ Kullback-Leibler Divergenz (Maximierung)<br />

‣ sei T α <strong>die</strong> Transformation mit dem Parameter α und I(A, B) <strong>die</strong> Mutal Information<br />

α * = argmax<br />

α<br />

I(A, B)<br />

‣ so wird α maximiert, dass <strong>die</strong> Mutual Information zwischen den Bildern maximal wird<br />

‣ <strong>die</strong> Mutual Information ist also das Maß der Abhängigkeit zwischen zwei Bildern<br />

‣ <strong>die</strong> Abhängigkeit wird maximal, wenn <strong>die</strong> Bilder optimal übere<strong>in</strong>ander liegen<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

10


Registrierung<br />

Mutual Information<br />

‣ Eigenschaften der Mutual Information<br />

‣ da <strong>die</strong> Mutual Information symmetrisch ist gilt:<br />

‣ I(A,B) = I(B,A)<br />

‣ Information von Bild A über Bild B Bild B über Bild A<br />

‣ Implementierung kann zu Unterschieden führen<br />

‣ <strong>die</strong> Information <strong>die</strong> Bild A über sich selbst enthält, entspricht der Information <strong>die</strong> <strong>in</strong> A<br />

enthalten ist<br />

‣ I(A,A) = H(A)<br />

‣ <strong>die</strong> Mutual Information von A und B ist kle<strong>in</strong>er oder gleich der Information, <strong>die</strong> <strong>in</strong> den<br />

jeweiligen E<strong>in</strong>zelbildern enthalten ist<br />

‣ niemals größer!<br />

‣ I(A,B) ≤ H(A)<br />

‣ I(A,B) ≤ H(B)<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

11


Registrierung<br />

Mutual Information<br />

‣ Unsicherheit über A wird durch erlernen von Informationen aus B nicht erhöht<br />

‣ I(A,B) ≥ 0<br />

‣ Wenn A und B unabhängig s<strong>in</strong>d (und nur dann!)<br />

‣ I(A,B) = 0<br />

‣ Es kann ke<strong>in</strong>e Information über e<strong>in</strong> Bild gewonnen werden, wenn das andere gegeben<br />

ist<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

12


Registrierung<br />

Parzen W<strong>in</strong>dow<br />

‣ Parzen W<strong>in</strong>dow<br />

‣ effiziente Methode zum schätzen der Wahrsche<strong>in</strong>lichkeiten p(a), p(b) und p(a,b)<br />

‣ Probability Density Function (PDF)<br />

‣ kont<strong>in</strong>uierliche Wahrsche<strong>in</strong>lichkeitsfunktion p(x) mit den Eigenschaften:<br />

‣ <strong>die</strong> Wahrsche<strong>in</strong>lichkeit dass x zwischen a und b liegt<br />

b<br />

( ) = p x<br />

P a < x < b<br />

( )dx<br />

‣ nicht negativ für alle reellen x<br />

‣ Integral der Wahrsche<strong>in</strong>lichkeitsfunktion erfüllt<br />

∫<br />

∞<br />

−∞<br />

p( x)dx = 1<br />

‣ am weitesten verbreitet... Gauss<br />

p( x) =<br />

∫<br />

a<br />

( )2<br />

1<br />

2πσ exp ⎛<br />

⎜ − x − c<br />

⎝ 2σ 2<br />

⎞<br />

⎟<br />

⎠<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

13


Registrierung<br />

Parzen W<strong>in</strong>dow<br />

‣ Dichteschätzung<br />

‣ Geg.: n Samples x 1 , ..., x n<br />

‣ <strong>die</strong> Dichtefunktion p(x) wird so abgeschätzt, dass p(x) für jedes neue Sample x<br />

ausgegeben werden kann → Dichteschätzung (engl. density estimation)<br />

‣ wenn <strong>die</strong> Wahrsche<strong>in</strong>lichkeit P, dass e<strong>in</strong> Vektor <strong>in</strong> <strong>die</strong> Region R fällt gegeben ist durch<br />

P = p( x)dx<br />

∫ R<br />

‣ und angenommen wird, dass R so kle<strong>in</strong> ist, dass P(x) <strong>in</strong> R nicht stark variiert, kann <strong>die</strong>s<br />

mit dem Volumen von R wie folgt ausgedrückt werden<br />

P =<br />

∫<br />

R<br />

( )<br />

p x<br />

dx ≈ p x<br />

( ) dx<br />

∫<br />

R<br />

= p( x)V<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

14


Registrierung<br />

Parzen W<strong>in</strong>dow<br />

‣ wenn n samples (x 1 , ..., x n ) unabhängig verteilt s<strong>in</strong>d entsprechend der PDF p(x) und k samples<br />

von n <strong>in</strong> der Region R liegen: P = k/n<br />

‣<br />

⇒ p( x) = k n<br />

V<br />

‣ sei R e<strong>in</strong> Hyperwürfel (engl. Hypercube) zentriert bei x<br />

‣ sei h <strong>die</strong> Länge der Kante des Hyperwürfels<br />

‣ dann ergibt sich V = h 2 im R 2 und V = h 3 im R 3<br />

( x 1 −h/2, x 2+h/2<br />

)<br />

h<br />

( x 1 +h/2, x 2+h/2<br />

)<br />

x<br />

[Quelle: University of Read<strong>in</strong>g]<br />

( x 1−h/2, x 2−h/2 )<br />

( 1<br />

2<br />

x +h/2, x −h/2 )<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

15


Registrierung<br />

Parzen W<strong>in</strong>dow<br />

‣ <strong>die</strong> Fensterfunktion gibt dabei an ob x i <strong>in</strong>nerhalb des Hyperwürfels liegt oder nicht<br />

φ<br />

x ⎧ x<br />

⎛ i<br />

− x ⎞ 1 ik<br />

− x<br />

⎪<br />

k<br />

≤ 1 2, k = 1,2<br />

⎝<br />

⎜<br />

h ⎠<br />

⎟ = ⎨ h<br />

⎪<br />

⎩ 0 andernfalls<br />

‣ <strong>die</strong> Anzahl k der samples aus n, <strong>die</strong> <strong>in</strong>nerhalb der Region R liegen ergibt such aus<br />

n<br />

⎛<br />

k = φ x − x i ⎞<br />

∑<br />

⎝<br />

⎜<br />

h ⎠<br />

⎟<br />

i=1<br />

‣ <strong>die</strong> Parzen Wahrsche<strong>in</strong>lichkeits-Dichteschätzung für 2D ist gegeben als<br />

p( x) = k n<br />

V<br />

= 1 n<br />

n<br />

∑<br />

i=1<br />

1<br />

h φ ⎛<br />

2 ⎝<br />

⎜<br />

x i − x<br />

h<br />

⎞<br />

⎠<br />

⎟<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

16


Registrierung<br />

Parzen W<strong>in</strong>dow<br />

‣ es können auch andere Fensterfunktionen verwendet werden<br />

‣ z.B. Gauss (1D)<br />

p( x) = 1 n<br />

‣ Durchschnitt von n Gaussfunktionen mit jedem Datenpunkt als Zentrum<br />

‣ Beispiel<br />

n<br />

∑<br />

i=1<br />

( ) 2<br />

1<br />

2πσ exp ⎛<br />

− x − x i<br />

⎜<br />

⎝ 2σ 2<br />

⎞<br />

⎟<br />

⎠<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

17


0.6<br />

0.5<br />

Registrierung<br />

Parzen W<strong>in</strong>dow<br />

0.4<br />

0.3<br />

p(x)<br />

0.6<br />

0.2<br />

0.5<br />

0.1<br />

0.4<br />

0<br />

0.3<br />

−0.1<br />

p(x)<br />

0.2<br />

−0.2<br />

0.1<br />

−2 −1 0 1 2 3 4 5 6<br />

x<br />

0<br />

Figure −0.1 above: The dotted l<strong>in</strong>es are the Gaussian<br />

functions −2 −1 centered 0 1 2 3at 45 data 5 6 po<strong>in</strong>ts.<br />

−0.2<br />

x<br />

0.6<br />

Figure 0.5 above: The dotted l<strong>in</strong>es are the Gaussian<br />

functions centered at 5 data<br />

0.4<br />

po<strong>in</strong>ts.<br />

0.3<br />

p(x)<br />

0.6<br />

0.2<br />

0.5<br />

0.1<br />

0.4<br />

0<br />

0.3<br />

−0.1<br />

p(x)<br />

0.2<br />

−0.2<br />

−2 −1 0 1 2 4 5 6<br />

x<br />

0.1<br />

© Stephan Gimbel <strong>E<strong>in</strong>führung</strong> <strong>in</strong> <strong>die</strong> mediz<strong>in</strong>ische <strong>Bildverarbeitung</strong><br />

h_da<br />

0<br />

18

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!