25.02.2013 Aufrufe

Bericht - IGP - ETH Zürich

Bericht - IGP - ETH Zürich

Bericht - IGP - ETH Zürich

MEHR ANZEIGEN
WENIGER ANZEIGEN

Erfolgreiche ePaper selbst erstellen

Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.

Kombination von terrestrischer<br />

Radarinterferometrie mit Einzelbildern<br />

Masterarbeit Martin Wehrli<br />

<strong>ETH</strong> <strong>Zürich</strong>, Masterstudiengang Geomatik und Planung<br />

Institut für Geodäsie und Photogrammetrie<br />

Verfasser: Martin Wehrli<br />

wehrlim@student.ethz.ch<br />

Frühjahrssemester 2008<br />

20. Juni 2008<br />

Leitung: Prof. Dr. Hilmar Ingensand<br />

hilmar.ingensand@geod.baug.ethz.ch<br />

Betreuung: Henri Eisenbeiss, David Novák, Martin Sauerbier, Hans-Martin Zogg


Kombination von terrestrischer Radarinterferometrie mit Einzelbildern<br />

Masterarbeit unter der Leitung von Prof. Dr. Hilmar Ingensand<br />

Institut für Geodäsie und Photogrammetrie<br />

http://www.igp.ethz.ch/<br />

Professur für Geodätische Messtechnik und Ingenieurgeodäsie<br />

http://www.geometh.ethz.ch/<br />

Professur für Photogrammetrie und Fernerkundung<br />

http://www.photogrammetry.ethz.ch/<br />

Betreuung: Henri Eisenbeiss<br />

henri.eisenbeiss@geod.baug.ethz.ch<br />

David Novák<br />

david.novak@geod.baug.ethz.ch<br />

Martin Sauerbier<br />

martin.sauerbier@geod.baug.ethz.ch<br />

Hans-Martin Zogg<br />

hans-martin.zogg@geod.baug.ethz.ch<br />

Verfasser: Martin Wehrli<br />

Ruchenbergstrasse 25<br />

7000 Chur<br />

wehrlim@student.ethz.ch<br />

Präsentation: 18. Juni 2008<br />

Abgabe: 20. Juni 2008<br />

Titelbild: Gamma Portable Radar Interferometer<br />

Fotografiert von Martin Wehrli am 24.04.2008 oberhalb Biasca


Vorwort<br />

Der vorliegende <strong>Bericht</strong> wurde zwischen Februar und Juni 2008 am Institut für Geodäsie und<br />

Photogrammetrie verfasst. Er dokumentiert meine Masterarbeit zum Thema «Kombination<br />

von terrestrischer Radarinterferometrie mit Einzelbildern». Diese bildet den Abschluss meines<br />

Studiums «Geomatik und Planung» an der <strong>ETH</strong> <strong>Zürich</strong>, welches ich im Oktober 2003 begonnen<br />

habe.<br />

Im Zusammenhang mit dieser Arbeit ermöglichte mir die Firma Gamma RS einen interessanten<br />

und lehrreichen Einblick in die Radartechnik. Radar ist für die meisten Geomatikingenieure<br />

eine unbekannte Technologie. Während Radargeräte in der Fernerkundung (satelliten- und<br />

flugzeuggestützt) bereits erfolgreich eingesetzt werden, konnte sich diese Messmethode für<br />

terrestrische Anwendungen noch nicht durchsetzen. Sie hat aber beispielsweise bei der<br />

Differenzmessung auf grosse Distanzen oder bei unbegehbarem Zielgebiet enorme Vorzüge,<br />

welche sie zu einer äusserst interessanten Technik machen.<br />

Ich bedanke mich bei Prof. Dr. Hilmar Ingensand für die Leitung dieser Arbeit. Er hat sie mit seinem<br />

Interesse für neue Technologien möglich gemacht, auch wenn zu Beginn noch viele Fragen<br />

ungeklärt waren. So wurde die Arbeit zwischenzeitlich neu ausgerichtet und in Zusammenarbeit<br />

mit der Firma Gamma RS eine neue Aufgabenstellung erarbeitet. Die vorliegende Arbeit wurde<br />

dann auch mit Unterstützung der Assistenz der Gruppe Photogrammetrie und Fernerkundung<br />

erstellt. Ich bedanke mich bei den Assistenten beider Gruppen herzlich für die Unterstützung.<br />

Die Firma Gamma RS hat mir Daten zur Verfügung gestellt, mich bei fachspezifischen Fragen<br />

beraten und es mir ermöglicht, bei einer Radarmessung in Biasca dabei zu sein. Ich bedanke mich<br />

namentlich bei Tazio Strozzi, Charles Werner und Andreas Wiesmann herzlich für ihre Hilfe. Durch<br />

sie wurde diese Arbeit in der vorliegenden Form erst möglich.<br />

Mein Dank gilt auch meinen Mitstudenten für die lockeren Momente zwischen dem Arbeiten, für<br />

sinnige und unsinnige Diskussionen sowie für die Ermutigung bei sinkender Motivationskurve.<br />

Ein herzliches Dankeschön geht an meine Familie und meine Freundin für das entgegengebrachte<br />

Verständnis und die stetige Unterstützung.<br />

<strong>Zürich</strong>, den 20. Juni 2008<br />

Martin Wehrli<br />

I


Zusammenfassung<br />

Diese Arbeit untersucht die Orientierung eines einzelnen Bildes an einer 3D-Punktwolke,<br />

welche mit einem terrestrischen Radargerät erzeugt wurde. Durch die Orientierung wird die<br />

geometrische Verbindung des Bildes mit dem Koordinatensystem der Messungen hergestellt.<br />

So können Messwerte im Bild dargestellt werden, was deren Interpretation durch Laien stark<br />

vereinfacht.<br />

Das Verfahren der direkten linearen Transformation (DLT) erlaubt die Bestimmung der<br />

Orientierungsparameter eines Bildes mittels sechs Passpunkten und ohne Näherungswerte. Die<br />

aus der DLT resultierenden Werte können in weiteren Verfahren wie zum Beispiel dem räumlichen<br />

Rückwärtsschnitt verwendet werden. Dieser benötigt Näherungen für alle zu bestimmenden<br />

Orientierungswerte.<br />

Zur Untersuchung der DLT wurden Messungen von verschiedenen Aufnahmesystemen<br />

ausgewertet und jeweils ein Bild daran orientiert. Die Bildkoordinaten der Passpunkte<br />

wurden im Bildbearbeitungsprogramm GIMP bestimmt. Die Objektkoordinaten standen als<br />

Koordinatenlisten aus tachymetrischen Messungen zur Verfügung oder wurden aus 3D-<br />

Punktwolken abgegriffen.<br />

Die Berechnung der DLT wurde in der Programmiersprache Python umgesetzt. Das<br />

Programm «pyDLT» erstellt eine Parameterdatei, welche Näherungswerte für den räumlichen<br />

Rückwärtsschnitt im Programm «viewcalibrate» bereitstellt. viewcalibrate lässt ausserdem eine<br />

interaktive Anpassung der Näherungswerte mit der Maus zu.<br />

Es ist sehr schwierig, Radarmessungen zu erhalten oder gar selbst zu erfassen. Aus diesem<br />

Grunde wurde auch auf bestehende Datensätze zurückgegriffen, welche aber nicht auf die<br />

Bedürfnisse der Einzelbildorientierung ausgerichtet sind. Die Passpunktfindung war deshalb bei<br />

einigen Datensätzen ein grosses Problem.<br />

Die Orientierung eines Einzelbildes an einem Laserscan der Anlieferung des HIL-Gebäudes zeigt<br />

gute Resultate. Die Passpunkte konnten mit einer guten Verteilung gewählt werden. Zudem<br />

war die Bestimmung der Passpunktkoordinaten sowohl im Bild- als auch im Objektraum mit<br />

genügender Genauigkeit möglich. Dank den so erhaltenen Orientierungswerten gelang es auch,<br />

den im Bild sichtbaren Bereich der Punktwolke einzufärben.<br />

Bei der Verwendung eines Radar-Oberflächenmodells können Eckreflektoren als Passpunkte<br />

verwendet werden. Zur Verbesserung der Orientierung könnten die Eckreflektoren signalisiert<br />

werden, damit sie im Bild erkannt werden können. Ein weiterer Schritt wäre die Bestimmung<br />

der inneren Orientierung mittels Kamerakalibrierung, wodurch die minimal notwendige<br />

Passpunktzahl für die Einzelbildorientierung gesenkt werden kann. Selbstverständlich müssen<br />

die Algorithmen der DLT und des räumlichen Rückwärtsschnittes an das Vorgehen angepasst<br />

werden. Es besteht auch die Möglichkeit, die Kamera auf einer festen Plattform am Radargerät zu<br />

befestigen und durch eine Kalibrierung des Gesamtsystems aufgenommene Bilder passpunktlos<br />

zu orientieren.<br />

II


Inhaltsverzeichnis<br />

Vorwort I<br />

Zusammenfassung II<br />

Abbildungsverzeichnis VII<br />

Tabellenverzeichnis VIII<br />

1 Übersicht 1<br />

2 Einführung in die Radartechnologie 2<br />

2.1 Technische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2<br />

2.1.1 Elektromagnetische Wellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3<br />

2.1.2 Funktionsprinzip Puls-Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5<br />

2.1.3 Entfernungsbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

2.1.4 Maximale Messentfernung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

2.1.5 Minimale Messentfernung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6<br />

2.1.6 Auflösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7<br />

2.1.7 Pulskompression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

2.1.8 Synthetic Aperture Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8<br />

2.1.9 FM-CW Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.1.10 Allgemeine Radargleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2.1.11 Interferometrische Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2.2 Einteilung von Radargeräten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

2.2.1 Einteilung anhand des Strahlenganges . . . . . . . . . . . . . . . . . . . . . . 11<br />

2.2.2 Einteilung anhand der Aufnahmemethodik . . . . . . . . . . . . . . . . . . . 12<br />

2.3 Geräteübersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.3.1 Gamma RS (Gümligen, Schweiz) . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.3.2 IDS - Ingegneria dei Sistemi S.p.A. (Pisa, Italien) . . . . . . . . . . . . . . . . . 14<br />

2.3.3 LiSALab (Legnano, Italien) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.3.4 ISPAS sa (Moss, Norwegen) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.3.5 GroundProbe (Queensland, Australien) . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.3.6 Onera (French Aerospace Lab) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.4 Anwendungsmöglichkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

2.4.1 Überwachung von Hangrutschungen . . . . . . . . . . . . . . . . . . . . . . . 18<br />

2.4.2 Felsüberwachung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

2.4.3 Gletscherüberwachung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18<br />

2.4.4 Überwachung von Staumauern . . . . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.4.5 Stukturuntersuchung von Bauwerken . . . . . . . . . . . . . . . . . . . . . . . 19<br />

2.4.6 Erstellung eines digitalen Oberflächenmodells . . . . . . . . . . . . . . . . . 19<br />

III


Inhaltsverzeichnis<br />

3 Einführung in die Photogrammetrie 22<br />

3.1 Digitale Photographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.2 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.2.1 Innere Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23<br />

3.2.2 Äussere Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

3.2.3 Kollinearitätsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

3.3 Verwendete Kameras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25<br />

4 Einzelbildorientierung 28<br />

4.1 Direkte lineare Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28<br />

4.1.1 Ausgleichung nach der Methode der kleinsten Quadrate . . . . . . . . . . . . 28<br />

4.1.2 Bestimmung der Orientierungsparameter . . . . . . . . . . . . . . . . . . . . 29<br />

4.1.3 Qualität der Orientierungsparameter . . . . . . . . . . . . . . . . . . . . . . . 30<br />

4.1.4 pyDLT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30<br />

4.2 Rückprojektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

4.3 Räumlicher Rückwärtsschnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32<br />

4.3.1 Erfassung von Näherungswerten . . . . . . . . . . . . . . . . . . . . . . . . . . 33<br />

4.3.2 Interaktive Orientierung mit viewcalibrate . . . . . . . . . . . . . . . . . . . . 34<br />

5 Testobjekte 36<br />

5.1 Vorgehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

5.1.1 Aufnahme des Bildes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36<br />

5.1.2 Erfassung der 3D-Punktwolke . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37<br />

5.1.3 Bestimmung von Passpunkten im Bild . . . . . . . . . . . . . . . . . . . . . . . 37<br />

5.1.4 Bestimmung von Passpunkten in der 3D-Punktwolke . . . . . . . . . . . . . . 38<br />

5.1.5 Orientierung des Einzelbildes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38<br />

5.1.6 Einfärbung der Punktwolke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39<br />

5.2 Einzelbildorientierung an einem Testfeld . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

5.2.1 Bildkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

5.2.2 Objektkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

5.2.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41<br />

5.3 Einzelbildorientierung an einer Laserscan-Punktwolke . . . . . . . . . . . . . . . . . . 42<br />

5.3.1 Bildkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

5.3.2 Objektkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43<br />

5.3.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

5.3.4 Einfärbung der Punktwolke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49<br />

5.4 Einzelbildorientierung an einem digitalen Geländemodell . . . . . . . . . . . . . . . 50<br />

5.4.1 Bildkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

5.4.2 Objektkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

5.4.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

5.5 Einzelbildorientierung an einem Radar-Oberflächenmodell . . . . . . . . . . . . . . . 54<br />

5.5.1 Bildkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54<br />

5.5.2 Objektkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

5.5.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

5.6 Einzelbildorientierung an tachymetrisch bestimmten Passpunkten . . . . . . . . . . 59<br />

5.6.1 Bildkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

5.6.2 Objektkoordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

5.6.3 Orientierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59<br />

IV


Inhaltsverzeichnis<br />

6 Ergebnisse 63<br />

7 Fazit und Ausblick 65<br />

Literaturverzeichnis 68<br />

A Aufgabenstellung A-1<br />

B Inhalt DVD B-1<br />

C Allgemeine Radargleichung C-1<br />

D pyDLT D-1<br />

D.1 Eingabedatei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D-1<br />

D.2 Programmcode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . D-2<br />

E viewcalibrate E-1<br />

E.1 Eingabedatei .par . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E-1<br />

E.2 Ausgabedatei .cal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . E-2<br />

F colorize F-1<br />

G Weitere Programme G-1<br />

G.1 Konvertierung des DTM-AV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . G-2<br />

G.2 Konvertierung von GPRI-Radardaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . G-3<br />

G.3 Koordinaten-Extraktion aus GPRI-Daten . . . . . . . . . . . . . . . . . . . . . . . . . . G-4<br />

V


Abbildungsverzeichnis<br />

2.1 Elektromagnetisches Spektrum und die Bereiche verschiedener Sensoren . . . . . . 4<br />

2.2 Zeitsteuerung und Tastverhältnis von (Puls-) Radargeräten . . . . . . . . . . . . . . . 5<br />

2.3 Pulskompression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.4 Synthetische Apertur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9<br />

2.5 Modulationsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10<br />

2.6 Einteilung von Radargeräten nach ihrer Funktionsweise . . . . . . . . . . . . . . . . . 11<br />

2.7 Radargerät «GPRI» der Firma Gamma RS . . . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

2.8 Radarsysteme der Firma IDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14<br />

2.9 Radargerät der Firma LiSALab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.10 Radarsystem der Firma ISPAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15<br />

2.11 GroundProbe – Slope Stability Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16<br />

2.12 Onera UWB Radar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.13 Horizontal- und Vertikalwinkel des GPRI . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

2.14 Passiver Eckreflektor für Radarmessungen . . . . . . . . . . . . . . . . . . . . . . . . . 21<br />

3.1 Photosensor Nikon D200 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22<br />

3.2 Orientierung und projektive Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

3.3 Bildkoordinatensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

3.4 Canon EOS 350D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

3.5 Nikon D40x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

3.6 Nikon D2Xs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27<br />

4.1 Entwicklung von pyDLT in Geany . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31<br />

4.2 viewcalibrate von Nicola d’Apuzzo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

4.3 X video extension – xv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35<br />

5.1 Testfeld: Bild und verwendete Passpunkte . . . . . . . . . . . . . . . . . . . . . . . . . 40<br />

5.2 Testfeld: Bildkoordinatenbestimmung in GIMP . . . . . . . . . . . . . . . . . . . . . . 41<br />

5.3 Testobjekt Anlieferung, Aufnahmekonfiguration: ZLS07 und Nikon D40x . . . . . . 43<br />

5.4 Testobjekt Anlieferung: Verwendetes Bild und Laserscan-Punktwolke . . . . . . . . . 44<br />

5.5 Testobjekt Anlieferung: Passpunkt 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45<br />

5.6 Kamerakalibrierung in iWitness . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47<br />

5.7 Testobjekt Anlieferung: Residuen der Passpunkte . . . . . . . . . . . . . . . . . . . . . 48<br />

5.8 Testobjekt Anlieferung: Eingefärbte Punktwolke in Geomagic Studio . . . . . . . . . 49<br />

5.9 Testgebiet Liechtenstein: Verwendetes Bild und Höhenmodell . . . . . . . . . . . . . 51<br />

5.10 Testgebiet Liechtenstein: Residuen der Passpunkte . . . . . . . . . . . . . . . . . . . . 53<br />

5.11 Testgebiet Biasca: Eckreflektoren im Zielgebiet . . . . . . . . . . . . . . . . . . . . . . 54<br />

5.12 Testgebiet Biasca: Verwendetes Bild und GPRI-Oberflächenmodell . . . . . . . . . . 56<br />

5.13 Testgebiet Biasca: Residuen der Passpunkte . . . . . . . . . . . . . . . . . . . . . . . . 58<br />

5.14 Testobjekt Randa: Bild und Übersicht über die verwendeten Passpunkte . . . . . . . 60<br />

5.15 Testgebiet Randa: Residuen der Passpunkte . . . . . . . . . . . . . . . . . . . . . . . . 62<br />

VI


Abbildungsverzeichnis<br />

C.1 Ungerichtete Leistungsdichte eines Kugelstrahlers . . . . . . . . . . . . . . . . . . . . C-2<br />

VII


Tabellenverzeichnis<br />

2.1 Radar-Frequenzbänder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4<br />

3.1 Eigenschaften der verwendeten Kameras . . . . . . . . . . . . . . . . . . . . . . . . . 26<br />

5.1 Orientierungswerte Testfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42<br />

5.2 Orientierungswerte Anlieferung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46<br />

5.3 Orientierungswerte Liechtenstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53<br />

5.4 Orientierungswerte Biasca . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57<br />

5.5 Orientierungswerte Randa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61<br />

VIII


1<br />

Übersicht<br />

Die Radartechnologie ist vielen Geomatikingenieuren noch nicht vertraut, da sich das Prinzip<br />

doch stark von den herkömmlichen Messmethoden unterscheidet. Auch die resultierenden Daten<br />

haben eine ungewohnte Form und sind deshalb schwierig zu interpretieren (siehe beispielsweise<br />

in Abbildung 5.12). Sollen diese Messungen gar an Laien weitergegeben werden, müssen sie in<br />

eine andere, verständlichere Form gebracht werden. Bisher wurden Radardaten meist auf ein<br />

existierendes Geländemodell projiziert. Dieses wurde zur besseren Verständlichkeit in einigen<br />

Beispielen auch mit einem Luftbild überlagert.<br />

Radargeräte werden vor allem bei Deformationsmessungen eingesetzt, da sie Verschiebungen<br />

im Hundertstelmillimeterbereich auch über Distanzen von mehreren Kilometern detektieren<br />

können. Die oben beschriebene Darstellung auf einem Geländemodell ist aber schwierig, da<br />

das Radargerät die Deformationen in Blickrichtung erfasst. Es wäre besser, die Messungen in<br />

einem System darzustellen, welches einen ähnlichen Blickwinkel wie das Radargerät hat. Die in<br />

dieser Arbeit untersuchte Projektion der Messungen in ein digitales Bild ist eine entsprechende<br />

Möglichkeit. Zu diesem Zweck muss eine geometrische Verbindung zwischen dem Bild und den<br />

Messungen hergestellt werden. Dieser Vorgang wird Orientierung des Bildes genannt.<br />

In Kapitel 2 werden zuerst die Grundlagen der Radartechnologie erläutert. Es werden<br />

auch einige Radarsysteme vorgestellt, welche in den im Literaturverzeichnis aufgeführten<br />

Publikationen beschrieben sind. Einige mögliche Anwendungsbereiche sind am Schluss des<br />

Kapitels aufgeführt.<br />

Die Grundlagen der Photogrammetrie werden in Kapitel 3 nur kurz erläutert, da sie in zahlreichen<br />

Büchern zum Thema (beispielsweise (Luhmann, 2003)) bereits ausführlich beschrieben sind. Die<br />

in dieser Arbeit verwendeten Kameras werden in Kapitel 3.3 vorgestellt.<br />

Für die Orientierung der Einzelbilder werden die Methoden der direkten linearen Transformation<br />

und des räumlichen Rückwärtsschnittes verwendet. Die Algorithmen und die verwendeten<br />

Programme sind in Kapitel 4 beschrieben. Die Einzelbildorientierung wurde an fünf Testobjekten<br />

untersucht, welche in Kapitel 5 aufgeführt sind.<br />

Kapitel 6 beschreibt die Ergebnisse der oben genannten Untersuchungen. Die daraus gezogenen<br />

Schlussfolgerungen sind in Kapitel 7 aufgeführt, welches auch einen Ausblick auf weiterführende<br />

Fragestellungen gibt.<br />

Das Literaturverzeichnis enthält sowohl die verwendeten Quellen als auch weitere, interessante<br />

Publikationen. Die in dieser Arbeit verwendeten Daten und Dokumente sind auf der DVD zu<br />

finden, welche diesem <strong>Bericht</strong> beiliegt.<br />

1


2<br />

Einführung in die Radartechnologie<br />

Die Abkürzung RADAR steht für «Radio Detection and Ranging» (ursprünglich aufgrund<br />

des militärischen Verwendungszwecks «Radio Aircraft Detection and Ranging»). Radargeräte<br />

werden häufig zur Ortung und Detektion von Objekten eingesetzt. Die Technik basiert auf<br />

elektromagnetischen Wellen im Mikrowellenbereich.<br />

Im terrestrischen Einsatz ist Radar in vielen Gebieten anzutreffen: Bewegungsmelder,<br />

Geschwindigkeitsmesssysteme, Einparkhilfen und automatisierte Abstandshalter in der<br />

Fahrzeugtechnik, Überwachung von Flug- und Schiffsverkehr, Wetterradar und zahlreiche<br />

militärische Anwendungsbereiche. Für die Fernerkundung der Erdoberfläche werden<br />

Radarsysteme flugzeug- und satellitengestützt erfolgreich eingesetzt.<br />

2.1 Technische Grundlagen<br />

Die Existenz von elektromagnetischen Wellen wurde von James Clerk Maxwell im Jahre<br />

1865 vermutet. Er formulierte die nach ihm benannten Maxwell-Gleichungen. Zwanzig Jahre<br />

vergingen, bis Heinrich Rudolf Hertz der experimentelle Nachweis der elektromagnetischen<br />

Wellen gelang. Im Jahre 1904 ortet der deutsche Hochfrequenztechniker Christian Hülsmeyer<br />

metallische Schiffe mit seinem «Telemobiloskop» zum Zweck der Verkehrsüberwachung auf dem<br />

Wasser.<br />

Das Militär interessiert sich bereits seit langem für die Radartechnologie. Radar kann zur<br />

Detektierung von Flugzeugen und U-Booten verwendet werden, was auch im zweiten Weltkrieg<br />

(1939 bis 1945) eine wichtige Rolle spielte. So veränderte sich die Radartechnologie in diesen<br />

Jahren wesentlich.<br />

Radargeräte werden durch verschiedene Personen in unterschiedlichen Ländern entwickelt.<br />

Sie werden kleiner, leistungsfähiger und vielseitig einsetzbar. Gleichzeitig wird auch an<br />

Möglichkeiten geforscht, Objekte für Radarstationen unsichtbar zu machen. Bekannte<br />

Entwicklungen sind Tarnkappenflugzeuge 1 und -schiffe 2 .<br />

Dieses Kapitel hält sich an (Stebler, 2006) und (Wolff, 2008).<br />

1 Wikipedia, Tarnkappenflugzeug: http://de.wikipedia.org/wiki/Tarnkappenflugzeug (Stand 11.06.2008)<br />

2 Wikipedia, Tarnkappenschiff: http://de.wikipedia.org/wiki/Tarnkappenschiff (Stand 11.06.2008)<br />

2


2.1.1 Elektromagnetische Wellen<br />

Grundlagen<br />

2 Einführung in die Radartechnologie<br />

Sich bewegende Ladungen erzeugen elektromagnetische Wellen. Der Frequenzbereich der<br />

erzeugten Wellen erstreckt sich über mehr als 24 Zehnerpotenzen. Darunter finden sich<br />

Radiowellen, welche durch schwingende elektrische Ladungen in Antennen erzeugt werden.<br />

Wärmestrahlung wird durch schwingende Ionen (elektrisch geladene Atome) erzeugt, während<br />

sichtbares Licht von den Schwingungen der Elektronen in der Valenzschale der Atome<br />

hervorgerufen wird. Elektronen in tieferen Schichten von Atomen generieren elektromagnetische<br />

Wellen mit noch höheren Frequenzen. Eine ausführliche Einleitung in das Fachgebiet der<br />

elektromagnetischen Wellen ist in (Paus, 2002) zu finden.<br />

Die für Radar verwendeten Wellen liegen im Frequenzbereich der Radiowellen. Sie können<br />

beispielsweise durch eine Direct Digital Synthesis (DDS) erzeugt werden. DDS ist eine Methode<br />

um eine digitale, zeitabhängige Funktion zu generieren, aus welcher durch einen digital-zuanalog<br />

Umwandler ein analoges Signal erzeugt wird. Der interessierte Leser findet in (Murphy<br />

& Slattery, 2004) gut verständliche Informationen zum Thema DDS.<br />

Grundlage für die Radartechnologie sind drei Gesetzmässigkeiten, welche sich auf die<br />

elektromagnetischen Wellen beziehen:<br />

• Für elektromagnetische Wellen im Mikrowellenbereich wird eine gleichmässige<br />

Ausbreitung angenommen.<br />

• Elektromagnetische Wellen breiten sich mit konstanter Geschwindigkeit aus. Im Vakuum<br />

ist die Geschwindigkeit der Wellen gleich der Lichtgeschwindigkeit und in der Luft wird<br />

sie als Näherung der Lichtgeschwindigkeit gleich gesetzt (Wolff, 2008). Im internationalen<br />

�<br />

Einheitensystem ist die Lichtgeschwindigkeit als Konstante c0 = 2,99792458 · 108 � m<br />

� s<br />

verwendet.<br />

angegeben. Oft wird aber auch der vereinfachte Wert c0 = 3 · 10 8 � m<br />

s<br />

• Beim Auftreffen auf elektrisch leitende Körper werden elektromagnetische Wellen (diffus)<br />

reflektiert. Der in Richtung des Radargerätes zurückgeworfene Anteil wird als «Echo» oder<br />

englisch «Backscatter» bezeichnet.<br />

Elektromagnetische Wellen besitzen quasioptische Eigenschaften. Dies bedeutet, dass sich die<br />

Wellen ähnlich wie Licht ausbreiten und daher auch Effekten wie Beugung, Brechung und<br />

Reflektion unterworfen sind.<br />

Der Zusammenhang zwischen der Trägerfrequenz f und der Wellenlänge λ einer<br />

elektromagnetischen Welle ist durch die folgende Formel gegeben:<br />

�<br />

m<br />

�<br />

c0 = λ · f<br />

s<br />

(2.1)<br />

Die für Radar verwendeten Wellenlängen liegen im Mikrowellen- und Radiowellenbereich<br />

mit Wellenlängen zwischen einem Millimeter und einem Meter, wobei für terrestrische<br />

Anwendungen meist kleinere Wellenlängen im Bereich von wenigen Zentimetern verwendet<br />

werden (siehe Abbildung 2.1).<br />

3


2 Einführung in die Radartechnologie<br />

Abbildung 2.1: Elektromagnetisches Spektrum und die Bereiche verschiedener Sensoren<br />

(Baldenhofer, 2007)<br />

Gewisse Frequenzbänder wurden ursprünglich bei der militärischen Verwendung von Radar<br />

benannt. Diese Bandbezeichnungen 3 haben sich im Zusammenhang mit Radar eingebürgert und<br />

wurden standardisiert (siehe Tabelle 2.1).<br />

Elektromagnetische Wellen und Radar<br />

Band f λ = c0/f<br />

HF 3 MHz - 30 MHz 100 m - 10 m<br />

VHF 30 MHz - 300 MHz 10 m - 1 m<br />

UHF (P) 300 MHz - 1 GHz 1 m - 30 cm<br />

L 1 GHz - 2 GHz 30 cm - 15 cm<br />

S 2 GHz - 4 GHz 15 cm - 7.5 cm<br />

C 4 GHz - 8 GHz 7.5 cm - 3.75 cm<br />

X 8 GHz - 12 GHz 3.75 cm - 2.5 cm<br />

Ku 12 GHz - 18 GHz 2.5 cm - 1.7 cm<br />

K 18 GHz - 27 GHz 1.7 cm - 1.1 cm<br />

Ka 27 GHz - 40 GHz 1.1 cm - 7.5 mm<br />

V 40 GHz - 75 GHz 7.5 mm - 4 mm<br />

W 75 GHz - 110 GHz 4 mm - 2.7 mm<br />

mm 110 GHz - 300 GHz 2.7 mm - 1 mm<br />

Tabelle 2.1: Radar-Frequenzbänder (IEEE, 1984)<br />

Elektromagnetische Wellen haben die Eigenschaft, dass sie in eine Oberfläche eindringen können.<br />

Die Eindringtiefe hängt dabei von der Wellenlänge der Strahlung und den Materialeigenschaften<br />

ab. Je grösser die Wellenlänge ist, desto grösser ist die Eindringtiefe. Wellen im sichtbaren<br />

Bereich (0.4−0.7µm, siehe Abbildung 2.1) dringen auf Grund ihrer kurzen Wellenlänge wesentlich<br />

weniger in eine (Gelände-)Oberfläche ein als Wellen im Radarbereich. Auch die Wellenlängen<br />

von Radargeräten (siehe Tabelle 2.1) unterscheiden sich wesentlich in ihrer Eindringtiefe. So<br />

können bei Messungen mit verschiedenen Wellenlängen interessante Vergleiche und sogar<br />

3 Die Bezeichnung des mm-Bandes stammt vom Ausdruck «Millimeterradar», welcher teilweise auch für die Bänder<br />

V und W verwendet wird (siehe Tabelle 2.1).<br />

4


2 Einführung in die Radartechnologie<br />

Volumenberechnungen angestellt werden. Neben der Wellenlänge beeinflussen natürlich auch<br />

noch andere Faktoren wie die Polarisation und der Auftreffwinkel der elektromagnetischen Welle<br />

oder die Oberflächenbeschaffenheit des Objekts die Messung.<br />

Wie oben erwähnt beeinflussen die (dielektrischen) Materialeigenschaften des Zielobjektes<br />

die Eindringtiefe der Radarwellen. Die relative (frequenzabhängige) Dielektrizitätskonstante<br />

εr (auch Permittivitätszahl genannt) beschreibt die Materialeigenschaft quantitativ. Die<br />

Bodenfeuchtigkeit hat einen hohen Einfluss bei Messungen auf die Erdoberfläche. Durch<br />

zunehmende Feuchtigkeit nimmt die Leitfähigkeit zu. Materialien mit hoher Leitfähigkeit (zum<br />

Beispiel Metalle oder Wasser) reflektieren die elektromagnetischen Wellen sehr stark, während<br />

weniger gut leitende Materialien wie zum Beispiel trockener Boden einen grösseren Teil der<br />

ankommenden Wellen absorbiert.<br />

2.1.2 Funktionsprinzip Puls-Radar<br />

Das Radargerät sendet einen energiereichen Impuls mit der Dauer PW (pulse width) ab. Der<br />

Abstand zwischen zwei Impulsen kennzeichnet die Impulsfolgeperiode (pulse repetition time,<br />

PRT). Diese setzt sich aus der Sendezeit, der Empfangszeit und der Totzeit zusammen und<br />

bestimmt die zeitliche Auflösung der Messungen. Die Impulsfolgefrequenz (pulse repetition<br />

frequency, PRF) folgt aus der Impulsfolgeperiode:<br />

PRF = 1<br />

PRT<br />

� s −1 �<br />

Das Tastverhältnis (duty cycle) gibt das Verhältnis zwischen Impulsleistung und<br />

Durchschnittsleistung oder zwischen Impulsdauer und Pulsrepetitionsdauer an (siehe Formel<br />

in Abbildung 2.2b). Die hohe Energie für den Impuls wird also nur über sehr kurze Dauer<br />

erzeugt, weshalb die Stromversorgungsanlage nur wenig mehr als die Durchschnittsleistung<br />

zur Verfügung stellen muss. Meist wird für ein Radargerät der Wert der Pulsleistung PPeak<br />

angegeben, da dieser direkt in der Radarformel verwendet werden kann.<br />

(a) Zeitsteuerung (b) Tastverhältnis<br />

Abbildung 2.2: Zeitsteuerung und Tastverhältnis von (Puls-) Radargeräten (Wolff, 2008)<br />

(2.2)<br />

5


2.1.3 Entfernungsbestimmung<br />

2 Einführung in die Radartechnologie<br />

Die Entfernung zum Zielobjekt wird über die Laufzeit t sowie die Ausbreitungsgeschwindigkeitc0<br />

berechnet, wobei das Signal die Strecke zwischen Radargerät und Zielobjekt zweimal durchlaufen<br />

wird:<br />

R = c0 · t<br />

2<br />

[m] (2.3)<br />

Die Zielhöhe H wird in einem stark vereinfachten Modell über das Azimut ε und die<br />

Zielentfernung R berechnet:<br />

H = R · sin(ε) [m] (2.4)<br />

Befindet sich das Zielobjekt aber in grossem Höhenunterschied oder in grösserer Entfernung<br />

zum Radargerät, müssen aufwändige Modellberechnungen zur Korrektur der Erdkrümmung,<br />

Luftdichteunterschieden, Refraktion und der Luftfeuchtigkeit hinzugezogen werden.<br />

Die Höhen- und Horizontalwinkel zum Objekt können durch die Ausrichtung der Radarantenne<br />

gemessen werden. Die Ausrichtung der Antenne bestimmt nämlich die Richtung, aus welcher<br />

Signale empfangen werden können. Die Genauigkeit der Lagebestimmung der Antenne hat also<br />

direkten Einfluss auf die absolute Positionsbestimmung eines detektierten Objektes.<br />

2.1.4 Maximale Messentfernung<br />

Diese Kennzahl beschreibt die maximale Entfernung eines Objektes vom Radargerät. Wie in<br />

Abbildung 2.2 ersichtlich ist, können Echos nur zwischen den Impulsen empfangen werden. Es<br />

wird dabei angenommen, dass empfangene Echos zum vorher ausgesendeten Impuls gehören.<br />

Das letzte Echo eines Pulses kann also kurz vor der nächsten Sendezeit empfangen werden. Setzt<br />

man die maximal mögliche Impulslaufzeit in Gleichung 2.3 ein, erhält man den Wert für die<br />

maximal messbare Entfernung Rmax:<br />

Rmax = c0<br />

2 · (PRT − Pw) [m] (2.5)<br />

Empfängt das Radargerät ein Echo von einem Objekt, welches in grösserer Entfernung als Rmax<br />

liegt, wird das Echo einem folgenden Impuls zugeordnet und erscheint bei der Auswertung als<br />

Objekt mit zu kurzer Entfernung.<br />

2.1.5 Minimale Messentfernung<br />

Die minimale Messentfernung Rmin gibt an, wie gross der Mindestabstand zwischen dem<br />

Radargerät und dem Objekt sein muss, damit das Objekt vom Radar erfasst wird. Bevor das<br />

erste Echo empfangen werden kann, muss der Sendeimpuls mit der Dauer PW das Radargerät<br />

vollständig verlassen und dieses auf «Empfang» umgestellt sein. Wird die kleinstmögliche<br />

Impulslaufzeit in die Gleichung 2.3 eingesetzt, erhält man:<br />

Rmin = c0<br />

2 · (Pw + Umschaltzeit) [m] (2.6)<br />

6


2.1.6 Auflösung<br />

2 Einführung in die Radartechnologie<br />

Bei der Angabe der Auflösung eines Radargerätes kann zwischen jener in Richtung der Sichtlinie<br />

des Radars (range) und jener senkrecht dazu (cross-range) unterschieden werden. Die radiale<br />

Auflösung beschreibt den minimalen Abstand zwischen zwei Objekten, deren Echos beim<br />

Empfänger unterschieden werden können.<br />

Auflösung in range-Richtung<br />

Die Auflösung in range-Richtung (also radial zum Radargerät) wird bei einem Pulsradar durch die<br />

entfernungsmässige Länge des ausgesendeten Impulses bestimmt:<br />

mit<br />

ρr ≥ c0 · Pw<br />

2<br />

ρr = Auflösung in range-Richtung<br />

[m] (2.7)<br />

Aus der Formel 2.7 ist ersichtlich, dass nur Objekte unterschieden werden können, zwischen<br />

welchen der Abstand mindestens die Hälfte der entfernungsmässigen Länge des ausgesendeten<br />

Pulses beträgt. Wie die obenstehende Formel zeigt ist die Auflösung in range-Richtung ist<br />

distanzunabhängig.<br />

Um die Auflösung in range-Richtung zu verbessern, müsste also ein kürzerer Impuls verwendet<br />

werden. Auch die Möglichkeit der Pulskompression verbessert die radiale Auflösung (siehe Kapitel<br />

2.1.7).<br />

cross-range Auflösung<br />

Die Winkelauflösung einer Radarantenne ist abhängig von der Wellenlänge λ und der<br />

Antennengrösse l:<br />

δα = λ<br />

[rad] (2.8)<br />

l<br />

mit<br />

δα = Winkelauflösung<br />

λ = Wellenlänge<br />

l = Antennenlänge<br />

Für eine gute Winkelauflösung sind also kurze Wellenlängen von Vorteil und die Antenne sollte<br />

deshalb so gross wie möglich sein. Eine grosse Antenne bringt aber auch Nachteile mit sich.<br />

So wird sie beispielsweise unhandlich und im Falle einer mobilen Antenne schwieriger zu<br />

transportieren.<br />

7


Die cross-range Auflösung ist abhängig von der Distanz R zum Radar:<br />

ρa =<br />

λ · R<br />

l · 2<br />

2 Einführung in die Radartechnologie<br />

[m] (2.9)<br />

Um die cross-range Auflösung zu verbessern, werden die Messungen verschiedener<br />

realer Aperturen bei der Auswertung zu einer synthetischen, grösseren Antenne (SAR)<br />

zusammengerechnet. Dadurch können die Vorteile einer grossen Antenne genutzt und die<br />

langen Wellen beibehalten werden. Mehr über SAR ist in Kapitel 2.1.8 zu finden.<br />

2.1.7 Pulskompression<br />

Durch Pulskompression können die Vorteile von sehr langen mit jenen von sehr kurzen Impulsen<br />

kombiniert werden. Um das Entfernungsauflösungsvermögen zu verbessern, wird die Welle<br />

moduliert. Dadurch kann beim Empfang des Echos die Position innerhalb des Pulses aufgelöst<br />

werden. Wichtig ist auch, dass der Empfänger das Modulationsmuster auch bei überlagerten<br />

Echosignalen erkennen kann. Durch die Verlängerung der Impulsdauer wird aber die minimale<br />

Messentfernung (siehe Kapitel 2.1.4) grösser. In den meisten Fällen kann dies zu Gunsten der<br />

erhöhten radialen Auflösung jedoch hingenommen werden.<br />

Es stehen verschiedene Modulationsverfahren zur Auswahl, wobei die erste wohl am häufigsten<br />

angewendet wird:<br />

• Lineare Frequenzmodulation setzt den Sendeimpuls aus einer bestimmten Anzahl<br />

Zeitintervalle von jeweils konstanter Frequenz zusammen. Das Resultat einer solchen<br />

Kompression ist ein so genanntes Chirp-Signal (siehe Abbildung 2.3), welches eine<br />

konstante Amplitude, aber eine zunehmende (up chrip) oder abnehmende (down chirp)<br />

Frequenz hat. Der Unterschied zwischen der tiefsten und der höchsten Frequenz bestimmt<br />

die Bandbreite B. Die Schrittweite der Frequenzänderung ist konstant und die Zunahme<br />

bzw. Abnahme folglich linear.<br />

• Nicht-lineare Frequenzmodulation beruht auf dem selben Prinzip wie die lineare<br />

Frequenzmodulation. Der Unterschied besteht in der Frequenzänderung, welche<br />

nicht linear aufsteigend oder absteigend, sondern einer komplizierteren Modulation<br />

unterworfen ist (siehe Abbildung 2.3).<br />

• Codierte Phasenmodulation beeinflusst im Gegensatz zu den zwei oben beschriebenen<br />

nicht die Frequenz sondern die Phase der elektromagnetischen Welle. Die Welle wird<br />

in Pakete aufgeteilt, welche die Länge eines Vielfachen der Wellenlänge besitzen. Die<br />

Modulationsfunktion kann als binärer Code verstanden werden, welcher das Signal an den<br />

Paketgrenzen in einem geeigneten Muster um 180 ◦ umklappen kann (siehe Abbildung 2.3).<br />

2.1.8 Synthetic Aperture Radar<br />

Wie in Kapitel 2.1.6 beschrieben, ist die Auflösung einer Antenne mit realer Apertur für einige<br />

Anwendungen ungenügend. Abhilfe schafft eine synthetische Antenne, für welche die realen<br />

Antennen entlang der Bahn addiert werden. Bedingung dafür ist ein kohärentes Sendesignal 4 .<br />

4 Bei einem kohärenten Signal ist die Phasenlage der abgehenden Welle konstant und bekannt.<br />

8


1<br />

0<br />

-1<br />

(a) Lineare Frequenzmodulation,<br />

up chirp<br />

1<br />

0<br />

-1<br />

(b) Exponentielle Frequenzmodulation<br />

2 Einführung in die Radartechnologie<br />

(c) Codierte Phasenmodulation mit<br />

Binärcode oben und moduliertem<br />

Signal unten<br />

Abbildung 2.3: Komprimierte Pulse zur Verbesserung der radialen Auflösung (Abbildung (c) aus<br />

(Wolff, 2008))<br />

So wird bei jeder Aufnahme ein Teil des Gebietes erfasst und der synthetischen Aufnahme<br />

hinzugefügt.<br />

Die Länge der synthetischen Apertur wird durch den Abschnitt definiert, in welchem ein<br />

bestimmter Punkt von den realen Aperturen abgedeckt wird. Dies ergibt für nahe Objekte eine<br />

kürzere Apertur als für entfernte Objekte. Dies wird durch die kürzere Distanz zwischen Objekt<br />

und Radargerät kompensiert.<br />

Abbildung 2.4: Addition mehrerer realer zu einer einzigen synthetischen Apertur (Richards &<br />

Xiuping, 2006)<br />

2.1.9 FM-CW Radar<br />

Geräte, welche mit FM-CW (Frequency Modulated Continuous Wave) arbeiten, senden im<br />

Gegensatz zu den bisher betrachteten Geräte eine kontinuierliche Welle aus. Für den Empfang<br />

der Signale benötigen sie eine zweite Antenne. Um eine Distanzmessung durchführen zu können,<br />

wird die ausgestrahlte Grundschwingung moduliert. Meist wird eine sich über ein bestimmtes<br />

Frequenzband B linear modulierte Welle verwendet (siehe auch Kapitel 2.1.7).<br />

Es ist zu beachten, dass eine Modulierung verwendet wird, welche beim Empfang keine<br />

Mehrdeutigkeiten erlaubt. Dies kann erreicht werden, indem die Frequenz nur so «langsam»<br />

geändert wird, dass innerhalb der maximalen Messdistanz keine Mehrdeutigkeit entsteht.<br />

Mögliche Modulationsfunktionen wären eine Dreiecks- oder eine Sägezahnfunktion (siehe<br />

9


2 Einführung in die Radartechnologie<br />

Abbildung 2.3). Die Distanz R wird dann über den Phasenunterschied und die daraus bekannte<br />

zeitliche Verschiebung berechnet:<br />

R = c0 · ∆f<br />

(2.10)<br />

2 · df/dt<br />

mit<br />

1<br />

0<br />

∆f = Frequenzdifferenz zwischen ausgesendetem und empfangenem Signal<br />

df = Schrittweite der Frequenzmodulation<br />

dt = Zeitintervall zwischen zwei Frequenzänderungen<br />

(a) Sägezahnfunktion<br />

2.1.10 Allgemeine Radargleichung<br />

1<br />

0<br />

(b) Dreiecksfunktion<br />

Abbildung 2.5: Lineare Frequenzmodulationsfunktionen<br />

Die Radargleichung beschreibt die physikalischen Zusammenhänge von der Sendeleistung<br />

über die Wellenausbreitung bis zum Empfang. Sie kann dem besseren Verständnis der<br />

Radartechnologie dienen und ist in Anhang C beschrieben. Eine detaillierte Herleitung ist in<br />

(Stebler, 2006) oder (Wolff, 2008) zu finden.<br />

2.1.11 Interferometrische Phase<br />

Die interferometrische Phase entsteht durch die Differenzbildung zweier Radaraufnahmen.<br />

Diese müssen korrekt koregistriert sein, damit daraus die Phasendifferenz Φ der einzelnen<br />

Pixel (interferometrische Phase) berechnet werden kann. Diese setzt sich aus verschiedenen<br />

Komponenten zusammen:<br />

• Topografieeinfluss Φtopo<br />

• Objektdeformationen Φdef<br />

• Atmosphäreneinfluss Φatm<br />

• Rauschen (interne und externe Quellen) Φnoise<br />

10


Φ = Φtopo + Φdef + Φatm + Φnoise<br />

Φ = 4π<br />

λ B � + 4π<br />

λ rdef + 4π<br />

λ ratm + Φnoise<br />

2 Einführung in die Radartechnologie<br />

(2.11)<br />

(2.12)<br />

wobei B � die Parallelkomponente der Basis zur Schrägdistanz der ersten Aufnahme ist. rdef und<br />

ratm stellen die radialen Distanzveränderungen durch Deformationen im Zielgebiet und durch<br />

atmosphärische Einflüsse dar.<br />

Der Einfluss des Rauschens und der Atmosphäre wird durch geeignete Algorithmen berechnet<br />

und die interferometrischen Phase korrigiert. Setzt man dann voraus, dass während der<br />

Aufnahme keine Deformationen entstanden sind, kann die Topografie bestimmt werden.<br />

Umgekehrt können so aus der interferometrischen Phase auch sehr kleine Deformationen über<br />

grosse Distanzen bestimmt werden.<br />

2.2 Einteilung von Radargeräten<br />

2.2.1 Einteilung anhand des Strahlenganges<br />

Abbildung 2.6: Einteilung von Radargeräten nach ihrer Funktionsweise (nach (Wikipedia, 2008))<br />

Primärradargeräte senden Energie in Form von Mikrowellen aus, welche an verschiedenen<br />

Objekten reflektiert und wieder empfangen werden. Mit dieser Technologie können Objekte<br />

detektiert und die Positionen bestimmt werden.<br />

Pulsradargeräte senden ein Wellenpaket (Puls) aus, welches als Echo von den Objekten<br />

zurückgeworfen wird. Bei diesen Geräten wird die Sendeantenne meist auch für den<br />

Empfang genutzt. Dies bedingt eine Umschalteinheit (Duplexer), welche zwischen<br />

«Senden» und «Empfangen» wechselt. Das Aussenden des Impulses dauert nur einige<br />

Mikrosekunden (1µs = 10 −6 s). Je nach Reichweite des Radargeräts wird anschliessend<br />

einige Mikro- bis Millisekunden auf Empfang geschaltet bevor der nächste Impuls<br />

ausgesendet wird. Aus der Laufzeit des Impulses kann auf die Entfernung zum detektierten<br />

Objekt geschlossen werden. Zur Verbesserung der Auflösung des Pulsradars kann der Puls<br />

komprimiert werden, was in Kapitel 2.1.7 näher beschrieben wird.<br />

Dauerstrich-Radargeräte senden ein kontinuierliches Signal aus. Dies hat den Vorteil, dass die<br />

Messwerte ununterbrochen zur Verfügung stehen. Da die Antenne ständig sendet, muss<br />

11


2 Einführung in die Radartechnologie<br />

eine zweite Antenne für den Empfang des Signals vorhanden sein. Zwei Aspekte sind<br />

besonders zu beachten:<br />

• Die Einflüsse der Sendeantenne auf die Empfangsantenne sind zu minimieren. Eine<br />

direkte Einstrahlung in die Empfangsantenne erzeugt eine Kopplung, welche bei der<br />

Auswertung der Messungen Schwierigkeiten bereitet.<br />

• Für die Distanzmessung muss die Welle moduliert werden, damit dem empfangenen<br />

Signal eine eindeutige Sendezeit zugeordnet werden kann. Die in Kapitel<br />

2.1.9 beschriebene Frequenzmodulation ist eine mögliche Lösung für diese<br />

Problemstellung.<br />

Mit Dauerstrich-Radargeräten ohne Modulationsfunktion können keine Distanzen<br />

bestimmt und keine Ziele voneinander unterschieden werden. Durch die<br />

Frequenzverschiebung der empfangenen Welle bei einer Messung auf ein bewegtes<br />

Objekt kann aber dessen Geschwindigkeit bestimmt werden. Diese Technik wird zum<br />

Beispiel für die Geschwindigkeitsüberwachung von Fahrzeugen verwendet.<br />

Sekundärradargeräte benutzen im Gegensatz zu den Primärradargeräten aktive Ziele. Diese<br />

senden beim Empfang des Radarsignals aktiv ein Antwortsignal (auf einer anderen<br />

Frequenz) zurück. Dieses kann mit zusätzlichen Informationen versehen werden. So<br />

wird ein eigentlicher Datenfluss errichtet. Laut (Wolff, 2008) wird diese Art des Radars<br />

zunehmend durch Datenübertragungstechnologien ersetzt. Der Vorteil von Sekundärgegenüber<br />

Primärradargeräten ist eine deutliche Reduzierung der Sendeleistung bei<br />

gleicher Reichweite, da das Echo durch eine aktive Antwort ersetzt wird.<br />

2.2.2 Einteilung anhand der Aufnahmemethodik<br />

Eine grossflächige Aufnahme wie bei einer Fotografie ist mit Radar nicht möglich, da die<br />

Unterscheidung von Echos verschiedener Objekte zu aufwändig ist. Es gibt aber verschiedene<br />

Vorgehensweisen, um trotzdem ein grösseres Gebiet mit Radar zu erfassen.<br />

Punktweise Aufnahme Mittels Drehung des ganzen Radargeräts oder durch Ablenkung der<br />

ausgesendeten (und der empfangenen) Welle kann ein Gebiet in einem Raster durch einen<br />

stark gebündelten Strahl punktweise erfasst werden. Durch die Kenntnis der Ausrichtung<br />

können die Messungen zu einer grossflächigen Aufnahme zusammengesetzt werden.<br />

Profilweise Aufnahme Wird das Signal nicht punktförmig sondern in einer Ebene ausgesendet,<br />

erfasst diese im Zielgebiet ein Profil. Zur Unterscheidung der Objekte muss das Signal<br />

dann von zwei Antennen gleichzeitig empfangen werden. Das in Kapitel 2.3.1 beschriebene<br />

Radargerät der Firma Gamma RS besitzt drei Antennen, von welchen die eine konstant<br />

sendet und die beiden anderen gleichzeitig empfangen. So kann durch Drehung des Geräts<br />

um die vertikale Achse ein Gebiet von bis zu 360 Grad aufgenommen werden.<br />

SAR Aufnahme Durch die Kombination von einzelnen realen Aperturen kann eine synthetische<br />

Apertur berechnet werden, welche dann ein der Länge der synthetischen Antenne<br />

entsprechendes Gebiet abdeckt. Die SAR-Technologie wird in Kapitel 2.1.8 beschrieben.<br />

12


2.3 Geräteübersicht<br />

2 Einführung in die Radartechnologie<br />

In diesem Abschnitt werden Radargeräte vorgestellt, welche in den wissenschaftlichen<br />

Publikationen beschrieben sind, die während der Literaturrecherche zum Thema «Terrestrische<br />

Radarsysteme» gefunden wurden. Besonders die Geräte der Firmen IDS und LiSALab werden in<br />

zahlreichen dokumentierten Projekten eingesetzt.<br />

2.3.1 Gamma RS (Gümligen, Schweiz)<br />

Abbildung 2.7: Radargerät «GPRI» der Firma Gamma RS<br />

GPRI bedeutet Gamma Portable Radar Interferometer und ist ein von der Firma Gamma RS<br />

entwickeltes, tragbares Radargerät für Überwachungsmessungen. Das System benötigt kein<br />

Fundament und ist deshalb innert kurzer Zeit einsatzbereit. Es besteht aus drei drehbaren, realen<br />

Antennen. Während eine davon eine kontinuierliche, modulierte Welle ausstrahlt, werden die<br />

Echos von zwei Antennen an verschiedenen Positionen gleichzeitig empfangen.<br />

Verschiebungen können mit Wiederholungsmessungen detektiert werden. Mittels<br />

einer Momentaufnahme der zwei getrennten Antennenpositionen kann ein digitales<br />

Oberflächenmodell berechnet werden. Dies, weil davon ausgegangen werden kann, dass<br />

während der Aufnahme eines Profils keine Bewegung der Objekte stattfindet.<br />

13


(a) IBIS-S (b) IBIS-L<br />

Abbildung 2.8: Radarsysteme der Firma IDS (IDS, 2008)<br />

2.3.2 IDS - Ingegneria dei Sistemi S.p.A. (Pisa, Italien)<br />

IBIS-S<br />

2 Einführung in die Radartechnologie<br />

Das IBIS-S System ist für Überwachungsmessungen in einem Messbereich von bis zu einem<br />

Kilometer geeignet. Es kann Verschiebungen mit einer Genauigkeit von bis zu 0.01 Millimeter<br />

bestimmen und Messungen mit bis zu 100Hz erfassen. Dabei können mehrere Ziele gleichzeitig<br />

beobachtet werden. Das System ist speziell geeignet, um Projekte mit hohen Messfrequenzen<br />

durchzuführen. Dazu gehören zum Beispiel Belastungstests bei Brücken (siehe Abbildung 2.8)<br />

oder Strukturanalysen von Bauwerken.<br />

IBIS-L<br />

Das IBIS-L System ist auf einem Schlitten montiert, welcher sich auf einem Balken von etwa<br />

zwei Metern Länge verschieben kann (siehe Abbildung 2.8). Die maximale Messdistanz beträgt<br />

ungefähr vier Kilometer und die Genauigkeit einer Verschiebungsmessung beträgt laut IDS<br />

0.1 Millimeter. Ein Gebiet von mehreren Quadratkilometern kann mit einer zeitlichen Auflösung<br />

von fünf Minuten erfasst werden. Mögliche Anwendungsbereiche sind die Beobachtung von<br />

Erdrutschen, Senkungen, Vulkanen, Gletschern oder grossflächigen Bauten.<br />

2.3.3 LiSALab (Legnano, Italien)<br />

Ähnlich wie das IBIS-L System der Firma IDS ist das Radargerät auf einem Schlitten montiert,<br />

welcher über eine 1 bis 5 Meter lange Schiene fährt. Für eine Aufnahme bewegt es sich in<br />

kleinen Schritten über die Schiene und setzt diese Aufnahmen zu einer synthetischen Aufnahme<br />

(siehe Kapitel 2.1.8) zusammen. Die Länge der Schiene ist abhängig von der gewünschten<br />

cross-range Auflösung. Wie mit IBIS-L können kleinste Verschiebungen durch die Messung von<br />

Phasenänderungen detektiert werden. Aufgrund des ähnlichen Aufbaus und Funktionsweise<br />

deckt das LiSA-System die selben Anwendungsbereiche wie IBIS-L von IDS ab.<br />

14


2.3.4 ISPAS sa (Moss, Norwegen)<br />

2 Einführung in die Radartechnologie<br />

Abbildung 2.9: Radargerät der Firma LiSALab (LiSALab, 2006)<br />

Abbildung 2.10: Radarsystem der Firma ISPAS (Norland, 2006)<br />

Für die Überwachung eines felssturzgefährdeten Gebietes in Tafjorden (Norwegen) wird ein<br />

Radar der Firma ISPAS 5 eingesetzt. Dieses Projekt ist in (Norland, 2006) beschrieben. Wie in<br />

Abbildung 2.10 ersichtlich ist, wurde das System fest installiert und ist nicht portabel. Über<br />

Messungen auf Eckreflektoren, welche auf den kritischen Felsblöcken in einer Entfernung von<br />

etwa drei Kilometern montiert sind, wird deren Bewegung registriert. Bei der Überschreitung<br />

eines Grenzwertes wird eine Meldung an ein angeschlossenes Warnsystem übergeben.<br />

5 ISPAS sa: http://www.ispas.no/Engelsk/index_en.htm (Stand: 18.06.2008)<br />

15


2 Einführung in die Radartechnologie<br />

Die Funktionsweise ist gleich wie beim oben beschriebenen Gerät IBIS-S. Während die eine<br />

Antenne eine frequenzmodulierte, kontinuierliche Welle aussendet, werden die Echos bei der<br />

zweiten Antenne empfangen. Das System arbeitet auf einer Frequenz von 9.65 GHz mit einer<br />

Modulation über 200 MHz.<br />

2.3.5 GroundProbe (Queensland, Australien)<br />

(a) Slope Stability Radar (b) Scanprozess<br />

Abbildung 2.11: GroundProbe – Slope Stability Radar (GroundProbe, 2008)<br />

Die Firma GroundProbe hat ein Radarsystem namens Slope Stability Radar (SSR) entwickelt,<br />

welches vorwiegend für Stabilitätsuntersuchungen von Tagbau-Minen verwendet wird. Ist in<br />

(Noon et al., 2002) noch ein Prototyp beschrieben, finden sich jetzt auf dem Internetplattform<br />

von GroundProbe (GroundProbe, 2008) bereits einige Fallstudien.<br />

Das System besitzt nur eine Antenne, welche sowohl für das Senden als auch für den<br />

Empfang verwendet wird. Die Radarwellen werden dabei über eine Parabolantenne 6 von 92<br />

Zentimetern Durchmesser auf das Zielobjekt gelenkt. Um eine Fläche aufzunehmen, wird die<br />

horizontale und die vertikale Ausrichtung der Antenne verändert. Ein entsprechendes Schema ist<br />

in Abbildung 2.11 (b) zu sehen.<br />

Die maximale Messdistanz beträgt 850 Meter. Sie kann bei gleich bleibender Genauigkeit<br />

verdoppelt werden, wenn eine Antenne von 1.8 Meter Durchmesser verwendet wird. Wie oben<br />

erwähnt, werden Flächen durch Ausrichtung der Radarantenne erfasst. Der maximal mögliche<br />

Messbereich liegt bei 270 ◦ horizontal und 120 ◦ vertikal. Die Zeit zwischen zwei Messungen des<br />

selben Gebiets ist abhängig von der zu erfassenden Fläche und beträgt zwischen einer und 30<br />

Minuten.<br />

Für die Interaktion mit dem Benutzer werden laut (Little, 2006) vorgängig einige Bilder mit einer<br />

an der Antenne befestigten Kamera erstellt, welche dann zu einem Panorama zusammengesetzt<br />

werden. Darin kann der Benutzer dann sowohl das aufzunehmende Gebiet und als auch<br />

geometrisch stabile Referenzfläche selektieren um den Scan-Prozess zu starten. SSR arbeitet mit<br />

einer Frequenz zwischen 9.4 und 9.5 GHz im X-Band.<br />

6 Wikipedia, Parabolantenne: http://de.wikipedia.org/wiki/Parabolantenne (Stand: 18.06.2008)<br />

16


2.3.6 Onera (French Aerospace Lab)<br />

(a) Überwachungsstation Montfalcon mit Radar<br />

(oben) und Tachymeter (unten)<br />

(c) Eckreflektor, Prisma und GPS-Antenne (gelbe Kugel)<br />

2 Einführung in die Radartechnologie<br />

(b) Onera Ultra Wide Bandwidth Radar System<br />

Abbildung 2.12: Onera UWB Radar – Monitoring «La Séchilienne» nahe Grenoble (Institut des<br />

Risques Majeurs de Grenoble, 2008)<br />

Das System des French Aerospace Lab ist im Zusammenhang mit einem Monitoring bei<br />

La Séchilienne dokumentiert (Lemaitre et al., 2004). Der überwachte Hang bewegt sich<br />

durchschnittlich vier Millimeter pro Tag talwärts. Dies bedeutet, dass sich die Phasenlage<br />

der Messungen sehr schnell ändert und dauernd verfolgt werden muss, um die Lösung der<br />

Mehrdeutigkeiten nicht zu verlieren. Um diesem Problem zu begegnen, wurde eine sehr<br />

hohe Bandbreite von 18 bis 26 GHz gewählt, was einer mittleren Wellenlänge von zwölf<br />

Millimetern entspricht. Das Gerät erreicht eine maximale Messdistanz von einem Kilometer<br />

und kann Verschiebungen in Sichtrichtung in der Grössenordnung eines Hundertstelmillimeters<br />

erfassen.<br />

Weil Radarstrahl sehr fein ist, kann nicht das gesamte Zielgebiet ausgeleuchtet werden. Aus<br />

diesem Grunde wird der Strahl durch Fächer (siehe Abbildung 2.12 (b)) in sechs Segmente<br />

aufgeteilt. Die Eckreflektoren sind meist am selben Ort wie Prismen, Extensometer oder<br />

GPS-Antennen montiert. So können die Messungen durch verschiedene Systeme gegenseitig<br />

unabhängig überprüft werden.<br />

17


2.4 Anwendungsmöglichkeiten<br />

2 Einführung in die Radartechnologie<br />

Erdrutsche, Felsstürze, Lawinen und andere Massenbewegungen gefährden Menschen und<br />

Bauten. Die Bedrohung kann direkt aber auch indirekt erfolgen. Fliesst beispielsweise ein<br />

Wasserlauf im möglichen Ablagerungsgebiet einer Massenbewegung, könnte dieser nach einer<br />

Rutschung aufgestaut werden. Bei einem Durchbruch würden tiefer gelegene Gebiete bei einem<br />

Durchbruch überflutet. Die Überwachung und die davon abhängige Vorhersage von möglichen<br />

Ereignissen ist deshalb von grosser Bedeutung.<br />

Radar hat sich als Messsystem vor allem für Überwachungsmessungen von grossen Objekten<br />

in einer Entfernung von bis zu vier Kilometern bewährt. Denn selbst über diese Distanz<br />

können Verschiebungen im Submillimeterbereich detektiert werden. Wissenschaftliche <strong>Bericht</strong>e<br />

dokumentieren vor allem die Überwachung von Rutschhängen und die Strukturanalyse von<br />

grossen Bauwerken, wie zum Beispiel Brücken und Staudämme.<br />

2.4.1 Überwachung von Hangrutschungen<br />

Bei der Überwachung von Hangrutschungen ist die Feststellung von aktiven Zonen und<br />

Fliessgeschwindigkeiten von Interesse. Bodenbewegungen treten im Bereich von mehreren<br />

Millimetern bis wenigen Zentimetern pro Stunde auf (Antonello et al., 2004). Da ein Radargerät<br />

mittles Phasenvergleich bereits auf Verschiebungen im Bereich von 0.1 Millimeter reagiert,<br />

kann die Charakteristik und Geschwindigkeit einer Rutschung in kurzen Messkampagnen<br />

erfasst werden. Zahlreiche wissenschaftliche Publikationen dokumentieren die Überwachung<br />

von Rutschhängen mittels Radarinterferometrie. Der interessierte Leser findet weiterführende<br />

Unterlagen im Literaturverzeichnis.<br />

2.4.2 Felsüberwachung<br />

Da die zu überwachenden Felspartien meist aus Sicherheitsgründen nicht zugäglich sind, ist<br />

für solche Messungen eine Messmethode gefragt, welche berührungslos und ohne Targets<br />

im Zielgebiet arbeitet. Die Radarinterferometrie erfüllt beide Kriterien. Zudem kann durch<br />

ein ständiges Monitoring mit hohen Messintervallen eine flächenhafte Echtzeitüberwachung<br />

gewährleistet werden. Dies macht Radar zu einer geeigneten Technik für Felsüberwachung.<br />

(Norland, 2006) beschreibt ein sehr interessantes Frühwarnsystem, welches in Tafjorden,<br />

Norwegen zur Überwachung von absturzgefährdeten Felsblöcken angebracht wurde. Nach<br />

der Korrektur von meteorologischen Einflüssen wird die erfasste Messreihe untersucht. Die<br />

Messreihen werden auf einem Monitoringsystem den zuständigen Behörden in Echtzeit zur<br />

Verfügung gestellt und ein Alarm ausgesandt, falls ein bestimmter Schwellwert überschritten<br />

wird.<br />

2.4.3 Gletscherüberwachung<br />

Gletscher bewegen sich im Vergleich zu Hangrutschungen oder gefährlichen Felspartien schnell<br />

(im Bereich von einigen Zentimetern pro Tag). Um die Gletscherbewegung festzustellen, genügt<br />

deshalb eine verhältnismässig kurze Radar-Messkampagne von einigen Stunden bis wenigen<br />

18


2 Einführung in die Radartechnologie<br />

Tagen. Im Zuge des EU-Projekts GALAHAD (Galahad Projekt, 2008) wurde die Bewegung<br />

des Belvedere Gletschers mit dem IBIS-L System der Firma IDS untersucht und mittels<br />

periodischen GPS-Messungen verifiziert. Die Messungen dienen als Grundlage zur Kalibrierung<br />

und Validierung von Flussmodellen der Glaziologie (Mecatti et al., 2007).<br />

2.4.4 Überwachung von Staumauern<br />

Durch den Phasenvergleich können auch geringe Bewegungen registriert werden. Diese<br />

Eigenschaft wird auch bei der Überwachung von Staumauern ausgenützt. (Ardito & Cocchetti,<br />

2006) zeigt sogar eine deutliche Übereinstimmung der Radartechnik mit herkömmlichen<br />

Staudammmonitoringsystemen (Pendel und Kollimatoren). Vorteile von Radarmessungen sind<br />

die grossflächige Erfassung des Objekts und die hohe Messfrequenz. Eine hohe Anzahl<br />

Messungen ist ein deutlicher Vorteil bei der Berechnung von Modellen mit sehr vielen<br />

Parametern, wie sie bei Simulationen von Bauten vorkommen.<br />

2.4.5 Stukturuntersuchung von Bauwerken<br />

In (Berardini et al., 2007) und (Bernardini et al., 2007c) wird gezeigt, dass durch die hohe<br />

Messfrequenz auch feine und hochfrequente Schwingungen eines zu untersuchenden Objektes<br />

erfasst werden können. Mögliche Resultate der Messungen sind Schwingungsfrequenzen von<br />

Bauelementen. So wird in (Berardini et al., 2007) die Struktur eines Glockenturms untersucht,<br />

indem die Korrelation der Bewegung von Punkten auf verschiedenen Höhen des Turmes geprüft<br />

wird. (Bernardini et al., 2007c) vergleicht Radarmessungen mit Beschleunigungsmessgeräten<br />

und zeigt, dass daraus sowohl Hauptfrequenzen als auch die zugehörigen Schwingungsformen<br />

abgeleitet werden können.<br />

2.4.6 Erstellung eines digitalen Oberflächenmodells<br />

Die Erstellung eines digitalen Oberflächenmodells (DOM) mit einem Radargerät wird im<br />

Folgenden am Beispiel des GPRI der Firma Gamma RS (siehe Kapitel 2.3.1) erläutert. Im den<br />

meisten Fällen dürfte das DOM nicht das primäre Produkt einer Messkampagne sein, sondern<br />

zur Visualisierung von Messungen dienen.<br />

Wie in Abbildung 2.7 zu sehen ist, besteht das Gerät aus drei Antennen, deren Zentren vertikal<br />

übereinander angeordnet sind. Sie sind an einem Turm befestigt, welcher um die vertikale<br />

Achse drehbar ist. Der horizontale Drehwinkel Θ wird über den Steuerungsmotor der Plattform<br />

abgegriffen, während der Vertikalwinkel γ über die interferometrische Phase und die bekannte<br />

Basis zwischen den beiden Empfänger-Antennen bestimmt wird (Werner et al., 2008).<br />

19


Abbildung 2.13: Horizontal- und Vertikalwinkel des GPRI<br />

2 Einführung in die Radartechnologie<br />

Der Vertikalwinkel (siehe Abbildung 2.13) ergibt sich aus der interferometrischen Phase (siehe<br />

Kapitel 2.1.11):<br />

mit<br />

�B( � P − � P1)<br />

| � P − � P1|<br />

= −λΦ<br />

4π<br />

= B · cosγ (2.13)<br />

�B = Bekannter Basisvektor zwischen den zwei Antennenpositionen<br />

�P − � P1 = Differenzvektor eines Punktes in zwei Aufnahmen<br />

λ = Bekannte Wellenlänge<br />

Φ = Berechnete Phasendifferenz aus zwei Radarbildern (Interferometrische Phase)<br />

γ = Vertikalwinkel<br />

20


2 Einführung in die Radartechnologie<br />

Abbildung 2.14: Passiver Eckreflektor für Radarmessungen (Bernardini et al., 2007b)<br />

Die Positionierung in der Ebene ergibt sich aus dem Horizontalwinkel (siehe Abbildung 2.13). Die<br />

Richtung der x-Achse des Radarkoordinatensystems wird durch den mittleren Horizontalwinkel<br />

des erfassten Bereichs definiert.<br />

mit<br />

�P − � P1<br />

| � P − � · ˆx = cosΘ<br />

P1|<br />

(2.14)<br />

�P − � P1<br />

| � P − � · ˆy = sinΘ<br />

P1|<br />

(2.15)<br />

ˆx = x-Wert im Radar-Koordinatensystem<br />

ˆy = y-Wert im Radar-Koordinatensystem<br />

Θ = Bekannter Horizontalwinkel<br />

Mittels der oben aufgeführten Formeln kann ein Interferogramm in eine 3D-Punktwolke im<br />

Radar-Koordinatensystem umgewandelt werden. Die Transformation in ein Referenzsystem wird<br />

über Passpunkte vorgenommen, welche in beiden Koordinatensystemen bekannt sind. Um<br />

Passpunkte von hoher Qualität zu erhalten, können zum Beispiel Eckreflektoren eingesetzt<br />

werden, deren Koordinaten mit herkömmlichen Messmethoden bestimmt werden können. Auch<br />

die Geräteposition kann als Passpunkt verwendet werden, welcher mit ungleich geringerem<br />

Aufwand erfasst werden kann.<br />

Ein mit dem GPRI erstelltes Höhenmodell wird in Kapitel 5.5 verwendet und ist dort näher<br />

beschrieben.<br />

21


3<br />

Einführung in die Photogrammetrie<br />

In vielen Photogrammetrie-Büchern sind detaillierte Einführungen in das Thema zu finden<br />

(zum Beispiel in (Luhmann, 2003)). Dieses Kapitel bietet aus diesem Grunde nur einen kurzen<br />

Überblick.<br />

3.1 Digitale Photographie<br />

Bei der Aufnahme eines Bildes wird das vor der Kamera liegende Gebiet durch ein System von<br />

Linsen projektiv auf die Bildebene abgebildet. Wurden früher in den Kameras noch analoge Filme<br />

belichtet, fällt heute das Licht durch die Linsen meist auf digitale Photosensoren. Ein solcher ist in<br />

Abbildung 3.1 zu sehen. Es werden in dieser Arbeit nur digitale Kameras betrachtet.<br />

Abbildung 3.1: Photosensor Nikon D200<br />

Durch die Öffnung der Blende fällt für kurze Zeit Licht auf den Photosensor, welches von den<br />

abgebildeten Objekten auf das Objektiv reflektiert wird. Durch das Linsensystem des Objektivs<br />

gelangen die Photonen in die rasterförmige Struktur des Sensors in der Kamera. Dieser besteht<br />

aus Pixeln (Picture Elements). In den Pixeln werden die Photonen als Ladungen gespeichert. Nach<br />

dem Schliessen der Blende werden die Ladungen ausgelesen und als Bild abgespeichert.<br />

Um Farbbilder aufnehmen zu können, sind den Pixeln Farbfilter überlagert, welche nur für Licht<br />

im entsprechenden Wellenlängenbereich durchlässig sind. Aus diesen einzelnen Pixeln werden<br />

22


3 Einführung in die Photogrammetrie<br />

die verschiedenen Farbkanäle interpoliert, welche überlagert ein Farbbild ergeben. Üblicherweise<br />

werden die Kanäle rot, grün und blau (RGB) verwendet.<br />

3.2 Orientierung<br />

Die Orientierung eines Bildes beschreibt die Situation innerhalb der Kamera (innere Orientierung)<br />

und deren Lage im Raum (äussere Orientierung) zum Zeitpunkt der Aufnahme. Die Grössen der<br />

inneren und äusseren Orientierung sind in Abbildung 3.2 ersichtlich.<br />

3.2.1 Innere Orientierung<br />

Durch jeden im Bild sichtbaren Objektpunkt und seine Projektion auf die Bildebene kann<br />

eine Gerade gelegt werden. Alle diese Geraden schneiden sich im Projektionszentrum. (Bei<br />

dieser Betrachtungsweise wird die Verzeichnung des Linsensystems nicht berücksichtigt.) Das<br />

Projektionszentrum liegt auf der Achse des Linsensystems.<br />

Der Bildhauptpunkt mit den Koordinaten x0 und y0 beschreibt den Schnittpunkt der oben<br />

genannten Achse mit der Bildebene. Da dieser Schnittpunkt nicht genau in der Mitte des Sensors<br />

liegt, sind die Hauptpunktkoordinaten x0 und y0 nicht gleich Null (siehe Abbildung 3.3).<br />

Die Distanz zwischen dem Projektionszentrum und dem Bildhauptpunkt wird Kamerakonstante<br />

oder Brennweite c genannt. c steht senkrecht zur Bildebene auf dem Bildhauptpunkt und<br />

ist in Richtung der z-Achse positiv definiert. Eine Weitwinkelaufnahme hat eine kleine<br />

Kamerakonstante, wodurch der Blickwinkel grösser wird. Im Rahmen dieser Arbeit wurden<br />

die meisten Bilder mit einer Brennweite von 18mm aufgenommen. Für Teleaufnahmen sind<br />

entsprechend grössere Werte zu erwarten.<br />

Zusätzlich zu x0,y0 und c zählen auch die Werte der Linsenverzeichnung zur inneren Orientierung.<br />

Diese beschreiben beispielsweise die radiale Verzeichnung des Linsensystems. Um auch feinere<br />

Einflüsse zu reduzieren, können weitere Parameter mit physikalischer Begründung eingeführt<br />

werden. In dieser Arbeit wurden die Verzeichnungen nicht berücksichtigt, da ihr Einfluss auf die<br />

Orientierung bei Passpunkten von guter Qualität gering ist. Dies ist bei der Einzelbildorientierung<br />

am Testfeld (Kapitel 5.2) ersichtlich.<br />

Neben dem oben beschriebenen Bildkoordinatensystem ist bei digitalen Bildern das Pixel-<br />

Koordinatensystem gebräuchlich. Dieses hat seinen Ursprung im Bild oben links (siehe<br />

Abbildung 3.1). Die Einheit der Koordinaten sind Pixel. So können die Bildelemente einfach<br />

angesprochen werden. Die Umrechnung zwischen dem metrischen Koordinatensystem mit<br />

Nullpunkt in der Bildmitte und dem Pixel-Koordinatensystem ist in Kapitel 4.2 erläutert.<br />

23


3 Einführung in die Photogrammetrie<br />

Abbildung 3.2: Orientierung und projektive Abbildung (Luhmann, 2003)<br />

Abbildung 3.3: Metrisches Bildkoordinatensystem (blau) und Pixel-Koordinatensystem (orange)<br />

24


3.2.2 Äussere Orientierung<br />

3 Einführung in die Photogrammetrie<br />

Die äussere Orientierung beschreibt die Lage der Kamera relativ zu einem Referenzkoordinatensystem.<br />

In Abbildung 3.2 sind die Koordinaten des Projektionszentrums (O’) im<br />

übergeordneten System durch den Vektor X0 definiert. Zusätzlich zu der Information, an welcher<br />

Position das Projektionszentrum zum Zeitpunkt der Aufnahme war, muss die Ausrichtung der<br />

Kamera bekannt sein. Die Rotationsmatrix R der Drehwinkel ω, ϕ, κ definiert die Drehungen<br />

zwischen Bild- und Objektkoordinatensystem.<br />

3.2.3 Kollinearitätsgleichung<br />

Zur Beschreibung des Zusammenhangs zwischen Bild- und Objektkoordinaten dienen die<br />

Kollinearitätsgleichungen (hier ohne Berücksichtigung der Verzeichnung):<br />

x = x0 + r11 · (X − X0) + r21 · (Y − Y0) + r31 · (Z − Z0)<br />

r13 · (X − X0) + r23 · (Y − Y0) + r33 · (Z − Z0)<br />

y = y0 + r12 · (X − X0) + r22 · (Y − Y0) + r32 · (Z − Z0)<br />

r13 · (X − X0) + r23 · (Y − Y0) + r33 · (Z − Z0)<br />

Neben der hier aufgeführten Darstellung wird in (Luhmann, 2003, Kapitel 4.2.2) auch das in<br />

Kapitel 4.2 angewandte Vorgehen beschrieben.<br />

3.3 Verwendete Kameras<br />

In dieser Arbeit wurden Bilder folgender Spiegelreflexkameras verwendet:<br />

• Canon EOS 350D (Abbildung 3.4)<br />

• Nikon D40x (Abbildung 3.5)<br />

• Nikon D2Xs (Abbildung 3.6)<br />

Diese digitalen Kameras sind keine photogrammetrischen Kameras, sondern richten sich an die<br />

Zielgruppe der ambitionierten oder professionellen Fotografen. Sie belichten im Gegensatz zu<br />

metrischen Kameras keine Messmarken in das Bild. Auch dürfte die geometrische Stabilität nicht<br />

gleich hoch sein wie bei Kameras, welche für photogrammetrische Einsätze gebaut wurden.<br />

Letztere sind geometrisch hochgradig stabil und reagieren weniger auf äussere Einflüsse wie<br />

beispielsweise Temperaturschwankungen.<br />

Eine kurze Übersicht über die verwendeten Kameras bietet Tabelle 3.1. Für detaillierte<br />

Informationen zu diesen Kameras wird dem interessierten Leser die Lektüre der entsprechenden<br />

Artikel in (Digital Photography Review, 2008) empfohlen.<br />

In (Urban, 2007) werden grundlegende physikalische Vorgänge in Photosensoren erklärt. So sind<br />

dort auch Informationen über CCD- und CMOS-Sensoren zu finden (Kapitel 7, bzw. Kapitel 9).<br />

Diese Sensoren unterscheiden sich insbesondere durch den Aufbau und das Vorgehen beim<br />

Auslesen der Ladungen aus den Pixeln. Vor- und Nachteile dieser Techniken werden in dieser<br />

Arbeit nicht besprochen.<br />

(3.1)<br />

(3.2)<br />

25


3 Einführung in die Photogrammetrie<br />

Canon EOS 350D Nikon D40x Nikon D2Xs<br />

Jahr 2005 2007 2006<br />

Pixel total [pixel] 8.2 Mio. 10.8 Mio. 12.84 Mio.<br />

Pixel effektiv [pixel] 8 Mio. 10.2 Mio. 12.4 Mio.<br />

Bildmasse [pixel] 3456 x 2304 3872 x 2592 4288 x 2848<br />

Sensorgrösse [mm] 22.2 x 14.8 23.7 x 15.6 23.7 x 15.7<br />

Seitenverhältnis 3:2 3:2 3:2<br />

Sensortechnologie CMOS CCD CMOS<br />

Tabelle 3.1: Eigenschaften der verwendeten Kameras (Digital Photography Review, 2008)<br />

Abbildung 3.4: Canon EOS 350D (Digital Photography Review, 2008)<br />

Abbildung 3.5: Nikon D40x (Digital Photography Review, 2008)<br />

26


3 Einführung in die Photogrammetrie<br />

Abbildung 3.6: Nikon D2Xs (Digital Photography Review, 2008)<br />

27


4<br />

Einzelbildorientierung<br />

Dieses Kapitel beschreibt die Ausrichtung (Orientierung) eines einzelnen Bildes mittels<br />

Passpunkten an einem beliebigen Referenzsystem. Neben der Einzelbildorientierung wird auch<br />

die Methode zur Rückprojektion eines Punktes aus dem Objektraum in das Bild erläutert.<br />

4.1 Direkte lineare Transformation<br />

Mit Hilfe der «direkten linearen Transformation» (DLT) können die Parameter der inneren und der<br />

äusseren Orientierung eines Einzelbildes mittels projektiver Beziehungen ohne Näherungswerte<br />

bestimmt werden. Dazu müssen von mindestens sechs Passpunkten sowohl Bild- als auch<br />

Objektkoordinaten bekannt sein. Mit diesen Informationen können die elf DLT-Parameter L1 bis<br />

L11 bestimmt werden.<br />

Die DLT-Transformationsgleichungen lauten:<br />

x = L1X + L2Y + L3Z + L4<br />

L9X + L10Y + L11Z + 1<br />

y = L5X + L6Y + L7Z + L8<br />

L9X + L10Y + L11Z + 1<br />

wobei die Bildkoordinaten (x,y) und 3D-Objektkoordinaten (X,Y,Z) eines Passpunktes in die<br />

Gleichungen eingehen.<br />

4.1.1 Ausgleichung nach der Methode der kleinsten Quadrate<br />

Die oben stehenden Gleichungen können umgestellt werden, so dass ein lineares<br />

Gleichungssystem entsteht. Aus diesem werden die Designmatrix A und der Vektor der<br />

Beobachtungenl gebildet:<br />

(4.1)<br />

(4.2)<br />

L1X + L2Y + L3Z + L4 − xL9X + xL10Y + xL11Z = x (4.3)<br />

L5X + L6Y + L7Z + L8 − yL9X + yL10Y + yL11Z = y (4.4)<br />

28


Daraus folgt das Normalgleichungssystem<br />

4 Einzelbildorientierung<br />

− A T Pl + A T PAx = 0 (4.5)<br />

welches nach dem Vektor der unbekannten Parameter x = [L1 · · · L11] aufgelöst werden kann:<br />

x = (A T PA) −1 A T Pl (4.6)<br />

Durch die Überbestimmung der Ausgleichung werden Verbesserungen (Residuen) bei den<br />

beobachteten Bildkoordinaten angebracht, deren Quadratsumme durch die Ausgleichung<br />

minimiert wird.<br />

v T Pv = min (4.7)<br />

4.1.2 Bestimmung der Orientierungsparameter<br />

Über die elf in der Ausgleichung geschätzten DLT-Parameter können folgende Parameter der<br />

inneren und äusseren Orientierung bestimmt werden (nach (Luhmann, 2003, Seite 246 ff)) :<br />

• Innere Orientierung: Hauptpunktkoordinaten x0, y0, Kamerakonstante c (affin skaliert in x<br />

und y-Richtung)<br />

• Äussere Orientierung: Projektionszentrum X0, Y0, Z0 und die Rotationsmatrix R<br />

Im Lösungsvektorx der Ausgleichung sind die DLT-Parameter L1 bis L11 enthalten. Mit<br />

L =<br />

1<br />

� L 2 9 + L 2 10 + L2 11<br />

lassen sich die Parameter der inneren Orientierung bestimmen:<br />

wobei<br />

(4.8)<br />

x0 = L 2 · (L1L9 + L2L10 + L3L11) (4.9)<br />

y0 = L 2 · (L5L9 + L6L10 + L7L11)<br />

�<br />

(4.10)<br />

cx = L2 · (L2 1 + L22 + L23 ) − x20 �<br />

(4.11)<br />

cy = L2 · (L2 5 + L26 + L27 ) − y2 0<br />

(4.12)<br />

c =<br />

Die Lage des Projektionszentrums gibt sich aus<br />

⎡ ⎤ ⎡<br />

⎣<br />

X0<br />

Y0<br />

Z0<br />

⎦ = ⎣<br />

�<br />

c 2 x + c2 y<br />

L1 L2 L3<br />

L5 L6 L7<br />

L9 L10 L11<br />

⎤<br />

⎦<br />

−1<br />

⎡<br />

· ⎣<br />

Auch die Elemente der Rotationsmatrix R können bestimmt werden:<br />

r11 = L · (x0 · L9 − L1)<br />

cx<br />

r21 = L · (x0 · L10 − L2)<br />

cx<br />

r31 = L · (x0 · L11 − L3)<br />

cx<br />

L4<br />

L8<br />

1<br />

⎤<br />

r12 = L · (y0 · L9 − L5)<br />

cx<br />

r22 = L · (y0 · L10 − L6)<br />

cy<br />

r32 = L · (y0 · L11 − L3)<br />

cy<br />

(4.13)<br />

⎦ (4.14)<br />

r13 = L · L9<br />

r23 = L · L10<br />

r33 = L · L11<br />

(4.15)<br />

29


Dadurch sind die drei Drehwinkel ω,ϕ,κ der Rotationsmatrix R gegeben:<br />

tan(ω) = − r23<br />

r33<br />

4.1.3 Qualität der Orientierungsparameter<br />

sin(ϕ) = r13<br />

tan(κ) = − r12<br />

4 Einzelbildorientierung<br />

Nach der Berechnung der DLT sind sowohl die Parameter der inneren als auch jene der äusseren<br />

Orientierung bekannt. Die Qualität der Passpunkte hat aber einen direkten Einfluss auf die<br />

Güte der Orientierung. Wird ein Passpunkt im Objekt- oder im Bildraum mit ungenügender<br />

Genauigkeit bestimmt, so hat dies eine Verschlechterung der Orientierung zur Folge. Eine<br />

unabhängige Kontrolle der Passpunkte ist nicht möglich, da im Fall der Einzelbildorientierung<br />

keine zusätzlichen Informationen über den Punkt gewonnen werden können. Die DLT ist also<br />

instabil. Die Passpunkte müssen deshalb gut bestimmt und so gewählt werden, dass sie räumlich<br />

gut verteilt sind und eine gute Tiefeninformation beinhalten.<br />

4.1.4 pyDLT<br />

Die Orientierung eines Einzelbildes mit der oben beschriebenen DLT-Methode wurde im<br />

Programm pyDLT realisiert, welches in «Geany 1 » entwickelt wurde (siehe Abbildung 4.1). Der Code<br />

von pyDLT ist in Anhang D aufgeführt. Für Berechnungen und Matrixoperationen werden die<br />

Programmbibliotheken «numpy 2 » sowie «math 3 » verwendet.<br />

Die Eingabedatei (siehe Beispiel in Anhang D.1) ist identisch mit jenem des Programms<br />

«DLTWin32» von Fabio Remondino um die Resultate einfach vergleichen zu können. In dieser<br />

Textdatei sind die Anzahl der Passpunkte, die Objekt- und Bildkoordinaten der Passpunkte<br />

sowie Informationen über die Bildgrösse in Pixel und die Pixelgrösse des Photosensors in zwei<br />

Dimensionen angegeben.<br />

Nach der Berechnung der Orientierung nach dem in Kapitel 4.1 beschriebenen Vorgang werden<br />

die Parameter zusammen mit den Bild- und Objektkoordinaten der Passpunkte in einer Textdatei<br />

mit der Dateiendung «.par» eingetragen. Diese lässt sich direkt in dem in Kapitel 4.3.2<br />

beschriebenen Programm «viewcalibrate» verwenden.<br />

Zusätzlich zur oben erwähnten Parameterdatei wird ein Bild mit den Residuen der Passpunkte<br />

erstellt. Mittels Rückprojektion (siehe Kapitel 4.2) werden die Pixelkoordinaten der Passpunkte<br />

nach der Orientierung ermittelt und die Residuen in das Eingabebild eingezeichnet. Für die<br />

Bearbeitung von Bildern in Python werden Module der Bibliothek «PIL 4 » verwendet. Beispiele<br />

solcher Bilder sind in Kapitel 5 zu finden. Links oben auf jedem Bild ist unter anderem eine<br />

Referenzlänge von 200 Pixeln eingezeichnet.<br />

Um die Ausgabedatei und das Bild nach dem Ausführen des Programms direkt zu öffnen, wird<br />

das Modul «os 5 » verwendet. So kann der Benutzer das Resultat seiner Einzelbildorientierung<br />

direkt sehen. Für eine einfachere Bedienung wurde eine Funktion implementiert welche es<br />

1 Geany: http://geany.uvena.de/ (Stand: 18.06.2008)<br />

2 Python Modul numpy: http://numpy.scipy.org/ (Stand: 18.06.2008)<br />

3 Python Modul math: http://docs.python.org/lib/module-math.html (Stand: 18.06.2008)<br />

4 Python Imaging Library PIL: http://www.pythonware.com/products/pil/ (Stand: 18.06.2008)<br />

5 Python Modul os: http://docs.python.org/lib/module-os.html (Stand. 18.06.2008)<br />

r11<br />

30


Abbildung 4.1: Entwicklung von pyDLT in Geany<br />

4 Einzelbildorientierung<br />

dem Anwender gestattet, Passpunkte auszuschalten. Diese können in einer Liste eingegeben<br />

werden. Sofern genügend Passpunkte vorhanden sind, werden die Punkte der Liste nicht für die<br />

Berechnung der DLT verwendet.<br />

4.2 Rückprojektion<br />

Nach der Orientierung des Bildes können Punkte im Objektraum in das Bild zurückprojiziert<br />

werden. Das folgende Vorgehen entspricht den Kollinearitätsgleichungen (siehe Kapitel 3.2.3).<br />

Nach der Translation des Nullpunkts werden die Objektkoordinaten eines Punktes (X, Y , Z) mit<br />

einer Rotation in das Bildkoordinatensystem gedreht:<br />

⎡<br />

⎣<br />

XR<br />

YR<br />

ZR<br />

⎤<br />

⎦ = R −1 ⎡ ⎤<br />

X − X0<br />

· ⎣ Y − Y0 ⎦ (4.16)<br />

Z − Z0<br />

Die ins Bildkoordinatensystem gedrehten Koordinaten müssen noch mit einem Faktor skaliert<br />

werden, um die Bildkoordinaten des Punktes (in Millimetern) zu finden:<br />

⎡ ⎤<br />

x<br />

⎣y⎦<br />

=<br />

c<br />

c<br />

⎡ ⎤<br />

XR<br />

· ⎣YR<br />

⎦ (4.17)<br />

ZR<br />

ZR<br />

31


4 Einzelbildorientierung<br />

Da der Nullpunkt des metrischen Bildkoordinatensystems durch den Bildhauptpunkt definiert<br />

ist, müssen die oben berechneten Koordinaten um die Hauptpunktkoordinaten x0, y0 reduziert<br />

werden: � �<br />

x<br />

=<br />

y<br />

� �<br />

x<br />

−<br />

y<br />

� x0<br />

y0<br />

�<br />

(4.18)<br />

Um die rückprojizierten Punkte für weitere Schritte verwendenzu können, müssen die metrischen<br />

Bildkoordinaten in das Pixel-Bildkoordinatensystem mit dem Ursprung oben links umgerechnet<br />

werden (siehe dazu Abbildung 3.3):<br />

mit<br />

xpixel = nx<br />

2<br />

ypixel = ny<br />

2<br />

− x<br />

µx<br />

+ y<br />

µy<br />

x pixel,y pixel = x- und y-Koordinaten im Pixel-Bildkoordinatensystem<br />

nx, ny = Bilddimensionen in Pixel<br />

µx,µy = Pixelgrösse in x- und y-Richtung in Millimeter<br />

4.3 Räumlicher Rückwärtsschnitt<br />

(4.19)<br />

(4.20)<br />

Die Methode des räumlichen Rückwärtsschnittes dient in der Regel der Berechnung der äusseren<br />

Orientierung eines Einzelbildes. Dazu müssen die Bild- und Objektkoordinaten von mindestens<br />

drei Passpunkten bekannt sein. Diese sollten gut verteilt sein und dürfen nicht auf einer Geraden<br />

liegen. Die innere Orientierung wird als bekannt vorausgesetzt und für die Parameter der<br />

äusseren Orientierung X0,Y 0,Z0,ω,ϕ,κ werden Näherungswerte für die Linearisierung der<br />

Verbesserungsgleichungen benötigt.<br />

Jeder im Bild bekannte Passpunkt liefert zwei linearisierte Verbesserungsgleichungen vom Typ<br />

v = Ax − l:<br />

vxi =<br />

� � � � � �<br />

δx δx δx<br />

dX0 + dY0 + dZ0<br />

δX0 δY0 δZ0<br />

� � � � � �<br />

δx δx δx<br />

+ dω + dϕ + dκ − (xi − x<br />

δω δϕ δκ<br />

0 i) (4.21)<br />

vyi =<br />

� � � � � �<br />

δy δy δy<br />

dX0 + dY0 + dZ0<br />

δX0 δY0 δZ0<br />

� � � � � �<br />

δy δy δy<br />

+ dω + dϕ + dκ − (yi − y<br />

δω δϕ δκ<br />

0 i ) (4.22)<br />

mit<br />

xi,yi = gemessene Bildkoordinaten<br />

x 0 i ,y 0 i = aus den Näherungswerten berechnete Bildkoordinaten (Rückprojektion)<br />

32


4 Einzelbildorientierung<br />

Die Berechnung der Differentialquotienten wird in (Luhmann, 2003, Kapitel 4.2.3.1.1) beschrieben.<br />

Für n Passpunkte wird die Designmatrix A wie folgend aufgebaut:<br />

⎡�<br />

�<br />

δx<br />

� �<br />

δx<br />

� �<br />

δx<br />

� �<br />

δx<br />

� �<br />

δx<br />

� � ⎤<br />

δx<br />

δX0 ⎢ 1<br />

⎢<br />

⎢�<br />

�<br />

⎢ δy<br />

⎢ δX0 ⎢ 1<br />

⎢<br />

A = ⎢<br />

.<br />

⎢<br />

⎢�<br />

�<br />

⎢ δx<br />

⎢ δX0 ⎢ n<br />

⎢<br />

� �<br />

δy<br />

⎣<br />

δY0 1<br />

� �<br />

δy<br />

δY0 1<br />

.<br />

� �<br />

δx<br />

δY0 n<br />

�<br />

δZ0 1<br />

� �<br />

δy<br />

δZ0 1<br />

.<br />

� �<br />

δx<br />

δZ0 n<br />

�<br />

δω 1<br />

� �<br />

δy<br />

δω<br />

1<br />

.<br />

� �<br />

δx<br />

δω n<br />

δϕ<br />

1<br />

� �<br />

δy<br />

δϕ<br />

1<br />

.<br />

� �<br />

δx<br />

δϕ<br />

n<br />

�<br />

δκ 1<br />

⎥<br />

� � ⎥<br />

δy ⎥<br />

δκ ⎥<br />

1 ⎥<br />

. ⎥<br />

� � ⎥<br />

δx ⎥<br />

δκ n ⎥<br />

⎦<br />

(4.23)<br />

δX0<br />

n<br />

� δy<br />

δY0<br />

n<br />

� δy<br />

δZ0<br />

n<br />

� �<br />

δy<br />

δω<br />

n<br />

� δy<br />

δϕ<br />

n<br />

� �<br />

δy<br />

δκ<br />

n<br />

Analog zur Ausgleichung in der DLT wird nach dem Vektor der Unbekannten aufgelöst:<br />

x = (A T PA) −1 A T Pl (4.24)<br />

Das Ergebnis der Ausgleichung sind Werte für dX0, dY0, dZ0, dω, dϕ, dκ welche als Korrekturen<br />

an den Näherungswerten angebracht werden. Diese korrigierten Werte verwendet man nun<br />

wiederum als Näherungswerte für die Berechnung des nächsten räumlichen Rückwärtsschnittes.<br />

Dieses iterative Vorgehen führt bei einem stabilen System zu einer Konvergenz, wobei die<br />

Iteration beim Unterschreiten eines bestimmten Grenzwertes abgebrochen werden kann. Dieser<br />

Grenzwert ist entweder vom Programm gegeben oder kann vom Benutzer bestimmt werden.<br />

Er bezieht sich auf die Grösse der Verbesserungen und stoppt den iterativen Vorgang wenn die<br />

Schwelle unterschritten wird.<br />

Die Parameter der inneren Orientierung könnten im räumlichen Rückwärtsschnitt einbezogen<br />

werden, wenn entsprechend viele Passpunkte zur Verfügung stehen. Dazu wäre eine<br />

Anpassung des oben beschriebenen Algorithmus notwendig. Der räumliche Rückwärtsschnitt<br />

mit integrierter Ausgleichung der inneren Orientierung wurde in dieser Arbeit nicht<br />

untersucht.<br />

4.3.1 Erfassung von Näherungswerten<br />

Die Näherungswerte für einen Rückwärtsschnitt können mit verschiedenen Methoden bestimmt<br />

werden. Einige davon sind im Folgenden aufgeführt:<br />

Gemessene Näherungswerte Näherungswerte können möglicherweise direkt gemessen<br />

werden. Dies kann auch mittels einfacher geodätischer Messmethoden geschehen.<br />

Beispielsweise können im Falle der im Rahmen dieser Arbeit durchgeführten Laserscanning-<br />

Aufnahme die Koordinaten des Projektionszentrums mit einem Messband bestimmt<br />

werden (siehe Kapitel 5.3).<br />

Kleine Bilddrehungen Kann man auf Grund der Aufnahmekonfiguration ausgehen, dass ein<br />

Drehwinkel sehr klein ist, so kann sein Näherungswert mit Null eingeführt werden. Können<br />

alle Drehwinkel so bestimmt werden, so können die Koordinaten des Projektionszentrums<br />

aus den Passpunkten und der bekannten Kamerakonstante geschätzt werden.<br />

33


4 Einzelbildorientierung<br />

Direkte Lineare Transformation Mit der direkten linearen Transformation (Kapitel 4.1) werden<br />

alle Orientierungsparameter bestimmt. Während die innere Orientierung bei einem<br />

Rückwärtsschnitt unverändert bleibt, können die Werte der äusseren Orientierung als<br />

Näherungswerte in den räumlichen Rückwärtsschnitt einfliessen und verbessert werden.<br />

Die Qualität der Näherungswerte beeinflusst die Güte der bestimmten Parameter direkt. Bei<br />

der Ausgleichung nach der Methode der kleinsten Quadrate wird zwar die Quadratsumme der<br />

Verbesserungen minimiert, ein fehlerhafter Passpunkt beeinflusst die Ausgleichung natürlich<br />

aber trotzdem.<br />

4.3.2 Interaktive Orientierung mit viewcalibrate<br />

Das von Nicola d’Apuzzo an der <strong>ETH</strong> <strong>Zürich</strong> entwickelte Programm «viewcalibrate» berechnet<br />

den Rückwärtsschnitt für einen eingegebenen Parametersatz, der als par-Datei eingelesen<br />

werden muss. Diese beinhaltet die Werte der inneren und äusseren Orientierung sowie die<br />

Objekt- und Bildkoordinaten. Ein Beispiel einer solchen Datei ist in Anhang E.1 aufgeführt. Bei<br />

der Einzelbildorientierung mittels pyDLT (beschrieben in Kapitel 4.1.4) wird eine .par-Datei mit<br />

allen benötigten Parametern generiert. Zusätzlich zur .par-Datei muss das zu orientierende<br />

Bild in viewcalibrate als Graustufenbild im 8bit Sun-Rasterdatenformat geöffnet werden. Die<br />

Konvertierung der Bilder in dieses Format konnte in «xv 6 » durchgeführt werden.<br />

Eine erste Anpassung der Näherungswerte kann bereits in der .par-Datei vorgenommen werden,<br />

indem der entsprechende Wert vor der Verwendung in viewcalibrate ersetzt wird. Nach dem<br />

Laden der .par-Datei werden die Bildkoordinaten der Passpunkte in viewcalibrate angezeigt. Nach<br />

dem Anwählen der Schaltfläche «cp» werden auch die rückprojizierten Passpunkte angezeigt.<br />

Dadurch können allfällige Fehler in den Näherungswerten je nach Situation direkt erkannt<br />

werden.<br />

Durch Bewegung der Maus kann entweder die Lage des Projektionszentrums, die Rotationswinkel<br />

oder die Kamerakonstante angepasst werden. Da die rückprojizierten Passpunkte sofort<br />

angepasst werden, sind die Auswirkungen der Änderung direkt sichtbar. So konnten<br />

fehlerbehaftete Näherungswerte der Drehwinkel in Kapitel 5.3 entdeckt und korrigiert werden.<br />

Sind die Näherungswerte genügend, kann in viewcalibrate der räumliche Rückwärtsschnitt für<br />

die gegebenen Passpunkte und Näherungswerte berechnet werden. viewcalibrate erstellt dann<br />

eine .cal-Datei, in welcher die verbesserten Orientierungsparameter mit Genauigkeitsangaben<br />

aufgeführt sind (siehe Anhang E.2).<br />

6 xv image manipulation program: http://www.trilon.com/xv/xv.html (Stand: 19.06.2008)<br />

34


Abbildung 4.2: viewcalibrate von Nicola d’Apuzzo<br />

4 Einzelbildorientierung<br />

Abbildung 4.3: X video extension – xv (Menu zur Änderung der Farbtiefe)<br />

35


5<br />

Testobjekte<br />

Im Rahmen dieser Arbeit wurde ein Programmprototyp in der Programmiersprache Python 1<br />

entwickelt, welcher eine Einzelbildorientierung mittels DLT (siehe Kapitel 4.1) durchführt. Mit<br />

einer DLT können die Orientierungsparameter des Bildes berechnet werden. Diese dienen bei<br />

genügender Qualität als Näherungswerte für weitere Orientierungsverfahren. Der Ablauf dieser<br />

Prozesskette wird nachfolgend beschrieben.<br />

5.1 Vorgehen<br />

Dieser Abschnitt beschreibt den allgemeinen Ablauf zur Orientierung eines Einzelbildes. Dazu<br />

gehören die Aufnahme eines Bildes und die Erfassung einer 3D-Punktwolke. Es ist unwichtig,<br />

mit welcher Methode die 3D-Punkte erfasst werden. Sowohl im Bild als auch in der Punktwolke<br />

werden die Koordinaten der Passpunkte bestimmt und in eine Datei gespeichert. Diese dient<br />

zusammen mit Informationen über die Kamera als Input für die Einzelbildorientierung mittels<br />

DLT. Bei genügender Genauigkeit der mittels DLT berechneten Parameter werden diese als<br />

Näherungswerte im räumlichen Rückwärtsschnit verwendet. Ist das Bild orientiert, lassen sich<br />

beliebige 3D-Punkte in das Bild zurückprojizieren. Dies erlaubt die Darstellung von 3D-Daten im<br />

Bild und auch die Einfärbung der 3D-Punktwolke.<br />

5.1.1 Aufnahme des Bildes<br />

Die Verfahren sind prinzipiell unabhängig von der verwendeten Digitalkamera. Es ist aber<br />

von Vorteil, wenn eine hohe Auflösung verwendet wird. So können die Pixelkoordinaten der<br />

Passpunkte besser bestimmt werden.<br />

Um ein möglichst grosses Gebiet abzudecken, kann ein Weitwinkelobjektiv verwendet werden.<br />

Meist ist es aber schwierig Passpunkte zu finden, welche sowohl im Bild als auch in der<br />

Punktwolke gut erkennbar sind. Deckt das Bild einen grösseren Bereich ab, sind wahrscheinlich<br />

mehr gute Passpunkte darin zu sehen. Andererseits ist die Auflösung im Objektraum kleiner als<br />

mit einem Teleobjektiv. Die Verwendung eines solchen bringt also den Vorteil, dass Objekte besser<br />

erkannt werden können und die Qualität der Passpunktkoordinaten erhöht wird. Der Nachteil des<br />

1 Programmiersprache Python: http://www.python.org/ (Stand: 14.05.2008)<br />

36


5 Testobjekte<br />

beschränkten Sichtfelds bedingt allerdings Passpunkte auf kleinerem Raum. Würden mehrere<br />

Bilder mit einem Teleobjektiv erfasst um das Zielobjekt abzubilden, wären entsprechend mehr<br />

Passpunkte notwendig. Dies bedeutet aber unter Umständen einen massiv grösseren Aufwand.<br />

Es sollte bei der Wahl des verwendeten Objektivs ein Kompromiss zwischen Weitwinkel- und<br />

Teleobjektiv gesucht werden. Soll das Zielobjekt in einem Bild erfasst werden, ist das Objektiv<br />

an diese Anforderung anzupassen.<br />

Werden mehrere Bilder vom selben Standpunkt verwendet, kann jedes für sich orientiert werden.<br />

Für die Visualisierung können die Bilder einzeln oder in einer verknüpften Form verwendet<br />

werden. Dazu ist eine Verbindung der Bilder, wie das in «hugin 2 » möglich ist, denkbar.<br />

Grundsätzlich kann das Bild von einer beliebigen Position aus aufgenommen werden. Wichtig<br />

ist aber – wie oben bereits ausgeführt – dass genügend Passpunkte sowohl im Bild als auch in<br />

der 3D-Punktwolke identifizierbar sind. Dies ist einfacher, wenn die Kamera nahe der Position des<br />

Gerätes zur Erfassung der Punktwolke positioniert wird. So ist der Blickwinkel und das Sichtfeld<br />

der beiden Instrumente ähnlich.<br />

Wird das Bild gleichzeitig mit der Aufnahme der Punktwolke gemacht, ist es von Vorteil, wenn<br />

die Kamera direkt auf dem Radar montiert wird. So ist der Blickwinkel optimal gewählt und die<br />

Position des Projektionszentrums kann abgeschätzt werden. Ein solcher Aufbau wurde bei den<br />

in den Kapiteln 5.3 und 5.5 beschriebenen Testobjekten verwendet. Ist die relative Position des<br />

Projektionszentrums bekannt, können die aus der DLT resultierenden Orientierungsparameter<br />

überprüft oder gar durch die gemessenen Werte ersetzt werden.<br />

5.1.2 Erfassung der 3D-Punktwolke<br />

Die zur Orientierung eines Einzelbildes eingesetzten Algorithmen sind unabhängig von der<br />

Methode zur Erfassung der Punktwolke, da sie nur die Koordinaten der Passpunkte verwenden.<br />

In den folgenden Abschnitten werden Daten verschiedener Systeme verwendet:<br />

• Tachymetrisch bestimmte Passpunkte (Kapitel 5.2 und 5.6)<br />

• Terrestrischer Laserscanner (Kapitel 5.3)<br />

• Höhenmodell (DTM-AV) aus luftgestützten Laseraufnahmen (Kapitel 5.4)<br />

• Radar-Oberflächenmodell (Kapitel 5.5)<br />

Wird ein terrestrisches System verwendet, soll ein Standort mit einem guten Einblick in das<br />

aufzunehmende Gebiet gewählt werden. Für manche Aufnahmemethoden ist es auch wichtig,<br />

dass ein guter Auftreffwinkel gegeben ist.<br />

5.1.3 Bestimmung von Passpunkten im Bild<br />

Die Bildkoordinaten der Passpunkte wurden pixelgenau im Bildbearbeitungsprogramm GIMP 3<br />

ausgelesen. Messungen im Subpixelbereich sind in GIMP nicht möglich. Für Visualisierungen ist<br />

diese Genauigkeit aber durchaus genügend. Auch wenn in Kapitel 5.2 mit Targets gearbeitet wird,<br />

macht deren Durchmesser im Bild mehrere Pixel aus, weshalb die Zentren mit einer Genauigkeit<br />

von einem Pixel ausreichend beschrieben sind (siehe Abbildung 5.2).<br />

2 hugin – Panorama photo stitcher: http://hugin.sourceforge.net/ (Stand: 18.06.2008)<br />

3 Bildbearbeitungsprogramm GIMP: http://www.gimp.org/ (Stand: 14.05.2008)<br />

37


5.1.4 Bestimmung von Passpunkten in der 3D-Punktwolke<br />

5 Testobjekte<br />

Für das Abgreifen der Passpunktkoordinaten aus den 3D-Punktwolken wurden die Programme<br />

«Leica Cyclone 4 » in der Version 5.8 und «Geomagic Studio 5 » Version 9 verwendet.<br />

In Leica Cyclone werden die Koordinaten eines angeklickten Punktes in der Statusleiste angezeigt.<br />

Alternativ sind sie auch im Info-Fenster (Tastenkombination CTRL-I) zu finden, von wo sie über die<br />

Zwischenablage in andere Anwendungen kopiert werden können.<br />

In Geomagic Studio können die Koordinaten nicht direkt erfasst werden. Wählt man das Messen-<br />

Werkeug an, werden die Koordinaten der angewählten Punkte im Anwendungsfenster angezeigt.<br />

Diese müssen dann aber von Hand abgeschrieben werden. Eine weitere Möglichkeit ist der Export<br />

eines einzelnen Punktes als .vtx-Datei aus welcher die Punktkoordinaten entnommen werden<br />

können. Für mehrere, einzelne Punkte sind beide Vorgehensweisen jedoch sehr mühsam. Das<br />

Problem wurde mit der Supportabteilung der Firma Geomagic diskutiert und ist als Anforderung<br />

für die nächste Version des Programmes an die Entwicklungsabteilung weitergegeben worden.<br />

Die Genauigkeit der abgegriffenen Koordinaten ist vor allem abhängig von der Erkennbarkeit<br />

eines Passpunktes in der Punktwolke. Kann ein Passpunkt nur schlecht identifiziert werden, so<br />

nützen auch sehr genaue Messmethoden nichts. Ist die Umgebung des Passpunktes aber gut<br />

identifizierbar, können folgende Methoden eventuell weiterhelfen:<br />

• Ein getrenntes Abgreifen der Passpunktkoordinaten in Lage und Höhe erlaubt eine<br />

Koordinatenbestimmung, auch wenn kein Messpunkt genau dem Passpunkt im Bild<br />

entspricht. Im Beispiel des Passpunktes 6 im Laserscan der Anlieferung des HIL-Gebäudes<br />

(Abbildung 5.5) kann die Höhe eines Punktes an der Raumdecke und die Lagekoordinaten in<br />

der Aufsicht abgegriffen werden.<br />

• Durch das Modellieren der umliegenden Flächen können Eckpunkte durch das Verschneiden<br />

von drei Ebenen erzeugt werden. Die Koordinaten des Passpunktes sind dann durch den<br />

Schnittpunkt der drei Ebenen definiert.<br />

5.1.5 Orientierung des Einzelbildes<br />

Das Bild zu orientieren bedeutet, dass die Parameter, welche die Situation während der Aufnahme<br />

beschreiben, bestimmt werden. Das Einzelbild wird anhand der Passpunkte orientiert. Zu diesem<br />

Zweck wird eine direkte lineare Transformation und der räumliche Rückwärtsschnitt verwendet.<br />

Diese beiden Techniken werden in Kapitel 4 beschrieben. Wie bereits in der Einleitung dieses<br />

Kapitels erwähnt, wurde im Rahmen dieser Arbeit ein Programmprototyp für die direkte lineare<br />

Transformation geschrieben.<br />

Als Eingabegrössen werden Bild- und Objektkoordinaten von mindestens sechs Passpunkten,<br />

die Bildmasse in Pixel und die Pixelgrösse in Millimeter der verwendeten Kamera benötigt.<br />

Das Resultat der DLT sind die Parameter der inneren Orientierung (x0, y0, c) und jene der<br />

äusseren Orientierung (X0, Y0, Z0, ω, ϕ, κ) des Bildes. Nicht berücksichtigt werden die<br />

Verzeichnungsparameter der Kamera.<br />

4 Leica Cyclone: http://www.leica-geosystems.com/corporate/de/ndef/lgs_6515.htm (Stand: 21.05.2008)<br />

5 Geomagic Studio: http://www.geomagic.com/de/products/studio/ (Stand: 05.06.2008)<br />

38


5 Testobjekte<br />

Diese Werte können als Näherungswerte in den räumlichen Rückwärtsschnitt einfliessen,<br />

welcher aber nur noch die äussere Orientierung berücksichtigt. Wie in Kapitel 4.3 beschrieben,<br />

wird die äussere Orientierung mittels der Kollinearitätsgleichungen der Passpunkte iterativ<br />

verbessert. Ist die im Algorithmus verwendete Ausgleichung stabil, konvergiert der räumliche<br />

Rückwärtsschnitt, und die Verbesserungen an den Orientierungsparametern werden immer<br />

kleiner. Unterschreiten diese einen festgelegten Grenzwert, kann die Iteration abgebrochen<br />

werden. Dieser Grenzwert ist entweder im Programm festgelegt oder kann vom Benutzer<br />

bestimmt werden. Er bezieht sich auf die Grösse der Verbesserungen und stoppt den iterativen<br />

Vorgang wenn diese Schwelle unterschritten wird.<br />

5.1.6 Einfärbung der Punktwolke<br />

Ein mögliches Produkt der Einzelbildorientierung kann die Einfärbung der Punktwolke sein. Zu<br />

diesem Zweck wurde im Rahmen dieser Arbeit das Programm «colorize» in Python geschrieben.<br />

Die Parameter der inneren und äusseren Orientierung dienen als Eingangsgrössen. colorize ist in<br />

Anhang F aufgeführt.<br />

Zusammen mit den Orientierungsparametern wird dem Programm die Punktwolke und das<br />

Bild übergeben. Durch eine Rückprojektion werden die Bildkoordinaten jedes Objektpunktes<br />

bestimmt. Die Programm-Bibliothek «Python Imaging Library, PIL 6 » stellt die Funktion<br />

.getpixel(x,y) zur Verfügung, welche die RGB-Farbwerte eines ausgewählten Pixels zurückgeben.<br />

Diese Farbinformationen werden zusammen mit den 3D-Koordinaten des Punktes in eine neue<br />

PTS-Datei geschrieben. Diese kann von Geomagic Studio interpretiert werden.<br />

Das in Anhang F aufgeführte Python-Programm «colorize» entfernt Punkte, welche ausserhalb<br />

des vom Bild abgedeckten Bereichs liegen. Objektpunkten, welche im Bild sichtbar sind,<br />

werden Farbwerte aus dem Bild zugewiesen. Dadurch entsteht ein eingefärbter Ausschnitt der<br />

Punktwolke, welcher dann für weitere Visualisierungen verwendet werden kann.<br />

Stimmt die Kameraposition nicht näherungsweise mit dem Aufnahmezentrum des Gerätes für<br />

die Punkterfassung überein, sind die Blickwinkel auf das Objekt verschieden. Gewisse Punkte<br />

können in der Punktwolke sichtbar sein, im Bild aber nicht (oder umgekehrt). Trotzdem wird<br />

diesen Punkten eine Farbe zugewiesen, welche aber nicht der wahren Farbe des Objektes<br />

entspricht. In (Novák et al., 2007) ist eine Sichtbarkeitsanalyse beschrieben, welche im Bild<br />

verdeckte Punkte eliminiert. Die Verwendung dieses Algorithmus würde eine realistische<br />

Einfärbung der Punktwolke ermöglichen.<br />

Eine Punktwolke einzufärben macht aber nur Sinn, wenn die Orientierung des Bildes mit einer<br />

annehmbaren Genauigkeit bestimmt werden konnte. Ist diese ungenügend, so werden die<br />

Objektpunkte verzerrt eingefärbt.<br />

6 Python Imaging Library: http://www.pythonware.com/products/pil/ (Stand: 08.06.2008)<br />

39


5.2 Einzelbildorientierung an einem Testfeld<br />

5 Testobjekte<br />

Abbildung 5.1: Bild (Nikon D2Xs, Brennweite 18mm) und verwendete Passpunkte (gelb)<br />

Für die Verifikation des Programmes wird das photogrammetrische Testfeld des Institutes für<br />

Geodäsie und Photogrammetrie verwendet. Aus einem bestehenden Bildverband des Testfeldes<br />

wurde ein Bild ausgewählt und mit pyDLT neu orientiert. Zur Kontrolle wurde die Berechnung<br />

parallel auch mit dem Programm «DLTWin32» von Fabio Remondino durchgeführt. Zusätzliche<br />

Vergleichswerte liegen von der Ausgleichung des gesamten Bildverbandes in «Australis 7 » vor.<br />

Bei der Auswahl der Passpunkte wurde insbesondere darauf geachtet, dass sie in allen drei<br />

Dimensionen gut verteilt sind. Diese hat einen grossen Einfluss auf die Bestimmung der<br />

Kamerakonstante. Es wurden nur acht Passpunkte ausgewählt um die Vergleichsmöglichkeit mit<br />

anderen Projekten zu erhalten. Die Orientierung dieses Bildes soll die Funktionsfähigkeit des<br />

Algorithmus unter idealen Bedingungen zeigen.<br />

5.2.1 Bildkoordinaten<br />

Mit einem Pinsel in geeigneter Grösse können die Koordinaten des Target-Zentrums in GIMP<br />

pixelgenau bestimmt werden (siehe Abbildung 5.2). Die Genauigkeit eines Pixels ist genügend<br />

für die Berechnung der DLT.<br />

7 Photometrix Australis: http://www.photometrix.com.au/ (Stand: 14.05.2008)<br />

40


5.2.2 Objektkoordinaten<br />

Abbildung 5.2: Testfeld: Bildkoordinatenbestimmung in GIMP<br />

5 Testobjekte<br />

Die in dieser Arbeit verwendeten Koordinaten der auf dem Testfeld angebrachten Targets wurden<br />

mittels Vorwärtsschnitt mit zwei Tachymetern sehr genau bestimmt. Mit dem Vorwärtsschnitt<br />

werden die Koordinaten eines Neupunktes mittels Winkelmessungen von zwei bekannten<br />

Stationen aus berechnet. Distanzmessungen sind bei dieser Methode nicht nötig. Da die Zentren<br />

der Targets markiert sind, ist eine sehr genaue Anzielung möglich.<br />

In der zur Verfügung stehenden Koordinatentabelle sind auch die Genauigkeiten der Passpunkte<br />

notiert. Diese betragen im Durchschnitt ungefähr 0.01 Millimeter pro Koordinate.<br />

5.2.3 Orientierung<br />

Die Passpunkte sind sowohl im Objektraum, als auch im Bild mit hoher Genauigkeit definiert.<br />

Da die Passpunkte gut verteilt liegen, kann ein gutes Resultat der DLT erwartet werden. Mit<br />

einer durchschnittlichen Grösse der Residuen von 2.55 Pixel wird diese Erwartung dann auch<br />

bestätigt. Da die Residuen nur wenige Pixel betragen, sind sie in Abbildung 5.1 nicht dargestellt.<br />

Bei der Betrachtung der Residuen in dem von pyDLT ausgegebenen Bild ist keine Systematik zu<br />

erkennen.<br />

Die Kamerakonstante wird dank der guten Verteilung der Passpunkte in der Tiefe mit einem guten<br />

Resultat bestimmt. Durch die Berücksichtigung der Verzeichnung des Linsensystems könnten die<br />

Residuen noch verbessert werden.<br />

Die genäherten Werte der inneren und äusseren Orientierung in Tabelle 5.1 stammen aus<br />

der Bündelblockausgleichung des Bildverbandes in Australis. Die Drehwinkel entsprechen den<br />

aufgrund des Koordinatensystems erwarteten Werte. Die nicht übereinstimmenden Drehwinkel<br />

in der Berechnung in pyDLT Version (1) können durch das Objektkoordinatensystem der<br />

Testfeldkoordinaten erklärt werden. Mittels Transponierung und der Änderung des Vorzeichens<br />

der Drehmatrix der DLT lassen sich die korrekten Winkel aber auch in pyDLT berechnen (2).<br />

Die resultierenden Parameter sind sehr plausibel. Die Abweichungen zwischen den Resultaten<br />

aus der DLT und den Näherungswerten lassen sich dadurch begründen, dass Letztere in<br />

Australis durch die Ausgleichung eines ganzen Bildverbandes, unter Verwendung aller sichtbaren<br />

Passpunkte und mit Berücksichtigung von Verzeichnungsparametern bestimmt wurden.<br />

41


Genäherte Werte<br />

Ergebnis DLT (1)<br />

Ergebnis DLT (2)<br />

x0 [mm] −0.01 −0.01 −0.01<br />

y0 [mm] −0.17 −0.17 −0.17<br />

c [mm] 18.46 18.13 18.13<br />

X0 [mm] 1914.53 1926.46 1926.46<br />

Y0 [mm] 924.85 913.61 913.61<br />

Z0 [mm] −243.12 −245.89 −245.89<br />

ω [Grad] −88.78 91.13 −88.81<br />

φ [Grad] −17.43 1.48 −17.32<br />

κ [Grad] 178.92 −17.29 178.94<br />

Tabelle 5.1: Orientierungswerte Testfeld<br />

5.3 Einzelbildorientierung an einer Laserscan-Punktwolke<br />

5 Testobjekte<br />

Für die Untersuchung einer Messkonfiguration, bei welcher die Kamera auf dem<br />

Aufnahmesystem (siehe Abbildung 5.3) montiert ist, wurde in der Anlieferungshalle des HIL-<br />

Gebäudes ein Laserscan erstellt. Die Lasermessungen wurden mit dem von Hans-Martin Zogg<br />

am Institut für Geodäsie und Photogrammetrie entwickelten Laserscanner ZLS07 8 durchgeführt.<br />

Für diesen wurde bereits eine Kamerahalterung für eine digitale Videokamera entwickelt. Es<br />

wurde eine modifizierte Version entwickelt mit welcher der Aufnahmebereich des Laserscanners<br />

auch von grösseren Spiegelreflexkameras nicht eingeschränkt wird. Für die Aufnahme des Bildes<br />

kommt eine Nikon D40x mit einer Auflösung von 10 Megapixeln zum Einsatz.<br />

Bei der Wahl der Passpunkte wird darauf geachtet, dass diese sowohl in der Punktwolke als<br />

auch im Bild gut sichtbar sind. In der Punktwolke sind vor allem Schnittlinien von verschiedenen<br />

Flächen – also Kanten und Ecken – gut erkennbar. Diese sind auch im Bild aufgrund der<br />

unterschiedlichen Beleuchtung der angrenzenden Flächen gut erkennbar.<br />

Neben der Erkennbarkeit ist auch die Verteilung der Passpunkte wichtig für die Güte der<br />

Orientierung. So wurden sowohl Passpunkte an der Säule im Vordergrund, als auch an der Wand<br />

im Hintergrund gewählt. Sie sind über das ganze Bild verteilt und ergeben deshalb eine stabile<br />

Basis für die Einzelbildorientierung.<br />

8 geom<strong>ETH</strong>, Forschungsbereich Laserscanning: http://www.geometh.ethz.ch/research/laserscanning (Stand:<br />

14.05.2008)<br />

42


5 Testobjekte<br />

Abbildung 5.3: Testobjekt Anlieferung, Aufnahmekonfiguration: ZLS07 und Nikon D40x<br />

5.3.1 Bildkoordinaten<br />

Wie in Kapitel 5.2 werden die Bildkoordinaten der Passpunkte in GIMP ausgelesen. Da aber keine<br />

signalisierten Passpunkte verwendet wurden, gestaltet sich die Bestimmung der Bildkoordinaten<br />

schwieriger. Zwar sind die auf Eckpunkten gewählten Passpunkte gut lokalisierbar, doch sind sie<br />

nicht so genau bestimmt wie das Zentrum eines Targets.<br />

Je kleiner die Distanz zwischen Aufnahmezentrum und Passpunkt ist, desto grösser wird dieser<br />

im Bild dargestellt. Mit wachsender Distanz wird ein Passpunkt kleiner dargestellt und die<br />

Zuweisung zu einem Pixel wird einfacher. Abhängig von der Erkennbarkeit im Bild und der<br />

Entfernung vom Aufnahmezentrum können die Bildkoordinaten eines Passpunktes mit einer<br />

maximalen Unsicherheit von ±3 Pixeln bestimmt werden.<br />

5.3.2 Objektkoordinaten<br />

Für die Visualisierung der Punktwolke wird Leica Cyclone verwendet. Das Navigieren in der<br />

Punktwolke ist intuitiv und die vorgesehenen Passpunkte können schnell gefunden werden. Ist<br />

ein Messpunkt markiert, können seine 3D-Koordinaten abgefragt werden. Die Genauigkeit der<br />

Passpunkt-Objektkoordinaten hängt wesentlich von der Messqualität und der Auflösung des<br />

verwendeten Laserscanners ab. Um einem auf dem Bild gefundenen Passpunkt in der Punktwolke<br />

einen Messpunkt zuordnen zu können, ist es von Vorteil, wenn die Punktdichte hoch ist.<br />

43


(a) Verwendetes Bild (Nikon D40x, Brennweite 18mm)<br />

(b) Laserscan-Punktwolke in Leica Cyclone<br />

5 Testobjekte<br />

Abbildung 5.4: Testobjekt Anlieferung: Verwendetes Bild und Laserscan-Punktwolke<br />

44


(a) Bild (b) Laserscan-Punktwolke<br />

5 Testobjekte<br />

Abbildung 5.5: Anlieferung Passpunkt 6 (Schnittpunkt Vorderkante Säule und Decke) im Bild und<br />

in der Laserscan-Punktwolke<br />

Der Laserscanner ZLS07 hat in der Einstellung «high» eine Winkelauflösung von 0.125 Grad<br />

horizontal und 0.25 Grad vertikal. Daraus kann der Punktabstand abhängig von der Distanz D<br />

zum Aufnahmezentrum berechnet werden:<br />

Punktabstand horizontal = 0.125 ◦ · 2π<br />

360◦ · D<br />

Punktabstand vertikal = 0.25 ◦ · 2π<br />

360◦ · D<br />

Die vom ZLS07 erreichte Auflösung ergibt in ca. 10 Metern Abstand einen Punktabstand im<br />

Bereich von drei Zentimetern oder mehr (je nach Ausrichtung des Objekts zum Scanner). So ist es<br />

gut möglich, dass kein Messpunkt genau am gewählten Ort liegt. Bei der Wahl eines geeigneten<br />

Passpunktes können die Objektkoordinaten sicherlich innerhalb dieser Abweichung gefunden<br />

werden.<br />

5.3.3 Orientierung<br />

Die innere Orientierung wurde durch eine Kamerakalibrierung mit dem Programm «iWitness 9 »<br />

bestimmt. Zu diesem Zweck werden Targets ausgelegt, welche für eine genügende<br />

Tiefeninformation auf verschiedenen Ebenen liegen müssen. Diese Zieltafeln werden aus<br />

verschiedenen Richtungen, mit verschiedenen Winkeln und Orientierungen fotografiert. Diese<br />

Bilder werden in iWitness eingelesen und darin die Lage der Zieltafeln automatisch erkannt.<br />

Durch eine Bündelblockausgleichung werden die Parameter inneren Orientierung der Kamera<br />

bestimmt. Diese sind in Tabelle 5.2 als Näherungswerte für die innere Orientierung aufgeführt.<br />

Aus der Messanordnung kann das Projektionszentrum der Kamera näherungsweise bestimmt<br />

werden. Die Lagekoordinaten unterscheiden sich nur wenige Zentimeter von jenen des<br />

Laserscanners, da die Kamera direkt über dem Laserscanner montiert ist. Wie in Abbildung<br />

5.3 gezeigt, weicht die horizontale Lage des Projektionszentrums nur wenige Zentimeter von<br />

9 iWitness: http://www.iwitnessphoto.com/ (Stand: 09.06.2008)<br />

45


5 Testobjekte<br />

jener des Scanner-Zentrums ab. Die Werte der Parameter X0 und Y0 werden deshalb nahe Null<br />

erwartet. Der vertikale Abstand zum Scanzentrum kann mit einem Messband näherungsweise<br />

bestimmt werden und beträgt ungefähr 16 Zentimeter.<br />

Wie Tabelle 5.2 zeigt, konnten die Resultate der DLT mittels räumlichem Rückwärtsschnitt in<br />

viewcalibrate noch deutlich verbessert werden. Doch auch bereits die DLT liefert gute Ergebnisse.<br />

Dies lässt darauf schliessen, dass die Passpunkte gut gewählt und die Koordinatenbestimmung<br />

mit ausreichender Genauigkeit durchgeführt wurde.<br />

Die Lage des Projektionszentrums ist nach der Berechnung des räumlichen Rückwärtsschnitts<br />

circa 1.5 Meter vom erwarteten Ort entfernt. Diese Abweichung ist aber annehmbar. Die<br />

Drehwinkel wurden aufgrund der Positionierung der Kamera im Bereich der unter «genäherte<br />

Werte» aufgeführten Werte erwartet. Während die DLT diese Erwartung erfüllt, sind die vom<br />

räumlichen Rückwärtsschnitt bestimmten Winkel nicht glaubwürdig. Trotzdem ergeben sie<br />

gute Residuen, welche in Abbildung 5.7 zu sehen sind. Aus welchem Grund beim räumlichen<br />

Rückwärtsschnitt eine so starke Anpassung der Winkel stattgefunden hat konnte nicht<br />

herausgefunden werden.<br />

Genäherte Werte<br />

Ergebnis DLT<br />

Ergebnis Rückwärtsschnitt<br />

x0 [mm] −0.13 1.04 -<br />

y0 [mm] −0.09 0.34 -<br />

c [mm] 18.56 14.12 17.72<br />

X0 [m] 0 3.95 1.14<br />

Y0 [m] 0 −0.56 −0.15<br />

Z0 [m] 0.16 0.41 0.27<br />

ω [Grad] −90.00 −90.89 124.34<br />

φ [Grad] 0.00 −1.24 −89.66<br />

κ [Grad] 90.00 90.99 33.86<br />

Tabelle 5.2: Orientierungswerte Anlieferung<br />

46


(a) Eines der verwendeten Bilder der Zieltafeln<br />

(b) Situationsdarstellung aller Aufnahmen<br />

Abbildung 5.6: Kamerakalibrierung in iWitness<br />

5 Testobjekte<br />

47


(a) Testobjekt Anlieferung: Residuen der Passpunkte [pixel] nach der Orientierung mittels DLT<br />

(b) Testobjekt Anlieferung: Residuen der Passpunkte [pixel] nach der Orientierung mittels<br />

räumlichem Rückwärtsschnitt in viewcalibrate (rot)<br />

Abbildung 5.7: Testobjekt Anlieferung: Residuen der Passpunkte<br />

5 Testobjekte<br />

48


5.3.4 Einfärbung der Punktwolke<br />

5 Testobjekte<br />

Die im räumlichen Rückwärtsschnitt bestimmten Orientierungsparameter wurden im Programm<br />

«colorize» verwendet, welches den im Bildausschnitt liegenden Punkten einen Farbwert zuweist.<br />

Dieser Vorgang ist in Kapitel 5.1.6 beschrieben. Die erzeugte Punktwolke wurde in Geomagic<br />

Studio visualisiert (siehe Abbildung 5.8).<br />

Die eingefärbte Punktwolke zeigt einige falsch eingefärbte Punkte. Besonders gut sichtbar<br />

ist dies bei den Sicherheitsmarkierungen an der Säule im Vordergrund. Bei Objekten welche<br />

näher beim Projektionszentrum liegen sind die Auswirkungen einer ungenauen äusseren<br />

Orientierung grösser. Insgesamt ist das Resultat aber zufriedenstellend und erfüllt die gestellten<br />

Erwartungen.<br />

Abbildung 5.8: Testobjekt Anlieferung: Eingefärbte Punktwolke in Geomagic Studio<br />

49


5.4 Einzelbildorientierung an einem digitalen Geländemodell<br />

5 Testobjekte<br />

Für dieses Gebiet in Liechtenstein wurde von der Firma Gamma RS ein Bild und einen Ausschnitt<br />

aus dem DTM-AV 10 der swisstopo zur Verfügung gestellt. Das Höhenmodell DTM-AV basiert auf<br />

Lasermessungen aus Flugzeugen. Es bildet die Topografie der Erdoberfläche ohne Bewuchs und<br />

Bebauung ab. Die Rasterweite beträgt circa zwei Meter.<br />

Es sei bereits an dieser Stelle vermerkt, dass die Einzelbildorientierung an einem solchen<br />

Höhenmodell sehr schwierig ist und aufgrund der schlecht definierten Passpunkte keine guten<br />

Resultate zu erwarten sind.<br />

5.4.1 Bildkoordinaten<br />

Wie im Bild (Abbildung 5.9) zu sehen ist, kommen vor allem Gebäude als Passpunkte in<br />

Frage. Gebäude sind aber im Höhenmodell nur schlecht sicht- und identifizierbar. Deshalb<br />

werden Passpunkte vor allem anhand des Höhenmodells ausgewählt und deren Position im<br />

Bild abgeschätzt. Diese Abschätzung ist nur sehr grob und kann durchaus um mehrere Pixel<br />

abweichen.<br />

Objekte im Vordergrund des Bildes decken einen grösseren Bereich ab als solche im Hintergrund.<br />

So kann auch einem im Höhenmodell gut definierten Passpunkt nur schwer eine Position im Bild<br />

zugewiesen werden. Dies hat einen grossen Einfluss auf die Qualität des Passpunktes. Je näher<br />

zum Aufnahmestandort ein Passpunkt also gewählt wird, desto schwieriger ist die Bestimmung<br />

seiner Bildkoordinaten.<br />

Die in Abbildung 5.9 (a) im Vordergrund sichtbaren Gebäude und die Brücke waren<br />

im Höhenmodell verhältnismässig gut erkennbar. Diesen Passpunkten konnten aber keine<br />

eindeutigen Bildkoordinaten zugewiesen werden.<br />

5.4.2 Objektkoordinaten<br />

Das Höhenmodell liegt im GeoTIFF-Format vor. In «ESRI ArcScene 11 » kann dieses als Raster<br />

eingelesen werden. Für eine bessere Erkennbarkeit wurde der Hillshade-Filter mit simuliertem<br />

Schattenwurf auf das Raster angewendet. Die Schattierung einer künstlichen Lichtquelle wird<br />

simuliert, was ein gut interpretierbares Relief als Resultat liefert (siehe Abbildung 5.9 (b)).<br />

Koordinaten können mit Hilfe des Info-Werkzeugs in ArcScene durch das Anwählen einer<br />

Rasterzelle abgegriffen werden.<br />

Das Höhenmodell versucht, die Erdoberfläche wiederzugeben, weshalb alle sich darauf<br />

befindlichen Objekte weggerechnet wurden. Teilweise sind die Ränder der Objekte noch erhalten,<br />

da der Erosionsalgorithmus an diesen Übergängen anscheinend nicht korrekt arbeitet. Deshalb<br />

können beispielsweise Häuser und Waldränder im Höhenmodell teilweise erkannt werden. Das<br />

Höhenmodell und das Bild haben nicht den selben Stand, was die Suche nach geeigneten<br />

Passpunkten noch erschwert.<br />

10<br />

swisstopo DTM-AV: www.swisstopo.admin.ch/internet/swisstopo/de/home/products/height/dom_dtm-av.htm<br />

(Stand: 18.06.2008)<br />

11<br />

ESRI ArcGIS: http://www.esri.com/software/arcgis/index.html (Stand: 09.06.2008)<br />

50


(a) Bild (Canon EOS 350D, Brennweite 18mm)<br />

(b) Höhenmodell in ArcScene<br />

Abbildung 5.9: Testgebiet Liechtenstein: Verwendetes Bild und Höhenmodell<br />

5 Testobjekte<br />

51


5 Testobjekte<br />

Um die Situation zu verbessern, wurde dem schattierten Höhenmodell eine Pixelkarte 1:25’000<br />

überlagert. Die grobe Lokalisierung wurde so zwar vereinfacht, doch stellten sich weitere<br />

Probleme, da auch das Höhenmodell und die Pixelkarte nicht den selben Stand aufweisen. Zudem<br />

ist die Darstellung in der Pixelkarte generalisiert, so dass die Lage der Passpunkte nicht alleine<br />

aufgrund der Darstellung in der Pixelkarte bestimmt werden kann.<br />

Aus den oben aufgeführten Gründen ist die Qualität der Objektkoordinaten der Passpunkte sehr<br />

schlecht. Es ist nicht möglich hier eine allgemeine Abschätzung der Genauigkeit zu machen, da<br />

die Wahl der Passpunkte unsicher ist und keine Kontrollmöglichkeit besteht.<br />

5.4.3 Orientierung<br />

Das verwendete Bild wurde von der Firma Gamma RS zur Verfügung gestellt. Über den Exif-Tag 12<br />

des Bildes kann der zu erwartende Wert der Kamerakonstante erfasst werden. Die Koordinaten<br />

des Standpunktes während der Aufnahme konnten im Höhenmodell abgegriffen werden. Durch<br />

die Lage des Objektkoordinatensystems und des Bildes konnten die Drehwinkel abgeschätzt<br />

werden. Die erwähnten Werte sind in Tabelle 5.3 aufgeführt.<br />

Das Bild konnte anhand des Höhenmodells wie erwartet nur ungenügend orientiert werden.<br />

Das beste Resultat wurde mit Passpunkten an der Brücke sowie an Gebäuden im Vordergrund<br />

erreicht (siehe Abbildung 5.10). Wie Tabelle 5.3 zeigt, weicht das Aufnahmezentrum aber auch<br />

mit dieser Konfiguration noch um mehrere hundert Meter von der tatsächlichen Position ab. Dies<br />

kann neben der mangelhaften Qualität der Passpunkte auch auf die schlechte Verteilung der<br />

Passpunkte im Bild zurückgeführt werden. Die ungenügende Tiefenverteilung schlägt sich in der<br />

Bestimmung der Kamerakonstante nieder. Mit einem Wert von 0.2 Millimeter konnte diese nicht<br />

einmal annähernd bestimmt werden.<br />

Diese Orientierungsparameter aus der DLT lassen sich mit einem Rückwärtsschnitt nicht weiter<br />

verbessern, da die Qualität der Passpunkte sowohl im Bild als auch im digitalen Höhenmodell<br />

sehr schlecht ist. Auch eine Einfärbung des Höhenmodells wird mit einer solch schlechten<br />

Orientierung kein gutes Resultat bringen.<br />

12 Wikipedia – Exif: http://en.wikipedia.org/wiki/Exif (Stand: 18.06.2008)<br />

52


Genäherte Werte<br />

Ergebnis DLT<br />

x0 [mm] - 0.45<br />

y0 [mm] - −2.40<br />

c [mm] 18 0.20<br />

X0 [m] 757914 758100<br />

Y0 [m] 220884 220855<br />

Z0 [m] 475 467<br />

ω [Grad] −90.00 −3.2<br />

φ [Grad] 0.00 0.7<br />

κ [Grad] 90.00 94.2<br />

Tabelle 5.3: Orientierungswerte Liechtenstein<br />

5 Testobjekte<br />

Abbildung 5.10: Testgebiet Liechtenstein: Residuen der Passpunkte [pixel] nach der Orientierung<br />

mittels DLT<br />

53


5.5 Einzelbildorientierung an einem Radar-Oberflächenmodell<br />

5 Testobjekte<br />

Im Tessin oberhalb von Biasca werden Überwachungsmessungen an einem Hang mit<br />

absturzgefährdeten Felsblöcken durchgeführt. Das Zielgebiet ist nur schwer zugänglich und<br />

die Regionen unterhalb der Felswände dürfen aus Sicherheitsgründen nicht betreten werden.<br />

Wie bereits in Kapitel 2 beschrieben, kann mittels Radar ein Gebiet vermessen werden, ohne<br />

Targets am Objekt anbringen zu müssen. Es werden jedoch Eckreflektoren in der Umgebung<br />

des Zielgebiets benötigt, damit verschiedene Einflüsse reduziert werden können. Zudem dienen<br />

die Reflektoren als Passpunkte für die Geocodierung. Die Reflektoren sind in Abbildung 5.11<br />

dargestellt.<br />

(a) Eckreflektor 1 (b) Eckreflektor 2<br />

Abbildung 5.11: Testgebiet Biasca: Eckreflektoren im Zielgebiet<br />

Mit dem GPRI der Firma Gamma RS werden zu verschiedenen Zeitpunkten Aufnahmen gemacht,<br />

aus welchen Bewegungen im Zielgebiet abgeleitet werden können. Als Nebenprodukt dieser<br />

Messungen kann ein Oberflächenmodell berechnet werden. Am 24. April 2008 konnte ich Tazio<br />

Strozzi der Firma Gamma RS zu einer Messung begleiten. Neben den Radaraufnahmen konnten<br />

so auch Bilder des Zielgebietes aufgenommen werden. Zu diesem Zweck wurde die Kamera<br />

mittels einer speziell angefertigten Halterung auf dem GPRI montiert. Dies hat zur Folge, dass<br />

der Blickwinkel der beiden Systeme beinahe identisch ist.<br />

Nur Eckreflektor 1 liegt im Bildbereich und bietet einen genau bestimmten Passpunkt für dessen<br />

Orientierung. Für die DLT werden jedoch mindestens sechs Passpunkte benötigt. So wurden noch<br />

weitere Passpunkte gesucht, welche in Bild und Punktwolke erkennbar sind. Diese Bestimmung<br />

war sehr schwierig und unsicher, so dass aufgrund der schlechten Qualität und der Verteilung<br />

keine gute Orientierung zu erwarten ist.<br />

5.5.1 Bildkoordinaten<br />

Die Bildkoordinaten wurden in GIMP ausgelesen. Wie bereits beim Testgebiet in Liechtenstein<br />

(siehe Kapitel 5.4) sind die Passpunkte im Bild nicht eindeutig definiert. Dies erschwert das<br />

genaue Abgreifen von Passpunkten. Die Bildkoordinaten dieser unsignalisierten Passpunkte<br />

können höchstens mit einer Genauigkeit von ±100 Pixel bestimmt werden.<br />

54


5 Testobjekte<br />

Die oben erwähnten Eckreflektoren sind im Bild leider nicht erkennbar. Die Position von<br />

Eckreflektor 1 konnte aber von Tazio Strozzi abgeschätzt werden. Der zweite Eckreflektor liegt<br />

ausserhalb des fotografierten Bereiches.<br />

5.5.2 Objektkoordinaten<br />

Ein solches wurde von Gamma RS als Raster in einer ASCII-Datei zur Verfügung gestellt. Mittels<br />

«AWK 13 » konnte das Raster in ein kartesisches Koordinatensystem umgerechnet und als PTS-<br />

Datei abgespeichert werden. Das höhenkodierte Raster und das daraus berechnete kartesische<br />

3D-Modell sind in Abbildung 5.12 zu sehen.<br />

Die PTS-Datei wird in Geomagic Studio importiert. Der Benutzer kann sich dann frei in der<br />

Punktwolke bewegen. Zur besseren Interpretation werden die Punkte schattiert. Diese Funktion<br />

simuliert die Beleuchtung der Punktwolke durch eine punktförmige Lichtquelle. Da in Geomagic<br />

Studio keine Funktion vorgesehen ist, um Koordinaten abzugreifen, muss man auf das Mess-<br />

Werkzeug zurückgreifen. Dieses zeigt die Koordinaten der gewählten Punkte an, welche von<br />

Hand abgeschrieben werden müssen. Dieser Vorgang wäre in Leica Cyclone einfacher, wurde aber<br />

aufgrund der guten Schattierungsmethode in Geomagic Studio durchgeführt.<br />

Die Genauigkeit der abgegriffenen Objektkoordinaten ist nicht sehr hoch, da die Passpunkte<br />

in der Punktwolke nur abgeschätzt werden können. Geht man davon aus, dass die Lage<br />

eines Passpunktes in Bild und Punktwolke ohne Verwechslungen bestimmt wurde, können die<br />

Objektkoordinaten mit einer Genauigkeit von ±10 Metern gefunden werden.<br />

5.5.3 Orientierung<br />

Die Kamera ist die selbe, welche in Kapitel 5.2 verwendet wird. Aus diesem Grund werden<br />

die Näherungswerte für die innere Orientierung von dort übernommen. Da die Kamera<br />

direkt auf dem GPRI montiert wurde, können die Lagekoordinaten des Projektionszentrums in<br />

erster Näherung mit jenem des Radars gleichgesetzt werden. Die Antenne steht im Ursprung<br />

der mit dem AWK-Skript in Anhang G.2 generierten Punktwolke. Die geschätzte Höhe des<br />

Projektionszentrums stellt die Differenz zwischen der Referenzantenne des GPRI und der Kamera<br />

dar. Die Drehwinkel können durch die Lage der Koordinatensysteme abgeschätzt werden. Die<br />

erwähnten Daten sind in Tabelle 5.4 als genäherte Werte aufgeführt.<br />

Die Ungenauigkeit, welche sich durch die Kombination der unsicheren Bestimmung von Bild- und<br />

Objektkoordinaten ergibt, lässt keine gute Orientierung zu. Die Orientierung mittels DLT ergibt<br />

zwar ein Resultat mit erstaunlich kleinen Residuen, doch liegen die Parameter weit neben den<br />

erwarteten Werten (siehe Tabelle 5.4). Dies kann auf die schlechte Verteilung der Passpunkte im<br />

Bild zurückgeführt werden. Passpunkte in der rechten Bildhälfte zu finden ist aber aufgrund der<br />

in diesem Gebiet fehlenden Daten im Oberflächenmodell kaum möglich.<br />

Zudem weisen die Passpunkte eine schlechte Verteilung in der Tiefe auf. Dies hat insbesondere<br />

grosse Auswirkungen auf die Bestimmung der Kamerakonstante c, was in Tabelle 5.4 ersichtlich<br />

ist.<br />

13 Wikipedia, AWK: http://de.wikipedia.org/wiki/Awk (Stand: 09.06.2008)<br />

55


(a) Bild (Nikon D2Xs, Brennweite 18mm)<br />

(b) GPRI-Oberflächenmodell als höhenkodiertes Raster (100m-Zyklus)<br />

(c) GPRI-Oberflächenmodell in einem kartesischen System<br />

Abbildung 5.12: Testgebiet Biasca: Verwendetes Bild und GPRI-Oberflächenmodell<br />

5 Testobjekte<br />

56


Genäherte Werte<br />

Ergebnis DLT<br />

Ergebnis DLT mit Eckreflektor<br />

x0 [mm] −0.01 −4.54 −6.19<br />

y0 [mm] −0.17 −1.47 1.24<br />

c [mm] 18.46 1.99 0.80<br />

X0 [m] 0 181 329.20<br />

Y0 [m] 0 764 997.00<br />

Z0 [m] 0.6 245 310.66<br />

ω [Grad] −90.00 −33.9 −28.83<br />

φ [Grad] 0.00 1.8 14.80<br />

κ [Grad] 45 51.6 81.04<br />

Tabelle 5.4: Orientierungswerte Biasca<br />

5 Testobjekte<br />

Die insgesamt sehr schlechten Orientierungsparameter (ohne und mit Eckreflektor) bestätigen<br />

die Erwartung, dass mit solchen schlecht definierten Passpunkten keine realistische Orientierung<br />

berechnet werden kann. Ein besseres Resultat kann erwartet werden, wenn die Kamera vorgängig<br />

kalibriert wird und für die äussere Orientierung mindestens drei Eckreflektoren im Zielgebiet<br />

verwendet werden. Bei einer bekannten relativen Orientierung des Radargeräts und der Kamera<br />

wäre auch eine passpunktlose Orientierung denkbar.<br />

57


(a) Testgebiet Biasca: Residuen der Passpunkte [pixel] nach der Orientierung mittels DLT (grün)<br />

(b) Testgebiet Biasca: Residuen der Passpunkte [pixel] nach der Orientierung mittels DLT (violet) mit<br />

Eckreflektor (gelb)<br />

Abbildung 5.13: Testgebiet Biasca: Residuen der Passpunkte<br />

5 Testobjekte<br />

58


5 Testobjekte<br />

5.6 Einzelbildorientierung an tachymetrisch bestimmten Passpunkten<br />

Da die Passpunkte im Radar-DOM (Kapitel 5.5) nur sehr schwer gefunden werden konnten,<br />

wurden Daten aus einem photogrammetrischen Projekt um den Felssturz von Randa<br />

hinzugezogen. Für dieses Projekt wurden Passpunkte rund um die Abbruchkante des Felssturzes<br />

mit Tachymetrie eingemessen. Da die photogrammetrischen Aufnahmen aber mit einem<br />

luftgestützten System erfasst wurden sind die Passpunkte so markiert, dass sie von oben gut<br />

sichtbar sind.<br />

Für die Einzelbildorientierung wurde ein Übersichtsbild des Projekts verwendet. Dieses wurde<br />

mit einer Nikon D2Xs erstellt. Leider sind keine Näherungskoordinaten für den Aufnahmeort<br />

vorhanden. Der durchschnittliche Abstand zwischen Aufnahmestandpunkt und Zielgebiet liegt<br />

in der Grössenordnung eines Kilometers.<br />

Weil die Passpunkte im verwendeten Bild nur ungenügend definiert sind und eine schlechte<br />

Tiefenverteilung besitzen ist keine realistische Orientierung zu erwarten.<br />

5.6.1 Bildkoordinaten<br />

Da die Passpunkte für einen photogrammetrischen Bildflug markiert wurden, sind sie im<br />

verwendeten Bild nicht sichtbar. Die Positionen der Passpunkte konnte aber aufgrund der<br />

Übersichtskarte von Henri Eisenbeiss abgeschätzt werden. Die Genauigkeit der bestimmten<br />

Bildkoordinaten liegt schätzungsweise bei ±30 Pixeln. Eine Abweichung von drei Pixeln bedeutet<br />

aber bereits eine Verschiebung von einem Meter in einem Kilometer Entfernung. Die Bestimmung<br />

der Bildkoordinaten ist daher wohl der grösste Unsicherheitsfaktor bei diesem Objekt.<br />

5.6.2 Objektkoordinaten<br />

Wie oben bereits angesprochen, werden Passpunkte verwendet, welche mit Tachymetern<br />

eingemessen wurden. Diese Koordinaten stehen leider ohne Genauigkeitsangaben zur<br />

Verfügung. Die Bestimmung der Passpunkte dürfte aber mit einer Genauigkeit im Bereich<br />

von einem Zentimeter gelungen sein. Die Objektkoordinaten sind also im Gegensatz zu den<br />

Bildkoordinaten sehr gut definiert.<br />

5.6.3 Orientierung<br />

Die verwendete Kamerakonstante konnte durch die Exif-Informationen bestimmt werden.<br />

Sie entspricht dem in Kapitel 5.2 verwendeten Objektiv. Aus diesem Grund werden die<br />

Näherungswerte für die innere Orientierung von dort übernommen.<br />

Neben der grossen Unsicherheit, die durch die möglicherweise fehlerhafte Bestimmung der<br />

Passpunkte in die Orientierung einfliesst, ist auch die Verteilung der Passpunkte ungünstig.<br />

Sie liegen alle in der Mitte des Bildes. Passpunkte in den äusseren Bereichen des Bildes wären<br />

dringend nötig, um die Orientierung zu stabilisieren. Auch die Tiefenverteilung der Passpunkte<br />

ist ungünstig. Dies kann kann aber auf Grund der Lage des Hanges nicht geändert werden.<br />

59


(a) Verwendetes Bild (Nikon D2Xs, 18mm)<br />

(b) Übersicht über die verwendeten Passpunkte<br />

5 Testobjekte<br />

Abbildung 5.14: Testobjekt Randa: Bild und Übersicht über die verwendeten Passpunkte (gelb)<br />

60


Genäherte Werte<br />

Ergebnis DLT<br />

Ergebnis Rückwärtsschnitt<br />

x0 [mm] −0.01 2.48 0.00<br />

y0 [mm] −0.17 −0.26 0.00<br />

c [mm] 18.46 3.80 18.00<br />

X0 [m] - 626338.65 624366.14<br />

Y0 [m] - 106905.63 107126.51<br />

Z0 [m] - 1975.06 2271.38<br />

ω [Grad] −120.00 119.35 207.34<br />

φ [Grad] 0.00 7.11 50.16<br />

κ [Grad] 0.00 102.44 62.27<br />

Tabelle 5.5: Orientierungswerte Randa<br />

5 Testobjekte<br />

Die mit der DLT berechneten Orientierungsparameter wurden als .par-Datei in viewcalibrate<br />

eingelesen. Die Berechnung des räumlichen Rückwärtsschnittes konvergiert aber nicht, da die<br />

Kamerakonstante mit der DLT zu schlecht bestimmt werden konnte. Wird der entsprechendeWert<br />

durch jenen aus den Exif-Daten des Bildes ersetzt, so konvergiert der räumliche Rückwärtsschnitt<br />

gegen die in Tabelle 5.5 unter «Ergebnis Rückwärtsschnitt» aufgeführten Parameter. Aber auch<br />

diese Werte sind weit von einer realistischen Orientierung entfernt.<br />

Wie erwartet konnten also weder durch die DLT noch mit dem räumlichen Rückwärtsschnitt<br />

realistische Orientierungswerte berechnet werden. Die Unsicherheit bei der Bestimmung der<br />

Bildkoordinaten ist dazu zu gross und die Anordnung der Passpunkte zu schlecht.<br />

61


(a) Residuen der Passpunkte [pixel] nach der Orientierung mittels DLT (grün)<br />

(b) Residuen der Passpunkte [pixel] nach der Orientierung mittels räumlichem Rückwärtsschnitt (rot)<br />

Abbildung 5.15: Testgebiet Randa: Residuen der Passpunkte<br />

5 Testobjekte<br />

62


6<br />

Ergebnisse<br />

Die Methode der direkten linearen Transformation (siehe Kapitel 4.1) wurde gewählt, da sie<br />

die Orientierung eines einzelnen Bildes ohne Näherungswerte erlaubt. Mit mindestens sechs<br />

Passpunkten lassen sich die Parameter der inneren und der äusseren Orientierung bestimmen.<br />

Mit der DLT können deshalb auch Bilder orientiert werden, von welchen keine Informationen über<br />

die Orientierung bekannt sind.<br />

Wie an den Testobjekten zu sehen ist, müssen die Passpunkte von guter Qualität sein. Dies<br />

bedeutet, dass sie im Bild- und auch im Objektraum mit guter Genauigkeit definiert sein müssen.<br />

Beim Testfeld (Kapitel 5.2) sind sowohl die Bild- als auch die Objektkoordinaten sehr gut bestimmt.<br />

Dies erlaubt eine Einzelbildorientierung mittels DLT mit hoher Genauigkeit. Die Passpunkte im<br />

Laserscan der Anlieferung des HIL-Gebäudes (Kapitel 5.3) sind zwar gut auffindbar aber nicht so<br />

gut definiert. Das heisst, dass die Passpunkte sowohl im Bild als auch in der Punktwolke erkennbar<br />

sind, die Koordinaten aber nicht so genau abgegriffen werden können.<br />

Die Bildkoordinaten der Passpunkte wurden jeweils im Bildbearbeitungsprogramm GIMP<br />

ausgelesen. GIMP gibt die Bildkoordinaten in Pixeln an. Bildpunkte können also nicht mit<br />

Subpixelgenauigkeit bestimmt werden. Ausser beim Testfeld (Kapitel 5.2) ist das aber auch<br />

nicht notwendig, da keine signalisierten Passpunkte verwendet werden. Die Unsicherheit<br />

beim Abgreifen der Bildkoordinaten ist also so hoch, dass die Angabe in ganzen Pixeln<br />

ausreicht. Werden signalisierte Passpunkte (Targets) verwendet, ist eine Bestimmung mit<br />

Subpixelgenauigkeit sinnvoll und wünschbar. So kann das Zentrum eines Targets auch mittels<br />

Template-Matching mit hoher Genauigkeit bestimmt werden.<br />

Koordinaten in einer Punktwolke von Hand abzugreifen ist sehr schwierig. Liegt der Passpunkt<br />

wie in Abbildung 5.5 an einem gut erkennbaren Ort, können seine Koordinaten entweder direkt<br />

oder indirekt (siehe Kapitel 5.1) abgegriffen werden. Bei natürlichen Objekten ist die Lage der<br />

Passpunkte aber meist nicht so klar definiert. Die Objektkoordinaten können daher nur grob<br />

abgeschätzt werden. Es ist also von Vorteil, wenn die Objektkoordinaten aus Messungen mit<br />

Tachymetern oder mit einem GNSS-System bekannt sind.<br />

Wie in Kapitel 5.5 gezeigt wird, kann die Position eines Eckreflektors in einem Radarbild einem<br />

einzelnen Punkt zugewiesen werden. So sind seine Koordinaten im Radarsystem eindeutig<br />

definiert. Eine weitere Vermessung des Eckreflektors ist dann für die Einzelbildorientierung<br />

nicht mehr notwendig. Falls die Eckreflektoren aus anderen Gründen (beispielsweise für die<br />

63


6 Ergebnisse<br />

Abwicklung der Radardaten) in einem übergeordneten System bestimmt werden, kann das Bild<br />

auch in diesem orientiert werden.<br />

Neben der guten Verteilung im Bild sollten die Passpunkte in allen drei Dimensionen<br />

gut verteilt sein und eine gute Tiefeninformation beinhalten. Dies hat erheblichen Einfluss<br />

auf die Bestimmung der inneren Orientierung – analog zu den Anforderungen bei einer<br />

Kamerakalibrierung. Bei den Testobjekten in den Kapiteln 5.4, 5.5 und 5.6 war die räumliche<br />

Verteilung der Passpunkte nicht gut, was sich stark auf die berechnete Kamerakonstante<br />

ausgewirkt hat. Diese wurde jeweils viel zu klein bestimmt, was einer unrealistischen,<br />

extremen Weitwinkelaufnahme entsprechen würde. Aufgrund dieser Testobjekte kann aber keine<br />

allgemeine Aussage formuliert werden, da auch noch andere Unsicherheiten vorliegen.<br />

Konnten durch die Berechnung der DLT glaubwürdige Parameter bestimmt werden, können<br />

diese durchaus in anderen Verfahren weiterverwendet werden. So benötigt beispielsweise der<br />

räumliche Rückwärtsschnitt (siehe Kapitel 4.3) Näherungswerte für alle Orientierungsvariablen.<br />

Das Programm pyDLT (Kapitel 4.1.4) gibt eine Parameterdatei aus, welche direkt für die<br />

Berechnung des Rückwärtsschnitts in viewcalibrate (Kapitel 4.3.2) verwendet werden kann. Im<br />

Gegensatz zur DLT ist der räumliche Rückwärtsschnitt ein iteratives Verfahren, welches eine<br />

schrittweise Verfeinerung der Orientierungsparameter erlaubt. Die Anwendung des räumlichen<br />

Rückwärtsschnittes nach der DLT erlaubt also eine Optimierung der Einzelbildorientierung. So<br />

konnten die Residuen im Laserscan-Projekt (Kapitel 5.3) stark minimiert werden.<br />

64


7<br />

Fazit und Ausblick<br />

In dieser Arbeit wurden Einzelbilder anhand von Daten von verschiedenen Objekten und<br />

verschiedenen Sensoren orientiert. Für die Orientierung wurde das Verfahren der direkten<br />

linearen Transformation (DLT) angewandt. Diese Orientierungsparameter wurden anschliessend<br />

als Näherungswerte für den räumlichen Rückwärtsschnitt verwendet.<br />

Die Orientierung eines einzelnen Bildes mittels DLT funktioniert gut, wenn die zur Berechnung<br />

verwendeten Passpunkte einige Kriterien erfüllen:<br />

• Genaue Bestimmung der Bild- und der Objektkoordinaten<br />

• Gute Verteilung im Bild<br />

• Gute räumliche Verteilung, insbesondere in der Entfernung<br />

Sind die oben gestellten Anforderungen erfüllt, sind gute Resultate zu erwarten. Sie können als<br />

Näherungswerte für den räumlichen Rückwärtsschnitt oder andere Verfahren verwendet werden.<br />

Dies zeigt sich bei der Orientierung eines Bildes an einer Laserscan-Punktwolke, bei welcher die<br />

Passpunkte nach den oben aufgeführten Kriterien gewählt werden konnten. Die entsprechenden<br />

Resultate sind in Kapitel 5.3 aufgeführt.<br />

Sind die verwendeten Passpunkte von sehr guter Qualität, ist es sinnvoll, die Verzeichnung durch<br />

das Linsensystem der Photokamera zu berücksichtigen. Die Verzeichnungsparameter könnten<br />

mit dem Ansatz nach (Hatze, 1988) bereits in der modifizierten DLT (MDLT) berücksichtigt und<br />

ebenfalls als Näherungswerte für den räumlichen Rückwärtsschnitt verwendet werden.<br />

Um die innere Orientierung nach deren Bestimmung in der DLT zu verbessern könnte sie auch im<br />

räumlichen Rückwärtsschnitt mit ausgeglichen werden. In diesem Fall werden aber zusätzliche<br />

Passpunkte benötigt. Der räumliche Rückwärtsschnitt mit integrierter Ausgleichung der inneren<br />

Orientierung wurde in dieser Arbeit nur in Kapitel 5.3 für die Bestimmung der Kamerakonstante<br />

verwendet.<br />

Um die Einzelbildorientierung weiter zu verbessern, kann die Kamera vorgängig kalibriert<br />

werden. So kann man die Parameter der inneren Orientierung mit deutlich besserer Genauigkeit<br />

bestimmen als dies mit der DLT in einer realen Anwendung möglich ist. Eine Kamerakalibrierung<br />

wurde mit der Nikon D40x für die Aufnahmen der HIL-Anlieferung (Kapitel 5.3) durchgeführt<br />

und ist dort dokumentiert. Muss die innere Orientierung nicht mehr über Passpunkte bestimmt<br />

werden, sinkt der Freiheitsgrad der Orientierung. Dies hat zur Folge, dass auch die minimal<br />

65


7 Fazit und Ausblick<br />

notwendige Anzahl Passpunkte sinkt, da weniger Unbekannte zu finden sind. Dies gilt sowohl<br />

für die DLT als auch für den räumlichen Rückwärtsschnitt.<br />

Bei der Bearbeitung der Testobjekte hat sich herausgestellt, dass die Bestimmung der<br />

Passpunkte von Hand bei nicht signalisierten Passpunkten ein grosser Schwachpunkt bei der<br />

Einzelbildorientierung ist. Aus diesem Grund wäre es interessant zu untersuchen, ob Passpunkte<br />

auch automatisch gefunden werden können. Die Herausforderung dabei ist die Verknüpfung<br />

von Bild und Punktwolke. Eine Feature-basierte Verbindung über Punkte oder Kanten wäre ein<br />

möglicher Ansatz zur Lösung dieser Aufgabenstellung.<br />

Auch für die Orientierung eines Einzelbildes an einem Radar-Oberflächenmodell können die<br />

Passpunkte im Oberflächenmodell von Hand nur mit ungenügender Genauigkeit ausgelesen<br />

werden, da es aufgrund der Rasterweite sehr schwierig ist, Objekte zu identifizieren. Werden<br />

Eckreflektoren verwendet, können deren Positionen im Oberflächenmodell genau bestimmt<br />

werden. Aufgrund der grossen Distanz zwischen der Kamera beim Radargerät und dem<br />

Eckreflektor ist dieser im Bild nicht identifizierbar. Eine Signalisierung des Eckreflektors wäre<br />

deshalb eine durchführbare Lösung, welche aber in dieser Arbeit nicht untersucht werden<br />

konnte.<br />

Eine weitere Möglichkeit ist die Orientierung des Bildes ohne Passpunkte. Dies ist aber nur<br />

durchführbar, wenn die innere und die äussere Orientierung der Kamera bekannt sind. Die<br />

innere Orientierung könnte wie oben erwähnt durch eine Kamerakalibrierung bestimmt werden.<br />

Wird eine Amateurkamera verwendet sollte man die Kalibrierung regelmässig und sicher vor<br />

einer wichtigen Aufnahme wiederholen. Die für die Kalibrierung notwendigen Aufnahmen der<br />

spezifischen Zieltafeln können auch auf dem Feld gemacht werden. Um die Parameter der<br />

äusseren Orientierung zu bestimmen ist vor allem eine stabile Plattform auf dem Radargerät<br />

notwendig, welche eine wiederholte Montage der Kamera in der immer gleichen Position erlaubt.<br />

Die Position des Projektionszentrums könnte eingemessen werden, was bei den Rotationswinkeln<br />

(relativ zum Aufnahmesystem) wohl nicht so einfach ist und eine Kalibrierung an einem<br />

Testobjekt notwendig macht.<br />

In Kapitel 2.3.5 wird ein System beschrieben, welches orientierte photographische Aufnahmen<br />

für die Steuerung durch den Benutzer verwendet. Die Kamera ist fest an der Radarantenne<br />

angebracht. Leider sind keine weiteren Details zu diesem System verfügbar. Es zeigt jedoch,<br />

dass eine Verbindung zwischen photographischen Informationen im Zusammenhang mit Radar<br />

sinnvoll sind und dies auch bereits produktiv im Einsatz ist.<br />

Bei den in dieser Arbeit verwendeten Testobjekte konnte mehrheitlich keine gute Orientierung<br />

bestimmt werden. Dies, weil abgesehen vom Laserscan in der HIL-Anlieferung bestehende<br />

Datensätze verwendet werden mussten, welche nicht auf eine Einzelbildorientierung<br />

ausgerichtet sind. Es war insbesondere schwierig, geeignete Radardaten für die<br />

Einzelbildorientierung zu erhalten, da die <strong>ETH</strong> kein eigenes Radargerät besitzt und bestehende<br />

Daten von Firmen meist aus rechtlichen Gründen nicht weitergegeben werden dürfen.<br />

Das Testfeld bietet optimale Bedingungen mit Passpunkten von sehr guter Qualität. Die DLT<br />

konnte so verifiziert werden. Die HIL-Anlieferung bietet mit den vorhandenen Kanten gute<br />

Voraussetzungen für die Passpunktsuche. Die Erwartungen die Einzelbildorientierung war bei<br />

diesem Testobjekt entsprechend hoch. Sie konnten aber erfüllt werden, wie in Kapitel 5.3 zu lesen<br />

ist. Die übrigen Testobjekte sind durch die im Bild oder im Objektraum ungenügend definierten<br />

Passpunkte nicht geeignet. Die dort erreichten Resultate sind demzufolge mit entsprechender<br />

Vorsicht zu betrachten.<br />

66


7 Fazit und Ausblick<br />

Aus dieser Arbeit gehen weitere interessante Untersuchungen in verschiedenen Themengebieten<br />

hervor:<br />

• Analyse der Genauigkeit eines Radargeräts und in diesem Zusammenhang auch die<br />

Qualität des aus den Radaraufnahmen abgeleiteten Oberflächenmodells<br />

• Erstellung eines Testfeldes für die Kalibrierung von Kamera und Radargerät<br />

• Planung und Durchführung von Radarmessungen und Visualisierung derselben in Bildern<br />

• Feature-basierte Passpunktgenerierung für Bild und Punktwolke<br />

• Kombination von Radardaten und mehreren Bildern (zum Beispiel für eine verbesserte<br />

Abwicklung der Radarmessungen)<br />

67


Literaturverzeichnis<br />

Antonello, G., Casagli, N., Farina, P., Leva, D., Nico, G., Sieber, A. J., & Tarchi, D. 2004. Ground-based<br />

SAR interferometry for monitoring mass movements. Springer Berlin Heidelberg Verlag.<br />

Ardito, R., & Cocchetti, G. 2006. Statistical approach to damage diagnosis of concrete dams by<br />

radar monitoring: Formulation and a pseudo-experimental test. Department of Structural<br />

Engineering, Politecnico di Milano.<br />

Baldenhofer, K. 2007. http://www.fe-lexikon.info. Stand: 06.03.2008.<br />

Berardini, G., Gallino, N., Gentile, G., & Ricci, P. 2007. Dynamic monitoring of civil engineering<br />

structures by microwave interferometer. IDS Ingegnera Dei Sistemi; Milan Polytechnic.<br />

Bernardini, B., Ricci, P., & Coppi, F. 2007a. A ground based microwave interferometer with imaging<br />

capabilities for remote measurements of displacements. IDS Ingegnera Dei Sistemi.<br />

Bernardini, G., De Pasquale, G., Bicci, A., Marra, M., Coppi, F., Ricci, P., & Pieraccini, M. 2007b.<br />

Microwave interferometer for ambient vibration measurement on civil engineering structures:<br />

1. Principles of the radar technique and laboratory tests. IDS Ingegnera Dei Sistemi;<br />

Department of Electronics and Telecommunications of University of Florence.<br />

Bernardini, G., De Pasquale, G., Gallino, N., & Gentile, C. 2007c. Microwave interferometer for<br />

ambient vibration measurement on civil engineering structures: 2. Application to full-scale<br />

bridges. IDS Ingegnera Dei Sistemi; Dept. of Structural Engineering, Milan Polytechnic.<br />

Bonnard, Ch., & Steinmann, G. 2005. Project MUMOSY - Seuils d’alerte et données requises pour la<br />

prévention des catastrophes liées aux mouvements de terrain. Laboratoire de mécanique des<br />

sols (LMS), Ecole Polytechnique Fédérale de Lausanne (EPFL).<br />

Digital Photography Review. 2008. http://www.dpreview.com/. Stand: 17.06.2008.<br />

Galahad Projekt. 2008. http://www.galahad.eu. Stand: 06.03.2008.<br />

Gamma RS. 2008. http://www.gamma-rs.ch. Stand: 18.03.2008.<br />

GroundProbe. 2008. http://www.groundprobe.com/slopestability.html. Stand: 18.08.2008.<br />

Grün, A. 2008. Photogrammetrie Grundzüge, Vorlesungsunterlagen. Professur für<br />

Photogrammetrie und Fernerkundung, <strong>ETH</strong> <strong>Zürich</strong>.<br />

Hatze, H. 1988. High-precision three-dimensional photogrammetric calibration and object space<br />

reconstruction using a modified DLT-approach. J. Biomechanics, Vol.21, pp. 533–538.<br />

Honikel, M. C. 2003. Fusion of Spaceborne Stereo-Optical and Interferometric SAR Data for<br />

Digital Terrain Model Generation. Institut für Geodäsie und Photogrammetrie, <strong>ETH</strong> <strong>Zürich</strong>,<br />

Dissertation.<br />

IDS. 2008. http://www.idscompany.it/page.php?f=11&id_div=4. Stand: 18.03.2008.<br />

IEEE, Standard Letter Designations for Radar-Frequency Bands. 1984.<br />

ieeexplore.ieee.org/iel1/2408/1213/00029086.pdf?arnumber=29086. Stand: 07.03.2008.<br />

68


Literaturverzeichnis<br />

Institut des Risques Majeurs de Grenoble. 2008. Les Ruines de Séchilienne:<br />

http://www.irma-grenoble.com/05documentation/04dossiers_numero.php?id_DT=1. Stand:<br />

18.08.2008.<br />

Kwon, Y.-H. 1998. http://kwon3d.u-gm.com/theory/dlt/dlt.html. Stand: 12.05.2008.<br />

Lemaitre, F., Poussiere, J.-C., Duranthon, J.-P., & Effendiantz, L. 2004. Use of ground radar for<br />

monitoring lanslides. Bulletin des laboratoires des Ponts et Chausées - 249, Ref. 4437, pp 19-34.<br />

Leva, D., Nico, G., Tarchi, D., Fortuny-Guasch, J., & Sieber, A. J. 2003. Temporal Analysis of a Landslide<br />

by Means of a Ground-Based SAR Interferometer. IEEE Transactions on Geoscience and Remote<br />

Sensing, Vol.41.<br />

Leva, D., Rivolta, C., Binda Rossetti, I., Kuzuoka, S., & Mizuno, T. 2005. Using a ground based<br />

interferometric synthetic aperture radar (GBInSAR) sensor to monitor a landslide in Japan.<br />

LiSALab srl, ImageONE Company Ltd. and OYO Corporation.<br />

LiSALab. 2006. http://www.lisalab.com. Stand: 18.03.2008.<br />

Little, M. 2006. Slope Monitoring Strategy at Pprust Open Pit Operation. Proceeding for<br />

International Symposium on Stability of Rock Slopes in Open Pit Mining and Civil Engineering,<br />

http://www.saimm.co.za/events/0604rockslopes/Papers.asp?id=138.<br />

Luhmann, T. 2003. Nahbereichsphotogrammetrie. Zweite, überarbeitete Auflage. Herbert<br />

Wichmann Verlag, Heidelberg.<br />

Luzi, G., Pieraccini, M., Mecatti, D., Noferini, L., Guidi, G., Moia, F., & Atzeni, C. 2004. Ground-Based<br />

Radar Interferometry for Landslides Monitoring: Atmospheric and Instrumental Decorrelation<br />

Sources on Experimental Data. IEEE Transactions on Geoscience and Remote Sensing, Vol.42.<br />

Mecatti, D., Noferini, L., Macaluso, G., Pieraccini, M., Luzi, G., & Atzeni, C. 2007. Remote<br />

sensing of glacier by round-based radar interferometry. Department of Electronics and<br />

Telecommunications of University of Florence; CESI S.p.A.<br />

Murphy, E., & Slattery, C. 2004. Ask The Application Engineer - All About Direct Digital Synthesis.<br />

Analog Dialogue Vol. 33. http://www.analog.com/library/analogdialogue.<br />

Noferini, L., Pieraccini, M., Mecatti, D., Luzi, G., Atzeni, C., Tamburini, A., & Broccolato, M. 2004.<br />

Permanent Scatterers Analysis for Atmospheric Correction in Ground-Based SAR Interferometry.<br />

IEEE Transactions on Geoscience and Remote Sensing, Vol.43.<br />

Noferini, L., Pieraccini, M., Luzi, G., Mecatti, D., Macaluso, G., & Atzeni, C. 2006a. Groundbased<br />

radar interferometry for monitoring unstable slopes. Department of Electronics and<br />

Telecommunications of University of Florence.<br />

Noferini, L., Pieraccini, M., Luzi, G., Mecatti, D., Macaluso, G., & Atzeni, C. 2006b. Ground-based<br />

radar interferometry for terrain mapping. Department of Electronics and Telecommunications<br />

of University of Florence.<br />

Noferini, L., Takayama, T., Pieraccini, M., Mecatti, D., Macaluso, G., Luzi, G., & Atzeni, C. 2008.<br />

Analysis of Ground-Based SAR Data With Diverse Temporal Baselines. IEEE Transactions on<br />

Geoscience and Remote Sensing, Vol.46.<br />

Noon, D., Reeves, B., Stickley, G., & Longstaff, D. 2002. Slope Stability<br />

Radar for Monitoring Mine Walls. Proceeding for WARS02 Conference,<br />

http://www.ips.gov.au/IPSHosted/NCRS/wars/wars2002/.<br />

Norland, R. 2006. Differential Interferometric Radar for Mountain Rock Slide Hazard Monitoring.<br />

IKT System Partner AS (ISPAS).<br />

69


Literaturverzeichnis<br />

Novák, D., Grün, A., & Sotoodeh, S. 2007. Semi-automatic orientation of images with respect to a<br />

point cloud system. Master thesis, <strong>ETH</strong> Zurich.<br />

Paus, H. 2002. Physik in Experimenten und Beispielen. Zweite Auflage. Carl Hanser Verlag.<br />

Pieraccini, M., Luzi, G., & Atzeni, C. 2001. Terrain Mapping by Ground-Based Interferometric Radar.<br />

IEEE Transactions on Geoscience and Remote Sensing, Vol.39.<br />

Pieraccini, M., Fratini, M., Parrini, F., Pinelli, G., & Atzeni, C. 2004. Dynamic Survey of<br />

Architectural Heritage by High-Speed Microwave Interferometry. Department of Electronics<br />

and Telecommunications of University of Florence.<br />

Pieraccini, M., Fratini, M., Parrini, F., & Atzeni, C. 2006a. Dynamic Monitoring of Bridges Using a<br />

High-Speed Coherent Radar.<br />

Pieraccini, M., Luzi, G., Mecatti, D., Noferini, L., Macaluso, G., & Atzeni, C. 2006b. Groundbased<br />

radar interferometry for monitoring unstable slopes. Department of Electronics and<br />

Telecommunications of University of Florence.<br />

Pieraccini, M., Luzi, G., Mecatti, D., Noferini, L., & Atzeni, C. 2006c. Ground-based SAR for short and<br />

long term monitoring of unstable slopes. Department of Electronics and Telecommunications<br />

of University of Florence.<br />

Pieraccini, M., Noferini, L., Mecatti, D., Atzeni, C., Teza, G., Galgaro, A., & Zaltron, N. 2006d.<br />

Integration of Radar Interferometry and Laser Scanning for Remote Monitoring of an Urban<br />

Site Built on a Sliding Slope. IEEE Transactions on Geoscience and Remote Sensing, Vol.44.<br />

Richards, J. A., & Xiuping, J. 2006. Remote Sensing Digital Image Analysis - An Introduction. 4th<br />

Edition. Springer-Verlag.<br />

Stebler, O. 2006. Einführung in die Radar-Fernerkundung (Skript Prof. Dr. D. Nüesch). Ausgabe 3.1.<br />

Geographisches Institut der Universität <strong>Zürich</strong>-Irchel.<br />

Tarchi, D., Antonello, G., Casagli, N., Farina, P., Fortuny-Guasch, J., Guerri, L., & Leva, D. 2005. On the<br />

Use of Ground-Based SAR Interferometry for Slope Failure Early Warning: the Cortenova Rock<br />

Slide (Italy). Springer Berlin Heidelberg Verlag.<br />

Unkelbach, A. 2003. http://www.unki.de/schulcd/physik/. Stand: 07.03.2008.<br />

Urban, C. 2007. Semiconductor Photosensors. Skript.<br />

Werner, Ch., Strozzi, T., Wiesmann, A., & Wegmüller, U. 2008. Gamma’s Portable Radar<br />

Interferometer. Gamma Remote Sensing AG.<br />

Wiesmann, A., Werner, Ch., Strozzi, T., & Wegmüller, U. 2008. Measuring Deformation and<br />

Topography with a Portable Radar Interferometer. Gamma Remote Sensing AG.<br />

Wikipedia. 2008. http://de.wikipedia.org/wiki/Radar. Stand: 28.02.2008.<br />

Wolff, Ch. 2008. http://www.radartutorial.eu. Stand: 28.02.2008.<br />

70


A<br />

Aufgabenstellung<br />

A-1


A Aufgabenstellung<br />

A-2


A Aufgabenstellung<br />

A-3


A Aufgabenstellung<br />

A-4


B<br />

Inhalt DVD<br />

Die untenstehende Liste beschreibt die Verzeichnisstruktur der beiliegenden DVD.<br />

• Daten<br />

– Testobjekte (Anlieferung, Biasca, Liechtenstein, Randa, Testfeld)<br />

– Kamerakalibrierung (Nikon D2Xs, Nikon D40x)<br />

• Literatur<br />

– Einzelbildorientierung<br />

– Radar<br />

• Programme<br />

– asc2xyz_cut (Kapitel G.1)<br />

– ascii2pts (Kapitel G.2)<br />

– colorize (Kapitel F)<br />

– CR_finder (Kapitel G.3)<br />

– pyDLT (Kapitel D)<br />

• Unterlagen<br />

– Aufgabenstellung<br />

– <strong>Bericht</strong><br />

– Bilder<br />

– Poster<br />

– Präsentation<br />

– Programme<br />

B-1


C<br />

Allgemeine Radargleichung<br />

Die Radargleichung beschreibt die physikalischen Zusammenhänge von der Sendeleistung über<br />

die Wellenausbreitung bis zum Empfang. Eine detaillierte Herleitung ist in (Stebler, 2006) oder<br />

(Wolff, 2008) zu finden.<br />

Wie am Anfang des Kapitels 2.1 erwähnt ist, breitet sich Radarstrahlung gleichmässig aus. Geht<br />

man von einem ungerichteten Kugelstrahler aus, so weisen Flächen mit gleichem Abstand vom<br />

Strahler gleiche Leistungsdichten auf. Die Leistungsdichte nimmt mit zunehmendem Abstand<br />

vom Zentrum ab, da sich die gleich bleibende Energie mit grösser werdendem Radius auf<br />

eine grössere Fläche verteilt (siehe Grafik C.1). Diese Eigenschaft ist auch in der Formel für die<br />

Kugelfläche A ersichtlich:<br />

A = 4π · R 2<br />

(C.1)<br />

Übertragen auf die ungerichtete Leistungsdichte Su erhält man folgende Formel:<br />

Su = Ps<br />

4π · R2 �<br />

W<br />

1 m2 �<br />

mit<br />

Su = Ungerichtete Leistungsdichte<br />

Ps = Sendeleistung<br />

R1 = Abstand Sendeantenne - Objekt<br />

Um die Leistungsdichte einer Antenne zu erhöhen, wird die Abstrahlung in eine Richtung<br />

konzentriert. Der Faktor der Strahlungskonzentration wird als AntennengewinnGs angegeben.<br />

�<br />

W<br />

Sg = Su · Gs<br />

m2 �<br />

(C.3)<br />

mit<br />

Sg = Gerichtete Leistungsdichte<br />

Gs = Antennengewinn (dimensionslos)<br />

(C.2)<br />

C-1


C Allgemeine Radargleichung<br />

Abbildung C.1: Ungerichtete Leistungsdichte eines Kugelstrahlers (Wolff, 2008)<br />

Ein reales Objekt reflektiert aber nicht die gesamte Strahlung in die Richtung der Antenne. Für die<br />

Bestimmung der nutzbaren reflektierten Leistung Pr wird der Rückstreuquerschnitt σ � m 2� eines<br />

Objekts definiert:<br />

mit<br />

Pr = Su · Gs · σ = Ps<br />

4π · R2 · Gs · σ [W] (C.4)<br />

1<br />

Pr = Reflektierte Leistung<br />

σ = Rückstreuquerschnitt<br />

Um bei Radarmessungen ein bestimmtes Ziel detektieren zu können, werden Eckreflektoren<br />

eingesetzt (siehe beispielsweise Abbildung 5.11). Diese haben einen hohen Rückstreuquerschnitt<br />

und senden deshalb ein grosses Echo, welches bei der Auswertung gut bestimmt werden kann.<br />

Betrachtet man das Zielobjekt ebenfalls als Strahler, wird die reflektierte Leistung zur<br />

abgestrahlten Leistung des Objekts. Empfangen wird diese am Empfangsort mit der<br />

Leistungsdichte Se:<br />

mit<br />

Se = Pr<br />

4π · R 2 2<br />

�<br />

W<br />

m2 �<br />

Se = Leistungsdichte am Empfangsort<br />

Pr = Reflektierte Leistung<br />

R2 = Abstand Objekt - Antenne<br />

Die Empfangsleistung Pe an der Antenne ist abhängig von der Leistungsdichte Se am<br />

Empfangsort und der Antennenfläche A:<br />

mit<br />

(C.5)<br />

Pe = Se · A [W] (C.6)<br />

Pe = Empfangsleistung<br />

A = Geometrische Antennenfläche<br />

C-2


C Allgemeine Radargleichung<br />

Die wirksame Antennenfläche Aw ist normalerweise aber kleiner als die geometrische<br />

Antennenfläche A, welche von der Geometrie der Antenne abhängt. Die Effizienz der<br />

Empfangsantenne wird durch den Faktor εeff beschrieben und A durch Aw ersetzt:<br />

� 2<br />

Aw = A · εeff m �<br />

(C.7)<br />

mit<br />

Aw = Wirksame Antennenfläche<br />

εeff = Effizienzfaktor der Empfangsantenne<br />

Setzt man die Gleichungen C.5 und C.7 in die Gleichung C.6 ein, kann für Pe geschrieben<br />

werden:<br />

Pe = Pr<br />

4π · R2 · Aw [W]<br />

2<br />

(C.8)<br />

Man kann die Annahme treffen, dass die Distanzen zwischen Sender und Objekt sowie zwischen<br />

Objekt und Empfänger gleich sind (also R1 = R2 = R). Setzt man zudem Pr aus der Gleichung<br />

C.4 in C.8 ein, erhält man für Pe:<br />

Pe = Ps · Gs · σ<br />

(4π) 2 · R 4 · Aw [W] (C.9)<br />

Der Antennengewinn Ge der Empfangsantenne kann nach (Stebler, 2006) aus ihrer wirksamen<br />

Fläche Aw berechnet werden:<br />

4π · Aw<br />

Ge =<br />

λ2 mit<br />

(C.10)<br />

Ge = Antennengewinn der Empfangsantenne<br />

λ = Wellenlänge des Signals<br />

Berücksichtigt man den Faktor Ge in der Formel C.9 und fügt einen allgemeinen Verlustfaktor L<br />

für die Systemverluste des Radars ein, erhält man für Pe:<br />

mit<br />

Pe = Ps · Gs · Ge · σ · λ 2 · L<br />

(4π) 3 · R 4 [W] (C.11)<br />

L = Verlustfaktor (Definition: L ≤ 1)<br />

Die obenstehende allgemeine Radarformel C.11 beschreibt das empfangene Signal mit seinen<br />

Parametern im Idealfall vollständig. Radargeräte messen aber immer auch ein Grundrauschen.<br />

Dieses kann durch Einflüsse aus dem Geräteinnern kommen oder auch von aussen in das Gerät<br />

gelangen. So wäre es interessant zu wissen, ob das empfangene Signal Pe vom Grundrauschen<br />

N [W] unterschieden werden kann.<br />

C-3


C Allgemeine Radargleichung<br />

Das Signal-Rausch-Verhältnis (signal-to-noise-ratio, SNR) beschreibt das Verhältnis zwischen dem<br />

empfangenen Signal und dem Grundrauschen:<br />

mit<br />

SNR = Pe<br />

N = Ps · Gs · Ge · σ · λ2 · L<br />

(4π) 3 · R4 · N<br />

SNR = Signal-Rausch-Verhältnis<br />

N = Grundrauschen<br />

[−] (C.12)<br />

Je höher das SNR ist, desto besser kann das Echo des Objekts im empfangenen Signal detektiert<br />

werden. Löst man die Gleichung C.12 bei bekanntem SNR nach R auf, so kann die maximale<br />

Reichweite Rmax eines Radars berechnet werden:<br />

�<br />

Rmax = 4<br />

Ps · Gs · Ge · σ · λ 2 · L<br />

(4π) 3 · N · SNR<br />

[m] (C.13)<br />

Man beachte, dass die maximale Reichweite der obenstehenden Formel nicht der maximalen<br />

Messentfernung in Formel 2.5 entspricht, welche die maximal messbare Distanz innerhalb einer<br />

Impulsfolgeperiode beschreibt. Rmax in Gleichung C.13 gibt jedoch die maximale Distanz an,<br />

in welcher ein Objekt mit bekannten Eigenschaften ein vom Rauschen unterscheidbares Echo<br />

zurückwirft.<br />

C-4


D<br />

pyDLT<br />

Die Einzelbildorientierung mittels DLT ist in Kapitel 4.1 beschrieben.<br />

D.1 Eingabedatei<br />

Beispiel Eingabedatei des Testobjekts Anlieferung, Kapitel 5.3<br />

1 8<br />

2 14.566 5.250 −0.405 823 1448<br />

3 1 1 . 2 0 1 −0.723 −1.325 2 1 1 1 1743<br />

4 17.040 −8.158 −1.319 3351 1577<br />

5 16.399 −8.584 2.024 3470 975<br />

6 2 1 . 2 8 1 −5.005 0.953 2626 1200<br />

7 1 1 . 1 9 7 −0.713 3.209 2100 495<br />

8 15.638 9.018 3 . 1 7 8 196 759<br />

9 15.658 9.040 −1.314 217 1638<br />

10 3872 2592<br />

11 0.006423611 0.006423611<br />

Listing D.1: input_anlieferung1.txt<br />

D-1


D.2 Programmcode<br />

1 import pyDLT , drawdiff<br />

2 import Image , ImageDraw<br />

3 import os<br />

4 from numpy import ∗<br />

5 from numpy . l i n a l g import ∗<br />

6 from math import ∗<br />

7<br />

8 # Parameter<br />

9 filename_koor = ’ input _anliefer ung1 . t xt ’<br />

10 filename_image = ’ DSC_1826 . JPG ’<br />

11 leaveOut = [ ] ;<br />

12<br />

Listing D.2: main.py<br />

13 p a r f i l e = f i l e ( filename_koor . p a r t i t i o n ( " . " ) [ 0 ] + ’ . par ’ , ’w ’ ) # "w" = Schreiben<br />

14 p a r f i l e . write ( filename_koor . p a r t i t i o n ( " . " ) [ 0 ] + ’ . c a l \n ’ )<br />

15 filename_image_new = filename_koor + ’ _ ’ +filename_image<br />

16<br />

17 x0 , y0 , c , X0 , Y0 , Z0 , R , cam , pImg ,pDOM, leaveOut = pyDLT . run ( filename_koor , leaveOut , p a r f i l e )<br />

18<br />

D pyDLT<br />

19 rms=drawdiff . run ( x0 , y0 , c , X0 , Y0 , Z0 , R , cam , pImg ,pDOM, leaveOut , filename_image , filename_image_new )<br />

20<br />

21 p a r f i l e . close ( )<br />

22<br />

23 os . system ( ’ eog ’ +filename_image_new )<br />

24 os . system ( ’ gedit ’ +filename_koor . p a r t i t i o n ( " . " ) [ 0 ] + ’ . par ’ )<br />

D-2


Listing D.3: pyDLT.py<br />

1 ###############################################################<br />

2 # Import<br />

3 ###############################################################<br />

4 from numpy import ∗<br />

5 from numpy . l i n a l g import ∗<br />

6 from math import ∗<br />

7<br />

8 ###############################################################<br />

9 # FUNCTIONS<br />

10 ###############################################################<br />

11<br />

12 # Message auf Konsole ausgeben<br />

13 # Input : message ( s t r i n g )<br />

14 def log ( message ) :<br />

15 p r i n t ’ >>> ’+message<br />

16<br />

17 # I n p u t f i l e e i n l e s e n<br />

18 # Input : filename ( s t r i n g )<br />

19 # Return : pointsDOM ( array ) , pointsImg ( array ) , camera ( array )<br />

20 def readInput ( filename ) :<br />

21 f i l e =open ( filename , ’ r ’ )<br />

22 numberOfEntries = i n t ( f i l e . r eadline ( ) )<br />

23 pointsDOM = empty ( ( numberOfEntries , 3 ) )<br />

24 pointsImg = empty ( ( numberOfEntries , 2 ) )<br />

25 for i in range (0 , numberOfEntries ) :<br />

26 row = f i l e . r eadline ( ) . r eplace ( ’ \n ’ , ’ ’ ) . s p l i t ( )<br />

27 for j in range (0 , 3 ) :<br />

28 pointsDOM[ i , j ] = f l o a t ( row [ j ] )<br />

29 for j in range (0 , 2 ) :<br />

30 pointsImg [ i , j ] = f l o a t ( row [ j + 3 ] )<br />

31 temp = f i l e . r eadline ( ) . r eplace ( ’ \n ’ , ’ ’ ) . s p l i t ( )<br />

32 temp1 = f i l e . r eadline ( ) . r eplace ( ’ \n ’ , ’ ’ ) . s p l i t ( )<br />

33 camera = ar r ay ( [ f l o a t ( temp [ 0 ] ) , f l o a t ( temp [ 1 ] ) , f l o a t ( temp1 [ 0 ] ) , f l o a t ( temp1 [ 1 ] ) ] )<br />

34 del ( temp ) ; del ( temp1 )<br />

35 return pointsDOM , pointsImg , camera<br />

36<br />

37 # K o n vertierung von P i x e l − zu metrischen Koordinaten<br />

38 # und Verschiebung Nullpunkt oben l i n k s −> Mitte<br />

39 # Input : p i x e l ( array ) , cam ( array )<br />

40 # Return : p i x e l ( array )<br />

41 def pixel2met r ic ( pixel , cam ) :<br />

42 nx = cam [ 0 ] ; ny = cam [ 1 ] ; mux = cam [ 2 ] ; muy = cam [ 3 ]<br />

43 metric = p i x e l . copy ( )<br />

44 p r i n t metric<br />

45 for row in metric :<br />

46 row [0] = ( row[0]−nx / 2)∗mux ;<br />

47 row [ 1 ] = ( ny/2−row [ 1 ] ) ∗ muy ;<br />

48 p r i n t metric<br />

49 return metric<br />

50<br />

51 # . i c f −Datei fuer A u s t r a l i s s chreiben<br />

52 # Input : metric ( array )<br />

53 # Return : −<br />

54 def w r i t e i c f ( metric ) :<br />

55 i c f = f i l e ( ’ metric . i c f ’ , ’w ’ )<br />

56 for i in range (0 , metric [ : ] . shape [ 0 ] ) :<br />

57 i c f . write ( s t r ( i +1)+ ’ ’ + s t r ( metric [ i , 0 ] ) + ’ ’ + s t r ( metric [ i , 1 ] ) + ’ \n ’ )<br />

58 i c f . close ( )<br />

59<br />

60 # Winkel aus Drehmatrix ( S p e z i a l f a e l l e von phi werden behandelt )<br />

61 # Input : R ( 3 x3 array )<br />

62 # Return : omega , phi , kappa ( a l l e s f l o a t )<br />

63 def rot2ang ( R ) :<br />

64 i f R [ 2 , 0 ] == 1 :<br />

65 omega = atan2 ( R [ 0 , 1 ] , R [ 1 , 1 ] ) ; p r i n t ’omega ’ ,omega , omega/ pi ∗180<br />

66 phi = pi ∗0.5<br />

67 kappa = 0; p r i n t ’ kappa ’ , kappa , kappa / pi ∗180<br />

D pyDLT<br />

D-3


68 e l i f R [ 2 , 0 ] == −1:<br />

69 omega = atan2 ( R [ 1 , 2 ] , R [ 0 , 2 ] ) ; p r i n t ’omega ’ ,omega , omega/ pi ∗180<br />

70 phi = −pi ∗0.5<br />

71 kappa = 0; p r i n t ’ kappa ’ , kappa , kappa / pi ∗180<br />

72 else :<br />

73 omega = atan2(−R [ 2 , 1 ] , R [ 2 , 2 ] ) ; p r i n t ’omega ’ ,omega , omega/ pi ∗180<br />

74 phi = asin ( R [ 2 , 0 ] ) ; p r i n t ’ phi ’ , phi , phi / pi ∗180<br />

75 kappa = atan2(−R [ 1 , 0 ] , R [ 0 , 0 ] ) ; p r i n t ’ kappa ’ , kappa , kappa / pi ∗180<br />

76 return omega , phi , kappa<br />

77<br />

78 # 1 . Berechnet d i e DLT−K o e f f i z i e n t e n m i t t e l s e i n e r Ausgleichung<br />

79 # 2 . Berechnet d i e i n n ere / a eussere Orientierung des B i l d e s aus den DLT−K o e f f i z i e n t e n<br />

80 # Input : k o o r _ b i l d ( array ) , koor_dom ( array ) , leaveOut ( l i s t )<br />

81 # Return : x0 , y0 , c , X0 , Y0 , Z0 ( a l l e f l o a t ) , R ( array ) , leaveOut ( l i s t )<br />

82 def runDLT ( koor_bild , koor_dom , leaveOut ) :<br />

83 points = koor_bild [ : ] . shape [0]<br />

84 leaveOutLen = len ( leaveOut ) ;<br />

85<br />

86 while points −leaveOutLen


136 r es = dot ( At , P )<br />

137 r es = dot ( res , A )<br />

138 r es = inv ( r es )<br />

139 r es = dot ( res , At )<br />

140 r es = dot ( res , P )<br />

141 r es = dot ( res , l )<br />

142 x = r es<br />

143<br />

144 # DLT Faktoren<br />

145 L 1 = x [ 0 ] ; L2 = x [ 1 ] ; L3 = x [ 2 ] ; L4 = x [ 3 ] ; L5 = x [ 4 ] ;<br />

146 L6 = x [ 5 ] ; L7 = x [ 6 ] ; L8 = x [ 7 ] ; L9 = x [ 8 ] ; L10 = x [ 9 ] ; L 1 1 = x [ 1 0 ] ;<br />

147 L = s qrt ( L9 ∗∗2 + L10 ∗∗2 + L 1 1 ∗∗2)<br />

148 abc = ar r ay ( [ ( L 1 [ 0 ] , L2 [ 0 ] , L3 [ 0 ] ) , ( L5 [ 0 ] , L6 [ 0 ] , L7 [ 0 ] ) , ( L9 [ 0 ] , L10 [ 0 ] , L 1 1 [ 0 ] ) ] )<br />

149 abc_a = abc [ 0 , : ]<br />

150 abc_b = abc [ 1 , : ]<br />

151 abc_c = abc [ 2 , : ]<br />

152 atc = dot ( abc_a . transpose ( ) , abc_c )<br />

153 btc = dot ( abc_b . transpose ( ) , abc_c )<br />

154 atb = dot ( abc_a . transpose ( ) , abc_b )<br />

155 ata = dot ( abc_a . transpose ( ) , abc_a )<br />

156 btb = dot ( abc_b . transpose ( ) , abc_b )<br />

157<br />

158 # I n n ere Orientierung<br />

159 x0 = atc / L ∗∗2; p r i n t ’ Bildhauptpunkt x0 : ’ , x0<br />

160 y0 = btc / L ∗∗2; p r i n t ’ Bildhauptpunkt y0 : ’ , y0<br />

161 cx2 = ata / L∗∗2−x0 ∗∗2; cx = s qrt ( cx2 )<br />

162 cy2 = btb / L∗∗2−y0 ∗∗2; cy = s qrt ( cy2 )<br />

163 c = ( cx+cy ) / 2 ; p r i n t ’ Kamerakonstante c : ’ , c<br />

164 c _ r a t i o = cy / cx ;<br />

165 # d = ( atb ∗( L ∗∗2)− atc ∗ btc ) / ( ata ∗( L ∗∗2)− atc ∗∗2)<br />

166 # m = −det ( abc ) / ( ( L ∗∗3)∗ cx2 )<br />

167<br />

168 # Aeussere Orientierung<br />

169 proj_zentrum = dot ( inv ( abc ) , ar r ay ( [ (−L4 [ 0 ] ) , (−L8 [ 0 ] ) , ( −1) ] ) ) ;<br />

170 X0 = proj_zentrum [ 0 ] ; p r i n t ’ Projektionszentrum X0 : ’ ,X0<br />

171 Y0 = proj_zentrum [ 1 ] ; p r i n t ’ Projektionszentrum Y0 : ’ ,Y0<br />

172 Z0 = proj_zentrum [ 2 ] ; p r i n t ’ Projektionszentrum Z0 : ’ ,Z0<br />

173<br />

174 # Drehmatrix R<br />

175 R = empty ( ( 3 , 3 ) )<br />

176 R [ 0 , 2 ] = L9 [ 0 ] / L # r 1 3<br />

177 R [ 1 , 2 ] = L10 [ 0 ] / L # r23<br />

178 R [ 2 , 2 ] = L 1 1 [ 0 ] / L # r33<br />

179<br />

180 R [0 ,0] = ( x0∗R[0 ,2] −( L 1 [ 0 ] / L ) ) / cx # r 1 1<br />

181 R [ 1 , 0 ] = ( x0∗R [1 ,2] −( L2 [ 0 ] / L ) ) / cx # r 2 1<br />

182 R [ 2 , 0 ] = ( x0∗R [2 ,2] −( L3 [ 0 ] / L ) ) / cx # r 3 1<br />

183<br />

184 R [ 0 , 1 ] = ( y0∗R[0 ,2] −( L5 [ 0 ] / L ) ) / cy # r 1 2<br />

185 R [ 1 , 1 ] = ( y0∗R [1 ,2] −( L6 [ 0 ] / L ) ) / cy # r22<br />

186 R [ 2 , 1 ] = ( y0∗R [2 ,2] −( L7 [ 0 ] / L ) ) / cy # r32<br />

187<br />

188 M = R . transpose ( )<br />

189<br />

190 p r i n t ’ Rotationsmatrix R : \ n ’ , R<br />

191 p r i n t ’ Rotationsmatrix M: \ n ’ ,M<br />

192 p r i n t ’M testen : \ n ’ , dot (M,M. transpose ( ) )<br />

193 # Winkel aus M<br />

194 p r i n t ’ Winkel aus M: ’<br />

195 rot2ang (M)<br />

196 # Winkel aus R<br />

197 p r i n t ’ Winkel aus R : ’<br />

198 rot2ang ( R )<br />

199 # Winkel aus −M<br />

200 p r i n t ’ Winkel aus −M: ’<br />

201 rot2ang(−M)<br />

202 p r i n t ’ Winkel aus −R : ’<br />

203 rot2ang(−R )<br />

D pyDLT<br />

D-5


204<br />

205 log ( ’ DLT ok \n ’ )<br />

206 return x0 , y0 , c , X0 , Y0 , Z0 , R , leaveOut<br />

207<br />

208 ###############################################################<br />

209 # MAIN SECTION<br />

210 ###############################################################<br />

211<br />

212 # pyDLT : Kombiniert d i e oben aufgefuehrten Funktionen<br />

213 # Input : filename ( s t r i n g )<br />

214 # Return : x0 , y0 , c , X0 , Y0 , Z0 ( a l l e f l o a t ) , R ( array ) , camera ( array ) , pointsImg ( array )<br />

215 def run ( filename , leaveOut , p a r f i l e ) :<br />

216 pointsDOM , pointsImg , camera = readInput ( filename )<br />

217 pointsImgM = pixel2met r ic ( pointsImg , camera )<br />

218 # w r i t e i c f ( pointsImgM )<br />

219 x0 , y0 , c , X0 , Y0 , Z0 , R , leaveOut = runDLT ( pointsImgM , pointsDOM , leaveOut )<br />

220<br />

D pyDLT<br />

221 log ( ’ Schreibe par−f i l e \n ’ )<br />

222 p a r f i l e . write ( ’ 1 \ n ’ )<br />

223 p a r f i l e . write ( s t r ( X0)+ ’ ’+ s t r ( Y0 )+ ’ ’ + s t r ( Z0)+ ’ \n ’ )<br />

224 omega , phi , kappa = rot2ang ( R ) ; p a r f i l e . write ( s t r ( omega)+ ’ ’ + s t r ( phi )+ ’ ’ + s t r ( kappa )+ ’ \n ’ )<br />

225 p a r f i l e . write ( s t r ( camera [ 0 ] ) + ’ ’+ s t r ( camera [ 1 ] ) + ’ \n ’ )<br />

226 p a r f i l e . write ( s t r ( camera [ 2 ] ) + ’ ’+ s t r ( camera [ 3 ] ) + ’ \n ’ )<br />

227 p a r f i l e . write ( s t r ( x0)+ ’ ’+ s t r ( y0 )+ ’ \n ’ )<br />

228 p a r f i l e . write ( s t r ( c )+ ’ \n ’ )<br />

229 p a r f i l e . write ( ’0 0\n0 0 0\n0 0\ n1 \n0 0 0\n0 0\n0 0 0\n0 0\n\n ’ )<br />

230 p a r f i l e . write ( s t r ( pointsDOM . shape [ 0 ] ) + ’ \n ’ )<br />

231 i = 1<br />

232 for row in pointsDOM :<br />

233 p a r f i l e . write ( s t r ( i )+ ’ ’+ s t r ( row [ 0 ] ) + ’ ’ + s t r ( row [ 1 ] ) + ’ ’ + s t r ( row [ 2 ] ) + ’ \n ’ )<br />

234 i +=1<br />

235 p a r f i l e . write ( ’ \n−1\n ’ )<br />

236 i = 1<br />

237 for row in pointsImg :<br />

238 p a r f i l e . write ( s t r ( i )+ ’ ’+ s t r ( i n t ( row [ 0 ] ) ) + ’ ’+ s t r ( i n t ( row [ 1 ] ) ) + ’ \n ’ )<br />

239 i +=1<br />

240 p a r f i l e . write ( ’ −1 ’ )<br />

241<br />

242 return x0 , y0 , c , X0 , Y0 , Z0 , R , camera , pointsImg , pointsDOM , leaveOut<br />

D-6


Listing D.4: drawdiff.py<br />

1 ###############################################################<br />

2 # Import<br />

3 ###############################################################<br />

4 from numpy import ∗<br />

5 from numpy . l i n a l g import ∗<br />

6 import Image , ImageDraw<br />

7<br />

8 ###############################################################<br />

9 # FUNCTIONS<br />

10 ###############################################################<br />

11<br />

12 # Message auf Konsole ausgeben<br />

13 # Input : message ( s t r i n g )<br />

14 def log ( message ) :<br />

15 p r i n t ’ >>> ’+message<br />

16<br />

17 # g e f u e l l t e s Rechteck zeichnen<br />

18 # Input : drawobj ( zeichnungs o b jekt ) , x ( i n t ) , y ( i n t ) , s i z e ( i n t ) , c o l o r ( s t r i n g )<br />

19 # Return : −<br />

20 def drawrect ( drawobj , x , y , size , c o l o r ) :<br />

21 drawobj . r ect angle ( [ x−size , y−size , x+ size , y+ s i z e ] , f i l l = c o l o r )<br />

22<br />

23 # Rechteck ( Rahmen) zeichnen<br />

24 # Input : drawobj ( zeichnungs o b jekt ) , x ( i n t ) , y ( i n t ) , s i z e ( i n t ) , c o l o r ( s t r i n g )<br />

25 # Return : −<br />

26 def drawrec ( drawobj , x , y , size , c o l o r ) :<br />

27 drawobj . l i n e ( ( x−size , y−size , x+ size , y−s i z e ) , f i l l = c o l o r )<br />

28 drawobj . l i n e ( ( x+ size , y−size , x+ size , y+ s i z e ) , f i l l = c o l o r )<br />

29 drawobj . l i n e ( ( x+ size , y+ size , x−size , y+ s i z e ) , f i l l = c o l o r )<br />

30 drawobj . l i n e ( ( x−size , y+ size , x−size , y−s i z e ) , f i l l = c o l o r )<br />

31<br />

32 def drawref ( drawobj , x , y , color , length ) :<br />

33 drawobj . l i n e ( ( x , y +1 , x+length , y + 1 ) , f i l l = c o l o r )<br />

34 drawobj . l i n e ( ( x , y +2 , x+length , y +2) , f i l l = c o l o r )<br />

35 drawobj . l i n e ( ( x , y +3 , x+length , y + 3 ) , f i l l = c o l o r )<br />

36 drawobj . l i n e ( ( x , y +4 ,x+length , y +4) , f i l l = c o l o r )<br />

37 drawobj . l i n e ( ( x , y +5 , x+length , y + 5 ) , f i l l = c o l o r )<br />

38 drawobj . t ext ( ( x , y +10) , ’ Referenzlaenge : ’+ s t r ( i n t ( length ) ) , f i l l =color , font=None )<br />

39<br />

40 # Rueckwaertsprojektion der 3D−Punkte i n das B i l d<br />

41 # Input : pointsDOM ( array ) , numberOfEntries ( i n t ) ,<br />

42 # x0 , y0 , c , X0 , Y0 , Z0 ( a l l e s f l o a t ) , R ( array ) , camera ( array )<br />

43 # Return : p o i n tsImgProj ( array )<br />

44 def rueckwaerts ( pointsDOM , x0 , y0 , c , X0 , Y0 , Z0 , R , camera ) :<br />

45 Ri = inv ( R )<br />

46 nx = camera [ 0 ] ; ny = camera [ 1 ] ; mux = camera [ 2 ] ; muy = camera [ 3 ]<br />

47 numberOfEntries = pointsDOM . shape [0]<br />

48 pointsImgProj = empty ( ( numberOfEntries , 2 ) )<br />

49 i = 0<br />

50<br />

51 for row in pointsDOM :<br />

52 dXYZ = row − ar r ay ( [ X0 , Y0 , Z0 ] )<br />

53 XYZ = dot ( Ri , dXYZ )<br />

54 s kalier ung = c /XYZ [ 2 ]<br />

55 xyz = s kalier ung ∗XYZ<br />

56 px = ( xyz [0]−x0 ) /mux ; px = i n t ( nx/2−px )<br />

57 py = ( xyz [1] −y0 ) /muy ; py = i n t ( ny/2+py )<br />

58 pointsImgProj [ i , 0 ] = px<br />

59 pointsImgProj [ i , 1 ] = py<br />

60 i +=1<br />

61 return pointsImgProj<br />

62<br />

63<br />

D pyDLT<br />

64 # Zeichnet d i e D i fferenzen i n ein neues B i l d<br />

65 # Input : pointsImg ( array ) , p o i n tsImgProj ( array ) , imgFilename ( s t r i n g ) , imgFilenameNew ( s t r i n g )<br />

66 # Return : −<br />

67 def run ( x0 , y0 , c , X0 , Y0 , Z0 , R , camera , pImg , pointsDOM , leaveOut , imgFilename , imgFilenameNew ) :<br />

D-7


D pyDLT<br />

68 numberOfEntries = pImg . shape [ 0 ] ;<br />

69 pImgProj = rueckwaerts ( pointsDOM , x0 , y0 , c , X0 , Y0 , Z0 , R , camera )<br />

70 im = Image . open ( imgFilename )<br />

71 draw = ImageDraw . Draw ( im )<br />

72 rms = 0<br />

73 for i in range (0 , numberOfEntries ) :<br />

74 i f i +1 in leaveOut :<br />

75 drawrec ( draw , pImg [ i , 0 ] , pImg [ i , 1 ] , 1 0 , ’ red ’ )<br />

76 draw . t ext ( ( pImg [ i , 0 ] + 1 5 , pImg [ i , 1 ] − 1 1 ) , s t r ( i + 1 ) , f i l l =None , font=None )<br />

77 else :<br />

78 drawrec ( draw , pImg [ i , 0 ] , pImg [ i , 1 ] , 1 0 , ’ green ’ )<br />

79 draw . t ext ( ( pImg [ i , 0 ] + 1 5 , pImg [ i , 1 ] − 1 1 ) , s t r ( i +1)+ ’ ( Passpunkt ) ’ )<br />

80 draw . l i n e ( ( pImg [ i , 0 ] , pImg [ i , 1 ] , pImgProj [ i , 0 ] , pImgProj [ i , 1 ] ) , f i l l = ’ yellow ’ )<br />

81<br />

82 dx = pImgProj [ i , 0 ] − pImg [ i , 0 ]<br />

83 dy = pImgProj [ i , 1 ] − pImg [ i , 1 ]<br />

84 de = s qrt ( dx∗∗2+dy ∗∗2)<br />

85 rms += de<br />

86 draw . t ext ( ( 1 5 , 1 5 ) , ’ E i n h e i t Residuen : P i x e l ’ , f i l l = ’ red ’ , font=None )<br />

87 rms = rms/ numberOfEntries<br />

88 draw . t ext ( ( 1 5 , 3 0 ) , ’ M i t t l e r e Residuengroesse : ’+ s t r ( i n t ( rms ) ) , f i l l = ’ red ’ , font=None )<br />

89 drawref ( draw , 1 5 , 4 5 , ’ green ’ ,200)<br />

90 p r i n t ’ Rueckprojektion mit einer mittler en Abweichung von ’ , rms , ’ abgeschlossen . ’<br />

91 del draw<br />

92 log ( ’ Schreibe ’ +imgFilenameNew )<br />

93 im . save ( imgFilenameNew , " JPEG " )<br />

94 return rms<br />

D-8


E<br />

viewcalibrate<br />

Die interaktive Orientierung mit dem Programm «viewcalibrate» ist in Kapitel 4.3.2 beschrieben.<br />

E.1 Eingabedatei .par<br />

1 randa . c a l<br />

2 1<br />

3 626338 106905 1975<br />

4 2.08 0 . 1 2 1 . 7 8<br />

5 4288.000 2848.000<br />

6 0.0055 0.0055<br />

7 0.000000 −0.000000<br />

8 18<br />

9 0.0 0.0<br />

10 0.0 0.0 0.0<br />

11 0.0 0.0<br />

12 1<br />

13 0 0 0<br />

14 0 0<br />

15 0 0 0<br />

16 0 0<br />

17<br />

18 7<br />

19 1 625906.162 107066.553 2 2 1 0 . 1 1 4<br />

20 2 626004.788 107044.440 2124.942<br />

21 3 625717.653 106810.854 2169.038<br />

22 4 626169.927 107035.493 1968.803<br />

23 5 626094.982 107008.580 2038.741<br />

24 6 626021.211 106463.674 1760.999<br />

25 7 626307.136 106994.345 1564.020<br />

26<br />

27 −1<br />

28 1 2692 604<br />

29 2 2762 742<br />

30 3 2 1 1 3 878<br />

31 4 2975 1128<br />

32 5 2826 987<br />

33 6 1394 1609<br />

34 7 3049 2251<br />

35 −1<br />

Listing E.1: randa.par<br />

E-1


1<br />

E.2 Ausgabedatei .cal<br />

Listing E.2: randa.cal<br />

2 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |<br />

3<br />

4 Results a f t e r 20 i t e r a t i o n s :<br />

5<br />

6 sigma0 = 9 7 5 . 1 1 micron<br />

7 X0 = 624366.1416 +/− 2.2635e+02<br />

8 Y0 = 1 0 7 1 2 6 . 5 1 5 4 +/− 2.2933e+02<br />

9 Z0 = 2271.3836 +/− 2.2700 e+02<br />

10 omega = 3.6188 +/− 1.6286 e−01<br />

11 phi = 0.8755 +/− 1 . 4 1 7 1 e−01<br />

12 kappa = 1.0869 +/− 2.3204e−01<br />

13 c = 18.0000 +/− 9 . 7 5 1 1 e −11<br />

14 xp = 7.6024e−22 +/− 9 . 7 5 1 1 e −11<br />

15 yp = −1.0162e−21 +/− 9 . 7 5 1 1 e −11<br />

16 k1 = 7.5653 e−18 +/− 9 . 7 5 1 1 e −11<br />

17 k2 = −1.0585 e−15 +/− 9 . 7 5 1 1 e −11<br />

18 k3 = −1.2692e−12 +/− 9.7507e −11<br />

19 p1 = −1.0136e−18 +/− 9 . 7 5 1 1 e −11<br />

20 p2 = 1.6936e−18 +/− 9 . 7 5 1 1 e −11<br />

21 scx = 3.7822 e−21 +/− 9 . 7 5 1 1 e −11<br />

22 she = −4.1277e−20 +/− 9 . 7 5 1 1 e −11<br />

23<br />

24 | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | | |<br />

25<br />

26 624366.1416 1 0 7 1 2 6 . 5 1 5 4 2271.3836<br />

27 3.6188 0.8755 1.0869<br />

28 4288.000 2848.000<br />

29 0.005500 0.005500<br />

30 0.000000 −0.000000<br />

31 18.0000<br />

32 1<br />

33 7.5653 e−18 −1.0585 e−15 −1.2692e−12<br />

34 −1.0136e−18 1.6936e−18<br />

35 3.7822 e−21 −4.1277e−20<br />

E viewcalibrate<br />

E-2


F<br />

colorize<br />

Mittels Rückprojektion werden den Punkten der .pts-Datei Farbwerte zugewiesen. Punkte,<br />

welche ausserhalb des Bildbereichs liegen, werden übersprungen. Die übrigen werden mit den<br />

Farbinformationen in eine neue .pts-Datei geschrieben (siehe Kapitel 5.1.6).<br />

Listing F.1: colorize.py<br />

1 ###############################################################<br />

2 # Import<br />

3 ###############################################################<br />

4 from numpy import ∗<br />

5 from numpy . l i n a l g import ∗<br />

6 import Image , ImageDraw<br />

7<br />

8 ###############################################################<br />

9 # D e f i n i t i o n e n<br />

10 ###############################################################<br />

11 ausgabe = 0 # Ausgabe auf Konsole ?<br />

12 pts = ’ S e l e c t i o n . pts ’ # PTS−Datei<br />

13 output = ’ S e l e c t i o n _ c o l o r i z e d . pts ’ # PTS−Outputdatei<br />

14 image = ’ DSC_1826 . JPG ’ # B i l d d a t e i<br />

15<br />

16 # Kamerainformationen<br />

17 nx = 3872<br />

18 ny = 2592<br />

19 mux = 0.006423611<br />

20 muy = 0.006423611<br />

21 # IO<br />

22 x0 = −0.1280<br />

23 y0 = −0.0880<br />

24 c = 1 8 . 5 5 8 7<br />

25 # EO ( P rojektionszentrum i n mm, Winkel i n radian )<br />

26 X0 = −272.1081/1000<br />

27 Y0 = −35.6580/1000<br />

28 Z0 = 212.0725/1000<br />

29 omega = 5.3330<br />

30 phi = −1.5742<br />

31 kappa = 10.0361<br />

32<br />

33 im = Image . open ( image )<br />

34 draw = ImageDraw . Draw ( im )<br />

35<br />

36 p t s f i l e =open ( pts , ’ r ’ )<br />

37 numberOfEntries = i n t ( p t s f i l e . r eadline ( ) )<br />

38<br />

39 of = f i l e ( output , ’w ’ ) # "w" = Schreiben<br />

40<br />

41<br />

F-1


42 def ang2rot ( omega , phi , kappa ) :<br />

43 R = empty ( ( 3 , 3 ) )<br />

44 # Bestimmung von R aus den Winkeln<br />

45 R [0 ,0] = cos ( phi )∗ cos ( kappa )<br />

46 R [ 0 , 1 ] = −cos ( phi )∗ s in ( kappa )<br />

47 R [ 0 , 2 ] = s in ( phi )<br />

48 R [ 1 , 0 ] = cos ( omega)∗ s in ( kappa )+ s in (omega)∗ s in ( phi )∗ cos ( kappa )<br />

49 R [ 1 , 1 ] = cos ( omega)∗ cos ( kappa)− s in (omega)∗ s in ( phi )∗ s in ( kappa )<br />

50 R [ 1 , 2 ] = −s in ( omega)∗ cos ( phi )<br />

51 R [ 2 , 0 ] = s in ( omega)∗ s in ( kappa)−cos (omega)∗ s in ( phi )∗ cos ( kappa )<br />

52 R [ 2 , 1 ] = s in ( omega)∗ cos ( kappa )+ cos (omega)∗ s in ( phi )∗ s in ( kappa )<br />

53 R [ 2 , 2 ] = cos ( omega)∗ cos ( phi )<br />

54 return R<br />

55<br />

56 of . write ( s t r ( numberOfEntries ) )<br />

57 coloredPoint s = 0<br />

58<br />

59 R = ang2rot ( omega , phi , kappa )<br />

60 Ri = inv ( R )<br />

61<br />

62 for i in range (0 , numberOfEntries ) :<br />

63 row = p t s f i l e . r eadline ( ) . r eplace ( ’ \n ’ , ’ ’ ) . s p l i t ( )<br />

64 X = f l o a t ( row [ 0 ] ) ; Y = f l o a t ( row [ 1 ] ) ; Z = f l o a t ( row [ 2 ] )<br />

65 #p r i n t i , X , Y , Z<br />

66<br />

67 dXYZ = ar r ay ( [ X , Y , Z ] ) − ar r ay ( [ X0 , Y0 , Z0 ] ) ; #p r i n t ’ dXYZ ’ , dXYZ<br />

68 XYZ = dot ( Ri , dXYZ ) ; #p r i n t ’ XYZ : ’ , XYZ<br />

69 s kalier ung = c /XYZ [ 2 ] ; #p r i n t ’ s k a l i e r u n g s f a k t o r : ’ , s k a l i e r u n g<br />

70 xyz = s kalier ung ∗XYZ ; #p r i n t ’ xyz metrisch : ’ , xyz<br />

71 px = ( xyz [0]−x0 ) /mux ; px = i n t ( nx/2−px )<br />

72 py = ( xyz [1] − y0 ) /muy ; py = i n t ( ny /2+py )<br />

73<br />

F colorize<br />

74 i f ( px >= 0 and px < nx and py >= 0 and py < ny ) :<br />

75 r , g , b = im . g e t p i x e l ( ( px , py ) )<br />

76 i f ( ausgabe == 1 ) :<br />

77 p r i n t i n t ( ( i +1)∗100/ numberOfEntries ) , ’% ’ , ’ ( ’ , px , py , ’ ) ’<br />

78 of . write ( ’ \n ’ + s t r ( X)+ ’ ’+ s t r ( Y )+ ’ ’ + s t r ( Z)+ ’ ’+ s t r ( r )+ ’ ’ + s t r ( g)+ ’ ’ + s t r ( b ) )<br />

79 coloredPoint s += 1<br />

80 else :<br />

81 i f ( ausgabe == 1 ) :<br />

82 p r i n t ’ progress ’ , i n t ( ( i +1)∗100/ numberOfEntries ) , ’% ’<br />

83 i +=1<br />

84<br />

85 p r i n t ’ T otal Punkte : ’ , numberOfEntries<br />

86 p r i n t ’ eingefaer bt : ’ , coloredPoint s<br />

87 p r i n t ’ geloescht : ’ , numberOfEntries−coloredPoint s<br />

88 of . close ( )<br />

F-2


G<br />

Weitere Programme<br />

Die hier aufgeführten wurden für Umformatierungen oder einfache Berechnungen verwendet.<br />

Sie sind in der zeilenbasierten Skriptsprache AWK geschrieben. Im Internet finden sich zahlreiche<br />

Einführungen und Referenzseiten zu AWK.<br />

Die AWK-Skriptdatei (*.awk) wird über den folgenden Aufruf ausgeführt:<br />

awk95 -f skriptdatei outputdatei<br />

G-1


G.1 Konvertierung des DTM-AV<br />

G Weitere Programme<br />

Dieses Skript wurde zur Umwandlungdes in Kapitel 5.4 verwendetenDTMs verwendet. Neben der<br />

Umformatierung der .asc-Quelldatei in eine .xyz-Datei kann das in die Outputdatei geschriebene<br />

Gebiet in Ost-West-Richtung durch die Parameter «limit_links» und «limit_rechts» begrenzt<br />

werden.<br />

Aufruf: awk95 -f asc2xyz_cut.awk tri_cut.xyz<br />

Listing G.1: asc2xyz_cut.awk<br />

1 BEGIN {<br />

2 FS = " " ;<br />

3 g e t l i n e ;<br />

4 ncols = $2 ; g e t l i n e ;<br />

5 nrows = $2 ; g e t l i n e ;<br />

6 x l l c o r n e r = i n t ( $2 ) ; g e t l i n e ;<br />

7 y l l c o r n e r = i n t ( $2 ) ; g e t l i n e ;<br />

8 c e l l s i z e = $2 ; g e t l i n e ;<br />

9 #p r i n t ( " n cols " n cols " nrows " nrows " x l l " x l l c o r n e r " y l l " y l l c o r n e r " cs " c e l l s i z e ) ;<br />

10 x = x l l c o r n e r ;<br />

11 y = y l l c o r n e r + nrows∗ c e l l s i z e ;<br />

12<br />

13 l i m i t _ l i n k s = 757914;<br />

14 l i m i t _ r e c h t s = 761929;<br />

15 }<br />

16 #−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−<br />

17 {<br />

18 x = x l l c o r n e r ;<br />

19 s p l i t ( $0 , ary , " " ) ;<br />

20 j = 1 ;<br />

21 for ( i in ary ) {<br />

22 i f ( x >= l i m i t _ l i n k s && x


G.2 Konvertierung von GPRI-Radardaten<br />

G Weitere Programme<br />

Das in Kapitel 5.5 verwendete Radar-Oberflächenmodell stand als Ascii-Datei zur Verfügung. In<br />

dieser sind die mit dem GPRI gemessenen als Raster von Höhenwerten gegeben, welche für die<br />

Verwendung in Leica Cyclone oder Geomagic Studio in ein XYZ-Format umgerechnet werden<br />

müssen. Die Höhen werden aus praktischen Gründen auf jene des GPRI (993 Meter) reduziert.<br />

Zellen ohne Wert (Null) werden nicht ausgegeben.<br />

Aufruf: awk95 -f ascii2pts.awk ght2_sm.pts<br />

1 BEGIN {<br />

2 p r i n t "ANZAHL PUNKTE HIER EINFUEGEN " ;<br />

3<br />

Listing G.2: ascii2pts.awk<br />

4 # Konstanten<br />

5 PI = 3 . 1 4 1 5 9 2 6 5 3 6 ;<br />

6 d_winkel = −0.1∗ PI / 180;<br />

7 winkel = 90∗ PI / 180;<br />

8 c o l _ r s = 1 . 5 ;<br />

9 col = 1 ;<br />

10 z _fact or = 1 ;<br />

11 }<br />

12 #−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−<br />

13 {<br />

14 i f ( $1 >0){<br />

15 d = col ∗ c o l _ r s ;<br />

16 z = ( $1 −993)∗ z _fact or ;<br />

17 x = s qrt ( d^2−z ^2)∗ cos ( winkel ) ;<br />

18 y = s qrt ( d^2−z ^2)∗ s in ( winkel ) ;<br />

19 p r i n t x " " y " " z ;<br />

20 }<br />

21 i f ( col


G.3 Koordinaten-Extraktion aus GPRI-Daten<br />

G Weitere Programme<br />

Um die XYZ-Koordinaten eines Eckreflektors aus einem GPRI-Datensatz zu extrahieren, wurde<br />

dieses Programm geschrieben. Im Programm muss die Zelle des Eckreflektors angegeben werden.<br />

Die Koordinaten werden in eine .pts-Datei geschrieben.<br />

Aufruf: awk95 -f cr_finder.awk CR.pts<br />

1 BEGIN {<br />

2 # Konstanten<br />

3 PI = 3 . 1 4 1 5 9 2 6 5 3 6 ;<br />

4 d_winkel = −0.1∗ PI / 180;<br />

5 winkel = 90∗ PI / 180;<br />

6 c o l _ r s = 1 . 5 ;<br />

7 col = 1 ;<br />

8 row = 1 ;<br />

9 z _fact or = 1 ;<br />

10<br />

11 # Z e l l e des E c k r e f l e k t o r s<br />

12 CR_range = 4 25;<br />

13 CR_azimuth = 759;<br />

14<br />

Listing G.3: cr_finder.awk<br />

15 p r i n t " 1 " ;<br />

16 }<br />

17 #−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−<br />

18 {<br />

19 i f ( $1 > 0){<br />

20 i f ( col == CR_range && row == CR_azimuth ) {<br />

21 d = col ∗ c o l _ r s ;<br />

22 z = ( $1 − 993) ∗ z _fact or ;<br />

23 x = s qrt ( d^2 − z ^2) ∗ cos ( winkel ) ;<br />

24 y = s qrt ( d^2 − z ^2) ∗ s in ( winkel ) ;<br />

25 p r i n t x " " y " " z ;<br />

26 }<br />

27 }<br />

28 i f ( col < 1500) col += 1 ;<br />

29 else {<br />

30 col = 1 ;<br />

31 winkel += d_winkel ;<br />

32 row += 1 ;<br />

33 }<br />

34 }<br />

G-4

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!