Relativitätstheorie - Fakultät für Physik und Astronomie - Universität ...

Relativitätstheorie - Fakultät für Physik und Astronomie - Universität ... Relativitätstheorie - Fakultät für Physik und Astronomie - Universität ...

physik.uni.wuerzburg.de
von physik.uni.wuerzburg.de Mehr von diesem Publisher
01.12.2012 Aufrufe

20 Mathematische Grundlagen 1.5.5 Darstellung von Tensoren Wegen ihrer Linearität lassen sich Tensoren in einer gegebenen Basis {ei} von V und der dazugehörigen dualen Basis {e j } von V ∗ in Komponenten darstellen. Dazu lassen wir einen Tensor vom Rang (q, p) auf q 1-Formen und p Vektoren wirken. Um deren Nummerierung von der Indizierung der Komponenten unterscheiden zu können, schreiben wir die Nummer des Arguments in runden Klammern: T(α (1) ,...,α (q) ; v (1),...,v (p)) = T � ∑α j1 (1) j1 e j1 , ..., ∑α jq (q) jq e jq ; ∑v i1 i1 (1) ei1 , ... ,∑ v ip ip (p) eip = ∑ α j1,..., jq,i1,...,ip (1) ···α j1 (q) jq vi1 (1) ···vip (p) T(e j1 jq ,...,e ; ei1 =: T j1 ... jq i1 ...ip Mit der Einsteinschen Summenkonvention gilt also T(α (1) ,...,α (q) ; v (1),...,v (p)) = T j1... jq ,...,eip ) . � �� � i1...ip α(1) ···α j1 (q) jq vi1 (1) ···vip (p) � (1.50) (1.51) Gemäß der oben eingeführten Nomenklatur heißen die oberen Indices kontravariant, die unteren dagegen kovariant. Die Zahlen T j1... jq i1...ip = T(e j1 jq ,...,e ; ei1 ,...,eip ) (1.52) sind die Komponenten des Tensors T, der sich als Linearkombination von Tensorprodukten der Basisvektoren darstellen lässt als T = T j1... jq i1...ip e j1 ⊗ ... ⊗ e jq ⊗ ei1 ⊗ ... ⊗ e ip . (1.53) Die Tensorprodukte der Basisvektoren kann man als Basisvektoren E k1...kq l1...lp := ek1 ⊗ ... ⊗ ekq ⊗ el1 ⊗ ... ⊗ e lp (1.54) eines Vektorraums � (q,p) V = (V ) ⊗q ⊗ (V ∗ ) ⊗p auffassen. Diese besitzen die Eigenschaft E k1...kq l1...lp � e j1 ,...,e jq ; ei1 ,...,eip Auf diese Weise lässt sich Gl. (1.53) kompakt schreiben als � j1,..., jq,l1,...,lp = δ . (1.55) k1,...,kq,i1,...,ip i1...ip T = T j1... jq i1...ip E j1... . (1.56) jq d.h. jeder Tensor lässt sich als Linearkombination dieser Basistensoren darstellen, wobei die Linearfaktoren gerade die in Gl. (1.51) definierten Tensorkomponenten sind: Die Relativitätstheorie arbeitet mit Tensoren bis zu einem Gesamtrang von q+ p = 4. In einer darstellungsabhängigen Formulierung wird die hier schon sichtbare „Indexgymnastik” schnell unübersichtlich und kann sogar die physikalische Bedeutung verschleiern. Auch deshalb ist es ratsam, eine darstellungsunabhängige Formulierung anzustreben. Natürlich erfordert jede konkrete Berechnung, beispielsweise auf einem Computer, die Verwendung einer geeigneten Darstellung. Haye Hinrichsen — Allgemeine Relativitätstheorie

1.5 Multilinearformen 21 1.5.6 Tensoren versus Matrizen Oft wird gesagt, dass Tensoren Matrizen und damit lineare Abbildungen wären. Streng genommen ist das nicht korrekt, da eine lineare Abbildung einen Vektor auf einen anderen Vektor abbildet, ein Tensor dagegen Vektoren und 1-Formen auf eine Zahl. Trotzdem gibt es einen engen Zusammenhang. Sei beispielsweise A eine lineare Abbildung eines Vektorraums V auf sich selbst, die durch eine quadratische Matrix A j i dargestellt wird. Auch wenn diese Matrix wie ein gemischter Tensor vom Rang (1,1) aussieht, liefert die Abbildung einen Vektor anstatt einer Zahl. Allerdings kann man diesen Ergebnisvektor mit einer weiteren 1-Form α zu einer Zahl kontrahieren. Damit erhält man einen Tensor vom Rang (1,1) TA(α,v) := α(Av)), (1.57) dessen Komponenten TA(e j ,ei) gerade die Matrixelemente A j i sind. Insofern lässt sich in der Tat jede lineare Abbildung als ein Tensor interpretieren. Bemerkung: Sie kennen das bereits aus der Quantentheorie: Einen Operator H kann man einerseits als lineare Abbildung H → H auf einem Hilbertraum H auffassen, andererseits aber auch als eine bilineare Abbildung, die einen ket-Vektor |ψ〉 ∈ H und einen bra-Vektor 〈φ| ∈ H ∗ auf eine Zahl 〈φ|H|ψ〉 ∈ C abbildet. 1.5.7 Tensorprodukt Das Tensorprodukt ⊗ verknüpft zwei Tensoren zu einem neuen Tensor höherer Stufe, indem einfach die Ergebnisse der beiden black boxes miteinander multipliziert werden. Der neue Tensor hat so viele Argumente wie die beiden ursprünglichen Tensoren zusammen, d.h. der Ränge dieser Tensoren addieren sich. Das Tensorprodukt ist also eine Abbildung ��(q1,p1) � ��(q2,p2) � V ⊗ V → � (q1+q2,p1+p2) V und ermöglicht, Tensoren höherer Stufe zu konstruieren. Als Beispiel betrachten wir zwei Linearformen α und β, also Tensoren vom Rang (0,1). Diese beiden Tensoren können zu einer Bilinearform γ = α ⊗ β, also zu Tensor vom Rang (0,2) verknüpft werden, indem man deren Ergebnisse einfach miteinander multipliziert: γ(v1,v2) = α(v1)β(v2) (1.58) Wichtig: Nicht alle Tensoren vom Rang (0,2) lassen sich in der Form α ⊗ β schreiben. Die beiden 1-Formen haben nämlich je drei, also zusammen sechs Freiheitsgrade, während in Tensor vom Rang (0,2) neun Freiheitsgrade besitzt. Deshalb bilden die Tensoren von der Form α ⊗ β nur eine Teilmenge von � (0,2) V , nämlich die Teilmenge der faktorisierbaren Tensoren. Erst bei Hinzunahme aller Linearkombinationen erhält man den gesamten Vektorraum (vgl. Abschnitt 1.4.3 auf S. 13). Das bedeutet, dass jeder nicht-faktorisierbare Tensor als (endliche) Linearkombination von Tensorprodukten geschrieben werden kann. Durch mehrfache Ausführung des Tensorprodukts kann man sukzessive Tensoren beliebig hohen Rangs erzeugen. Das Tensorprodukt ist also eine Verknüpfung, mit der man Tensoren höherer Stufe konstruieren kann. Haye Hinrichsen — Allgemeine Relativitätstheorie

1.5 Multilinearformen 21<br />

1.5.6 Tensoren versus Matrizen<br />

Oft wird gesagt, dass Tensoren Matrizen <strong>und</strong> damit lineare Abbildungen wären. Streng genommen<br />

ist das nicht korrekt, da eine lineare Abbildung einen Vektor auf einen anderen Vektor<br />

abbildet, ein Tensor dagegen Vektoren <strong>und</strong> 1-Formen auf eine Zahl. Trotzdem gibt es einen<br />

engen Zusammenhang. Sei beispielsweise A eine lineare Abbildung eines Vektorraums V auf<br />

sich selbst, die durch eine quadratische Matrix A j<br />

i dargestellt wird. Auch wenn diese Matrix wie<br />

ein gemischter Tensor vom Rang (1,1) aussieht, liefert die Abbildung einen Vektor anstatt einer<br />

Zahl. Allerdings kann man diesen Ergebnisvektor mit einer weiteren 1-Form α zu einer Zahl<br />

kontrahieren. Damit erhält man einen Tensor vom Rang (1,1)<br />

TA(α,v) := α(Av)), (1.57)<br />

dessen Komponenten TA(e j ,ei) gerade die Matrixelemente A j<br />

i sind. Insofern lässt sich in der Tat<br />

jede lineare Abbildung als ein Tensor interpretieren.<br />

Bemerkung: Sie kennen das bereits aus der Quantentheorie: Einen Operator H kann man einerseits<br />

als lineare Abbildung H → H auf einem Hilbertraum H auffassen, andererseits aber auch als eine<br />

bilineare Abbildung, die einen ket-Vektor |ψ〉 ∈ H <strong>und</strong> einen bra-Vektor 〈φ| ∈ H ∗ auf eine Zahl<br />

〈φ|H|ψ〉 ∈ C abbildet.<br />

1.5.7 Tensorprodukt<br />

Das Tensorprodukt ⊗ verknüpft zwei Tensoren zu einem<br />

neuen Tensor höherer Stufe, indem einfach die Ergebnisse<br />

der beiden black boxes miteinander multipliziert werden.<br />

Der neue Tensor hat so viele Argumente wie die beiden<br />

ursprünglichen Tensoren zusammen, d.h. der Ränge<br />

dieser Tensoren addieren sich. Das Tensorprodukt ist also<br />

eine Abbildung<br />

��(q1,p1) � ��(q2,p2) �<br />

V ⊗ V → � (q1+q2,p1+p2)<br />

V<br />

<strong>und</strong> ermöglicht, Tensoren höherer Stufe zu konstruieren.<br />

Als Beispiel betrachten wir zwei Linearformen α <strong>und</strong> β, also Tensoren vom Rang (0,1). Diese<br />

beiden Tensoren können zu einer Bilinearform γ = α ⊗ β, also zu Tensor vom Rang (0,2)<br />

verknüpft werden, indem man deren Ergebnisse einfach miteinander multipliziert:<br />

γ(v1,v2) = α(v1)β(v2) (1.58)<br />

Wichtig: Nicht alle Tensoren vom Rang (0,2) lassen sich in der Form α ⊗ β schreiben. Die beiden<br />

1-Formen haben nämlich je drei, also zusammen sechs Freiheitsgrade, während in Tensor<br />

vom Rang (0,2) neun Freiheitsgrade besitzt. Deshalb bilden die Tensoren von der Form α ⊗ β<br />

nur eine Teilmenge von � (0,2) V , nämlich die Teilmenge der faktorisierbaren Tensoren. Erst bei<br />

Hinzunahme aller Linearkombinationen erhält man den gesamten Vektorraum (vgl. Abschnitt<br />

1.4.3 auf S. 13). Das bedeutet, dass jeder nicht-faktorisierbare Tensor als (endliche) Linearkombination<br />

von Tensorprodukten geschrieben werden kann.<br />

Durch mehrfache Ausführung des Tensorprodukts kann man sukzessive Tensoren beliebig<br />

hohen Rangs erzeugen. Das Tensorprodukt ist also eine Verknüpfung, mit der man Tensoren<br />

höherer Stufe konstruieren kann.<br />

Haye Hinrichsen — Allgemeine <strong>Relativitätstheorie</strong>

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!