Relativitätstheorie - Fakultät für Physik und Astronomie - Universität ...
Relativitätstheorie - Fakultät für Physik und Astronomie - Universität ... Relativitätstheorie - Fakultät für Physik und Astronomie - Universität ...
20 Mathematische Grundlagen 1.5.5 Darstellung von Tensoren Wegen ihrer Linearität lassen sich Tensoren in einer gegebenen Basis {ei} von V und der dazugehörigen dualen Basis {e j } von V ∗ in Komponenten darstellen. Dazu lassen wir einen Tensor vom Rang (q, p) auf q 1-Formen und p Vektoren wirken. Um deren Nummerierung von der Indizierung der Komponenten unterscheiden zu können, schreiben wir die Nummer des Arguments in runden Klammern: T(α (1) ,...,α (q) ; v (1),...,v (p)) = T � ∑α j1 (1) j1 e j1 , ..., ∑α jq (q) jq e jq ; ∑v i1 i1 (1) ei1 , ... ,∑ v ip ip (p) eip = ∑ α j1,..., jq,i1,...,ip (1) ···α j1 (q) jq vi1 (1) ···vip (p) T(e j1 jq ,...,e ; ei1 =: T j1 ... jq i1 ...ip Mit der Einsteinschen Summenkonvention gilt also T(α (1) ,...,α (q) ; v (1),...,v (p)) = T j1... jq ,...,eip ) . � �� � i1...ip α(1) ···α j1 (q) jq vi1 (1) ···vip (p) � (1.50) (1.51) Gemäß der oben eingeführten Nomenklatur heißen die oberen Indices kontravariant, die unteren dagegen kovariant. Die Zahlen T j1... jq i1...ip = T(e j1 jq ,...,e ; ei1 ,...,eip ) (1.52) sind die Komponenten des Tensors T, der sich als Linearkombination von Tensorprodukten der Basisvektoren darstellen lässt als T = T j1... jq i1...ip e j1 ⊗ ... ⊗ e jq ⊗ ei1 ⊗ ... ⊗ e ip . (1.53) Die Tensorprodukte der Basisvektoren kann man als Basisvektoren E k1...kq l1...lp := ek1 ⊗ ... ⊗ ekq ⊗ el1 ⊗ ... ⊗ e lp (1.54) eines Vektorraums � (q,p) V = (V ) ⊗q ⊗ (V ∗ ) ⊗p auffassen. Diese besitzen die Eigenschaft E k1...kq l1...lp � e j1 ,...,e jq ; ei1 ,...,eip Auf diese Weise lässt sich Gl. (1.53) kompakt schreiben als � j1,..., jq,l1,...,lp = δ . (1.55) k1,...,kq,i1,...,ip i1...ip T = T j1... jq i1...ip E j1... . (1.56) jq d.h. jeder Tensor lässt sich als Linearkombination dieser Basistensoren darstellen, wobei die Linearfaktoren gerade die in Gl. (1.51) definierten Tensorkomponenten sind: Die Relativitätstheorie arbeitet mit Tensoren bis zu einem Gesamtrang von q+ p = 4. In einer darstellungsabhängigen Formulierung wird die hier schon sichtbare „Indexgymnastik” schnell unübersichtlich und kann sogar die physikalische Bedeutung verschleiern. Auch deshalb ist es ratsam, eine darstellungsunabhängige Formulierung anzustreben. Natürlich erfordert jede konkrete Berechnung, beispielsweise auf einem Computer, die Verwendung einer geeigneten Darstellung. Haye Hinrichsen — Allgemeine Relativitätstheorie
1.5 Multilinearformen 21 1.5.6 Tensoren versus Matrizen Oft wird gesagt, dass Tensoren Matrizen und damit lineare Abbildungen wären. Streng genommen ist das nicht korrekt, da eine lineare Abbildung einen Vektor auf einen anderen Vektor abbildet, ein Tensor dagegen Vektoren und 1-Formen auf eine Zahl. Trotzdem gibt es einen engen Zusammenhang. Sei beispielsweise A eine lineare Abbildung eines Vektorraums V auf sich selbst, die durch eine quadratische Matrix A j i dargestellt wird. Auch wenn diese Matrix wie ein gemischter Tensor vom Rang (1,1) aussieht, liefert die Abbildung einen Vektor anstatt einer Zahl. Allerdings kann man diesen Ergebnisvektor mit einer weiteren 1-Form α zu einer Zahl kontrahieren. Damit erhält man einen Tensor vom Rang (1,1) TA(α,v) := α(Av)), (1.57) dessen Komponenten TA(e j ,ei) gerade die Matrixelemente A j i sind. Insofern lässt sich in der Tat jede lineare Abbildung als ein Tensor interpretieren. Bemerkung: Sie kennen das bereits aus der Quantentheorie: Einen Operator H kann man einerseits als lineare Abbildung H → H auf einem Hilbertraum H auffassen, andererseits aber auch als eine bilineare Abbildung, die einen ket-Vektor |ψ〉 ∈ H und einen bra-Vektor 〈φ| ∈ H ∗ auf eine Zahl 〈φ|H|ψ〉 ∈ C abbildet. 1.5.7 Tensorprodukt Das Tensorprodukt ⊗ verknüpft zwei Tensoren zu einem neuen Tensor höherer Stufe, indem einfach die Ergebnisse der beiden black boxes miteinander multipliziert werden. Der neue Tensor hat so viele Argumente wie die beiden ursprünglichen Tensoren zusammen, d.h. der Ränge dieser Tensoren addieren sich. Das Tensorprodukt ist also eine Abbildung ��(q1,p1) � ��(q2,p2) � V ⊗ V → � (q1+q2,p1+p2) V und ermöglicht, Tensoren höherer Stufe zu konstruieren. Als Beispiel betrachten wir zwei Linearformen α und β, also Tensoren vom Rang (0,1). Diese beiden Tensoren können zu einer Bilinearform γ = α ⊗ β, also zu Tensor vom Rang (0,2) verknüpft werden, indem man deren Ergebnisse einfach miteinander multipliziert: γ(v1,v2) = α(v1)β(v2) (1.58) Wichtig: Nicht alle Tensoren vom Rang (0,2) lassen sich in der Form α ⊗ β schreiben. Die beiden 1-Formen haben nämlich je drei, also zusammen sechs Freiheitsgrade, während in Tensor vom Rang (0,2) neun Freiheitsgrade besitzt. Deshalb bilden die Tensoren von der Form α ⊗ β nur eine Teilmenge von � (0,2) V , nämlich die Teilmenge der faktorisierbaren Tensoren. Erst bei Hinzunahme aller Linearkombinationen erhält man den gesamten Vektorraum (vgl. Abschnitt 1.4.3 auf S. 13). Das bedeutet, dass jeder nicht-faktorisierbare Tensor als (endliche) Linearkombination von Tensorprodukten geschrieben werden kann. Durch mehrfache Ausführung des Tensorprodukts kann man sukzessive Tensoren beliebig hohen Rangs erzeugen. Das Tensorprodukt ist also eine Verknüpfung, mit der man Tensoren höherer Stufe konstruieren kann. Haye Hinrichsen — Allgemeine Relativitätstheorie
- Seite 1: Allgemeine Relativitätstheorie —
- Seite 4 und 5: Inhaltsverzeichnis 1.6 Metrik . . .
- Seite 6 und 7: Inhaltsverzeichnis 4.3.4 Ricci-Tens
- Seite 9: Vorwort Die absolute, wahre und mat
- Seite 12 und 13: 4 Mathematische Grundlagen Ein Beis
- Seite 14 und 15: 6 Mathematische Grundlagen s ◦ s
- Seite 16 und 17: 8 Mathematische Grundlagen Abbildun
- Seite 18 und 19: 10 Mathematische Grundlagen Kern un
- Seite 20 und 21: 12 Mathematische Grundlagen 1.4 Zus
- Seite 22 und 23: 14 Mathematische Grundlagen In dies
- Seite 24 und 25: 16 Mathematische Grundlagen Bemerku
- Seite 26 und 27: 18 Mathematische Grundlagen Zu jede
- Seite 30 und 31: 22 Mathematische Grundlagen 1.5.8 D
- Seite 32 und 33: 24 Mathematische Grundlagen 1.5.11
- Seite 34 und 35: 26 Mathematische Grundlagen (1,1,1,
- Seite 36 und 37: 28 Mathematische Grundlagen Mit die
- Seite 38 und 39: 30 Mathematische Grundlagen Wir wen
- Seite 40 und 41: 32 Differentialformen sämtliche Te
- Seite 42 und 43: 34 Differentialformen kann. Folglic
- Seite 44 und 45: 36 Differentialformen Eine faktoris
- Seite 46 und 47: 38 Differentialformen 2.1.8 Darstel
- Seite 48 und 49: 40 Differentialformen Um das Hodge-
- Seite 50 und 51: 42 Differentialformen Bemerkung: Si
- Seite 52 und 53: 44 Differentialformen 2.2.7 Eigensc
- Seite 54 und 55: 46 Differentialformen symmetrischen
- Seite 56 und 57: 48 Differentialformen Tangentialrau
- Seite 58 und 59: 50 Differentialformen Abbildung 2.3
- Seite 60 und 61: 52 Differentialformen Abbildung 2.4
- Seite 62 und 63: 54 Differentialformen TpU T ∗ p U
- Seite 64 und 65: 56 Differentialformen 2.4.1 Verallg
- Seite 66 und 67: 58 Differentialformen lässt sich a
- Seite 68 und 69: 60 Differentialformen Die nebensteh
- Seite 70 und 71: 62 Differentialformen von p Variabl
- Seite 73 und 74: 3 Spezielle Relativitätstheorie Di
- Seite 75 und 76: 3.1 Nichtrelativistische Mechanik 6
- Seite 77 und 78: 3.1 Nichtrelativistische Mechanik 6
1.5 Multilinearformen 21<br />
1.5.6 Tensoren versus Matrizen<br />
Oft wird gesagt, dass Tensoren Matrizen <strong>und</strong> damit lineare Abbildungen wären. Streng genommen<br />
ist das nicht korrekt, da eine lineare Abbildung einen Vektor auf einen anderen Vektor<br />
abbildet, ein Tensor dagegen Vektoren <strong>und</strong> 1-Formen auf eine Zahl. Trotzdem gibt es einen<br />
engen Zusammenhang. Sei beispielsweise A eine lineare Abbildung eines Vektorraums V auf<br />
sich selbst, die durch eine quadratische Matrix A j<br />
i dargestellt wird. Auch wenn diese Matrix wie<br />
ein gemischter Tensor vom Rang (1,1) aussieht, liefert die Abbildung einen Vektor anstatt einer<br />
Zahl. Allerdings kann man diesen Ergebnisvektor mit einer weiteren 1-Form α zu einer Zahl<br />
kontrahieren. Damit erhält man einen Tensor vom Rang (1,1)<br />
TA(α,v) := α(Av)), (1.57)<br />
dessen Komponenten TA(e j ,ei) gerade die Matrixelemente A j<br />
i sind. Insofern lässt sich in der Tat<br />
jede lineare Abbildung als ein Tensor interpretieren.<br />
Bemerkung: Sie kennen das bereits aus der Quantentheorie: Einen Operator H kann man einerseits<br />
als lineare Abbildung H → H auf einem Hilbertraum H auffassen, andererseits aber auch als eine<br />
bilineare Abbildung, die einen ket-Vektor |ψ〉 ∈ H <strong>und</strong> einen bra-Vektor 〈φ| ∈ H ∗ auf eine Zahl<br />
〈φ|H|ψ〉 ∈ C abbildet.<br />
1.5.7 Tensorprodukt<br />
Das Tensorprodukt ⊗ verknüpft zwei Tensoren zu einem<br />
neuen Tensor höherer Stufe, indem einfach die Ergebnisse<br />
der beiden black boxes miteinander multipliziert werden.<br />
Der neue Tensor hat so viele Argumente wie die beiden<br />
ursprünglichen Tensoren zusammen, d.h. der Ränge<br />
dieser Tensoren addieren sich. Das Tensorprodukt ist also<br />
eine Abbildung<br />
��(q1,p1) � ��(q2,p2) �<br />
V ⊗ V → � (q1+q2,p1+p2)<br />
V<br />
<strong>und</strong> ermöglicht, Tensoren höherer Stufe zu konstruieren.<br />
Als Beispiel betrachten wir zwei Linearformen α <strong>und</strong> β, also Tensoren vom Rang (0,1). Diese<br />
beiden Tensoren können zu einer Bilinearform γ = α ⊗ β, also zu Tensor vom Rang (0,2)<br />
verknüpft werden, indem man deren Ergebnisse einfach miteinander multipliziert:<br />
γ(v1,v2) = α(v1)β(v2) (1.58)<br />
Wichtig: Nicht alle Tensoren vom Rang (0,2) lassen sich in der Form α ⊗ β schreiben. Die beiden<br />
1-Formen haben nämlich je drei, also zusammen sechs Freiheitsgrade, während in Tensor<br />
vom Rang (0,2) neun Freiheitsgrade besitzt. Deshalb bilden die Tensoren von der Form α ⊗ β<br />
nur eine Teilmenge von � (0,2) V , nämlich die Teilmenge der faktorisierbaren Tensoren. Erst bei<br />
Hinzunahme aller Linearkombinationen erhält man den gesamten Vektorraum (vgl. Abschnitt<br />
1.4.3 auf S. 13). Das bedeutet, dass jeder nicht-faktorisierbare Tensor als (endliche) Linearkombination<br />
von Tensorprodukten geschrieben werden kann.<br />
Durch mehrfache Ausführung des Tensorprodukts kann man sukzessive Tensoren beliebig<br />
hohen Rangs erzeugen. Das Tensorprodukt ist also eine Verknüpfung, mit der man Tensoren<br />
höherer Stufe konstruieren kann.<br />
Haye Hinrichsen — Allgemeine <strong>Relativitätstheorie</strong>