06.05.2013 Aufrufe

Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)

Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)

Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)

MEHR ANZEIGEN
WENIGER ANZEIGEN

Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.

YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.

<strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong><br />

<strong>Statistische</strong> <strong>Physik</strong> (I)<br />

Version vom WS 2003/2004 ∗<br />

Universität Bielefeld<br />

Fakultät für <strong>Physik</strong><br />

Theorie der kondensierten Materie<br />

Prof. Dr. Friederike Schmid †<br />

Inhalt: Rekapitulation empirischer Tatsachen<br />

Makroskopischer Zugang: Gr<strong>und</strong>lagen der statistischen <strong>Physik</strong><br />

Mikroskopische Dynamik<br />

Einschub: Kurze Einführung in die Wahrscheinlichkeitstheorie<br />

Das Prinzip der maximalen Ignoranz (Jaynesches Prinzip)<br />

<strong>Statistische</strong> Gesamtheiten<br />

Kontakt zur Wärmelehre<br />

Beziehungen zwischen Zustandsgrößen<br />

<strong>Thermodynamik</strong><br />

Postulate der <strong>Thermodynamik</strong> (Entropiepostulate)<br />

Gibbs’sche Gr<strong>und</strong>form<br />

Thermodynamische Potentiale<br />

Prozesse <strong>und</strong> zweiter Hauptsatz<br />

Nicht-einfache Systeme<br />

Quantenstatistik <strong>und</strong> quantenmechanische Vielteilchensysteme<br />

<strong>Statistische</strong> Quantenmechanik<br />

Quantenmechanische Vielteilchensysteme<br />

Ideale Quantengase<br />

Phasengleichgewichte <strong>und</strong> Phasenübergänge<br />

<strong>Thermodynamik</strong> von Phasengleichgewichten <strong>und</strong> Phasenübergängen<br />

<strong>Statistische</strong> <strong>Physik</strong> von Phasenübergängen<br />

Computersimulationen in der statistischen <strong>Physik</strong><br />

∗ Elektronisch: Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05<br />

† E5-114, Tel. (0521-)106-6191,


c○ Copyright 2004 Friederike Schmid<br />

Die Verteilung dieses Dokuments in elektronischer oder gedruckter Form<br />

ist gestattet, solange sein Inhalt einschließlich Autoren- <strong>und</strong> Copyright-Angabe<br />

unverändert bleibt <strong>und</strong> die Verteilung kostenlos erfolgt, abgesehen von einer<br />

Gebühr für den Datenträger, den Kopiervorgang usw.<br />

Das im Original handschriftlich vorliegende Skript entspricht dem Tafelbild<br />

bei der <strong>Vorlesung</strong>. Es wurde 1:1 mit L ATEX umgesetzt ‡ .<br />

‡ von C. Schmid,


Inhaltsverzeichnis<br />

0 Einleitung 7<br />

1 Rekapitulation empirischer Tatsachen 11<br />

1.1 Begriffe <strong>und</strong> Konzepte . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

1.1.1 Druck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

1.1.2 Temperatur . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />

1.1.3 Wärme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />

1.1.4 Zustandsgrößen . . . . . . . . . . . . . . . . . . . . . . . . 13<br />

1.1.5 Thermodynamisches Gleichgewicht . . . . . . . . . . . . . 14<br />

1.1.6 Reversibilität <strong>und</strong> Irreversibilität . . . . . . . . . . . . . . 15<br />

2 Mikroskopischer Zugang: Gr<strong>und</strong>lagen 17<br />

2.1 Mikroskopische Dynamik . . . . . . . . . . . . . . . . . . . . . . . 17<br />

2.1.1 Mikroskopische Charakterisierung eines Systems . . . . . 17<br />

2.1.2 Eigenschaften der Dynamik . . . . . . . . . . . . . . . . . 18<br />

2.1.3 Bedeutung der Ergodizitätsannahme . . . . . . . . . . . . 18<br />

2.2 Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . . 20<br />

2.2.0 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />

2.2.0.1 Fragestellungen . . . . . . . . . . . . . . . . . . 20<br />

2.2.0.2 Frage (B): Wie ermittelt man Wahrscheinlichkeiten?<br />

. . . . . . . . . . . . . . . . . . . . . . . 20<br />

2.2.0.3 Frage (A): Was ” ist“ überhaupt Wahrscheinlichkeit?<br />

. . . . . . . . . . . . . . . . . . . . . . . . . 24<br />

2.2.1 Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . 24<br />

2.2.2 Bedingte Wahrscheinlichkeit<br />

<strong>und</strong> <strong>Statistische</strong> Unabhängigkeit . . . . . . . . . . . . . . 25<br />

2.2.3 Zufallsvariablen <strong>und</strong> Wahrscheinlichkeitsverteilung . . . . 26<br />

2.2.4 Erwartungswert, Streuung, Korrelationen . . . . . . . . . 27<br />

2.2.5 Spezielle Verteilungen . . . . . . . . . . . . . . . . . . . . 29<br />

2.2.6 Grenzverteilungen <strong>und</strong> zentraler Grenzwertsatz . . . . . . 30<br />

2.2.6.1 Zentraler Grenzwertsatz nach Lindenberg-Lévy . 30<br />

2.2.7<br />

2.2.6.2 Allgemeines zu Lévy-Verteilungen (ohne Beweis) . . 31<br />

” Dynamik“ von Zufallsvariablen: Stochastische Prozesse . 32<br />

2.2.7.1 Begriffe <strong>und</strong> Definitionen . . . . . . . . . . . . . 32<br />

2.2.7.2 Beispiele für Markov-Prozesse . . . . . . . . . . 32<br />

2.2.7.3 Dynamische Gleichungen für Markov-Prozesse . 33<br />

3


4 INHALTSVERZEICHNIS<br />

2.3 Das Prinzip der maximalen Ignoranz . . . . . . . . . . . . . . . . 36<br />

2.3.1 Der Gr<strong>und</strong>gedanke der statistischen Mechanik . . . . . . 36<br />

2.3.1.1 Erinnerung an Kapitel 2.1: Ergodizität . . . . . 36<br />

2.3.1.2 Das Prinzip der maximalen Ignoranz . . . . . . 37<br />

2.3.2 Ignoranz <strong>und</strong> Informationsentropie . . . . . . . . . . . . . 37<br />

2.3.2.1 Informationsentropie als quantitatives Maß für<br />

Ignoranz . . . . . . . . . . . . . . . . . . . . . . 37<br />

2.3.2.2 Eigenschaften der Informationsentropie . . . . . 40<br />

2.3.3 Das Jaynesche Prinzip . . . . . . . . . . . . . . . . . . . . 41<br />

2.4 <strong>Statistische</strong> Gesamtheiten . . . . . . . . . . . . . . . . . . . . . . 42<br />

2.4.1 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . 42<br />

2.4.1.1 Charakterisierung der Systeme . . . . . . . . . . 42<br />

2.4.1.2 Festlegung der Konstanten . . . . . . . . . . . . 43<br />

2.4.1.3 Weitere Annahmen . . . . . . . . . . . . . . . . 44<br />

2.4.2 Mikrokanonische Gesamtheit . . . . . . . . . . . . . . . . 45<br />

2.4.3 Kanonische Gesamtheit . . . . . . . . . . . . . . . . . . . 46<br />

2.4.4 Großkanonische Gesamtheit . . . . . . . . . . . . . . . . . 47<br />

2.4.5 Volumenschwankungen: Enthalpisches Ensemble . . . . . 48<br />

2.4.6 Gesamtheiten mit verschiedenen Teilchensorten . . . . . . 49<br />

2.5 Kontakt zur Wärmelehre . . . . . . . . . . . . . . . . . . . . . . 50<br />

2.5.0 Vorbemerkung . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

2.5.1 Das klassische ideale Gas . . . . . . . . . . . . . . . . . . 51<br />

2.5.2 Zustandsgrößen . . . . . . . . . . . . . . . . . . . . . . . . 52<br />

2.5.2.1 Extensive Zustandsgrößen <strong>und</strong> Additivität . . . 52<br />

2.5.2.2 Intensive Zustandsgrößen <strong>und</strong> Ausgleich . . . . . 53<br />

2.5.2.3 Kinetische Interpretation <strong>und</strong> Gleichverteilungssatz<br />

. . . . . . . . . . . . . . . . . . . . . . . . . 55<br />

2.5.3 Äquivalenz der Gesamtheiten . . . . . . . . . . . . . . . . 56<br />

2.6 Beziehungen zwischen Zustandsgrößen . . . . . . . . . . . . . . . 57<br />

2.6.1 Zusammenhänge zwischen Zustandsgrößen für die wichtigsten<br />

statistischen Gesamtheiten ” einfacher“ Systeme . . 57<br />

2.6.2 Beweis einiger Formeln für ” Abgeleitete Zustandsgrößen“ 59<br />

2.6.3 <strong>Statistische</strong> Fluktuationen <strong>und</strong> Suszeptibilitäten . . . . . 61<br />

2.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />

3 <strong>Thermodynamik</strong> 65<br />

3.0 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />

3.1 Postulate der <strong>Thermodynamik</strong> (Entropiepostulate) . . . . . . . . 66<br />

3.2 Gibbssche Gr<strong>und</strong>form . . . . . . . . . . . . . . . . . . . . . . . . 69<br />

3.3 Thermodynamische Potentiale . . . . . . . . . . . . . . . . . . . . 72<br />

3.3.1 Legendre-Transformation . . . . . . . . . . . . . . . . . . 72<br />

3.3.2 Definition der thermodynamischen Potentiale . . . . . . . 73<br />

3.3.3 Eigenschaften der thermodynamischen Potentiale . . . . . 75<br />

3.3.4 Thermodynamische Koeffizienten . . . . . . . . . . . . . . 76<br />

3.4 Prozesse <strong>und</strong> zweiter Hauptsatz . . . . . . . . . . . . . . . . . . . 80<br />

3.4.1 Prozessführung <strong>und</strong> Reversibilität . . . . . . . . . . . . . 80<br />

3.4.2 Wärmekraftmaschinen <strong>und</strong> 2. Hauptsatz . . . . . . . . . . 81


INHALTSVERZEICHNIS 5<br />

3.5 Nicht-einfache Systeme . . . . . . . . . . . . . . . . . . . . . . . . 84<br />

3.5.1 Allgemeine Bemerkungen . . . . . . . . . . . . . . . . . . 84<br />

3.5.2 Chemische Reaktionen . . . . . . . . . . . . . . . . . . . . 85<br />

4 Quantenstatistik, q.m. Vielteilchensysteme 89<br />

4.1 <strong>Statistische</strong> Quantenmechanik . . . . . . . . . . . . . . . . . . . . 89<br />

4.1.1 Der <strong>Statistische</strong> Operator . . . . . . . . . . . . . . . . . . 90<br />

4.1.1.1 Die ” Postulate“ der Quantenmechanik . . . . . . 90<br />

4.1.1.2 Der statistische Operator im allgemeinen (gemischten)<br />

Fall . . . . . . . . . . . . . . . . . . . 91<br />

4.1.1.3 Sonderfälle des statistischen Operators . . . . . 91<br />

4.1.1.4 Dynamische Entwicklung von unbeobachteten<br />

Gemischen . . . . . . . . . . . . . . . . . . . . . 91<br />

4.1.2 <strong>Statistische</strong> Mechanik . . . . . . . . . . . . . . . . . . . . 92<br />

4.1.3 Berechnung des statistischen Operators in verschiedenen<br />

Gesamtheiten . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />

4.2 Vielteilchensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />

4.2.1 Unterscheidbare Teilchen . . . . . . . . . . . . . . . . . . 94<br />

4.2.2 Identische Teilchen . . . . . . . . . . . . . . . . . . . . . . 94<br />

4.2.2.1 Erster (falscher) Ansatz: Austauschentartung . . 95<br />

4.2.2.2 Permutationsoperatoren . . . . . . . . . . . . . . 95<br />

4.2.2.3 Symmetrisierungspostulat . . . . . . . . . . . . . 98<br />

4.3 Ideale Quantengase . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />

4.3.1 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . 99<br />

4.3.2 Statistik idealer Quantengase . . . . . . . . . . . . . . . . 100<br />

4.3.3 Der Grenzfall der ” klassischen“ Statistik . . . . . . . . . . 101<br />

4.3.4 Zustandsgleichungen von Quantengasen . . . . . . . . . . 102<br />

4.3.5 Bose-Einstein-Kondensation . . . . . . . . . . . . . . . . . 106<br />

5 Phasengleichgewichte, Phasenübergänge 111<br />

5.1 Beispiele für Phasenübergänge . . . . . . . . . . . . . . . . . . . 111<br />

5.2 <strong>Thermodynamik</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />

5.3 Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />

5.3.1 Phasenkoexistenz in der <strong>Statistische</strong>n <strong>Physik</strong> . . . . . . . 121<br />

5.3.2 Kritische Phänomene . . . . . . . . . . . . . . . . . . . . . 123<br />

5.3.2.1 Konfigurationen des Ising-Modells . . . . . . . . 123<br />

5.3.2.2 Korrelationslänge <strong>und</strong> Fluktuationen am kritischen<br />

Punkt . . . . . . . . . . . . . . . . . . . . 124<br />

5.3.2.3 Mean field Näherungen . . . . . . . . . . . . . . 124<br />

5.3.2.4 Renormierung . . . . . . . . . . . . . . . . . . . 128<br />

6 Computersimulationen 131<br />

6.0 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131<br />

6.1 Molekulardynamik . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />

6.2 Monte Carlo Simulationen . . . . . . . . . . . . . . . . . . . . . . 133


6 INHALTSVERZEICHNIS


Kapitel 0<br />

Einleitung<br />

c○ Copyright 2005 Friederike Schmid 1<br />

(i) Wozu diese <strong>Vorlesung</strong>?<br />

Dazu Bestandsaufnahme<br />

Bisherige Gegenstände der theoretischen Phyik:<br />

- Mechanik, Elektrodynamik (Quantenmechanik), Spezielle Relativitätstheorie<br />

❀ Teilchen (Wellen), Kräfte, Felder<br />

· Gehorchen ” einfachen“ Gesetzen<br />

· Charakterisiert durch Symmetrien<br />

z.B. Translationsinvarianz in Raum <strong>und</strong> Zeit,<br />

Isotropie des Raums,<br />

Äquivalenz der Inertialsysteme,<br />

Spiegelsymmetrien,<br />

Zeitumkehrinvarianz<br />

· Naturgesetze sind ” glatt“<br />

Teilchen (Wellen) <strong>und</strong> Felder folgen partiellen Differentialgleichungen<br />

in Raum <strong>und</strong> Zeit.<br />

Im ” wirklichen Leben“ aber<br />

• Eindeutiger Zeitpfeil<br />

Wir leben ” vorwärts“, werden geboren, altern, sterben.<br />

Wir lernen <strong>und</strong> machen Fortschritte.<br />

Wir erinnern uns an Vergangenheit, aber nicht an die Zukunft.<br />

→ Umkehr der Zeit ist de facto <strong>und</strong>enkbar.<br />

• Weitere Symmetriebrechungen<br />

z.B. - Paritätsverletzung (Wu 1957): Elektron beim β-Zerfall<br />

von Co 60 hat bevorzugte Emissionsrichtung<br />

1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />

Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />

7


8 KAPITEL 0. EINLEITUNG<br />

- Magnete: Brechen Isotropie<br />

- Kristalle: Brechen Translationsinvarianz<br />

- (Nobelpreis 2003: Supraleitung)<br />

Entstehung von Mustern <strong>und</strong> Strukturen<br />

(Wäre die Welt so symmetrisch wie ihre Naturgesetze,<br />

dann wäre das ziemlich langweilig.)<br />

• Man beobachtet in der Natur häufig Unstetigkeiten<br />

Im Raum: Oberflächen, Grenzflächen<br />

In der Zeit: Instabilitäten, Phasenübergänge<br />

Beispiele für Phasenübergänge im Gleichgewicht“<br />

”<br />

” Gleichgewicht“: Ohne äußere Einwirkung unendlich lange stabil<br />

✻<br />

” Temperatur“<br />

Phasenübergänge der Teilchenphysik<br />

<br />

<br />

strukturelle<br />

Übergänge<br />

Suprafluidität<br />

Plasma<br />

Gase<br />

Flüssigkeiten<br />

Festkörper<br />

❅ ❅❅<br />

Magnetismus<br />

Supraleitung<br />

Bose-Einstein-Kondensation<br />

Im ” Nichtgleichgewicht“ weitere Phänomene:<br />

- Selbstorganisation,<br />

Selbstorganisierte Kritikalität<br />

- Musterbildung, Chaos<br />

- Leben, Intelligenz<br />

- (Bewußtsein)<br />

Gr<strong>und</strong>lage ca. bis hier:<br />

” F<strong>und</strong>amentalmodell“<br />

Kerne + Elektronen<br />

Coulombkraft + Pauliprinzip


Beobachtung: In mikroskopisch gr<strong>und</strong>verschiedenen Systemen tauchen immer<br />

wieder quantitativ ähnliche Gesetzmäßigkeiten auf.<br />

Beispiele<br />

• Diffusion:<br />

Gesamtdichteverteilung ergibt sich aus der Mittelung über alle möglichen<br />

Wege, die ein einzelnes Partikel nehmen kann.<br />

Falls Anfangsverteilung punktförmig ( ” delta-Funktion“)<br />

→ verbreiternde Gaußverteilung (D Diffusionskonstante)<br />

ϱ(r, t) ∝ e −r2 /4Dt<br />

Das gilt unabhängig davon, wie sich Partikel im einzelnen bewegt.<br />

∂<br />

Allgemeiner: Diffusionsgleichung ϱ(r, t) = D△ϱ(r, t)<br />

∂t<br />

→ in gewisser Weise eine universelle Gleichung,<br />

beschreibt viele sehr unterschiedliche Systeme.<br />

• Potenzgesetze: In der Natur beobachtet man oft Potenzgesetze mit<br />

universellen Exponenten.<br />

(z.B. spezifische Wärme am Curie-Punkt von Magneten,<br />

Erdbebenverteilung in Kalifornien,<br />

Zugriffe auf Webseiten mit FAQs)<br />

Voraussetzungen für universelle Gesetzmäßigkeiten scheint zu sein:<br />

(1) Großes System<br />

Sehr viele (oft makroskopisch viele: ∼ 10 23 ) Elemente (Teilchen, Felder,<br />

. . . )<br />

(2) Kollektives Verhalten<br />

Elemente wechselwirken miteinander<br />

❀ schafft eine ganz neue <strong>Physik</strong><br />

Neue Begriffe: Entropie, Thermodynamischer Limes, Temperatur, Wärme<br />

Neue Phänomene: Irreversibilität, Phasenübergänge, Komplexität<br />

Neue Konzepte, die sehr breit angewendet werden können:<br />

- in <strong>Physik</strong> <strong>und</strong> Chemie<br />

(praktisch überall)<br />

- in der Biologie<br />

(- Organisation von Molekülen in Zellen,<br />

- Organisation von Zellen <strong>und</strong> Organismen,<br />

- Evolution)<br />

- in der Gesellschaft<br />

(Verkehr, Börse, Internet)<br />

9


10 KAPITEL 0. EINLEITUNG<br />

(ii) Inhalt der <strong>Vorlesung</strong><br />

Darstellung verschiedener Zugänge zu diesem Problemkreis:<br />

Aufbau<br />

0) Einleitung (das hier)<br />

1) Rekapitulation empirisch bekannter Tatsachen<br />

(aus Praktikum, Experimentalphysikvorlesung etc.)<br />

2) Mikroskopischer Zugang: Gr<strong>und</strong>lagen der statistischen <strong>Physik</strong><br />

3) <strong>Thermodynamik</strong><br />

4) Anwendungen: - Quantenstatistik<br />

- Phasenübergänge<br />

- Dynamik<br />

- Computersimulation<br />

(iii) Literatur<br />

Alle gängigen Lehrbücher, z.B.<br />

Reif: F<strong>und</strong>amentals of Statistical and Thermal Physics<br />

Diu, Guthmann, Lederer, Roulet: Gr<strong>und</strong>lagen der <strong>Statistische</strong>n <strong>Physik</strong><br />

Jellito: <strong>Thermodynamik</strong> <strong>und</strong> Statistik<br />

Landau,Lifshitz: <strong>Statistische</strong> <strong>Physik</strong><br />

Brenig: <strong>Statistische</strong> Theorie der Wärme<br />

Plischke,Bergersen: Equilibrium Statistical Physics<br />

Callen: Thermodynamics and Introduction to Thermal Statistics<br />

Schwabl: <strong>Statistische</strong> Mechanik


Kapitel 1<br />

Rekapitulation empirischer<br />

Tatsachen<br />

c○ Copyright 2005 Friederike Schmid 1<br />

1.1 Begriffe <strong>und</strong> Konzepte<br />

1.1.1 Druck<br />

• messbar Kraft pro Fläche<br />

• Bei Kontakt:<br />

Druckausgleich<br />

• ❀ Druck überall vorhanden (nicht nur an Oberfläche), überall gleich.<br />

1.1.2 Temperatur<br />

• physiologisch wahrnehmbar mit der Haut<br />

• einordenbar (kälter, wärmer)<br />

• Bei Kontakt:<br />

• Temperaturmessung: ” Thermometer“<br />

Temperaturausgleich<br />

1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />

Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />

11


12 KAPITEL 1. REKAPITULATION EMPIRISCHER TATSACHEN<br />

z.B. basierend auf Volumenausdehnung von Flüssigkeiten<br />

Celsius:<br />

100 ◦ C ˆ= Wasser siedet<br />

0 ◦ C ˆ= Eis schmilzt<br />

(bei Atmosphärendruck)<br />

Weitere Messmethoden:<br />

Elektrischer Widerstand, Strahlungsthermometer<br />

1.1.3 Wärme<br />

Am ” saubersten“: Gasthermometer<br />

p·V<br />

(ϑ+273.15◦C) = const.<br />

Ideales Gas:<br />

→ Motiviert Definition einer absoluten Temperatur<br />

T = ϑ + 273.15◦C; Einheit: Kelvin<br />

Gasgleichung:<br />

p·V<br />

T = const. = ν ·R = N ·kB<br />

Anzahl<br />

Anzahl<br />

Mole<br />

Teilchen<br />

Fahrenheit:<br />

100F: Körpertemperatur<br />

0F: Wasser + 50 Prozent<br />

Salz schmilzt<br />

mit R = 8.3146 J/K 1 Mol ˆ=6 · 10 23 Teilchen<br />

bzw. kB = 1.38 · 10 −23 J/K Boltzmann-Konstante (1.1)<br />

• Temperaturerhöhung wird erreicht durch Zuführung von Energie<br />

z.B. - Mechanische Arbeit (Aufheizung durch Reibung)<br />

- Elektromagnetische Bestrahlung<br />

- Kontakt mit einem wärmeren Körper<br />

• Energiemenge, die im letzteren Fall übertragen wird, wird Wärme genannt<br />

• Konkret: Zwei Körper in Kontakt → Temperaturausgleich<br />

Q = c1ν1(T1 − T ) = c2ν2(T2 − T )<br />

mit c1, c2: spezifische Molwärmen<br />

ˆ= Energien, die benötigt werden,<br />

um 1 Mol um 1 K zu erhitzen;<br />

substanzabhängig<br />

Beim Wärmeaustausch geht keine Wärme verloren<br />

❀ ” Erster Hauptsatz der <strong>Thermodynamik</strong>“<br />

△U<br />

<br />

Energieänderung<br />

in einem System<br />

= △Q<br />

<br />

zugeführte<br />

Wärme<br />

+ △W<br />

<br />

zugeführte oder<br />

geleistete Arbeit<br />

• Kinetische Interpretation der Wärme<br />

Frage: Falls Wärme ≡ Energie: Welche Energie?<br />

Vermutung (Boltzmann): Kinetische Energie von ungeordneter Bewegung<br />

der Teilchen.


1.1. BEGRIFFE UND KONZEPTE 13<br />

Argument: Ideales Gas<br />

Druck= Kraft<br />

Fläche<br />

= Impulsübertrag<br />

Fläche ∗ Zeit .<br />

Sei Geschwindigkeitsverteilung im Gas P (v)<br />

bzw. Px(vx) · · ·<br />

<strong>und</strong> dN(vx) ˆ= Anzahl der Teilchen der<br />

Geschwindigkeit vx ∈ [vx − dvx<br />

2 , vx + dvx<br />

2 ],<br />

die in Zeit dt auf Fläche A treffen.<br />

dN(vx) = ϱ ·<br />

<br />

A · dt · vx <br />

·Px(vx) · dvx<br />

Dichte Volumen, in dem Teilchen<br />

Oberfläche in dt erreichen<br />

→ Impulsübertrag: F · dt = dN(vx) 2vx · m<br />

<br />

Impulsübertrag<br />

pro Teilchen<br />

❀ Druck p = F<br />

∞<br />

A = 2ϱ m<br />

= ϱ m<br />

∞<br />

= ϱ m 〈v 2 x〉<br />

= 1<br />

0<br />

dvxPx(vx)v 2 x<br />

dvxPx(vx)v<br />

−∞<br />

2 x<br />

3ϱ m 〈v2 〉 = 2<br />

3<br />

⇒ p · V = N · 2<br />

3 〈εkin〉 ! = N · kB · T<br />

ϱ 〈εkin〉<br />

<br />

mittlere kinetische<br />

Energie/Teilchen<br />

(Px(vx) = Px(−vx))<br />

(〈v 2 x 〉 = 〈v2 y 〉 = 〈v2 z 〉)<br />

❀ kBT = 2<br />

3 〈εkin〉 : Identifikation Temperatur ≡ kinetische Energie<br />

(NB: Das ist natürlich nicht die ganze Wahrheit!)<br />

1.1.4 Zustandsgrößen<br />

Betrachte zwei Systeme, die in verschiedener Weise in Kontakt sind, z.B.<br />

• Mechanischer Ausgleich ↔ Druckausgleich<br />

•<br />

•<br />

Nein, denn betrachte<br />

(Osmose)<br />

Wärmeausgleich ↔ Temperaturausgleich<br />

Materieller Ausgleich ↔ Ausgleich von ?<br />

? Dichte ?


14 KAPITEL 1. REKAPITULATION EMPIRISCHER TATSACHEN<br />

Nicht Dichte, sondern ” chemisches Potential“.<br />

Jedenfalls gibt es eine Größe, die ausgeglichen wird.<br />

❀ Fazit: Es gibt Größen, die sich wenn möglich so einstellen, dass sie im<br />

ganzen System konstant sind<br />

❀ intensive Zustandsgrößen<br />

(Druck, Temperatur, chemisches Potential)<br />

Der Ausgleich findet durch Anpassung zugeordneter additiver Größen<br />

statt<br />

❀ extensive Zustandsgrößen<br />

(Volumen, ?<br />

(muss mit Wärme<br />

zu tun haben)<br />

, Teilchenzahl)<br />

(Das Produkt zusammengehöriger intensiver <strong>und</strong> extensiver Zustandsgrößen<br />

hat die Dimension einer Energie!)<br />

In der Wärmelehre werden Systeme durch ihre Zustandsgrößen charakterisiert:<br />

mechanischer Wärme- Teilchen-<br />

Ausgleich Ausgleich Ausgleich<br />

intensiv Druck Temperatur<br />

Entropie“ S<br />

extensiv Volumen ”<br />

dS = δQ/T<br />

Dazu kommt noch: Energie (extensive Zustandsgröße)<br />

( ” freie Energie, Enthalpie, . . .“)<br />

1.1.5 Thermodynamisches Gleichgewicht<br />

” chemisches Potential“<br />

Teilchenzahl<br />

Bringt man Systeme in Kontakt <strong>und</strong> schließt sie dann nach außen ab (keine<br />

weitere Energie- bzw. Teilchenzufuhr), so stellt sich nach genügend langer<br />

Zeit ein makroskopisch stationärer Zustand ein: Gleichgewicht<br />

Im Gleichgewicht beobachtet man eindeutige Beziehungen zwischen den Zustandsgrößen:<br />

Zustandsgleichungen<br />

Beispiel: Zustandsgleichungen des idealen Gases<br />

p V = N kB T ; Innere Energie U = 3<br />

2 N kB T<br />

Gleichgewicht unabhängig von Entstehungsgeschichte<br />

(kein ” Gedächtnis“)


1.1. BEGRIFFE UND KONZEPTE 15<br />

1.1.6 Reversibilität <strong>und</strong> Irreversibilität<br />

Gedankenexperiment: Betrachte Gas in ” Druckbehälter“,<br />

Serie von Zustandsänderungen<br />

(i)<br />

(ii)<br />

Endzustand = Anfangszustand<br />

irreversibel<br />

(mechanische Energie geht unwiederbringlich verloren.<br />

Zustandsänderungen können nicht umgekehrt ablaufen.)<br />

Infinitesimale Schritte<br />

(infinitesimale Gewichte)<br />

→ Unterschied zwischen Anfangs- <strong>und</strong> Endzustand sehr klein<br />

nahezu reversibel<br />

Fazit: Reversible Zustandsänderungen sind nur möglich, wenn das System<br />

ständig nahezu im thermodynamischen Gleichgewicht gehalten wird.<br />

Sobald es aus dem Gleichgewicht kommt: Irreversible Änderungen<br />

(z.B. Prozess läuft nur in eine Richtung ab.)<br />

❀ ” Zweiter Hauptsatz der <strong>Thermodynamik</strong>“<br />

Verschiedene Formulierungen<br />

- ” Es gibt kein ” perpetuum mobile 2. Art“, bei dem Arbeit nur durch<br />

Abkühlung eines Reservoirs gewonnen werden kann.“<br />

- ” Bei irreversiblen Prozessen nimmt die Entropie zu.“<br />

(Zeitpfeil)<br />

- etc.<br />

Darauf kommen wir noch (ausgiebig!) zurück.


16 KAPITEL 1. REKAPITULATION EMPIRISCHER TATSACHEN


Kapitel 2<br />

Mikroskopischer Zugang:<br />

Gr<strong>und</strong>lagen der statistischen<br />

<strong>Physik</strong><br />

c○ Copyright 2005 Friederike Schmid 1<br />

2.1 Mikroskopische Dynamik<br />

Ausgangspunkt: Klassische Mechanik oder Quantenmechanik<br />

Zunächst: Klassische Mechanik<br />

2.1.1 Mikroskopische Charakterisierung eines Systems<br />

• N Teilchen, Positionen {q1, · · · qN} ≡ q, Impulse {p1, · · · pN} ≡ p<br />

• Phasenraum Ω = {Γ} mit Γ = (q, p): Phasenraumpunkt<br />

Ein Phasenraumpunkt enthält alle Information über einen mikroskopischen<br />

Zustand, legt bei spezifizierter Dynamik die komplette Trajektorie<br />

Γ(t) fest:<br />

Γ = Γ(t; Γ0) mit Γ0 : Anfangsbedingung<br />

• De facto sind Anfangsbedingungen nie ganz genau bekannt, sondern nur innerhalb<br />

einer gewissen Verteilung<br />

→ Phasenraumdichte ϱ(Γ, t) = ϱ(q, p, t)<br />

⇒ ϱ(q, p, t) d3Nq d3N <br />

Wahrscheinlichkeit, (q, p) zur Zeit t in<br />

p =<br />

Volumenelement d3Nq d3Np anzutreffen<br />

• Dynamik <strong>und</strong> Bewegungsgleichungen<br />

Hamiltonfunktion H (p, q)<br />

Hamiltonsche Bewegungsgleichungen: ˙ q = ∂H<br />

∂pn ; ˙ p = − ∂H<br />

∂qn<br />

legen den zeitlichen<br />

Verlauf nach Vorgabe der Anfangsbedingungen fest.<br />

1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />

Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />

17


18 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.1.2 Eigenschaften der Dynamik<br />

• zeitlich reversibel<br />

• Liouvillescher Satz: Phasenraumdichte entlang einer Trajektorie<br />

bleibt erhalten: ϱ(Γ(t); t) = const. (2.1)<br />

(Herleitung aus Hamiltongleichungen <strong>und</strong> Kontinuitätsgleichung:<br />

- Definiere Hamiltonschen Fluss: ˙ Γ = (˙q, ˙p) = ( ∂H<br />

∂p<br />

, −∂H<br />

∂q<br />

) (2.2)<br />

- Der Hamiltonsche Fluss ist inkompressibel: div ˙ Γ = 0 (2.3)<br />

( ∇ ˙<br />

<br />

ΓΓ = (<br />

n<br />

∂ ˙qn<br />

∂qn<br />

- Kontinuitätsgleichung: ∂<br />

∂t ϱ = −∇Γ (ϱ ˙ Γ)<br />

<br />

Strom<br />

⇒ d<br />

∂ϱ<br />

dtϱ(Γ(t); t) = ∂t + (∇Γ ϱ) ˙ Γ = ∂ϱ<br />

∂t + ∇Γ (ϱ ˙ Γ) − ϱ ∇ ˙<br />

ΓΓ <br />

∂ ˙pn<br />

+ ∂pn ) = ( ∂2H ∂qn∂pn − ∂2H ) = 0 )<br />

∂pn∂qn<br />

0<br />

= 0 )<br />

• Falls H nicht explizit zeitabhängig: Energieerhaltung<br />

Trajektorien liegen auf Hyperfläche H (p, q) ≡ E im Phasenraum<br />

• Eventuell Impulserhaltung, Drehimpulserhaltung etc.<br />

• Falls H integrabel (d.h. es gibt 3N Konstanten der Bewegung):<br />

Trajektorien liegen auf 3N-dimensionalen Mannigfaltigkeiten ( ” Tori“)<br />

Phasenraum 6N-dimensional<br />

Energiefläche (6N-1)-dimensional (H (p, q) ≡ E)<br />

Tori 3N-dimensional<br />

Beispiel: linear gekoppelte harmonische Oszillatoren<br />

• Häufig wird stattdessen Ergodizität angenommen:<br />

Trajektorien berühren ” fast“ alle Punkte der Energiefläche<br />

für ” fast“ alle Anfangsbedingungen Γ0<br />

( ” fast“ = bis auf eine Menge vom Maß 0)<br />

2.1.3 Bedeutung der Ergodizitätsannahme<br />

• ” Tiefe“ Eigenschaft, allgemeine Voraussetzungen schwer zu zeigeh<br />

(2.4)<br />

• Ergodizität ist schwächste Form der Unordnung in einem nichtlinearen System


2.1. MIKROSKOPISCHE DYNAMIK 19<br />

Für σ ⊂ Ω, σ ′ ⊂ Ω <strong>und</strong> σ −→<br />

Zeitentwicklung t σt<br />

gilt: µ(σ) µ(σ<br />

µ(Ω) = lim<br />

t→∞<br />

′ ∩σt)<br />

µ(σ ′ )<br />

mit µ: Maß<br />

Benachbarte Trajektorien (Abstand dΓ(t))<br />

entfernen sich exponentiell voneinander<br />

lim ) = h > 0<br />

t→∞<br />

1<br />

t<br />

ln( dΓ(t)<br />

dΓ0<br />

(positiver Lyapunov-Exponent)<br />

• Ergodentheorem:<br />

Ist ein System ergodisch, so gilt für beliebige glatte“ Messgrößen A (Γ(t))<br />

”<br />

(z.B. Einteilchendichte: A (x, t) = N<br />

δ(x − qn(t))<br />

1 lim<br />

T →∞<br />

T<br />

T<br />

dt A (t) = <br />

dµ(Γ) A (Γ)<br />

0<br />

” Zeitmittel“ = ” Scharmittel“<br />

Ω<br />

n=1<br />

dµ = d3Nq d3N <br />

p δ(H (Γ)−E)<br />

d<br />

Ω<br />

3Nq d3Np δ(H (Γ)−E)<br />

(normiertes Maß)<br />

(2.5)<br />

(Mathematisch etwas präzisere Formulierung:<br />

Ist der Phasenraum Ω bezüglich eines endlichen, normierten Maßes µ<br />

metrisch unzerlegbar, d.h. es gibt keine Zerlegung Ω = Ω1 ∪ Ω2 mit<br />

Ωi −→<br />

Zeitentwicklung t Ωi <strong>und</strong> µ(Ωi) = 0 für i = 1, 2 <strong>und</strong> ist das Maß µ bzgl.<br />

der Zeitentwicklung t invariant (Liouvillesatz), dann gilt (2.5) für glatte,<br />

integrable Funktionen A .)<br />

Folgerung: Bei einer makroskopischen Messung wird die Messgröße A (p, q)<br />

immer über einen Zeitraum gemittelt. Spezifische Zeitpunkte“ sind expe-<br />

”<br />

rimentell prinzipiell nicht zugänglich. Wenn nur die Ergodizitätsannahme<br />

erfüllt <strong>und</strong> die Zeiträume genügend lange sind, können zur Berechnung<br />

der Messgröße auch Scharmittel herangezogen werden.<br />

¯<br />

A =<br />

<br />

Ω<br />

dµ(Γ)A (Γ) = 〈A 〉µ<br />

⇒ Messgrößen ↔ Mittelwerte <strong>und</strong> Schwankungen<br />

Begründung der <strong>Statistische</strong>n Mechanik<br />

Alternatives Argument (auf das wir noch quantitativer zutückkommen werden)<br />

Da der mikroskopische Zustand nicht bekannt ist, müssen wir jeden möglichen<br />

mikroskopischen Zustand im Prinzip als gleichwahrscheinlich annehmen.<br />

(probabilistischer Zugang, Prinzip des kleinsten Vorurteils,<br />

geht zurück auf Gibbs, Einstein, Tolman)<br />

→ Führt zu den gleichen Scharmitteln, nur andere Interpretation<br />

Messgrößen werden als Zufallsvariablen aufgefasst.


20 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.2 Einschub: Kurze Einführung in die Wahrscheinlichkeitstheorie<br />

2.2.0 Einleitung<br />

2.2.0.1 Fragestellungen<br />

Situation: Das Ergebnis eines Versuchs lässt sich nicht genau vorhersagen.<br />

• Prinzipiell; falls ein Kontinuum an Messwerten möglich ist:<br />

Punkte im Kontinuum sind physikalisch nicht messbar.<br />

• Selbst wenn nur diskrete Messwerte möglich sind, lässt sich meistens<br />

nicht h<strong>und</strong>ertprozentig vorhersagen, wie ein Versuch ausgehen wird.<br />

(Krasses Beispiel: Wurf einer Münze)<br />

⇒ Üblicherweise sagt man, man erhält ein bestimmtes Ergebnis mit einer<br />

gewissen ” Wahrscheinlichkeit“. Was meint man damit?<br />

Präzisierungsversuch:<br />

” Wahrscheinlichkeit“ eines Ereignisses Ei<br />

• = relative Häufigkeit dieses Ergebnisses nach ∞ vielen Versuchen<br />

❀ ” p(Ei) = lim<br />

N→∞<br />

n(Ei)<br />

N<br />

Probleme mit dieser ” Definition“<br />

“<br />

• Setzt voraus, dass im Prinzip unendlich viele Versuche durchgeführt<br />

werden könnten ↔ de facto nicht möglich<br />

• Selbst wenn man davon absieht, ist die Definition nicht kompatibel<br />

mit der mathematischen Definition eines Grenzwertes.<br />

Cauchy-Kriterium: lim xn = x =<br />

n→∞ Def. ∀ε > 0 ∃N0 > 0 : |xn − x| < ε ∀n > N0<br />

Das kann bei einer Zufallsfolge nicht erfüllt sein!<br />

⇒ Fragen: (A) Was bedeutet ” Wahrscheinlichkeit“? (stehen<br />

(B) Wie ermittelt man Wahrscheinlichkeiten? lassen!)<br />

Diskutiere zunächst (B)<br />

2.2.0.2 Frage (B): Wie ermittelt man Wahrscheinlichkeiten?<br />

Es gibt keinen rigorosen Zugang. Man muss Annahmen machen.<br />

Fall (B1) Häufig ” klassische“ Annahme:<br />

Die Wahrscheinlichkeit ist gleichverteilt auf sogenannte Elementarereignisse.<br />

Fall (B2) Klassische Annahme einfachstmögliche Vermutung, muss eventuell<br />

auf der Basis bisheriger Erfahrungen oder physikalischer Kenntnisse modifiziert<br />

werden.


2.2. WAHRSCHEINLICHKEITSTHEORIE 21<br />

Beispiele für Fall (B1): Klassische Wahrscheinlichkeiten<br />

(i) Wurf einer Münze<br />

Elementarereignisse: Wappen (W) oder Zahl (Z)<br />

⇒ P (W ) = P (Z) = 1<br />

2<br />

(ii) Gegeben Schüssel mit zwei weißen <strong>und</strong> zwei schwarzen Kugeln. Ziehe zwei<br />

davon: Mit welcher Wahrscheinlichkeit erwischt man zwei weiße, zwei<br />

schwarze, eine schwarze <strong>und</strong> eine weiße Kugel?<br />

Elementarereignisse:<br />

(1,2) (2,1) (3,1) (4,1)<br />

(1,3) (2,3) (3,2) (4,2)<br />

(1,4) (2,4) (3,4) (4,3)<br />

⇒ 12 Fälle,<br />

P (i, j) = 1<br />

12<br />

Aber: P (••) = P (1, 2) + P (2, 1) = 2/12 = 1/6;<br />

P (◦◦) = P (3, 4) + P (4, 3) = 1/6;<br />

P {(•◦), (◦•)} = alle anderen Fälle = 8/12 = 2/3<br />

Allgemeine Regel für ein beliebiges ” nicht elementares“ Ereignis E<br />

P (E) =<br />

Anzahl der günstigen Fälle<br />

Anzahl der möglichen Fälle<br />

(iii) N Würfe einer Münze;<br />

Mit welcher Wahrscheinlichkeit erhält man n Mal Wappen?<br />

- Mögliche Fälle: 2 N<br />

- Günstige Fälle : N!<br />

n!(N−n)!<br />

(Beweis: Verteile n Wappen auf N Würfe → N(N − 1) · · · (N − n + 1) Möglichkeiten.<br />

” Reihenfolge“ der Wappen egal → je n! Möglichkeiten äquivalent.)<br />

⇒ P (n) = 1 N 2<br />

mit<br />

<br />

N<br />

=<br />

n<br />

N<br />

n<br />

<br />

N!<br />

n!(N − n)!<br />

(2.6)<br />

(2.7)<br />

: Binomialkoeffizient (2.8)<br />

Allgemein: Klassische Wahrscheinlichkeiten werden in der Regel mit den<br />

Methoden der Kombinatorik berechnet:<br />

• Aus N verschiedenen Elementen lassen sich n verschiedene Elemente<br />

– herausgreifen (ohne Rücksicht auf Anordnung) ( ” Kombinationen“)<br />

auf<br />

N(N − 1) · · · (N − n + 1)<br />

n!<br />

=<br />

N!<br />

n!(N − n)! =<br />

<br />

N<br />

<br />

n<br />

verschiedene Weisen (2.9)<br />

– herausgreifen <strong>und</strong> anordnen ( ” Variationen“)<br />

auf<br />

<br />

N<br />

<br />

N!<br />

n! =<br />

n (N − n)!<br />

verschiedene Weisen (2.10)


22 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

• Darf von N verschiedenen Elementen jedes beliebig oft vorkommen, so lassen sich n<br />

Elemente<br />

– herausnehmen ( ” Kombinationen mit Wiederholung“)<br />

auf<br />

<br />

N +n−1<br />

<br />

=<br />

n<br />

N(N + 1)(N + 2) · · · (N + n − 1)<br />

n!<br />

versch. Weisen (2.11)<br />

– herausnehmen <strong>und</strong> anordnen ( ” Variationen mit Wiederholung“)<br />

auf N n verschiedene Weisen (2.12)<br />

(iv) Gegeben Schüssel mit (N − M) weißen <strong>und</strong> M schwarzen Kugeln. Ziehe n<br />

davon: Mit welcher Wahrscheinlichkeit P (m) erwischt man dabei genau<br />

m schwarze Kugeln?<br />

P (m) =<br />

M<br />

m<br />

N − M<br />

n − m<br />

<br />

N<br />

n<br />

Hypergeometrische Verteilung<br />

(2.13)<br />

(Beweis: Es gibt N Möglichkeiten, aus N Kugeln n auszuwählen (= Anzahl der möglichen<br />

n<br />

Ereignisse). Günstig davon sind solche Ereignisse, in denen m Kugeln schwarz <strong>und</strong> n − m Kugeln<br />

weiß sind. In der Schüssel sind M schwarze <strong>und</strong> N −M weiße, <strong>und</strong> es gibt M N−M bzw. m<br />

n−m<br />

Möglichkeiten, m schwarze bzw. n − m weiße Kugeln aus den M bzw. N − M vorhandenen<br />

herauszuziehen. Jede Möglichkeit für schwarz kann mit jeder Möglichkeit für weiß kombiniert<br />

werden, sodass für das betrachtete Ereignis MN−M Fälle günstig sind. )<br />

m n−m<br />

Anwendung in der statistischen Qualitätskontrolle: P (m) = Wahrscheinlichkeit dafür, dass eine<br />

Stichprobe vom Umfang n, die man aus einer Charge von N Einheiten, davon M fehlerhaft,<br />

zieht, genau m fehlerhafte Einheiten enthält.<br />

(v) Gegeben Schüssel mit (N −M) weißen <strong>und</strong> M schwarzen Kugeln. Ziehe solange,<br />

bis m schwarze gezogen sind: Mit welcher Wahrscheinlichkeit P (n)<br />

werden dabei genau n Kugeln entnommen?<br />

P (n) =<br />

(Beweis?)<br />

<br />

n − 1 N − n<br />

<br />

N negative (inverse) hyper-<br />

m − 1 M − m M geometrische Verteilung<br />

Anwendung: Optimales Stoppen stochastischer Prozesse<br />

(2.14)<br />

Beispiele für Fall (B2): Modifizierte klassische Wahrscheinlichkeiten<br />

(i) ” Quantenkugeln“: Wieder Schüssel mit zwei weißen <strong>und</strong> zwei schwarzen<br />

Kugeln, aber: Kugeln gleicher Farbe seien ununterscheidbar.<br />

Kugeln werden gleichzeitig gezogen.<br />

Elementarereignisse sind nun (••), (◦◦), (◦•)<br />

⇒ P (••) = P (◦◦) = (◦•) = 1/3<br />

(NB: ziemlich subtil. Falls Kugeln nicht gleichzeitig gezogen würden, hätte man stattdessen<br />

P (••) = P (◦◦) = P (◦•) = P (•◦) = 1/4!)


2.2. WAHRSCHEINLICHKEITSTHEORIE 23<br />

(ii) Verbogene Münze: N Würfe einer Münze, aber Münze ist gezinkt.<br />

Aus vergangenen Beobachtungen vermutet man, dass die Münze mit<br />

Wahrscheinlichkeit p auf Wappen fällt <strong>und</strong> mit (1 − p) auf Zahl.<br />

⇒ Wahrscheinlichkeit, n Mal Wappen zu werfen:<br />

P (n) = p n (1 − p) N−n<br />

<br />

N<br />

n<br />

Binomialverteilung (2.15)<br />

(Beweis: Der erste Faktor pn (1 − p) N−n ist die Wahrscheinlichkeit, überhaupt n Mal<br />

Wappen <strong>und</strong> (N-n) Mal Zahl zu werfen. Der zweite Faktor N ist die Zahl der Möglich-<br />

n<br />

keiten, in N Würfen n Mal Wappen zu erhalten. )<br />

Anwendungen: u.a. in der statistischen Qualitätskontrolle (Anzahl der Ausschussstücke)<br />

Abstraktion:<br />

Bernoulli-Experiment (Bernoulli trial) = Serie von unabhängigen<br />

Versuchswiederholungen, wobei man sich nur dafür interessiert, ob<br />

ein ” Erfolg“ eingetreten ist oder nicht.<br />

P (n) = Wahrscheinlichkeit dafür, dass bei N-maliger unabhängiger<br />

Wiederholung eines Versuchs mit der Erfolgswahrscheinlichkeit p genau<br />

n Erfolge eintreten.<br />

Grenzfall N → ∞, p → 0, Np = λ<br />

−λ λn<br />

⇒ P (n) → e<br />

n!<br />

Poisson-Verteilung (2.16)<br />

(Beweis: P (n) = ( λ<br />

N )n (1 − λ<br />

N )N−n N<br />

n<br />

= λn (1 − λ<br />

N )N<br />

<br />

→e−λ (1 − λ<br />

N )−n N<br />

<br />

→1<br />

−n 1<br />

N(N − 1) · · · (N − n + 1)<br />

n!<br />

→1<br />

)<br />

Anwendungen: Wahrscheinlichkeit für das Eintreten von n seltenen Ereignissen, z.B.<br />

Autos auf einem Straßenstück pro Zeiteinheit, Telefongesprächen in einer Zelle pro Zeit-<br />

einheit, Störungen pro Telefongerät, größeren Streiks in Großbritannien pro Woche,<br />

Druckfehlern pro Seite einer Zeitung, K<strong>und</strong>en in einem Büro pro Zeiteinheit, in eine<br />

Klinik eingelieferte Patienten pro Nacht, weißen Blutkörperchen pro kleine Blutprobe,<br />

atomaren Zerfällen in einer Substanz pro Zeiteinheit, durch Hufschlag getöteten Soldaten<br />

pro Jahr (Bortkiewicz um 1900), Blitzen pro Gewitter, im F<strong>und</strong>büro abgegebenen Ge-<br />

genständen pro Tag, Unfällen eines Arbeiters pro Jahr, Defekten auf einem Drahtstück<br />

pro Längeneinheit, Schmutzpartikeln auf einer lackierten Fläche, Bläschen auf einer op-<br />

tischen Linse, <strong>und</strong> vielen anderen seltenen Ereignissen<br />

Approximation der Binomialverteilung:<br />

Für große N <strong>und</strong> kleine p: Poissonverteilung<br />

Für große N <strong>und</strong> p nicht sehr nahe bei 0 oder 1:<br />

⇒ P (n) ≈ 1<br />

σ √ (n−µ)2<br />

e− 2σ<br />

2π 2<br />

Gaußverteilung mit µ = Np<br />

<strong>und</strong> σ 2 = Np(1 − p)<br />

(2.17)<br />

(Beweis <strong>und</strong> Anwendungen später im Rahmen des Grenzwertsatzes der Wahr-<br />

scheinlichkeitstheorie)


24 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

(iii) Gegeben Bernoulli-Experiment mit Erfolgswahrscheinlichkeit p bzw. Misserfolgswahrscheinlichkeit<br />

q = 1−p. Mit welcher Wahrscheinlichkeit P (m)<br />

gibt es m Misserfolge vor dem ersten Erfolg?<br />

P (m) = q m (1 − q) geometrische Verteilung (2.18)<br />

(Beweis: Produkt-Wahrscheinlichkeit bei statistischer Unabhängigkeit)<br />

Verallgemeinerung: Wahrscheinlichkeit P (m) für m Misserfolge vor dem<br />

v-ten Erfolg:<br />

<br />

v + m − 1<br />

P (m) =<br />

q<br />

m<br />

m (1 − q) v<br />

(Beweis?)<br />

(Spezialfall v = 1: m qm (1 − q) = qm (1 − q) )<br />

m<br />

negative Binomialverteilung (2.19)<br />

2.2.0.3 Frage (A): Was ” ist“ überhaupt Wahrscheinlichkeit?<br />

” Antwort“: Kontroverse Diskussion<br />

- Pragmatisch: Schätzwert für relative Häufigkeiten, Prognose für Messergebnisse<br />

- Axiomatisch: Man kann sich der Diskussion entziehen, indem man eine Größe<br />

” Wahrscheinlichkeit“ mit bestimmten Eigenschaften einfach postuliert →<br />

Axiomatischer Zugang.<br />

Ziel: Definition einer mathematischen Struktur, die unseren intuitiven<br />

Begriff von ” Messergebnis“ <strong>und</strong> ” Wahrscheinlichkeit“ präzisiert.<br />

Im allgemeinen wird davon ausgegangen, dass die physikalische Welt<br />

kontinuierlich ist. Punkte im Kontinuum sind jedoch nicht messbar.<br />

→ Eine passende mathematische Struktur muss auf ” Intervallen“<br />

bzw. auf Teilmengen aufbauen (Kolmogorov 1903-1987).<br />

2.2.1 Wahrscheinlichkeitsraum<br />

Ein Wahrscheinlichkeitsraum (Ω, F , µ) ist definiert durch:<br />

• Die Menge Ω der möglichen Ergebnisse eines Versuchs<br />

• Die σ-Algebra F der möglichen Ereignisse:<br />

Menge von Teilmengen von Ω mit den Eigenschaften:<br />

- Ω ∈ F<br />

- Falls A ∈ F ⇒ Ω/A ∈ F<br />

- Falls A, B ∈ F ⇒ A ∩ B ∈ F<br />

- Falls Ai ∈ F für i = 1, 2, . . . ⇒ ∞<br />

i=1 Ai ∈ F


2.2. WAHRSCHEINLICHKEITSTHEORIE 25<br />

• Ein Wahrscheinlichkeitsmaß µ = Wahrscheinlichkeit eines Ereignisses<br />

Beispiele:<br />

Funktion µ : F −→ R + mit den Eigenschaften<br />

µ(∅) = 0, µ(Ω) = 1<br />

µ( ∞<br />

Ai) = ∞<br />

µ(Ai), falls Ai ∩ Aj = ∅ für alle i, j<br />

i=1<br />

i=1<br />

(i) Diskreter Wahrscheinlichkeitsraum: Wurf einer Münze<br />

· Ω = {Wappen, Zahl}<br />

· F = {W, Z} , {}<br />

<br />

, {Z} , {W }<br />

<br />

<br />

Wappen<br />

oder Zahl<br />

weder Wappen<br />

noch Zahl<br />

Zahl Wappen<br />

· µ({W, Z}) = 1; µ({}) = 0; µ({Z}) = p; µ({W }) = 1 − p<br />

(klassische Annahme: p = 1 − p = 1<br />

2 )<br />

(ii) Kontinuierlicher Wahrscheinlichkeitsraum:<br />

- Mikroskopischer Zustand eines klassischen N-Teilchensystems<br />

z.B. 1 Teilchen in 1 Dimension<br />

Boxlänge L, Boltzmannverteilung<br />

dµ(x, p) = dx dp 1<br />

L e−p2 <br />

/2kBT m 1<br />

2πkBT m<br />

<br />

Normierung<br />

2.2.2 Bedingte Wahrscheinlichkeit<br />

<strong>und</strong> <strong>Statistische</strong> Unabhängigkeit<br />

• Unbedingte Wahrscheinlichkeit:<br />

P (A) = µ(A) (2.20)<br />

• Bedingte Wahrscheinlichkeit:<br />

P (A|B) =<br />

µ(A ∩ B)<br />

µ(B)<br />

(Wahrscheinlichkeit, dass A eintritt, falls feststeht, dass B eintritt)<br />

Beispiel: Schüssel mit 2 weißen <strong>und</strong> schwarzen Kugeln<br />

(2.21)<br />

Wahrscheinlichkeit, als zweites eine weiße Kugel zu ziehen, wenn<br />

erste schon weiß war<br />

Analyse: Ω = {(◦◦), (◦•), (•◦), (••)};<br />

µ({◦◦}) = µ({••}) = 1<br />

1<br />

6 ; µ({◦•}) = µ({•◦}) = 3<br />

Ereignisse: E1 = 1. Kugel weiß“ = {(◦◦), (◦•)}<br />

”<br />

E2 = 2. Kugel weiß“ = {(◦◦), (•◦)}<br />

” =<br />

⇒ P (E2|E1) = µ(E1∩E2)<br />

µ(E1)<br />

µ({(◦◦)}) 1/6 1<br />

µ({(◦◦)},{(◦•)}) = 1/6+1/3 = 3


26 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

• <strong>Statistische</strong> Unabhängigkeit: Zwei Ereignisse heißen statistisch unabhängig,<br />

falls<br />

P (A|B) = P (A) ⇔ P (A ∩ B) = P (A) · P (B) (2.22)<br />

2.2.3 Zufallsvariablen <strong>und</strong> Wahrscheinlichkeitsverteilung<br />

• Zufallsvariable: µ-integrable Funktion Z :<br />

Notation: Unterstrichene (Groß)buchstaben<br />

Beispiele:<br />

Ω → R<br />

ω → Z(ω)<br />

- Münzwurf: ” Gewinn“, etwa G(Zahl) = 10 (Euro), G(Wappen) = 0<br />

- Teilchen in der Box: Kinetische Energie E = Ek = p 2 /2m<br />

• Wahrscheinlichkeitsverteilungen<br />

∗ (Kumulative) Verteilungsfunktion (distribution function)<br />

F Z (z) := P (Z(ω) ≤ z) = µ {ω ∈ Ω : Z(ω) ≤ z} <br />

(2.23)<br />

NB: Es gilt: F Z (−∞) = 0, F Z (∞) = 1 (2.24)<br />

Beispiele:<br />

⎧<br />

⎪⎨ 0 : g < 0<br />

- Gewinn beim Münzwurf: FG (g) = 1<br />

⎪⎩<br />

2<br />

1<br />

:<br />

:<br />

0 ≤ g < 10<br />

g ≥ 10<br />

- Kinetische Energie eines Teilchens in der Box:<br />

F E (ε)= <br />

ε


2.2. WAHRSCHEINLICHKEITSTHEORIE 27<br />

Bemerkung: (R, B, f Z (z)dz) ist dann wieder ein Wahrscheinlichkeitsraum,<br />

wobei B: Offene Intervalle auf R (Borel-Menge)<br />

• Multidimensionale Verteilungen<br />

Erweiterung von (2.25) auf mehrere Zufallsvariablen Z 1 · · · Z n:<br />

f Z1 ···Z n (z1 · · · zn)dz1 · · · dzn = µ {ω ∈ Ω : Z i(ω) ∈ [zi, zi + dzi]} (2.27)<br />

Analog zu (2.22) heißen Zufallsvariablen statistisch unabhängig, wenn<br />

die Verteilung faktorisiert:<br />

f Z1 ···Z n (z1 · · · zn) = f Z1 (z1) · · · f Zn (zn) (2.28)<br />

2.2.4 Erwartungswert, Streuung, Korrelationen<br />

• Erwartungswert einer Zufallsvariablen Z:<br />

<br />

(falls Integral existiert) 〈Z〉 =<br />

Ω<br />

Z(ω) dµ(ω) =<br />

• Erwartungswert einer beliebigen Funktion g(Z):<br />

(falls Integral existiert) 〈g(Z)〉 =<br />

• Streuung oder Varianz:<br />

σ 2<br />

Z =<br />

<br />

(Z − 〈Z〉) 2<br />

= 〈Z 2 〉 − 〈Z〉 2<br />

∞<br />

−∞<br />

∞<br />

−∞<br />

dz z f Z (z) (2.29)<br />

dz g(z) f Z (z) (2.30)<br />

(2.31)<br />

• Korrelation zweier Zufallsvariablen Z1, Z2: <br />

<br />

KZ1Z =<br />

2<br />

(Z1 − 〈Z1〉)(Z2 − 〈Z2〉) = 〈Z1Z 2〉 − 〈Z1〉 〈Z2〉 (2.32)<br />

mit 〈Z 1Z 2〉 =<br />

∞<br />

−∞<br />

dz1 dz2 z1 z2 f Z1 Z 2 (z1, z2) (2.33)<br />

K Z1 Z 2 ist Kenngröße dafür, ob zwei Variablen statistisch abhängig sind.<br />

(Für statistisch unabhängige Z 1, Z 2 gilt K Z1 Z 2 = 0 )


28 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

• Spezielle Erwartungswerte<br />

(i) Verteilung von Funktionen einer zufälligen Variablen<br />

Gegeben Funktion h(Z) einer Zufallsvariablen Z<br />

→ Y = h(Z) ist neue Zufallsvariable <strong>und</strong> verteilt nach:<br />

<br />

fY (y) = δ h(Z)−y <br />

<br />

= dz δ h(z)−y fZ (z) (2.34)<br />

∞<br />

(denn: dann gilt für alle Erwartungswerte 〈g(Y )〉 = dy g(y) fY (y)<br />

−∞<br />

∞<br />

∞<br />

= dy g(y) dz δ<br />

−∞ −∞<br />

h(z)−y ∞<br />

fZ (z) = dz fZ (z) g<br />

−∞<br />

h(z) )<br />

Speziell Y = Z: Verteilung als Erwartungswert<br />

f Z (z) = δ(Z − z) ❀ F Z (z) = θ(Z − z) <br />

(ii) Charakteristische Funktion (Fouriertransformierte von f Z (z))<br />

χ Z (k) := 〈e ikZ 〉 =<br />

<br />

∞<br />

−∞<br />

dz f Z (z)e ikz<br />

Bedeutung: Generiert Momente <strong>und</strong> Kumulanten von Z<br />

- Momente: 〈Z n n dn<br />

〉 = (−i)<br />

- Kumulanten: C (n)<br />

Z<br />

C (2)<br />

Z<br />

= − d<br />

dk<br />

〈iZe ikZ 〉<br />

〈e ikZ 〉<br />

dkn χ Z (k)<br />

<br />

<br />

dn<br />

= (−i)n<br />

<br />

<br />

<br />

k=0<br />

<br />

=(−i)<br />

n<br />

〈 d<br />

k=0<br />

n<br />

dkn eikZ<br />

〉<br />

k=0<br />

dkn ln(χ Z (k))<br />

<br />

<br />

z.B. C (0)<br />

k=0<br />

Z = ln〈eikZ 〉<br />

C (1)<br />

Z = −i 〈iZeikZ 〉<br />

〈eikZ 〉<br />

=− 〈−Z2e ikZ 〉〈e ikZ 〉+〈iZe ikZ 〉 2<br />

〈eikZ 〉 2<br />

<br />

<br />

<br />

k=0 <br />

<br />

<br />

k=0 <br />

<br />

<br />

k=0<br />

<br />

<br />

(2.35)<br />

(2.36)<br />

(2.37)<br />

(2.38)<br />

= 0 (2.39)<br />

= 〈Z〉 (2.40)<br />

= σ 2<br />

Z<br />

(iii) Verallgemeinerungen auf mehrere Zufallsvariablen Z 1, · · · Z n<br />

f Z1 ···Z n (z1 · · · zn) =<br />

n <br />

j=1<br />

<br />

δ(Zj − zj)<br />

<br />

δ(Zj −zj)<br />

= n<br />

<br />

j=1<br />

<br />

falls Zj unabhängig<br />

i<br />

χ (k1 · · · kn) = e<br />

Z1 ···Zn n<br />

kj Zj <br />

<br />

j=1<br />

e ikj Z <br />

j<br />

z.B. K Z1 Z 2 = − d2<br />

dk1dk2<br />

ln χ Z1 Z 2<br />

<br />

<br />

(k1k2)<br />

= n<br />

j=1<br />

k1=k2=0<br />

(2.41)<br />

(2.42)<br />

(2.43)<br />

(2.44)


2.2. WAHRSCHEINLICHKEITSTHEORIE 29<br />

2.2.5 Spezielle Verteilungen<br />

Name Verteilungs- Mittel- Streuung Charakteristidichtefunktion<br />

wert sche Funktion<br />

Allgemein f Z (z) = 〈δ(z − Z)〉 〈Z〉 〈Z 2 〉 − 〈Z〉 2 χ Z (k) = 〈e ikZ 〉<br />

Einpunkt-<br />

Verteilung<br />

n-Punkt-<br />

Verteilung<br />

Hypergeometrische<br />

Verteilung<br />

Negative<br />

hyperg.V.<br />

Binomial-<br />

Verteilung<br />

Poisson-<br />

Verteilung<br />

negative<br />

Binomialv.<br />

geometr.<br />

Verteilung<br />

Gleich-<br />

Verteilung<br />

Gauß-<br />

Verteilung<br />

Normal-<br />

Verteilung<br />

χ 2 -<br />

(Helmert-<br />

Pearson-)<br />

Verteilung<br />

F-<br />

(Fisher-)<br />

Verteilung<br />

t-<br />

(Student-)<br />

Verteilung<br />

Exponentialvert.<br />

Gamma-<br />

Verteilung<br />

Cauchy-<br />

(Lorentz-)<br />

Verteilung<br />

δ(z−a) a 0 e ika<br />

n<br />

piδ(z−ai) mit<br />

i=1<br />

n<br />

pi = 1<br />

i=1<br />

min(M,n) <br />

m=max<br />

(0,n+M−N)<br />

m+N−n <br />

N<br />

m=0<br />

∞<br />

m=0<br />

n=m<br />

δ(z−m)<br />

δ(z−n)<br />

<br />

M N−M<br />

m n−m<br />

<br />

N<br />

n<br />

<br />

n−1 N−n<br />

m−1 M−m<br />

<br />

N<br />

M<br />

n<br />

piai<br />

i=1<br />

Mn<br />

N<br />

m(N+1)<br />

M+1<br />

n<br />

i=1<br />

pia2 i −<br />

n 2 piai<br />

i=1<br />

Mn(N−M)(N−n)<br />

N 2 (N−1)<br />

m(N−M)(N+1)(M+1−m)<br />

(M+1) 2 (M+2)<br />

n<br />

pie<br />

i=1<br />

ikai δ(z−m) N pm (1−p) N−m Np Np(1−p) [1−p(1−e m<br />

ik )] N<br />

∞<br />

m=0<br />

δ(z−m)e−λ λm<br />

λ λ exp m! λ(eik −1) <br />

δ(z−m) v+m−1 <br />

qm (1−q) v<br />

m<br />

∞<br />

δ(z−m)q<br />

m=0<br />

m (1 − q)<br />

θ(z − b)θ(z − a) 1<br />

b−a<br />

√<br />

1<br />

e<br />

2πσ − 1 <br />

(z−µ)<br />

2<br />

2 σ2 <br />

1<br />

θ(z) n<br />

2 2 Γ( n )<br />

2<br />

θ(z)<br />

vq<br />

1−q<br />

q<br />

1−q<br />

b+a<br />

2<br />

vq<br />

(1−q) 2 ( 1−q<br />

1−qe ik )v<br />

q<br />

(1−q) 2<br />

(b−a) 2<br />

12<br />

1−q<br />

1−qe ik<br />

e ikb −e ika<br />

ik(b−a)<br />

µ σ 2 e iµk−σ2 k 2 /2<br />

1<br />

√ 2π e −z2 /2 0 1 e −k2 /2<br />

m<br />

mn 2<br />

B( m 2 , n · )<br />

2<br />

Γ( n+1<br />

2 )<br />

Γ( n 2 )√ πn ·<br />

n<br />

2<br />

· z<br />

−1<br />

e − z 2<br />

m−1 2<br />

z<br />

m+n<br />

1+ m x 2<br />

n<br />

1<br />

1+ z 2<br />

n<br />

n+1<br />

2<br />

n 2n 1/ √ 1 − 2ik n<br />

n<br />

, n ≥ 3<br />

n−2<br />

0, n ≥ 2<br />

2n 2 (m+n−2)<br />

m(n−2) 2 , n ≥ 5<br />

(n−4)<br />

n<br />

, n ≥ 3<br />

n−2<br />

θ(z) 1<br />

β e−z/β β β 2 1/(1 − ikβ)<br />

1<br />

θ(z) Γ(α)βα e−z/βzα−1 αβ αβ2 1/(1 − ikβ) α<br />

1<br />

π ·<br />

λ<br />

λ 2 +(z−µ) 2<br />

(existiert<br />

eigentlich<br />

nicht) ” µ“<br />

∞ e iµk−λ|k|


30 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.2.6 Grenzverteilungen <strong>und</strong> zentraler Grenzwertsatz<br />

2.2.6.1 Zentraler Grenzwertsatz nach Lindenberg-Lévy<br />

Seien n unabhängige Zufallsvariablen alle nach derselben Verteilungsdichte fZ < ∞. Dann<br />

verteilt: fZ besitze einen Erwartungswert 〈Z〉 <strong>und</strong> eine Varianz σ2 Z<br />

strebt die Verteilungsdichte fY (y) der Zufallsvariablen<br />

n<br />

Y n = 1<br />

n<br />

n<br />

i=1<br />

Zi − 〈Z〉 / σZ √n<br />

im Grenzwert n → ∞ gegen eine Normalverteilung<br />

lim<br />

n→∞ fY (y) = N (y) :=<br />

n 1<br />

√ e<br />

2π −y2 /2<br />

Beweis: Über charakteristische Funktion χ Z (k) = 〈e ikZ 〉<br />

(2.45)<br />

(2.46)<br />

(Für praktische Zwecke: Normalverteilung gut ab etwa n ∼ 30)<br />

- Definiere X = Z−〈Z〉<br />

√ ⇒ χ (k) = 〈e<br />

σ n<br />

Z<br />

X ik(Z−〈Z〉)/σ √ √<br />

n〉 −ik〈Z〉/σ n<br />

Z = e Z<br />

k<br />

χZ ( √ )<br />

σ n<br />

Z<br />

- Damit ist Y n = n<br />

i=1<br />

- Taylorentwicklung: ln χ X (k) = C (0)<br />

X<br />

mit: C (0)<br />

X<br />

= 0; C(1)<br />

X<br />

n<br />

ik X <br />

i<br />

Xi ⇒ χ (k) = e i=1 =<br />

Y n<br />

unabhängig<br />

= 〈X〉 = 0<br />

C (2)<br />

X = 〈X2 〉 − 〈X〉 2<br />

C (m)<br />

X<br />

<br />

=0<br />

dm<br />

= (−i)m<br />

= (−i) m 1<br />

√<br />

σ n<br />

Z<br />

= 1<br />

σ 2<br />

Z n<br />

m d m<br />

dq m ln<br />

n<br />

i=1<br />

1<br />

+ iC(1) X k − 2 C(2) X k2 + . . .<br />

(Z − 〈Z〉) 2 <br />

<br />

σ 2<br />

Z<br />

dkm <br />

ln eikX <br />

k=0<br />

<br />

eiq(Z−〈Z〉) = 1<br />

n<br />

<br />

eikX n i = χ (k)<br />

X<br />

q=0 ∝ n − m 2 C (m)<br />

Z<br />

√<br />

Setze nun q = k/σZ n<br />

- Einsetzen: χ (k) = exp<br />

X − k2<br />

2n + O(n−3/2 ) <br />

n χ (k) = χ (k) = exp<br />

Y n<br />

X − k2<br />

2 + O(n−1/2 ) −→ exp(<br />

n→∞ −k2<br />

2 )<br />

∞<br />

- Ursprüngliche Verteilung aus Rücktransformation: χ (k) = dy f<br />

Y Y (y)e<br />

−∞<br />

iky<br />

⇒ fY (y) = 1<br />

∞<br />

dk e 2π<br />

−∞<br />

−ikyχ (k) =<br />

Y 1<br />

∞<br />

dk e 2π<br />

−∞<br />

−ikye−k2 /2<br />

(quadratische Ergänzung)<br />

= 1<br />

2π e−y2 ∞<br />

/2 dk e − 1 2 (k+iy)2<br />

−∞<br />

<br />

√<br />

2π<br />

Bemerkung: Gilt auch für nicht identisch verteilte Zufallsvariablen.<br />

<br />

Zusatzbedingung an dritte Momente: lim<br />

n→∞<br />

〈Z 3 1 〉+···〈Z 3 n 〉<br />

σ 2 1 +···σ 2 n<br />

1/2 = 0<br />

Ergänzung: Eine Verteilung, gegen die die Verteilung des Mittelwerts von<br />

n identisch verteilten Zufallsvariablen im Limes n → ∞ strebt, heißt<br />

stabile Grenzverteilung. Auch Verteilungen ohne zweites Moment (z.B.<br />

Cauchy-Verteilung) können stabile Grenzverteilungen haben<br />

→ Lévy-Verteilungen (Lévy, Khintchin).


2.2. WAHRSCHEINLICHKEITSTHEORIE 31<br />

2.2.6.2 Allgemeines zu Lévy-Verteilungen (ohne Beweis)<br />

• Beispiele für Lévy-Verteilungen: Gauß-Verteilung, Poisson-Verteilung, Cauchy-<br />

Verteilung, Gamma-Verteilung<br />

• ” stabil“: Die Summe zweier unabhängiger, Gauß-(bzw. Poisson-/Cauchy-/Gamma-<br />

/. . . ) verteilter zufälliger Variablen ist wieder Gauß-(bzw. Poisson-/Cauchy-<br />

/Gamma-/. . . ) verteilt. ( ” Reproduktivität“)<br />

Äquivalent: Faltung zweier Verteilung(sdicht)en hat wieder die gleiche<br />

Form.<br />

( Für vorgegebene ai, bi gibt es a, b, so dass<br />

∞<br />

f(a1z + b1) ∗ f(a2z + b2) := dζ f(a1(z − ζ) + b1)f(a2ζ + b2) = f(az + b) )<br />

−∞<br />

• Allgemeine Form der charakteristischen Funktion<br />

Eine Zufallsgröße Z ist genau dann stabil, wenn der Logarithmus ihrer<br />

charakteristischen Funktion darstellbar ist in der Form<br />

ln χ (k) = iγk − c|k|<br />

Z α (1 − iβ k<br />

<br />

tan<br />

|k| · ω(k, α)) mit ω(k, α) =<br />

πα<br />

2 α = 1<br />

− 1<br />

π ln k α = 1<br />

wobei γ ∈ R beliebig, c ≥ 0, 0 < α ≤ 2, −1 ≤ β ≤ 1<br />

Bedeutung: γ, c : nicht so wichtig, Lage <strong>und</strong> Skalierung<br />

(z.B. f(z) → f(z − γ) ⇒ χ(k) = 〈e ikZ 〉 → 〈e ik(Z+γ) 〉 = e ikγ χ(k),<br />

für c = 0 besitzt Z eine ausgeartete (Einpunkt-)Verteilung)<br />

α, β : Definieren Form der Funktion<br />

❀ Grenzverteilungen werden durch α, β parametrisiert: Lα,β(z)<br />

α : charakteristischer Exponent ↔ Verhalten bei großen |z|<br />

α < 2 : Lα,β(z) ∼ 1<br />

|z| 1+α für z → ±∞<br />

α = 2 : L2,β(z) Gaußverteilung, unabhängig von β (ω(k, 2) = 0)<br />

Bemerkung: α < 2 : 2. Moment existiert nicht<br />

α < 1 : Erwartungswert existiert nicht<br />

β : Asymmetriefaktor (β = 0 ⇒ Lα,β(z) = Lα,β(−z) gerade)<br />

• Lα,β(z) ist Grenzverteilung genau dann, wenn<br />

α = 2 : fZ(z) hat zweites Moment (zentraler Grenzwertsatz, Gaußverteilung)<br />

α < 2 : fZ(z) ∝ α·aαc± |z| 1+α für z → ±∞ mit c± > 0 <strong>und</strong> a > 0<br />

• Anwendungen<br />

⎧<br />

⎨ c−−c +<br />

c<br />

Dann ist β = ++c− c<br />

⎩ +−c− c ++c− - Phasenübergänge am kritischen Punkt<br />

- Selbstorganisation<br />

(- Börse)<br />

<br />

für α = 1<br />

π(c++c−) α = 1<br />

; c = 2αΓ(α) sin(πα/2)<br />

für α = 1 π<br />

2 (c+ + c−) α = 1


32 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.2.7 ” Dynamik“ von Zufallsvariablen: Stochastische Prozesse<br />

2.2.7.1 Begriffe <strong>und</strong> Definitionen<br />

• Stochastischer Prozess:<br />

” Sich zeitlich ändernde Zufallsgröße Z“<br />

Familie <br />

Zt von Zufallsvariablen mit I = N oder I = R (Indexmenge)<br />

t= Zeit“; I = N= diskrete Zeitschritte, I = R= kontinuierliche Zeit<br />

”<br />

Zugehörige Verteilung(sdicht)en: (gemäß 2.2.4 S.27 <strong>und</strong> 2.2.2 S.25)<br />

- Verteilung(sdichte) zu einer Zeit t: p1(z, t) = 〈δ(z − Z t)〉<br />

- n-Punkt Verteilung(sdichte) zu verschiedenen Zeiten:<br />

pn(zn, tn;···; z2, t2; z1, t1) = 〈δ(z1−Z t1 )δ(z2−Z t2 )··· δ(zn−Z tn )〉<br />

( ” Wahrscheinlichkeitsdichte dafür, dass Z zur Zeit t1 den Wert z1 annimmt <strong>und</strong><br />

zur Zeit t2 den Wert z2 etc. “)<br />

Es gilt (Beweis trivial durch Einsetzen):<br />

∞<br />

−∞<br />

dzn pn(zn, tn;···; z1, t1) = pn−1(zn−1, tn−1;···; z1, t1) (2.47)<br />

- Bedingte Wahrscheinlichkeits(dichte)verteilung<br />

für (Zk+1··· Zk+l) bei vorgegebenem (Z<br />

1··· Zk): Notation: pl|k(zk+l, tk+l;···; zk+1, tk+1<br />

zk, tk;···; z1, t1)<br />

Definition: = pk+l(zk+l, tk+l;···; z1, t1)<br />

pk(zk, tk;···; z1, t1)<br />

• Stationärer Prozess:<br />

” Keine zeitliche Entwicklung“<br />

Für alle n <strong>und</strong> mögliche △t gilt:<br />

(2.48)<br />

pn(zn, tn+△t;···; z1, t1+△t) = pn(zn, tn;···; z1, t1) (2.49)<br />

• Markov-Prozess:<br />

” Kein Gedächtnis“<br />

Stochastischer Prozess, in dem für alle t1 < t2


2.2. WAHRSCHEINLICHKEITSTHEORIE 33<br />

Berechnung für den Grenzwert langer Zeiten t → ∞:<br />

Es gilt: X T = T<br />

Y i mit Y i = Sprünge“, unabh. Zufallsvariablen,<br />

i=1<br />

”<br />

verteilt nach fY (y) = 1<br />

1<br />

2δ(y − l) + 2δ(y + l) ⇒ 〈Y 〉 = 0, σ2 Y = l2<br />

Für T → ∞ gilt zentraler Grenzwertsatz f T<br />

⇒ p1(x T , t) =<br />

(ii) Kontinuierliche Zeit<br />

Definiere D = l2<br />

2τ<br />

1<br />

→ p1(x, t) =<br />

2 √ πDt<br />

√<br />

Y i /σY T<br />

i=1<br />

1 √ e<br />

2πl2T −x2 T /2l2T 1 = √ e<br />

2πl2t/τ −x2 T /2l2t/τ (y) → N (y)<br />

(Diffusionskonstante) (2.51)<br />

x2<br />

4Dt<br />

e−<br />

- Random Walk mit zufällig verteilten ” Wartezeiten“ τ<br />

(Continuous time random walk)<br />

- Deterministische Hamiltonsche Bewegung<br />

Fasse {q, p} als Zufallsvariable auf; kennt man {q, p} zur Zeit t0,<br />

so kennt man auch die gesamte künftige Trajektorie;<br />

Kenntnisse über t < t0 sind nicht erforderlich.<br />

- Brownsche Bewegung (Archetyp eines stochastischen Prozesses)<br />

(2.52)<br />

Großes Teilchen (Masse M) umgeben von vielen<br />

kleinen Teilchen. Stöße der kleinen Teilchen<br />

werden als stochastische Kraft wahrgenommen.<br />

→ (in 1 Dimension): ˙v = − γ<br />

<br />

Reibung<br />

·v + 1<br />

M<br />

· η(t)<br />

<br />

stochastische<br />

Kraft<br />

Langevin-Gleichung unkorreliert 〈η(t)η(t ′ )〉 = δ(t − t ′ ) · 2γMkBT<br />

2.2.7.3 Dynamische Gleichungen für Markov-Prozesse<br />

• Chapman-Kolmogorov-Gleichung (Konsistenzbedingung für p 1|1 )<br />

Für t3 ≥ t2 ≥ t1 gilt:<br />

<br />

p (z3, t3|z1, t1)=<br />

1|1<br />

dz2 p 1|1 (z3, t3|z2, t2) p 1|1 (z2, t2|z1, t1) (2.53)<br />

(Beweis: Zu zeigen (abgekürzte Schreibweise): dz2 p 1|1 (3|2) p 1|1 (2|1) = p 1|1 (3|1)<br />

Wegen (2.48) gilt: p2(2; 1)<br />

<br />

=p 1 (1)p 1|1 (2|1)<br />

wegen (2.48)<br />

· p 1|2(3|2; 1)<br />

<br />

=p 1|1 (3|2)<br />

wegen (2.50)<br />

= p3(3; 2; 1)


34 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

Integriere: p1(1) dz2 p 1|1(2|1)p 1|1(3|2) = dz2 p3(3; 2; 1) (2.47)<br />

= p2(3; 1) (2.48)<br />

= p1(1)p 1|1(3|1)<br />

)<br />

• Nimm zusätzlich Stationarität <br />

an <br />

<br />

<br />

p (z2, t2 + △t<br />

1|1 z1, t1 + △t) = p (z2, t2<br />

1|1 z1, t1) für alle zi, ti, △t<br />

Motiviert zusammen mit Chapman-Kolmogorov<br />

Definition einer Übergangsrate W<br />

p (z1, t+τ|z2, t) = δ(z1−z2) 1|1 τ<br />

klein<br />

<br />

1−τ<br />

1<br />

(Erklärung: z1 = z2 : W (z1|z2) = lim<br />

τ→0 τ p1|1 (z1, t+τ|z2, t) )<br />

• Mastergleichung<br />

∂<br />

∂t p1(z1,<br />

<br />

t) =<br />

<br />

dz2 W (z1|z2) p1(z2, t) −<br />

dz W (z|z2) +τW (z1|z2) (2.54)<br />

dz2 W (z2|z1) p1(z1, t) (2.55)<br />

(Beweis: Wende Operation dz2 p1(z2, t) auf Gleichung (2.54) an:<br />

<br />

<br />

dz2p1(z2, t)p (z1, t+τ|z2, t) = dz2p1(z2, t)δ(z1−z2) 1|1<br />

<br />

p1(z1,t+τ)<br />

<br />

1−τ dz W (z|z2) <br />

+<br />

<br />

<br />

p1(z1,t) 1−τ dz W (z|z1)<br />

dz2p1(z2, t)τW (z1|z2)<br />

⇒ p1(z1, t + τ) − p1(z1, t) = τ dz2 p1(z2, t) W (z1|z2) − τ p1(z1, t) dz W (z|z1) )<br />

Beispiel: Diskreter Random Walk<br />

<br />

1<br />

p (x2, t + τ|x1, t) = 2 : x2 = x1 ± l<br />

1|1<br />

0 : sonst<br />

<br />

1<br />

⇒ W (x2|x1) = 2τ : x2 = x1 ± l<br />

− 1<br />

τ : x2 = x1<br />

<br />

<br />

damit erfüllt W: p (x2, t+τ|x1, t) = δ 1|1 x1x 1−τ W (y|x1)<br />

2<br />

y<br />

<br />

+τW (x1|x1)<br />

∂<br />

⇒ Mastergleichung:<br />

” ∂t p1(x, t)“ = <br />

{W (x|y) p1(y, t) − W (y|x) p1(x, t)}<br />

y<br />

1<br />

entspricht: p1(x, t + τ) − p1(x, t) τ<br />

= 1 <br />

p1(x + l, t) + p1(x − l, t) 2τ<br />

− 1<br />

τ p1(x, t)<br />

zu lösen mit Anfangsbedingung p1(x, 0) = δx0 • Fokker-Planck-Gleichung<br />

(Näherungs-)Entwicklung der Mastergleichung um z1 bis zur 2. Ordnung<br />

Definiere: W (z2|z1)=: ˜ W (−ξ|z1) mit ξ =z1−z2 ⇒ W (z1|z2)= ˜ W (ξ|z1−ξ)<br />

⇒ ∂<br />

∂t p1(z1, t) = dξ { ˜ W (ξ|z1 − ξ)p1(z1 − ξ, t) − ˜ W (−ξ|z1)p1(z1, t)}<br />

= <br />

dξ {[1+<br />

(−ξ) ∂ 1 ∂2<br />

+ ξ2<br />

∂z1 2 ∂z2 + · · · ]<br />

1<br />

˜ W (ξ|z1)p1(z1, t)<br />

− ˜ <br />

W (−ξ|z1)p1(z1,<br />

t)}<br />

≈ − ∂ <br />

dξ ξ W ˜ (ξ|z1)p1(z1, t) + ∂z1<br />

1 ∂<br />

2<br />

2 <br />

dξ ξ2 W ˜ (ξ|z1)p1(z1, t)<br />

⇒ ∂<br />

∂t p1(z, t) ≈ − ∂ <br />

α1(z)p1(z, t)<br />

∂z<br />

+ 1<br />

2<br />

∂z 2 1<br />

∂2 ∂z2 α2(z)p1(z, t) <br />

(2.56)


2.2. WAHRSCHEINLICHKEITSTHEORIE 35<br />

<br />

mit αn(z) =<br />

Beispiele<br />

dξ ξ n ˜ W (ξ|z) : Sprungmomente (2.57)<br />

- Diskreter Random Walk<br />

˜W (±l|x) = 1/2τ, ˜ W (0|x) = 0 ⇒ α1 = 0, α2 = l 2 /τ<br />

⇒ ∂<br />

∂t p1(x, t) = 1<br />

2<br />

l 2<br />

τ<br />

∂ 2<br />

∂x 2 p1(x, t) = D ∂2<br />

∂x 2 p1(x, t)<br />

Lösung mit Anfangsbedingung p1(x, 0) = δ(x):<br />

Wieder Gaußverteilung: p1(x, t) = 1<br />

√ 4πDt e −x2 /4Dt<br />

- Brownsche Bewegung<br />

Fokker-Planck-Gleichung:<br />

∂<br />

∂t p1(v, t) = ∂<br />

<br />

∂v γvp1(v, t) + γkBT<br />

M<br />

Äquivalent zur Langevin-Gleichung<br />

(ohne Beweis)<br />

∂ 2<br />

∂v 2 p1(v, t)


36 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.3 Das Prinzip der maximalen Ignoranz (Jaynesches<br />

Prinzip)<br />

2.3.1 Der Gr<strong>und</strong>gedanke der statistischen Mechanik<br />

2.3.1.1 Erinnerung an Kapitel 2.1: Ergodizität<br />

System von N Teilchen, Hamiltonsche mikroskopische Dynamik<br />

Phasenraum Ω = {(q1·· qN ; p1·· pN )} von Mikrozuständen Γ<br />

<br />

Orte Impulse<br />

Zeitliche Entwicklung: Γ → Γ(t) : Trajektorie eines Mikrozustands<br />

Es gelte<br />

(i) Liouvillesatz (Eigenschaft der Hamiltonschen Dynamik)<br />

Betrachtet man die zeitliche Entwicklung einer Verteilung ϱ(Γ)<br />

von Mikrozuständen, so bleibt diese entlang einer Trajektorie<br />

konstant: ϱ(Γ(t), t) = const.<br />

Alternative Formulierung:<br />

Propagiere ein beliebiges Volumen V von Ω:<br />

V (t) bleibt gleich, d.h. das Maß d 3N q d 3N p<br />

invariant unter der vorgegebenen Dynamik<br />

(ii) Ergodizitätsannahme (unbewiesene Behauptung)<br />

Fast alle Trajektorien Γ(t) berühren fast alle Punkte auf der Energiefläche<br />

ΩE = {Γ ∈ Ω : H (γ) = E}<br />

Aus (i) ind (ii) folgt Ergodentheorem:<br />

Für glatte, integrable Funktionen A (Γ(t)) gilt:<br />

1 lim<br />

T →∞<br />

T<br />

T<br />

dt A (t) = <br />

dµ(Γ) A (Γ)<br />

0<br />

” Zeitmittel“ = ” Scharmittel“<br />

Ω<br />

dµ = d3Nq d3N <br />

p δ(H (Γ)−E)<br />

d<br />

Ω<br />

3Nq d3Np δ(H (Γ)−E)<br />

(normiertes Maß)<br />

(2.58)<br />

⇒ Linke Seite ( ” Zeitmittel“): Ergebnis einer Messung, wenn über einen unendlich<br />

langen Zeitraum gemittelt wurde.<br />

Rechte Seite ( ” Scharmittel“): hat die Form eines Erwartungswertes 〈A 〉 in<br />

einem Wahrscheinlichkeitsraum Ω mit einem Wahrscheinlichkeitsmaß µ,<br />

in dem alle Mikrozustände Γ mit H (Γ) = E gleichwahrscheinlich sind.<br />

⇒ Motiviert statistische Beschreibung des Systems (Boltzmann)<br />

Vorteil: Mikroskopische Dynamik <strong>und</strong> genaue Anfangsbedingungen spielen<br />

keine Rolle mehr ❀ erhebliche Vereinfachung. (De facto einzige Möglichkeit,<br />

mit großen Systemen überhaupt umzugehen)<br />

Problematik: - Ergodenhypothese schwer zu beweisen<br />

- Meßzeiträume sind nicht unendlich lang<br />

- I.A. gibt es mehr Erhaltungsgrößen als nur Energie,<br />

manchmal nicht leicht identifizierbar


2.3. DAS PRINZIP DER MAXIMALEN IGNORANZ 37<br />

Glücklicherweise gibt es noch einen alternativen Zugang:<br />

2.3.1.2 Das Prinzip der maximalen Ignoranz<br />

Idee: Gegeben sei ein makroskopisches System. Wir nehmen an, wir kennen<br />

einige makroskopische Größen, z.B. E, V, N, aber wir wissen nichts über<br />

den mikroskopischen Zustand.<br />

❀ Man kann für den voraussichtlichen mikroskopischen Zustand Γ des Systems<br />

nur eine Prognose abgeben - entspricht einer Wahrscheinlichkeitsverteilung<br />

P (Γ). Prognose muss verfügbare Information berücksichtigen, aber sonst<br />

vorurteilsfrei sein.<br />

❀ Prinzip der maximalen Ignoranz (Gibbs, Einstein, Tolman)<br />

Konkret: Falls E, V, N feststeht, bedeutet Vorurteilslosigkeit: Kein Zustand<br />

bevorzugt ⇒ p(Γ) = δ(H (Γ) − E)/ <br />

d3Nq d3Np δ(H (Γ) − E)<br />

❀ Erwartungswert für das Ergebnis der Messung einer Größe A :<br />

〈A 〉 = <br />

d3Nq d3Np p(Γ)A (Γ)<br />

Ω<br />

❀ derselbe Ausdruck wie aus der Ergodenhypothese<br />

Problematik: Prognosen für Meßergebnisse sind Ensemblemittelwerte. De facto<br />

werden Messungen an einem System gemacht <strong>und</strong> nicht an einem Ensemble<br />

❀ etwas unbefriedigend.<br />

Vorteile:<br />

- Voraussetzungen klar definiert, nicht fraglich wie Ergodenhypothese<br />

- Ansatz lässt sich erweitern auf allgemeinere Probleme, z.B. sind Systeme<br />

oft im Wärmeaustausch mit ihrer Umgebung. Dann ist E nicht fest, aber<br />

E wäre immer noch eine makroskopisch zugängliche Größe.<br />

Um auch allgemeinere Fälle behandeln zu können, muss das Jaynesche Prinzip<br />

noch besser quantifiziert werden: Was ist ” Ignoranz“?<br />

2.3.2 Ignoranz <strong>und</strong> Informationsentropie<br />

2.3.2.1 Informationsentropie als quantitatives Maß für Ignoranz<br />

” Ignoranz“ = Fehlen von Information, oder<br />

Der Informationsgewinn, den man erzielen würde, wenn es<br />

einem gelänge, den mikroskopischen Zustand genau<br />

zu bestimmen.<br />

Allgemeiner: Gegeben sei ein Ereignisraum Ω<br />

❀ Ignoranz = Informationsgewinn nach einem idealen Versuch, der einem<br />

genau ein Ergebnis ω ∈ Ω liefert.<br />

Gesucht: Quantitatives Maß für Informationsgewinn<br />

Betrachte zur Vereinfachung zunächst diskreten Ereignisraum Ω = {ω1 · · · ωM}<br />


38 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

• Falls Ereignisse gleichverteilt sind<br />

❀ Vernünftiges Maß für Informationsgewinn wäre die Anzahl von<br />

Ja/Nein-Fragen (Antworten), die nötig sind, um ein Ergebnis zu<br />

spezifizieren (Bits) (Beispiel)<br />

• Falls Ereignisse nicht gleichverteilt sind, z.B.<br />

❀ Zu erwartender Informationsgewinn nicht hoch, da Versuch fast<br />

immer ωn0 liefert (vorhersagbar).<br />

Definition über Anzahl der Ja/Nein-Fragen nicht so sinnvoll<br />

❀ Fragen, Antworten müssen verschieden gewichtet werden.<br />

⇒ Gesucht ist eine Funktion J(p1, . . . pM), die die Ignoranz der Verteilung<br />

ω = {p1 . . . pM} (mit pi = 1) sinnvoll bewertet.<br />

(Funktion von ω, unabhängig von der konkreten ” Bedeutung“ der pi, d.h.<br />

der damit verknüpften Ereignisse)<br />

Forderung an Ignoranz J(p1, . . . pM)<br />

(i) Sollte symmetrisch sein bzgl. Vertauschung von pi <strong>und</strong> pj<br />

( ” Nummerierung“ der Ergebnisse egal)<br />

Sollte stetig von pi abhängen<br />

(ii) Sollte für Gleichverteilung maximal sein<br />

J(p1, . . . pM) = J( 1 1<br />

M , . . . M ) = L(M)<br />

Sollte im Fall von Gleichverteilung mit der Zahl der Ereignisse<br />

zunehmen (⇒ L(M) wächst monoton mit M)<br />

(iii) Der Informationsgewinn nach einzelnen Fragen sollte additiv sein<br />

J(p1, . . . pM ) = J(¯p1, . . . ¯pM ) + n<br />

α=1<br />

¯pαJ( p(α)<br />

1<br />

¯pα<br />

etc.<br />

, . . . p(α)<br />

mα<br />

¯pα )<br />

” Vergröberung“<br />

gesamter Informationsgewinn mittlerer Informationsgewinn<br />

Infor- nach 1. Frage nach restlichen Fragen<br />

mations- pi = µ(Ωi) p (α)<br />

gewinn ( vergröberte<br />

”<br />

Ignoranz“)<br />

i /¯pα = P (ω(α)<br />

i |Ωα):<br />

bedingte Wahrscheinlichkeit für ein<br />

Ereignis ω (α)<br />

i , wenn Ωα feststeht<br />

❀ Ignoranz sollte bei Vergröberung additiv sein.<br />

Beispiel: Ziehe zwei Kugeln aus einer Urne<br />

❀ Ω = {(◦◦), (◦•), (•◦), (••)} = {ω1, ω2, ω3, ω4}<br />

zu (ii) Maximale Ignoranz → pi = 1<br />

4


2.3. DAS PRINZIP DER MAXIMALEN IGNORANZ 39<br />

Zusatzinformation: Die Urne enthält anfangs je 2 weiße <strong>und</strong> schwarze<br />

Kugeln<br />

⇒ (siehe 2.2.2 S.25) p1 = p4 = 1<br />

6 , p2 = p3 = 1<br />

3<br />

⇒ nicht mehr maximal ignorant wegen Zusatzinformation<br />

zu (iii) z.B. Frage ” Sind Kugeln gleichfarbig?“<br />

= Vergröberung ¯ Ω1 = {ω1, ω4}, ¯ Ω2 = {ω2, ω3}<br />

Satz von Shannon (1948)<br />

(Beweis:<br />

Forderungen (i) - (iii) legen Funktion J bis auf eine Konstante fest:<br />

J(p1, . . . pM) = −κ<br />

M<br />

pi ln pi mit κ > 0 (2.59)<br />

i=1<br />

❀ Shannon-Entropie oder Informationsentropie<br />

(i) Stetigkeit ❀ Es genügt, J(¯p1, . . . ¯pn) für rationale ¯pα zu berechnen.<br />

❀ Berechne J( m1 mn<br />

, . . . ), wobei M: kleinstes gemeinsames Vielfaches der ¯pα<br />

M M<br />

mα = ¯pα − M, mα = M<br />

(iii) L(M) = J( 1 1<br />

, . . . M M ) = J(¯p1, . . . ¯pn) + ¯pαJ( 1/M 1/M<br />

, . . . ¯pα ¯pα )<br />

= J(¯p1, . . . ¯pn) + mα 1 1<br />

J( , . . . M mα mα )<br />

⇒ J( m1 mn<br />

mα<br />

, . . . ) = L(M) − M M α L(mα) (∗)<br />

M<br />

Zeige nun: Aus (∗) <strong>und</strong> (ii) folgt: L(N) = κ ln N für alle N mit κ > 0<br />

- (∗), wähle mα ≡ m ⇒ m · n = M ⇒ J( m m<br />

, . . . ) = L(n) = L(M) − L(m)<br />

M M<br />

⇒ L(m) + L(n) = L(m · n)<br />

- Definiere für ein M: κ = L(M)<br />

ln M (∗∗)<br />

Es gilt L(M) > L(1) <strong>und</strong> L(1)=L(1·1)=L(1)+L(1) ⇒ L(1)=0 ⇒ κ > 0<br />

(ii)<br />

- Betrachte beliebiges N. Bestimme m, n so, dass (ln M) n<br />

n+1<br />

≤ ln N ≤ (ln M) m m<br />

⇒ ln M n ≤ ln N m ≤ ln M n+1 ⇒ M n ≤ N m ≤ M n+1<br />

⇒ L(M n ) ≤ L(N m ) ≤ L(M n+1 ) ⇒ n<br />

n+1<br />

L(M) ≤ L(N) ≤ m m L(M)<br />

n 1<br />

n+1<br />

⇒ (ln M) ≤ L(N) ≤ (ln M)<br />

(∗∗)<br />

m κ m<br />

Vergleiche, gilt für beliebig große m ⇒ L(N) = κ ln N ∀N<br />

Einsetzen in (∗) ⇒ J( m1 mn<br />

, . . . M M ) = κ(ln M − mα<br />

M ln mα) = κ mα mα<br />

ln M M<br />

Erweiterung auf kontinuierliche Verteilungen<br />

)<br />

Gegeben sei statt {p1 · · · pM} kontinuierliche Verteilungsdichte p(x)dx<br />

mit p(x)dx = 1<br />

” Naive“ Erweiterung pi ln pi → dx p(x) ln dx p(x) geht natürlich<br />

nicht, da dx infinitesimal ist.<br />

Stattdessen: Auflösung“ ∆ (mit derselben Dimension wie dx“)<br />

” ”<br />

<br />

J∆ (p) = −κ dx p(x) ln ∆ · p(x) <br />

(2.60)<br />

NB:<br />

• ∆ · p(x) ist dimensionslos, wie sich das für ein Argument eines<br />

Logarithmus gehört.<br />

• J∆ (p)−J∆ ′ (p) = κ ln ∆′<br />

∆ ❀ J∆ (p) <strong>und</strong> J∆ ′ bis auf eine Konstante<br />

identisch.


40 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.3.2.2 Eigenschaften der Informationsentropie<br />

• Konkavität<br />

Gegeben zwei Wahrscheinlichkeitsverteilungen<br />

W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />

Betrachte W (λ) = {p (λ)<br />

1<br />

• Extremalität<br />

• Additivität<br />

, · · · p(λ)<br />

M } mit p(λ)<br />

i = λpi + (1 − λ)¯pi (0 ≤ λ ≤ 1)<br />

Dann gilt: J(W (λ) ) ≥ λJ(W ) + (1 − λ)J( ¯ W ) (2.61)<br />

(Bew.: Gilt schon für jeden<br />

einzelnen Beitrag<br />

)<br />

Vergleiche zwei Wahrscheinlichkeitsverteilungen<br />

W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />

Dann gilt: J(W ) ≤ −κ<br />

M<br />

i=1<br />

pi ln ¯pi mit ” = “ ⇔ pi = ¯pi (2.62)<br />

(Beweis: Es gilt: y − 1 ≥ ln y mit =“ ⇒ y = 1<br />

”<br />

❀ pi ln ¯pi − pi ln pi = pi ln ¯pi<br />

pi ≤ pi( ¯pi<br />

pi<br />

= 1 − 1 = 0<br />

⇒ −κ pi ln pi ≤ −κ pi ln ¯pi )<br />

Gegeben zwei unabhängige Ereignisräume<br />

ΩI = {ω (I)<br />

1 , · · · ω(I)<br />

M }, ΩII = {ω (II)<br />

1 , · · · ω (II)<br />

M }<br />

mit Wahrscheinlichkeitsverteilungen<br />

WI = {p (I)<br />

1 , · · · p(I)<br />

M }, WII = {p (II)<br />

1 , · · · p (II)<br />

M }<br />

Betrachte zusammengesetzten Raum Ω = ΩI × ΩII = {(ω (I)<br />

i , ω (II)<br />

j<br />

❀ Wahrscheinlichkeitsverteilung W = WI · WII = {(p (I)<br />

i , p (II)<br />

j<br />

mit pij = p (I)<br />

i · p (II)<br />

j = Wahrscheinlichkeit, dass sowohl ω(I)<br />

i<br />

als auch ω (II)<br />

j<br />

eintritt.<br />

− 1)<br />

)}<br />

)} ≡ {pij}<br />

Dann gilt: J(WI · WII) = J(WI) + J(WII) (2.63)<br />

(Beweis:<br />

<br />

pij ln pij =<br />

i,j<br />

<br />

p<br />

i,j<br />

(I)<br />

i<br />

· p (II)<br />

j<br />

ln p (I)<br />

i<br />

Anschaulich: unabhängige Systeme<br />

<br />

+ ln p(II)<br />

j = p<br />

i<br />

(I)<br />

i ln p (I) <br />

i + p<br />

j<br />

(II)<br />

j ln p (II)<br />

j )<br />

❀ Informationsentropie<br />

addiert sich auf!


2.3. DAS PRINZIP DER MAXIMALEN IGNORANZ 41<br />

2.3.3 Das Jaynesche Prinzip<br />

Mathematische Präzisierung des Prinzips der maximalen Ignoranz<br />

(Jaynes, 1957)<br />

Diskrete Version:<br />

Sei Ω = {ω1, . . . ωM} ein Ereignisraum, <strong>und</strong> seien die Erwartungswerte<br />

〈aα〉 von einigen Zufallsvariablen aα(W ) bekannt. Dann ist die maximal<br />

ignorante Wahrscheinlichkeitsverteilung ¯ W = {¯p1 · · · ¯pM} gegeben durch<br />

W = ¯ W ⇔ max<br />

{pi} J(p1 · · · pM) = J(¯p1 · · · ¯pM)<br />

unter den Nebenbedingungen pi = 1 <strong>und</strong> piaα(ωi) = 〈aα〉<br />

Kontinuierliche Version: analog<br />

Maximal ignorante Verteilung ¯ W = {¯p(x)} erfüllt:<br />

W = ¯ W ⇔ max<br />

{p} J∆ (p) = J∆ (¯p) unter den<br />

Nebenbedingungen dx p(x) = 1 <strong>und</strong> dx p(x)aα(x) = 〈aα〉<br />

(2.64)<br />

(2.65)<br />

Bemerkung: Wie maximiert man eine Funktion f(x) bei vorgegebenen Nebenbedingungen<br />

aα(x) = 0 ?<br />

Antwort: Lagrange Multiplikatoren (evtl. bekannt aus Mechanik)<br />

Rezept: (i) Maximiere f(x) − λαaα(x) für allgemeine λα<br />

❀ Gleichung ∇f(x) − λα ∇aα(x) = 0<br />

❀ Lösung x0({λα})<br />

(ii) Bestimme λα so, dass Nebenbedingung aα(x0) erfüllt ist.<br />

Begründung: Maximum x0 von f(x) bei Nebenbedingung aα(x) = 0<br />

muss erfüllen:<br />

• Nebenbedingung aα(x0) = 0 ( klar wegen (ii) )<br />

• δf = δx · ∇f = 0 für alle Verschiebungen δx, die mit Nebenbedingungen<br />

verträglich sind, also ai(x0 + δx) = 0<br />

⇒ δaα = δx · ∇ai = 0<br />

Geometrisch:<br />

(erfüllt wegen (i): ∇f = λα ∇aα(x) ⇒ δx · ∇f = λα δx · ∇aα(x)<br />

<br />

=0 laut<br />

Voraussetzung<br />

= 0<br />

x: D-dimensional, k Nebenbedingungen<br />

→ definieren (D − k)-dimensionale Hyperfläche H<br />

Gradientenvektoren vα = ∇aα stehen senkrecht auf H<br />

❀ Tangentenvektoren u zur Hyperfläche stehen senkrecht auf<br />

allen ∇aα: u · ∇aα = 0<br />

Gesuchtes Minimum: f ändert sich nicht bei infinitesimaler<br />

Verschiebung entlang Hyperfläche: ⇒ u ∇f = 0<br />

Beispiel: Jaynesches Prinzip mit einer Nebenbedingung pi = 1<br />

(i) Maximiere J(p1, . . . pM) − λ( pi − 1) = −κ pi ln pi − λ( pi − 1)<br />

⇒ ∂<br />

∂pα (J − λ( pi − 1)) = −κ · (1 + ln pα) − λ ! = 0<br />

⇒ ln pα = − λ<br />

k − 1 ⇒ pα = e −1−λ/κ = const.<br />

(ii) Bestimme λ so, dass pi = 1 ⇒ Me−1−λ/κ = 1 ⇒ λ = κ(ln M − 1)<br />

Gleichverteilung (surprise!)<br />

⇒ pα = e −1−ln M+1 = 1<br />

M


42 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.4 <strong>Statistische</strong> Gesamtheiten<br />

2.4.1 Vorbemerkungen<br />

2.4.1.1 Charakterisierung der Systeme<br />

∗ Isoliertes System<br />

Charakterisiert durch ” Natürliche Variablen“ E, V, N<br />

Frage: Warum genau diese?<br />

Antwort: Erhaltungsgrößen<br />

Falls das System ergodisch ist, wird jeder Punkt des Phasenraums,<br />

der mit Erhaltungsgrößen kompatibel ist, aufgesucht.<br />

⇒ mikroskopische Nebenbedingung<br />

∗ Nichtisolierte Systeme<br />

Mikroskopische Nebenbedingungen nicht mehr gegeben<br />

Stattdessen Erwartungswerte 〈E〉, 〈V 〉, 〈N〉<br />

⇒ makroskopische Nebenbedingung<br />

Frage: Warum gerade diese?<br />

(<strong>und</strong> nicht z.B. 〈E 2 〉, κ ∝ 〈V 2 〉 − 〈V 〉 2 etc.)<br />

Antwort: Gedankenexperiment<br />

• Betrachte N (schwach) gekoppelte, identische Systeme:<br />

Insgesamt isoliert ⇒ EGes = Ei = const.<br />

〈EGes〉 = EGes = 〈 Ei〉 = N〈Ei〉<br />

⇒ 〈 Ei〉 = E/N kann mit Erhaltungsgröße<br />

verknüpft werden (geht bei 〈E2 〉 nicht)<br />

• Wahrscheinlichkeitsverteilung für System i:<br />

Randbedingung: <br />

Ej = EGes−Ei ❀ P (Ei| <br />

j=i<br />

Ej = EGes−Ei)<br />

j=i<br />

Aber: Im Grenzfall N → ∞ darf Wahrscheinlichkeitsverteilung<br />

nicht von N abhängen ⇒ P (Ei) hängt nur von Ei ab.<br />

• Jetzt: Einzelnes System im makroskopischen Wärmebad. Man<br />

weiß nicht, worin Wärmebad besteht, P (Ei) hängt nicht davon<br />

ab ❀ gleiches Ergebnis.<br />

Wichtig für dieses Argument: E muss additiv (extensiv) sein.<br />

Folgerung: Natürliche Variablen müssen<br />

(i) in isolierten Systemen Erhaltungsgrößen sein<br />

(ii) additiv sein.<br />

Falls nur (i) erfüllt: Man kann nur in isolierten Systemen ohne weiteres<br />

statistische <strong>Physik</strong> machen (mikeokanonische Gesamtheit)<br />

Falls (i) <strong>und</strong> (ii) erfüllt: Entwicklung eines allgemeinen Formalismus auf<br />

der Basis des Jayneschen Prinzips (kanonisch, großkanonisch)<br />

NB: Unter bestimmten Umständen (Pseudoerhaltungsgrößen, siehe 3.5 S.84)<br />

kann Forderung (i) fallengelassen werden.


2.4. STATISTISCHE GESAMTHEITEN 43<br />

∗ Wichtigste Gesamtheiten<br />

System mikroskop. makroskop. Gesamtheit<br />

Nebenbed. Nebenbed.<br />

isoliert V, N, E - mikrokanonisch<br />

geschlossen V, N 〈E〉 kanonisch<br />

offen V 〈N〉, 〈E〉 großkanonisch<br />

Jaynesches Prinzip kann in all diesen Fällen angewendet werden.<br />

• Isoliert → klar<br />

• Nichtisoliert → betrachte wieder isoliertes Gesamtsystem von N schwach<br />

gekoppelten, identischen Einzelsystemen.<br />

Wahrscheinlichkeitsverteilung Pges(E1, . . . EN) = <br />

P (Ei)<br />

j <br />

Einzelsystem<br />

(Schwache Kopplung ⇒ Systeme praktisch unabhängig)<br />

⇒ Ignoranz: Iges = <br />

j Ij<br />

ist maximal, wenn jedes einzelne Ij maximal <br />

Jaynesches Prinzip liefert<br />

- Wahrscheinlichkeitsverteilung p(Γ) für den<br />

Mikrozustand Γ = (r1 · · · rN, p1 · · · pN) in der jeweiligen Gesamtheit<br />

- Wert für die Entropie<br />

❀ Zustandsgröße, charakterisiert Makrozustand<br />

2.4.1.2 Festlegung der Konstanten<br />

∗ Festlegung von κ<br />

Informationsentropie I = −κ pi ln pi<br />

→ Entropie der statistischen Mechanik<br />

<br />

S = −kB pi ln pi (analog kontinuierliche Version) (2.66)<br />

mit kB = 1.38 · 10 −23 J/K Boltzmann-Konstante (2.67)<br />

(willkürlich, definiert Einheit 1K)


44 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

∗ Festlegung von ∆<br />

Kontinuierlicher Phasenraum, N Teilchen<br />

Entropie ↔ dΓ p(Γ) ln(∆ p(Γ))<br />

mit ∆= ” Auflösung“, Dimension [∆] = [x] 3N [p] 3N = [Wirkung] 3N<br />

Quantenmechanik: Unschärferelation<br />

kleinstmögliche Auflösung wären Zellen der Größe h 3N<br />

❀ motiviert Wahl ∆ = h 3N<br />

∗ System von N gleichen Teilchen<br />

Forderung: Teilchen sollen nicht ” nummeriert“ sein,<br />

d.h. nebenstehende Konfigurationen sollen<br />

als absolut identisch angesehen werden.<br />

Begründung:<br />

(2.68)<br />

(i) Quantenmechanik: Identische Teilchen sind ununterscheidbar.<br />

(ii) Ohne diese Forderung würde Entropie den Makrozustand nicht<br />

eindeutig charakterisieren. Betrachte z.B.<br />

ideales Gas in einem geteilten Behälter, gleiche<br />

Teilchensorte rechts <strong>und</strong> links, gleiche mittlere<br />

Energie pro Teilchen, gleiche Dichte.<br />

Entferne trennende Wand: Zustand ändert sich nicht, aber Entropie<br />

würde sich ändern, falls Teilchen numeriert wären.<br />

(Gibbssches Paradoxon, mehr dazu Kapitel 2.5 S.50)<br />

Folgerung: Betrachte immer 1<br />

<br />

N! dΓ p(Γ) anstelle von<br />

dΓ p(Γ) = dq1 · · · dqN dp1 · · · dpN p(q1 · · · qN, p1 · · · pN)<br />

Entropie der statistischen Mechanik:<br />

S = −kB · 1<br />

<br />

dΓ p(Γ) ln<br />

N!<br />

h 3N p(Γ) <br />

∗ Verallgemeinerungen<br />

z.B. Verallgemeinerung auf k Teilchensorten j, jeweils Nj <br />

Teilchen<br />

dΓ p(Γ) → dΓ p(Γ)<br />

1<br />

N1!···Nk!<br />

z.B. schwankende Teilchenzahlen ...<br />

Zusammenfassung: Entropie der statistischen Mechanik:<br />

(2.69)<br />

S = −kB 〈ln h 3N p(Γ) 〉 (kontinuierliche Zustände) (2.70)<br />

2.4.1.3 Weitere Annahmen<br />

S = −kB 〈ln p Γ 〉 (diskrete Zustände Γ) (2.71)<br />

∗ Beschränktheit der Energie nach unten<br />

Nimm an, dass es eine Mindestenergie E0 gibt (Gr<strong>und</strong>zustandsenergie,<br />

motiviert durch Quantenmechanik), so dass E immer größer als E0 ist.


2.4. STATISTISCHE GESAMTHEITEN 45<br />

2.4.2 Mikrokanonische Gesamtheit<br />

Mikroskopische Nebenbedingungen: N, V, E fest<br />

konkret: H (Γ) ∈ [E, E + ∆E] (Energieschale)<br />

❀ Nur Mikrozustände in Ω ∆E = {Γ ∈ Ω : H (Γ) ∈ [E, E + ∆E]} zugelassen<br />

Gesucht also: Mikroskopische Verteilungsdichte p(Γ) mit<br />

· p(Γ) = 0 für Γ /∈ Ω∆E · S(p) = −kB · 1<br />

<br />

N! dΓ p(Γ) ln<br />

Ω∆E h3Np(Γ) maximal<br />

mit Nebenbedingung 1<br />

<br />

N! dΓ p(Γ) = 1<br />

Berechnung: δ S(p) − λ[ 1<br />

<br />

N! dΓ p(Γ) − 1] = 0<br />

⇒ 1<br />

<br />

N! dΓ {−kBδ p(Γ) ln h3Np(Γ) <br />

− λ δp(Γ)}<br />

= 1<br />

<br />

N! dΓ δp(Γ) {−kB 1 + ln h3Np(Γ) <br />

− λ} = 0 ∀ δp(Γ)<br />

<br />

⇒ kB 1 + ln h3Np(Γ) <br />

+ λ = 0 ⇒ p(Γ) = 1<br />

h3N λ<br />

−1−<br />

e<br />

dΓ p(Γ) = 1 ⇒ ¯p = N! dΓ<br />

Nebenbedingung: 1<br />

N!<br />

Definiere<br />

mikrokanonische<br />

Zustandssumme<br />

❀ mikrokanonische<br />

Verteilung<br />

Ω ∆E<br />

Z MK =<br />

h 3N p MK (Γ) =<br />

1<br />

h3N <br />

N!<br />

dΓ<br />

Ω ∆E<br />

1<br />

Z MK<br />

k B ≡ ¯p = const.<br />

Ω ∆E<br />

= Z MK (E, V, N) (2.72)<br />

: H (Γ) ∈ [E, E + ∆E]<br />

0 : sonst<br />

Erwartungswert einer Größe A : 〈A 〉 = 1<br />

N!<br />

<br />

(2.73)<br />

dΓ pMK (Γ)A (Γ) (2.74)<br />

Entropie: S = kB ln(Z MK ) = S(E, V, N) (2.75)<br />

( S (2.69)<br />

= −kB · 1<br />

<br />

N!<br />

Ω ∆E<br />

<br />

=1<br />

Ω ∆E<br />

dΓ · ¯p · ln h 3N ¯p<br />

<br />

=1/Z<br />

MK<br />

<br />

)<br />

Bemerkung: Z MK <strong>und</strong> S = S MK hängen von E, V <strong>und</strong> N ab, aber im limes<br />

N → ∞ nicht von ∆E.<br />

<br />

Begründung: Definiere v(E) = dΓ ; v∆E (E) =<br />

{Γ∈Ω:H ≤E}<br />

dΓ<br />

Ω<br />

∆E<br />

Hamiltonian H (Γ) = V (q1 · · · qN ) + p 2 i<br />

2m<br />

mit min H (Γ) =: E0<br />

Γ<br />

❀ v(E) wächst an wie (E − E0) 3N oder schneller<br />

v ∆E (E) wächst mit E monoton an<br />

m=(E−E0)/∆E <br />

⇒ v∆E (E) < v(E) =<br />

k=1<br />

v ∆E (k · ∆E) < (E−E0)<br />

∆E v ∆E (E)


46 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

⇒ ln( 1<br />

h3N v∆E (E)) < ln( 1<br />

v(E))<br />

h3N <br />

∝3N ln(E−E0)<br />

< ln( 1<br />

h 3N v ∆E (E)) + ln(<br />

E − E0<br />

∆E )<br />

<br />

∝ln(E−E0)<br />

⇒ Im Grenzwert N → ∞ ist ln 1<br />

h 3N v ∆E (E) = ln 1<br />

h 3N v(E) unabhängig von ∆E !<br />

Das ganze Volumen v(E) ist in einer dünnen Haut bei E konzentriert.<br />

Frage: Warum diese Konstruktion mit der Haut ∆E <strong>und</strong> nicht gleich E auf<br />

einen Wert festlegen? ( d.h. p(Γ) ∝ δ(H (Γ) − E) )<br />

Antwort: Das wird in der Tat in der Praxis oft gemacht. Die ” Lehrbuchversion“<br />

mit ∆E hat den Vorteil, dass man dort über ein Volumen im Phasenraum<br />

integriert <strong>und</strong> nicht, wie bei Anwendung der δ-Funktion, über eine Fläche.<br />

2.4.3 Kanonische Gesamtheit<br />

Mikroskopische Nebenbedingungen: N, V fest<br />

<br />

dΓ p(Γ)H (Γ) vorgegeben<br />

Makroskopische Nebenbedingung: 〈E〉 = 1<br />

N!<br />

Gesucht: Mikroskopische Verteilungsdichte p(Γ),<br />

die S(p) = −kB · 1<br />

<br />

N! dΓ p(Γ) ln<br />

Ω<br />

h3Np(Γ) maximiert mit Nebenbedingungen<br />

1<br />

<br />

N! dΓ p(Γ) = 1, 1<br />

<br />

N! dΓ p(Γ)H (Γ) = 〈E〉<br />

Ω<br />

Ω<br />

Lösung: δ S(p) − λ1[ 1<br />

<br />

N! dΓ p(Γ) − 1] − λ2[ 1<br />

<br />

N! dΓ p(Γ)H (Γ) − 〈E〉] = 0<br />

<br />

dΓ δp(Γ) {−kB 1+ln h3Np(Γ) <br />

−λ1 −λ2H (Γ)} = 0 ∀ δp(Γ)<br />

⇒ 1<br />

N!<br />

⇒ ln h3Np(Γ) = −1 − λ1 λ2 − kB kB H (Γ) ⇒ p(Γ) ∝ e− λ2 H (Γ)<br />

kB Notation: β ≡ λ2 ⇒ p(Γ) ∝ e−βH<br />

(Γ)<br />

kB<br />

Nebenbedingungen: 〈E〉 ↔ β; Normierung: Normierungsfaktor ↔ λ1<br />

Definiere kanonische<br />

1<br />

ZK =<br />

Zustandssumme:<br />

h3N <br />

N!<br />

Ω<br />

dΓ e −βH (Γ) = Z K (β, V, N) (2.76)<br />

❀ Verteilung im kanonischen Ensemble: h 3N pK (Γ) = 1 −βH (Γ)<br />

· e (2.77)<br />

ZK Erwartungswert einer Größe A : 〈A 〉 = 1<br />

<br />

dΓ pK (Γ)A (Γ) (2.78)<br />

N!<br />

Entropie: S = βkB〈E〉 + kB ln(Z K ) = S(β, V, N) (2.79)<br />

( S (2.69)<br />

= −kB · 1<br />

N!<br />

Definiere noch<br />

Freie Energie:<br />

<br />

dΓ<br />

Ω<br />

e−βH (Γ)<br />

h 3N Z K<br />

Z K = e −βF<br />

ln<br />

e−βH (Γ)<br />

Z K<br />

= k B<br />

Z K<br />

Ω<br />

1<br />

h3N <br />

dΓ e<br />

N!<br />

Ω<br />

−βH (Γ) {ln ZK + βH (Γ) } )<br />

<br />

const. ↔β〈E〉<br />

bzw. F = − 1<br />

β ln Z K<br />

= F (β, V, N) (2.80)<br />

Dann gilt F (2.79)<br />

= 〈E〉 − 1<br />

S<br />

βkB<br />

(2.81)<br />

<strong>und</strong><br />

∂<br />

(βF ) = 〈E〉<br />

∂β<br />

(2.82)<br />

( ∂<br />

∂<br />

βF = − ∂β ∂β ln Z 1<br />

K = − Z<br />

K<br />

1<br />

h3N <br />

N!<br />

Ω<br />

dΓ ∂<br />

∂β e−βH (Γ) = 〈E〉 )


2.4. STATISTISCHE GESAMTHEITEN 47<br />

2.4.4 Großkanonische Gesamtheit<br />

Mikroskopische Nebenbedingung: V fest<br />

Makroskopische Nebenbedingung: 〈E〉, 〈N〉 vorgegeben<br />

Gesucht: Mikroskopische Verteilungsdichte, die S(p) =<br />

∞ <br />

1 −kB<br />

gen ∞<br />

N! dΓN p(ΓN ) ln<br />

N=0 ΩN h3Np(ΓN ) maximiert mit Nebenbedingun-<br />

<br />

1<br />

N! dΓN p(ΓN ) = 1,<br />

N=0 ΩN ∞ <br />

1<br />

N! dΓN p(ΓN ) H (ΓN ) = 〈E〉<br />

N=0 ΩN <strong>und</strong> ∞<br />

<br />

1<br />

N! dΓN p(ΓN ) N = 〈N〉<br />

N=0 ΩN Lösung: δ S(p) − λ1[ ∞<br />

⇒ ∞<br />

N=0<br />

1<br />

N!<br />

{−kB<br />

N=0<br />

− λ2[ ∞<br />

N=0<br />

− λ3[ ∞<br />

N=0<br />

<br />

1 dΓN N! p(ΓN ) − 1]<br />

1<br />

N!<br />

1<br />

N!<br />

dΓN δp(Γ N ) ·<br />

dΓN p(Γ N ) H (Γ N ) − 〈E〉]<br />

dΓN p(Γ N ) N − 〈N〉] = 0<br />

<br />

1+ln h 3N p(Γ N ) <br />

−λ1−λ2 H (Γ N )−λ3 N} = 0 ∀ δp(Γ N )<br />

⇒ ln h3Np(ΓN ) = −1 − λ1 λ2 − kB kB H (Γ λ2<br />

N ) − kB N<br />

⇒ p(Γ N ) ∝ e − λ 2<br />

k B H (Γ N )− λ 3<br />

k B N<br />

λ3 µ = − λ2 ⇒ p(ΓN ) ∝ e−β<br />

Nebenbedingungen: 〈E〉 ↔ β; 〈N〉 ↔ µ; Normierung ↔ λ1<br />

Notation: β = λ2<br />

kB<br />

Definiere großkanonische Zustandssumme:<br />

Z GK =<br />

∞ 1<br />

h3NN! <br />

N=0<br />

Ω N<br />

dΓN e −β<br />

<br />

H (ΓN )−µ N<br />

❀ Verteilungsdichte: h 3N p GK (Γ N ) = 1<br />

Z GK<br />

Erwartungswerte : 〈A 〉 =<br />

∞ 1<br />

N!<br />

<br />

N=0<br />

Ω N<br />

<br />

H (ΓN )−µ N<br />

= Z GK (β, V, µ) (2.83)<br />

· e −β<br />

<br />

H (ΓN )−µ N<br />

(2.84)<br />

dΓ N p GK (Γ N )A (Γ N ) (2.85)<br />

Entropie: S = βkB(〈E〉 − µ〈N〉) + kB ln(Z GK ) = S(β, V, µ) (2.86)<br />

e −β<br />

<br />

H (ΓN )−µ N<br />

h3N ln<br />

Z<br />

GK<br />

e−β<br />

<br />

H (ΓN )−µ N<br />

( S (2.70)<br />

= −kB · ∞ 1<br />

dΓ N!<br />

N<br />

Z<br />

N=0 Ω GK<br />

N<br />

= k ∞<br />

B<br />

1<br />

Z<br />

GK h<br />

N=0<br />

3N <br />

dΓ<br />

N!<br />

N e<br />

Ω<br />

N<br />

−β<br />

<br />

H (ΓN )−µ N<br />

{ln ZGK + β<br />

<br />

const.<br />

H (ΓN ) − µ N <br />

} )<br />

<br />

↔β(〈E〉−µ〈N〉)


48 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

Definiere noch großkanonisches Potential Ω:<br />

Z GK =: e −βΩ<br />

bzw. Ω = − 1<br />

β ln Z GK<br />

= Ω(β, V, µ) (2.87)<br />

Dann gilt Ω (2.86)<br />

= 〈E〉 − µ〈N〉 − 1<br />

S (2.88)<br />

βkB<br />

<strong>und</strong><br />

∂<br />

(βΩ) = 〈E〉 − µ〈N〉 ;<br />

∂β<br />

∂<br />

Ω = −〈N〉 (2.89)<br />

∂µ<br />

2.4.5 Volumenschwankungen: Enthalpisches Ensemble<br />

Mikroskopische Nebenbedingung: N fest<br />

Makroskopische Nebenbedingung: 〈V 〉, 〈E〉 vorgegeben<br />

Notation: <br />

dΓ = <br />

<br />

dq1 · · · dqN dp1 · · · dpN<br />

Ω V<br />

V N<br />

Gesucht: Mikroskopische Verteilungsdichte, die S(p) =<br />

∞<br />

dV <br />

dΓ p(Γ) ln h3Np(Γ) maximiert mit Nebenbedingungen<br />

− kB 1<br />

N!<br />

1<br />

∞<br />

N!<br />

0<br />

<strong>und</strong> 1<br />

N!<br />

0<br />

dV <br />

∞<br />

0<br />

Ω V<br />

Ω V<br />

dΓ p(Γ) = 1, 1<br />

N!<br />

dV <br />

Ω V<br />

∞<br />

0<br />

dV <br />

dΓ p(Γ) V = 〈V 〉<br />

Ω V<br />

dΓ p(Γ) H (Γ N ) = 〈E〉<br />

Lösung: Verfahren wie oben, zusätzlicher Lagrangeparameter λ4 ≡ kBβΠ<br />

⇒ p(Γ) ∝ e −β<br />

<br />

H (Γ)+Π V<br />

Definiere enthalpische Zustandssumme (V0 beliebig)<br />

Z G =<br />

1<br />

h 3N N!<br />

∞<br />

0<br />

dV<br />

<br />

V0<br />

ΩV dΓ e −β<br />

<br />

H (Γ)+Π V<br />

❀ Verteilungsdichte h 3N p G (Γ) = 1<br />

Z G<br />

Erwartungswerte : 〈A 〉 = 1<br />

N!<br />

∞<br />

0<br />

dV<br />

<br />

V0<br />

ΩV = Z G (β, Π, N) (2.90)<br />

· e −β<br />

<br />

H (Γ)+Π V<br />

(2.91)<br />

dΓ p G (Γ)A (Γ) (2.92)<br />

Entropie : S = βkB(〈E〉 + Π〈V 〉) + kB ln(Z G ) = S(β, Π, N) (2.93)<br />

( Beweis? )


2.4. STATISTISCHE GESAMTHEITEN 49<br />

Definiere noch Freie Enthalpie G:<br />

Z G =: e −βG<br />

bzw. G = − 1<br />

β ln Z G<br />

= G(β, Π, N) (2.94)<br />

Dann gilt: G (2.93)<br />

= 〈E〉 + Π〈V 〉 − 1<br />

S (2.95)<br />

βkB<br />

<strong>und</strong><br />

∂<br />

(βG) = 〈E〉 + Π〈V 〉 ;<br />

∂β<br />

∂<br />

G = 〈V 〉 (2.96)<br />

∂Π<br />

2.4.6 Gesamtheiten mit verschiedenen Teilchensorten<br />

• Mikrokanonisches Ensemble: E, V, N1 · · · Nk <br />

fest<br />

ZMK =<br />

dΓ<br />

1<br />

h 3N N1!···Nk!<br />

Ω ∆E<br />

; S MK = kB ln(Z MK ) = S MK (E, V, N1 · · · Nk)<br />

• Kanonisches Ensemble: V, N1 · · · Nk <br />

fest, 〈E〉 vorgegeben<br />

ZK =<br />

1<br />

h 3N N1!···Nk!<br />

Ω<br />

dΓ e −βH (Γ) ; F = − 1<br />

β ln Z K = F (β, V, N1 · · · Nk)<br />

• Großkanonisches Ensemble: V fest, 〈E〉 <strong>und</strong> 〈N1〉 · · · 〈Nk〉 vorgegeben<br />

ZGK = ∞<br />

· · · ∞<br />

<br />

<br />

−β H (Γ)− µj Nj<br />

dΓ e<br />

N1=0<br />

Nk=0<br />

1<br />

h 3N N1!···Nk!<br />

Ω = − 1<br />

β ln Z GK = Ω(β, V, µ1 · · · µk)<br />

• Diverse ” semigroßkanonische“ Ensemble, z.B.<br />

· N1 fest, 〈N2〉 vorgegeben<br />

(Osmose, semipermeable Membran)<br />

· Nj = N fest, aber in diesem Rahmen 〈Nj〉 frei


50 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.5 Kontakt zur Wärmelehre<br />

2.5.0 Vorbemerkung<br />

In den vorherigen Abschnitten: <strong>Statistische</strong> Theorie<br />

❀ Wahrscheinlichkeitsverteilungen <strong>und</strong> Mittelwerte<br />

für verschiedene Systeme (isoliert, geschlossen, offen, . . . )<br />

Jetzt: Kontakt zu den empirischen Beobachtungen aus Kapitel 1 S.11.<br />

<strong>Physik</strong>alische Bedeutung der Parameter β, π, µ<br />

Erinnerung an Kapitel 1 S.11:<br />

Makroskopische Systeme charakterisiert durch Zustandsgröße<br />

- extensive Zustandsgrößen (z.B. E, V, N)<br />

additiv: Bei Aufteilung in Untersysteme ist der<br />

Wert der extensiven Größe im gesamten<br />

Systeme gleich der Summe der<br />

Werte in den Untersystemen<br />

- intensive Zustandsgrößen (z.B. p, T, µ) innerhalb eines Systems konstant<br />

Ausgleich: Bringt man zwei Systeme in Kontakt, so stellt<br />

sich die intensive Größe nach Möglichkeit“ so<br />

”<br />

ein, dass sie in beiden Systemen gleich ist.<br />

” nach Möglichkeit“ = falls Ausgleich durch Austausch einer<br />

zugeordneten extensiven Größe stattfinden kann<br />

z.B. Temperaturausgleich ↔ Wärmeaustausch<br />

Druckausgleich ↔ Volumenaustausch<br />

Temperaturskala ↔ gesetzt durch ideale Gasgesetz p · V = NkBT<br />

kinetische Interpretation der Temperatur: 〈Ekin〉 = N<br />

2 m〈v2 〉 =: 3<br />

2 NkBT<br />

kinetische Gastheorie → ermöglicht Ableitung des idealen Gasgesetzes<br />

❀ Diese Bef<strong>und</strong>e sollen nach Möglichkeit von der statistischen Theorie reproduziert<br />

werden.<br />

Vorgehen:<br />

- Exakte Berechnung des idealen Gases ❀ Identifikation von T <strong>und</strong> p<br />

- Identifikation extensiver <strong>und</strong> intensiver Zustandsgrößen <strong>und</strong> deren Eigenschaften<br />

- Äquivalenz der Gesamtheiten <strong>und</strong> Voraussetzungen dafür


2.5. KONTAKT ZUR WÄRMELEHRE 51<br />

2.5.1 Das klassische ideale Gas<br />

System von N nichtwechselwirkenden Teilchen: H (Γ) = Hkin = p 2 i<br />

2m<br />

❀ kann exakt berechnet werden<br />

(a) Kanonisches Ensemble h 3N p(Γ) = 1<br />

Z K<br />

Zustandssumme : ZK = 1<br />

<br />

V<br />

N! λ3 N T<br />

· e−βH (Γ)<br />

(2.97)<br />

mit λT = h β/2πm thermische de Broglie-Wellenlänge (2.98)<br />

Z = K 1<br />

h3N <br />

dΓ e<br />

N!<br />

Ω<br />

−βH (Γ) = 1<br />

h3N <br />

N!<br />

V N<br />

dq1···dqN<br />

= 1<br />

h3N N <br />

V N dpie<br />

N!<br />

i=1<br />

−β p2 i<br />

2m (2.99)<br />

= 1<br />

N! V N 2πm<br />

βh2 3N<br />

dp1···dpN e −β p2 i<br />

2m<br />

Merke: p2<br />

−β<br />

dp e 2m = √ 2πm/β d =(h/λT ) d (d=Dimension) (2.99)<br />

Freie Energie: F = 1<br />

β<br />

N · ln<br />

N<br />

V<br />

βh 2<br />

2πm<br />

3 <br />

F =− 1<br />

β ln Z 1<br />

= ln(N! λ3N<br />

K β T /V N 1<br />

) ≈<br />

(Stirling: ln N!≈N ln N)<br />

β<br />

❀ mittlere Energie: 〈E〉 = 〈Ekin〉 =<br />

∂(βF )<br />

∂β<br />

(für sehr große N) (2.100)<br />

3 1<br />

= N<br />

2 β<br />

N ln( N<br />

V ·λ3<br />

T )<br />

(2.101)<br />

Vergleiche mit kinetischer Gastheorie : 〈Ekin〉 = N 〈p2 i 〉 3<br />

=<br />

2m 2 N kB T<br />

→ Identifikation β = 1/kBT (2.102)<br />

Bemerkung: Bestätigt kinetische Gastheorie : 〈p 2 i 〉 = 3m<br />

β<br />

- Aus dieser folgte auch P · V = N · kB · T<br />

mit P : mechanischer Druck = Impulsübertrag<br />

Fläche·Zeit<br />

- Interpretation der thermischen de-Broglie-Wellenlänge<br />

<br />

β<br />

2πm<br />

(2.103)<br />

λT = h = h/¯p: de-Broglie-Wellenlänge eines Teilchens mit<br />

<br />

2πm<br />

Impuls ¯p = β ∝ 〈p 2 〉 (thermischer Impuls)<br />

(b) Zum Vergleich: Enthalpisches Ensemble h 3N p(Γ) = 1<br />

Z G<br />

<br />

1<br />

Zustandssumme : ZG =<br />

β Π λ3 T<br />

Z = G 1<br />

h3N ∞<br />

N!<br />

0<br />

= 1<br />

h 3N N!<br />

<br />

N+1<br />

dV<br />

dΓ e−β(H (Γ)+Π V ) 1<br />

= V0 h3N ∞<br />

N!<br />

0<br />

∞<br />

dV<br />

e<br />

V0<br />

0<br />

−β Π V V N N<br />

i=1<br />

<br />

N!(1/β Π) N+1 1<br />

V0 <br />

· e−β(H (Γ)+Π·V )<br />

(für V0 = λ 3 T ) (2.104)<br />

<br />

√ 2πm/β 3<br />

dV<br />

e V0 −β Π V dΓ e−βH (Γ)<br />

dpie −β p2 i<br />

2m = 1<br />

N+1 N 1<br />

1<br />

·<br />

V0 β Π<br />

λT


52 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

Bemerkung: Die Wahl von V0 ist beliebig, spielt für Ergebnisse im limes N → ∞ keine Rolle.<br />

Naheliegend - wegen (a) - ist V0 = λ 3 T<br />

= Ausdehnung eines thermischen Wellenpakets.<br />

Freie Enthalpie: G = − 1<br />

β ln Z 1<br />

G =<br />

β (N + 1) ln(β Π λ3T ) (2.105)<br />

Mittlere Energie: 〈E〉 = 〈Ekin〉 = 3<br />

2<br />

1<br />

N<br />

β<br />

wie bei (a) (2.106)<br />

( Beweis zu Fuß“:<br />

”<br />

〈E〉 = 1 1<br />

Z<br />

G h3N ∞ dV<br />

N! λ<br />

0<br />

3 e<br />

T<br />

−β Π V N p<br />

i=1<br />

dΓ e−βH (Γ)<br />

2 i<br />

2m<br />

<br />

H (Γ)<br />

= 1 1<br />

Z<br />

G h3N ∞<br />

dV<br />

N! λ<br />

0<br />

3 e<br />

T<br />

−β Π V · V N<br />

<br />

N!(1/β Π) N+1 1<br />

λ3 ·<br />

T<br />

N<br />

<br />

p<br />

dpi<br />

i=1<br />

2 i<br />

2m e−β p2 i N<br />

<br />

2m dpj e<br />

j=1<br />

j=i<br />

√ 3<br />

3<br />

2πm/β<br />

2β<br />

−β p2 j<br />

2m<br />

<br />

√ 3<br />

2πm/β<br />

= 1<br />

<br />

1<br />

Z<br />

G β Π λ3 N+1 ·<br />

T<br />

3 1<br />

N 2 β )<br />

Vergleich mit kinetischer Gastheorie liefert wieder: β = 1<br />

kBT ∞<br />

Mittleres Volumen: 〈V 〉 = 1 1<br />

ZG h3N <br />

N!<br />

= − 1<br />

β<br />

0<br />

dV<br />

λ 3 T<br />

e −β Π V · V<br />

<br />

−βH (Γ)<br />

dΓ e<br />

∂<br />

∂Π ln(Z ∂ (N + 1) (N + 1)<br />

G ) = G = = · kB T (2.107)<br />

∂Π β Π Π<br />

Vergleich mit dem idealen Gasgesetz: V = N<br />

P kBT, N ≫ 1<br />

→ Identifikation Π ≡ P = Druck (2.108)<br />

(c) Großkanonisches Ensemble<br />

Rechnung: Übungsaufgabe<br />

Ergebnis:<br />

<br />

V<br />

ZGK = exp e βµ<br />

2.5.2 Zustandsgrößen<br />

λ 3 T<br />

2.5.2.1 Extensive Zustandsgrößen <strong>und</strong> Additivität<br />

Teile System in Untersysteme auf.<br />

Additiv <strong>und</strong> somit extensiv sind:<br />

(2.109)<br />

∗ Volumen: V = Vi (⇒ 〈V 〉 = 〈Vi〉) klar <br />

∗ Teilchenzahl: N = Ni (⇒ 〈N〉 = 〈Ni〉) klar <br />

∗ Energie: E = Ei ? Weniger klar<br />

E = Ei exakt erfüllt nur, wenn es keine Wechselwirkungen zwischen<br />

Untersystemen gibt. Das würde aber bedeuten, dass Energieaustausch<br />

zwischen Untersystemen allenfalls über Teilchenaustausch (Konvektion)<br />

möglich ist, keine andere Form der Wärmeleitung → im Allgemeinen nicht


2.5. KONTAKT ZUR WÄRMELEHRE 53<br />

richtig.<br />

Näherungsweise Additivität gilt aber immer noch bei<br />

” schwacher Kopplung“. Wechselwirkungen zwischen<br />

Untersystemen beschränken sich auf Bereich der Dicke<br />

∆R um die teilenden Grenzflächen. Beitrag zur Gesamtenergie<br />

vernachlässigbar:<br />

E = Ei<br />

<br />

+<br />

∝V<br />

Eij<br />

˜<br />

<br />

≈<br />

∝A: Oberfläche<br />

der Grenzflächen<br />

Ei, wenn<br />

❀ Voraussetzungen für Additivität:<br />

A ∆R<br />

V<br />

≪ 1<br />

- Durchmesser der Untersysteme ≫ ∆R (Wechselwirkungsreichweite)<br />

❀ Systeme groß genug (makroskopisch)<br />

- Wechselwirkungen nicht langreichweitig<br />

Konkret bei zentralsymmetrischen Paarpotentialen:<br />

∞<br />

∞<br />

ϱ dr V (r) < ∞ ⇒ dr rD−1V (r) < ∞ (D: Raumdimension)<br />

R0<br />

∗ Entropie: S = Si<br />

R0<br />

❀ V (r) muss schneller abfallen als 1/r D<br />

Trifft z.B. nicht zu für Coulombkraft, Dipolkraft (falls nicht abgeschirmt),<br />

für Gravitationskraft (nicht abschirmbar)<br />

Gleiche Voraussetzungen wie bei der Energie: S = Si, falls Untersysteme<br />

nicht korreliert sind (vgl. Kapitel 2.3.2 S.37)<br />

❀ Wahrscheinlichkeitsverteilung im Untersystem α darf nur von Vα<br />

oder 〈Vα〉, 〈Eα〉, 〈Nα〉 abhängen.<br />

Das ist nur dann der Fall, wenn die Grenzflächenbeiträge zur Gesamtenergie<br />

nicht ins Gewicht fallen.<br />

Bemerkung: Die Entropie wäre nicht extensiv, wenn wir nicht den Faktor<br />

1/N! in die Wahrscheinlichkeitsverteilung eingeführt hätten. Wären<br />

die Teilchen unterscheidbar“, dann wären alle Untersysteme korreliert,<br />

da jedes” Teilchen mit jedem anderen vertauscht werden kann.<br />

(vgl. ideales Gas, kanonisches Ensemble: ZK = 1<br />

<br />

V<br />

N! λ3 N T<br />

S = βkB〈E〉 + kB ln ZK = 3<br />

2 kBN<br />

<br />

V<br />

+ kBN ln<br />

λ3 kommt von 1/N!<br />

<br />

− kBN ln N<br />

T<br />

<br />

3 N<br />

Mit letztem Term: S = kBN − ln( λ 2 V<br />

<br />

Dichte ϱ<br />

3 T )<br />

<br />

: extensiv<br />

<br />

3<br />

Ohne letzten Term: S = kBN 2 − ln(V/λ3 T )<br />

<br />

: nicht extensiv )<br />

2.5.2.2 Intensive Zustandsgrößen <strong>und</strong> Ausgleich<br />

∗ Temperatur <strong>und</strong> kanonisches Ensemble<br />

Betrachte zwei Systeme im Wärmegleichgewicht, kanonisches Ensemble<br />

Energie <strong>und</strong> Entropie seien additiv: 〈E〉 = 〈E1〉 + 〈E2〉, S = S1 + S2<br />

Maximiere Gesamtentropie S bzgl. β1, β2 mit vorgegebenem 〈E〉


54 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

• Nebenbedingung: δ(〈E〉) = ∂〈E〉<br />

∂β1 δβ1 + ∂〈E〉<br />

∂β2 δβ2 = ∂〈E1〉<br />

∂β1 δβ1 + ∂〈E2〉<br />

∂β2 δβ2 ! = 0<br />

⇒ (1): ∂〈E1〉<br />

∂β1 δβ1 = − ∂〈E2〉<br />

∂β2 δβ2<br />

• Maximierung von S: δS = ∂S<br />

∂β1 δβ1 + ∂S<br />

∂β2 δβ2 = ∂S1<br />

∂β1 δβ1 + ∂S2<br />

∂β2 δβ2 ! = 0<br />

⇒ (2): ∂S1<br />

∂β1 δβ1 = − ∂S2<br />

∂β2 δβ2 für (δβ1, δβ2), die Nebenbedingung erfüllen<br />

∂<br />

• Differenziere Sα = kBβα〈Eα〉 − kBβαFα mit (βαFα) = 〈Eα〉 : (siehe 2.4.3 S.46)<br />

∂βα<br />

⇒ (3): ∂Sα<br />

<br />

= kB〈Eα〉 + βαkB ∂βα ∂〈Eα〉<br />

<br />

∂(βαFα)<br />

− kB ∂βα ∂βα<br />

• Setze (3) in (2): β1kB ∂〈E1〉<br />

∂β1 δβ1<br />

(2)<br />

= −β2kB ∂〈E2〉<br />

∂β2 δβ2<br />

(1)<br />

= β2kB ∂〈E1〉<br />

∂β1 δβ1 ∀δβ1<br />

⇒ β1 = β2 : Temperaturen in beiden Systemen stellen sich gleich ein.<br />

∗ Chemisches Potential <strong>und</strong> großkanonisches Ensemble<br />

Betrachte 2 Systeme im Wärme- <strong>und</strong> Teilchenaustausch (großkanonisch)<br />

mit 〈E〉 = 〈E1〉 + 〈E2〉, 〈N〉 = 〈N1〉 + 〈N2〉, S = S1 + S2<br />

Maximiere Entropie S bzgl. β1, β2, µ1, µ2 mit vorgegebenem 〈E〉, 〈N〉<br />

• Nebenbedingung: δ(〈E〉) = ∂〈E1〉<br />

∂β1 δβ1 + ∂〈E1〉<br />

∂µ1 δµ1 + ∂〈E2〉<br />

∂β2 δβ2 + ∂〈E2〉<br />

∂µ2 δµ2 ! = 0<br />

<br />

∂〈E1〉<br />

⇒ (1a):<br />

∂β1<br />

<br />

∂〈N1〉<br />

(1b):<br />

∂β1<br />

δ(〈N〉) = ∂〈N1〉<br />

∂β1 δβ1 + ∂〈N1〉<br />

∂µ1 δµ1 + ∂〈N2〉<br />

∂β2 δβ2 + ∂〈N2〉<br />

∂µ2 δµ2 ! = 0<br />

<br />

∂〈E1〉<br />

∂µ1<br />

<br />

δβ1<br />

∂〈E2〉 ∂〈E2〉<br />

= −<br />

δµ1<br />

∂β2 ∂µ2<br />

<br />

δβ2<br />

δµ2<br />

<br />

∂〈N1〉<br />

∂µ1<br />

<br />

δβ1<br />

∂〈N2〉 ∂〈N2〉<br />

= −<br />

δµ1<br />

∂β2 ∂µ2<br />

<br />

δβ2<br />

δµ2<br />

• Maximierung von S: δS = ∂S1<br />

∂β1 δβ1 + ∂S1<br />

∂µ1 δµ1 + ∂S2<br />

∂β2 δβ2 + ∂S2<br />

∂µ2 δµ2 ! = 0<br />

<br />

∂S1 ∂S1<br />

⇒ (2): ∂β1 ∂µ1<br />

<br />

δβ1<br />

∂S2 ∂S2<br />

= −<br />

δµ1<br />

∂β2 ∂µ2<br />

<br />

δβ2<br />

δµ2<br />

• Differenziere Sα = kBβα(〈Eα〉 − µα〈Nα〉 − Ωα)<br />

∂<br />

∂<br />

mit (βαΩα) = 〈Eα〉 − µα〈Nα〉 <strong>und</strong> Ωα = −〈Nα〉: (siehe 2.4.4 S.47)<br />

∂βα ∂µα<br />

⇒ (3a): ∂Sα<br />

∂βα =<br />

<br />

∂〈Eα〉 ∂〈Nα〉<br />

kB(〈Eα〉 − µα〈Nα〉) + βαkB − µα − kB ∂βα ∂βα<br />

∂(βαΩα)<br />

<br />

∂βα<br />

(3b): ∂Sα<br />

∂µα =<br />

<br />

∂〈Eα〉 ∂〈Nα〉<br />

− kBβα〈Nα〉 + βαkB − µα − kBβα ∂µα ∂µα<br />

∂Ωα<br />

<br />

∂µα<br />

<br />

∂〈E1〉 ∂〈E1〉<br />

• (3a/b) in (2): kBβ1 ∂β1 ∂µ1<br />

<br />

<br />

δβ1<br />

∂〈N1〉 ∂〈N1〉<br />

− kBβ1µ1<br />

δµ1<br />

∂β1 ∂µ1<br />

<br />

δβ1<br />

δµ1<br />

<br />

∂〈E2〉 ∂〈E2〉<br />

= − kBβ2 ∂β2 ∂µ2<br />

<br />

<br />

δβ2<br />

∂〈N2〉 ∂〈N2〉<br />

− kBβ2µ2<br />

δµ2<br />

∂β2 ∂µ2<br />

<br />

δβ2<br />

δµ2<br />

<br />

∂〈E1〉 ∂〈E1〉<br />

• (1a/b): = kBβ2 ∂β1 ∂µ1<br />

<br />

<br />

δβ1<br />

∂〈N1〉 ∂〈N1〉<br />

− kBβ2µ2<br />

δµ1<br />

∂β1 ∂µ1<br />

<br />

δβ1<br />

∀δβ1∀δµ1<br />

δµ1<br />

⇒ β1 = β2 <strong>und</strong> µ1 = µ2 : µ ist intensive Variable: ” chemisches Potential“<br />

∗ Druck <strong>und</strong> enthalpisches Ensemble<br />

Betrachte 2 Systeme mit Wärme- <strong>und</strong> Volumenaustausch (enthalpisch)<br />

mit 〈E〉 = 〈E1〉 + 〈E2〉, 〈V 〉 = 〈V1〉 + 〈V2〉, S = S1 + S2<br />

Maximiere Entropie S bzgl. β1, β2, P1, P2 mit vorgegebenem 〈E〉, 〈V 〉<br />

- Rechnung genau wie im großkanonischen Ensemble -<br />

⇒ β1 = β2 <strong>und</strong> P1 = P2 : Druck <strong>und</strong> Temperatur gleichen sich an.<br />

Fazit: Die Variablen β ↔ T (Temperatur), P (Druck) <strong>und</strong> µ (chemisches<br />

Potential) sind intensiv <strong>und</strong> machen einen Ausgleich, d.h. sie stellen sich<br />

in Systemen, die die zugeordneten extensiven Größen austauschen können,<br />

gleich ein. Dabei ist die ” zugeordnete“ extensive Größe diejenige Größe,<br />

deren Erwartungswert durch die intensive Größe eingestellt wird.


2.5. KONTAKT ZUR WÄRMELEHRE 55<br />

β ↔ 〈E〉<br />

µ ↔ 〈N〉 (bzw. µα ↔ 〈Nα〉 bei mehreren Teilchensorten)<br />

P ↔ 〈V 〉<br />

Bemerkung: Von manchen Autoren werden einfach alle Variablen, die nicht<br />

mit der Systemgröße anwachsen, intensiv“ genannt - also z.B. auch die<br />

”<br />

Dichte ϱ = V<br />

N . Wir tun dies ausdrücklich nicht, da man viele Sachverhalte<br />

der <strong>Thermodynamik</strong> mit unserer Begriffsbildung viel klarer darstellen<br />

kann (siehe Kapitel 3 S.65). Aber nicht irritieren lassen, wenn die Begriffe<br />

gelegentlich anders benutzt werden.<br />

2.5.2.3 Nochmals Temperatur: Kinetische Interpretation <strong>und</strong> Gleichverteilungssatz<br />

Erinnerung an Kapitel 1:<br />

Temperatur = kinetische Energie von ungeordneter Teilchenbewegung.<br />

Was ist da dran?<br />

Betrachte klassisches wechselwirkendes System:<br />

H = Hpot + Hpot = V (q1, . . . qN) + p 2 i<br />

2m<br />

Kanonische Gesamtheit: ZK = 1<br />

h3N <br />

dq1 . . . dqNe N!<br />

−βHpot<br />

⇒ ZK = 1 1<br />

(<br />

N! λ3 )<br />

T<br />

N<br />

<br />

<br />

β<br />

mit λT = h 2πm<br />

N <br />

i=1<br />

(2.110)<br />

dpie −βp2 i /2m<br />

<br />

√ 2πm/β 3<br />

dq1 . . . dqNe −βHpot (2.111)<br />

: thermische de-Broglie Wellenlänge wie gehabt<br />

Mittlere kinetische Energie pro Bewegungsfreiheitsgrad eines Teilchens:<br />

〈 p2ix 1<br />

〉 =<br />

2m 2 kBT (2.112)<br />

❀ Jeder Bewegungsfreiheitsgrad liefert einen Beitrag 1<br />

2kBT zur mittleren<br />

kinetischen Energie<br />

(Beweis: 〈 p2ix 1 1<br />

〉 = 2m Z N!<br />

K<br />

dq1 . . . dqN e −βHpot ( 1<br />

= dpixe −βp2 ix /2m p2 ix<br />

2m<br />

λ3 )<br />

T<br />

N−1 dpie −βp2 i /2m p2 ix<br />

2m<br />

<br />

dpixe−βp2 ix /2m = 1<br />

2β )<br />

Bemerkung: Bestätigt die kinetische Interpretation der Temperatur<br />

für klassische, nichtrelativistische Systeme


56 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

2.5.3 Äquivalenz der Gesamtheiten<br />

Betrachte makroskopisches System fester Größe V ,<br />

teile es ein in gleiche Untersysteme Vi<br />

Additive Größen N, E, S haben in jedem Untersystem gleiche Verteilung<br />

Betrachte nun den thermodynamischen Limes: Vi → ∞, V = m → 0<br />

Vi<br />

Mikrokanonisches Ensemble: E = Ei, N = Ni fest (Bedingung an Ei,<br />

Ni)<br />

Kanonisches Ensemble: N = Ni fest, aber E = Ei frei<br />

Zentraler Grenzwertsatz: Falls Verteilung fE(Ei) der Energie in den Untersystemen<br />

ein zweites Moment hat, ist E gaußverteilt<br />

mit σE/〈E〉 ∝ 1/ √ m → 0<br />

Für makroskopisches System mit fluktuierendem Volumen V gilt ähnliche<br />

Überlegung, man muss nur das System anders einteilen.<br />

→ Fazit:<br />

Im thermodynamischen Limes N → ∞ bzw. V → ∞<br />

(also in makroskopischen Systemen) werden die relativen<br />

Schwankungen extensiver Zustandsgrößen beliebig klein.<br />

❀ Verschiedene Gesamtheiten können als äquivalent<br />

angesehen werden.<br />

Voraussetzungen:<br />

• Keine langreichweitigen Wechselwirkungen<br />

(sonst ist Additivität der Energie schon nicht gegeben)<br />

• Die Verteilung der betrachteten extensiven Größe musss<br />

ein zweites Moment haben<br />

(ist z.B. bei kritischen Phänomenen nicht erfüllt)<br />

(2.113)


2.6. BEZIEHUNGEN ZWISCHEN ZUSTANDSGRÖSSEN 57<br />

2.6 Beziehungen zwischen Zustandsgrößen<br />

2.6.1 Zusammenhänge zwischen Zustandsgrößen für die wichtigsten<br />

statistischen Gesamtheiten ” einfacher“ Systeme<br />

” Einfache“ Systeme: Eine Teilchensorte, keine zusätzlichen makroskopischen<br />

Freiheitsgrade (wie z.B. Magnetisierung, elektr. Dipolmoment etc.). Zustandgrößen:<br />

extensiv: S, E, V, N, intensiv: T, µ, P<br />

Jede Gesamtheit wird durch Vorgabe dreier Zustandsgrößen bestimmt. Wegen<br />

(2.76) sollten darüberhinaus alle Zustandgrößen immer definiert sein. Wir<br />

rekapitulieren <strong>und</strong> ergänzen bisherige Definitionen systematisch:<br />

Gesamtheit<br />

mikrokanonisch<br />

vorgegeben<br />

E, V, N Z MK<br />

Zustandssumme<br />

(2.72)<br />

=<br />

isoenthalpisch H, P, N ZH = 1<br />

h3N ∞<br />

N!<br />

0<br />

kanonisch T, V, N Z K<br />

enthalpisch T, P, N Z G<br />

großkanonisch T, V, µ Z GK<br />

allgemein<br />

großkanonisch<br />

(2.76)<br />

=<br />

(2.90)<br />

=<br />

(2.83)<br />

=<br />

T, P, µ Z ∆ = ∞<br />

N=0<br />

1<br />

h3N <br />

dΓ<br />

N!<br />

{Γ:H (Γ)∈[E,E+∆E]}<br />

dV<br />

V0<br />

1<br />

h3N <br />

N!<br />

Ω<br />

1<br />

h3N ∞<br />

N!<br />

0<br />

dΓ<br />

{Γ:H (Γ)+P V ∈[H,H+∆H]}<br />

− 1 H (Γ)<br />

k T<br />

dΓ e B<br />

<br />

dV<br />

− 1 H (Γ)+P V<br />

k T<br />

dΓ e B<br />

V0<br />

Ω<br />

<br />

− 1 H (Γ)−µN<br />

k T<br />

dΓ e B<br />

∞ 1<br />

h<br />

N=0<br />

3N <br />

N!<br />

Ω<br />

1<br />

h3N <br />

∞ dV<br />

− 1 H −µN+P V<br />

k T<br />

dΓ e B<br />

N! V0<br />

0 Ω<br />

Charakteristische<br />

Größe ” ln Z“<br />

S (2.75)<br />

= k B ln Z MK<br />

S = k B ln Z H<br />

F (2.80)<br />

= −k B T ln Z K<br />

G (2.94)<br />

= −k B T ln Z G<br />

Ω (2.87)<br />

= −k B T ln Z GK<br />

∆ = −k B T ln Z ∆<br />

(2.114)<br />

Tabelle 2 zeigt, wie man in einer Gesamtheit die nicht vorgegebenen Zustandsgößen<br />

berechnet (Beweise siehe Abschnitt 2.6.2)<br />

Gesamtheit Charakteristische abgeleitete Zustandsgrößen<br />

(vorgegeben) Größe ” ln Z“<br />

mikrokanonisch<br />

(E, V, N)<br />

isoenthalpisch<br />

(H, P, N)<br />

kanonisch<br />

(T, V, N)<br />

enthalpisch<br />

(T, P, N)<br />

großkanonisch<br />

(T, V, µ)<br />

allgemein<br />

großkanonisch<br />

(T, P, µ)<br />

Bemerkungen:<br />

S<br />

S<br />

F (2.81)<br />

= 〈E〉 − T S<br />

G (2.95)<br />

= 〈E〉 − T S<br />

+P 〈V 〉<br />

Ω (2.88)<br />

= 〈E〉 − T S<br />

−µ〈N〉<br />

∆ = 〈E〉 − T S<br />

−µ〈N〉 + P 〈V 〉<br />

<br />

∂S <br />

∂E <br />

V,N<br />

<br />

∂S <br />

∂H <br />

P,N<br />

= 1<br />

T<br />

= 1<br />

T<br />

<br />

∂F <br />

∂T = −S<br />

V,N<br />

<br />

∂G <br />

∂T = −S<br />

P,N<br />

<br />

∂Ω <br />

∂T = −S<br />

V,µ<br />

<br />

∂∆ <br />

∂T = −S<br />

P,µ<br />

∂S<br />

∂V<br />

<br />

<br />

<br />

N,E<br />

<br />

∂S <br />

∂P <br />

N,H<br />

∂F<br />

∂V<br />

= P<br />

T<br />

= −V<br />

T<br />

<br />

<br />

= −P<br />

N,T<br />

<br />

∂G <br />

∂P = 〈V 〉<br />

N,T<br />

∂Ω<br />

∂V<br />

<br />

<br />

= −P<br />

µ,T<br />

<br />

∂∆ <br />

∂P = 〈V 〉<br />

µ,T<br />

<br />

∂S <br />

∂N <br />

E,V<br />

<br />

∂S <br />

∂N <br />

H,P<br />

= −µ<br />

T<br />

= −µ<br />

T<br />

<br />

∂F <br />

∂N = µ<br />

T,V<br />

<br />

∂G <br />

∂N = µ<br />

T,P<br />

<br />

∂Ω <br />

∂µ = −〈N〉<br />

T,V<br />

<br />

∂∆ <br />

∂µ = −〈N〉<br />

T,P<br />

(2.115)


58 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

1. Ableitungen der charakteristischen Größe ” ln Z“ nach einer extensiven<br />

Zustandsgröße führen zu einer intensiven Zustandsgröße - <strong>und</strong> umgekehrt.<br />

2. Die Formeln in Spalte 2 “Charakteristische Größe“ wurden zum größten<br />

Teil schon in Abschnitt 2.4 S.42 gezeigt.<br />

3. Einige Formeln in den Spalten 3-5 “Abgeleitete Zustandsgrößen“ werden<br />

im folgenden Abschnitt exemplarisch bewiesen.<br />

4. Schreibweise als vollständiges Differential, z.B. Zeile 1 von Übersicht 2<br />

(mikrokanonisch): Vollständiges Differential von S = S(E, V, N):<br />

dS = 1 P<br />

dE +<br />

T T<br />

µ<br />

dV − dN (2.116)<br />

T<br />

5. Überlegung: Welche physikalisch sinnvollen Größen kann es geben?<br />

Eine Gesamtheit ist definiert durch die Rahmenbedingungen eines makroskopischen<br />

Systems<br />

- mikroskopisch festgehaltene extensive Größen<br />

- vorgegebene intensive Größen<br />

Festgehalten werden kann durch<br />

- <strong>und</strong>urchlässige Wände: Teilchenzahl N<br />

- unbewegliche Wände: Volumen V<br />

- isolierende Wände:<br />

(V, N) vorgegeben → Energie E<br />

(P, N) vorgegeben nicht Energie<br />

denn mit jeder Volumenschwankung ∆V wird Arbeit P ·∆V<br />

verrichtet ❀ Energie entweder zugeführt oder entzogen. Bei<br />

isolierenden Wänden gilt aber ∆E = −P · ∆V → E + P · V<br />

bleibt erhalten.<br />

→ Enthalpie H = E + P · V<br />

(V, µ) vorgegeben<br />

Teilchenaustausch, Teilchen führen Wärme mit sich → de<br />

facto wie Wärmebad.<br />

(Formal kann man ein System definieren, in dem E − µN<br />

erhalten bleibt, aber praktische Anwendung kann ich mir<br />

nicht vorstellen)


2.6. BEZIEHUNGEN ZWISCHEN ZUSTANDSGRÖSSEN 59<br />

2.6.2 Beweis einiger Formeln für ” Abgeleitete Zustandsgrößen“<br />

Vorbemerkung<br />

Jede Ableitung in Übersicht 2 muss im Moment im Prinzip noch einzeln<br />

berechnet werden - etwas unsystematisch. Wir beschränken uns auf einige<br />

exemplarische Beweise.<br />

❀ Die <strong>Thermodynamik</strong> (Kapitel 3 S.65) wird dies formal auf eine solidere<br />

Basis stellen:<br />

Beweis von Spalte 3 Zeile 3 (kanonisch)<br />

Zu zeigen: ∂F<br />

<br />

<br />

∂T = −S<br />

V,N<br />

(2.82), (2.81) → 〈E〉 = ∂<br />

(βF ) <strong>und</strong> F = 〈E〉 − T · S<br />

∂β<br />

⇒ 〈E〉 = ∂<br />

∂F<br />

∂F dT<br />

∂F d(k<br />

(βF ) = F + β = F + β = F + β Bβ)<br />

∂β ∂β ∂T dβ ∂T<br />

−1<br />

dβ<br />

= 〈E〉 − T · S − T ∂F<br />

∂T <br />

Beweis von Spalte 3 Zeile 5 (großkanonisch)<br />

= F − β ∂F<br />

∂T<br />

Zu zeigen: ∂Ω<br />

<br />

<br />

∂T = −S<br />

V,µ<br />

(2.89), (2.88) → 〈E〉 − µ〈N〉 = ∂<br />

(βΩ) <strong>und</strong> Ω = 〈E〉 − µ〈N〉 − T · S<br />

∂β<br />

⇒ 〈E〉 − µ〈N〉 = ∂<br />

∂Ω<br />

∂Ω dT<br />

∂Ω d(k<br />

(βΩ) = Ω + β = Ω + β = Ω + β Bβ)<br />

∂β ∂β ∂T dβ ∂T<br />

−1<br />

dβ<br />

= 〈E〉 − µ〈N〉 − T · S − T ∂Ω<br />

∂T<br />

Beweis von Spalte 3 Zeile 4 (enthalpisch)<br />

Zu zeigen: ∂G<br />

<br />

<br />

∂T = −S<br />

P,N<br />

(2.96), (2.95) → 〈E〉 + P 〈V 〉 = ∂<br />

(βG) <strong>und</strong> G = 〈E〉 + P 〈V 〉 − T · S<br />

∂β<br />

⇒ 〈E〉 + P 〈V 〉 = ∂<br />

∂G<br />

∂G dT<br />

∂G d(k<br />

(βG) = G + β = G + β = G + β Bβ)<br />

∂β ∂β ∂T dβ ∂T<br />

−1<br />

dβ<br />

= 〈E〉 + P 〈V 〉 − T · S − T ∂G<br />

∂T<br />

Beweis von Spalte 3 Zeile 1 (mikrokanonisch)<br />

<br />

<br />

1<br />

k Bβ 2<br />

= Ω − β ∂Ω<br />

∂T<br />

= G − β ∂G<br />

∂T<br />

Zu zeigen: ∂S<br />

<br />

<br />

∂E =<br />

V,N<br />

1<br />

T<br />

Betrachte S <strong>und</strong> E in kanonischer Situation: E(T, V, N), S(T, V, N)<br />

(i) S = E−F<br />

<br />

∂S <br />

⇒ T ∂T =<br />

V,N<br />

∂ E−F E − F<br />

= − ∂T T T 2<br />

+<br />

<br />

S/T<br />

1<br />

<br />

∂E <br />

T ∂T −<br />

V,N<br />

1 ∂F<br />

<br />

<br />

T =<br />

∂T V,N<br />

<br />

−S<br />

1<br />

<br />

∂E <br />

T ∂T <br />

V,N<br />

(ii) δS = ∂S<br />

<br />

<br />

∂T δT +<br />

V,N<br />

∂S<br />

<br />

<br />

∂V δV +<br />

N,T<br />

∂S<br />

<br />

<br />

∂N δN<br />

T,V<br />

δE = ∂E<br />

<br />

<br />

∂T δT +<br />

V,N<br />

∂E<br />

<br />

<br />

∂V δV +<br />

N,T<br />

∂E<br />

<br />

<br />

∂N δN<br />

T,V<br />

(iii) N, V = const. ⇒ δV = δN = 0 ⇒ δS<br />

<br />

∂S <br />

= δE ∂E =<br />

V,N<br />

∂S<br />

<br />

∂E (∗) 1<br />

∂T ∂T = T<br />

V,N V,N<br />

<br />

Beweis von Spalte 4 Zeile 1 (mikrokanonisch)<br />

Zu zeigen: ∂S<br />

<br />

<br />

∂V =<br />

E,N<br />

P<br />

T<br />

Betrachte S, V <strong>und</strong> E in enthalpischer Situation: S(T, P, N), V (T, P, N), E(T, P, N)<br />

1<br />

kBβ 2<br />

1<br />

kBβ 2<br />

vereinfachte Schreibweise: 〈E〉 → E <strong>und</strong> 〈V 〉 → V erlaubt <strong>und</strong> sinnvoll im thermodynamischen<br />

Limes (siehe 2.5.3 S.56 ” Äquivalenz der Gesamtheiten“)<br />

E+P V −G<br />

(i) S = (2.4.4 S.47)<br />

T<br />

⇒ ∂S<br />

<br />

<br />

∂T =<br />

P,N<br />

∂ E+P V −G E + P V − G<br />

= − ∂T T<br />

T 2<br />

<br />

+<br />

<br />

S/T<br />

1<br />

<br />

∂E <br />

T ∂T +<br />

P,N<br />

P<br />

<br />

∂V <br />

T ∂T −<br />

P,N<br />

1<br />

<br />

∂G<br />

<br />

<br />

T (1)<br />

∂T P,N<br />

<br />

−S<br />

⇒ ∂S<br />

<br />

<br />

∂P =<br />

N,T<br />

∂ E+P V −G<br />

= ∂P T<br />

1<br />

<br />

∂E <br />

T ∂P +<br />

N,T<br />

V<br />

<br />

+ T<br />

P<br />

<br />

∂V <br />

T ∂P −<br />

N,T<br />

1<br />

V<br />

<br />

∂G<br />

<br />

<br />

T (2)<br />

∂P N,T<br />

(∗)


60 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

(ii) N, E = const. ⇒ δE = δN = 0<br />

⇒ δE = ∂E<br />

<br />

<br />

∂T δT +<br />

P,N<br />

∂E<br />

<br />

<br />

∂P δP +<br />

N,T<br />

∂E<br />

<br />

<br />

∂N δN = 0 (3)<br />

T,P<br />

⇒ δV = ∂V<br />

<br />

<br />

∂T δT +<br />

P,N<br />

∂V<br />

<br />

<br />

∂P δP +<br />

N,T<br />

∂V<br />

<br />

<br />

∂N δN<br />

(4)<br />

T,P<br />

⇒ δS = ∂S<br />

<br />

<br />

∂T δT +<br />

P,N<br />

∂S<br />

<br />

<br />

∂P δP +<br />

N,T<br />

∂S<br />

<br />

<br />

∂N δN<br />

T,P<br />

<br />

(1,2) 1 ∂E <br />

= T ∂T δT +<br />

P,N<br />

P<br />

<br />

∂V <br />

T ∂T δT +<br />

P,N<br />

1<br />

<br />

∂E <br />

T ∂P δP +<br />

N,T<br />

P<br />

<br />

∂V <br />

T ∂P δP<br />

N,T<br />

(3,4)<br />

= P<br />

δV (5)<br />

T<br />

(iii) δS<br />

<br />

∂S (5) P<br />

= δV ∂V = T<br />

E,N


2.6. BEZIEHUNGEN ZWISCHEN ZUSTANDSGRÖSSEN 61<br />

2.6.3 <strong>Statistische</strong> Fluktuationen <strong>und</strong> Suszeptibilitäten<br />

Suszeptibilität: beschreibt allgemein die Reaktion einer extensiven Größe auf<br />

Änderung einer intensiven Größe<br />

Besonders bekannt sind:<br />

Kompressibilität: κ = − 1 ∂V<br />

V ∂P<br />

Volumenausdehnungskoeffizient: α = 1<br />

V<br />

Spezifische Wärme: c = T ∂S<br />

N ∂T<br />

Begründung zur spezifischen Wärme:<br />

∂V<br />

∂T<br />

(2.117)<br />

(2.118)<br />

(2.119)<br />

Wärme δQ, die zugeführt werden muss, um eine Temperaturänderung dT zu erzielen:<br />

Kanonisch: δQ = dE = d(F + T S)<br />

Enthalpisch: δQ = dH = d(E + P V ) = d(G + T S)<br />

⇒ δQ<br />

dT<br />

= T ∂S<br />

∂T<br />

<br />

∂F <br />

in beiden Fällen (da ∂T =<br />

V,N<br />

∂G<br />

<br />

<br />

∂T )<br />

P,N<br />

Üblicherweise wird noch normiert ( 1<br />

N oder<br />

1<br />

Masse )<br />

Suszeptibilitäten hängen im allgemeinen vom Ensemble ab<br />

(z.B. ist c P bei konstantem Druck = c V bei konstantem Volumen)<br />

<strong>Statistische</strong> Berechnung<br />

Beispiele<br />

→ Suszeptibilitäten hängen immer mit Fluktuationen <strong>und</strong> Korrelationen<br />

extensiver Größen zusammen-<br />

(Anschaulich: starke Fluktuationen ❀ starke Reaktion auf äußere Felder<br />

möglich)<br />

∗ Kompressibilität (Enthalpisches Ensemble (N, P, T ))<br />

∂V ∂ 1 1<br />

= ∂P ∂P Z<br />

G h3N <br />

dV<br />

dΓ e−β(H +P V ) V<br />

N! V0<br />

= 1<br />

Z2 1<br />

ZG<br />

h<br />

G<br />

3N dV<br />

dΓ e−β(H +P V ) (−βV 2 )<br />

N! V0<br />

−(−β) 1<br />

h3N dV<br />

dΓ e−β(H +P V ) 2 V<br />

N! V0<br />

= −β(〈V 2 〉 − 〈V 〉 2 )<br />

⇒ κ = − 1 ∂V<br />

=<br />

V ∂P<br />

Kompressibilität<br />

1<br />

(〈V<br />

kBT V<br />

2 〉 − 〈V 〉 2 )<br />

<br />

Volumenfluktuationen<br />

(2.120)<br />

Wenn das Volumen ohnehin stark schwankt, lässt es sich leichter<br />

komprimieren.<br />

∗ Spezifische Wärme (festes T, N)<br />

(Rechnung: Übungsaufgabe)


62 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />

(N, V, T ) Ensemble : c V =<br />

(N, P, T ) Ensemble : c P =<br />

1<br />

kBT 2N (〈E2 〉 − 〈E〉 2 ) (2.121)<br />

1<br />

kBT 2N (〈H2 〉 − 〈H〉 2 )<br />

(mit H = E + P V )<br />

(2.122)<br />

∗ Volumenausdehnung ( (N, P, T ) Ensemble)<br />

α =<br />

1<br />

kBT 2 {(〈V E〉 − 〈V 〉〈E〉 ) + P · (<br />

V <br />

〈V<br />

Korrelationen<br />

2 〉 − 〈V 〉 2<br />

<br />

)} (2.123)<br />

Volumenfluktuationen


2.7. ZUSAMMENFASSUNG 63<br />

2.7 Zusammenfassung<br />

Zu Kapitel 2: Gr<strong>und</strong>lagen der <strong>Statistische</strong>n Mechanik<br />

∗ Begründung: Ergodizitätshxpothese<br />

<strong>und</strong>/oder Prinzip der maximalen Ignoranz<br />

∗ Zentrale Größe: Entropie<br />

S = −kB 〈ln p Γ 〉<br />

S = −kB 〈ln h 3N p(Γ) 〉<br />

diskrete Zustände Γ, (2.71) <br />

kontinuierliche Zustände, (2.70) <br />

Im Thermodynamischen Gleichgewicht (keine Erinnerung an<br />

” Anfangsbedingungen“): Wahrscheinlichkeitsverteilung p<br />

mikroskopischer Zustände Γ maximiert S.<br />

❀ (je nach Randbedingung) Verteilungen der versch. Gesamtheiten<br />

∗ Wichtige Begriffe<br />

- Extensive Zustandsgröße: additiv, Erhaltungsgröße in isoliertem System<br />

- Intensive Zustandsgröße: Räumlich konstant, Ausgleich<br />

Extensiv: N, V, E ∗ ; S ∗ (abgeleitete Zustandsgröße)<br />

Intensiv ∗ : T, P, µ<br />

(∗): Falls endliche Wechselwirkungsreichweite<br />

makroskopische Systeme<br />

- Falls Entropie extensiv: Thermodynamischer Limes<br />

bei festem N/V = const.<br />

lim<br />

N,V →∞<br />

∗ Falls zusätzlich noch die Häufigkeitsverteilung für extensive Größen N, V, E, S<br />

in makroskopischen Teilsystemen ein zweites Moment hat, gilt:<br />

Gesamtheiten für verschiedene Randbedingungen äquivalent<br />

→ Feste Beziehungen zwischen Zustandsgrößen,<br />

unabhängig von Randbedingungen<br />

→ Definition eines (Makro)- Zustands<br />

∗ Praktische Rechnungen ↔ Zustandssumme


64 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN


Kapitel 3<br />

<strong>Thermodynamik</strong><br />

c○ Copyright 2005 Friederike Schmid 1<br />

3.0 Einleitung<br />

<strong>Statistische</strong> <strong>Physik</strong>: Ausgehend von mikroskopischem Bild<br />

❀ Zustände, Zustandsgrößen<br />

Entropie (↔ Information) mit bestimmten Eigenschaften<br />

<strong>Thermodynamik</strong>: Axiomatischer Zugang<br />

Vergiß mikroskopischen Hintergr<strong>und</strong><br />

Postuliere die Existenz von Zuständen <strong>und</strong> Zustandsgrößen<br />

Postuliere Entropie mit gewünschten Eigenschaften<br />

❀ Frage: Was kann man aus diesen Strukturen folgern?<br />

→ Phänomenologische Beschreibung von Makrosystemen im thermodynamischen<br />

Gleichgewicht, kommt ohne mikroskopische Annahmen aus<br />

1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />

Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />

65


66 KAPITEL 3. THERMODYNAMIK<br />

3.1 Postulate der <strong>Thermodynamik</strong> (Entropiepostulate)<br />

Hier: Für einfache Systeme (homogen, eine Substanz, keine äußeren Felder,<br />

keine Oberflächeneffekte, . . . )<br />

Verallgemeinerungen auf kompliziertere Systeme ergeben sich ” organisch“<br />

1. Postulat<br />

Es gibt eine extensive Zustandsvariable U, die ” innere Energie“,<br />

<strong>und</strong> Gleichgewichtszustände, die durch einen Satz von Zustandsvariablen<br />

U, V <strong>und</strong> N vollständig charakterisiert werden.<br />

(vollständiger Satz von Zustandsvariablen, vgl. Quantenmechanik)<br />

2. Postulat:<br />

Für jeden Gleichgewichtszustand existiert eine Zustandsvariable<br />

S, die ” Entropie“, mit den folgenden Eigenschaften:<br />

(i) S ist extensiv<br />

(ii) S(U, V, N) ist differenzierbar (zwei Mal)<br />

(iii) S wächst streng monoton in U<br />

(3.1)<br />

(3.2)<br />

NB: ◮ S muss sich als Funktion von U, V, N darstellen lassen, da Gleichgewichtszustände<br />

durch U, V, N bereits charakterisiert sind.<br />

3. Postulat:<br />

◮ Aus (iii) folgt: Inverse Funktion U(S, V, N) existiert <strong>und</strong> differenzierbar.)<br />

Der Gleichgewichtszustand eines isolierten Systems ist von<br />

mehreren möglichen Zuständen derjenige, für den die Entropie<br />

maximal ist.<br />

(3.3)<br />

4. Postulat:<br />

Die Entropie verschwindet in Systemen mit ∂U<br />

<br />

<br />

∂S <br />

V,N<br />

= 0 (3.4)<br />

Bemerkungen<br />

( ∂U<br />

∂S<br />

= 0 ⇒ S = 0)<br />

(a) Postulate 1-4 bilden ein vollständiges System von Basissätzen für einfache<br />

Systeme. (Für kompliziertere Systeme muss man in Postulat 1 weitere<br />

extensive Zustandsvariablen aufnehmen.)<br />

(b) Postulat 1 = 1. Hauptsatz der <strong>Thermodynamik</strong><br />

Innere Energie U entspricht Zustandsgröße E aus Kapitel 2.<br />

→ Deutlich zu unterscheiden von Arbeit <strong>und</strong> Wärme


3.1. POSTULATE DER THERMODYNAMIK (ENTROPIEPOSTULATE)67<br />

Arbeit: mechanische Energie - vom System abgegeben <strong>und</strong> mechanisch<br />

umgesetzt, oder am System geleistete Arbeit<br />

Wärme: Bei thermischem Ausgleich übertragene Energie<br />

❀ Flüsse , keine Zustandsgrößen<br />

Der 1. Hauptsatz der <strong>Thermodynamik</strong> sagt aus:<br />

Bei Prozessen, die einen Gleichgewichtszustand in einen anderen<br />

überführen, gilt allgemein:<br />

∆U<br />

<br />

Änderung der<br />

Zustandsgröße U<br />

= Q<br />

<br />

Wärme<br />

+ W<br />

<br />

Arbeit<br />

<br />

Flüsse<br />

(3.5)<br />

Wenn Prozesse quasistatisch sind, d.h. System während des ganzen<br />

Prozesses im Gleichgewicht, d.h. U(S, V, N) ständig definiert (beliebig<br />

langsamer Prozess), gilt auch Differentialform<br />

dU<br />

<br />

totales Differential<br />

der Funktion U(S,V,N)<br />

= δQ + δW<br />

<br />

keine totalen<br />

Differentiale<br />

(c) Postulate 2 <strong>und</strong> 3 = 2. Hauptsatz der <strong>Thermodynamik</strong><br />

(3.6)<br />

→ dU = 0; δQ = 0; δW = 0<br />

(Darauf kommen wir noch zurück)<br />

Postulat 3 sagt aus, was passiert, wenn zwei Systeme in Kontakt gebracht<br />

werden (Gleichgewichtsbedingungen)<br />

(d) Postulat 4 = 3. Hauptsatz der <strong>Thermodynamik</strong><br />

bzw. ” Nernst’sches Theorem“<br />

Hat keine Begründung in der klassischen statistischen Mechanik,<br />

schlimmer noch: Gilt da gar nicht.<br />

Gilt in der Quantenmechanik; Begründung: Eindeutiger Gr<strong>und</strong>zustand.<br />

Mehr dazu später.<br />

Folgerungen aus den Entropiepostulaten<br />

(1) Homogenität<br />

Betrachte homogenes System (U, V, N) → Entropie S(U, V, N)<br />

Teile es auf in n gleiche Subsysteme;<br />

→ jedes Subsystem definiert durch U ′ , V ′ , N ′<br />

hat Entropie S ′ (U ′ , V ′ , N ′ )<br />

mit nU ′ = U, nV ′ = V , nN ′ = N<br />

Betrachte System bestehend aus m Subsystemen, λ = m<br />

n<br />

⇒ S(λU, λV, λN) = λS(U, V, N) (3.7)<br />

Entropie als Funktion von extensiven Variablen<br />

ist homogen vom Grad 1


68 KAPITEL 3. THERMODYNAMIK<br />

Konsequenzen aus Homogenität<br />

(2) Konvexität<br />

• Wähle λ = 1 1<br />

U V<br />

N ⇒ N S(U, V, N) = S( N , N , 1) ≡ s(u, v)<br />

mit Dichten u = U V S<br />

N , v = N , s = N<br />

Analog: 1<br />

N U(S, V, N) = u(s, v)<br />

• Eulersche Homogenitätsrelation:<br />

Eine Funktion f(x1, · · · xr) heißt homogen vom Grad s, wenn<br />

f(λx1, · · · λxr) = λsf(x1, · · · xr). Dann gilt<br />

r ∂f<br />

· xi = s f (3.8)<br />

∂xi<br />

i=1<br />

( Beweis: d<br />

dλ f(λx1, · · · λxr) = d<br />

dλ λsf(x1, · · · xr) = s λs−1f(x1, · · · xr)<br />

= r<br />

i=1<br />

∂f(λx1,···λxr)<br />

∂λx i<br />

· d(λx i)<br />

dλ<br />

= r<br />

i=1<br />

Angewandt auf S : S = ∂S<br />

∂U<br />

Analog für U : U = ∂U<br />

∂S<br />

S + ∂U<br />

∂V<br />

∂f(λx1,···λxr)<br />

∂λx i<br />

U + ∂S<br />

∂V<br />

· xi Wähle λ = 1 )<br />

V + ∂S<br />

∂N<br />

V + ∂U<br />

∂N<br />

N (3.9)<br />

N (3.10)<br />

Betrachte System mit Entropiefunktion s(u, v) wie im<br />

Bild. Behauptung: Entropie im Bereich zwischen A<br />

<strong>und</strong> B kann erhöht werden durch Aufspaltung in Teilsysteme<br />

A,B (mit Teilchenzahlen NA, NB <strong>und</strong> Energiedichten<br />

pro Teilchenzahl uA, uB).<br />

Beweis: NA + NB = N <strong>und</strong> NAuA + NBuB = U ⇒ NA = N u B−u<br />

u B−u A <strong>und</strong> NB = N u−u A<br />

u B−u A<br />

⇒ S = NAsA + NBsB = N{sA + (u − uA) s B−s A<br />

u B−u A } = konkave Einhüllende<br />

→ Oben gezeigte Entropiefunktion nicht kompatibel mit 3. Hauptsatz<br />

Tatsächliche Entropie S(U, V, N) konkav: ∂ 2 S<br />

∂U 2 ≤ 0 (3.11)<br />

analog :<br />

∂2S ≤ 0,<br />

∂V 2<br />

∂2S ≤ 0 (3.12)<br />

∂N 2<br />

allgemein : ←→ ∂2 S negativ definit (3.13)<br />

Umgekehrt: Klappe Bild um:<br />

∂<br />

→ U(S, V, N) konvex,<br />

2U ≥ 0 (3.14)<br />

∂S2 allgemein : ←→ ∂2 U positiv definit (3.15)<br />

Ergänzungen (in Vorbereitung)


3.2. GIBBSSCHE GRUNDFORM 69<br />

3.2 Gibbssche Gr<strong>und</strong>form<br />

Herleitung<br />

2. Entropiepostulat: Es existiert Funktion S(U, V, N), differenzierbar<br />

→ totales Differential: dS = ∂S<br />

∂U<br />

Identifikation: ∂S<br />

∂U<br />

1 ∂S = T , ∂V<br />

⇒ dS = 1 P<br />

dU +<br />

T T<br />

Umgekehrt (nach dU aufgelöst)<br />

Folgerungen<br />

P ∂S = T , ∂N<br />

∂S ∂S<br />

dU + ∂V dV + ∂N dN<br />

= −µ<br />

T<br />

µ Gibbssche Gr<strong>und</strong>form<br />

dV − dN<br />

T in Entropiedarstellung<br />

(siehe (2.116)<br />

(3.16)<br />

dU = T dS − P dV + µdN in Energiedarstellung (3.17)<br />

(1) Entropie <strong>und</strong> Wärme<br />

Vergleiche Gibbssche Gr<strong>und</strong>form mit 1. Hauptsatz für quasistatische<br />

Prozesse, dU (3.6)<br />

= δQ + δW<br />

1. Hauptsatz formuliert für feste Teilchenzahl ⇒ dN = 0<br />

Arbeit δW = −P dV (3.18)<br />

⇒ δQ = T dS Entropieänderung = Wärmefluss (3.19)<br />

NB: Damit wird dS messbar! (∆Q ↔ z.B. Tauchsieder)<br />

(2) P, µ, T sind als Funktionen von U, V, N bzw. S, V, N<br />

homogen vom Grad 0<br />

z.B. T (λS, λV, λN) = ∂U(λS,λV,λN)<br />

∂(λS)<br />

= λ∂U(S,V,N)<br />

λ∂S<br />

(3) Gleichgewichtsbedingungen in isolierten Systemen<br />

• Thermisch<br />

= T (S, V, N)λ 0<br />

U = U1 + U2, V1, V2, N1, N2 fest<br />

→ δU1 = −δU2<br />

S = S1(U1, V1, N1) + S2(U2, V2, N2) = max<br />

⇒ ∂S1<br />

∂U1 δU1 + ∂S2<br />

∂U2 δU2 = 0<br />

⇒ ( 1<br />

T1<br />

− 1<br />

T2 )δU1 = 0 ⇒ T1 = T2 : Temperaturausgleich<br />

• Thermisch-mechanisch<br />

U = U1 + U2, V = V1 + V2, N1, N2 fest<br />

→ δU1 = −δU2, δV1 = −δV2<br />

S = S1(U1, V1, N1) + S2(U2, V2, N2) = max<br />

⇒ ∂S1<br />

∂U1 δU1 + ∂S1<br />

∂V1 δV1 + ∂S2<br />

∂U2 δU2 + ∂S2<br />

∂V2 δV2 = 0<br />

⇒ ( 1<br />

T1<br />

− 1<br />

T2 )δU1 + ( P1<br />

T1<br />

− P2<br />

T2 )δV1 = 0 ∀δU1, δV1 ⇒ T1 = T2, P1 = P2


70 KAPITEL 3. THERMODYNAMIK<br />

• Thermisch-materiell<br />

U = U1 + U2, N = N1 + N2, V1, V2 fest<br />

→ δU1 = −δU2, δN1 = −δN2<br />

S = S1(U1, V1, N1) + S2(U2, V2, N2) = max<br />

⇒ ∂S1<br />

∂U1 δU1 + ∂S1<br />

∂N1 δN1 + ∂S2<br />

∂U2 δU2 + ∂S2<br />

∂N2 δN2 = 0<br />

⇒ ( 1<br />

T1<br />

− 1<br />

T2 )δU1 − ( µ1<br />

T1<br />

− µ2<br />

T2 )δN1 = 0 ∀δU1, δN1 ⇒ T1 = T2, µ1 = µ2<br />

• ⇒ zeigt wieder: P, µ, T sind intensive Größen.<br />

(4) Gibbs-Duhem-Relation<br />

Eulersche Homogenitätsrelationen (3.9) <strong>und</strong> (3.10):<br />

S = 1<br />

(U + P V − µ N) <strong>und</strong> U = T S − P V + µ N (3.20)<br />

T<br />

<br />

→ dS = U d( 1 1<br />

T ) + T dU<br />

<br />

+ V d( P P<br />

T ) + T dV<br />

<br />

<br />

<br />

<br />

<strong>und</strong> → dU = S dT + T dS − V dP − P dV<br />

µ<br />

) − T dN<br />

<br />

<br />

+ N dµ + µ dN<br />

Differenziere <strong>und</strong> subtrahiere Gibbssche Gr<strong>und</strong>form 3.16 bzw. 3.17<br />

− N d( µ<br />

T<br />

⇒ Gibbs-Duhem-Relation<br />

Ud( 1<br />

)+V d(P<br />

T T<br />

µ<br />

)−Nd( )=0 <strong>und</strong> SdT −V dP +Ndµ=0 (3.21)<br />

T<br />

Bedeutung: Beziehung zwischen intensiven Größen<br />

ermöglicht Herleitung von Zustandsgleichungen<br />

Beispiel: Ideales Gas<br />

Bekannt: Zustandsgleichungen P V = NkBT <strong>und</strong> U = 3<br />

⇒ v = V<br />

N<br />

= kB T<br />

P<br />

Frage: s? µ?<br />

Gibbs-Duhem: 3<br />

⇒ d( µ 3<br />

T ) = 2kB <strong>und</strong> u = U<br />

N<br />

= 3<br />

2 kBT<br />

2NkBT d( 1<br />

1<br />

T ) + NkBT P<br />

d( 1<br />

T )<br />

1 + kB<br />

T<br />

d( P<br />

T<br />

= − 3<br />

2kB d(ln T ) − kB d(ln T<br />

P )<br />

= − 3<br />

2kB d(ln u) − kB d(ln v)<br />

= −kB d(ln(v · u3/2 ))<br />

2 NkBT<br />

µ<br />

) − Nd( T ) = 0<br />

d( P<br />

T )<br />

P =<br />

T<br />

3<br />

2kB d(ln 1<br />

T ) + kB d(ln P<br />

T )<br />

⇒ Zustandsgleichung für µ: µ µ0<br />

T − T0 = −kB ln v u · ( v0 u0 )3/2<br />

für Entropie: S<br />

N<br />

❀ s = s0 + kB ln v<br />

= s = U<br />

NT<br />

v0<br />

+ P V<br />

NT<br />

· ( u<br />

)<br />

u0<br />

3/2<br />

− µ<br />

T<br />

5 = 2kB − µ<br />

T<br />

(3.22)<br />

Entropie bestimmt bis auf Integrationskonstante<br />

Überprüfe Postulate:<br />

2. Postulat: S(U, V, N) existiert, differenzierbar, wächst streng<br />

monoton in U <br />

4. Postulat: ∂U<br />

U<br />

∂S = T = 0 ❀ N = u = 0 ❀ s ∝ ln u<br />

→ −∞ = 0 ⇒ nicht erfüllt (Problem: klassisches System,<br />

aber bei T = 0 greift Quantenmechanik)


3.2. GIBBSSCHE GRUNDFORM 71<br />

(5) Beziehungen zwischen Ableitungen<br />

Zweite Ableitungen = Thermodynamische Koeffizienten“<br />

”<br />

: Maxwell Relationen<br />

• Ableitungen vertauschbar ∂ 2 U<br />

∂x1∂x2 = ∂2 U<br />

∂x2∂x1<br />

z.B.<br />

∂ 2 U<br />

∂S∂V<br />

= −∂P<br />

∂S<br />

= ∂T<br />

∂V = ∂2 U<br />

∂V ∂S<br />

(3.23)<br />

• Eulersche Beziehung (erste Ableitungen homogen vom Grad 0)<br />

∂T ∂T ∂T<br />

S + V + N = 0. (3.24)<br />

∂S ∂V ∂N<br />

analog für P <strong>und</strong> µ<br />

❀ Bleiben 3 unabhängige Koeffizienten


72 KAPITEL 3. THERMODYNAMIK<br />

3.3 Thermodynamische Potentiale<br />

3.3.1 Legendre-Transformation<br />

Ausgangspunkt: F<strong>und</strong>amentalform U(S, V, N) enthält die Information über ein<br />

thermodynamisches System<br />

(Fehlende Zustandsgrößen aus T = ∂U<br />

∂S<br />

∂U ∂U<br />

, P = − ∂V , µ = ∂N )<br />

Wunsch: In der Praxis wäre es oft günstiger, andere unabhängige Variablen zu<br />

haben, da Kontrollparameter eines Systems oft nicht S, V, N sind, sondern<br />

z.B. T <strong>und</strong>/oder P etc.<br />

Versuch: einfache Variablensubstitution, z.B. S ↔ T<br />

Löse T (S, V, N) = ∂U<br />

∂S (wenn möglich) nach S auf → S(T, V, N)<br />

❀ Innere Energie U(T, V, N) = U(S(T, V, N), V, N)<br />

(z.B. ideales Gas: U(T, V, N) = 3<br />

2NkBT )<br />

Probleme<br />

• Die Funktion U(T, V, N) enthält nicht mehr die gesamte Information:<br />

U = f( ∂U<br />

∂S , V, N) kann nicht eindeutig nach S aufgelöst<br />

werden; wenn S Lösung, ist auch S + S0 Lösung.<br />

• Die Fälle, in denen man T = ∂U<br />

∂S nicht eindeutig nach S auflösen<br />

kann - z.B. falls U nicht streng konvex, sondern flache Stücke<br />

enthält - sind so überhaupt nicht zugänglich.<br />

Ausweg: Legendre-Transformation<br />

Gesucht: Funktion von ∂U<br />

∂S , die die gesamte<br />

Information von U enthält <strong>und</strong> eindeutig ist<br />

Lösung: Da U konvex ist: Achsenabschnitte<br />

der Tangenten definieren Kurve vollständig<br />

· S = U − T S<br />

→ U − ∂U<br />

∂S<br />

Einschub: Allgemein zu Legendre-Transformation (in einer Dimension)<br />

Gegeben eine konvexe oder konkave Funktion f(x)<br />

→ Tangenten mit Steigung df<br />

= ξ <strong>und</strong> Achsenabschnitt f(x) − ξx<br />

dx<br />

Wunsch: Eine Funktion F (ξ) finden, die dieselbe Information wie f(x) enthält ❀ aus F (ξ)<br />

muss f(x) sich eindeutig rekonstruieren lassen<br />

1. Versuch: Ordne jeder Steigung ξ den Wert f(x(ξ)) zu: F (ξ) = f(x(ξ))<br />

Problem: f(x) kann aus F (ξ) nicht eindeutig rekonstruiert werden: Falls f(x) Lösung von<br />

F (ξ) = f, ist f(x − a) auch Lösung für alle a! ⇒ Informationsverlust: nicht akzeptabel<br />

Ausweg: Legendre-Transformation F (ξ) = f(x) − ξx<br />

- F (ξ) = f(x) − ξx ist eindeutig<br />

(selbst wenn f(x) nicht invertierbar)<br />

- F (ξ) definiert f(x) vollständig<br />

(als Einhüllende der Tangentenschar)


3.3. THERMODYNAMISCHE POTENTIALE 73<br />

• klar, falls f(x) zweimal differenzierbar <strong>und</strong> streng konvex/konkav<br />

• Falls f(x) Knick hat<br />

❀ F (ξ) ist linear über<br />

einen Bereich von ξ<br />

• Falls f(x) linear über<br />

einen Bereich von x<br />

❀ F (ξ) hat einen Knick<br />

Es gilt:<br />

- Umkehrung: F (ξ) Legendre-Trafo<br />

−→ f(− dF<br />

dξ )<br />

( F ′ (ξ) = d<br />

<br />

df<br />

dx df dx<br />

dx<br />

(f − ξx) = − x − ξ = − x − ξ = −x<br />

dξ dξ dξ dx dξ dξ<br />

F (ξ) − F ′ (ξ)ξ = f − ξx + ξx = f(x) = f(−F ′ (ξ)) )<br />

- Wenn f(x) konkav ist, ist F (ξ) konvex <strong>und</strong> umgekehrt<br />

(<br />

d 2 f<br />

dx2 ≥ 0 ⇒ dξ<br />

dx ≥ 0 ⇒ d2F dξ2 = d dF<br />

dξ dξ<br />

dx<br />

= − ≤ 0 )<br />

dξ<br />

Bemerkung: Legendre-Transformation in der klassischen Mechanik<br />

1. Ausgangspunkt: Lagrange-Funktion L (q1 · · · qm, ˙q1 · · · ˙qm, t), die ein<br />

bestimmtes dynamisches System vollständig beschreibt.<br />

2. Gesucht: (Hamilton-)Funktion H (q1 · · · qm, p1 · · · pm, t) mit pi = ∂L<br />

∂ ˙qi ,<br />

die dasselbe leistet.<br />

3. Voraussetzung: pj = ∂L<br />

∂ ˙qj eindeutig nach ˙qj auflösbar, oder L konvex<br />

<br />

∂2L in ˙qj ❀ det ∂ ˙qj∂ = 0 überall (erfüllt für L =∼ ˙qk<br />

1 <br />

2<br />

mi ˙x 2 i − V (xj))<br />

4. Legendre-Transformation: L → L − pj ˙qj = −H<br />

3.3.2 Definition der thermodynamischen Potentiale<br />

Ausgangspunkt: F<strong>und</strong>amentalform U(S, V, N) mit ∂U<br />

∂S<br />

Gewünschte freie Parameter:<br />

• T, V, N ❀ geeignete Legendre-Transformation:<br />

F (T, V, N) = U − ∂U<br />

∂S<br />

= T , ∂U<br />

∂V<br />

= −P , ∂U<br />

∂N<br />

= µ<br />

· S = U − T S Helmholtzsche freie Energie (3.25)<br />

Ableitungen: Aus F (T, V, N) = U(S(T, V, N), V, N) − T · S(T, V, N):<br />

- ∂F<br />

<br />

<br />

∂T =<br />

V,N<br />

∂U<br />

<br />

∂S <br />

∂S <br />

∂S ∂T − S − T ∂T = −S(T, V, N)<br />

V,N V,N<br />

V,N<br />

- ∂F<br />

<br />

<br />

∂V =<br />

T,N<br />

∂U<br />

<br />

∂S <br />

∂S ∂V +<br />

V,N T,N<br />

∂U<br />

<br />

<br />

∂S <br />

∂V − T ∂V = −P (T, V, N)<br />

S,N<br />

T,N<br />

- ∂F<br />

<br />

<br />

∂N =<br />

T,V<br />

∂U<br />

<br />

∂S <br />

∂S ∂N +<br />

V,N T,V<br />

∂U<br />

<br />

<br />

∂S <br />

∂N − T ∂N = µ(T, V, N)<br />

S,V<br />

T,V


74 KAPITEL 3. THERMODYNAMIK<br />

⇒ Alle Informationen enthalten, F (T, V, N) ist F<strong>und</strong>amentalform<br />

Differential: dF = −S dT − P dV + µ dN (3.26)<br />

Vergleich mit Kapitel 2.6.2 S.59 ❀ Helmholtzsche freie Energie ist identisch<br />

mit der freien Energie aus der statistischen Mechanik<br />

• T, P, N ❀ geeignete Legendre-Transformation:<br />

G(T, P, N) = F − ∂F<br />

∂V<br />

· V = U − T S + P V Gibbssche freie Energie (3.27)<br />

identisch mit der freien Enthalpie aus der statistischen Mechanik<br />

• S, P, N ❀ geeignete Legendre-Transformation:<br />

H(S, P, N) = U − ∂U<br />

∂V<br />

(kennen wir auch schon)<br />

· V = U + P V Enthalpie (3.28)<br />

Zusammenstellung für diverse Kombinationen freier Parameter<br />

(Zustandsgrößen)<br />

freie Pa- Thermodynamisches Potential<br />

rameter Name Formel Differential (3.29.<br />

S, V, N Innere Energie U(S, V, N) dU = T dS − P dV + µ dN a)<br />

S, P, N Enthalpie H(S, P, N) = U + P V dH = T dS + V dP + µ dN b)<br />

T, V, N<br />

T, P, N<br />

T, V, µ<br />

T, P, µ<br />

Bemerkungen<br />

(Helmholtzsche)<br />

freie Energie<br />

Gibbssche freie<br />

Energie =<br />

freie Enthalpie<br />

Großkanonisches<br />

Potential<br />

Allgemeines<br />

großkanonisches<br />

Potential<br />

F (T, V, N) = U − T S dF = −S dT − P dV + µ dN c)<br />

G(T, P, N) = U − T S<br />

+P V<br />

(3.32)→ = µN<br />

Ω(T, V, µ) = U − T S<br />

−µN<br />

(3.31)→ = −P V<br />

∆(T, P, µ) = U − T S<br />

−µN +P V<br />

(3.30)→ = 0<br />

dG = −S dT + V dP + µ dN d)<br />

dΩ = −S dT − P dV − N dµ e)<br />

d∆ = −S dT + V dP − N dµ f)<br />

(3.29)<br />

• Ausgangspunkt für Legendre-Transformationen ist U(S, V, N) <strong>und</strong> nicht<br />

S(U, V, N), da ∂U<br />

<br />

<br />

∂V = −P experimentell kontrollierbarer Parame-<br />

S,N<br />

ter ist (mechanischer Druck), während ∂S<br />

<br />

<br />

∂V =<br />

U,N<br />

P<br />

T bei festem U<br />

nicht kontrollierbar<br />

• Die thermodynamischen Potentiale sind extensiv, Summen von extensiven<br />

Zustandsgrößen multipliziert mit intensiven Variablen.


3.3. THERMODYNAMISCHE POTENTIALE 75<br />

• Folgerungen aus Extensivität<br />

∗ ∆(T, P, µ) extensiv, hängt nur von intensiven Größen ab<br />

⇒ ∆ ≡ 0 einzige Möglichkeit (3.30)<br />

(konsistent mit Euler-Relation (3.20): U = T S + µN − P V )<br />

∗ Ω(T, V, µ) extensiv, einzige unabhängige extensive Variable ist V<br />

→ V kann nur linear in Ω eingehen.<br />

∆=0⇒ Ω = −P V ⇒ P (T, V, µ) = − Ω(T,V,µ)<br />

V = P (T, µ) (3.31)<br />

⇒ P hängt nur von T <strong>und</strong> µ ab<br />

∗ Analoge Argumentation für G(T, P, N) ⇒<br />

G = µN <strong>und</strong> µ(T, P ) hängt nur von T <strong>und</strong> P ab. (3.32)<br />

∆(T, P, µ) ≡ 0 ist als einziges kein f<strong>und</strong>amentales Potential, man<br />

kann daraus nicht eindeutig auf U(S, V, N) schließen<br />

❀ liegt an der Abhängigkeit der intensiven Größen voneinander<br />

(µ = µ(P, T ))<br />

❀ letzte Legendre-Transformation Ω → ∆ bzw. G → ∆ eigentlich<br />

nicht mehr zulässig<br />

NB: Im Rahmen einer mikroskopischen, statistischen Theorie kann<br />

man ein ∆ natürlich unter Umständen aus einer Zustandssumme<br />

Z∆ berechnen. Man stellt dann fest, dass ∆ ≈ 0 in dem Sinne,<br />

dass es Terme enthält, die maximal wie ln(〈N〉) skalieren,<br />

(2.114)<br />

z.B. ideales Gas: Z∆ =<br />

∞ 1<br />

h<br />

N=0<br />

3N ∞<br />

N!<br />

0<br />

= . . . = 1/(βP λ3 T − eβµ )<br />

e<br />

→ N =<br />

βµ<br />

βP λ3 λ<br />

, V =<br />

−eβµ<br />

T 3 T<br />

βP λ3 T −eβµ<br />

→ N, V makroskopisch für eβµ ≈ βP λ3 T<br />

dV<br />

V0<br />

<br />

Ω<br />

− 1<br />

k T<br />

dΓ e B<br />

Dann gilt: ∆ (2.114)<br />

= −k B T ln Z ∆ = k B T ln(βP λ 3 T /N)<br />

<br />

H −µN+P V<br />

(→ Gasgesetz<br />

βP V<br />

N<br />

1<br />

= 1 + N )<br />

(→ Beziehung µ(P, T ))<br />

3.3.3 Eigenschaften der thermodynamischen Potentiale<br />

(1) Konvexität <strong>und</strong> Differenzierbarkeit<br />

U(S, V, N) konvex (3.14) <strong>und</strong> differenzierbar (evtl. mit linearen Stücken)<br />

Eigenschaft der Legendre-Transformation:<br />

Falls f(x) konvex → Legendre-Transformierte konkav<br />

❀ F (T, V, N) = U − T S konkav in T , nicht unbedingt differenzierbar<br />

(hat evtl. Knicke)<br />

konvex <strong>und</strong> differenzierbar in V, N<br />

❀ G(T, P, N) = U − T S + P V konkav in T, P , konvex in N<br />

usw.<br />

Allgemein: Thermodynamische Potentiale U, H, F, G, Ω, . . . sind<br />

konvex (∪) <strong>und</strong> differenzierbar in extensiven Variablen<br />

(3.33)<br />

konkav (∩) <strong>und</strong> evtl. mit Knicken in intensiven Variablen<br />

(3.34)<br />

” Knick“ = üblicherweise Phasenübergang, mehr dazu später


76 KAPITEL 3. THERMODYNAMIK<br />

(2) Extremalprinzip<br />

Thermodynamische Potentiale U, H, F, G, Ω, . . . sind minimal. (3.35)<br />

Diese Extremalprinzipien lassen sich ableiten aus dem 3. Entropiepostulat<br />

(S maximal in isolierten, abgeschlossenen Systemen)<br />

❀ vorgeführt am Beispiel von U <strong>und</strong> F<br />

- Innere Energie U: Betrachte System A mit fester Entropie SA,<br />

A sei Teil eines isolierten Gesamtsystems A ∪ B<br />

❀ UA + UB fest, SA vorgegeben, SA + SB maximal<br />

Das ” Bad“ B sei ständig im Gleichgewicht, System<br />

A evtl. noch nicht<br />

Wegen ∂SB<br />

∂UB > 0 muss U in B möglichst groß sein, damit SB maximal<br />

⇒ UA (bei festem SA) möglichst klein ⇒ UA minimal<br />

- Freie Energie F : Betrachte System A mit fester Temperatur TA, wieder<br />

Teil eines isolierten Gesamtsystems A ∪ B. B ist Wärmebad<br />

⇒ TA = ∂UB<br />

∂SB = TB = T (zw. A <strong>und</strong> B Wärmeaustausch). Während<br />

A sich dem Gleichgewicht nähert, gilt: δFA = δ(UA − TASA)<br />

= δUA − T δSA<br />

δUA=−δUB<br />

= −δUB − T δSA<br />

SA + SB wächst an ⇒ δ(SA + SB) > 0 ⇒ δFA ≤ 0<br />

⇒ FA stellt sich minimal ein<br />

- Ableitungen für die übrigen Potentiale analog<br />

δUB=T δSB<br />

= −T (δSA + δSB)<br />

Nutzen: Nun stehen Extremalprinzipien nicht nur für isolierte Systeme,<br />

sondern für alle Gleichgewichtssysteme zur Verfügung.<br />

Analog zu Abschnitt 3.2 (3) können jetzt Gleichgewichtsbedingungen<br />

für alle möglichen zusammengesetzten Systeme mit allen möglichen<br />

Randbedingungen hergeleitet werden.<br />

3.3.4 Thermodynamische Koeffizienten<br />

Thermodynamische Koeffizienten = zweite Ableitungen von thermodynamischen<br />

Relationen<br />

(1) Bekannteste Koeffizienten<br />

Thermischer Ausdehnungskoeffizient: α = 1<br />

<br />

∂V <br />

<br />

V ∂T =<br />

P,N<br />

1 ∂<br />

V<br />

2 <br />

G 1 ∂S <br />

= − <br />

∂T ∂P V ∂P <br />

T,N<br />

Spezifische Wärme: cP = T<br />

<br />

∂S <br />

<br />

N ∂T = −<br />

P,N<br />

T ∂<br />

N<br />

2G ∂T 2<br />

cV = T<br />

<br />

∂S <br />

<br />

N ∂T = −<br />

V,N<br />

T ∂<br />

N<br />

2F ∂T 2<br />

Isotherme Kompressibilität: κT = − 1<br />

<br />

∂V <br />

<br />

V ∂P = −<br />

T,N<br />

1 ∂<br />

V<br />

2G ∂P 2<br />

Adiabatische Kompressibilität: κS = − 1<br />

<br />

∂V <br />

<br />

V ∂P = −<br />

S,N<br />

1 ∂<br />

V<br />

2H ∂P 2<br />

Spannungskoeffizient: β = ∂P<br />

<br />

<br />

<br />

∂T = −<br />

V,N<br />

1 ∂<br />

V<br />

2 <br />

F 1 ∂S <br />

= <br />

∂T ∂V V ∂V <br />

T,N<br />

(3.36)<br />

(3.37)<br />

(3.38)<br />

(3.39)<br />

(3.40)<br />

(3.41)


3.3. THERMODYNAMISCHE POTENTIALE 77<br />

(2) Zusammenhänge zwischen Koeffizienten<br />

Beziehungen:<br />

- Maxwell Relationen ↔ ∂2 F<br />

∂x1∂x2 = ∂2 F<br />

∂x2∂x1<br />

(vgl. (3.23))<br />

(anwendbar auf alle thermodynamischen Relationen)<br />

- Euler-Relationen für Ableitungen von T (S, V, N), P (S, V, N),<br />

µ(S, V, N) (vgl. ((3.24))<br />

- Variablentransformation: S ↔ T , V ↔ P , µ ↔ N<br />

⇒ Insgesamt drei unabhängige Variablen in einfachen Systemen<br />

Übliche Wahl : α, c P , κ T (3.42)<br />

Daraus können alle üblichen Koeffizienten gewonnen werden.<br />

Hilfsmittel zur Variablentransformation: Funktionaldeterminanten<br />

Gegeben sei u(x, y, z), v(x, y, z), w(x, y, z)<br />

⇒ Jacobi-Determinante ∂(u,v,w)<br />

∂(x,y,z) :=<br />

<br />

<br />

ux<br />

<br />

vx<br />

wx<br />

uy<br />

vy<br />

wy<br />

<br />

uz <br />

<br />

vz <br />

<br />

wz<br />

(ux = ∂u<br />

∂x etc.)<br />

Rechenregeln:<br />

(i) ∂(u,y,z) ∂u ∂(u,z,y)<br />

= = ∂(x,y,z) ∂x ∂(x,z,y)<br />

<br />

ux<br />

0<br />

0<br />

uy<br />

1<br />

0<br />

<br />

uz<br />

<br />

0 <br />

= ux<br />

1 <br />

<br />

. . .<br />

(ii) ∂(u,v,w) ∂(v,u,w) ∂(u,v,w)<br />

= − = − ∂(x,y,z) ∂(x,y,z) ∂(y,x,z)<br />

(iii) Kettenregel ∂(u,v,w)<br />

∂(r,s,t)<br />

(iv) ∂(u,v,w)<br />

∂(x,y,z)<br />

Anwendungsbeispiele<br />

∂(r,s,t) ∂(u,v,w)<br />

· = ∂(x,y,z) ∂(x,y,z)<br />

<br />

∂(x,y,z)<br />

∂u <br />

= 1/ ; speziell ∂(u,v,w) ∂x = 1/<br />

y,z ∂x<br />

<br />

<br />

∂u <br />

y,z<br />

(ohne Beweis)<br />

1<br />

( = Eigenwerte 1<br />

Eigenwerte )<br />

(a) β = α/κT (3.43)<br />

<br />

β (3.41)<br />

= ∂P<br />

<br />

(i) ∂(P,V,N) (iii) ∂(P,V,N) ∂(T,P,N) (ii) ∂(V,P,N) ∂(P,T,N)<br />

∂T = = · = − ·<br />

V,N<br />

∂(T,V,N) ∂(T,P,N) ∂(T,V,N) ∂(T,P,N) ∂(V,T,N)<br />

<br />

(i) ∂V <br />

= − ∂T ·<br />

P,N ∂P<br />

<br />

<br />

<br />

<br />

(iv) ∂V ∂V (3.36),(3.39)<br />

∂V = −<br />

T,N<br />

∂T <br />

P,N<br />

∂P = −V α (−V κT ) <br />

T,N<br />

(b) cP − cV = T · (V/N) · (α 2 /κT ) (3.44)<br />

<br />

cV (T/N) (3.38)<br />

= ∂S<br />

<br />

(i) ∂(S,V,N) (iii) ∂(S,V,N) ∂(T,P,N)<br />

∂T = = ·<br />

V,N<br />

∂(T,V,N) ∂(T,P,N) ∂(T,V,N)<br />

<br />

<br />

<br />

(ii),(i) ST<br />

SP SN<br />

<br />

<br />

= <br />

VT<br />

VP VN<br />

∂P <br />

∂S ∂V <br />

· ∂V =<br />

0 0 1 T,N<br />

∂T <br />

P,N<br />

∂P −<br />

T,N ∂V<br />

<br />

∂S <br />

∂T <br />

P,N<br />

∂P ·<br />

T,N<br />

∂P<br />

<br />

<br />

∂V <br />

T,N<br />

(3.37),(3.36),(3.39) ∂S<br />

<br />

<br />

=<br />

−<br />

∂T P,N<br />

<br />

c /(T /N)<br />

P ∂V<br />

<br />

∂S<br />

<br />

∂P<br />

<br />

<br />

<br />

<br />

∂T P,N ∂P T,N ∂V T,N<br />

<br />

V α −V α −1/(V κ )<br />

T<br />

(c) κS/κT = cV /cP (3.45)<br />

<br />

<br />

(3.40) ∂V (i) ∂(V,S,N) (iii) ∂(V,S,N) ∂(P,T,N)<br />

− V κS = ∂P = = ·<br />

S,N<br />

∂(P,S,N) ∂(P,T,N) ∂(P,S,N)<br />

<br />

<br />

<br />

(ii),(i) VP<br />

VT VN<br />

<br />

<br />

= <br />

SP<br />

ST SN<br />

∂T <br />

∂V ∂S <br />

· ∂S =<br />

0 0 1 P,N<br />

∂P <br />

T,N<br />

∂T −<br />

P,N ∂V<br />

<br />

∂S <br />

∂T <br />

P,N<br />

∂P ·<br />

T,N<br />

∂T<br />

<br />

<br />

∂S <br />

P,N<br />

= ∂V<br />

<br />

<br />

−<br />

∂P T,N<br />

<br />

(3.39)<br />

=−V κ<br />

T<br />

∂V<br />

<br />

∂S<br />

<br />

∂T<br />

<br />

<br />

=<br />

∂T P,N ∂P T,N ∂S P,N<br />

<br />

(3.36)<br />

=V α<br />

(3.36)<br />

=−V α<br />

(3.37)<br />

=T /(Nc )<br />

P −V κ T (c c P − T<br />

P<br />

V α<br />

N<br />

2 <br />

) <br />

κT <br />

(3.44) =c<br />

V<br />

(Damit sind cV , κS , β auf α, cP , κT zurückgeführt!)


78 KAPITEL 3. THERMODYNAMIK<br />

(3) Stabilitätsbedingungen<br />

Anschaulich: Reaktion einer extensiven Variablen auf Änderung der entsprechenden<br />

intensiven Variablen muss positiv sein.<br />

Thermodynamische Stabilität = Konvexität der Potentiale<br />

U(S, V, N) konvex bzw. N · u(s, v) konvex<br />

⇒ Matrix der 2. Ableitungen muss positiv definit sein<br />

<br />

<br />

⇔<br />

<br />

∂2u ∂s2 ∂2u ∂s∂v<br />

∂2u ∂v∂s<br />

∂2u ∂v2 ∂ 2 U<br />

= N ∂S2 ∂2U ∂S∂V<br />

⎛ <br />

∂T ∂T <br />

(3.29) ∂S <br />

= N ⎝ V,N<br />

∂V<br />

− ∂P<br />

<br />

<br />

−<br />

V,N ∂P<br />

<br />

<br />

NB: Matrix<br />

∂S<br />

S,N<br />

∂V <br />

S,N<br />

∂2U ∂V ∂S<br />

∂2U ∂V 2<br />

⎞<br />

⎠ positiv definit<br />

<br />

a c<br />

positiv definit ⇔ Eigenwerte λ1, λ2 ≥ 0<br />

c b<br />

⇔ Determinante = ab − c 2 = λ1λ2 ≥ 0 & Spur = a + b = λ1 + λ2 ≥ 0<br />

( ⇒ klar<br />

⇐ Determinante ≥ 0 ⇒ Beide λi gleiches Vorzeichen<br />

Spur ≥ 0 ⇒ Mindestens ein λi ≥ 0 )<br />

⇔ ab − c 2 ≥ 0 <strong>und</strong> a > 0, b > 0<br />

( ⇐ klar<br />

⇒ ab − c 2 ≥ 0 ⇒ a <strong>und</strong> b gleiches Vorzeichen<br />

a + b ≥ 0 ⇒ Eins von beiden, a oder b muss positiv sein )<br />

⇔ ∂T<br />

<br />

<br />

∂S ∝<br />

V,N 1<br />

c ≥ 0 ; −<br />

V<br />

∂P<br />

<br />

<br />

∂V ∝<br />

S,N 1<br />

κS<br />

<br />

∂T ∂T <br />

∂S <br />

V,N<br />

∂V <br />

S,N<br />

<br />

−<br />

∂P<br />

<br />

<br />

∂S −<br />

V,N ∂P<br />

<br />

<br />

<br />

∂(T,−P,N)<br />

= ∂(S,V,N)<br />

∂V <br />

<br />

S,N<br />

<br />

·<br />

T,N ∂T<br />

<br />

<br />

∝<br />

V,N 1 ≥ 0<br />

= − ∂P<br />

∂V<br />

∂S κT ⇔ cV ≥ 0, κS ≥ 0, κT ≥ 0<br />

1<br />

c V<br />

≥ 0<br />

∂(T,P,N) ∂(T,V,N)<br />

= − ∂(T,V,N) ∂(S,V,N)<br />

Kombiniert mit den Relationen (3.44) <strong>und</strong> (3.45)<br />

⇒ Stabilitätsbedingungen<br />

c P ≥ c V ≥ 0<br />

κ T ≥ κ S ≥ 0 (3.46)<br />

Bemerkung: κ T , κ S ≥ 0 sichert auch mechanische Stabilität<br />

(Volumen verringert sich, wenn Druck erhöht wird)


3.3. THERMODYNAMISCHE POTENTIALE 79<br />

(4) Verhalten bei T → 0<br />

4. Entropiepostulat: (Nernstsches Theorem)<br />

<br />

∂U <br />

∂S = T (S, V, N) = 0 ⇔ S = 0 (siehe (3.4))<br />

V,N<br />

äquivalent: lim<br />

T →0 S(T, V, N) = 0 (3.47)<br />

Daraus folgt auch: lim S(T, P, N) = 0, lim S(T, V, µ) = 0 etc.<br />

T →0 T →0<br />

( lim S(T, P, N) = lim S(T, V (T, P, N), N) = 0 etc. )<br />

T →0 T →0<br />

Folgerungen:<br />

Aus S(T = 0) endlich:<br />

• lim<br />

T →0 c V = 0 (3.48)<br />

( Gr<strong>und</strong>: S(T, V, N) endlich <strong>und</strong><br />

T <br />

S(T, V, N) = S(0, V, N) + dT ′ ∂S <br />

T<br />

∂T = S(0, V, N) + N dT<br />

0<br />

V,N 0<br />

′ c V<br />

T ′ < ∞<br />

⇒ c V<br />

T ∝ T x mit x > 0 für T → 0 )<br />

• U = F <strong>und</strong> H = G für T → 0 (3.49)<br />

( Gr<strong>und</strong>: U − F = H − G = T S = 0 für T = 0 )<br />

Aus S(T = 0) = 0:<br />

• lim<br />

T →0 α = 0 <strong>und</strong> lim<br />

T →0 β = 0 (3.50)<br />

• lim<br />

T →0 :<br />

( Gr<strong>und</strong>: α = 1<br />

<br />

∂V <br />

V ∂T = −<br />

P,N 1<br />

<br />

∂S <br />

V ∂P = 0,<br />

T,N<br />

da S(T = 0, P, N) ≡ 0 für alle P, N.<br />

β = ∂P<br />

<br />

<br />

∂T =<br />

V,N ∂S<br />

<br />

<br />

∂V = 0,<br />

T,N<br />

da S(T = 0, V, N) ≡ 0 für alle V, N. )<br />

U =U0(V, N)+O(T 2 ) ; F =U0(V, N)+O(T 2 )<br />

H =H0(P, N)+O(T 2 ) ; G=H0(P, N)+O(T 2 ) (3.51)<br />

U <strong>und</strong> F , H <strong>und</strong> G identisch <strong>und</strong> konstant bis zur O(T 2 )<br />

( Gr<strong>und</strong>: z.B. U, F :<br />

U−F<br />

lim S = lim<br />

T →0 T →0 T<br />

∂S<br />

= 0 <strong>und</strong> lim<br />

T 0 ∂T<br />

∂ U−F<br />

= lim<br />

T →0 ∂T T<br />

(3.48)<br />

< ∞<br />

∂<br />

∂ U−F<br />

⇒ lim (U − F ) = lim T<br />

T →0 ∂T T →0 ∂T T<br />

U−F<br />

+ lim<br />

T →0 T = 0<br />

∂<br />

∂<br />

∂<br />

⇒ lim U = lim F = lim S(T, V, N) = 0<br />

T →0 ∂T T →0 ∂T T →0 ∂T<br />

❀ lineare Ordnung in T verschwindet )<br />

⇒ P (S, V, N) = P (T, V, N) bei T → 0 (3.52)<br />

<br />

Gr<strong>und</strong>: P (S, V, N) == − ∂U<br />

<br />

<br />

∂V = −<br />

S,N ∂(U,S,N) ∂(U,S,N) ∂(T,V,N)<br />

= · ∂(V,S,N) ∂(T,V,N) ∂(S,V,N)<br />

<br />

<br />

<br />

UT<br />

UV UN<br />

<br />

<br />

= <br />

ST<br />

SV SN<br />

∂T <br />

∂U ∂S <br />

· ∂S =<br />

0 0 1 V,N<br />

∂T <br />

V,N<br />

∂V −<br />

T,N ∂S<br />

<br />

∂U <br />

∂T <br />

V,N<br />

∂V ·<br />

T,N<br />

∂T<br />

<br />

<br />

∂S <br />

V,N<br />

= ∂U<br />

<br />

∂S <br />

<br />

∂T V,N<br />

∂V ·<br />

T,N<br />

<br />

≈0<br />

∂T<br />

<br />

<br />

∂S −<br />

V,N ∂U<br />

<br />

<br />

<br />

T →0 ∂F<br />

∂V ≈ − = P (T, V, N) <br />

T,N<br />

∂V<br />

T,N<br />

<br />

∂T<br />

❀ T = 0 unerreichbar durch adiabatische Expansion: ∂P<br />

S,N =0 (3.53)


80 KAPITEL 3. THERMODYNAMIK<br />

3.4 Prozesse <strong>und</strong> zweiter Hauptsatz<br />

3.4.1 Prozessführung <strong>und</strong> Reversibilität<br />

Prozess: <br />

<br />

a (Anfangszustand) −→ e (Endzustand)<br />

charakterisiert durch Anfangszustand, Endzustand, Prozessführung<br />

Beispiel: Isotherme Ausdehnung eines Gases von Va nach Ve<br />

- Quasistatische Prozessführung<br />

System leistet Arbeit: W =<br />

Ve<br />

Va<br />

System ständig im Gleichgewicht.<br />

Zustandsänderungen lassen sich<br />

anhand der F<strong>und</strong>amentalgleichungen<br />

verfolgen.<br />

P dV<br />

Zuführung der gleichen Arbeit kehrt Prozess um: reversibel.<br />

In quasistatischen Prozessen gilt differentielle Form des 1. Hauptsatzes:<br />

dU (3.6)<br />

= δQ + δW mit δQ (3.19)<br />

= T dS <strong>und</strong> δW (3.18)<br />

= −P dV .<br />

- Prozessführung im Nichtgleichgewicht ( ” Realer“ Prozess)<br />

System leistet keine Arbeit; Prozess nicht umkehrbar, ohne Arbeit<br />

von außen zuzuführen → irreversibel<br />

Entropieerhöhung, aber ∆S = Q/T (Wärme muss nicht unbedingt<br />

fließen, z.B. im idealen Gas)<br />

Allgemein: Diskutiere Prozesse in einem System <br />

Betrachte Kombination <strong>und</strong> ” Umwelt“ U<br />

Idealisiere U durch Kombination von Arbeits- <strong>und</strong> Wärmereservoir<br />

(evtl. noch Teilchenreservoir hier nicht berücksichtigt).<br />

Reservoire seien immer im Gleichgewicht.<br />

Gesamtsystem = ∪U sei abgeschlossen.<br />

Dann: Induziere Prozess <br />

<br />

a −→ b im Teilsystem<br />

• Quasistatische (reversible) Prozessführung<br />

= Pfad im thermodynamischen Zustandsraum<br />

Entropie im Gesamtsystem: dS = dS + dSA + dSB = 0 (abgeschlossen)<br />

mit dSA = 0 (reines Arbeitsreservoir) ; dSB = − δQ<br />

T<br />

⇒ dSΣ = δQ<br />

TB<br />

, ∆SΣ =<br />

e<br />

a<br />

δQ<br />

T<br />

(δQ : ausgetauschte<br />

Wärme)<br />

(3.54)


3.4. PROZESSE UND ZWEITER HAUPTSATZ 81<br />

• Nichtgleichgewichts-Zustandsänderung (irreversibel)<br />

Gesamtentropie: ∆S = ∆S + ∆SA + ∆SB<br />

3. Postulat (3.3): ∆S ≥ 0 , sonst läuft Prozess nicht ab. (3.55)<br />

(Speziell: ∆S > 0 ⇒ irreversibel, denn umgekehrte Richtung<br />

ist dann nicht möglich.)<br />

∆SA = 0 (Arbeitsreservoir), ∆SB =<br />

⇒ ∆S ≥<br />

δQ<br />

T<br />

3.4.2 Wärmekraftmaschinen <strong>und</strong> 2. Hauptsatz<br />

b<br />

a<br />

dSB = − δQ<br />

T<br />

(3.56)<br />

Definition einer Wärmekraftmaschine: Maschine, die Wärme in Arbeit umsetzt,<br />

ohne sich dabei selbst zu verändern.<br />

(also: Kreisprozess, der immer wieder in den Ausgangszustand zurückkehrt)<br />

1. Versuch, eine Wärmekraftmaschine zu konstruieren<br />

∆S = ∆SΣ<br />

<br />

=0<br />

(Maschine ändert sich nicht)<br />

+ ∆SA<br />

<br />

=0<br />

(reines Arbeitsreservoir)<br />

Gesamtsystem<br />

Σ = Σ ∪ A ∪ B<br />

+ ∆SB<br />

<br />

=− Q<br />

T B<br />

(3.55)<br />

≥ 0<br />

(3.57)<br />

⇒ ∆UΣ = Q + W = 0 (denn Maschine soll sich ja nicht ändern) (3.58)<br />

⇒ ∆SB ≥ 0 ⇒ Q ≤ 0 ⇒ W ≥ 0<br />

❀ Maschine kann nur Arbeit in Wärme umwandeln, nicht umgekehrt!<br />

(als Wärmekraftmaschine ziemlich untauglich!)<br />

❀ 1. Formulierung des 2. Hauptsatzes der <strong>Thermodynamik</strong><br />

(nach Planck, Kelvin): Es gibt kein perpetuum mobile 2. Art,<br />

das nichts tut als einem Wärmereservoir Wärme zu entziehen<br />

<strong>und</strong> dabei Arbeit zu leisten.<br />

2. Versuch, eine Wärmekraftmaschine zu konstruieren<br />

(3.59)<br />

Gesamtsystem<br />

Σ = Σ ∪ A ∪ B1 ∪ B2<br />

o.B.d.A. gelte<br />

T1 > T2


82 KAPITEL 3. THERMODYNAMIK<br />

∆S<br />

❀ Fazit:<br />

analog<br />

(3.57)<br />

= ∆SΣ + ∆SA + ∆SB1 + ∆SB2<br />

<br />

=0 =0<br />

=− Q 1<br />

T1<br />

=− Q 2<br />

T2<br />

(3.55)<br />

≥ 0 ⇒ Q2 ≤ − T2<br />

T1 Q1<br />

analog<br />

(3.58)<br />

= W + Q1 + Q2 = 0 ⇒ −W = Q1 + Q2 ≤ (1 − T2<br />

T1 )Q1<br />

∆UΣ<br />

⇒ geleistete Arbeit (−W ) kann positiv sein, wenn Q1 > 0 (⇒ Q2 < 0)<br />

Energiebilanz:<br />

Wirkungsgrad: η = −W<br />

Q1 ≤ ηmax = 1 − T2/T1 (3.60)<br />

Realisierung einer Wärmekraftmaschine mit optimalem Wirkungsgrad<br />

Bilanz:<br />

Carnot-Prozess: (Sadi Carnot 1796-1832)<br />

Gedankenexperiment (1824)<br />

mit idealem Gas (⇒ U ∝ T ) durchzuführen,<br />

Reversibler Kreisprozess,<br />

alle Zustandsänderungen quasistatisch<br />

(a) (adiabatische) Kompression: ∆Sa = 0 ⇒ Qa = 0 ⇒ Wa = ∆Ua<br />

(b) (isotherme) Expansion: ∆Ub = 0 ⇒ Wb = −Qb = −∆Sb · T1<br />

(c) (adiabatische) Expansion: ∆Sc = 0 ⇒ Qc = 0 ⇒ Wc = ∆Uc = −∆Ua<br />

(d) (isotherme) Kompression: ∆Ud = 0 ⇒ Wd = −Qd = −∆Sd · T2 = ∆Sb · T2<br />

⇒ W = Wa + Wb + Wc + Wd = ∆Sb(T2 − T1); Q1 = Qb = ∆Sb · T1<br />

⇒ η = − W<br />

Q1 = 1 − T2/T1 <br />

• Wärmekraftmaschinen sind möglich, aber nur, wenn<br />

(mindestens) zwei Wärmereservoirs daran beteiligt sind. (3.61)<br />

• 2. Formulierung des 2. Hauptsatzes der <strong>Thermodynamik</strong><br />

Der Wirkungsgrad einer Wärmekraftmaschine<br />

ist maximal<br />

η = 1 − T2/T1<br />

(3.62)<br />

Bemerkung: Nach ähnlichem Prinzip wie die Wärmekraftmaschine kann man<br />

auch eine Wärmepumpe konzipieren, die Wärme von einem kälteren zu<br />

einem wärmeren Körper transferiert:<br />

Aus: −W ≤ (1 − T2/T1)Q1 <strong>und</strong> Q2 ≤ −(T2/T1)Q1<br />

folgt: Q2 > 0 <strong>und</strong> Q1 < 0 ist möglich, wenn der Maschine zusätzlich<br />

die Arbeit W ≥ (1 − T2/T1) · |Q1| zugeführt wird.<br />

Spontan (ohne Zufuhr von Arbeit) ist Wärmetransfer nicht möglich.<br />

❀ 3. Formulierung des 2. Hauptsatzes der <strong>Thermodynamik</strong><br />

(nach Clausius): Wärme kann nicht von selbst von<br />

einem kälteren zu einem wärmeren Körper fließen.<br />

(3.63)


3.4. PROZESSE UND ZWEITER HAUPTSATZ 83<br />

⇒ 3 äquivalente Formulierungen des 2. Hauptsatzes<br />

Alle diese Formulierungen sind letztlich eine Konsequenz des dritten<br />

Entropiepostulats (3.3): Die Entropie in einem isolierten System stellt sich<br />

im Gleichgewicht maximal ein.<br />

Diskussion: Muss der zweite Hauptsatz gelten?<br />

Maxwellscher Dämon (Maxwell, Theorie der Wärme)<br />

Verwandte Konstruktion<br />

Tür: langsame Atome werden von links nach rechts<br />

gelassen, schnelle von rechts nach links.<br />

Problem: Praktische Realisierung?<br />

Klapptür: Öffnet sich nur, wenn Atom<br />

dagegenstößt, schließt dann wieder<br />

❀ Sammeln sich dann alle Atome rechts?<br />

Dann könnte mit dem Druckunterschied Arbeit<br />

verrichtet werden.<br />

Problem: Klapptür muss sehr weich sein (mikroskopisch).<br />

Fluktuiert, ist auch mal so offen.<br />

Feynmansche Ratsche<br />

Antwort:<br />

Teilchen links stoßen zufällig gegen<br />

das Rad. Dieses kann sich wegen<br />

Kopplung an Ratsche rechts nur<br />

in eine Richtung drehen.<br />

Frage: Kann damit Arbeit verrichtet<br />

werden?<br />

T1 = T2 → Nein<br />

Feder der Ratsche muss sehr weich sein, fluktuiert, gelegentlich<br />

Bewegung in Gegenrichtung<br />

T1 > T2 → Ja: ” Brownian ratchet“<br />

aktuelles Forschungsgebiet (aber OK mit 2. Hauptsatz)


84 KAPITEL 3. THERMODYNAMIK<br />

3.5 Nicht-einfache Systeme<br />

3.5.1 Allgemeine Bemerkungen<br />

Bis jetzt: ” Einfache Systeme“<br />

Charakterisiert durch N, V, E = U<br />

Jetzt: Weitere charakteristische Größen<br />

(a) Formale Beschreibung<br />

Einbau über 1. Entropiepostlat (3.1)<br />

Erweiterung des Zustandsraums um weitere Koordinaten<br />

Aufstellung einer geeigneten F<strong>und</strong>amentalform<br />

Der Rest geht von allein<br />

Beispiele:<br />

(i) Verschiedene Teilchensorten<br />

Zustandsvariablen: V, N1 . . . Nl<br />

F<strong>und</strong>amentalform: dU = T dS − P dV + l<br />

i=1<br />

(ii) Magnetisierung<br />

Zustandsvariablen: V, N, M<br />

F<strong>und</strong>amentalform: dU = T dS − P dV + HdM<br />

µidNi<br />

(iii) Oberflächen<br />

Zustandsvariablen: V, N, A (Fläche)<br />

F<strong>und</strong>amentalform: dU = T dS − P dV + σdA (Oberflächenspannung)<br />

(b) Interpretation<br />

Formale Aufstellung ” einfach“! Wichtig: Interpretation der F<strong>und</strong>amentalform.<br />

❀ Man kommt doch nicht darum herum, sich in jedem<br />

Einzelfall mit der <strong>Physik</strong> des Systems auseinanderzusetzen.<br />

Dazu: Erinnerung an Abschnitt 2.4.1.1 auf Seite 42:<br />

N, V, E: ” natürliche Variablen“ des Systems<br />

- extensiv<br />

(damit ist Entropie extensiv, sind Ensembles äquivalent etc.)<br />

- in isolierten Systemen (einzige) Erhaltungsgröße<br />

(damit Ergodentheorem greift <strong>und</strong> erlaubter Phasenraum gleichmäßig<br />

aufgesucht wird → Voraussetzung für Anwendung des Jaynesschen<br />

Prinzips)<br />

Wie ist das hier?<br />

∗ Extensiv?<br />

(i) Teilchenzahlen <br />

(ii) Magnetisierung ()<br />

Ein Magnetfeld wird vom magnetisierten System aufgebaut. Energie<br />

nicht unbedingt extensiv<br />

❀ nur als Näherung (Ferromagnetismus: strenggenommen nicht<br />

magnetische Wechselwirkung, kurzreichweitig)


3.5. NICHT-EINFACHE SYSTEME 85<br />

(iii) Oberflächen <br />

Das glaubt man auf den ersten Blick nicht, denn Oberflächenergie<br />

nicht ∝ Volumen. De facto aber doch additiv, <strong>und</strong> nur das<br />

zählt.<br />

∗ Erhaltungsgröße?<br />

(i) Teilchenzahlen: nicht unbedingt<br />

(z.B. chemische Reaktionen), aber immerhin potentielle Erhaltungsgröße.<br />

⇒ Man kann unabhängige Reservoire anschließen, in denen (bei<br />

Abschaltung der Kopplung) Teilchenzahlen erhalten sind. ❀<br />

Deshalb kann chemisches Potential überhaupt eingestellt werden.<br />

Beispiel, wo das nicht möglich ist: Photonengas → Teilchenzahl nie erhalten →<br />

µ = 0<br />

(ii) Magnetisierung: auch nicht unbedingt<br />

(Ummagnetisierung tritt in endlichen Systemen irgendwann ein)<br />

aber: Erhaltungsgröße über makroskopischen Zeitraum<br />

❀ Ergodizitätsbrechung: Es wird nur ein Teil des Phasenraums<br />

erk<strong>und</strong>et, der charakterisiert ist durch bestimmten Wert der Magnetisierung.<br />

(iii) Oberflächen: Noch am ehesten<br />

(Aber: Oberfläche könnte auch makroskopisch rau sein)<br />

Fazit:<br />

Im Gegensatz zu anderen <strong>Vorlesung</strong>en (Mechanik, Quantenmechanik<br />

etc.) darf man ” Bedingungen“ hier nicht zu starr fordern.<br />

Es kommt darauf an, dass man versteht, wozu man sie braucht, <strong>und</strong><br />

beurteilen kann, ob Schlussfolgerungen nach wie vor gezogen werden<br />

können.<br />

❀ <strong>Physik</strong>alisches Verständnis des Systems, nicht starre Axiomatik!<br />

3.5.2 Chemische Reaktionen<br />

Eine der wichtigsten Anwendungen der <strong>Thermodynamik</strong><br />

→ Basis der physikalischen Chemie !<br />

(a) Charakterisierung von Reaktionen<br />

Beispiel: Knallgas<br />

Reaktion: 2H2 + O2 ⇋ 2H2O<br />

Alternativ: 2H2O − 2H2 − O2 ⇋ 0<br />

Reaktionslaufzahl Ƅ: Anzahl Reaktionen<br />

∆NH2 = −2∆Ñ<br />

∆NO2 = −∆Ñ<br />

∆NH2O = 2∆Ñ


86 KAPITEL 3. THERMODYNAMIK<br />

Allgemeiner:<br />

Reaktion: <br />

νl xl ⇋ 0<br />

l<br />

xl: Substanzen (H2, O2, H2O)<br />

νl: stöchiometrische Koeffizienten<br />

νl > 0 : = Reaktionsprodukte<br />

νl < 0 : = Reaktanden<br />

Reaktionslaufzahl:<br />

∆Nl = νl∆ Ñ<br />

(b) Thermodynamische Beschreibung<br />

∗ Zustandsraum: Bestimmt durch Anfangszustand {Nl}<br />

Mögliche Nl erfüllen: Nl = N 0 l + νl∆Ñ ≥ 0<br />

❀ ein freier Parameter (∆Ñ) Bedingungen Nl ≥ 0 ∀l → Ränder<br />

dNl = νld Ñ<br />

∗ Häufig günstiges Ensemble: Konstanter Druck <strong>und</strong> Temperatur<br />

❀ freie Enthalpie G(T, P, N1 . . . Nl)<br />

(3.64)<br />

Dann gilt G = µlNl mit µl(T, P, N1 . . . Nl) (3.65)<br />

(vgl. eine Sorte G = µN (3.32))<br />

→ ∂G<br />

∂ Ñ = µlνl<br />

(3.66)<br />

→ ∂2 G<br />

∂ Ñ 2 > 0 (?) (3.67)<br />

∗ Chemisches Gleichgewicht: Zustand, an dem G minimal ist<br />

Möglichkeiten:<br />

• Minimum am Rand (rechts/links)<br />

❀ Reaktion läuft vollständig ab<br />

Einer der Partner Nl stirbt aus<br />

→ Gleichgewicht ” ganz rechts“/ ” ganz links“<br />

• Minimum in der Mitte<br />

❀ Gleichgewichtsbedingung:<br />

dG = ∂G<br />

dNl = (<br />

∂Nl <br />

<br />

µlνl)dÑ = 0 ∀dÑ<br />

l<br />

<br />

µl<br />

νld Ñ<br />

⇒ <br />

µlνl = 0 bzw.<br />

l<br />

l<br />

∂G<br />

= 0<br />

∂Ñ (c) Gleichgewichtsverschiebungen - Qualitative Vorbemerkungen<br />

(3.68)<br />

Betrachte nun Änderung des Gleichgewichts, wenn Druck oder Temperatur<br />

erhöht wird.


3.5. NICHT-EINFACHE SYSTEME 87<br />

Die Richtung, in der sich ein thermodynamisches Gleichgewicht unter<br />

dem Einfluss eines äußeren Zwanges verschiebt, wurde qualitativ angegeben<br />

von Henry Le Chatelier (1850-1877) durch sein Prinzip des<br />

kleinsten Zwanges.<br />

Prinzip von Le Chatelier:<br />

Übt man auf auf ein im Gleichgewicht befindliches System durch<br />

Änderung einer Zustandsvariablen einen Zwang aus, so ändern sich<br />

die anderen Zustandsparameter von selbst in dem Sinne, dass sich<br />

dieser Zwang vermindert. Die Gleichgewichtsverschiebung schwächt<br />

also die Wirkung des äußeren Einflusses ab.<br />

Beispiele:<br />

1. Bei Drucksteigerung verschiebt sich das Schmelzgleichgewicht<br />

zugunsten der spezifisch schwereren Phase, was eine Volumenverminderung<br />

<strong>und</strong> damit Abschwächung des erhöhten Druckes<br />

bedeutet. Da die spezifisch schwerere Phase in der Regel die<br />

feste ist, kann man also die flüssige Phase bei erhöhter Temperatur<br />

durch Drucksteigerung zum Erstarren bringen. Beim<br />

Wasser ist die feste Phase leichter, daher lässt sich Eis durch<br />

Druckerhöhung schmelzen-<br />

2. Die Löslichkeit nimmt mit wachsendem Druck zu, falls das Molvolumen<br />

des festen Stoffes größer als das partielle Molvolumen<br />

des gelösten Stoffes ist <strong>und</strong> im umgekehrten Falle abnimmt.<br />

3. Die Löslichkeit nimmt mit wachsender Temperatur zu, falls beim<br />

Lösen Wärme frei wird, <strong>und</strong> nimmt ab, wenn Wärme verbraucht<br />

wird.<br />

(d) Gleichgewichtsverschiebungen - Quantitativ<br />

Allgemein:<br />

d( <br />

µlνl) = 0<br />

l<br />

⇒ ∂<br />

∂T ( µlνl)dT +<br />

l<br />

∂<br />

∂P ( µlνl)dP +<br />

l<br />

∂<br />

(<br />

∂Nm<br />

m<br />

<br />

µlνl)dNm = 0 (3.69)<br />

l<br />

<br />

(i) T = const., P wird erhöht<br />

<br />

dÑ −<br />

(3.69)<br />

=<br />

∂<br />

dP<br />

T<br />

(3.67)<br />

∂V <br />

∝ =<br />

∂Ñ l<br />

∂P ( µlνl)<br />

∂<br />

∂ Ñ ( µlνl)<br />

∂V<br />

∂Nl<br />

<br />

v l<br />

(Molvolumen)<br />

∂<br />

(3.66)<br />

= 2 G<br />

∂P ∂Ñ ∂2G ∂Ñ2 = ∂Nm<br />

m ∂Ñ ∂<br />

∂Nm ( µ lνl )d<br />

l<br />

Ñ<br />

= ∂ ( µ<br />

∂Ñ lνl )d<br />

l<br />

Ñ<br />

= ∂V<br />

∂ Ñ<br />

∂ 2 G<br />

∂ Ñ2<br />

dNl<br />

dÑ =<br />

<br />

νl<br />

vlνl<br />

Druck erhöht → System schrumpft ❀ beweist das Prinzip von Le<br />

Chatelier in diesem konkreten Fall<br />

⇒ Falls Reaktionsprodukte mehr Platz brauchen ❀ Gleichgewicht<br />

verschiebt sich nach links. Anderenfalls: Gleichgewicht nach rechts.


88 KAPITEL 3. THERMODYNAMIK<br />

(ii) P = const., T wird erhöht<br />

<br />

dÑ −<br />

(3.69)<br />

=<br />

∂<br />

∂T ( µlνl)<br />

dT<br />

P<br />

(3.67)<br />

∝ ∂ 2 G<br />

∂Nl∂T<br />

∂<br />

∂ Ñ ( µlνl)<br />

<br />

dNl · =<br />

dÑ l<br />

∂<br />

(3.66)<br />

= 2 G<br />

∂T ∂Ñ ∂2G ∂Ñ2 ∂S dNl<br />

∂Nl dÑ =<br />

∂ 2 G<br />

∂N l ∂T · dN l<br />

d Ñ<br />

∂ 2 G<br />

∂ Ñ2<br />

Andererseits ist während einer Reaktion mit T = const., P = const.<br />

S ≤ S(T, P, N1 . . . Nl) ⇒ dS = <br />

l<br />

∂S<br />

∂Nl dNl = δQ<br />

T<br />

mit δQ: Wärme, die während der Reaktion entsteht oder verbraucht<br />

wird.<br />

Also:<br />

dÑ<br />

dT<br />

P<br />

1 δQ<br />

∝ T dÑ Falls Wärme verbraucht wird (endotherme Reaktion) → Gleichgewicht<br />

verschiebt sich bei Temperaturerhöhung nach rechts.<br />

Falls Wärme entsteht (exotherme Reaktion) → Gleichgewicht verschiebt<br />

sich bei Temperaturerhöhung nach links.<br />

⇒ Wirkt - im Einklang mit Le Chatelier - der Temperaturänderung<br />

entgegen!


Kapitel 4<br />

Quantenstatistik <strong>und</strong><br />

quantenmechanische<br />

Vielteilchensysteme<br />

c○ Copyright 2005 Friederike Schmid 1<br />

4.1 <strong>Statistische</strong> Quantenmechanik<br />

Vorbemerkungen<br />

Ein quantenmechanischer Zustand enthält alle Information über ein System,<br />

ist also analog einem Phasenraumpunkt Γ. Nun ist aber auch in der<br />

Quantenmechanik der Mikrozustand |ψ〉 in der Praxis nicht genau bekannt,<br />

d.h. zu der ” Heisenbergschen Unschärfe“ kommt eine statistische<br />

Unschärfe hinzu.<br />

❀ Quantenstatistik<br />

Beschreibung eines statistischen Gemischs von Zuständen<br />

Situation: Ensemble von Zuständen, irgendwie präpariert.<br />

<strong>Statistische</strong> Ungenauigkeit → jeder Zustand etwas anders präpariert<br />

❀ Wahrscheinlichkeitsverteilung pi, einen Mikrozustand |ψi〉 vorzufinden<br />

mit pi = 1, 〈ψi|ψi〉 = 1 (normiert)<br />

⇒ <strong>Statistische</strong>r Erwartungswert<br />

der Observablen A: 〈A〉 stat = pi〈ψi|A|ψi〉 (4.1)<br />

Bemerkungen:<br />

∗ |ψi〉 müssen nicht notwendig orthogonal zueinander sein<br />

∗ In der Literatur wird häufig unterschieden zwischen:<br />

- idealisierter ” reiner“ Fall: Immer der gleiche Zustand |ψ〉 wird präpariert<br />

- ” gemischter“ Fall: <strong>Statistische</strong>s Gemisch vieler Zustände<br />

∗ <strong>Statistische</strong> Überlagerung von Zuständen unterscheidet sich wesentlich<br />

von quantenmechanischer Überlagerung: inkohärent, keine Interferenz<br />

1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />

Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />

89


90 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

4.1.1 Der <strong>Statistische</strong> Operator<br />

Ziel: Suche quantenmechanisches Analogon zur klassischen Wahrscheinlichkeitsverteilung<br />

p(Γ) (nach Möglichkeit linearer Operator mit definiertem Transformationsverhalten<br />

bei Darstellungswechsel)<br />

Herleitung, Definition <strong>und</strong> Eigenschaften: Wir rekapitulieren Postulat IV aus<br />

der <strong>Vorlesung</strong> Quantenmechanik 1 <strong>und</strong> leiten aus Gleichung 4.1 eine expliziten<br />

Ausdruck für den statistischen Operator her, der die Bedingungen des Postulats<br />

IV erfüllt.<br />

4.1.1.1 Die ” Postulate“ der Quantenmechanik<br />

Die gesamte Quantenmechanik lässt sich aus den folgenden 4 ” Postulaten“ ableiten:<br />

(Eine Erinnerung an die <strong>Vorlesung</strong> Quantenmechanik 1)<br />

I Die Zustände eines quantenmechanischen Systems sind (bis auf Phasenfaktor<br />

bestimmte, normierte) Vektoren |ψ〉 in einem unitären Vektorraum<br />

(Hilbertraum + Dirac-Vektoren). Sie enthalten die maximal mögliche Information<br />

über ein System. Zustände können linear überlagert werden zu<br />

einem neuen Zustand (Superpositionsprinzip). (4.2)<br />

II Jeder dynamischen Variable (messbare Größe) ist ein selbstadjungierter<br />

Operator (eine Observable) zugeordnet. Der Zustandsraum wird von den<br />

Eigenvektoren eines vollständigen Satzes kommutierender Observablen<br />

aufgespannt (d.h. es gibt keine “überflüssigen“ Freiheitsgrade). (4.3)<br />

III Die einzig möglichen Werte (Messwerte) einer dynamischen Variable sind<br />

die Eigenwerte der zugeordneten Observable. (4.4)<br />

IV Ein konkretes System wird durch einen ” statistischen Operator“ ϱ beschrieben.<br />

Der Erwartungswert einer Observablen A<br />

bei einer Messung ist gegeben durch<br />

Es muss gelten:<br />

〈A〉stat = Sp(ϱA) (4.5)<br />

ϱ ist selbstadjungiert (4.6)<br />

ϱ ist positiv semidefinit (〈ψ|ϱ|ψ〉 ≥ 0 für alle |ψ〉) (4.7)<br />

Sp(ϱ) = 1 (4.8)<br />

Zwei Systeme sind identisch, wenn sie durch denselben statistischen Operator<br />

beschrieben werden (d.h., alle Erwartungswerte physikalisch messbarer<br />

Größen sind identisch)


4.1. STATISTISCHE QUANTENMECHANIK 91<br />

4.1.1.2 Der statistische Operator im allgemeinen (gemischten) Fall<br />

<strong>Statistische</strong>r Operator<br />

für gemischte Systeme:<br />

Beweise:<br />

ϱ = <br />

i |ψi〉pi〈ψi| mit pi ≥ 0, <br />

(|ψi〉 normiert (〈ψi|ψi〉 = 1), aber nicht notwendig orthogonal)<br />

i pi = 1 (4.9)<br />

(4.5)<br />

(4.9) <br />

(4.1) erfüllt, denn 〈A〉stat = Sp(ϱA) = pi 〈bk|ψi〉〈ψi|A|bk〉 =<br />

i k<br />

<br />

pi〈ψi|A<br />

i<br />

<br />

|bk〉〈bk| ψi〉 <br />

k<br />

<br />

=1<br />

(4.6) erfüllt (ϱ selbstadjungiert), denn (4.9) ist eine Summe von Projektionsoperatoren <br />

( oder zu Fuß: 〈ϕ|ϱ|ψ〉 = <br />

〈ϕ|ψi〉pi〈ψi|ψ〉 =<br />

i<br />

<br />

〈ψ|ψi〉<br />

i<br />

∗p∗ i 〈ψi|ϕ〉 ∗ = 〈ψ|ϱ|ϕ〉 ∗ )<br />

(4.7) erfüllt (ϱ positiv semidefinit), denn 〈ϕ|ϱ|ϕ〉 = <br />

pi〈ϕ|ψi〉〈ψi|ϕ〉 =<br />

i<br />

<br />

pi|〈ϕ|ψi〉|<br />

i<br />

2 ≥ 0 ∀|ϕ〉 <br />

(4.8) erfüllt, denn Sp(ϱ) = <br />

pi 〈bk|ψi〉〈ψi|bk〉 =<br />

i k<br />

<br />

pi〈ψi|<br />

i<br />

<br />

|bk〉〈bk| ψi〉 =<br />

k<br />

<br />

=1<br />

<br />

pi = 1 <br />

i<br />

4.1.1.3 Sonderfälle des statistischen Operators<br />

•<br />

•<br />

<strong>Statistische</strong>r Operator<br />

für reine Systeme:<br />

⇒ 〈A〉 = 〈ψ|A|ψ〉<br />

ϱ = |ψ〉〈ψ| (|ψ〉 normiert) (4.10)<br />

(check: 〈A〉 = Sp(ϱA) = <br />

〈bk|ψ〉〈ψ|A|bk〉 = 〈ψ|A<br />

k<br />

<br />

|bk〉〈bk| ψ〉<br />

k<br />

<br />

=1<br />

<br />

√ )<br />

❀ Ergebnis der Wellenmechanik für ein System mit vorgegebener<br />

Wellenfunktion ψ<br />

Kennzeichen reiner Systeme: ϱ 2 = ϱ (d.h., ϱ ist Projektionsoperator)<br />

ϱ ↔ |ψ〉: ϱ enthält maximal mögliche Information über ein<br />

System.<br />

<strong>Statistische</strong>r Operator im<br />

völlig unbestimmten Fall:<br />

ϱ = 1l/Sp(1l) (4.11)<br />

4.1.1.4 Dynamische Entwicklung von unbeobachteten Gemischen<br />

Während eine Messung (in fast allen Lehrbüchern - aber vgl. ” Dekohärenz“) als<br />

Projektion auf einen neuen statistischen Operator ( ” Kollaps“) beschrieben wird,<br />

gehorcht ein unbeobachtetes Gemisch der Schrödingergleichung bzw. (äquivalent)<br />

der von-Neumann-Gleichung. (Wie in der <strong>Vorlesung</strong> Quantenmechanik I gezeigt wird,<br />

lassen sich diese Gesetze aus allgemeinen Prinzipien herleiten.)


92 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

Schrödingerbild: (Index S bedeutet Schrödinger)<br />

Schrödingergleichung: i ∂<br />

∂t |ψS(t)〉 = H |ψS(t)〉 (4.12)<br />

oder (Definition): |ψS(t)〉 = U(t, t0)<br />

<br />

Zeitentwicklungsoperator<br />

|ψS(t0)〉 (4.13)<br />

Zeitentwicklungsoperator erfüllt i ∂<br />

∂t U(t, t0) = H U(t, t0) (4.14)<br />

⇒ ϱS(t) = <br />

|ψi(t)〉pi〈ψi(t)| = <br />

U(t, t0)|ψi(t0)〉pi〈ψi(t0)|U † (t, t0)<br />

i<br />

i<br />

⇒ ϱS(t) = U(t, t0)ϱS(t0)U † (t, t0) (4.15)<br />

bzw. i ∂<br />

∂t ϱS(t) = [H, ϱS(t)]<br />

von-Neumann-<br />

Gleichung<br />

( i ∂<br />

∂t ϱS = (i ∂<br />

∂t U) ϱS(t0) U † − U ϱS(t0) (i ∂<br />

∂t U)†<br />

= H U ϱS(t0) U †<br />

<br />

ϱ S (t)<br />

− U ϱS(t0) U †<br />

<br />

ϱ S (t)<br />

H )<br />

(4.16)<br />

Heisenbergbild: (Index H bedeutet Heisenberg)<br />

|ψH(t)〉 = const. ⇒ ϱH = const. (4.17)<br />

4.1.2 <strong>Statistische</strong> Mechanik<br />

Ausgangspunkt: Wie in der klassischen Mechanik<br />

Informationsentropie: S = −kB〈ln ϱ〉 = −kBSp(ϱ ln ϱ) (4.18)<br />

Prinzip der maximalen Ignoranz: S ist im Gleichgewicht maximal unter<br />

den vorgegebenen Nebenbedingungen<br />

Damit können im Wesentlichen alle Ergebnisse aus der klassischen statistischen<br />

Mechanik reproduziert werden.<br />

Bemerkung zur Anwendbarkeit des Jaynesschen Prinzips:<br />

klassisch: Argumentation beruht auf Liouvillesatz <strong>und</strong> der Annahme von<br />

Ergodizität.<br />

quantenmechanisch: Analogon zum Liouvillesatz:<br />

- Zeitentwicklungsoperator U(t, t0) unitär<br />

❀ Zeitentwicklung = Drehung im Hilbertraum<br />

Ergodizität muss wieder angenommen werden<br />

(nicht erfüllt z.B. beim harmonischen Oszillator)<br />

” Ergodizität“ bedeutet z.B. bei Energieerhaltung:<br />

Eigenraum eines Energie-Eigenwertes wird mit der Zeit<br />

gleichmäßig ausgefüllt (auf Kugel 〈ψ|ψ〉 = 1)


4.1. STATISTISCHE QUANTENMECHANIK 93<br />

Beispiel: Berechnung der Entropie eines Gemischs<br />

- im reinen Fall: ϱ = |ψ〉〈ψ|:<br />

Wähle Basis so, dass ψ erster Basisvektor<br />

⇒ ϱ =<br />

1 0 · · ·<br />

0 0 · · ·<br />

.<br />

.<br />

. . .<br />

⇒ S = 0<br />

- im unbestimmten Fall: ϱ = 1l/Sp(1l) ⇒ S = +kBSp(1l) maximal<br />

4.1.3 Berechnung des statistischen Operators in verschiedenen<br />

Gesamtheiten<br />

(1) Mikrokanonische Gesamtheit<br />

E vorgegeben (oder En ∈ [E, E + ∆E])<br />

Zustände mit Eigenenergie E: |ψν〉<br />

Entropie S maximal für<br />

statistischer<br />

Operator<br />

Zustandssumme<br />

ϱ MK = 1<br />

Z MK<br />

Z MK = Sp( <br />

<br />

ν |ψν〉〈ψν|<br />

(Gleichverteilung)<br />

(4.19)<br />

ν |ψν〉〈ψν|) (4.20)<br />

Entropie S = kB ln Z MK (4.21)<br />

(2) Kanonische Gesamtheit<br />

〈E〉 vorgegeben<br />

Entropie S maximal mit Nebenbedingung Sp(ϱ) = 1, Sp(ϱH) = 〈E〉<br />

<br />

<br />

❀ Variiere I[ϱ] = S − λ1 Sp(ϱ) − 1 − λ2 Sp(ϱH) − 〈E〉 (4.22)<br />

bzgl. Operator ϱ<br />

Rechnung (trotz Operator) ganz ähnlich zum klassischen Fall:<br />

δI<br />

<br />

(4.22)<br />

= δS<br />

<br />

−λ1<br />

I[ϱ+δϱ]−I[ϱ] S[ϱ+δϱ]−S[ϱ]<br />

−δS<br />

k B<br />

δ[Sp(ϱ)] −λ2<br />

<br />

Sp[ϱ+δϱ]−Sp[ϱ]<br />

=Sp[δϱ]<br />

(4.18)<br />

= Sp[(ϱ + δϱ) ln(ϱ + δϱ)<br />

<br />

ln ϱ+ϱ −1 δϱ+Terme ϱ m [ϱ n ,δϱ]+O(δϱ 2 )<br />

δ[Sp(ϱH)]<br />

<br />

Sp[(ϱ+δϱ)H]−Sp[ϱ]H<br />

=Sp[δϱH]<br />

] − Sp[ϱ ln ϱ]<br />

!<br />

= 0 für alle δϱ<br />

<br />

= Sp[ϱ ln ϱ] + Sp[δϱ ln ϱ] + Sp[δϱ] + Terme Sp ϱ m+1 [ϱ n <br />

, δϱ] −Sp[ϱ ln ϱ] + O(δϱ<br />

<br />

=0<br />

2 )<br />

<br />

<br />

!=<br />

⇒ δI = Sp δϱ − kB(ln ϱ + 1l) − λ11l − λ2H 0 für alle δϱ<br />

<br />

⇒ . . . = 0 ⇒ ln ϱ = − 1<br />

<br />

<br />

1l(kB + λ1) + λ2H ⇒ ϱ ∝ e kB − λ2 H<br />

k !<br />

B = e−βH Ergebnis: Entropie S maximal für<br />

statistischer<br />

Operator<br />

Zustandssumme<br />

ϱK = 1<br />

e<br />

ZK −βH<br />

Z K = Sp(e −βH )<br />

Entropie S = 1<br />

T 〈E〉 + kB ln Z K<br />

(Normierungsfaktor<br />

Sp(ϱ) = 1)<br />

(wie im<br />

klassischen Fall)<br />

(4.23)<br />

(4.24)<br />

(4.25)


94 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

Bemerkung: Da die einzige Nebenbedingung, die von einem anderen Operator<br />

als ϱ abhängt, die Bedingung Sp(ϱH) = 〈E〉 ist, darf ϱ nur von<br />

H abhängen. Alles andere wäre Zusatzinformation.<br />

(3) Großkanonische Gesamtheit<br />

Geht analog: Entropie S[ϱ] maximal mit Nebenbedingung Sp(ϱ) = 1,<br />

Sp(ϱH) = 〈E〉, Sp(ϱN) = 〈N〉 (N: Teilchenzahloperator)<br />

Variation liefert:<br />

statistischer<br />

Operator<br />

Zustandssumme<br />

ϱGK = 1<br />

e<br />

ZGK −β(H−µN)<br />

(4.26)<br />

Z GK = Sp(e −β(H−µN) ) (4.27)<br />

Entropie S = 1<br />

T (〈E〉 − µ〈N〉) + kB ln Z GK<br />

(4.28)<br />

Frage: Was hat man sich überhaupt unter einem quantenmechanischen Vielteilchenzustand<br />

vorzustellen?<br />

→ Nächstes Kapitel<br />

4.2 Quantenmechanische Vielteilchensysteme<br />

4.2.1 Unterscheidbare Teilchen<br />

(z.B. Wasserstoffatom: Proton + Elektron)<br />

Ein Teilchen: → Zustandsraum der Einteilchenzustände |ψ〉<br />

(z.B. Ein-Teilchen-Wellenfunktion ψ(z, t))<br />

Mehrere Teilchen: → Erweiterung des Zustandsraums über Produktbildung<br />

Angenommen, zwei Teilchen a,b,<br />

Einteilchenzustände |ψ〉a ∈ Ha, |ψ〉b ∈ Hb<br />

❀ Gemeinsamer Zustandsraum wird von den Zuständen |ψ〉a|ψ〉b aufgespannt:<br />

Hgesamt = Ha<br />

Hb<br />

(z.B. Proton + Elektron: ψelektron(x, t) ψproton(x, t))<br />

NB: Mit |ψi〉a |ψj〉b ist natürlich auch jede Linearkombination im Zustandsraum,<br />

also |ψi1 〉a |ψi1 〉b + |ψi2 〉a |ψi2 〉b<br />

❀ Zwei-Teilchen-Zustände faktorisieren i. A. nicht in Ein-Teilchen-Zustände<br />

4.2.2 Identische Teilchen<br />

” Identisch“: Man kann kein Verfahren angeben, mit dem ein Teilchen von<br />

einem anderen unterschieden werden kann - gleiche Masse, gleiche Ladung,<br />

gleicher Spin, . . .<br />

→ Hamiltonoperator verändert sich nicht bei Vertauschung zweier Teil-<br />

chen (z.B. zwei Teilchen a,b: H = p2 a<br />

2m + p2 b<br />

2m + V (|xa − xb|)


4.2. VIELTEILCHENSYSTEME 95<br />

→ Man kann bei einer Messung nicht unterscheiden, welches Teilchen<br />

man gerade misst: Sinnvolle Messgrößen sind nur solche, die zwischen<br />

Teilchen nicht unterscheiden (z.B. bei zwei Teilchen nicht xa, xb, aber<br />

1<br />

2 (xa + xb), |xa − xb|, . . . )<br />

❀ De facto ununterscheidbar<br />

Gegeben sei nun System N identischer Teilchen. Wie behandelt man das?<br />

4.2.2.1 Erster (falscher) Ansatz: Austauschentartung<br />

Versuch: N-facher Produktraum H N des Einteilchenzustandsraums H<br />

Bei Einteilchenbasis |bi〉 N-Teilchenzustand aufgespannt von |bi1 〉 · · · |biN 〉<br />

Ununterscheidbarkeit: Es kann nur Observablen geben, die nicht zwischen Teilchen<br />

unterscheiden<br />

Problem:<br />

Das heißt aber: Zustände |ψ1〉|ψ2〉 <strong>und</strong> |ψ2〉|ψ1〉 können durch keine<br />

Observable unterschieden werden. Zustand enthält Information, die<br />

durch keine Messung extrahiert werden kann. Es gibt kein VSKA!<br />

Austauschentartung: Eigenwerte sämtlicher Messgrößen bleiben bei Vertauschung<br />

erhalten (N!-fache Entartung). Entartung kann prinzipiell<br />

nicht aufgehoben werden, da Vertauschungssymmetrie nicht gebrochen<br />

werden kann, solange Teilchen identisch sind.<br />

Läuft dem Gr<strong>und</strong>gedanken der Quantenmechanik zutiefst zuwider<br />

Hätte Auswirkungen für Statistik: ” Identische Zustände“ |ψ1〉|ψ2〉 <strong>und</strong><br />

|ψ2〉|ψ1〉 hätten bei Gleichverteilung (maximale Entropie) zusammen<br />

ein doppelt so hohes Gewicht wie z.B. |ψ1〉|ψ1〉.<br />

Aber: Es stellt sich heraus - in der Natur ist es anders. Es gibt keine Austauschwechselwirkung,<br />

sondern es gilt das sog. Symmetrisierungspostulat: Der<br />

Gesamtzustand |ψ〉 eines Systems ist so beschaffen, dass er bei Vertauschung<br />

zweier beliebiger Teilchen<br />

• entweder in |ψ〉 übergeht - ” völlig symmetrisch“ - Bosonen<br />

• oder in −|ψ〉 - ” völlig antisymmetrisch“ - Fermionen<br />

Zunächst formale Beschreibung der Situation mittels Vertauschungsoperatoren<br />

4.2.2.2 Permutationsoperatoren<br />

∗ Zunächst für zwei Teilchen<br />

- Permutationsoperator Pab: Pab ( <br />

|ψi〉a|ϕi〉b) = <br />

|ϕi〉a|ψi〉b<br />

- Eigenschaften:<br />

- symmetrisch: Pab = Pba<br />

- P 2 ab<br />

= 1 ⇒ Eigenwerte: λ = ±1<br />

i<br />

i


96 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

- Form der Eigenvektoren (Beispiele)<br />

λ = +1 :<br />

λ = −1 :<br />

∗ Erweiterung auf N Teilchen<br />

❀ N! mögliche Permutationen<br />

1<br />

√2 (|ψ〉a|ϕ〉b + |ϕ〉a|ψ〉b)<br />

1<br />

√2 (|ψ〉a|ϕ〉b − |ϕ〉a|ψ〉b)<br />

Zugehörige Permutationsoperatoren bilden Permutationsgruppe<br />

Es existiert eindeutige Zuordnung: Eine Permutation heißt ” gerade“<br />

oder ” ungerade“, je nachdem ob sie sich aus einer geraden oder<br />

einer ungeraden Anzahl Vertauschungen zusammensetzt.<br />

Simultane Eigenvektoren aller Permutationsoperatoren P<br />

entweder total symmetrisch: P |ψ S 〉 = |ψ S 〉 ∀P (4.29)<br />

oder total antisymmetrisch: P |ψ A 〉 = (−1) P |ψ A 〉 (4.30)<br />

mit<br />

<br />

(−1) P = +1 P gerade<br />

(−1) P = −1 P ungerade<br />

(4.31)<br />

Bilden den Unterraum der symmetrischen <strong>und</strong> antisymmetrischen Zustände<br />

Konstruktion der Basis: Gegeben Einteilchenbasis |ψi〉, N Teilchen 1 . . . N<br />

- Basisvektoren von H N : |ψi1 〉 1 · · · |ψiN 〉 N<br />

- Projektionen dieser Basisvektoren auf symmetrische bzw. antisym-<br />

metrische Unterräume mittels Projektionsoperatoren<br />

S = 1 <br />

Pα symmetrisiert (4.32)<br />

N!<br />

A = 1<br />

N!<br />

Alle Permutationen<br />

α<br />

<br />

Alle Permutationen<br />

α<br />

(−1) Pα Pα antisymmetrisiert (4.33)<br />

(Betrachte S|ψ〉 ⇒ PβS|ψ〉 = 1 <br />

PβPα|ψ〉 = N!<br />

α<br />

1 <br />

Pγ|ψ〉 = S|ψ〉 <br />

N!<br />

γ<br />

Analog A|ψ〉 ⇒ PβA|ψ〉 = 1 <br />

Pβ(−1) N!<br />

α<br />

Pα Pα|ψ〉 = 1 <br />

(−1) N!<br />

γ<br />

Pγ −P β Pγ|ψ〉<br />

= (−1) P β A|ψ〉 )


4.2. VIELTEILCHENSYSTEME 97<br />

∗ Beispiele<br />

- Zwei Teilchen 1,2; Einteilchenbasis |ψi〉<br />

Permutationsoperatoren: ungerade: P12 =<br />

gerade: id =<br />

<br />

1<br />

<br />

2<br />

2 1<br />

<br />

1<br />

<br />

2<br />

1 2<br />

symmetrische Zustände: 1 √2 (|ψi1 〉 1 |ψi2 〉 2 + |ψi2 〉 1 |ψi1 〉 2 ) = |ψS i1i2 〉<br />

antisymmetrische Zustände: 1 √2 (|ψi1 〉 1 |ψi2 〉 2 − |ψi2 〉 1 |ψi1 〉 2 ) = |ψA i1i2 〉<br />

- Drei Teilchen 1,2,3<br />

- N Teilchen<br />

Permutationsoperatoren: ungerade:<br />

gerade:<br />

<br />

1<br />

1<br />

2<br />

3<br />

<br />

3 1<br />

,<br />

2 2<br />

2<br />

1<br />

<br />

3 1<br />

,<br />

3 3<br />

2<br />

2<br />

<br />

3<br />

1<br />

<br />

1<br />

1<br />

2<br />

2<br />

<br />

3 1<br />

,<br />

3 2<br />

2<br />

3<br />

<br />

3 1<br />

,<br />

1 3<br />

2<br />

1<br />

<br />

3<br />

2<br />

Symmetrische/Antisymmetrische Zustände: |ψ S/A<br />

〉 ∝ i1i2i3<br />

( |ψi1 〉 1 |ψi2 〉 2 |ψi3 〉 3 + |ψi2 〉 1 |ψi3 〉 2 |ψi1 〉 3 + |ψi3 〉 1 |ψi1 〉 2 |ψi2 〉 3<br />

± |ψi1 〉 1 |ψi3 〉 2 |ψi2 〉 3 ± |ψi2 〉 1 |ψi1 〉 2 |ψi3 〉 3 ± |ψi3 〉 1 |ψi2 〉 2 |ψi1 〉 3 )<br />

Symmetrische Zustände:<br />

|ψ S i1i2...iN 〉 ∝ ( |ψi1 〉 1 |ψi2 〉 2 · · · |ψiN 〉 N + Permutationen ) (4.34)<br />

Antisymmetrische Zustände:<br />

|ψ A <br />

<br />

1<br />

<br />

<br />

i1i2...iN 〉 = √ <br />

N! .<br />

<br />

|ψi1 〉 1 · · · |ψi1 〉 N<br />

. ..<br />

|ψiN 〉 1 · · · |ψiN 〉 N<br />

.<br />

<br />

<br />

<br />

<br />

Slaterdeterminante (4.35)<br />

<br />

<br />

NB: Laut Bronstein (Taschenbuch der Mathematik) wird die Determinante definiert als<br />

<br />

<br />

<br />

<br />

<br />

<br />

<br />

|ψi1 〉 1 · · · |ψi1 〉 N<br />

.<br />

. ..<br />

.<br />

|ψi N 〉 1 · · · |ψi N 〉 N<br />

<br />

<br />

<br />

def <br />

=<br />

<br />

π<br />

(−1) j(π) |ψi1 〉 1 |ψi2 〉 2 · · · |ψi N 〉 N<br />

(4.36)<br />

wobei die Summe aller möglichen Permutationen π der Zahlen 1, 2, . . . N zu erstrecken<br />

ist. Man bildet also aus den Elementen der Determinante alle möglichen Produkte<br />

|ψi1 〉 1 |ψi2 〉 2 · · · |ψi N 〉 N in der Weise, dass jedes der Produkte aus jeder Zeile <strong>und</strong> aus<br />

jeder Spalte genau ein Element als Faktor enthält. Der Wert des Ausdrucks (−1) j(π) <br />

er-<br />

<br />

1 2 . . . N<br />

gibt sich aus der Anzahl j(π) der Inversionen der Permutation π =<br />

.<br />

i1 i2 . . . iN<br />

Schließlich werden alle diese N! Summanden addiert.<br />

Die Anzahl der Inversionen gibt an, an wievielen Stellen in der Anordnung i1, i2, . . . , iN<br />

eine größere Zahl vor einer kleineren steht. Bei einer geraden Anzahl der Inversionen<br />

heißt die Permutation gerade, bei ungerader Anzahl ungerade, die identische Permuta-<br />

tion ist z.B. gerade. <br />

1<br />

Beispiel: Die Permutation<br />

4<br />

2<br />

3<br />

3<br />

1<br />

4<br />

5<br />

<br />

5<br />

hat 6 Inversionen: Es stehen in der unte-<br />

2<br />

ren Zeile 4 vor 3, 4 vor 2, 4 vor 1, 3 vor 2, 3 vor 1 <strong>und</strong> 5 vor 2.


98 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

4.2.2.3 Symmetrisierungspostulat<br />

Auf dieser Gr<strong>und</strong>lagekann man folgende Postulate für die Beschreibung eines<br />

quantenmechanischen Systems identischer Teilchen formulieren:<br />

(A) Ununterscheidbarkeit<br />

In einem System identischer Teilchen sind nur Observablen A zulässig,<br />

die mit allen Permutationsoperatoren kommutieren:<br />

[A, P ] = 0 ∀P (d.h., A muss gegen Permutationen invariant sein) (4.37)<br />

ˆ= Formale Fassung der Forderung, dass man bei einer Messung nicht<br />

unterscheiden kann, welches Teilchen man gerade misst<br />

(Beispiele: Gesamtimpuls, Gesamtdrehimpuls etc.)<br />

(B) Symmetrisierungspostulat<br />

Der Gesamtzustand eines Systems ist entweder völlig symmetrisch (Bosonen)<br />

oder völlig antisymmetrisch (Fermionen). Übergänge zwischen Symmetrien<br />

<strong>und</strong> gemischte Symmetrien sind nicht möglich.<br />

(Gilt in drei Dimensionen: In zwei Dimensionen sind ” Zwischensymmetrien“ möglich<br />

→ Anyonen, diskutiert im Zusammenhang mit Hochtemperatursupraleitung)<br />

Damit ist Austauschentartung aufgehoben.<br />

(C) In diesem Zusammenhang: Spin-Statistik-Theorem<br />

Bosonen → Teilchen mit ganzzahligem Spin (z.B. Photonen, He 4 )<br />

Fermionen → Teilchen mit halbzahligem Spin (z.B. Elektronen, He 3 )<br />

Begründung: Aus der relativistischen Quantenfeldtheorie<br />

Folgerungen aus dem Symmetrisierungsprinzip<br />

∗ Pauliprinzip: Zwei Elektronen können nie exakt den gleichen Zustand einnehmen.<br />

→ sehr gr<strong>und</strong>legend: Verantwortlich dafür, dass die Materie trotz elektrostatischer<br />

Kräfte nicht kollabiert.<br />

∗ Auswirkungen auf Statistik<br />

Betrachte zwei Teilchen in einem Zwei-Niveau-System (1,2).<br />

Stelle Basisvektoren des gemeinsamen Zustandsraumes auf.<br />

❀ Unterscheidbare Teilchen: |1〉|1〉, |1〉|2〉, |2〉|1〉, |2〉|2〉<br />

Bosonen: |1〉|1〉, 1<br />

√ 2 (|1〉|2〉 + |2〉|1〉), |2〉|2〉<br />

Fermionen:<br />

1<br />

√2 (|1〉|2〉 − |2〉|1〉)<br />

❀ Im Vergleich zu unterscheidbaren Teilchen sind zwei Bosonen häufiger<br />

im gleichen Zustand <strong>und</strong> Fermionen seltener (um nicht zu sagen nie)<br />

❀ • Fermionen meiden einander ( ” Pauli-Abstoßung“)<br />

⇒ Kennzeichen der Fermi-Dirac-Statistik<br />

• Bosonen suchen einander ( ” Anziehung“)<br />

⇒ Kennzeichen der Bose-Einstein-Statistik


4.3. IDEALE QUANTENGASE 99<br />

4.3 Ideale Quantengase<br />

N unabhängige Teilchen in einem Kasten V = Ld (d: Dimension)<br />

Freie Teilchen: H = N<br />

p<br />

i=1<br />

2 N<br />

i /2m = hi<br />

i=1<br />

4.3.1 Zustandsraum<br />

∗ Löse zunächst Einteilchenproblem:<br />

Schrödingergleichung: hψ = p2<br />

2mψ = Eψ, ❀ Lösungen sind<br />

Eigenvektoren zu p : |p〉 mit 〈x|p〉 ∝ e i px<br />

<strong>und</strong> εp = p2<br />

2m<br />

(4.38)<br />

Randbedingungen in der Box: Nur diskrete Werte von p zugelassen. In<br />

großen Boxen hängt das Verhalten kaum von der genauen Form der<br />

Randbedingungen ab, deshalb wähle hier ” periodische Randbedingungen“:<br />

ψ(xi ± L) = ψ(xi)<br />

⇒ p = h<br />

n mit n : ganzzahliger Vektor (4.39)<br />

L<br />

⇒ Anzahl der Zustände p in einem Volumen dp: ( L<br />

h )d dp = V<br />

h d dp<br />

⇒ Für genügend glatte Funktionen f(p) gilt<br />

<br />

f(p) = V<br />

hd <br />

dp f(p) (4.40)<br />

p<br />

Zustandsdichte:<br />

bzw. <br />

p,s<br />

f(p) = (2s+1)<br />

<br />

Spinentartung<br />

V<br />

hd <br />

dpf(p) (4.41)<br />

Anzahl der Zustände in einem Energieintervall [ε, ε + dε]:<br />

<br />

p:εp∈<br />

[ε,ε+dε]<br />

= V<br />

h d ·<br />

= V<br />

hd · ωd 1<br />

≈ V<br />

hd · 1<br />

2ωd <br />

|p|∈ √2mε, √ <br />

2m(ε+dε)<br />

dp = V<br />

h d · ωd<br />

√ 2m(ε+dε)<br />

<br />

√ 2mε<br />

dp p d−1<br />

d (2m(ε + dε) d − √ 2mε d )<br />

√ d dε 2mε ε<br />

⎧<br />

⎪⎨ 2 für d = 1<br />

wobei ωd = Oberfläche der d-dimensionalen Kugel = 2π<br />

⎪⎩<br />

4π<br />

für d = 2<br />

für d = 3<br />

(4.42)<br />

Berücksichtige noch Spinentartung (2s + 1)<br />

⇒ Anzahl der Zustände in [ε, ε + dε] = V D(ε) dε (4.43)<br />

mit D(ε) = ωd<br />

d<br />

d−2 2m 2<br />

(2s + 1) ε<br />

2<br />

Zustandsdichte (4.44)<br />

h 2


100 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

Speziell:<br />

Damit gilt dann:<br />

<br />

<br />

f(εp) = V dε D(ε) f(ε) für genügend glatte f(x) (4.45)<br />

p,s<br />

(s=Spin)<br />

∗ N-Teilchen-Problem<br />

• Unterscheidbare Teilchen<br />

❀ Basisvektoren |ψ p1...p N 〉 = |ψ p1 〉 · · · |ψ p N 〉 (4.46)<br />

N<br />

N<br />

⇒ H|ψp1...p 〉 = ( hi)|ψ N p1...p 〉 = ( ε N pi )|ψp1...p 〉 (4.47)<br />

N<br />

i=1<br />

i=1<br />

Permutierte Vektoren |ψP (p1...p N )〉 haben gleichen Eigenwert<br />

• Identische Teilchen<br />

Bosonen: Basisvektoren |ψ S p1...p N 〉 ∝ ( |ψ p1 〉 · · · |ψ p N 〉 + Permutationen ) (4.48)<br />

Fermionen: Basisvektoren |ψ A p1...p N 〉 = 1<br />

√ N!<br />

⇒ H|ψ S/A<br />

p1...p N 〉 = (<br />

N<br />

i=1<br />

4.3.2 Statistik idealer Quantengase<br />

Betrachte ideales Gas identischer Teilchen<br />

→ am bequemsten ist großkanonische Zustandssumme<br />

Z GK<br />

(4.26)<br />

= Sp(e −β(H−µN) ) = <br />

(4.50)<br />

<br />

= eβµN = <br />

N<br />

eβµN <br />

p,s<br />

<br />

<br />

|ψp1 <br />

<br />

<br />

<br />

<br />

〉 · · · |ψp1 〉<br />

<br />

<br />

<br />

. . ..<br />

. <br />

.<br />

.<br />

.<br />

<br />

<br />

|ψpN 〉 · · · |ψpN 〉<br />

<br />

(= 0, wenn alle pi verschieden)<br />

(4.49)<br />

ε pi )|ψ S/A<br />

p1...p N 〉 (4.50)<br />

N<br />

{(p 1 s 1 ...p N s N )}<br />

Reihenfolge egal<br />

∞(Bosonen)<br />

oder 1 (Fermionen)<br />

<br />

N<br />

np,s=0 ∞ oder 1<br />

e<br />

p,s np,s=0 −β(εp,s−µ)np,s = <br />

<br />

{(p 1 s 1 ...p N s N )}<br />

Reihenfolge egal<br />

da identisch<br />

N<br />

−β εpi ,si e i=1<br />

e<br />

<br />

〈ψ S/A<br />

p1...pN |e−β(H−µN) |ψ S/A<br />

p1...pN 〉<br />

〈ψ S/A<br />

p1...pN |ψS/A<br />

<br />

Bosonen: 1<br />

Fermionen: 1,<br />

<br />

wenn alle p i verschieden<br />

p1...pN 〉<br />

−β <br />

np,sεp,s p,s · δ <br />

N, np<br />

(4.51)<br />

(4.52)


4.3. IDEALE QUANTENGASE 101<br />

Z GK = <br />

Folgerungen<br />

p,s<br />

Zp,s mit Zp,s =<br />

<br />

1/(1 − e −β(ε p,s−µ) ) Bosonen<br />

1 + e −β(ε p,s−µ) Fermionen<br />

(4.53)<br />

Im Fall von Bosonen muß µ < min εp,s sein. (4.54)<br />

∗ Großkanonisches Potential<br />

Ω(T, V, µ) (2.87)<br />

(4.53)<br />

= −kBT ln ZGK <br />

(4.45)<br />

⇒ Ω(T, V, µ) = ±kBT V<br />

= ±kBT <br />

p,s<br />

ln(1∓e −β(ε p,s−µ) ) Bosonen<br />

Fermionen<br />

dε D(ε) ln(1 ∓ e −β(ε−µ) ) (4.55)<br />

∗ Mittlere Besetzung des Zustands (p, s): n p,s zählt Teilchen in (p, s)<br />

〈np,s〉 (4.5)<br />

= Sp(ϱGK np,s) (4.26)<br />

=<br />

analog (4.52)<br />

=<br />

(4.52)<br />

= − 1<br />

β<br />

1<br />

Z GK<br />

<br />

p ′ ,s ′<br />

∞ oder 1<br />

d<br />

dε ln Z<br />

p,s GK = − 1<br />

β<br />

e <br />

β(ε<br />

⇒ 〈np,s〉 = 1<br />

p,s−µ)<br />

∓ 1<br />

1<br />

Z Sp(e<br />

GK<br />

−β(H−µN) np,s)<br />

e<br />

np ′ ,s ′=0<br />

−β(εp ′ ,s ′−µ)np ′ ,s ′ np,s<br />

d<br />

dε p,s ln Z p,s<br />

mit −“: Bosonen: Bose-Einstein-Statistik<br />

”<br />

” +“: Fermionen: Fermi-Dirac-Statistik<br />

4.3.3 Der Grenzfall der ” klassischen“ Statistik<br />

Klassische Statistik: Großkanonische Zustandssumme<br />

Z GK<br />

(2.83)<br />

= ∞<br />

N=0<br />

(4.40)<br />

= <br />

= <br />

N<br />

1<br />

h3N <br />

eβµN<br />

N!<br />

ΩN 1<br />

N! eβµN<br />

<br />

{(p 1 s 1 ...p N s N )}<br />

Reihenfolge<br />

nicht egal<br />

N<br />

1 <br />

N!<br />

eβµN e<br />

N<br />

i=1 pi,si<br />

−βεp i ,si 1<br />

N!<br />

N<br />

eβµN<br />

<br />

e<br />

p,s<br />

−βε N p,s<br />

= <br />

⇒ Z GK = <br />

p,s<br />

dΓ N e −βH (Γ N )<br />

−β<br />

e<br />

<br />

εpi ,si p i ,si = exp e<br />

−βµ <br />

p,s<br />

Zp,s mit Zp,s = exp e −β(ε p,s−µ) <br />

<br />

e−βε <br />

p,s<br />

(4.56)<br />

(4.57)<br />

(4.58)<br />

(4.59)


102 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

❀ Mittlere Besetzung: 〈np,s〉 = − 1<br />

β<br />

⇒ 〈np,s〉 = e −β(ε p,s−µ)<br />

d<br />

dε p,s ln Z p,s<br />

wie vorher<br />

: Maxwell-Boltzmann-Statistik (4.60)<br />

Maxwell-Boltzmann-Statistik entspricht dem Grenzwert<br />

β(ε−µ) ≫ 1 der Bose-Einstein- <strong>und</strong> Fermi-Dirac-<br />

Statistik. In Quantengasen sind hohe Energieniveaus<br />

nach der Maxwell-Boltzmann-Statistik besetzt!<br />

❀ Nachträgliche Rechtfertigung des Faktors 1<br />

N! in klassischen Mechanik.<br />

Speziell freie Teilchen: εp = p 2 /2m<br />

⇒ Z (4.57)<br />

= exp e<br />

= exp e<br />

−βµ<br />

p e−βε (4.40)<br />

p ≈ exp e−βµ V<br />

hd <br />

dp e−βp2 /2m <br />

−βµ V<br />

λd <br />

mit λT = √ h<br />

thermische de-Broglie-Wellenlänge<br />

T<br />

2πmkBT<br />

❀ Ergebnis der klassischen Rechnung (Aufgabe 14) nachvollzogen.<br />

❀ Nachträgliche Rechtfertigung des Faktors 1/h dN<br />

Übergang Quantenstatistik zur klassischen Statistik<br />

Wann wird klassische Maxwell-Boltzmann-Statistik gültig?<br />

Voraussetzung Wesentliche Beiträge zur Zustandssumme kommen in der klassischen<br />

<strong>und</strong> Quantenstatistik von N-Tupeln<br />

→ Bedingung 〈np,s〉klassisch = (2s+1)λ d T<br />

N<br />

V<br />

≪ 1<br />

Anschaulich: Thermische de-Broglie-Wellenlänge = (größenordnungsmäßig) der<br />

mittleren Ausdehnung eines Wellenpaketes mit thermischem Impuls<br />

〈p 2 〉klassisch = 2mE/N ∝ √ mkBT<br />

❀ Quantenstatistik wichtig bei hohen Dichten, tiefen Temperaturen, leichten Teilchen<br />

Man spricht dann von entarteten Gasen<br />

4.3.4 Zustandsgleichungen von Quantengasen<br />

Gegeben: Großkanonisches Potential<br />

Ω(T, V, µ) (4.55)<br />

= ±kBT V dε D(ε) ln(1 ∓ e −β(ε−µ) ) Bosonen<br />

Fermionen<br />

Gesucht: Thermische Zustandsgleichung P (T, V, N)<br />

Kalorische Zustandsgleichung U(T, V, N)


4.3. IDEALE QUANTENGASE 103<br />

Vorgehen:<br />

• Für thermische Zustandsgleichung: Gleichungssystem ( Bosonen<br />

Fermionen )<br />

<br />

= kBT<br />

(∗) P (µ, T ) (3.31)<br />

= − Ω<br />

dε D(ε) [∓ ln(1 ∓ e<br />

V −β(ε−µ) )] (4.61)<br />

(∗∗) N(T, V, µ) (2.115)<br />

= − ∂Ω<br />

<br />

= V dε D(ε)/(e<br />

∂µ β(ε−µ) ∓ 1) (4.62)<br />

• Für kalorische Zustandsgleichung: Thermische Zustandsgleichung<br />

+ Beziehung U = d<br />

P V<br />

2<br />

für ideale Gase<br />

(4.63)<br />

(Beweis: freie Teilchen → D(ε) (4.44)<br />

= ω <br />

d<br />

2m<br />

(2s + 1)<br />

2 h2 d d−2<br />

d−2<br />

2 2<br />

ε = const. · ε<br />

Besetzung n(ε) (4.56)<br />

e <br />

= 1 β(ε−µ) 1 d<br />

∓ 1 = − β dε [∓ ln(1 ∓ e−β(ε−µ) )] vgl. (4.61)!<br />

⇒ U = V dε D(ε) n(ε)ε = − 1<br />

β V d<br />

2 d<br />

dε const. ε [. . .] dε<br />

partielle<br />

Integration<br />

=<br />

1<br />

β V dε const. d<br />

2 ε<br />

d−2<br />

2 d<br />

d<br />

[. . .] = dε 2 kBT V dε D(ε) [. . .] (4.61)<br />

= d<br />

2<br />

P V )<br />

Lösung: Explizit nicht möglich, implizites Gleichungssystem (4.61),(4.62)<br />

Betrachte dreidimensionalen Fall:<br />

Standardintegrale<br />

g (z)<br />

<br />

5/2 = ∓<br />

f (z) 5/2 2<br />

<br />

√ dx<br />

π<br />

√ x ln(1 ∓ z e −x )<br />

g (z)<br />

<br />

3/2 = z<br />

f (z) 3/2<br />

(4.64)<br />

d<br />

<br />

g5/2 (z)<br />

<br />

=<br />

dz f (z) 5/2 2<br />

<br />

√ dx<br />

π<br />

√ x<br />

1<br />

(4.65)<br />

❀ Gleichungssystem:<br />

1<br />

z ex ∓ 1<br />

(∗) βP = 2s+1<br />

λ3 <br />

g5/2 (e<br />

T<br />

βµ ) Bosonen<br />

f (e 5/2 βµ ) Fermionen<br />

(∗∗) N<br />

V<br />

NB: Entwicklung um z = 0:<br />

g (z)<br />

<br />

5/2 =. . .=±<br />

f (z) 5/2 ∞<br />

k=1<br />

= ϱ = 2s+1<br />

λ 3<br />

T<br />

(±z) k<br />

k 5/2<br />

mit Konvergenzradius |z| < R = 1 ( lim<br />

k→∞<br />

;<br />

g3/2 (e βµ ) Bosonen<br />

f 3/2 (e βµ ) Fermionen<br />

g (z)<br />

<br />

3/2 =. . .=±<br />

f (z) 3/2 ∞ (±z)<br />

k=1<br />

k<br />

k3/2 k 5/2<br />

(k+1) 5/2 = lim<br />

k→∞<br />

Programm: ϱ(e βµ ) → e βµ = f(ϱ) → βP (ϱ): Zustandsgleichung<br />

Graphisch (Diskussion von g 3/2, f 3/2 → Übungsaufgabe)<br />

Fermionen:<br />

Bosonen:<br />

(4.66)<br />

(4.67)<br />

(4.68)<br />

k 3/2<br />

(k+1) 3/2 = 1)<br />

⇒ Umkehrung von (4.67) möglich,<br />

Programm funktioniert!<br />

⇒ Umkehrung von (4.67)<br />

nicht immer möglich,<br />

❀ Folgerungen siehe Kapitel 4.3.5


104 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

Diskussion:<br />

(1) “schwach entartete” Quantengase<br />

e βµ ≪ 1 → klassische ideale Gase mit Quantenkorrekturen<br />

Ansatz: Virialentwicklung nach ϱ = N<br />

Definiere z = e βµ , ˜ϱ = N<br />

V<br />

λ 3 T<br />

2s+1<br />

(∗) → λ3 T<br />

z2<br />

2s+1βP (z) = z ±<br />

25/2 + z3<br />

35/2 ± . . .<br />

(∗∗) → ˜ϱ(z) = z ± z2<br />

23/2 + z3<br />

33/2 ± . . .<br />

Invertiere (∗∗) → z(˜ϱ) = ˜ϱ ∓ ˜ϱ2<br />

23/2 + . . .<br />

Setze ein in (∗) → λ3 T<br />

2s+1βP (˜ϱ) = ˜ϱ ∓ ˜ϱ/25/2 + . . .<br />

⇒ βP = ϱ ∓ ϱ<br />

<br />

klassisches<br />

ideales Gas<br />

2 λ3 T 1<br />

· + . . .<br />

2s + 1 25/2 <br />

Quantenkorrekturen<br />

Bosonen: Druck kleiner als im klassischen Gas<br />

→ effektive Anziehung zwischen Teilchen<br />

Fermionen: Druck größer als im klassischen Gas<br />

→ effektive Abstoßung<br />

(2) stark entartete Gase<br />

(a) Bosonen: Zwei Fälle<br />

(∗) “Echte” Teilchen, feste Teilchenzahl N, e βµ → 1 −<br />

❀ Bose-Einstein-Kondensation, siehe nächstes Kapitel<br />

(∗) Quasiteilchen mit µ ≡ 0 (Photonen, Phononen)<br />

Teilchenzahl variabel<br />

Photonen: Siehe Übungsaufgabe (Hohlraumstrahlung)<br />

(b) Fermionen: e βµ ≫ 1<br />

(∗) Maximale Entartung: T = 0 oder µ → ∞<br />

❀ Verteilung n(ε) (4.56)<br />

=<br />

1<br />

e β(ε−µ) +1 =<br />

V<br />

<br />

1 : ε < µ<br />

0 : ε > µ<br />

(4.69)<br />

Stufenfunktion<br />

Alle Zustände besetzt bis zu p = p F mit p F = √ 2mµ (4.70)<br />

❀ Man spricht von Fermikugel mit Fermiimpuls p F<br />

<strong>und</strong> Fermienergie ε F = µ (4.71)<br />

Berechnung von ε F :<br />

N = V dε n(ε)D(ε), D(ε) (4.44)<br />

= 4π (2s + 1)<br />

⇒ N = V (2s + 1)2π<br />

<br />

2m<br />

h2 3 ε F<br />

0<br />

<br />

2/3 h2 3<br />

⇒ εF = ϱ<br />

2m 4π(2s + 1)<br />

2/3<br />

2<br />

dε √ ε = V (2s + 1) 4π<br />

3<br />

<br />

2m<br />

h2 3<br />

ε 3−2<br />

2<br />

<br />

2m<br />

h2 3<br />

ε3/2 F<br />

3<br />

⇒ D(ε) = ϱ<br />

2 √ √<br />

3 ε (4.72)<br />

εF


4.3. IDEALE QUANTENGASE 105<br />

⇒ Gesamtenergie: U = V<br />

ε F<br />

0<br />

dε εD(ε) = 3<br />

2N ε F<br />

dε<br />

0<br />

3<br />

ε/εF → U = 5<br />

2 Nε F (4.73)<br />

Druck: P (4.63)<br />

= U<br />

V<br />

· 2<br />

3<br />

→ P = 2<br />

5 · ϱ · ε F<br />

(∗) Starke Entartung: T → 0, e βµ ≫ 1<br />

∝ ϱ5/3<br />

(4.74)<br />

Entwicklung nach kBT/εF • Bei (kBT/εF ) ist n(ε) immer noch nahezu eine Stufenfunktion<br />

Entwickle − ∂n<br />

∂ε = ak δ (k) (ε−µ) mit ak = 1<br />

<br />

k! dε (ε−µ) k ∂n (− ∂ε )<br />

❀ − ∂n<br />

∂ε<br />

≈ δ(ε − µ) + π2<br />

6β 2 δ ′′ (ε − µ) + O( 1<br />

• ϱ = dε n(ε)D(ε) (4.72)<br />

= ϱ 3<br />

2 √ ε F 3<br />

⇒ 1 = dε ε<br />

3<br />

ε (−<br />

F<br />

∂n<br />

∂ε ) ≈ dε ε<br />

εF ⇒ µ<br />

ε F<br />

=<br />

= µ<br />

εF <br />

1 + π2<br />

8(βε ) F 2 ( εF µ )2<br />

−3/2 βµ )3 + O(e −βµ )<br />

dε n(ε) √ ε = ϱ dε (− ∂n<br />

3 <br />

δ(ε − µ) + π2<br />

3 <br />

1 + π2<br />

≈ 1 −<br />

6β 2<br />

3<br />

4ε2 (<br />

F<br />

εF µ )2<br />

π2<br />

12(βε ) F 2 + O( 1<br />

βεF • U = V dε n(ε)D(ε) · ε = 3<br />

2N dε n(ε) ε/εF = 5<br />

2Nε <br />

∂n<br />

F dε(− ∂ε ) 5<br />

ε/εF ≈ 5<br />

2Nε 5<br />

F dε ε/εF<br />

<br />

δ(ε − µ) + π2<br />

6β2 δ ′′ <br />

(ε − µ)<br />

= 5<br />

2Nε 5<br />

F µ/εF<br />

<br />

1 + 5π2<br />

8(βε ) F 2 ( εF µ )2<br />

<br />

≈ 5<br />

2Nε <br />

F 1 − π2<br />

12(βε ) F 2<br />

5/2 1 + 5π2<br />

8(βε ) F 2<br />

<br />

= 5<br />

2Nε <br />

F 1 + π2<br />

<br />

12<br />

❀ U = 5<br />

2 Nε F<br />

P = U<br />

V<br />

Spezifische<br />

Wärme:<br />

(1 + 5π2<br />

12<br />

2 2 · 3 = 5ε <br />

F · ϱ<br />

c V = 1<br />

N<br />

1<br />

(βε F ) 2<br />

kBT<br />

( ε )<br />

F<br />

2 + . . .)<br />

1 + 5π2<br />

12<br />

∂U<br />

∂T<br />

<br />

<br />

<br />

V,N<br />

kBT<br />

( ε )<br />

F<br />

2 <br />

+ · · ·<br />

= π2k2 B<br />

2ε T + . . .<br />

F<br />

3<br />

∂ε ) ε<br />

3<br />

εF 6β2 δ ′′ <br />

(ε − µ)<br />

<br />

) 3<br />

(4.75)<br />

(4.76)<br />

(4.77)


106 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

4.3.5 Bose-Einstein-Kondensation<br />

(a) Vorüberlegungen<br />

Betrachte ideales Gas von Bosonen, in 3 Dimensionen. Nach Kapitel 4.3.4<br />

sind Zustandsgleichungen implizit gegeben durch Gleichungssystem<br />

(∗) βP (4.66)<br />

= 2s+1g<br />

(e 5/2 βµ ) mit Nebenbedingung µ < 0<br />

λ3 T<br />

(∗∗) ϱ (4.67)<br />

= 2s+1g<br />

(e 3/2 βµ ) µ < 0<br />

λ3 T<br />

Lösung durch Invertieren von (∗∗) → e βµ als Funktion von ϱ → Einsetzen<br />

in (∗)<br />

Aber: Invertieren von (∗∗) ist im Fall von Bosonen nicht immer<br />

möglich.<br />

1<br />

k3/2 3 = ζ (<br />

2 ) = 2.612<br />

Riemannsche ζ-Funktion<br />

(NB: Ableitungen dk<br />

dzk g3/2(z) divergieren<br />

bei z → 1 (Übungsaufgabe))<br />

lim<br />

z→1 g3/2(z) = ∞<br />

k=1<br />

❀ Bei hohen Dichten ϱ ( ϱλ3 T<br />

2s+1 > 2.612) gelingt Inversion nicht.<br />

Problem rührt von Ersetzung <br />

〈np,s〉 · · · → V dε D(ε)n(ε) · · · , die<br />

s,p<br />

in (∗) <strong>und</strong> (∗∗) eingeht. Ist nur für genügend glatte“ Funktionen<br />

”<br />

n(ε) erlaubt - jedoch n(ε) =<br />

1<br />

e β(ε−µ) −1 divergiert bei ε = 0, µ → 0− .<br />

Analyse des Problems: Verteile N Teilchen auf 〈np,s〉 Zustände, betrachte<br />

Grenzfall |βµ| ≪ 1 (µ < 0)<br />

• Gr<strong>und</strong>zustand ε0 = 0:<br />

1 〈n0〉 = e−βµ 1<br />

1<br />

≈ −1 |βµ| ≤ N (⇒ βµ ≤ − N )<br />

❀ Dichte 〈n0〉 N<br />

V ≤ V kann im Prinzip endlich groß sein!<br />

❀ makroskopische Besetzung des Gr<strong>und</strong>zustandes möglich.<br />

• Angeregte Zustände ε = p2<br />

⇒ ε ≥ 1<br />

2m<br />

❀ 〈nε<br />

V<br />

= 1<br />

V<br />

( 2π<br />

L )2 = ε1<br />

1<br />

eβε 1 ≈ 1 −1 V βε1<br />

2m<br />

mit p = ( 2π<br />

L )n<br />

= 2m<br />

β(2π) 2 V −1/3 → 0 für V → ∞<br />

❀ Im thermodynamischen limes V → ∞ sind alle angeregten<br />

Zustände nur mikroskopisch besetzt.<br />

⇒ Ersetzung <br />

〈np,s〉 · · · → V dε D(ε)n(ε) · · · ist in Ordnung für ε =<br />

(b) Neuer Ansatz<br />

s,p<br />

s,p<br />

0, aber problematisch für den Gr<strong>und</strong>zustand.<br />

<br />

〈np,s〉 . . . = <br />

∞<br />

〈n0〉 . . . +V dε D(ε)n(ε) . . .<br />

bzw. <br />

. . . = <br />

s,p<br />

s<br />

s,p=0<br />

. . . +V<br />

0<br />

∞<br />

0<br />

dε D(ε) . . .<br />

❀ Zusätzliche Terme in den Zustandsgleichungen:


4.3. IDEALE QUANTENGASE 107<br />

❀<br />

(∗) βP = − Ω<br />

−<br />

<br />

s ln Z0,s<br />

V<br />

ln ZGK = V hat zusätzlich:<br />

= − (2s+1)<br />

V ln(1 − eβµ ) ≤<br />

βµ≤ 1<br />

N<br />

kBT V<br />

❀ Korrektur vernachlässigbar bei V → ∞<br />

(∗∗) ϱ = N<br />

V hat zusätzlich:<br />

1 kann groß werden.<br />

1<br />

V<br />

s<br />

〈n0〉 = 2s+1<br />

V<br />

e −βµ −1<br />

(∗) βP = 2s+1<br />

λ3 g (e 5/2<br />

T<br />

βµ ) wie gehabt<br />

(∗∗) ϱ = 2s+1<br />

λ3 <br />

g3/2 (e<br />

T<br />

βµ ) + λ3<br />

T e<br />

V<br />

βµ<br />

1−eβµ <br />

Vergleiche neue Version von (∗∗) mit der alten<br />

(2s+1)<br />

V ln βN →<br />

V →∞ 0<br />

⇒ Gleichung (∗∗) wird<br />

invertierbar für alle ϱ<br />

→ Problem gelöst!<br />

(4.78)<br />

Bemerkung zur kalorischen Zustandsgleichung<br />

Der Zustand ε = 0 trägt nicht zur inneren Energie U bei.<br />

Die Gleichung (∗) für P ist unverändert, also bleibt die Gleichung<br />

U = 3<br />

2P V gültig!<br />

(c) Diskussion: Bose-Einstein-Kondensation<br />

Betrachte (∗∗) im Grenzfall V → ∞ ⇒ λ3<br />

T<br />

V<br />

nur bei e βµ → 1 von Null verschieden.<br />

e βµ<br />

1−e βµ wird beliebig scharf, ist<br />

❀ Phasenübergang bei ϱλ3<br />

T<br />

2s+1 = 2.612<br />

Im Bereich (II) liegt ein Kondensat“ vor. Mischung von zwei Pha-<br />

”<br />

sen: (2s+1)〈n0〉 Teilchen im Gr<strong>und</strong>zustand, N −(2s+1)〈n0〉 Teilchen<br />

in angeregten Zuständen.<br />

Nun: Analyse dieses Phasenübergangs:<br />

∗ Phasendiagramme<br />

• ϱ − T -Ebene<br />

Übergang bei ϱλ3 T<br />

2s+1 = g 3/2(1)<br />

⇒ ϱ0T −3/2<br />

0<br />

= const.


108 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

• P − T -Ebene<br />

Übergang bei e βµ = 1<br />

⇒ βP = 2s+1<br />

λ 3 T<br />

⇒ P0T −5/2<br />

0<br />

• µ−?-Ebene<br />

” Trivial“<br />

g 5/2(1)<br />

<br />

1.341<br />

= const.<br />

∗ Verhalten verschiedener Größen<br />

• Besetzung des Gr<strong>und</strong>zustandes<br />

Berechnet aus N − (2s + 1)〈n0〉 (4.67)<br />

= V 2s+1<br />

λ3 g (1) 3/2<br />

T<br />

<br />

⇒ (2s + 1) 〈n0〉<br />

N = 1 − 2s+1<br />

ϱλ 3 T<br />

= 1 − T<br />

T 0 (ϱ)<br />

Aufgetragen gegen T :<br />

<br />

2s+1<br />

ϱλ3 T 0 = 1 − (ϱλ3 T ) 0<br />

(ϱλ3 T )<br />

3/2 oder 1 − ϱ0(T )<br />

ϱ<br />

• Isothermen im P-V-Diagramm (N fest)<br />

Phasenübergangslinie:<br />

P0 ∝ T 5/2<br />

0 , T0 ∝ ϱ2/3 ⇒ P0 ∝ ϱ 5/3<br />

0<br />

−5/3<br />

∝ V0 (4.79)<br />

Isothermen: (mit g 1/2(z) = z k<br />

√ k )<br />

Im Kondensat: P = const.<br />

Im Gas: ∂P<br />

<br />

<br />

∂V <br />

T,N<br />

(<br />

∂P<br />

∂V<br />

= −ϱkBT g 3/2(e βµ )<br />

g 1/2(e βµ )<br />

<br />

<br />

=<br />

T,N<br />

∂(P,T,N) ∂(P,T,N) ∂(P,T,µ)<br />

= ∂(V,T,N) ∂(V,T,µ) ∂(V,T,N)<br />

<br />

1 ∂P<br />

<br />

= ∂N <br />

∂N <br />

∂µ ∂V ∂µ −<br />

T,µ V,T<br />

V,T <br />

=0<br />

∂P<br />

<br />

∂N<br />

<br />

<br />

∂µ <br />

V,T ∂V T,µ<br />

<br />

= −ϱ<br />

=ϱ<br />

∂P<br />

<br />

<br />

∂N<br />

∂µ <br />

∂µ<br />

V,T<br />

V,T<br />

= −ϱkBT g′ 5/2 (eβµ )<br />

g ′ 3/2 (eβµ <br />

)<br />

)<br />

⇒ ∂P<br />

∂V<br />

<br />

<br />

T,N<br />

< 0:<br />

P fällt monoton<br />

g1/2(eβµ ) → ∞<br />

µ→0<br />

⇒ ∂P<br />

<br />

<br />

∂V → 0 bei V → V<br />

T,N<br />

+<br />

0 ,<br />

glatter Übergang


4.3. IDEALE QUANTENGASE 109<br />

• Entropie<br />

S = − ∂Ω<br />

<br />

<br />

∂T <br />

V,µ<br />

= V · ∂P<br />

<br />

<br />

∂T <br />

V,µ<br />

= 5<br />

<br />

P V<br />

2 T 1 − 2<br />

5eβµ · βµ · g3/2(eβµ )<br />

g5/2(eβµ Im Gas:<br />

<br />

)<br />

Nähert sich mit βµ → 0 stetig der Kurve S = 5 P V<br />

2 T an.<br />

Direkt am Übergangspunkt:<br />

S = 5 P V<br />

2 T<br />

5 βP<br />

= 2NkB ϱ<br />

5 = 2NkB g5/2(1) g3/2(1) ≡ s0N (4.80)<br />

mit s0 = 5 g5/2(1) 2 g3/2(1) kB = 1.33kB<br />

Im Kondensat:<br />

S = 5<br />

2<br />

P V<br />

T<br />

(4.81)<br />

(s0: Entropie/Teilchen in Gasphase bei Koexistenz)<br />

5 βP<br />

= S = 2NkB ϱ = N · s0 · 2s + 1<br />

<br />

= s0 N − (2s + 1)〈n0〉 <br />

ϱλ 3 T<br />

2s + 1<br />

ϱλ 3 T<br />

<br />

1−(2s+1)〈n0〉/N<br />

0<br />

(4.82)<br />

❀ Interpretation: Die (2s + 1)〈n0〉 Teilchen im Gr<strong>und</strong>zustand<br />

tragen nicht zur Entropie bei. Die übrigen (N −(2s+1)〈n0〉)<br />

Teilchen haben im Mittel die für die Gasphase charakteristische<br />

Entropie s0.<br />

• Spezifische Wärme<br />

Berechnung aus c V = 1<br />

<br />

<br />

<br />

V,N<br />

∂U<br />

N ∂T mit U = 3<br />

2P V<br />

<br />

∂U <br />

∂T =<br />

V,N ∂(U,V,N) ∂(U,V,N) ∂(T,V,µ)<br />

= · ∂(T,V,N) ∂(T,V,µ) ∂(T,V,N)<br />

<br />

1<br />

= ∂U ∂N <br />

∂N ∂T <br />

∂µ V,µ<br />

∂µ −<br />

T,V<br />

T,V<br />

∂U<br />

<br />

∂N <br />

∂µ <br />

T,V<br />

∂T <br />

V,µ<br />

= ∂U<br />

<br />

<br />

∂T −<br />

V,µ ∂U<br />

<br />

∂N/∂T | V,µ<br />

∂µ =<br />

T,V<br />

∂N/∂µ| V,T ∂U<br />

<br />

<br />

∂T −<br />

V,µ ∂U<br />

<br />

∂µ <br />

∂µ <br />

V,T<br />

∂T <br />

V,N<br />

Berechne zunächst ∂µ<br />

<br />

<br />

∂T aus ϱ<br />

V,N ! = const. (4.78)<br />

= 2s+1<br />

λ3 g (e 3/2<br />

T<br />

βµ ) + ϱ0<br />

Im Kondensat: µ ≡ 0 ⇒ ∂µ<br />

= 0 ∂T<br />

Im Gas: ϱ0 = 0 ⇒ ϱ = 2s+1<br />

λ3 g (e 3/2<br />

T<br />

βµ ) = const.<br />

<br />

3 βµ<br />

g<br />

⇒ dϱ = dT · ϱ − 2T T<br />

′ 3/2 (eβµ )<br />

g3/2 (eβµ <br />

+ dµ · ϱβ<br />

)<br />

g′ 3/2 (eβµ )<br />

g3/2 (eβµ !<br />

= 0<br />

)<br />

⇒ ( ∂µ<br />

<br />

)ϱ = kB − ∂T 3<br />

2 eβµ g3/2 (eβµ )<br />

g1/2 (eβµ <br />

+ βµ<br />

)<br />

Weiterhin: ∂U<br />

<br />

<br />

∂T =<br />

V,µ U<br />

<br />

5<br />

T 2 − βµe−βµ g3/2 (eβµ )<br />

g5/2 (eβµ <br />

,<br />

)<br />

<br />

∂U <br />

∂µ = Uβe<br />

V,T −βµ g3/2 (eβµ )<br />

g5/2 (eβµ )<br />

Zusammengesetzt: cV = 1<br />

<br />

∂U <br />

N ∂T =<br />

V,N<br />

1<br />

<br />

∂U <br />

N ∂T −<br />

V,µ ∂U<br />

<br />

∂µ <br />

∂µ <br />

V,T<br />

∂T <br />

V,N<br />

Im Kondensat: (βµ = 0): 5 U 15 2s+1<br />

= kB 2 NT 4 ϱλ3 g (1) = 5/2<br />

T<br />

15<br />

4 kB<br />

g (1) 3/2 5/2 T<br />

g (1) T0(ϱ)<br />

3/2<br />

Im Gas: U<br />

<br />

5<br />

NT 2 −βµe−βµ g3/2 (eβµ )<br />

g5/2 (eβµ <br />

+βµe<br />

)<br />

−βµ g3/2 (eβµ )<br />

g5/2 (eβµ <br />

−<br />

)<br />

3 g3/2 (e<br />

2<br />

βµ )g3/2 (e βµ )<br />

g1/2 (eβµ )g5/2 (eβµ <br />

)<br />

=<br />

(einsetzen) kB<br />

<br />

15 g5/2 (e<br />

4<br />

βµ )<br />

g3/2 (eβµ 9 g3/2 (e<br />

−<br />

) 4<br />

βµ )<br />

g1/2 (eβµ <br />

)<br />

⇒ Ergebnis: (s0 wie in (4.81))


110 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />

⎧<br />

⎨<br />

cV =<br />

⎩<br />

3<br />

2s0 <br />

T 3/2<br />

T0 (ϱ)<br />

3<br />

2kB <br />

5 g5/2(e 2<br />

βµ )<br />

g3/2(eβµ )<br />

− 3<br />

g3/2(e 2<br />

βµ )<br />

g1/2(eβµ )<br />

Grenzverhalten:<br />

im Gas: T → ∞ ⇒ eβµ → 0 ⇒ cV → 3<br />

<br />

: T < T 0 (ϱ) (Kondensat)<br />

: T > T 0 (ϱ) (Gas) (4.83)<br />

5−3 3<br />

2kB( 2 ) = 2kB <br />

T → 0 ⇒ eβµ → 1 ⇒ g1/2 → ∞, cV → 3<br />

2s0 = 1.92kB<br />

im Kondensat: T → T0 ⇒ cV → 3<br />

2s0 T → 0 ⇒ cV → T 3/2 → 0<br />

(d) Bemerkungen zum Phasenübergang<br />

∗ Experimentell erstmals 1995 nachgewiesen<br />

∗ Verwandte Phasenübergänge:<br />

❀ stetig am Phasenübergang, macht<br />

Knick<br />

Suprafluidität (He 4 : Quantenflüssigkeit<br />

He 3 : Quantenflüssigkeit von Atompaaren)<br />

Supraleitung ( ” Flüssigkeit“ von Elektronenpaaren)<br />

∗ Bose-Einstein-Kondensation in beliebiger Dimension d<br />

Verallgemeinerung der Gleichung (∗∗) (4.78)<br />

❀ ϱ =<br />

2s + 1<br />

λ d T<br />

mit g d/2 (z) = ∞<br />

1<br />

gd/2 (e βµ ) + λd<br />

T<br />

V<br />

eβµ 1 − eβµ <br />

z k /k d<br />

2 : divergiert für z → 1 ab d ≤ 2<br />

(4.84)<br />

⇒ d ≤ 2: Gleichung (4.84) hat für alle ϱ < ∞ eine Lösung<br />

bei e βµ < 1. In diesem Bereich verschwindet im limes<br />

V → ∞ der zweite Term in (4.84) ❀ rein makroskopisch<br />

besetzter Gr<strong>und</strong>zustand, keine Kondensation.<br />

d > 2: Für große Dichten <strong>und</strong> V → ∞ ist die Lösung von (4.84)<br />

bei e βµ → 1.<br />

→ Bose-Einstein-Kondensation<br />

⇒ Phasenübergang findet erst oberhalb einer<br />

unteren kritischen Dimension statt<br />

❀ kennzeichnend für Phasenübergänge<br />

∗ Ursache der Bose-Einstein-Kondensation: ” Bose-Anziehung“


Kapitel 5<br />

Phasengleichgewichte <strong>und</strong><br />

Phasenübergänge<br />

c○ Copyright 2005 Friederike Schmid 1<br />

5.1 Beispiele für Phasenübergänge<br />

(siehe auch: Einleitung Seite 7 ff)<br />

(0) Bereits kennengelernt: Bose-Einstein-Kondensation<br />

exakt berechenbar, Beispiel für Phasenübergang erster Ordnung<br />

in mancher Hinsicht etwas untypisch, daher weitere Beispiele<br />

(1) Gas-Flüssig-Übergang<br />

Phänomenologische Beschreibung mit van-der-Waals-Zustandsgleichung<br />

∗ Heuristische Herleitung<br />

Ausgehend von der freien Energie für klassisches ideales Gas<br />

F (2.100)<br />

= NkBT ln( N<br />

V · λ3<br />

T )<br />

Betrachte nun Gas von wechselwirkenden klassischen Teilchen mit abstoßenden<br />

Kernen (keine Durchdringung) <strong>und</strong> längerreichweitiger Anziehung<br />

• Effekt des abstoßenden Kerns: Zugängliches Volumen reduziert<br />

❀ V → V − V0; V0 ≈ Nb mit b: Eigenvolumen der Teilchen<br />

⇒ F → F ≈ NkBT ln( hard core N<br />

V −Nb · λ3<br />

T )<br />

• Effekt der anziehenden Wechselwirkung<br />

❀ Beitrag zur inneren Energie: Upot ≈ −N a ϱ<br />

⇒ F = U − T S → F − N a ϱ<br />

hard core<br />

N 2<br />

⇒ Insgesamt: F (T, V, N) = −a van der Waals V + NkBT ln( N<br />

V −Nb · λ3<br />

T )<br />

Druck: P = − ∂F<br />

∂V<br />

= −a N 2<br />

V 2 + NkBT/(V − Nb)<br />

⇒ (P + a( N<br />

V )2<br />

<br />

” Binnendruck“<br />

)(V − Nb) = NkBT van-der-Waals-Gleichung<br />

(5.1)<br />

1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />

Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />

111


112 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

∗ Diskussion<br />

van-der-Waals-Gleichung äquivalent mit<br />

(5.1) ⇔ ϕ(V, T, P ) = V 3 − V 2 (Nb + NkBT<br />

P ) + V N 2 a<br />

P<br />

Graphisch: P-V-Diagramm<br />

− N 3 ab<br />

P<br />

= 0 (5.2)<br />

❀ Große Temperaturen: P fällt monoton mit V , kein Phasenübergang<br />

Kleine Temperaturen: ” Van-der-Waals-Schleife“<br />

❀ Nicht kompatibel mit Stabilitätsbedingungen (Kapitel ...)<br />

Problem rührt daher, dass auch F vdWaals nicht konvex in V .<br />

❀ Phasentrennung: Koexistenz von zwei Zuständen 1,2<br />

Ergeben sich aus konvexen Einhüllenden von F vdWaals<br />

(i) Druck im Koexistenzbereich konstant (PKoex )<br />

2<br />

2<br />

∂FvdWaals (ii) P dV = −<br />

vdWaals ∂V dV = −F2+F1 = PKoex (V2−V1)<br />

1<br />

1<br />

❀ ” Maxwellsche Flächenregel“<br />

⇒ Legt eindeutig fest, welche beiden Phasen bei gegebener Temperatur<br />

koexistieren.<br />

Übergang: Kritischer Punkt T c<br />

- Zusammenhang zwischen Zustandsgrößen am kritischen Punkt:<br />

V cP c<br />

NkBT c<br />

= 3<br />

= 0.375<br />

8<br />

(experimentell: 4 He : 0.308 H2 : 0.304<br />

O2 : 0.292 H2O : 0.230) (5.3)<br />

(Beweis: Bei (V c , T c ) ist: ∂P<br />

∂V = ∂2 P<br />

∂V 2 = 0 ⇒ 3 Nullstellen von ϕ als Funktion von<br />

V fallen aufeinander: ϕ(V, T c , P c ) (5.2)<br />

= . . . = (V − V c ) 3 → Koeffizientenvergleich)<br />

- Verhalten in der Nähe des kritischen Punktes: Verschiedene Pfade<br />

(a) V ≡Vc : κT = − 1<br />

<br />

∂V <br />

Vc ∂P ∝ |T − Tc| T<br />

−γ<br />

(b) T ≡Tc : (P − Pc) ∝ |V − Vc| δ<br />

(c) Koexistenzkurve: VGas −V ∝ (T fl. c −T ) β<br />

(5.4)<br />

mit (van der Waals): γ = 1, δ = 3, β = 1/2<br />

❀ algebraisches Verhalten, kritische Exponenten γ, δ, β<br />

( ” experimentell“: γ ≈ 1, δ ≈ 4.8, β ≈ 0.33)


5.1. BEISPIELE FÜR PHASENÜBERGÄNGE 113<br />

Schlußfolgerung:<br />

Phänomenologische Beschreibung erstaunlich erfolgreich<br />

für viele Flüssigkeiten<br />

Universelle Eigenschaften am kritischen Punkt<br />

(Potenzgesetze, kritische Exponenten unabhängig von der konkreten<br />

Substanz)<br />

(2) Magnetismus<br />

∗ Phasenverhalten<br />

Magnetisierung eines Ferromagneten<br />

∗ Phänomenologische Theorie: Weißsche Molekularfeldnäherung<br />

Idealer Paramagnet: Curie-Gesetz M = C<br />

T H (C: ” Curie-Konstante“)<br />

(5.5)<br />

Ferromagnet: Curie-Gesetz + Molekularfeld H = λM<br />

mol<br />

von magnetisierter Umgebung<br />

❀ M = C<br />

(5.6)<br />

T · (H + λM) (Curie-Weiss-Gesetz)<br />

→ Suszeptibilität: ∂M<br />

<br />

<br />

∂H = χT ∝<br />

T<br />

1<br />

T −λ·C<br />

!<br />

Funktioniert bei T > Tc = λ · C; dann ist χT ∝ 1 (5.7)<br />

|T −Tc |<br />

Bei niedriger Temperatur T < Tc bricht die Beschreibung zusammen.<br />

Abhilfe: Ersetze das Curie-Gesetz (5.5) durch die bessere<br />

Näherung M ∝ tanh(CH/kBT )<br />

(5.8)<br />

❀ Damit kann der Rest des Phasenverhaltens (spontane Magnetisierung<br />

etc.) beschrieben werden.<br />

∗ Vergleich mit Flüssig-Gas-Übergang<br />

Phasendiagramme


114 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

Kritische Exponenten<br />

Ordnungsparameter : M 0 (T ) ; V gas − V fl ∝ |T − T c| β<br />

∂(Ordnungsparameter)<br />

∂(zugeordnete intensive Größe) :<br />

Ordnungsp. ↔ zugeordnete intensive Größe:<br />

(5.9)<br />

Kompressibilität: κ T ∝ |T − T c| −γ (5.10)<br />

Suszeptibilität: χ T ∝ |T − T c| −γ (5.11)<br />

Druck ↔ Volumen bei T c : (P − P c) ∝ |V − V c| δ<br />

Feld ↔ Magnetisierung bei T c : H ∝ |M| δ<br />

(5.12)<br />

(5.13)<br />

Spezifische Wärme : c V , c P ∝ |T − T c| −α (5.14)<br />

- theoretische Werte: gleich für van der Waals-Flüssigkeit <strong>und</strong> Molekularfeldnäherung:<br />

α = 0 (Sprung), β = 1<br />

2 , γ = 1, δ = 3<br />

- experimentelle Werte: ähnlich für alle Systeme:<br />

α = −0.1 . . . 0.1, β = 0.2 . . . 0.4, γ = 1.2 . . . 1.4, δ = 4.2 . . . 4.4<br />

(3) Weitere Beispiele<br />

∗ Entmischung von Flüssigkeiten<br />

∗ Antiferromagnet<br />

∗ Ordnungs-Unordnungsphasenumwandlungen<br />

• Lageordnung<br />

Ordnungsparameter ∝ N (A)<br />

Cu<br />

− N (B)<br />

Cu


5.1. BEISPIELE FÜR PHASENÜBERGÄNGE 115<br />

• Orientierungsordnung<br />

Ordnungsparameter: (a) Orientierungstensor<br />

(b) mittlere Ausrichtung: σ j mit σ j = ±1<br />

∗ Strukturelle Phasenübergänge<br />

Beschreibung: Kondensierung“ eines bestimmten optischen Phonons<br />

”<br />

bei q = 0 → soft mode“<br />

”<br />

Bei Annäherung an den Phasenübergang von der ungeordneten Phase her<br />

wird dieses Phonon beliebig weich“.<br />

”<br />

” Ordnungsparameter“: 〈ϕ〉, wobei ϕ = Amplitude des Phonons.<br />

∗ Schmelzen-Erstarren<br />

” Einfrieren von Dichteschwankungen“<br />

- Phasenübergang immer erster Ordnung<br />

- mögliche Beschreibung: ϱ(r) = <br />

ˆϱ e G i Gr<br />

Ordnungsparameter: {ˆϱ G }<br />

∗ Flüssigkristalle<br />

Flüssigkeiten von stark anisotropen Molekülen<br />

Anwendung: LCDs:<br />

Nematische Phase: optische Anisotropie, starke Fluktuationen in der<br />

Nähe des Phasenübergangspunktes<br />

→ starke isotrope Lichtstreuung<br />

Der Übergang in die nematische Phase wird z.B. durch Anlegen eines<br />

elektrischen Feldes induziert.<br />

G


116 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

∗ Makroskopische Quantenzustände<br />

• Bosekondensation: Systeme von Boseteilchen<br />

niedrige Temperaturen: ein makroskopischer Anteil von Teilchen<br />

geht in den Gr<strong>und</strong>zustand<br />

• Suprafluidität ( 3 He, 4 He)<br />

Ordnungsparameter: Wellenfunktion des<br />

makroskopisch besetzten Zustandes<br />

ψ = R · e iφ<br />

supraflüssiger Zustand:<br />

Bosekondensat von<br />

makroskopischer Dimension<br />

mit 10 23 Teilchen<br />

Konsequenzen:<br />

z.B. dissipationsfreier Fluss durch Rohre <strong>und</strong> Kapillare<br />

(keine Energiedissipation durch Stöße mit einzelnen Teilchen<br />

mehr möglich; kollektive Anregungen, bei denen ein bestimmter<br />

Impuls übertragen wird, haben eine bestimmte Mindestenergie)<br />

• Supraleitung<br />

supraleitender Zustand:<br />

Bosekondensat von<br />

Elektronenpaaren<br />

(Cooperpaaren)<br />

Konsequenzen:<br />

Kein Widerstand (↔ dissipationsfreier Fluss)<br />

Meißner-Effekt: Magnetfeld wird aus der supraleitenden Phase<br />

verdrängt<br />

etc.<br />

(4) Folgerungen: Beschreibung von Phasenübergängen<br />

Wichtige Konzepte<br />

(1) Ordnungsparameter<br />

Größe, die zwischen Phasen unterscheidet<br />

(idealerweise Null in einer der beiden Phasen)<br />

Beispiel: Magnetisierung<br />

Kontinuierliche Phasenübergänge<br />

→ O.P. geht stetig gegen Null bei einem kritischen Punkt T c<br />

Phasenübergänge ” erster Ordnung“<br />

→ endlicher Sprung am Übergangspunkt<br />

⇒ Ordnungsparameter sollte extensiv sein<br />

Bei intensiver Größe wäre zweites Szenario nicht möglich.


5.1. BEISPIELE FÜR PHASENÜBERGÄNGE 117<br />

(2) Fluktuationen<br />

In der Nähe von Phasenübergängen treten häufig Schwankungen auf.<br />

Beispiele:<br />

- flüssig/gasf. kritischer Punkt: starke Dichteschwankungen (kritische<br />

Opaleszenz)<br />

- Soft mode bei strukturellen Phasenübergängen<br />

Schwankungen hängen im Allgemeinen mit Suszeptibilitäten zusammen<br />

(z.B. Dichteschwankungen ↔ Kompressibilität)<br />

❀ in der Nähe von Phasenübergängen divergieren diese oft.<br />

Konsequenzen:<br />

• Energieschwankungen: Peak in den spezifischen Wärmen<br />

• Große Korrelationslängen/Clustergrößen<br />

❀ experimentell messbare Effekte<br />

• Große Cluster → längere Relaxationszeiten<br />

” critical slowing down“<br />

(bei Phasenübergängen geht alles langsamer)<br />

(3) Symmetrie <strong>und</strong> Symmetriebrechung<br />

Phasenübergänge sind häufig mit Änderung der Symmetrie im System<br />

verb<strong>und</strong>en<br />

(z.B. Magnetismus, Ordnungs/Unordnungs-Phasenumwandlung)<br />

Ordnungsparameter beschreibt dann diese Symmetriebrechung<br />

(4) Kritisches Verhalten<br />

Es gibt häufig kritische Punkte (Linien . . . ), an denen Phasenübergänge<br />

kontinuierlich werden.<br />

Gekennzeichnet durch<br />

- Potenzgesetze<br />

- kritische Exponenten α, β, γ, δ<br />

- Universalität<br />

Konkret: Einteilung in Universalitätsklassen nach<br />

• Raumdimensionen<br />

• Symmetrie des Ordnungsparameters<br />

• Reichweite der Wechselwirkungen


118 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

5.2 <strong>Thermodynamik</strong> von Phasengleichgewichten <strong>und</strong><br />

Phasenübergängen<br />

(1) Vorbemerkung<br />

Phasenübergang nur im thermodynamischen Limes möglich<br />

Gründe:<br />

• Im Allgemeinen verknüpft mit Symmetriebrechung,<br />

auf jeden Fall verknüpft mit Ergodizitätsbrechung<br />

• Verknüpft mit Singularitäten in verschiedenen Größen<br />

(Potenzgesetze, kritische Exponenten etc.)<br />

❀ Singularitäten in thermodynamischen Potentialen<br />

als Funktion von intensiven Größen<br />

Aber: TD Potential = − kBT<br />

<br />

· log(Zustandssumme)<br />

−βE(Zustand)(+βµN−βP V )<br />

Zustandssumme = e<br />

” “<br />

Zustände<br />

hängt analytisch ab von T,µ,P,...<br />

⇒ Z analytisch, wenn “ endlich viele Summanden hat<br />

”<br />

→ ln Z analytisch → Thermodynam.<br />

<br />

Potential analytisch<br />

→ Singularität nur möglich, wenn “ über unendlich viele<br />

”<br />

Zustände summiert.<br />

Ähnliche Argumentation bei endlichen Integralen.<br />

(2) Phasengleichgewichte <strong>und</strong> Phasendiagramme<br />

∗ Beispiel Magnetismus


5.2. THERMODYNAMIK 119<br />

∗ Beispiel Flüssig-Gas-Übergang (+Festkörper)<br />

∗ Allgemeine Bemerkungen<br />

• Phasengleichgewichte<br />

Intensive Größen sind gleich (P (1) =P (2) =· · · ,<br />

T (1) =T (2) =· · · , µ (1) =µ (2) =· · · )<br />

Extensive Größen spalten auf (V =V (1)+V (2)+· · · ,<br />

S =S (1)+S (2)+· · · , . . .)<br />

• Folgerungen für Phasendiagramme von Phasen im Gleichgewicht<br />

Phasendiagramme in intensiven Größen (z.B. P-T)<br />

→ Parametrisierte Linien (in 2D), Flächen (in 3D) etc.<br />

Phasendiagramme in extensiven Größen (z.B. V-T)<br />

→ Koexistenzgebiete (Flächen, Volumina)<br />

(3) ” Klassifizierung“ von Phasenübergängen<br />

Phasenübergänge treten dann auf, wenn thermodynamische Potentiale<br />

als Funktion der intensiven Variablen eine Singularität haben.<br />

Ehrenfestsche Klassifizierung<br />

- Phasenübergang erster Ordnung: Erste Ableitung unstetig, Sprung<br />

erste Ableitung = zugeordnete extensive Variable<br />

Sprung = Koexistenz von 2 Phasen unterschiedlicher Dichte<br />

- Phasenübergang n-ter Ordnung: n-te Ableitung unstetig, Sprung<br />

❀ Klassifizierung ” scheitert“, weil bei Phasenübergängen höherer<br />

Ordnung die entsprechende Ableitung nicht nur einen Sprung<br />

macht, sondern gemäß Potenzgesetz divergiert<br />

⇒ Singularität nicht ausreichend charakterisiert<br />

(möglicher Ausweg: Fraktionale Ableitungen)<br />

In der Literatur meistens keine weitergehende Klassifizierung, sondern<br />

einfache Unterscheidung zwischen Phasenübergängen erster Ordnung <strong>und</strong><br />

kontinuierlichen Phasenübergängen.


120 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

(4) Gibbssche Phasenregel<br />

Beispiel, wie man aus thermodynamischen Überlegungen konkrete Aussagen<br />

ableiten kann.<br />

• Betrachte 1-komponentiges NV T -System, Phasendiagramm in P-T-<br />

Ebene, m koexistierende Phasen, chemisches Potential identisch<br />

⇒ (m − 1) Gleichungen µ1(P, T ) = µ2(P, T ) = . . . µm(P, T )<br />

❀ Es können nicht mehr als 3 Phasen koexistieren. (Denn man<br />

braucht zwei Gleichungen für zwei Unbekannte P, T )<br />

Koexistenz von 3 Phasen → keine ” freie“ Variable → (Tripel-)Punkt<br />

Koexistenz von 2 Phasen → eine freie Variable → Linie<br />

• Verallgemeinerung: n-komponentiges System, m koexistierende Phasen<br />

⇒ n(m − 1) Gleichungen für n chemische Potentiale<br />

2 + m(n − 1) Unbekannte (P, T , Konzentrationen der Komponenten<br />

i in Phase α mit <br />

ciα = 1 ∀α)<br />

⇒ f = 2 + n − m ” freie Variablen“<br />

⇒ Es können nicht mehr als m = n + 2 Phasen koexistieren. (5.15)<br />

Bemerkung: Gibbssche Phasenregel stimmt nicht unbedingt, wenn weitere<br />

intensive Zustandsgrößen existieren (z.B. H bei Ferromagnetismus) <strong>und</strong><br />

P-T-Ebene aus Symmetriegründen ausgezeichnet ist.<br />

(5) Phasenübergang erster Ordnung <strong>und</strong> Clausius-Clapeyron-Gleichung<br />

Betrachte Phasenübergang erster Ordnung<br />

in einkomponentigem System<br />

Gleichgewichtsbedingung:<br />

Bei Koexistenz µ I (T, P 0 (T )) = µ II (T, P 0 (T ))<br />

⇒ dµ I = dT ( ∂µ I<br />

∂T + ∂µ I ∂P0 ∂P ∂T ) = dµ II = dT ( ∂µ II<br />

∂T + ∂µ II ∂P0 ∂P ∂T )<br />

Ferner gilt Gibbs-Duhem-Relation: dµ (3.21)<br />

= v dP − s dT (v = V<br />

dµ α = dT (−s α + v α<br />

⇒ dP0 (T )<br />

dT = sII − sI vII − vI dP 0 (T )<br />

dT )<br />

= Q I→II<br />

T ∆V<br />

i<br />

N<br />

, s= S<br />

N )<br />

Clausius-Clapeyron-Gleichung (5.16)<br />

mit Q I→II = T · (s II − s I ) latente Wärme (5.17)<br />

Wärme, die beim Phasenübergang I → II zugeführt werden muss<br />

(z.B. Flüssig-Gas-Übergang: Verdampfungswärme)


5.3. STATISTIK 121<br />

Bemerkung: Steigung kann auch negativ sein<br />

(6) Kontinuierliche Phasenübergänge <strong>und</strong> kritische Exponenten<br />

Fragestellung: Was kann man aus der <strong>Thermodynamik</strong> über kritische<br />

Exponenten lernen, wenn man von den Relationen (5.14), (5.9) <strong>und</strong><br />

(5.10) bzw. (5.11) als experimentelle Tatsache (α = −0.1 . . . 0.1, β =<br />

0.2 . . . 0.4, γ = 1.2 . . . 1.4) ausgeht?<br />

Flüssig-Gas-Übergang<br />

- <strong>Thermodynamik</strong><br />

cP ≥ cV ≥ 0 siehe (3.46)<br />

cP − cV = T · V<br />

N ·<br />

2 1 ∂V 1<br />

V ∂T<br />

siehe (3.44), (3.36)<br />

P κT<br />

⇒ cP ≥ T · V 1<br />

N · κT ·<br />

2 1 ∂V<br />

(5.18)<br />

V ∂T<br />

<br />

P<br />

- Folge Pfad entlang Koexistenzlinie<br />

(5.14)<br />

∝ |T − Tc| −α divergiert<br />

→ cP 1<br />

κT (5.10)<br />

∝ |T − Tc| γ divergiert<br />

∂V (5.9)<br />

∝ analytische Funktion + (Tc − T )<br />

∂T<br />

β−1 (5.18)<br />

⇒<br />

divergiert<br />

|T −Tc| −α muss schneller divergieren als |T −Tc| γ |T −Tc| β−12 ⇒ α + 2β + γ ≥ 2 (5.19)<br />

Ähnlich für Magnetismus → gleiche Ungleichung<br />

(Rushbrooke Ungleichung)<br />

(Es stellt sich heraus: De facto gilt das Gleichheitszeichen:<br />

” Skalenrelation“ α + 2β + γ = 2)<br />

5.3 <strong>Statistische</strong> <strong>Physik</strong> von Phasenübergängen<br />

Sehr unvollständige Einführung, ” Märchenst<strong>und</strong>e“<br />

5.3.1 Phasenkoexistenz in der <strong>Statistische</strong>n <strong>Physik</strong><br />

Problem: Zustandssumme = Scharmittel<br />

Bei Phasenübergängen erster Ordnung → Ergodizitätsbrechung,<br />

Zeitmittel = Scharmittel, in Zustandssumme nicht berücksichtigt.<br />

Wie geht man damit um?


122 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

Beispielsystem: Isingmodell, die ” Drosophila“ der Theorie der Phasenübergänge<br />

Gitter, Plätze belegt mit Spin“-Variable σi = ±1<br />

”<br />

Energie: E{σk} = −J <br />

σiσj − h<br />

〈ij〉<br />

<br />

<br />

σi<br />

i<br />

Paare von Nachbarn<br />

(jedes Paar nur einmal)<br />

kanonische Zustandssumme: Z = <br />

e−βE{σk} (keine kinetischen Freiheitsgrade)<br />

{σk}<br />

” <strong>Physik</strong>alische“ Motivation: Idealisiertes Modell für uniaxialen Ferromagneten<br />

Es stellt sich heraus, dass das Isingmodell bei Raumdimensionen ≥ 2<br />

einen Phasenübergang hat; Phasendiagramm ähnlich dem beim Magnetismus<br />

” Problem“ bei der Beschreibung der Phasenkoexistenz (s.o.):<br />

Bei h = 0 sind Zustände mit M0 (T ) <strong>und</strong> −M0 (T ) gleichwahrscheinlich.<br />

❀ Scharmittel würde 〈M〉 = 0 ergeben.<br />

Prinzipielle Möglichkeiten, die Phasenkoexistenz trotzdem zu identifizieren:<br />

(i) Symmetriebrechendes infinitesimales Feld<br />

Berechne Zustandssumme allgemein für h = 0 → M(T, h)<br />

Phasenkoexistenz ⇔ lim M(T, h) = lim M(T, h)<br />

h→0 + h→0− <br />

M0 (T )<br />

−M0 (T )<br />

(ii) Symmetriebrechende Randbedingungen<br />

(iii) Histogramm von M<br />

P ( ˜ M) = 〈δ(M − M)〉<br />

Analog kann man auch mit anderen Phasenübergängen erster Ordnung umgehen.<br />

Voraussetzung: Wahl einer Gesamtheit, in der der Ordnungsparameter<br />

nicht erhalten ist


5.3. STATISTIK 123<br />

5.3.2 Kritische Phänomene<br />

5.3.2.1 Konfigurationen des Ising-Modells<br />

Jedes schwarze Quadrat entspricht einem nach oben weisenden, jedes weiße<br />

Quadrat einem nach unten weisenden ” Spin“. Abbildungen von Kenneth Geddes<br />

Wilson 2 , Nobelpreis 1982.<br />

T = 2T c:<br />

Bei großen Temperaturen<br />

heben sich die<br />

Spin-Wirkungen gegenseitig<br />

auf. Man findet<br />

nur kleine Gebiete, in<br />

in denen benachbarte<br />

Spins in die gleiche<br />

Richtung zeigen.<br />

2 Spektrum der Wissenschaft 1979, Heft 10.<br />

T = 1.05T c:<br />

In der Nähe der<br />

kritischen Temperatur<br />

treten auch größere<br />

Gebiete mit<br />

gleichgerichteten<br />

Spins auf.<br />

T = T c:<br />

Kritische Temperatur<br />

Große Gebiete gleicher<br />

Orientierung. Magnetisierung<br />

setzt ein. Daneben<br />

immer noch kleine<br />

Gebiete gleicher Orientierung,<br />

die für höhere<br />

Temperaturen<br />

charakteristisch sind.<br />

T = 0.99T c:<br />

Unterhalb der kritischen<br />

Temperatur wird<br />

die Spin-Orientierung<br />

immer einheitlicher,<br />

eine Orientierung überwiegt,<br />

das System ist<br />

magnetisch.


124 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

5.3.2.2 Korrelationslänge <strong>und</strong> Fluktuationen am kritischen Punkt<br />

∗ ❀ Kennzeichen des kritischen Punktes:<br />

Korrelationslänge ξ für Ordnungsparameterfluktuationen divergiert<br />

Quantitativer heißt das:<br />

Definiere lokale Ordnungsparameterdichte m(x)<br />

z.B. im<br />

Isingm(x)<br />

=<br />

Modell:<br />

<br />

σi<br />

<br />

Anzahl Plätze in Box<br />

Gitterplätze in Box um x<br />

Räumliche Korrelationen: 〈m(x)m(x ′ )〉 − 〈m〉 2 ≡ gm(x − x ′ )<br />

Im Allgemeinen: Bei großen Abständen exponentiell abfallend<br />

gm(x − x ′ ) ∝<br />

|x−x ′ |→∞ e−|x−x′ |/ξ ξ: führende Zerfallslänge<br />

Am kritischen Punkt divergiert ξ: ξ ∝ |T − T c| −ν<br />

mit kritischem Exponenten ν (Isingmodell: ν ≈ 0.64)<br />

Frage: Wie ” wichtig“ ist Korrelationslänge?<br />

Abschätzung: Kriterium für Fluktuationen<br />

Fluktuationen werden wichtig, wenn in der geordneten<br />

Phase in einem Teilsystem des Volumens<br />

ξd σ2 M = 〈M 2 〉 − 〈M〉 2 > ∼ 〈M〉 2<br />

(5.20)<br />

In diesem Fall wird Korrelationslänge die dominante Längenskala des<br />

Systems.<br />

∗ Behandlung von kritischen Phänomenen<br />

(falls exakte Berechnung nicht möglich)<br />

(1) Falls Fluktuationen nicht dominant<br />

→ Man kann Mean field Näherungen anwenden, siehe Abschnitt<br />

5.3.2.3<br />

(2) Falls Fluktuationen nicht dominieren<br />

Singularitäten der thermodynamischen Größen am kritischen Punkt<br />

werden von der Divergenz der Korrelationslänge bestimmt<br />

→ Renormierung, siehe Abschnitt 5.3.2.4<br />

5.3.2.3 Mean field Näherungen<br />

(a) Beispiel Isingmodell<br />

E{σk} = −J <br />

σiσj − h <br />

∂E<br />

∂σi<br />

= −J <br />

〈ij〉<br />

Nachbarn<br />

von i<br />

i<br />

σi<br />

σj − h ≡ − ˜ hi<br />

❀ ” Spin“ σi sieht lokales Feld ˜ hi<br />

= äußeres Feld h + effektives Feld von Nachbarspins


5.3. STATISTIK 125<br />

∗ Einfachste Mean field Näherung (Bragg-Williams-Näherung)<br />

lokales Feld ≈ Mittleres Feld h + J <br />

〈σ〉<br />

〈ij〉<br />

Paare<br />

Nachbarn<br />

Äquivalente Formulierung (vgl. Übungsaufgabe):<br />

Spins völlig unkorreliert: 〈σiσj〉 = 〈σi〉〈σj〉<br />

❀ Energie: E = −J <br />

〈σi〉〈σj〉 − h 〈σi〉 = − 1<br />

2NqJ〈σ〉2 − Nh〈σ〉<br />

(q=Koordinationszahl des Gitters)<br />

❀ Entropie S ↔ Anzahl der Möglichkeiten, N + = N<br />

2 (1 + 〈σ〉)<br />

Spins (+1) auf N Plätze zu verteilen ❀ S = kb ln( N<br />

N )<br />

+<br />

⇒ S = −kBN ( 1−〈σ〉<br />

2 ) ln( 1−〈σ〉<br />

2 ) + ( 1+〈σ〉<br />

2 ) ln( 1+〈σ〉<br />

2 ) <br />

❀ Freie Energie: F = E − T S = N · f(M/N) (wg. 〈σ〉 = M<br />

N )<br />

F<br />

N<br />

Jq M = − 2 ( N )2−h( M<br />

N )+kBT (<br />

1− M<br />

N<br />

2 ) ln(<br />

1− M<br />

N<br />

2 )+(<br />

1+ M<br />

N<br />

2 ) ln(<br />

1+ M<br />

N<br />

2 ) <br />

∗ Verfeinerte Mean field Näherungen möglich, z.B. statt einzelner Spins<br />

Spincluster im mittleren Feld, aber: F, M, N extensiv → Ergebnis<br />

muss immer Form F (M, N) = N · f( M<br />

N ) haben. Falls M nicht festgehalten<br />

wird, stellt es sich so ein, dass F minimal wird.<br />

Hier interessieren wir uns speziell für den kritischen Punkt: h = 0,<br />

T → Tc ⇒ M<br />

F<br />

M<br />

N ≪ 1, Entwicklung von N nach kleinen N möglich.<br />

∗ Allgemeine Symmetrieüberlegungen<br />

Bei h = 0 ist Isingmodell unverändert, wenn Vorzeichen aller σi<br />

umgedreht werden<br />

❀ F muss invariant sein unter Vertauschung M → −M<br />

❀ Nur gerade Terme in der Entwicklung erlaubt<br />

F<br />

N = f=(T ) + 1<br />

A(T )(M<br />

2 N )2 + 1<br />

B(T )(M<br />

4 N )4 + · · · (5.21)<br />

Beispiel für eine Landauentwicklung: Entwicklung von F<br />

N nach dem<br />

Ordnungsparameter unter Berücksichtigung seiner Symmetrie.<br />

Liefert generische Form von F<br />

N , alle systemspezifischen Eigenschaften<br />

stecken in den Koeffizienten f0, A, B, . . ..<br />

(konkret: Bragg-Williams-Näherung →<br />

F<br />

N<br />

≈ −T ln 2 + 1<br />

2 (kBT − qJ) · ( M<br />

N )2 + kBT<br />

24<br />

( M<br />

N )4 + . . .)<br />

∗ Analyse der Landauentwicklung<br />

Angenommen, B(T ) > 0 (anderenfalls muss Entwicklung weitergeführt<br />

werden)


126 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

∗ Kritische Exponenten<br />

In der Nähe von A ≈ 0, T ≈ Tc gilt: A ∝ (T − Tc) • Ordnungsparameter<br />

∂F<br />

∂M<br />

= 0 ⇒ A · ( M<br />

N<br />

) + B · ( M<br />

N )3 = 0<br />

⇒ M = ±N −A/B ∝ T c − T<br />

⇒ M ∝ (T c − T ) β<br />

mit β = 1<br />

2<br />

• Suszeptibilität<br />

Schalte Feld h = 0 ein ⇒ F = F (h = 0) − h · M<br />

Betrachte T > T c ⇒ A(T ) > 0<br />

∂F<br />

∂M<br />

= ∂F (h=0)<br />

∂M<br />

M<br />

− h = 0 ⇒ A(<br />

N<br />

⇒ M = N h h<br />

A ∝ T −Tc ⇒ χ = ∂M<br />

∂h ∝ (Tc − T ) γ<br />

) + B(M<br />

N )3 = h<br />

<br />

vernachlässigt<br />

(5.22)<br />

mit γ = 1 (5.23)<br />

• Korrelationslänge<br />

Eigentlich nicht definiert, denn räumliche Korrelationen werden<br />

in Mean field Näherung ja gerade vernachlässigt. Trotzdem<br />

zugänglich über ” Trick“: Betrachte Isingmodell mit variablem<br />

äußerem Feld hi: E = −J σiσj − hiσi <strong>und</strong> verwende<br />

exakte Beziehung: 〈σiσj〉 = +kBT ∂〈σi〉<br />

(Beweis: ∂〈σi ′ 〉<br />

∂hj ′<br />

= ∂<br />

=<br />

∂h j ′<br />

e −βE σi ′<br />

e −βE<br />

e −βE σi ′ βσ j ′<br />

e −βE<br />

= ∂<br />

∂h j ′<br />

∂hj<br />

e +β(J σ i σ j + h i σ i ) σi ′<br />

e +β(J σ i σ j + h i σ i )<br />

− ( e −βE σ i ′ )( e −βE βσ j ′ )<br />

( e −βE ) 2<br />

= β(〈σ i ′ σ j ′ 〉 − 〈σ i ′ 〉〈σ j ′ 〉) )<br />

Formuliere Landauentwicklung für räumlich variierende Ordnungsparameterdichte<br />

m(x) im variablen Feld h(x)<br />

→ . . . längere Rechnung . . . →<br />

g(x − x ′ ) = 〈m(x)m(x ′ )〉 − 〈m〉 2 ∝<br />

|x−x ′ |→∞ e−|x−x′ |/ξ<br />

mit ξ ∝ |T − T c| −ν<br />

<strong>und</strong> ν = 1<br />

2<br />

(5.24)


5.3. STATISTIK 127<br />

(b) Verallgemeinerung auf andere Systeme<br />

Zur Herleitung der kritischen Exponenten war nur die Kenntnis der allgemeinen<br />

Form der Landauentwicklung nötig, nicht die Kenntnis der<br />

spezifischen Koeffizienten f0, A, B, . . .. Die Form der Landauentwicklung<br />

wird von der Symmetrie des Ordnungsparameters bestimmt.<br />

⇒ Kritische Exponenten sind in jeder Mean field Näherung dieselben für<br />

verschiedene Systeme, wenn der Ordnungsparameter die gleiche Symmetrie<br />

hat.<br />

(❀ ” Universalitätsklassen“ für Mean field Exponenten)<br />

Systeme mit einem Ordnungsparameter der gleichen Symmetrie wie der<br />

des Isingmodells sind zum Beispiel<br />

- uniaxialer Ferromagnet<br />

- Ordnungs-/Unordnungs-Phasenumwandlungen<br />

- Gas-Flüssig-Übergang<br />

Nicht so offensichtlich, aber man kann argumentieren, dass die<br />

Landauentwicklung die Form<br />

F<br />

N ≈ f0 + 1 V<br />

2A( N − v0) 2 + 1 V<br />

4B( N − v0) 4 + . . .<br />

haben muss. (Linearer Term verschwindet durch geeignete Wahl<br />

von v0, kubischer Term muss bei Tc verschwinden, sonst wäre<br />

der Phasenübergang nicht kontinuierlich.)<br />

Systeme mit Ordnungsparameter einer anderen Symmetrie sind z.B.<br />

- die meisten anderen Ferromagneten (mehrdimensionaler Ordnungsparameter)<br />

❀ das gibt’s also auch!<br />

(c) Gültigkeitsbereich der Mean field Exponenten<br />

Betrachte die Terme der Ungleichung (5.20) bei Annäherung an T c:<br />

•〈M〉 2 ∝ (ξ d |T − T c| β ) 2 ∝ |T − T c| 2β−2dν<br />

•〈M 2 〉 − 〈M〉 2<br />

Behauptung<br />

∝ χM ∝ ξd |T − Tc| −γ ∝ |T − Tc| −γ−dν<br />

(Zum Beweis obiger Behauptung vgl. Abschnitt 2.6.3:<br />

χM = ∂〈M〉<br />

β(J<br />

d e<br />

= ∂h dh<br />

σiσj +hM)<br />

M<br />

β(J<br />

e σiσj +hM)<br />

β(J<br />

e<br />

= β<br />

σiσj +hM) 2<br />

M<br />

β(J<br />

e σiσj +hM) − β ( e β(J σiσj +hM) 2<br />

M)<br />

( e β(J σiσj +hM)<br />

) 2<br />

= β(〈M 2 〉 − 〈M〉 2 ) )<br />

Mean field Näherung wird problematisch, wenn linke Seite der Ungleichung<br />

(5.20) schneller divergiert als rechte Seite,<br />

also wenn (−γ − dν) ≤ (2β − 2dν)<br />

Im Falle eines Ordnungsparameters mit Ising-Symmetrie<br />

β = 1<br />

1<br />

2 , γ = 1, ν = 2 folgt die Bedingung Raumdimension d > 4.<br />

⇒ Ginzburg-Kriterium“: Fluktuationen werden wichtig unterhalb der<br />

”<br />

” oberen kritischen Dimension“ dc = 4<br />

(Ising-Symmetrie, kurzreichweitige Wechselwirkungen)


128 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />

NB: In Systemen mit langreichweitigen Wechselwirkungen (die langsamer<br />

abfallen als 1/r d+1 ) gilt Exponent ν nicht, da Version der Landauentwicklung<br />

für räumlich variierende m(x) sich ändert, <strong>und</strong> Mean<br />

field Exponenten bleiben auch unterhalb von d = 4 u. Umständen<br />

gültig.<br />

5.3.2.4 Renormierung<br />

Idee: Nahe am kritischen Punkt ist die Korrelationslänge ξ die einzige relevante<br />

Längenskala. Am kritischen Punkt divergiert ξ, also gibt es dort keine<br />

charakteristische Längenskala.<br />

❀ Eine Skalentransformation Länge → Länge/λ sollte im Prinzip<br />

das gleiche System reproduzieren: Selbstähnlichkeit.<br />

Funktioniert natürlich noch nicht auf kleinen Längenskalen (auf der Skala<br />

der Gitterkonstante), aber für λ → ∞ sollte Fixpunkt erreicht werden.<br />

Illustrationsbeispiel:<br />

Verteilung der lokal gemittelten Ordnungsparameterdichte<br />

m (1) = σ<br />

m (2) = 1<br />

2 d<br />

Fixpunkt:<br />

Feste Grenzverteilung,<br />

wenn man m (λ)<br />

geeignet reskaliert.<br />

(möglicherweise Levy-Verteilung, siehe 2.2.6)<br />

Ähnlich findet man Grenzverteilungen für andere Größen.<br />

Es zeigt sich, dass der Fixpunkt abhängt von<br />

• der Symmetrie des Ordnungsparameters<br />

(wie bei Mean field Theorie ↔ Landauentwicklung)<br />

• der Raumdimension<br />

• der Reichweite der Wechselwirkungen, falls sie langsamer abfallen als<br />

1/r d+2<br />

Stimmen diese überein, so findet man für ganz verschiedene Systeme denselben<br />

Fixpunkt<br />

→ Universalität<br />

2d <br />

i=1<br />

σ


5.3. STATISTIK 129<br />

<strong>Physik</strong>alische Vorstellung: Mikroskopische Details (lokale Struktur, Ursprung<br />

<strong>und</strong> Form der Wechselwirkungspotential etc.) spielen auf großen Längenskalen<br />

keine Rolle mehr. Diese Längenskalen dominieren aber gerade die<br />

<strong>Physik</strong> der Singularität am kritischen Punkt.<br />

Bemerkung zur Renormierung<br />

Renormierung ist eine der ganz wichtigen Ideen der theoretischen <strong>Physik</strong>.<br />

Greift immer dann, wenn einem physikalischen System die<br />

charakteristische Längenskala abhanden kommt.<br />

❀ Suche nach einem Fixpunkt, der invariant ist unter<br />

Skalentransformationen<br />

Hier: Skalentransformation zu größeren Längenskalen (ins ” Infrarote“).<br />

<strong>Physik</strong> der kritischen Phänomene ist von langwelligen Fluktuationen<br />

bestimmt. Eine minimale Längenskala ist im System vorgegeben<br />

(Teilchengröße).<br />

In der Feldtheorie auch: Skalentransformation zu kleineren Längenskalen<br />

(ins ” Ultraviolette“).<br />

Speziell Quantenfeldtheorie (Teilchenphysik):<br />

<strong>Physik</strong> wird von kurzwelligen (hochenergetischen) Fluktuationen bestimmt.<br />

Häufig ist maximale Längenskala vorgegeben (durch die<br />

Masse der Teilchen, die eine Wechselwirkung vermitteln).<br />

Weitere Anwendungen der Renormierung:<br />

- Nichtgleichgewichtssysteme<br />

- Selbstorganisiert kritische Systeme<br />

- <strong>Physik</strong> der Makromoleküle<br />

. . .<br />

Konkret geht man beim Renormieren je nach System jedesmal anders<br />

vor.<br />

Keine ” Methode“, sondern eine ” Denkweise“<br />

So weit zur Theorie der Phasenübergänge hier. Mehr in der <strong>Vorlesung</strong> ” <strong>Statistische</strong><br />

<strong>Physik</strong> II“.


130 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE


Kapitel 6<br />

Computersimulationen in der<br />

statistischen <strong>Physik</strong><br />

c○ Copyright 2005 Friederike Schmid 1<br />

6.0 Einleitung<br />

Gegeben ein makroskopisches Vielteilchensystem im Gleichgewicht. Theoretische<br />

Behandlung im Idealfall:<br />

<strong>Statistische</strong> <strong>Physik</strong> <strong>Thermodynamik</strong><br />

<strong>Statistische</strong> Thermodynamische<br />

Erwartungswerte Zustandsgrößen<br />

✂ ✂✍<br />

❇▼<br />

❇<br />

Zustandssumme Thermodynamisches Potential<br />

Idealziel wäre die Berechnung der Zustandssumme im thermodynamischen Limes<br />

→ liefert thermodynamisches Potential, enthält alle interessante Information<br />

über das System.<br />

De facto: Exakte Berechnung nur in wenigen Fällen möglich (z.B. ideale Gase,<br />

manche eindimensionalen Systeme, manche Systeme im Hochtemperaturlimes<br />

(kBT → ∞) oder bei T = 0 (Gr<strong>und</strong>zustand).<br />

Mögliche Auswege:<br />

∗ Näherungsverfahren<br />

• Entwicklungen um exakte Lösung, z.B.<br />

– Virialentwicklung um ideales Gas nach N<br />

V<br />

– Hochtemperaturentwicklung um T → ∞ nach ( ˜ E/kBT )<br />

( ˜ E: charakteristische Energie des Systems)<br />

1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />

Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />

131


132 KAPITEL 6. COMPUTERSIMULATIONEN<br />

– Tieftemperaturentwicklung um T = 0 nach (kbT/ ˜ E)<br />

• Mean field Näherungen<br />

u.a.<br />

Nachteile der Näherungsverfahren:<br />

Entwicklungen nur auf relativ eingeschränkte Systemklassen in eingeschränkten<br />

Parameterbereichen anwendbar<br />

Mean field Näherungen haben breite Anwendungsmöglichkeiten,<br />

sind dafür aber oft unkontrolliert.<br />

∗ Numerische Verfahren: Computersimulation<br />

Vorteile: Eine breite Klasse von Problemen zugänglich. Fehler vergleichsweise<br />

kontrollierbar (bei genügend viel Rechenzeit).<br />

Nachteile: Kann nur für relativ kleine Systeme durchgeführt werden<br />

(je nach Komplexität des Systems 100 − 10 6−9 Teilchen).<br />

→ Man ist vom thermodynamischen limes weit entfernt.<br />

❀ Extrem sorgfältige Datenanalyse notwendig.<br />

Beliebte Methoden:<br />

• Molekularsynamik:<br />

Numerische Lösung der Bewegungsgleichungen eines Vielteilchensystems<br />

• Langevin-Dynamik:<br />

Numerische Lösung einer geeigneten Langevin-Gleichung<br />

• Monte Carlo Simulationen:<br />

Numerische Berechnung thermodynamischer Erwartungswerte<br />

Inhalt dieses Kapitels: Kurze Einführung in die Idee der Molekulardynamik<br />

<strong>und</strong> Monte Carlo Methode für klassische Systeme. Nichts über<br />

Datenanalyse.<br />

6.1 Molekulardynamik<br />

Gegeben ein klassisches Vielteilchensystem,<br />

Phasenraum {Γ} = {(q1 · · · qN, p1 · · · pN)} mit Hamiltonscher Dynamik,<br />

Hamiltonfunktion H (Γ) = p 2 i + V ({qi})<br />

2mi<br />

Ziel: Numerische Berechnung von Trajektorien Γ(t)<br />

❀ ermöglicht Berechnung dynamischer Eigenschaften <strong>und</strong> bei<br />

Ergodizität <strong>und</strong> genügend langer Laufzeit auch Scharmittelwerte<br />

gemäß 〈A 〉 (2.5) 1 = lim<br />

T →∞<br />

T<br />

T<br />

dt A (Γ(t))<br />

Durchführung im mikrokanonischen Ensemble<br />

Aufgabe:<br />

0<br />

Integration der Bewegungsgleichungen ( ˙ pi = − ∂V<br />

∂qi = fi; ˙ qi = pi<br />

mi )<br />

notwendig: Diskretisierung Γ(t) → (Γ0, Γ1 · · · Γn, · · · ), Zeitschritt ∆t<br />

(→ Diskretisierungsfehler)


6.2. MONTE CARLO SIMULATIONEN 133<br />

Vorgaben:<br />

- nicht zu rechenzeitaufwendig<br />

(nur einmal pro Zeitschritt Kräfte berechnen)<br />

- akzeptable Kurzzeitstabilität = akzeptable Abweichung der integrierten<br />

Trajektorie von der echten Trajektorie:<br />

|Γn − Γ(t + ∆t · n))| ∝ |Γ1 − Γ(t + ∆t)| · e +(n−1)∆t/τ (t < ∼ τ)<br />

|Γ1 − Γ2| 2 = | <br />

(q<br />

i<br />

(1)<br />

i − q(2)<br />

i ) 2 + <br />

(p<br />

i<br />

(1)<br />

i − p(2)<br />

i ) 2 |<br />

- gute Langzeitstabilität<br />

Erhaltungssätze <strong>und</strong> Symmetrien gut erfüllt,<br />

speziell (im mikrokanonischen Fall) Energieerhaltung<br />

Die Lösung, die sich für die meisten Anwendungen weitgehend durchgesetzt<br />

hat: Verlet-Algorithmus<br />

- Algorithmus: Gegeben Konfiguration (q1 · · · qN, p1 · · · pN)<br />

In einem Zeitschritt ∆t wird sie folgendermaßen propagiert:<br />

(i) Berechne Kräfte am Ort qi<br />

(ii) qi(t + ∆t) = 2qi(t) − qi(t − ∆t) + (∆t)2 fi(t) mi<br />

- Herleitung“: Aus Taylorentwicklung der realen Trajektorie<br />

”<br />

qi(t ± ∆t) = qi(t) ± ∆t · pi(t)<br />

mi<br />

+ (∆t)2<br />

mi<br />

fi(t) ± (∆t)3<br />

6 bi(t) · · ·<br />

Addiere ” +“ <strong>und</strong> ” -“<br />

→ Verlet-Gleichung + Fehler der Ordnung O(∆t) 4<br />

- Vorteile des Algorithmus:<br />

• nicht sehr aufwendig<br />

• reversibel in der Zeit wie die ursprünglichen Bewegungsgleichungen<br />

• vernünftig kurzzeitstabil (Fehler von der Ordnung (∆t) 4 )<br />

• Hauptvorteil: exakt phasenraumerhaltend ( ” symplektisch“)<br />

Man kann zeigen (nicht schwer, trotzdem nicht hier), dass<br />

die Transformation Γ(t) → Γ(t + ∆t) unitär ist.<br />

• Daraus ergibt sich auch die enorm gute Langzeitstabilität,<br />

z.B. bzgl. Energie. Nicht exakt erhalten, aber nahe dran.<br />

Die Symplektizität ist die wichtigste Eigenschaft des Verlet-Algorithmus. In<br />

der Simulation von dynamischen Systemen, in denen der Liouville-Satz<br />

gilt, haben symplektische Algorithmen alle anderen weitgehend verdrängt.<br />

6.2 Monte Carlo Simulationen<br />

<strong>Statistische</strong>r Ansatzpunkt: Vergiss mikroskopische Dynamik,<br />

<br />

dΓ p(Γ) A (Γ) direkt zu berechnen.<br />

Versuche, Integral 〈A 〉 (2.5)<br />

= 1<br />

N!<br />

Bemerkung: Im allgemeinen muss man nur über Ortsfreiheitsgrade numerisch<br />

integrieren, da Integration über Impulsfreiheitsgrade analytisch gelöst werden<br />

kann.


134 KAPITEL 6. COMPUTERSIMULATIONEN<br />

z.B. kanonisches Ensemble, H = p 2 i<br />

dp N<br />

h 3N e −β p2 i<br />

2m =<br />

2πm<br />

β<br />

3N<br />

2m<br />

+ V ({ri})<br />

= ( 1<br />

λ )<br />

T<br />

3N (6.1)<br />

<br />

dΓ A ({ri})e−β( p2 i +V ({ri}))<br />

2m<br />

〈A 〉 = 1<br />

h3N 1<br />

N! ZK<br />

∝ ( dr<br />

V )N A ({ri})e−βV ({ri})<br />

❀ Nach wie vor hochdimensionales Integral (3N Dimensionen)<br />

Aufgabe: Evaluiere ein solches hochdimensionales Integral anhand geeigneter<br />

Stützstellen. Wähle geeignete Stützstellen.<br />

(Schlecht ist z.B. ein regelmäßiges Gitter mit p Stützstellen pro Intervall<br />

I = [0, 1]. Man braucht p 3N Stützstellen im Volumen I 3N (zu viele), <strong>und</strong><br />

sie sind ungleichmäßig verteilt.)<br />

Lösung: Monte-Carlo-Integration Generiere Stützstellen mit Zufallszahlen. Verteile<br />

sie gemäß vorgegebener Verteilung, z.B. gleichförmig (simple sampling)<br />

oder mit besonderem Gewicht auf interessante Bereiche des Phasenraums<br />

(importance sampling).<br />

(1) Simple Sampling<br />

Ziehe Konfigurationen völlig zufällig<br />

Auswertung: (kanonisches Ensemble) 〈A 〉 = lim<br />

n 1 A (ln) exp(−βV (ln))<br />

n<br />

n→∞ 1 exp(−βV (ln))<br />

Funktioniert gut, wenn Integrand exp(−βV (ln)) gleichmäßig im Phasenraum<br />

verteilt ist, z.B. bei sehr hohen Temperaturen, β → 0. Sonst<br />

ineffizient, da viel zu viele Stützstellen in uninteressanten Bereichen<br />

des Phasenraums berechnet werden.<br />

(2) Importance Sampling<br />

Ziehe Konfigurationen gemäß einer vorgegebenen Verteilung ¯ P (l)<br />

l = (q1, . . . qn); im kanonischen Ensemble wäre naheliegend, aber<br />

−βV (l)<br />

nicht zwingend, die Wahl ¯ P (l) ∝ e<br />

1 n <br />

❀ Auswertung 〈A 〉 = lim<br />

n→∞ n 1 A (ln)<br />

Frage: Wie macht man das?<br />

Lösung: Generiere Markov-Kette in diskreter Zeit<br />

Erinnerung an Kapitel 2.2.7:<br />

Markov-Kette: Stochastischer Prozess ohne Gedächtnis,<br />

charakterisiert durch Übergangsrate W l→l ′<br />

Wahrscheinlichkeitsverteilung Pn(l) entwickelt sich gemäß<br />

Mastergleichung: Pn+1(l) = Pn(l)+ <br />

l ′<br />

Wl ′ →l Pn(l ′ )−W l→l ′ Pn(l) <br />

Nun gilt für Markovketten ein zentraler Grenzwertsatz:<br />

(in Kapitel 2.2.7 verschwiegen)<br />

Falls eine Markovkette irreduzibel ist, d.h. jeder Zustand kann<br />

von jedem anderen aus erreicht weren, <strong>und</strong> der Zustandsraum<br />

{l} endlich (in einer Simulation immer der Fall), dann existiert<br />

genau eine stationäre Grenzverteilung P∞(l) mit<br />

lim<br />

n→∞ Pn(l) = P∞(l)<br />

(6.2)


6.2. MONTE CARLO SIMULATIONEN 135<br />

unabhängig von der Anfangsverteilung. Die Grenzverteilung erfüllt<br />

(6.3)<br />

<br />

l ′ W l ′ →l P∞(l ′ ) = <br />

l ′ W l→l ′ P∞(l)<br />

Dieser Satz wird ausgenutzt, um zufällig Konfigurationen mit einer<br />

vorgegebenen Verteilung ¯ P (l) zu ziehen.<br />

Trick: Konstruiere Übergangswahrscheinlichkeit W l→l ′ so, dass Grenzverteilung<br />

gerade die gewünschte Verteilung ist,<br />

also z.B. folgende beiden hinreichenden Bedingungen:<br />

(i) irreduzibel: Jeder Zustand kann von jedem anderen aus erreicht<br />

werden<br />

(ii) Detailliertes Gleichgewicht: W l→l ′<br />

W l ′ →l<br />

= ¯ P (l ′ )<br />

¯P (l)<br />

Konkret z.B. Metropolis-Algorithmus (besonders beliebt)<br />

(6.4)<br />

Wl→l ′ = Nll ′<br />

<br />

symmetrisch:<br />

N<br />

ll ′ =N l ′ l<br />

· min(1, ¯ P (l)/ ¯ P (l ′ )) (6.5)<br />

Jeder andere Algorithmus geht auch, solange er die beiden Bedingungen<br />

(i) <strong>und</strong> (ii) erfüllt.<br />

Anwendungsbeispiel:<br />

Simulation des Isingmodells mit einem Single-flip“ Algorithmus<br />

”<br />

Isingmodell: Kubisches Gitter, Spin“variablen σi = ±1<br />

”<br />

Energiefunktion: E({σi}) = −J<br />

<br />

Gewünschte Verteilung (kanonisch):<br />

P ({σi}) ∝ exp(−βE)<br />

〈ij〉<br />

Paare<br />

von Nachbarn<br />

Algorithmus:<br />

Startkonfiguration {σi} mit Energie E({σi})<br />

1. Wähle zufällig ” Spin“ σj<br />

2. Berechne Energieunterschied ∆E zwischen der<br />

aktuellen Konfiguration <strong>und</strong> der Konfiguration, in<br />

der σj gerade umgekehrte Vorzeichen hat (z.B. kubisches<br />

Gitter, 2 dimensional: ∆E = 0, ±2J, ±4J)<br />

3. Ziehe Zufallszahl r ∈ [0, 1]<br />

Drehe Spin σj um, falls r < e −β∆E<br />

(Metropolis-Algorithmus: W l→l ′ = min(1, e −β∆E ))<br />

4. → Neue Konfiguration<br />

σiσj

Hurra! Ihre Datei wurde hochgeladen und ist bereit für die Veröffentlichung.

Erfolgreich gespeichert!

Leider ist etwas schief gelaufen!