Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)
Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)
Vorlesung Thermodynamik und Statistische Physik I (PDF, 5.79 MB)
Sie wollen auch ein ePaper? Erhöhen Sie die Reichweite Ihrer Titel.
YUMPU macht aus Druck-PDFs automatisch weboptimierte ePaper, die Google liebt.
<strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong><br />
<strong>Statistische</strong> <strong>Physik</strong> (I)<br />
Version vom WS 2003/2004 ∗<br />
Universität Bielefeld<br />
Fakultät für <strong>Physik</strong><br />
Theorie der kondensierten Materie<br />
Prof. Dr. Friederike Schmid †<br />
Inhalt: Rekapitulation empirischer Tatsachen<br />
Makroskopischer Zugang: Gr<strong>und</strong>lagen der statistischen <strong>Physik</strong><br />
Mikroskopische Dynamik<br />
Einschub: Kurze Einführung in die Wahrscheinlichkeitstheorie<br />
Das Prinzip der maximalen Ignoranz (Jaynesches Prinzip)<br />
<strong>Statistische</strong> Gesamtheiten<br />
Kontakt zur Wärmelehre<br />
Beziehungen zwischen Zustandsgrößen<br />
<strong>Thermodynamik</strong><br />
Postulate der <strong>Thermodynamik</strong> (Entropiepostulate)<br />
Gibbs’sche Gr<strong>und</strong>form<br />
Thermodynamische Potentiale<br />
Prozesse <strong>und</strong> zweiter Hauptsatz<br />
Nicht-einfache Systeme<br />
Quantenstatistik <strong>und</strong> quantenmechanische Vielteilchensysteme<br />
<strong>Statistische</strong> Quantenmechanik<br />
Quantenmechanische Vielteilchensysteme<br />
Ideale Quantengase<br />
Phasengleichgewichte <strong>und</strong> Phasenübergänge<br />
<strong>Thermodynamik</strong> von Phasengleichgewichten <strong>und</strong> Phasenübergängen<br />
<strong>Statistische</strong> <strong>Physik</strong> von Phasenübergängen<br />
Computersimulationen in der statistischen <strong>Physik</strong><br />
∗ Elektronisch: Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05<br />
† E5-114, Tel. (0521-)106-6191,
c○ Copyright 2004 Friederike Schmid<br />
Die Verteilung dieses Dokuments in elektronischer oder gedruckter Form<br />
ist gestattet, solange sein Inhalt einschließlich Autoren- <strong>und</strong> Copyright-Angabe<br />
unverändert bleibt <strong>und</strong> die Verteilung kostenlos erfolgt, abgesehen von einer<br />
Gebühr für den Datenträger, den Kopiervorgang usw.<br />
Das im Original handschriftlich vorliegende Skript entspricht dem Tafelbild<br />
bei der <strong>Vorlesung</strong>. Es wurde 1:1 mit L ATEX umgesetzt ‡ .<br />
‡ von C. Schmid,
Inhaltsverzeichnis<br />
0 Einleitung 7<br />
1 Rekapitulation empirischer Tatsachen 11<br />
1.1 Begriffe <strong>und</strong> Konzepte . . . . . . . . . . . . . . . . . . . . . . . . 11<br />
1.1.1 Druck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />
1.1.2 Temperatur . . . . . . . . . . . . . . . . . . . . . . . . . . 11<br />
1.1.3 Wärme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12<br />
1.1.4 Zustandsgrößen . . . . . . . . . . . . . . . . . . . . . . . . 13<br />
1.1.5 Thermodynamisches Gleichgewicht . . . . . . . . . . . . . 14<br />
1.1.6 Reversibilität <strong>und</strong> Irreversibilität . . . . . . . . . . . . . . 15<br />
2 Mikroskopischer Zugang: Gr<strong>und</strong>lagen 17<br />
2.1 Mikroskopische Dynamik . . . . . . . . . . . . . . . . . . . . . . . 17<br />
2.1.1 Mikroskopische Charakterisierung eines Systems . . . . . 17<br />
2.1.2 Eigenschaften der Dynamik . . . . . . . . . . . . . . . . . 18<br />
2.1.3 Bedeutung der Ergodizitätsannahme . . . . . . . . . . . . 18<br />
2.2 Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . . . . . . . 20<br />
2.2.0 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . 20<br />
2.2.0.1 Fragestellungen . . . . . . . . . . . . . . . . . . 20<br />
2.2.0.2 Frage (B): Wie ermittelt man Wahrscheinlichkeiten?<br />
. . . . . . . . . . . . . . . . . . . . . . . 20<br />
2.2.0.3 Frage (A): Was ” ist“ überhaupt Wahrscheinlichkeit?<br />
. . . . . . . . . . . . . . . . . . . . . . . . . 24<br />
2.2.1 Wahrscheinlichkeitsraum . . . . . . . . . . . . . . . . . . . 24<br />
2.2.2 Bedingte Wahrscheinlichkeit<br />
<strong>und</strong> <strong>Statistische</strong> Unabhängigkeit . . . . . . . . . . . . . . 25<br />
2.2.3 Zufallsvariablen <strong>und</strong> Wahrscheinlichkeitsverteilung . . . . 26<br />
2.2.4 Erwartungswert, Streuung, Korrelationen . . . . . . . . . 27<br />
2.2.5 Spezielle Verteilungen . . . . . . . . . . . . . . . . . . . . 29<br />
2.2.6 Grenzverteilungen <strong>und</strong> zentraler Grenzwertsatz . . . . . . 30<br />
2.2.6.1 Zentraler Grenzwertsatz nach Lindenberg-Lévy . 30<br />
2.2.7<br />
2.2.6.2 Allgemeines zu Lévy-Verteilungen (ohne Beweis) . . 31<br />
” Dynamik“ von Zufallsvariablen: Stochastische Prozesse . 32<br />
2.2.7.1 Begriffe <strong>und</strong> Definitionen . . . . . . . . . . . . . 32<br />
2.2.7.2 Beispiele für Markov-Prozesse . . . . . . . . . . 32<br />
2.2.7.3 Dynamische Gleichungen für Markov-Prozesse . 33<br />
3
4 INHALTSVERZEICHNIS<br />
2.3 Das Prinzip der maximalen Ignoranz . . . . . . . . . . . . . . . . 36<br />
2.3.1 Der Gr<strong>und</strong>gedanke der statistischen Mechanik . . . . . . 36<br />
2.3.1.1 Erinnerung an Kapitel 2.1: Ergodizität . . . . . 36<br />
2.3.1.2 Das Prinzip der maximalen Ignoranz . . . . . . 37<br />
2.3.2 Ignoranz <strong>und</strong> Informationsentropie . . . . . . . . . . . . . 37<br />
2.3.2.1 Informationsentropie als quantitatives Maß für<br />
Ignoranz . . . . . . . . . . . . . . . . . . . . . . 37<br />
2.3.2.2 Eigenschaften der Informationsentropie . . . . . 40<br />
2.3.3 Das Jaynesche Prinzip . . . . . . . . . . . . . . . . . . . . 41<br />
2.4 <strong>Statistische</strong> Gesamtheiten . . . . . . . . . . . . . . . . . . . . . . 42<br />
2.4.1 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . 42<br />
2.4.1.1 Charakterisierung der Systeme . . . . . . . . . . 42<br />
2.4.1.2 Festlegung der Konstanten . . . . . . . . . . . . 43<br />
2.4.1.3 Weitere Annahmen . . . . . . . . . . . . . . . . 44<br />
2.4.2 Mikrokanonische Gesamtheit . . . . . . . . . . . . . . . . 45<br />
2.4.3 Kanonische Gesamtheit . . . . . . . . . . . . . . . . . . . 46<br />
2.4.4 Großkanonische Gesamtheit . . . . . . . . . . . . . . . . . 47<br />
2.4.5 Volumenschwankungen: Enthalpisches Ensemble . . . . . 48<br />
2.4.6 Gesamtheiten mit verschiedenen Teilchensorten . . . . . . 49<br />
2.5 Kontakt zur Wärmelehre . . . . . . . . . . . . . . . . . . . . . . 50<br />
2.5.0 Vorbemerkung . . . . . . . . . . . . . . . . . . . . . . . . 50<br />
2.5.1 Das klassische ideale Gas . . . . . . . . . . . . . . . . . . 51<br />
2.5.2 Zustandsgrößen . . . . . . . . . . . . . . . . . . . . . . . . 52<br />
2.5.2.1 Extensive Zustandsgrößen <strong>und</strong> Additivität . . . 52<br />
2.5.2.2 Intensive Zustandsgrößen <strong>und</strong> Ausgleich . . . . . 53<br />
2.5.2.3 Kinetische Interpretation <strong>und</strong> Gleichverteilungssatz<br />
. . . . . . . . . . . . . . . . . . . . . . . . . 55<br />
2.5.3 Äquivalenz der Gesamtheiten . . . . . . . . . . . . . . . . 56<br />
2.6 Beziehungen zwischen Zustandsgrößen . . . . . . . . . . . . . . . 57<br />
2.6.1 Zusammenhänge zwischen Zustandsgrößen für die wichtigsten<br />
statistischen Gesamtheiten ” einfacher“ Systeme . . 57<br />
2.6.2 Beweis einiger Formeln für ” Abgeleitete Zustandsgrößen“ 59<br />
2.6.3 <strong>Statistische</strong> Fluktuationen <strong>und</strong> Suszeptibilitäten . . . . . 61<br />
2.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . 63<br />
3 <strong>Thermodynamik</strong> 65<br />
3.0 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65<br />
3.1 Postulate der <strong>Thermodynamik</strong> (Entropiepostulate) . . . . . . . . 66<br />
3.2 Gibbssche Gr<strong>und</strong>form . . . . . . . . . . . . . . . . . . . . . . . . 69<br />
3.3 Thermodynamische Potentiale . . . . . . . . . . . . . . . . . . . . 72<br />
3.3.1 Legendre-Transformation . . . . . . . . . . . . . . . . . . 72<br />
3.3.2 Definition der thermodynamischen Potentiale . . . . . . . 73<br />
3.3.3 Eigenschaften der thermodynamischen Potentiale . . . . . 75<br />
3.3.4 Thermodynamische Koeffizienten . . . . . . . . . . . . . . 76<br />
3.4 Prozesse <strong>und</strong> zweiter Hauptsatz . . . . . . . . . . . . . . . . . . . 80<br />
3.4.1 Prozessführung <strong>und</strong> Reversibilität . . . . . . . . . . . . . 80<br />
3.4.2 Wärmekraftmaschinen <strong>und</strong> 2. Hauptsatz . . . . . . . . . . 81
INHALTSVERZEICHNIS 5<br />
3.5 Nicht-einfache Systeme . . . . . . . . . . . . . . . . . . . . . . . . 84<br />
3.5.1 Allgemeine Bemerkungen . . . . . . . . . . . . . . . . . . 84<br />
3.5.2 Chemische Reaktionen . . . . . . . . . . . . . . . . . . . . 85<br />
4 Quantenstatistik, q.m. Vielteilchensysteme 89<br />
4.1 <strong>Statistische</strong> Quantenmechanik . . . . . . . . . . . . . . . . . . . . 89<br />
4.1.1 Der <strong>Statistische</strong> Operator . . . . . . . . . . . . . . . . . . 90<br />
4.1.1.1 Die ” Postulate“ der Quantenmechanik . . . . . . 90<br />
4.1.1.2 Der statistische Operator im allgemeinen (gemischten)<br />
Fall . . . . . . . . . . . . . . . . . . . 91<br />
4.1.1.3 Sonderfälle des statistischen Operators . . . . . 91<br />
4.1.1.4 Dynamische Entwicklung von unbeobachteten<br />
Gemischen . . . . . . . . . . . . . . . . . . . . . 91<br />
4.1.2 <strong>Statistische</strong> Mechanik . . . . . . . . . . . . . . . . . . . . 92<br />
4.1.3 Berechnung des statistischen Operators in verschiedenen<br />
Gesamtheiten . . . . . . . . . . . . . . . . . . . . . . . . . 93<br />
4.2 Vielteilchensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 94<br />
4.2.1 Unterscheidbare Teilchen . . . . . . . . . . . . . . . . . . 94<br />
4.2.2 Identische Teilchen . . . . . . . . . . . . . . . . . . . . . . 94<br />
4.2.2.1 Erster (falscher) Ansatz: Austauschentartung . . 95<br />
4.2.2.2 Permutationsoperatoren . . . . . . . . . . . . . . 95<br />
4.2.2.3 Symmetrisierungspostulat . . . . . . . . . . . . . 98<br />
4.3 Ideale Quantengase . . . . . . . . . . . . . . . . . . . . . . . . . . 99<br />
4.3.1 Zustandsraum . . . . . . . . . . . . . . . . . . . . . . . . 99<br />
4.3.2 Statistik idealer Quantengase . . . . . . . . . . . . . . . . 100<br />
4.3.3 Der Grenzfall der ” klassischen“ Statistik . . . . . . . . . . 101<br />
4.3.4 Zustandsgleichungen von Quantengasen . . . . . . . . . . 102<br />
4.3.5 Bose-Einstein-Kondensation . . . . . . . . . . . . . . . . . 106<br />
5 Phasengleichgewichte, Phasenübergänge 111<br />
5.1 Beispiele für Phasenübergänge . . . . . . . . . . . . . . . . . . . 111<br />
5.2 <strong>Thermodynamik</strong> . . . . . . . . . . . . . . . . . . . . . . . . . . . 118<br />
5.3 Statistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121<br />
5.3.1 Phasenkoexistenz in der <strong>Statistische</strong>n <strong>Physik</strong> . . . . . . . 121<br />
5.3.2 Kritische Phänomene . . . . . . . . . . . . . . . . . . . . . 123<br />
5.3.2.1 Konfigurationen des Ising-Modells . . . . . . . . 123<br />
5.3.2.2 Korrelationslänge <strong>und</strong> Fluktuationen am kritischen<br />
Punkt . . . . . . . . . . . . . . . . . . . . 124<br />
5.3.2.3 Mean field Näherungen . . . . . . . . . . . . . . 124<br />
5.3.2.4 Renormierung . . . . . . . . . . . . . . . . . . . 128<br />
6 Computersimulationen 131<br />
6.0 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131<br />
6.1 Molekulardynamik . . . . . . . . . . . . . . . . . . . . . . . . . . 132<br />
6.2 Monte Carlo Simulationen . . . . . . . . . . . . . . . . . . . . . . 133
6 INHALTSVERZEICHNIS
Kapitel 0<br />
Einleitung<br />
c○ Copyright 2005 Friederike Schmid 1<br />
(i) Wozu diese <strong>Vorlesung</strong>?<br />
Dazu Bestandsaufnahme<br />
Bisherige Gegenstände der theoretischen Phyik:<br />
- Mechanik, Elektrodynamik (Quantenmechanik), Spezielle Relativitätstheorie<br />
❀ Teilchen (Wellen), Kräfte, Felder<br />
· Gehorchen ” einfachen“ Gesetzen<br />
· Charakterisiert durch Symmetrien<br />
z.B. Translationsinvarianz in Raum <strong>und</strong> Zeit,<br />
Isotropie des Raums,<br />
Äquivalenz der Inertialsysteme,<br />
Spiegelsymmetrien,<br />
Zeitumkehrinvarianz<br />
· Naturgesetze sind ” glatt“<br />
Teilchen (Wellen) <strong>und</strong> Felder folgen partiellen Differentialgleichungen<br />
in Raum <strong>und</strong> Zeit.<br />
Im ” wirklichen Leben“ aber<br />
• Eindeutiger Zeitpfeil<br />
Wir leben ” vorwärts“, werden geboren, altern, sterben.<br />
Wir lernen <strong>und</strong> machen Fortschritte.<br />
Wir erinnern uns an Vergangenheit, aber nicht an die Zukunft.<br />
→ Umkehr der Zeit ist de facto <strong>und</strong>enkbar.<br />
• Weitere Symmetriebrechungen<br />
z.B. - Paritätsverletzung (Wu 1957): Elektron beim β-Zerfall<br />
von Co 60 hat bevorzugte Emissionsrichtung<br />
1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />
Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />
7
8 KAPITEL 0. EINLEITUNG<br />
- Magnete: Brechen Isotropie<br />
- Kristalle: Brechen Translationsinvarianz<br />
- (Nobelpreis 2003: Supraleitung)<br />
Entstehung von Mustern <strong>und</strong> Strukturen<br />
(Wäre die Welt so symmetrisch wie ihre Naturgesetze,<br />
dann wäre das ziemlich langweilig.)<br />
• Man beobachtet in der Natur häufig Unstetigkeiten<br />
Im Raum: Oberflächen, Grenzflächen<br />
In der Zeit: Instabilitäten, Phasenübergänge<br />
Beispiele für Phasenübergänge im Gleichgewicht“<br />
”<br />
” Gleichgewicht“: Ohne äußere Einwirkung unendlich lange stabil<br />
✻<br />
” Temperatur“<br />
Phasenübergänge der Teilchenphysik<br />
<br />
<br />
strukturelle<br />
Übergänge<br />
Suprafluidität<br />
Plasma<br />
Gase<br />
Flüssigkeiten<br />
Festkörper<br />
❅ ❅❅<br />
Magnetismus<br />
Supraleitung<br />
Bose-Einstein-Kondensation<br />
Im ” Nichtgleichgewicht“ weitere Phänomene:<br />
- Selbstorganisation,<br />
Selbstorganisierte Kritikalität<br />
- Musterbildung, Chaos<br />
- Leben, Intelligenz<br />
- (Bewußtsein)<br />
Gr<strong>und</strong>lage ca. bis hier:<br />
” F<strong>und</strong>amentalmodell“<br />
Kerne + Elektronen<br />
Coulombkraft + Pauliprinzip
Beobachtung: In mikroskopisch gr<strong>und</strong>verschiedenen Systemen tauchen immer<br />
wieder quantitativ ähnliche Gesetzmäßigkeiten auf.<br />
Beispiele<br />
• Diffusion:<br />
Gesamtdichteverteilung ergibt sich aus der Mittelung über alle möglichen<br />
Wege, die ein einzelnes Partikel nehmen kann.<br />
Falls Anfangsverteilung punktförmig ( ” delta-Funktion“)<br />
→ verbreiternde Gaußverteilung (D Diffusionskonstante)<br />
ϱ(r, t) ∝ e −r2 /4Dt<br />
Das gilt unabhängig davon, wie sich Partikel im einzelnen bewegt.<br />
∂<br />
Allgemeiner: Diffusionsgleichung ϱ(r, t) = D△ϱ(r, t)<br />
∂t<br />
→ in gewisser Weise eine universelle Gleichung,<br />
beschreibt viele sehr unterschiedliche Systeme.<br />
• Potenzgesetze: In der Natur beobachtet man oft Potenzgesetze mit<br />
universellen Exponenten.<br />
(z.B. spezifische Wärme am Curie-Punkt von Magneten,<br />
Erdbebenverteilung in Kalifornien,<br />
Zugriffe auf Webseiten mit FAQs)<br />
Voraussetzungen für universelle Gesetzmäßigkeiten scheint zu sein:<br />
(1) Großes System<br />
Sehr viele (oft makroskopisch viele: ∼ 10 23 ) Elemente (Teilchen, Felder,<br />
. . . )<br />
(2) Kollektives Verhalten<br />
Elemente wechselwirken miteinander<br />
❀ schafft eine ganz neue <strong>Physik</strong><br />
Neue Begriffe: Entropie, Thermodynamischer Limes, Temperatur, Wärme<br />
Neue Phänomene: Irreversibilität, Phasenübergänge, Komplexität<br />
Neue Konzepte, die sehr breit angewendet werden können:<br />
- in <strong>Physik</strong> <strong>und</strong> Chemie<br />
(praktisch überall)<br />
- in der Biologie<br />
(- Organisation von Molekülen in Zellen,<br />
- Organisation von Zellen <strong>und</strong> Organismen,<br />
- Evolution)<br />
- in der Gesellschaft<br />
(Verkehr, Börse, Internet)<br />
9
10 KAPITEL 0. EINLEITUNG<br />
(ii) Inhalt der <strong>Vorlesung</strong><br />
Darstellung verschiedener Zugänge zu diesem Problemkreis:<br />
Aufbau<br />
0) Einleitung (das hier)<br />
1) Rekapitulation empirisch bekannter Tatsachen<br />
(aus Praktikum, Experimentalphysikvorlesung etc.)<br />
2) Mikroskopischer Zugang: Gr<strong>und</strong>lagen der statistischen <strong>Physik</strong><br />
3) <strong>Thermodynamik</strong><br />
4) Anwendungen: - Quantenstatistik<br />
- Phasenübergänge<br />
- Dynamik<br />
- Computersimulation<br />
(iii) Literatur<br />
Alle gängigen Lehrbücher, z.B.<br />
Reif: F<strong>und</strong>amentals of Statistical and Thermal Physics<br />
Diu, Guthmann, Lederer, Roulet: Gr<strong>und</strong>lagen der <strong>Statistische</strong>n <strong>Physik</strong><br />
Jellito: <strong>Thermodynamik</strong> <strong>und</strong> Statistik<br />
Landau,Lifshitz: <strong>Statistische</strong> <strong>Physik</strong><br />
Brenig: <strong>Statistische</strong> Theorie der Wärme<br />
Plischke,Bergersen: Equilibrium Statistical Physics<br />
Callen: Thermodynamics and Introduction to Thermal Statistics<br />
Schwabl: <strong>Statistische</strong> Mechanik
Kapitel 1<br />
Rekapitulation empirischer<br />
Tatsachen<br />
c○ Copyright 2005 Friederike Schmid 1<br />
1.1 Begriffe <strong>und</strong> Konzepte<br />
1.1.1 Druck<br />
• messbar Kraft pro Fläche<br />
• Bei Kontakt:<br />
Druckausgleich<br />
• ❀ Druck überall vorhanden (nicht nur an Oberfläche), überall gleich.<br />
1.1.2 Temperatur<br />
• physiologisch wahrnehmbar mit der Haut<br />
• einordenbar (kälter, wärmer)<br />
• Bei Kontakt:<br />
• Temperaturmessung: ” Thermometer“<br />
Temperaturausgleich<br />
1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />
Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />
11
12 KAPITEL 1. REKAPITULATION EMPIRISCHER TATSACHEN<br />
z.B. basierend auf Volumenausdehnung von Flüssigkeiten<br />
Celsius:<br />
100 ◦ C ˆ= Wasser siedet<br />
0 ◦ C ˆ= Eis schmilzt<br />
(bei Atmosphärendruck)<br />
Weitere Messmethoden:<br />
Elektrischer Widerstand, Strahlungsthermometer<br />
1.1.3 Wärme<br />
Am ” saubersten“: Gasthermometer<br />
p·V<br />
(ϑ+273.15◦C) = const.<br />
Ideales Gas:<br />
→ Motiviert Definition einer absoluten Temperatur<br />
T = ϑ + 273.15◦C; Einheit: Kelvin<br />
Gasgleichung:<br />
p·V<br />
T = const. = ν ·R = N ·kB<br />
Anzahl<br />
Anzahl<br />
Mole<br />
Teilchen<br />
Fahrenheit:<br />
100F: Körpertemperatur<br />
0F: Wasser + 50 Prozent<br />
Salz schmilzt<br />
mit R = 8.3146 J/K 1 Mol ˆ=6 · 10 23 Teilchen<br />
bzw. kB = 1.38 · 10 −23 J/K Boltzmann-Konstante (1.1)<br />
• Temperaturerhöhung wird erreicht durch Zuführung von Energie<br />
z.B. - Mechanische Arbeit (Aufheizung durch Reibung)<br />
- Elektromagnetische Bestrahlung<br />
- Kontakt mit einem wärmeren Körper<br />
• Energiemenge, die im letzteren Fall übertragen wird, wird Wärme genannt<br />
• Konkret: Zwei Körper in Kontakt → Temperaturausgleich<br />
Q = c1ν1(T1 − T ) = c2ν2(T2 − T )<br />
mit c1, c2: spezifische Molwärmen<br />
ˆ= Energien, die benötigt werden,<br />
um 1 Mol um 1 K zu erhitzen;<br />
substanzabhängig<br />
Beim Wärmeaustausch geht keine Wärme verloren<br />
❀ ” Erster Hauptsatz der <strong>Thermodynamik</strong>“<br />
△U<br />
<br />
Energieänderung<br />
in einem System<br />
= △Q<br />
<br />
zugeführte<br />
Wärme<br />
+ △W<br />
<br />
zugeführte oder<br />
geleistete Arbeit<br />
• Kinetische Interpretation der Wärme<br />
Frage: Falls Wärme ≡ Energie: Welche Energie?<br />
Vermutung (Boltzmann): Kinetische Energie von ungeordneter Bewegung<br />
der Teilchen.
1.1. BEGRIFFE UND KONZEPTE 13<br />
Argument: Ideales Gas<br />
Druck= Kraft<br />
Fläche<br />
= Impulsübertrag<br />
Fläche ∗ Zeit .<br />
Sei Geschwindigkeitsverteilung im Gas P (v)<br />
bzw. Px(vx) · · ·<br />
<strong>und</strong> dN(vx) ˆ= Anzahl der Teilchen der<br />
Geschwindigkeit vx ∈ [vx − dvx<br />
2 , vx + dvx<br />
2 ],<br />
die in Zeit dt auf Fläche A treffen.<br />
dN(vx) = ϱ ·<br />
<br />
A · dt · vx <br />
·Px(vx) · dvx<br />
Dichte Volumen, in dem Teilchen<br />
Oberfläche in dt erreichen<br />
→ Impulsübertrag: F · dt = dN(vx) 2vx · m<br />
<br />
Impulsübertrag<br />
pro Teilchen<br />
❀ Druck p = F<br />
∞<br />
A = 2ϱ m<br />
= ϱ m<br />
∞<br />
= ϱ m 〈v 2 x〉<br />
= 1<br />
0<br />
dvxPx(vx)v 2 x<br />
dvxPx(vx)v<br />
−∞<br />
2 x<br />
3ϱ m 〈v2 〉 = 2<br />
3<br />
⇒ p · V = N · 2<br />
3 〈εkin〉 ! = N · kB · T<br />
ϱ 〈εkin〉<br />
<br />
mittlere kinetische<br />
Energie/Teilchen<br />
(Px(vx) = Px(−vx))<br />
(〈v 2 x 〉 = 〈v2 y 〉 = 〈v2 z 〉)<br />
❀ kBT = 2<br />
3 〈εkin〉 : Identifikation Temperatur ≡ kinetische Energie<br />
(NB: Das ist natürlich nicht die ganze Wahrheit!)<br />
1.1.4 Zustandsgrößen<br />
Betrachte zwei Systeme, die in verschiedener Weise in Kontakt sind, z.B.<br />
• Mechanischer Ausgleich ↔ Druckausgleich<br />
•<br />
•<br />
Nein, denn betrachte<br />
(Osmose)<br />
Wärmeausgleich ↔ Temperaturausgleich<br />
Materieller Ausgleich ↔ Ausgleich von ?<br />
? Dichte ?
14 KAPITEL 1. REKAPITULATION EMPIRISCHER TATSACHEN<br />
Nicht Dichte, sondern ” chemisches Potential“.<br />
Jedenfalls gibt es eine Größe, die ausgeglichen wird.<br />
❀ Fazit: Es gibt Größen, die sich wenn möglich so einstellen, dass sie im<br />
ganzen System konstant sind<br />
❀ intensive Zustandsgrößen<br />
(Druck, Temperatur, chemisches Potential)<br />
Der Ausgleich findet durch Anpassung zugeordneter additiver Größen<br />
statt<br />
❀ extensive Zustandsgrößen<br />
(Volumen, ?<br />
(muss mit Wärme<br />
zu tun haben)<br />
, Teilchenzahl)<br />
(Das Produkt zusammengehöriger intensiver <strong>und</strong> extensiver Zustandsgrößen<br />
hat die Dimension einer Energie!)<br />
In der Wärmelehre werden Systeme durch ihre Zustandsgrößen charakterisiert:<br />
mechanischer Wärme- Teilchen-<br />
Ausgleich Ausgleich Ausgleich<br />
intensiv Druck Temperatur<br />
Entropie“ S<br />
extensiv Volumen ”<br />
dS = δQ/T<br />
Dazu kommt noch: Energie (extensive Zustandsgröße)<br />
( ” freie Energie, Enthalpie, . . .“)<br />
1.1.5 Thermodynamisches Gleichgewicht<br />
” chemisches Potential“<br />
Teilchenzahl<br />
Bringt man Systeme in Kontakt <strong>und</strong> schließt sie dann nach außen ab (keine<br />
weitere Energie- bzw. Teilchenzufuhr), so stellt sich nach genügend langer<br />
Zeit ein makroskopisch stationärer Zustand ein: Gleichgewicht<br />
Im Gleichgewicht beobachtet man eindeutige Beziehungen zwischen den Zustandsgrößen:<br />
Zustandsgleichungen<br />
Beispiel: Zustandsgleichungen des idealen Gases<br />
p V = N kB T ; Innere Energie U = 3<br />
2 N kB T<br />
Gleichgewicht unabhängig von Entstehungsgeschichte<br />
(kein ” Gedächtnis“)
1.1. BEGRIFFE UND KONZEPTE 15<br />
1.1.6 Reversibilität <strong>und</strong> Irreversibilität<br />
Gedankenexperiment: Betrachte Gas in ” Druckbehälter“,<br />
Serie von Zustandsänderungen<br />
(i)<br />
(ii)<br />
Endzustand = Anfangszustand<br />
irreversibel<br />
(mechanische Energie geht unwiederbringlich verloren.<br />
Zustandsänderungen können nicht umgekehrt ablaufen.)<br />
Infinitesimale Schritte<br />
(infinitesimale Gewichte)<br />
→ Unterschied zwischen Anfangs- <strong>und</strong> Endzustand sehr klein<br />
nahezu reversibel<br />
Fazit: Reversible Zustandsänderungen sind nur möglich, wenn das System<br />
ständig nahezu im thermodynamischen Gleichgewicht gehalten wird.<br />
Sobald es aus dem Gleichgewicht kommt: Irreversible Änderungen<br />
(z.B. Prozess läuft nur in eine Richtung ab.)<br />
❀ ” Zweiter Hauptsatz der <strong>Thermodynamik</strong>“<br />
Verschiedene Formulierungen<br />
- ” Es gibt kein ” perpetuum mobile 2. Art“, bei dem Arbeit nur durch<br />
Abkühlung eines Reservoirs gewonnen werden kann.“<br />
- ” Bei irreversiblen Prozessen nimmt die Entropie zu.“<br />
(Zeitpfeil)<br />
- etc.<br />
Darauf kommen wir noch (ausgiebig!) zurück.
16 KAPITEL 1. REKAPITULATION EMPIRISCHER TATSACHEN
Kapitel 2<br />
Mikroskopischer Zugang:<br />
Gr<strong>und</strong>lagen der statistischen<br />
<strong>Physik</strong><br />
c○ Copyright 2005 Friederike Schmid 1<br />
2.1 Mikroskopische Dynamik<br />
Ausgangspunkt: Klassische Mechanik oder Quantenmechanik<br />
Zunächst: Klassische Mechanik<br />
2.1.1 Mikroskopische Charakterisierung eines Systems<br />
• N Teilchen, Positionen {q1, · · · qN} ≡ q, Impulse {p1, · · · pN} ≡ p<br />
• Phasenraum Ω = {Γ} mit Γ = (q, p): Phasenraumpunkt<br />
Ein Phasenraumpunkt enthält alle Information über einen mikroskopischen<br />
Zustand, legt bei spezifizierter Dynamik die komplette Trajektorie<br />
Γ(t) fest:<br />
Γ = Γ(t; Γ0) mit Γ0 : Anfangsbedingung<br />
• De facto sind Anfangsbedingungen nie ganz genau bekannt, sondern nur innerhalb<br />
einer gewissen Verteilung<br />
→ Phasenraumdichte ϱ(Γ, t) = ϱ(q, p, t)<br />
⇒ ϱ(q, p, t) d3Nq d3N <br />
Wahrscheinlichkeit, (q, p) zur Zeit t in<br />
p =<br />
Volumenelement d3Nq d3Np anzutreffen<br />
• Dynamik <strong>und</strong> Bewegungsgleichungen<br />
Hamiltonfunktion H (p, q)<br />
Hamiltonsche Bewegungsgleichungen: ˙ q = ∂H<br />
∂pn ; ˙ p = − ∂H<br />
∂qn<br />
legen den zeitlichen<br />
Verlauf nach Vorgabe der Anfangsbedingungen fest.<br />
1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />
Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />
17
18 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.1.2 Eigenschaften der Dynamik<br />
• zeitlich reversibel<br />
• Liouvillescher Satz: Phasenraumdichte entlang einer Trajektorie<br />
bleibt erhalten: ϱ(Γ(t); t) = const. (2.1)<br />
(Herleitung aus Hamiltongleichungen <strong>und</strong> Kontinuitätsgleichung:<br />
- Definiere Hamiltonschen Fluss: ˙ Γ = (˙q, ˙p) = ( ∂H<br />
∂p<br />
, −∂H<br />
∂q<br />
) (2.2)<br />
- Der Hamiltonsche Fluss ist inkompressibel: div ˙ Γ = 0 (2.3)<br />
( ∇ ˙<br />
<br />
ΓΓ = (<br />
n<br />
∂ ˙qn<br />
∂qn<br />
- Kontinuitätsgleichung: ∂<br />
∂t ϱ = −∇Γ (ϱ ˙ Γ)<br />
<br />
Strom<br />
⇒ d<br />
∂ϱ<br />
dtϱ(Γ(t); t) = ∂t + (∇Γ ϱ) ˙ Γ = ∂ϱ<br />
∂t + ∇Γ (ϱ ˙ Γ) − ϱ ∇ ˙<br />
ΓΓ <br />
∂ ˙pn<br />
+ ∂pn ) = ( ∂2H ∂qn∂pn − ∂2H ) = 0 )<br />
∂pn∂qn<br />
0<br />
= 0 )<br />
• Falls H nicht explizit zeitabhängig: Energieerhaltung<br />
Trajektorien liegen auf Hyperfläche H (p, q) ≡ E im Phasenraum<br />
• Eventuell Impulserhaltung, Drehimpulserhaltung etc.<br />
• Falls H integrabel (d.h. es gibt 3N Konstanten der Bewegung):<br />
Trajektorien liegen auf 3N-dimensionalen Mannigfaltigkeiten ( ” Tori“)<br />
Phasenraum 6N-dimensional<br />
Energiefläche (6N-1)-dimensional (H (p, q) ≡ E)<br />
Tori 3N-dimensional<br />
Beispiel: linear gekoppelte harmonische Oszillatoren<br />
• Häufig wird stattdessen Ergodizität angenommen:<br />
Trajektorien berühren ” fast“ alle Punkte der Energiefläche<br />
für ” fast“ alle Anfangsbedingungen Γ0<br />
( ” fast“ = bis auf eine Menge vom Maß 0)<br />
2.1.3 Bedeutung der Ergodizitätsannahme<br />
• ” Tiefe“ Eigenschaft, allgemeine Voraussetzungen schwer zu zeigeh<br />
(2.4)<br />
• Ergodizität ist schwächste Form der Unordnung in einem nichtlinearen System
2.1. MIKROSKOPISCHE DYNAMIK 19<br />
Für σ ⊂ Ω, σ ′ ⊂ Ω <strong>und</strong> σ −→<br />
Zeitentwicklung t σt<br />
gilt: µ(σ) µ(σ<br />
µ(Ω) = lim<br />
t→∞<br />
′ ∩σt)<br />
µ(σ ′ )<br />
mit µ: Maß<br />
Benachbarte Trajektorien (Abstand dΓ(t))<br />
entfernen sich exponentiell voneinander<br />
lim ) = h > 0<br />
t→∞<br />
1<br />
t<br />
ln( dΓ(t)<br />
dΓ0<br />
(positiver Lyapunov-Exponent)<br />
• Ergodentheorem:<br />
Ist ein System ergodisch, so gilt für beliebige glatte“ Messgrößen A (Γ(t))<br />
”<br />
(z.B. Einteilchendichte: A (x, t) = N<br />
δ(x − qn(t))<br />
1 lim<br />
T →∞<br />
T<br />
T<br />
dt A (t) = <br />
dµ(Γ) A (Γ)<br />
0<br />
” Zeitmittel“ = ” Scharmittel“<br />
Ω<br />
n=1<br />
dµ = d3Nq d3N <br />
p δ(H (Γ)−E)<br />
d<br />
Ω<br />
3Nq d3Np δ(H (Γ)−E)<br />
(normiertes Maß)<br />
(2.5)<br />
(Mathematisch etwas präzisere Formulierung:<br />
Ist der Phasenraum Ω bezüglich eines endlichen, normierten Maßes µ<br />
metrisch unzerlegbar, d.h. es gibt keine Zerlegung Ω = Ω1 ∪ Ω2 mit<br />
Ωi −→<br />
Zeitentwicklung t Ωi <strong>und</strong> µ(Ωi) = 0 für i = 1, 2 <strong>und</strong> ist das Maß µ bzgl.<br />
der Zeitentwicklung t invariant (Liouvillesatz), dann gilt (2.5) für glatte,<br />
integrable Funktionen A .)<br />
Folgerung: Bei einer makroskopischen Messung wird die Messgröße A (p, q)<br />
immer über einen Zeitraum gemittelt. Spezifische Zeitpunkte“ sind expe-<br />
”<br />
rimentell prinzipiell nicht zugänglich. Wenn nur die Ergodizitätsannahme<br />
erfüllt <strong>und</strong> die Zeiträume genügend lange sind, können zur Berechnung<br />
der Messgröße auch Scharmittel herangezogen werden.<br />
¯<br />
A =<br />
<br />
Ω<br />
dµ(Γ)A (Γ) = 〈A 〉µ<br />
⇒ Messgrößen ↔ Mittelwerte <strong>und</strong> Schwankungen<br />
Begründung der <strong>Statistische</strong>n Mechanik<br />
Alternatives Argument (auf das wir noch quantitativer zutückkommen werden)<br />
Da der mikroskopische Zustand nicht bekannt ist, müssen wir jeden möglichen<br />
mikroskopischen Zustand im Prinzip als gleichwahrscheinlich annehmen.<br />
(probabilistischer Zugang, Prinzip des kleinsten Vorurteils,<br />
geht zurück auf Gibbs, Einstein, Tolman)<br />
→ Führt zu den gleichen Scharmitteln, nur andere Interpretation<br />
Messgrößen werden als Zufallsvariablen aufgefasst.
20 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.2 Einschub: Kurze Einführung in die Wahrscheinlichkeitstheorie<br />
2.2.0 Einleitung<br />
2.2.0.1 Fragestellungen<br />
Situation: Das Ergebnis eines Versuchs lässt sich nicht genau vorhersagen.<br />
• Prinzipiell; falls ein Kontinuum an Messwerten möglich ist:<br />
Punkte im Kontinuum sind physikalisch nicht messbar.<br />
• Selbst wenn nur diskrete Messwerte möglich sind, lässt sich meistens<br />
nicht h<strong>und</strong>ertprozentig vorhersagen, wie ein Versuch ausgehen wird.<br />
(Krasses Beispiel: Wurf einer Münze)<br />
⇒ Üblicherweise sagt man, man erhält ein bestimmtes Ergebnis mit einer<br />
gewissen ” Wahrscheinlichkeit“. Was meint man damit?<br />
Präzisierungsversuch:<br />
” Wahrscheinlichkeit“ eines Ereignisses Ei<br />
• = relative Häufigkeit dieses Ergebnisses nach ∞ vielen Versuchen<br />
❀ ” p(Ei) = lim<br />
N→∞<br />
n(Ei)<br />
N<br />
Probleme mit dieser ” Definition“<br />
“<br />
• Setzt voraus, dass im Prinzip unendlich viele Versuche durchgeführt<br />
werden könnten ↔ de facto nicht möglich<br />
• Selbst wenn man davon absieht, ist die Definition nicht kompatibel<br />
mit der mathematischen Definition eines Grenzwertes.<br />
Cauchy-Kriterium: lim xn = x =<br />
n→∞ Def. ∀ε > 0 ∃N0 > 0 : |xn − x| < ε ∀n > N0<br />
Das kann bei einer Zufallsfolge nicht erfüllt sein!<br />
⇒ Fragen: (A) Was bedeutet ” Wahrscheinlichkeit“? (stehen<br />
(B) Wie ermittelt man Wahrscheinlichkeiten? lassen!)<br />
Diskutiere zunächst (B)<br />
2.2.0.2 Frage (B): Wie ermittelt man Wahrscheinlichkeiten?<br />
Es gibt keinen rigorosen Zugang. Man muss Annahmen machen.<br />
Fall (B1) Häufig ” klassische“ Annahme:<br />
Die Wahrscheinlichkeit ist gleichverteilt auf sogenannte Elementarereignisse.<br />
Fall (B2) Klassische Annahme einfachstmögliche Vermutung, muss eventuell<br />
auf der Basis bisheriger Erfahrungen oder physikalischer Kenntnisse modifiziert<br />
werden.
2.2. WAHRSCHEINLICHKEITSTHEORIE 21<br />
Beispiele für Fall (B1): Klassische Wahrscheinlichkeiten<br />
(i) Wurf einer Münze<br />
Elementarereignisse: Wappen (W) oder Zahl (Z)<br />
⇒ P (W ) = P (Z) = 1<br />
2<br />
(ii) Gegeben Schüssel mit zwei weißen <strong>und</strong> zwei schwarzen Kugeln. Ziehe zwei<br />
davon: Mit welcher Wahrscheinlichkeit erwischt man zwei weiße, zwei<br />
schwarze, eine schwarze <strong>und</strong> eine weiße Kugel?<br />
Elementarereignisse:<br />
(1,2) (2,1) (3,1) (4,1)<br />
(1,3) (2,3) (3,2) (4,2)<br />
(1,4) (2,4) (3,4) (4,3)<br />
⇒ 12 Fälle,<br />
P (i, j) = 1<br />
12<br />
Aber: P (••) = P (1, 2) + P (2, 1) = 2/12 = 1/6;<br />
P (◦◦) = P (3, 4) + P (4, 3) = 1/6;<br />
P {(•◦), (◦•)} = alle anderen Fälle = 8/12 = 2/3<br />
Allgemeine Regel für ein beliebiges ” nicht elementares“ Ereignis E<br />
P (E) =<br />
Anzahl der günstigen Fälle<br />
Anzahl der möglichen Fälle<br />
(iii) N Würfe einer Münze;<br />
Mit welcher Wahrscheinlichkeit erhält man n Mal Wappen?<br />
- Mögliche Fälle: 2 N<br />
- Günstige Fälle : N!<br />
n!(N−n)!<br />
(Beweis: Verteile n Wappen auf N Würfe → N(N − 1) · · · (N − n + 1) Möglichkeiten.<br />
” Reihenfolge“ der Wappen egal → je n! Möglichkeiten äquivalent.)<br />
⇒ P (n) = 1 N 2<br />
mit<br />
<br />
N<br />
=<br />
n<br />
N<br />
n<br />
<br />
N!<br />
n!(N − n)!<br />
(2.6)<br />
(2.7)<br />
: Binomialkoeffizient (2.8)<br />
Allgemein: Klassische Wahrscheinlichkeiten werden in der Regel mit den<br />
Methoden der Kombinatorik berechnet:<br />
• Aus N verschiedenen Elementen lassen sich n verschiedene Elemente<br />
– herausgreifen (ohne Rücksicht auf Anordnung) ( ” Kombinationen“)<br />
auf<br />
N(N − 1) · · · (N − n + 1)<br />
n!<br />
=<br />
N!<br />
n!(N − n)! =<br />
<br />
N<br />
<br />
n<br />
verschiedene Weisen (2.9)<br />
– herausgreifen <strong>und</strong> anordnen ( ” Variationen“)<br />
auf<br />
<br />
N<br />
<br />
N!<br />
n! =<br />
n (N − n)!<br />
verschiedene Weisen (2.10)
22 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
• Darf von N verschiedenen Elementen jedes beliebig oft vorkommen, so lassen sich n<br />
Elemente<br />
– herausnehmen ( ” Kombinationen mit Wiederholung“)<br />
auf<br />
<br />
N +n−1<br />
<br />
=<br />
n<br />
N(N + 1)(N + 2) · · · (N + n − 1)<br />
n!<br />
versch. Weisen (2.11)<br />
– herausnehmen <strong>und</strong> anordnen ( ” Variationen mit Wiederholung“)<br />
auf N n verschiedene Weisen (2.12)<br />
(iv) Gegeben Schüssel mit (N − M) weißen <strong>und</strong> M schwarzen Kugeln. Ziehe n<br />
davon: Mit welcher Wahrscheinlichkeit P (m) erwischt man dabei genau<br />
m schwarze Kugeln?<br />
P (m) =<br />
M<br />
m<br />
N − M<br />
n − m<br />
<br />
N<br />
n<br />
Hypergeometrische Verteilung<br />
(2.13)<br />
(Beweis: Es gibt N Möglichkeiten, aus N Kugeln n auszuwählen (= Anzahl der möglichen<br />
n<br />
Ereignisse). Günstig davon sind solche Ereignisse, in denen m Kugeln schwarz <strong>und</strong> n − m Kugeln<br />
weiß sind. In der Schüssel sind M schwarze <strong>und</strong> N −M weiße, <strong>und</strong> es gibt M N−M bzw. m<br />
n−m<br />
Möglichkeiten, m schwarze bzw. n − m weiße Kugeln aus den M bzw. N − M vorhandenen<br />
herauszuziehen. Jede Möglichkeit für schwarz kann mit jeder Möglichkeit für weiß kombiniert<br />
werden, sodass für das betrachtete Ereignis MN−M Fälle günstig sind. )<br />
m n−m<br />
Anwendung in der statistischen Qualitätskontrolle: P (m) = Wahrscheinlichkeit dafür, dass eine<br />
Stichprobe vom Umfang n, die man aus einer Charge von N Einheiten, davon M fehlerhaft,<br />
zieht, genau m fehlerhafte Einheiten enthält.<br />
(v) Gegeben Schüssel mit (N −M) weißen <strong>und</strong> M schwarzen Kugeln. Ziehe solange,<br />
bis m schwarze gezogen sind: Mit welcher Wahrscheinlichkeit P (n)<br />
werden dabei genau n Kugeln entnommen?<br />
P (n) =<br />
(Beweis?)<br />
<br />
n − 1 N − n<br />
<br />
N negative (inverse) hyper-<br />
m − 1 M − m M geometrische Verteilung<br />
Anwendung: Optimales Stoppen stochastischer Prozesse<br />
(2.14)<br />
Beispiele für Fall (B2): Modifizierte klassische Wahrscheinlichkeiten<br />
(i) ” Quantenkugeln“: Wieder Schüssel mit zwei weißen <strong>und</strong> zwei schwarzen<br />
Kugeln, aber: Kugeln gleicher Farbe seien ununterscheidbar.<br />
Kugeln werden gleichzeitig gezogen.<br />
Elementarereignisse sind nun (••), (◦◦), (◦•)<br />
⇒ P (••) = P (◦◦) = (◦•) = 1/3<br />
(NB: ziemlich subtil. Falls Kugeln nicht gleichzeitig gezogen würden, hätte man stattdessen<br />
P (••) = P (◦◦) = P (◦•) = P (•◦) = 1/4!)
2.2. WAHRSCHEINLICHKEITSTHEORIE 23<br />
(ii) Verbogene Münze: N Würfe einer Münze, aber Münze ist gezinkt.<br />
Aus vergangenen Beobachtungen vermutet man, dass die Münze mit<br />
Wahrscheinlichkeit p auf Wappen fällt <strong>und</strong> mit (1 − p) auf Zahl.<br />
⇒ Wahrscheinlichkeit, n Mal Wappen zu werfen:<br />
P (n) = p n (1 − p) N−n<br />
<br />
N<br />
n<br />
Binomialverteilung (2.15)<br />
(Beweis: Der erste Faktor pn (1 − p) N−n ist die Wahrscheinlichkeit, überhaupt n Mal<br />
Wappen <strong>und</strong> (N-n) Mal Zahl zu werfen. Der zweite Faktor N ist die Zahl der Möglich-<br />
n<br />
keiten, in N Würfen n Mal Wappen zu erhalten. )<br />
Anwendungen: u.a. in der statistischen Qualitätskontrolle (Anzahl der Ausschussstücke)<br />
Abstraktion:<br />
Bernoulli-Experiment (Bernoulli trial) = Serie von unabhängigen<br />
Versuchswiederholungen, wobei man sich nur dafür interessiert, ob<br />
ein ” Erfolg“ eingetreten ist oder nicht.<br />
P (n) = Wahrscheinlichkeit dafür, dass bei N-maliger unabhängiger<br />
Wiederholung eines Versuchs mit der Erfolgswahrscheinlichkeit p genau<br />
n Erfolge eintreten.<br />
Grenzfall N → ∞, p → 0, Np = λ<br />
−λ λn<br />
⇒ P (n) → e<br />
n!<br />
Poisson-Verteilung (2.16)<br />
(Beweis: P (n) = ( λ<br />
N )n (1 − λ<br />
N )N−n N<br />
n<br />
= λn (1 − λ<br />
N )N<br />
<br />
→e−λ (1 − λ<br />
N )−n N<br />
<br />
→1<br />
−n 1<br />
N(N − 1) · · · (N − n + 1)<br />
n!<br />
→1<br />
)<br />
Anwendungen: Wahrscheinlichkeit für das Eintreten von n seltenen Ereignissen, z.B.<br />
Autos auf einem Straßenstück pro Zeiteinheit, Telefongesprächen in einer Zelle pro Zeit-<br />
einheit, Störungen pro Telefongerät, größeren Streiks in Großbritannien pro Woche,<br />
Druckfehlern pro Seite einer Zeitung, K<strong>und</strong>en in einem Büro pro Zeiteinheit, in eine<br />
Klinik eingelieferte Patienten pro Nacht, weißen Blutkörperchen pro kleine Blutprobe,<br />
atomaren Zerfällen in einer Substanz pro Zeiteinheit, durch Hufschlag getöteten Soldaten<br />
pro Jahr (Bortkiewicz um 1900), Blitzen pro Gewitter, im F<strong>und</strong>büro abgegebenen Ge-<br />
genständen pro Tag, Unfällen eines Arbeiters pro Jahr, Defekten auf einem Drahtstück<br />
pro Längeneinheit, Schmutzpartikeln auf einer lackierten Fläche, Bläschen auf einer op-<br />
tischen Linse, <strong>und</strong> vielen anderen seltenen Ereignissen<br />
Approximation der Binomialverteilung:<br />
Für große N <strong>und</strong> kleine p: Poissonverteilung<br />
Für große N <strong>und</strong> p nicht sehr nahe bei 0 oder 1:<br />
⇒ P (n) ≈ 1<br />
σ √ (n−µ)2<br />
e− 2σ<br />
2π 2<br />
Gaußverteilung mit µ = Np<br />
<strong>und</strong> σ 2 = Np(1 − p)<br />
(2.17)<br />
(Beweis <strong>und</strong> Anwendungen später im Rahmen des Grenzwertsatzes der Wahr-<br />
scheinlichkeitstheorie)
24 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
(iii) Gegeben Bernoulli-Experiment mit Erfolgswahrscheinlichkeit p bzw. Misserfolgswahrscheinlichkeit<br />
q = 1−p. Mit welcher Wahrscheinlichkeit P (m)<br />
gibt es m Misserfolge vor dem ersten Erfolg?<br />
P (m) = q m (1 − q) geometrische Verteilung (2.18)<br />
(Beweis: Produkt-Wahrscheinlichkeit bei statistischer Unabhängigkeit)<br />
Verallgemeinerung: Wahrscheinlichkeit P (m) für m Misserfolge vor dem<br />
v-ten Erfolg:<br />
<br />
v + m − 1<br />
P (m) =<br />
q<br />
m<br />
m (1 − q) v<br />
(Beweis?)<br />
(Spezialfall v = 1: m qm (1 − q) = qm (1 − q) )<br />
m<br />
negative Binomialverteilung (2.19)<br />
2.2.0.3 Frage (A): Was ” ist“ überhaupt Wahrscheinlichkeit?<br />
” Antwort“: Kontroverse Diskussion<br />
- Pragmatisch: Schätzwert für relative Häufigkeiten, Prognose für Messergebnisse<br />
- Axiomatisch: Man kann sich der Diskussion entziehen, indem man eine Größe<br />
” Wahrscheinlichkeit“ mit bestimmten Eigenschaften einfach postuliert →<br />
Axiomatischer Zugang.<br />
Ziel: Definition einer mathematischen Struktur, die unseren intuitiven<br />
Begriff von ” Messergebnis“ <strong>und</strong> ” Wahrscheinlichkeit“ präzisiert.<br />
Im allgemeinen wird davon ausgegangen, dass die physikalische Welt<br />
kontinuierlich ist. Punkte im Kontinuum sind jedoch nicht messbar.<br />
→ Eine passende mathematische Struktur muss auf ” Intervallen“<br />
bzw. auf Teilmengen aufbauen (Kolmogorov 1903-1987).<br />
2.2.1 Wahrscheinlichkeitsraum<br />
Ein Wahrscheinlichkeitsraum (Ω, F , µ) ist definiert durch:<br />
• Die Menge Ω der möglichen Ergebnisse eines Versuchs<br />
• Die σ-Algebra F der möglichen Ereignisse:<br />
Menge von Teilmengen von Ω mit den Eigenschaften:<br />
- Ω ∈ F<br />
- Falls A ∈ F ⇒ Ω/A ∈ F<br />
- Falls A, B ∈ F ⇒ A ∩ B ∈ F<br />
- Falls Ai ∈ F für i = 1, 2, . . . ⇒ ∞<br />
i=1 Ai ∈ F
2.2. WAHRSCHEINLICHKEITSTHEORIE 25<br />
• Ein Wahrscheinlichkeitsmaß µ = Wahrscheinlichkeit eines Ereignisses<br />
Beispiele:<br />
Funktion µ : F −→ R + mit den Eigenschaften<br />
µ(∅) = 0, µ(Ω) = 1<br />
µ( ∞<br />
Ai) = ∞<br />
µ(Ai), falls Ai ∩ Aj = ∅ für alle i, j<br />
i=1<br />
i=1<br />
(i) Diskreter Wahrscheinlichkeitsraum: Wurf einer Münze<br />
· Ω = {Wappen, Zahl}<br />
· F = {W, Z} , {}<br />
<br />
, {Z} , {W }<br />
<br />
<br />
Wappen<br />
oder Zahl<br />
weder Wappen<br />
noch Zahl<br />
Zahl Wappen<br />
· µ({W, Z}) = 1; µ({}) = 0; µ({Z}) = p; µ({W }) = 1 − p<br />
(klassische Annahme: p = 1 − p = 1<br />
2 )<br />
(ii) Kontinuierlicher Wahrscheinlichkeitsraum:<br />
- Mikroskopischer Zustand eines klassischen N-Teilchensystems<br />
z.B. 1 Teilchen in 1 Dimension<br />
Boxlänge L, Boltzmannverteilung<br />
dµ(x, p) = dx dp 1<br />
L e−p2 <br />
/2kBT m 1<br />
2πkBT m<br />
<br />
Normierung<br />
2.2.2 Bedingte Wahrscheinlichkeit<br />
<strong>und</strong> <strong>Statistische</strong> Unabhängigkeit<br />
• Unbedingte Wahrscheinlichkeit:<br />
P (A) = µ(A) (2.20)<br />
• Bedingte Wahrscheinlichkeit:<br />
P (A|B) =<br />
µ(A ∩ B)<br />
µ(B)<br />
(Wahrscheinlichkeit, dass A eintritt, falls feststeht, dass B eintritt)<br />
Beispiel: Schüssel mit 2 weißen <strong>und</strong> schwarzen Kugeln<br />
(2.21)<br />
Wahrscheinlichkeit, als zweites eine weiße Kugel zu ziehen, wenn<br />
erste schon weiß war<br />
Analyse: Ω = {(◦◦), (◦•), (•◦), (••)};<br />
µ({◦◦}) = µ({••}) = 1<br />
1<br />
6 ; µ({◦•}) = µ({•◦}) = 3<br />
Ereignisse: E1 = 1. Kugel weiß“ = {(◦◦), (◦•)}<br />
”<br />
E2 = 2. Kugel weiß“ = {(◦◦), (•◦)}<br />
” =<br />
⇒ P (E2|E1) = µ(E1∩E2)<br />
µ(E1)<br />
µ({(◦◦)}) 1/6 1<br />
µ({(◦◦)},{(◦•)}) = 1/6+1/3 = 3
26 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
• <strong>Statistische</strong> Unabhängigkeit: Zwei Ereignisse heißen statistisch unabhängig,<br />
falls<br />
P (A|B) = P (A) ⇔ P (A ∩ B) = P (A) · P (B) (2.22)<br />
2.2.3 Zufallsvariablen <strong>und</strong> Wahrscheinlichkeitsverteilung<br />
• Zufallsvariable: µ-integrable Funktion Z :<br />
Notation: Unterstrichene (Groß)buchstaben<br />
Beispiele:<br />
Ω → R<br />
ω → Z(ω)<br />
- Münzwurf: ” Gewinn“, etwa G(Zahl) = 10 (Euro), G(Wappen) = 0<br />
- Teilchen in der Box: Kinetische Energie E = Ek = p 2 /2m<br />
• Wahrscheinlichkeitsverteilungen<br />
∗ (Kumulative) Verteilungsfunktion (distribution function)<br />
F Z (z) := P (Z(ω) ≤ z) = µ {ω ∈ Ω : Z(ω) ≤ z} <br />
(2.23)<br />
NB: Es gilt: F Z (−∞) = 0, F Z (∞) = 1 (2.24)<br />
Beispiele:<br />
⎧<br />
⎪⎨ 0 : g < 0<br />
- Gewinn beim Münzwurf: FG (g) = 1<br />
⎪⎩<br />
2<br />
1<br />
:<br />
:<br />
0 ≤ g < 10<br />
g ≥ 10<br />
- Kinetische Energie eines Teilchens in der Box:<br />
F E (ε)= <br />
ε
2.2. WAHRSCHEINLICHKEITSTHEORIE 27<br />
Bemerkung: (R, B, f Z (z)dz) ist dann wieder ein Wahrscheinlichkeitsraum,<br />
wobei B: Offene Intervalle auf R (Borel-Menge)<br />
• Multidimensionale Verteilungen<br />
Erweiterung von (2.25) auf mehrere Zufallsvariablen Z 1 · · · Z n:<br />
f Z1 ···Z n (z1 · · · zn)dz1 · · · dzn = µ {ω ∈ Ω : Z i(ω) ∈ [zi, zi + dzi]} (2.27)<br />
Analog zu (2.22) heißen Zufallsvariablen statistisch unabhängig, wenn<br />
die Verteilung faktorisiert:<br />
f Z1 ···Z n (z1 · · · zn) = f Z1 (z1) · · · f Zn (zn) (2.28)<br />
2.2.4 Erwartungswert, Streuung, Korrelationen<br />
• Erwartungswert einer Zufallsvariablen Z:<br />
<br />
(falls Integral existiert) 〈Z〉 =<br />
Ω<br />
Z(ω) dµ(ω) =<br />
• Erwartungswert einer beliebigen Funktion g(Z):<br />
(falls Integral existiert) 〈g(Z)〉 =<br />
• Streuung oder Varianz:<br />
σ 2<br />
Z =<br />
<br />
(Z − 〈Z〉) 2<br />
= 〈Z 2 〉 − 〈Z〉 2<br />
∞<br />
−∞<br />
∞<br />
−∞<br />
dz z f Z (z) (2.29)<br />
dz g(z) f Z (z) (2.30)<br />
(2.31)<br />
• Korrelation zweier Zufallsvariablen Z1, Z2: <br />
<br />
KZ1Z =<br />
2<br />
(Z1 − 〈Z1〉)(Z2 − 〈Z2〉) = 〈Z1Z 2〉 − 〈Z1〉 〈Z2〉 (2.32)<br />
mit 〈Z 1Z 2〉 =<br />
∞<br />
−∞<br />
dz1 dz2 z1 z2 f Z1 Z 2 (z1, z2) (2.33)<br />
K Z1 Z 2 ist Kenngröße dafür, ob zwei Variablen statistisch abhängig sind.<br />
(Für statistisch unabhängige Z 1, Z 2 gilt K Z1 Z 2 = 0 )
28 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
• Spezielle Erwartungswerte<br />
(i) Verteilung von Funktionen einer zufälligen Variablen<br />
Gegeben Funktion h(Z) einer Zufallsvariablen Z<br />
→ Y = h(Z) ist neue Zufallsvariable <strong>und</strong> verteilt nach:<br />
<br />
fY (y) = δ h(Z)−y <br />
<br />
= dz δ h(z)−y fZ (z) (2.34)<br />
∞<br />
(denn: dann gilt für alle Erwartungswerte 〈g(Y )〉 = dy g(y) fY (y)<br />
−∞<br />
∞<br />
∞<br />
= dy g(y) dz δ<br />
−∞ −∞<br />
h(z)−y ∞<br />
fZ (z) = dz fZ (z) g<br />
−∞<br />
h(z) )<br />
Speziell Y = Z: Verteilung als Erwartungswert<br />
f Z (z) = δ(Z − z) ❀ F Z (z) = θ(Z − z) <br />
(ii) Charakteristische Funktion (Fouriertransformierte von f Z (z))<br />
χ Z (k) := 〈e ikZ 〉 =<br />
<br />
∞<br />
−∞<br />
dz f Z (z)e ikz<br />
Bedeutung: Generiert Momente <strong>und</strong> Kumulanten von Z<br />
- Momente: 〈Z n n dn<br />
〉 = (−i)<br />
- Kumulanten: C (n)<br />
Z<br />
C (2)<br />
Z<br />
= − d<br />
dk<br />
〈iZe ikZ 〉<br />
〈e ikZ 〉<br />
dkn χ Z (k)<br />
<br />
<br />
dn<br />
= (−i)n<br />
<br />
<br />
<br />
k=0<br />
<br />
=(−i)<br />
n<br />
〈 d<br />
k=0<br />
n<br />
dkn eikZ<br />
〉<br />
k=0<br />
dkn ln(χ Z (k))<br />
<br />
<br />
z.B. C (0)<br />
k=0<br />
Z = ln〈eikZ 〉<br />
C (1)<br />
Z = −i 〈iZeikZ 〉<br />
〈eikZ 〉<br />
=− 〈−Z2e ikZ 〉〈e ikZ 〉+〈iZe ikZ 〉 2<br />
〈eikZ 〉 2<br />
<br />
<br />
<br />
k=0 <br />
<br />
<br />
k=0 <br />
<br />
<br />
k=0<br />
<br />
<br />
(2.35)<br />
(2.36)<br />
(2.37)<br />
(2.38)<br />
= 0 (2.39)<br />
= 〈Z〉 (2.40)<br />
= σ 2<br />
Z<br />
(iii) Verallgemeinerungen auf mehrere Zufallsvariablen Z 1, · · · Z n<br />
f Z1 ···Z n (z1 · · · zn) =<br />
n <br />
j=1<br />
<br />
δ(Zj − zj)<br />
<br />
δ(Zj −zj)<br />
= n<br />
<br />
j=1<br />
<br />
falls Zj unabhängig<br />
i<br />
χ (k1 · · · kn) = e<br />
Z1 ···Zn n<br />
kj Zj <br />
<br />
j=1<br />
e ikj Z <br />
j<br />
z.B. K Z1 Z 2 = − d2<br />
dk1dk2<br />
ln χ Z1 Z 2<br />
<br />
<br />
(k1k2)<br />
= n<br />
j=1<br />
k1=k2=0<br />
(2.41)<br />
(2.42)<br />
(2.43)<br />
(2.44)
2.2. WAHRSCHEINLICHKEITSTHEORIE 29<br />
2.2.5 Spezielle Verteilungen<br />
Name Verteilungs- Mittel- Streuung Charakteristidichtefunktion<br />
wert sche Funktion<br />
Allgemein f Z (z) = 〈δ(z − Z)〉 〈Z〉 〈Z 2 〉 − 〈Z〉 2 χ Z (k) = 〈e ikZ 〉<br />
Einpunkt-<br />
Verteilung<br />
n-Punkt-<br />
Verteilung<br />
Hypergeometrische<br />
Verteilung<br />
Negative<br />
hyperg.V.<br />
Binomial-<br />
Verteilung<br />
Poisson-<br />
Verteilung<br />
negative<br />
Binomialv.<br />
geometr.<br />
Verteilung<br />
Gleich-<br />
Verteilung<br />
Gauß-<br />
Verteilung<br />
Normal-<br />
Verteilung<br />
χ 2 -<br />
(Helmert-<br />
Pearson-)<br />
Verteilung<br />
F-<br />
(Fisher-)<br />
Verteilung<br />
t-<br />
(Student-)<br />
Verteilung<br />
Exponentialvert.<br />
Gamma-<br />
Verteilung<br />
Cauchy-<br />
(Lorentz-)<br />
Verteilung<br />
δ(z−a) a 0 e ika<br />
n<br />
piδ(z−ai) mit<br />
i=1<br />
n<br />
pi = 1<br />
i=1<br />
min(M,n) <br />
m=max<br />
(0,n+M−N)<br />
m+N−n <br />
N<br />
m=0<br />
∞<br />
m=0<br />
n=m<br />
δ(z−m)<br />
δ(z−n)<br />
<br />
M N−M<br />
m n−m<br />
<br />
N<br />
n<br />
<br />
n−1 N−n<br />
m−1 M−m<br />
<br />
N<br />
M<br />
n<br />
piai<br />
i=1<br />
Mn<br />
N<br />
m(N+1)<br />
M+1<br />
n<br />
i=1<br />
pia2 i −<br />
n 2 piai<br />
i=1<br />
Mn(N−M)(N−n)<br />
N 2 (N−1)<br />
m(N−M)(N+1)(M+1−m)<br />
(M+1) 2 (M+2)<br />
n<br />
pie<br />
i=1<br />
ikai δ(z−m) N pm (1−p) N−m Np Np(1−p) [1−p(1−e m<br />
ik )] N<br />
∞<br />
m=0<br />
δ(z−m)e−λ λm<br />
λ λ exp m! λ(eik −1) <br />
δ(z−m) v+m−1 <br />
qm (1−q) v<br />
m<br />
∞<br />
δ(z−m)q<br />
m=0<br />
m (1 − q)<br />
θ(z − b)θ(z − a) 1<br />
b−a<br />
√<br />
1<br />
e<br />
2πσ − 1 <br />
(z−µ)<br />
2<br />
2 σ2 <br />
1<br />
θ(z) n<br />
2 2 Γ( n )<br />
2<br />
θ(z)<br />
vq<br />
1−q<br />
q<br />
1−q<br />
b+a<br />
2<br />
vq<br />
(1−q) 2 ( 1−q<br />
1−qe ik )v<br />
q<br />
(1−q) 2<br />
(b−a) 2<br />
12<br />
1−q<br />
1−qe ik<br />
e ikb −e ika<br />
ik(b−a)<br />
µ σ 2 e iµk−σ2 k 2 /2<br />
1<br />
√ 2π e −z2 /2 0 1 e −k2 /2<br />
m<br />
mn 2<br />
B( m 2 , n · )<br />
2<br />
Γ( n+1<br />
2 )<br />
Γ( n 2 )√ πn ·<br />
n<br />
2<br />
· z<br />
−1<br />
e − z 2<br />
m−1 2<br />
z<br />
m+n<br />
1+ m x 2<br />
n<br />
1<br />
1+ z 2<br />
n<br />
n+1<br />
2<br />
n 2n 1/ √ 1 − 2ik n<br />
n<br />
, n ≥ 3<br />
n−2<br />
0, n ≥ 2<br />
2n 2 (m+n−2)<br />
m(n−2) 2 , n ≥ 5<br />
(n−4)<br />
n<br />
, n ≥ 3<br />
n−2<br />
θ(z) 1<br />
β e−z/β β β 2 1/(1 − ikβ)<br />
1<br />
θ(z) Γ(α)βα e−z/βzα−1 αβ αβ2 1/(1 − ikβ) α<br />
1<br />
π ·<br />
λ<br />
λ 2 +(z−µ) 2<br />
(existiert<br />
eigentlich<br />
nicht) ” µ“<br />
∞ e iµk−λ|k|
30 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.2.6 Grenzverteilungen <strong>und</strong> zentraler Grenzwertsatz<br />
2.2.6.1 Zentraler Grenzwertsatz nach Lindenberg-Lévy<br />
Seien n unabhängige Zufallsvariablen alle nach derselben Verteilungsdichte fZ < ∞. Dann<br />
verteilt: fZ besitze einen Erwartungswert 〈Z〉 <strong>und</strong> eine Varianz σ2 Z<br />
strebt die Verteilungsdichte fY (y) der Zufallsvariablen<br />
n<br />
Y n = 1<br />
n<br />
n<br />
i=1<br />
Zi − 〈Z〉 / σZ √n<br />
im Grenzwert n → ∞ gegen eine Normalverteilung<br />
lim<br />
n→∞ fY (y) = N (y) :=<br />
n 1<br />
√ e<br />
2π −y2 /2<br />
Beweis: Über charakteristische Funktion χ Z (k) = 〈e ikZ 〉<br />
(2.45)<br />
(2.46)<br />
(Für praktische Zwecke: Normalverteilung gut ab etwa n ∼ 30)<br />
- Definiere X = Z−〈Z〉<br />
√ ⇒ χ (k) = 〈e<br />
σ n<br />
Z<br />
X ik(Z−〈Z〉)/σ √ √<br />
n〉 −ik〈Z〉/σ n<br />
Z = e Z<br />
k<br />
χZ ( √ )<br />
σ n<br />
Z<br />
- Damit ist Y n = n<br />
i=1<br />
- Taylorentwicklung: ln χ X (k) = C (0)<br />
X<br />
mit: C (0)<br />
X<br />
= 0; C(1)<br />
X<br />
n<br />
ik X <br />
i<br />
Xi ⇒ χ (k) = e i=1 =<br />
Y n<br />
unabhängig<br />
= 〈X〉 = 0<br />
C (2)<br />
X = 〈X2 〉 − 〈X〉 2<br />
C (m)<br />
X<br />
<br />
=0<br />
dm<br />
= (−i)m<br />
= (−i) m 1<br />
√<br />
σ n<br />
Z<br />
= 1<br />
σ 2<br />
Z n<br />
m d m<br />
dq m ln<br />
n<br />
i=1<br />
1<br />
+ iC(1) X k − 2 C(2) X k2 + . . .<br />
(Z − 〈Z〉) 2 <br />
<br />
σ 2<br />
Z<br />
dkm <br />
ln eikX <br />
k=0<br />
<br />
eiq(Z−〈Z〉) = 1<br />
n<br />
<br />
eikX n i = χ (k)<br />
X<br />
q=0 ∝ n − m 2 C (m)<br />
Z<br />
√<br />
Setze nun q = k/σZ n<br />
- Einsetzen: χ (k) = exp<br />
X − k2<br />
2n + O(n−3/2 ) <br />
n χ (k) = χ (k) = exp<br />
Y n<br />
X − k2<br />
2 + O(n−1/2 ) −→ exp(<br />
n→∞ −k2<br />
2 )<br />
∞<br />
- Ursprüngliche Verteilung aus Rücktransformation: χ (k) = dy f<br />
Y Y (y)e<br />
−∞<br />
iky<br />
⇒ fY (y) = 1<br />
∞<br />
dk e 2π<br />
−∞<br />
−ikyχ (k) =<br />
Y 1<br />
∞<br />
dk e 2π<br />
−∞<br />
−ikye−k2 /2<br />
(quadratische Ergänzung)<br />
= 1<br />
2π e−y2 ∞<br />
/2 dk e − 1 2 (k+iy)2<br />
−∞<br />
<br />
√<br />
2π<br />
Bemerkung: Gilt auch für nicht identisch verteilte Zufallsvariablen.<br />
<br />
Zusatzbedingung an dritte Momente: lim<br />
n→∞<br />
〈Z 3 1 〉+···〈Z 3 n 〉<br />
σ 2 1 +···σ 2 n<br />
1/2 = 0<br />
Ergänzung: Eine Verteilung, gegen die die Verteilung des Mittelwerts von<br />
n identisch verteilten Zufallsvariablen im Limes n → ∞ strebt, heißt<br />
stabile Grenzverteilung. Auch Verteilungen ohne zweites Moment (z.B.<br />
Cauchy-Verteilung) können stabile Grenzverteilungen haben<br />
→ Lévy-Verteilungen (Lévy, Khintchin).
2.2. WAHRSCHEINLICHKEITSTHEORIE 31<br />
2.2.6.2 Allgemeines zu Lévy-Verteilungen (ohne Beweis)<br />
• Beispiele für Lévy-Verteilungen: Gauß-Verteilung, Poisson-Verteilung, Cauchy-<br />
Verteilung, Gamma-Verteilung<br />
• ” stabil“: Die Summe zweier unabhängiger, Gauß-(bzw. Poisson-/Cauchy-/Gamma-<br />
/. . . ) verteilter zufälliger Variablen ist wieder Gauß-(bzw. Poisson-/Cauchy-<br />
/Gamma-/. . . ) verteilt. ( ” Reproduktivität“)<br />
Äquivalent: Faltung zweier Verteilung(sdicht)en hat wieder die gleiche<br />
Form.<br />
( Für vorgegebene ai, bi gibt es a, b, so dass<br />
∞<br />
f(a1z + b1) ∗ f(a2z + b2) := dζ f(a1(z − ζ) + b1)f(a2ζ + b2) = f(az + b) )<br />
−∞<br />
• Allgemeine Form der charakteristischen Funktion<br />
Eine Zufallsgröße Z ist genau dann stabil, wenn der Logarithmus ihrer<br />
charakteristischen Funktion darstellbar ist in der Form<br />
ln χ (k) = iγk − c|k|<br />
Z α (1 − iβ k<br />
<br />
tan<br />
|k| · ω(k, α)) mit ω(k, α) =<br />
πα<br />
2 α = 1<br />
− 1<br />
π ln k α = 1<br />
wobei γ ∈ R beliebig, c ≥ 0, 0 < α ≤ 2, −1 ≤ β ≤ 1<br />
Bedeutung: γ, c : nicht so wichtig, Lage <strong>und</strong> Skalierung<br />
(z.B. f(z) → f(z − γ) ⇒ χ(k) = 〈e ikZ 〉 → 〈e ik(Z+γ) 〉 = e ikγ χ(k),<br />
für c = 0 besitzt Z eine ausgeartete (Einpunkt-)Verteilung)<br />
α, β : Definieren Form der Funktion<br />
❀ Grenzverteilungen werden durch α, β parametrisiert: Lα,β(z)<br />
α : charakteristischer Exponent ↔ Verhalten bei großen |z|<br />
α < 2 : Lα,β(z) ∼ 1<br />
|z| 1+α für z → ±∞<br />
α = 2 : L2,β(z) Gaußverteilung, unabhängig von β (ω(k, 2) = 0)<br />
Bemerkung: α < 2 : 2. Moment existiert nicht<br />
α < 1 : Erwartungswert existiert nicht<br />
β : Asymmetriefaktor (β = 0 ⇒ Lα,β(z) = Lα,β(−z) gerade)<br />
• Lα,β(z) ist Grenzverteilung genau dann, wenn<br />
α = 2 : fZ(z) hat zweites Moment (zentraler Grenzwertsatz, Gaußverteilung)<br />
α < 2 : fZ(z) ∝ α·aαc± |z| 1+α für z → ±∞ mit c± > 0 <strong>und</strong> a > 0<br />
• Anwendungen<br />
⎧<br />
⎨ c−−c +<br />
c<br />
Dann ist β = ++c− c<br />
⎩ +−c− c ++c− - Phasenübergänge am kritischen Punkt<br />
- Selbstorganisation<br />
(- Börse)<br />
<br />
für α = 1<br />
π(c++c−) α = 1<br />
; c = 2αΓ(α) sin(πα/2)<br />
für α = 1 π<br />
2 (c+ + c−) α = 1
32 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.2.7 ” Dynamik“ von Zufallsvariablen: Stochastische Prozesse<br />
2.2.7.1 Begriffe <strong>und</strong> Definitionen<br />
• Stochastischer Prozess:<br />
” Sich zeitlich ändernde Zufallsgröße Z“<br />
Familie <br />
Zt von Zufallsvariablen mit I = N oder I = R (Indexmenge)<br />
t= Zeit“; I = N= diskrete Zeitschritte, I = R= kontinuierliche Zeit<br />
”<br />
Zugehörige Verteilung(sdicht)en: (gemäß 2.2.4 S.27 <strong>und</strong> 2.2.2 S.25)<br />
- Verteilung(sdichte) zu einer Zeit t: p1(z, t) = 〈δ(z − Z t)〉<br />
- n-Punkt Verteilung(sdichte) zu verschiedenen Zeiten:<br />
pn(zn, tn;···; z2, t2; z1, t1) = 〈δ(z1−Z t1 )δ(z2−Z t2 )··· δ(zn−Z tn )〉<br />
( ” Wahrscheinlichkeitsdichte dafür, dass Z zur Zeit t1 den Wert z1 annimmt <strong>und</strong><br />
zur Zeit t2 den Wert z2 etc. “)<br />
Es gilt (Beweis trivial durch Einsetzen):<br />
∞<br />
−∞<br />
dzn pn(zn, tn;···; z1, t1) = pn−1(zn−1, tn−1;···; z1, t1) (2.47)<br />
- Bedingte Wahrscheinlichkeits(dichte)verteilung<br />
für (Zk+1··· Zk+l) bei vorgegebenem (Z<br />
1··· Zk): Notation: pl|k(zk+l, tk+l;···; zk+1, tk+1<br />
zk, tk;···; z1, t1)<br />
Definition: = pk+l(zk+l, tk+l;···; z1, t1)<br />
pk(zk, tk;···; z1, t1)<br />
• Stationärer Prozess:<br />
” Keine zeitliche Entwicklung“<br />
Für alle n <strong>und</strong> mögliche △t gilt:<br />
(2.48)<br />
pn(zn, tn+△t;···; z1, t1+△t) = pn(zn, tn;···; z1, t1) (2.49)<br />
• Markov-Prozess:<br />
” Kein Gedächtnis“<br />
Stochastischer Prozess, in dem für alle t1 < t2
2.2. WAHRSCHEINLICHKEITSTHEORIE 33<br />
Berechnung für den Grenzwert langer Zeiten t → ∞:<br />
Es gilt: X T = T<br />
Y i mit Y i = Sprünge“, unabh. Zufallsvariablen,<br />
i=1<br />
”<br />
verteilt nach fY (y) = 1<br />
1<br />
2δ(y − l) + 2δ(y + l) ⇒ 〈Y 〉 = 0, σ2 Y = l2<br />
Für T → ∞ gilt zentraler Grenzwertsatz f T<br />
⇒ p1(x T , t) =<br />
(ii) Kontinuierliche Zeit<br />
Definiere D = l2<br />
2τ<br />
1<br />
→ p1(x, t) =<br />
2 √ πDt<br />
√<br />
Y i /σY T<br />
i=1<br />
1 √ e<br />
2πl2T −x2 T /2l2T 1 = √ e<br />
2πl2t/τ −x2 T /2l2t/τ (y) → N (y)<br />
(Diffusionskonstante) (2.51)<br />
x2<br />
4Dt<br />
e−<br />
- Random Walk mit zufällig verteilten ” Wartezeiten“ τ<br />
(Continuous time random walk)<br />
- Deterministische Hamiltonsche Bewegung<br />
Fasse {q, p} als Zufallsvariable auf; kennt man {q, p} zur Zeit t0,<br />
so kennt man auch die gesamte künftige Trajektorie;<br />
Kenntnisse über t < t0 sind nicht erforderlich.<br />
- Brownsche Bewegung (Archetyp eines stochastischen Prozesses)<br />
(2.52)<br />
Großes Teilchen (Masse M) umgeben von vielen<br />
kleinen Teilchen. Stöße der kleinen Teilchen<br />
werden als stochastische Kraft wahrgenommen.<br />
→ (in 1 Dimension): ˙v = − γ<br />
<br />
Reibung<br />
·v + 1<br />
M<br />
· η(t)<br />
<br />
stochastische<br />
Kraft<br />
Langevin-Gleichung unkorreliert 〈η(t)η(t ′ )〉 = δ(t − t ′ ) · 2γMkBT<br />
2.2.7.3 Dynamische Gleichungen für Markov-Prozesse<br />
• Chapman-Kolmogorov-Gleichung (Konsistenzbedingung für p 1|1 )<br />
Für t3 ≥ t2 ≥ t1 gilt:<br />
<br />
p (z3, t3|z1, t1)=<br />
1|1<br />
dz2 p 1|1 (z3, t3|z2, t2) p 1|1 (z2, t2|z1, t1) (2.53)<br />
(Beweis: Zu zeigen (abgekürzte Schreibweise): dz2 p 1|1 (3|2) p 1|1 (2|1) = p 1|1 (3|1)<br />
Wegen (2.48) gilt: p2(2; 1)<br />
<br />
=p 1 (1)p 1|1 (2|1)<br />
wegen (2.48)<br />
· p 1|2(3|2; 1)<br />
<br />
=p 1|1 (3|2)<br />
wegen (2.50)<br />
= p3(3; 2; 1)
34 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
Integriere: p1(1) dz2 p 1|1(2|1)p 1|1(3|2) = dz2 p3(3; 2; 1) (2.47)<br />
= p2(3; 1) (2.48)<br />
= p1(1)p 1|1(3|1)<br />
)<br />
• Nimm zusätzlich Stationarität <br />
an <br />
<br />
<br />
p (z2, t2 + △t<br />
1|1 z1, t1 + △t) = p (z2, t2<br />
1|1 z1, t1) für alle zi, ti, △t<br />
Motiviert zusammen mit Chapman-Kolmogorov<br />
Definition einer Übergangsrate W<br />
p (z1, t+τ|z2, t) = δ(z1−z2) 1|1 τ<br />
klein<br />
<br />
1−τ<br />
1<br />
(Erklärung: z1 = z2 : W (z1|z2) = lim<br />
τ→0 τ p1|1 (z1, t+τ|z2, t) )<br />
• Mastergleichung<br />
∂<br />
∂t p1(z1,<br />
<br />
t) =<br />
<br />
dz2 W (z1|z2) p1(z2, t) −<br />
dz W (z|z2) +τW (z1|z2) (2.54)<br />
dz2 W (z2|z1) p1(z1, t) (2.55)<br />
(Beweis: Wende Operation dz2 p1(z2, t) auf Gleichung (2.54) an:<br />
<br />
<br />
dz2p1(z2, t)p (z1, t+τ|z2, t) = dz2p1(z2, t)δ(z1−z2) 1|1<br />
<br />
p1(z1,t+τ)<br />
<br />
1−τ dz W (z|z2) <br />
+<br />
<br />
<br />
p1(z1,t) 1−τ dz W (z|z1)<br />
dz2p1(z2, t)τW (z1|z2)<br />
⇒ p1(z1, t + τ) − p1(z1, t) = τ dz2 p1(z2, t) W (z1|z2) − τ p1(z1, t) dz W (z|z1) )<br />
Beispiel: Diskreter Random Walk<br />
<br />
1<br />
p (x2, t + τ|x1, t) = 2 : x2 = x1 ± l<br />
1|1<br />
0 : sonst<br />
<br />
1<br />
⇒ W (x2|x1) = 2τ : x2 = x1 ± l<br />
− 1<br />
τ : x2 = x1<br />
<br />
<br />
damit erfüllt W: p (x2, t+τ|x1, t) = δ 1|1 x1x 1−τ W (y|x1)<br />
2<br />
y<br />
<br />
+τW (x1|x1)<br />
∂<br />
⇒ Mastergleichung:<br />
” ∂t p1(x, t)“ = <br />
{W (x|y) p1(y, t) − W (y|x) p1(x, t)}<br />
y<br />
1<br />
entspricht: p1(x, t + τ) − p1(x, t) τ<br />
= 1 <br />
p1(x + l, t) + p1(x − l, t) 2τ<br />
− 1<br />
τ p1(x, t)<br />
zu lösen mit Anfangsbedingung p1(x, 0) = δx0 • Fokker-Planck-Gleichung<br />
(Näherungs-)Entwicklung der Mastergleichung um z1 bis zur 2. Ordnung<br />
Definiere: W (z2|z1)=: ˜ W (−ξ|z1) mit ξ =z1−z2 ⇒ W (z1|z2)= ˜ W (ξ|z1−ξ)<br />
⇒ ∂<br />
∂t p1(z1, t) = dξ { ˜ W (ξ|z1 − ξ)p1(z1 − ξ, t) − ˜ W (−ξ|z1)p1(z1, t)}<br />
= <br />
dξ {[1+<br />
(−ξ) ∂ 1 ∂2<br />
+ ξ2<br />
∂z1 2 ∂z2 + · · · ]<br />
1<br />
˜ W (ξ|z1)p1(z1, t)<br />
− ˜ <br />
W (−ξ|z1)p1(z1,<br />
t)}<br />
≈ − ∂ <br />
dξ ξ W ˜ (ξ|z1)p1(z1, t) + ∂z1<br />
1 ∂<br />
2<br />
2 <br />
dξ ξ2 W ˜ (ξ|z1)p1(z1, t)<br />
⇒ ∂<br />
∂t p1(z, t) ≈ − ∂ <br />
α1(z)p1(z, t)<br />
∂z<br />
+ 1<br />
2<br />
∂z 2 1<br />
∂2 ∂z2 α2(z)p1(z, t) <br />
(2.56)
2.2. WAHRSCHEINLICHKEITSTHEORIE 35<br />
<br />
mit αn(z) =<br />
Beispiele<br />
dξ ξ n ˜ W (ξ|z) : Sprungmomente (2.57)<br />
- Diskreter Random Walk<br />
˜W (±l|x) = 1/2τ, ˜ W (0|x) = 0 ⇒ α1 = 0, α2 = l 2 /τ<br />
⇒ ∂<br />
∂t p1(x, t) = 1<br />
2<br />
l 2<br />
τ<br />
∂ 2<br />
∂x 2 p1(x, t) = D ∂2<br />
∂x 2 p1(x, t)<br />
Lösung mit Anfangsbedingung p1(x, 0) = δ(x):<br />
Wieder Gaußverteilung: p1(x, t) = 1<br />
√ 4πDt e −x2 /4Dt<br />
- Brownsche Bewegung<br />
Fokker-Planck-Gleichung:<br />
∂<br />
∂t p1(v, t) = ∂<br />
<br />
∂v γvp1(v, t) + γkBT<br />
M<br />
Äquivalent zur Langevin-Gleichung<br />
(ohne Beweis)<br />
∂ 2<br />
∂v 2 p1(v, t)
36 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.3 Das Prinzip der maximalen Ignoranz (Jaynesches<br />
Prinzip)<br />
2.3.1 Der Gr<strong>und</strong>gedanke der statistischen Mechanik<br />
2.3.1.1 Erinnerung an Kapitel 2.1: Ergodizität<br />
System von N Teilchen, Hamiltonsche mikroskopische Dynamik<br />
Phasenraum Ω = {(q1·· qN ; p1·· pN )} von Mikrozuständen Γ<br />
<br />
Orte Impulse<br />
Zeitliche Entwicklung: Γ → Γ(t) : Trajektorie eines Mikrozustands<br />
Es gelte<br />
(i) Liouvillesatz (Eigenschaft der Hamiltonschen Dynamik)<br />
Betrachtet man die zeitliche Entwicklung einer Verteilung ϱ(Γ)<br />
von Mikrozuständen, so bleibt diese entlang einer Trajektorie<br />
konstant: ϱ(Γ(t), t) = const.<br />
Alternative Formulierung:<br />
Propagiere ein beliebiges Volumen V von Ω:<br />
V (t) bleibt gleich, d.h. das Maß d 3N q d 3N p<br />
invariant unter der vorgegebenen Dynamik<br />
(ii) Ergodizitätsannahme (unbewiesene Behauptung)<br />
Fast alle Trajektorien Γ(t) berühren fast alle Punkte auf der Energiefläche<br />
ΩE = {Γ ∈ Ω : H (γ) = E}<br />
Aus (i) ind (ii) folgt Ergodentheorem:<br />
Für glatte, integrable Funktionen A (Γ(t)) gilt:<br />
1 lim<br />
T →∞<br />
T<br />
T<br />
dt A (t) = <br />
dµ(Γ) A (Γ)<br />
0<br />
” Zeitmittel“ = ” Scharmittel“<br />
Ω<br />
dµ = d3Nq d3N <br />
p δ(H (Γ)−E)<br />
d<br />
Ω<br />
3Nq d3Np δ(H (Γ)−E)<br />
(normiertes Maß)<br />
(2.58)<br />
⇒ Linke Seite ( ” Zeitmittel“): Ergebnis einer Messung, wenn über einen unendlich<br />
langen Zeitraum gemittelt wurde.<br />
Rechte Seite ( ” Scharmittel“): hat die Form eines Erwartungswertes 〈A 〉 in<br />
einem Wahrscheinlichkeitsraum Ω mit einem Wahrscheinlichkeitsmaß µ,<br />
in dem alle Mikrozustände Γ mit H (Γ) = E gleichwahrscheinlich sind.<br />
⇒ Motiviert statistische Beschreibung des Systems (Boltzmann)<br />
Vorteil: Mikroskopische Dynamik <strong>und</strong> genaue Anfangsbedingungen spielen<br />
keine Rolle mehr ❀ erhebliche Vereinfachung. (De facto einzige Möglichkeit,<br />
mit großen Systemen überhaupt umzugehen)<br />
Problematik: - Ergodenhypothese schwer zu beweisen<br />
- Meßzeiträume sind nicht unendlich lang<br />
- I.A. gibt es mehr Erhaltungsgrößen als nur Energie,<br />
manchmal nicht leicht identifizierbar
2.3. DAS PRINZIP DER MAXIMALEN IGNORANZ 37<br />
Glücklicherweise gibt es noch einen alternativen Zugang:<br />
2.3.1.2 Das Prinzip der maximalen Ignoranz<br />
Idee: Gegeben sei ein makroskopisches System. Wir nehmen an, wir kennen<br />
einige makroskopische Größen, z.B. E, V, N, aber wir wissen nichts über<br />
den mikroskopischen Zustand.<br />
❀ Man kann für den voraussichtlichen mikroskopischen Zustand Γ des Systems<br />
nur eine Prognose abgeben - entspricht einer Wahrscheinlichkeitsverteilung<br />
P (Γ). Prognose muss verfügbare Information berücksichtigen, aber sonst<br />
vorurteilsfrei sein.<br />
❀ Prinzip der maximalen Ignoranz (Gibbs, Einstein, Tolman)<br />
Konkret: Falls E, V, N feststeht, bedeutet Vorurteilslosigkeit: Kein Zustand<br />
bevorzugt ⇒ p(Γ) = δ(H (Γ) − E)/ <br />
d3Nq d3Np δ(H (Γ) − E)<br />
❀ Erwartungswert für das Ergebnis der Messung einer Größe A :<br />
〈A 〉 = <br />
d3Nq d3Np p(Γ)A (Γ)<br />
Ω<br />
❀ derselbe Ausdruck wie aus der Ergodenhypothese<br />
Problematik: Prognosen für Meßergebnisse sind Ensemblemittelwerte. De facto<br />
werden Messungen an einem System gemacht <strong>und</strong> nicht an einem Ensemble<br />
❀ etwas unbefriedigend.<br />
Vorteile:<br />
- Voraussetzungen klar definiert, nicht fraglich wie Ergodenhypothese<br />
- Ansatz lässt sich erweitern auf allgemeinere Probleme, z.B. sind Systeme<br />
oft im Wärmeaustausch mit ihrer Umgebung. Dann ist E nicht fest, aber<br />
E wäre immer noch eine makroskopisch zugängliche Größe.<br />
Um auch allgemeinere Fälle behandeln zu können, muss das Jaynesche Prinzip<br />
noch besser quantifiziert werden: Was ist ” Ignoranz“?<br />
2.3.2 Ignoranz <strong>und</strong> Informationsentropie<br />
2.3.2.1 Informationsentropie als quantitatives Maß für Ignoranz<br />
” Ignoranz“ = Fehlen von Information, oder<br />
Der Informationsgewinn, den man erzielen würde, wenn es<br />
einem gelänge, den mikroskopischen Zustand genau<br />
zu bestimmen.<br />
Allgemeiner: Gegeben sei ein Ereignisraum Ω<br />
❀ Ignoranz = Informationsgewinn nach einem idealen Versuch, der einem<br />
genau ein Ergebnis ω ∈ Ω liefert.<br />
Gesucht: Quantitatives Maß für Informationsgewinn<br />
Betrachte zur Vereinfachung zunächst diskreten Ereignisraum Ω = {ω1 · · · ωM}<br />
Ω
38 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
• Falls Ereignisse gleichverteilt sind<br />
❀ Vernünftiges Maß für Informationsgewinn wäre die Anzahl von<br />
Ja/Nein-Fragen (Antworten), die nötig sind, um ein Ergebnis zu<br />
spezifizieren (Bits) (Beispiel)<br />
• Falls Ereignisse nicht gleichverteilt sind, z.B.<br />
❀ Zu erwartender Informationsgewinn nicht hoch, da Versuch fast<br />
immer ωn0 liefert (vorhersagbar).<br />
Definition über Anzahl der Ja/Nein-Fragen nicht so sinnvoll<br />
❀ Fragen, Antworten müssen verschieden gewichtet werden.<br />
⇒ Gesucht ist eine Funktion J(p1, . . . pM), die die Ignoranz der Verteilung<br />
ω = {p1 . . . pM} (mit pi = 1) sinnvoll bewertet.<br />
(Funktion von ω, unabhängig von der konkreten ” Bedeutung“ der pi, d.h.<br />
der damit verknüpften Ereignisse)<br />
Forderung an Ignoranz J(p1, . . . pM)<br />
(i) Sollte symmetrisch sein bzgl. Vertauschung von pi <strong>und</strong> pj<br />
( ” Nummerierung“ der Ergebnisse egal)<br />
Sollte stetig von pi abhängen<br />
(ii) Sollte für Gleichverteilung maximal sein<br />
J(p1, . . . pM) = J( 1 1<br />
M , . . . M ) = L(M)<br />
Sollte im Fall von Gleichverteilung mit der Zahl der Ereignisse<br />
zunehmen (⇒ L(M) wächst monoton mit M)<br />
(iii) Der Informationsgewinn nach einzelnen Fragen sollte additiv sein<br />
J(p1, . . . pM ) = J(¯p1, . . . ¯pM ) + n<br />
α=1<br />
¯pαJ( p(α)<br />
1<br />
¯pα<br />
etc.<br />
, . . . p(α)<br />
mα<br />
¯pα )<br />
” Vergröberung“<br />
gesamter Informationsgewinn mittlerer Informationsgewinn<br />
Infor- nach 1. Frage nach restlichen Fragen<br />
mations- pi = µ(Ωi) p (α)<br />
gewinn ( vergröberte<br />
”<br />
Ignoranz“)<br />
i /¯pα = P (ω(α)<br />
i |Ωα):<br />
bedingte Wahrscheinlichkeit für ein<br />
Ereignis ω (α)<br />
i , wenn Ωα feststeht<br />
❀ Ignoranz sollte bei Vergröberung additiv sein.<br />
Beispiel: Ziehe zwei Kugeln aus einer Urne<br />
❀ Ω = {(◦◦), (◦•), (•◦), (••)} = {ω1, ω2, ω3, ω4}<br />
zu (ii) Maximale Ignoranz → pi = 1<br />
4
2.3. DAS PRINZIP DER MAXIMALEN IGNORANZ 39<br />
Zusatzinformation: Die Urne enthält anfangs je 2 weiße <strong>und</strong> schwarze<br />
Kugeln<br />
⇒ (siehe 2.2.2 S.25) p1 = p4 = 1<br />
6 , p2 = p3 = 1<br />
3<br />
⇒ nicht mehr maximal ignorant wegen Zusatzinformation<br />
zu (iii) z.B. Frage ” Sind Kugeln gleichfarbig?“<br />
= Vergröberung ¯ Ω1 = {ω1, ω4}, ¯ Ω2 = {ω2, ω3}<br />
Satz von Shannon (1948)<br />
(Beweis:<br />
Forderungen (i) - (iii) legen Funktion J bis auf eine Konstante fest:<br />
J(p1, . . . pM) = −κ<br />
M<br />
pi ln pi mit κ > 0 (2.59)<br />
i=1<br />
❀ Shannon-Entropie oder Informationsentropie<br />
(i) Stetigkeit ❀ Es genügt, J(¯p1, . . . ¯pn) für rationale ¯pα zu berechnen.<br />
❀ Berechne J( m1 mn<br />
, . . . ), wobei M: kleinstes gemeinsames Vielfaches der ¯pα<br />
M M<br />
mα = ¯pα − M, mα = M<br />
(iii) L(M) = J( 1 1<br />
, . . . M M ) = J(¯p1, . . . ¯pn) + ¯pαJ( 1/M 1/M<br />
, . . . ¯pα ¯pα )<br />
= J(¯p1, . . . ¯pn) + mα 1 1<br />
J( , . . . M mα mα )<br />
⇒ J( m1 mn<br />
mα<br />
, . . . ) = L(M) − M M α L(mα) (∗)<br />
M<br />
Zeige nun: Aus (∗) <strong>und</strong> (ii) folgt: L(N) = κ ln N für alle N mit κ > 0<br />
- (∗), wähle mα ≡ m ⇒ m · n = M ⇒ J( m m<br />
, . . . ) = L(n) = L(M) − L(m)<br />
M M<br />
⇒ L(m) + L(n) = L(m · n)<br />
- Definiere für ein M: κ = L(M)<br />
ln M (∗∗)<br />
Es gilt L(M) > L(1) <strong>und</strong> L(1)=L(1·1)=L(1)+L(1) ⇒ L(1)=0 ⇒ κ > 0<br />
(ii)<br />
- Betrachte beliebiges N. Bestimme m, n so, dass (ln M) n<br />
n+1<br />
≤ ln N ≤ (ln M) m m<br />
⇒ ln M n ≤ ln N m ≤ ln M n+1 ⇒ M n ≤ N m ≤ M n+1<br />
⇒ L(M n ) ≤ L(N m ) ≤ L(M n+1 ) ⇒ n<br />
n+1<br />
L(M) ≤ L(N) ≤ m m L(M)<br />
n 1<br />
n+1<br />
⇒ (ln M) ≤ L(N) ≤ (ln M)<br />
(∗∗)<br />
m κ m<br />
Vergleiche, gilt für beliebig große m ⇒ L(N) = κ ln N ∀N<br />
Einsetzen in (∗) ⇒ J( m1 mn<br />
, . . . M M ) = κ(ln M − mα<br />
M ln mα) = κ mα mα<br />
ln M M<br />
Erweiterung auf kontinuierliche Verteilungen<br />
)<br />
Gegeben sei statt {p1 · · · pM} kontinuierliche Verteilungsdichte p(x)dx<br />
mit p(x)dx = 1<br />
” Naive“ Erweiterung pi ln pi → dx p(x) ln dx p(x) geht natürlich<br />
nicht, da dx infinitesimal ist.<br />
Stattdessen: Auflösung“ ∆ (mit derselben Dimension wie dx“)<br />
” ”<br />
<br />
J∆ (p) = −κ dx p(x) ln ∆ · p(x) <br />
(2.60)<br />
NB:<br />
• ∆ · p(x) ist dimensionslos, wie sich das für ein Argument eines<br />
Logarithmus gehört.<br />
• J∆ (p)−J∆ ′ (p) = κ ln ∆′<br />
∆ ❀ J∆ (p) <strong>und</strong> J∆ ′ bis auf eine Konstante<br />
identisch.
40 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.3.2.2 Eigenschaften der Informationsentropie<br />
• Konkavität<br />
Gegeben zwei Wahrscheinlichkeitsverteilungen<br />
W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />
Betrachte W (λ) = {p (λ)<br />
1<br />
• Extremalität<br />
• Additivität<br />
, · · · p(λ)<br />
M } mit p(λ)<br />
i = λpi + (1 − λ)¯pi (0 ≤ λ ≤ 1)<br />
Dann gilt: J(W (λ) ) ≥ λJ(W ) + (1 − λ)J( ¯ W ) (2.61)<br />
(Bew.: Gilt schon für jeden<br />
einzelnen Beitrag<br />
)<br />
Vergleiche zwei Wahrscheinlichkeitsverteilungen<br />
W = {p1, · · · pM}, ¯ W = { ¯p1, · · · pM} ¯<br />
Dann gilt: J(W ) ≤ −κ<br />
M<br />
i=1<br />
pi ln ¯pi mit ” = “ ⇔ pi = ¯pi (2.62)<br />
(Beweis: Es gilt: y − 1 ≥ ln y mit =“ ⇒ y = 1<br />
”<br />
❀ pi ln ¯pi − pi ln pi = pi ln ¯pi<br />
pi ≤ pi( ¯pi<br />
pi<br />
= 1 − 1 = 0<br />
⇒ −κ pi ln pi ≤ −κ pi ln ¯pi )<br />
Gegeben zwei unabhängige Ereignisräume<br />
ΩI = {ω (I)<br />
1 , · · · ω(I)<br />
M }, ΩII = {ω (II)<br />
1 , · · · ω (II)<br />
M }<br />
mit Wahrscheinlichkeitsverteilungen<br />
WI = {p (I)<br />
1 , · · · p(I)<br />
M }, WII = {p (II)<br />
1 , · · · p (II)<br />
M }<br />
Betrachte zusammengesetzten Raum Ω = ΩI × ΩII = {(ω (I)<br />
i , ω (II)<br />
j<br />
❀ Wahrscheinlichkeitsverteilung W = WI · WII = {(p (I)<br />
i , p (II)<br />
j<br />
mit pij = p (I)<br />
i · p (II)<br />
j = Wahrscheinlichkeit, dass sowohl ω(I)<br />
i<br />
als auch ω (II)<br />
j<br />
eintritt.<br />
− 1)<br />
)}<br />
)} ≡ {pij}<br />
Dann gilt: J(WI · WII) = J(WI) + J(WII) (2.63)<br />
(Beweis:<br />
<br />
pij ln pij =<br />
i,j<br />
<br />
p<br />
i,j<br />
(I)<br />
i<br />
· p (II)<br />
j<br />
ln p (I)<br />
i<br />
Anschaulich: unabhängige Systeme<br />
<br />
+ ln p(II)<br />
j = p<br />
i<br />
(I)<br />
i ln p (I) <br />
i + p<br />
j<br />
(II)<br />
j ln p (II)<br />
j )<br />
❀ Informationsentropie<br />
addiert sich auf!
2.3. DAS PRINZIP DER MAXIMALEN IGNORANZ 41<br />
2.3.3 Das Jaynesche Prinzip<br />
Mathematische Präzisierung des Prinzips der maximalen Ignoranz<br />
(Jaynes, 1957)<br />
Diskrete Version:<br />
Sei Ω = {ω1, . . . ωM} ein Ereignisraum, <strong>und</strong> seien die Erwartungswerte<br />
〈aα〉 von einigen Zufallsvariablen aα(W ) bekannt. Dann ist die maximal<br />
ignorante Wahrscheinlichkeitsverteilung ¯ W = {¯p1 · · · ¯pM} gegeben durch<br />
W = ¯ W ⇔ max<br />
{pi} J(p1 · · · pM) = J(¯p1 · · · ¯pM)<br />
unter den Nebenbedingungen pi = 1 <strong>und</strong> piaα(ωi) = 〈aα〉<br />
Kontinuierliche Version: analog<br />
Maximal ignorante Verteilung ¯ W = {¯p(x)} erfüllt:<br />
W = ¯ W ⇔ max<br />
{p} J∆ (p) = J∆ (¯p) unter den<br />
Nebenbedingungen dx p(x) = 1 <strong>und</strong> dx p(x)aα(x) = 〈aα〉<br />
(2.64)<br />
(2.65)<br />
Bemerkung: Wie maximiert man eine Funktion f(x) bei vorgegebenen Nebenbedingungen<br />
aα(x) = 0 ?<br />
Antwort: Lagrange Multiplikatoren (evtl. bekannt aus Mechanik)<br />
Rezept: (i) Maximiere f(x) − λαaα(x) für allgemeine λα<br />
❀ Gleichung ∇f(x) − λα ∇aα(x) = 0<br />
❀ Lösung x0({λα})<br />
(ii) Bestimme λα so, dass Nebenbedingung aα(x0) erfüllt ist.<br />
Begründung: Maximum x0 von f(x) bei Nebenbedingung aα(x) = 0<br />
muss erfüllen:<br />
• Nebenbedingung aα(x0) = 0 ( klar wegen (ii) )<br />
• δf = δx · ∇f = 0 für alle Verschiebungen δx, die mit Nebenbedingungen<br />
verträglich sind, also ai(x0 + δx) = 0<br />
⇒ δaα = δx · ∇ai = 0<br />
Geometrisch:<br />
(erfüllt wegen (i): ∇f = λα ∇aα(x) ⇒ δx · ∇f = λα δx · ∇aα(x)<br />
<br />
=0 laut<br />
Voraussetzung<br />
= 0<br />
x: D-dimensional, k Nebenbedingungen<br />
→ definieren (D − k)-dimensionale Hyperfläche H<br />
Gradientenvektoren vα = ∇aα stehen senkrecht auf H<br />
❀ Tangentenvektoren u zur Hyperfläche stehen senkrecht auf<br />
allen ∇aα: u · ∇aα = 0<br />
Gesuchtes Minimum: f ändert sich nicht bei infinitesimaler<br />
Verschiebung entlang Hyperfläche: ⇒ u ∇f = 0<br />
Beispiel: Jaynesches Prinzip mit einer Nebenbedingung pi = 1<br />
(i) Maximiere J(p1, . . . pM) − λ( pi − 1) = −κ pi ln pi − λ( pi − 1)<br />
⇒ ∂<br />
∂pα (J − λ( pi − 1)) = −κ · (1 + ln pα) − λ ! = 0<br />
⇒ ln pα = − λ<br />
k − 1 ⇒ pα = e −1−λ/κ = const.<br />
(ii) Bestimme λ so, dass pi = 1 ⇒ Me−1−λ/κ = 1 ⇒ λ = κ(ln M − 1)<br />
Gleichverteilung (surprise!)<br />
⇒ pα = e −1−ln M+1 = 1<br />
M
42 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.4 <strong>Statistische</strong> Gesamtheiten<br />
2.4.1 Vorbemerkungen<br />
2.4.1.1 Charakterisierung der Systeme<br />
∗ Isoliertes System<br />
Charakterisiert durch ” Natürliche Variablen“ E, V, N<br />
Frage: Warum genau diese?<br />
Antwort: Erhaltungsgrößen<br />
Falls das System ergodisch ist, wird jeder Punkt des Phasenraums,<br />
der mit Erhaltungsgrößen kompatibel ist, aufgesucht.<br />
⇒ mikroskopische Nebenbedingung<br />
∗ Nichtisolierte Systeme<br />
Mikroskopische Nebenbedingungen nicht mehr gegeben<br />
Stattdessen Erwartungswerte 〈E〉, 〈V 〉, 〈N〉<br />
⇒ makroskopische Nebenbedingung<br />
Frage: Warum gerade diese?<br />
(<strong>und</strong> nicht z.B. 〈E 2 〉, κ ∝ 〈V 2 〉 − 〈V 〉 2 etc.)<br />
Antwort: Gedankenexperiment<br />
• Betrachte N (schwach) gekoppelte, identische Systeme:<br />
Insgesamt isoliert ⇒ EGes = Ei = const.<br />
〈EGes〉 = EGes = 〈 Ei〉 = N〈Ei〉<br />
⇒ 〈 Ei〉 = E/N kann mit Erhaltungsgröße<br />
verknüpft werden (geht bei 〈E2 〉 nicht)<br />
• Wahrscheinlichkeitsverteilung für System i:<br />
Randbedingung: <br />
Ej = EGes−Ei ❀ P (Ei| <br />
j=i<br />
Ej = EGes−Ei)<br />
j=i<br />
Aber: Im Grenzfall N → ∞ darf Wahrscheinlichkeitsverteilung<br />
nicht von N abhängen ⇒ P (Ei) hängt nur von Ei ab.<br />
• Jetzt: Einzelnes System im makroskopischen Wärmebad. Man<br />
weiß nicht, worin Wärmebad besteht, P (Ei) hängt nicht davon<br />
ab ❀ gleiches Ergebnis.<br />
Wichtig für dieses Argument: E muss additiv (extensiv) sein.<br />
Folgerung: Natürliche Variablen müssen<br />
(i) in isolierten Systemen Erhaltungsgrößen sein<br />
(ii) additiv sein.<br />
Falls nur (i) erfüllt: Man kann nur in isolierten Systemen ohne weiteres<br />
statistische <strong>Physik</strong> machen (mikeokanonische Gesamtheit)<br />
Falls (i) <strong>und</strong> (ii) erfüllt: Entwicklung eines allgemeinen Formalismus auf<br />
der Basis des Jayneschen Prinzips (kanonisch, großkanonisch)<br />
NB: Unter bestimmten Umständen (Pseudoerhaltungsgrößen, siehe 3.5 S.84)<br />
kann Forderung (i) fallengelassen werden.
2.4. STATISTISCHE GESAMTHEITEN 43<br />
∗ Wichtigste Gesamtheiten<br />
System mikroskop. makroskop. Gesamtheit<br />
Nebenbed. Nebenbed.<br />
isoliert V, N, E - mikrokanonisch<br />
geschlossen V, N 〈E〉 kanonisch<br />
offen V 〈N〉, 〈E〉 großkanonisch<br />
Jaynesches Prinzip kann in all diesen Fällen angewendet werden.<br />
• Isoliert → klar<br />
• Nichtisoliert → betrachte wieder isoliertes Gesamtsystem von N schwach<br />
gekoppelten, identischen Einzelsystemen.<br />
Wahrscheinlichkeitsverteilung Pges(E1, . . . EN) = <br />
P (Ei)<br />
j <br />
Einzelsystem<br />
(Schwache Kopplung ⇒ Systeme praktisch unabhängig)<br />
⇒ Ignoranz: Iges = <br />
j Ij<br />
ist maximal, wenn jedes einzelne Ij maximal <br />
Jaynesches Prinzip liefert<br />
- Wahrscheinlichkeitsverteilung p(Γ) für den<br />
Mikrozustand Γ = (r1 · · · rN, p1 · · · pN) in der jeweiligen Gesamtheit<br />
- Wert für die Entropie<br />
❀ Zustandsgröße, charakterisiert Makrozustand<br />
2.4.1.2 Festlegung der Konstanten<br />
∗ Festlegung von κ<br />
Informationsentropie I = −κ pi ln pi<br />
→ Entropie der statistischen Mechanik<br />
<br />
S = −kB pi ln pi (analog kontinuierliche Version) (2.66)<br />
mit kB = 1.38 · 10 −23 J/K Boltzmann-Konstante (2.67)<br />
(willkürlich, definiert Einheit 1K)
44 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
∗ Festlegung von ∆<br />
Kontinuierlicher Phasenraum, N Teilchen<br />
Entropie ↔ dΓ p(Γ) ln(∆ p(Γ))<br />
mit ∆= ” Auflösung“, Dimension [∆] = [x] 3N [p] 3N = [Wirkung] 3N<br />
Quantenmechanik: Unschärferelation<br />
kleinstmögliche Auflösung wären Zellen der Größe h 3N<br />
❀ motiviert Wahl ∆ = h 3N<br />
∗ System von N gleichen Teilchen<br />
Forderung: Teilchen sollen nicht ” nummeriert“ sein,<br />
d.h. nebenstehende Konfigurationen sollen<br />
als absolut identisch angesehen werden.<br />
Begründung:<br />
(2.68)<br />
(i) Quantenmechanik: Identische Teilchen sind ununterscheidbar.<br />
(ii) Ohne diese Forderung würde Entropie den Makrozustand nicht<br />
eindeutig charakterisieren. Betrachte z.B.<br />
ideales Gas in einem geteilten Behälter, gleiche<br />
Teilchensorte rechts <strong>und</strong> links, gleiche mittlere<br />
Energie pro Teilchen, gleiche Dichte.<br />
Entferne trennende Wand: Zustand ändert sich nicht, aber Entropie<br />
würde sich ändern, falls Teilchen numeriert wären.<br />
(Gibbssches Paradoxon, mehr dazu Kapitel 2.5 S.50)<br />
Folgerung: Betrachte immer 1<br />
<br />
N! dΓ p(Γ) anstelle von<br />
dΓ p(Γ) = dq1 · · · dqN dp1 · · · dpN p(q1 · · · qN, p1 · · · pN)<br />
Entropie der statistischen Mechanik:<br />
S = −kB · 1<br />
<br />
dΓ p(Γ) ln<br />
N!<br />
h 3N p(Γ) <br />
∗ Verallgemeinerungen<br />
z.B. Verallgemeinerung auf k Teilchensorten j, jeweils Nj <br />
Teilchen<br />
dΓ p(Γ) → dΓ p(Γ)<br />
1<br />
N1!···Nk!<br />
z.B. schwankende Teilchenzahlen ...<br />
Zusammenfassung: Entropie der statistischen Mechanik:<br />
(2.69)<br />
S = −kB 〈ln h 3N p(Γ) 〉 (kontinuierliche Zustände) (2.70)<br />
2.4.1.3 Weitere Annahmen<br />
S = −kB 〈ln p Γ 〉 (diskrete Zustände Γ) (2.71)<br />
∗ Beschränktheit der Energie nach unten<br />
Nimm an, dass es eine Mindestenergie E0 gibt (Gr<strong>und</strong>zustandsenergie,<br />
motiviert durch Quantenmechanik), so dass E immer größer als E0 ist.
2.4. STATISTISCHE GESAMTHEITEN 45<br />
2.4.2 Mikrokanonische Gesamtheit<br />
Mikroskopische Nebenbedingungen: N, V, E fest<br />
konkret: H (Γ) ∈ [E, E + ∆E] (Energieschale)<br />
❀ Nur Mikrozustände in Ω ∆E = {Γ ∈ Ω : H (Γ) ∈ [E, E + ∆E]} zugelassen<br />
Gesucht also: Mikroskopische Verteilungsdichte p(Γ) mit<br />
· p(Γ) = 0 für Γ /∈ Ω∆E · S(p) = −kB · 1<br />
<br />
N! dΓ p(Γ) ln<br />
Ω∆E h3Np(Γ) maximal<br />
mit Nebenbedingung 1<br />
<br />
N! dΓ p(Γ) = 1<br />
Berechnung: δ S(p) − λ[ 1<br />
<br />
N! dΓ p(Γ) − 1] = 0<br />
⇒ 1<br />
<br />
N! dΓ {−kBδ p(Γ) ln h3Np(Γ) <br />
− λ δp(Γ)}<br />
= 1<br />
<br />
N! dΓ δp(Γ) {−kB 1 + ln h3Np(Γ) <br />
− λ} = 0 ∀ δp(Γ)<br />
<br />
⇒ kB 1 + ln h3Np(Γ) <br />
+ λ = 0 ⇒ p(Γ) = 1<br />
h3N λ<br />
−1−<br />
e<br />
dΓ p(Γ) = 1 ⇒ ¯p = N! dΓ<br />
Nebenbedingung: 1<br />
N!<br />
Definiere<br />
mikrokanonische<br />
Zustandssumme<br />
❀ mikrokanonische<br />
Verteilung<br />
Ω ∆E<br />
Z MK =<br />
h 3N p MK (Γ) =<br />
1<br />
h3N <br />
N!<br />
dΓ<br />
Ω ∆E<br />
1<br />
Z MK<br />
k B ≡ ¯p = const.<br />
Ω ∆E<br />
= Z MK (E, V, N) (2.72)<br />
: H (Γ) ∈ [E, E + ∆E]<br />
0 : sonst<br />
Erwartungswert einer Größe A : 〈A 〉 = 1<br />
N!<br />
<br />
(2.73)<br />
dΓ pMK (Γ)A (Γ) (2.74)<br />
Entropie: S = kB ln(Z MK ) = S(E, V, N) (2.75)<br />
( S (2.69)<br />
= −kB · 1<br />
<br />
N!<br />
Ω ∆E<br />
<br />
=1<br />
Ω ∆E<br />
dΓ · ¯p · ln h 3N ¯p<br />
<br />
=1/Z<br />
MK<br />
<br />
)<br />
Bemerkung: Z MK <strong>und</strong> S = S MK hängen von E, V <strong>und</strong> N ab, aber im limes<br />
N → ∞ nicht von ∆E.<br />
<br />
Begründung: Definiere v(E) = dΓ ; v∆E (E) =<br />
{Γ∈Ω:H ≤E}<br />
dΓ<br />
Ω<br />
∆E<br />
Hamiltonian H (Γ) = V (q1 · · · qN ) + p 2 i<br />
2m<br />
mit min H (Γ) =: E0<br />
Γ<br />
❀ v(E) wächst an wie (E − E0) 3N oder schneller<br />
v ∆E (E) wächst mit E monoton an<br />
m=(E−E0)/∆E <br />
⇒ v∆E (E) < v(E) =<br />
k=1<br />
v ∆E (k · ∆E) < (E−E0)<br />
∆E v ∆E (E)
46 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
⇒ ln( 1<br />
h3N v∆E (E)) < ln( 1<br />
v(E))<br />
h3N <br />
∝3N ln(E−E0)<br />
< ln( 1<br />
h 3N v ∆E (E)) + ln(<br />
E − E0<br />
∆E )<br />
<br />
∝ln(E−E0)<br />
⇒ Im Grenzwert N → ∞ ist ln 1<br />
h 3N v ∆E (E) = ln 1<br />
h 3N v(E) unabhängig von ∆E !<br />
Das ganze Volumen v(E) ist in einer dünnen Haut bei E konzentriert.<br />
Frage: Warum diese Konstruktion mit der Haut ∆E <strong>und</strong> nicht gleich E auf<br />
einen Wert festlegen? ( d.h. p(Γ) ∝ δ(H (Γ) − E) )<br />
Antwort: Das wird in der Tat in der Praxis oft gemacht. Die ” Lehrbuchversion“<br />
mit ∆E hat den Vorteil, dass man dort über ein Volumen im Phasenraum<br />
integriert <strong>und</strong> nicht, wie bei Anwendung der δ-Funktion, über eine Fläche.<br />
2.4.3 Kanonische Gesamtheit<br />
Mikroskopische Nebenbedingungen: N, V fest<br />
<br />
dΓ p(Γ)H (Γ) vorgegeben<br />
Makroskopische Nebenbedingung: 〈E〉 = 1<br />
N!<br />
Gesucht: Mikroskopische Verteilungsdichte p(Γ),<br />
die S(p) = −kB · 1<br />
<br />
N! dΓ p(Γ) ln<br />
Ω<br />
h3Np(Γ) maximiert mit Nebenbedingungen<br />
1<br />
<br />
N! dΓ p(Γ) = 1, 1<br />
<br />
N! dΓ p(Γ)H (Γ) = 〈E〉<br />
Ω<br />
Ω<br />
Lösung: δ S(p) − λ1[ 1<br />
<br />
N! dΓ p(Γ) − 1] − λ2[ 1<br />
<br />
N! dΓ p(Γ)H (Γ) − 〈E〉] = 0<br />
<br />
dΓ δp(Γ) {−kB 1+ln h3Np(Γ) <br />
−λ1 −λ2H (Γ)} = 0 ∀ δp(Γ)<br />
⇒ 1<br />
N!<br />
⇒ ln h3Np(Γ) = −1 − λ1 λ2 − kB kB H (Γ) ⇒ p(Γ) ∝ e− λ2 H (Γ)<br />
kB Notation: β ≡ λ2 ⇒ p(Γ) ∝ e−βH<br />
(Γ)<br />
kB<br />
Nebenbedingungen: 〈E〉 ↔ β; Normierung: Normierungsfaktor ↔ λ1<br />
Definiere kanonische<br />
1<br />
ZK =<br />
Zustandssumme:<br />
h3N <br />
N!<br />
Ω<br />
dΓ e −βH (Γ) = Z K (β, V, N) (2.76)<br />
❀ Verteilung im kanonischen Ensemble: h 3N pK (Γ) = 1 −βH (Γ)<br />
· e (2.77)<br />
ZK Erwartungswert einer Größe A : 〈A 〉 = 1<br />
<br />
dΓ pK (Γ)A (Γ) (2.78)<br />
N!<br />
Entropie: S = βkB〈E〉 + kB ln(Z K ) = S(β, V, N) (2.79)<br />
( S (2.69)<br />
= −kB · 1<br />
N!<br />
Definiere noch<br />
Freie Energie:<br />
<br />
dΓ<br />
Ω<br />
e−βH (Γ)<br />
h 3N Z K<br />
Z K = e −βF<br />
ln<br />
e−βH (Γ)<br />
Z K<br />
= k B<br />
Z K<br />
Ω<br />
1<br />
h3N <br />
dΓ e<br />
N!<br />
Ω<br />
−βH (Γ) {ln ZK + βH (Γ) } )<br />
<br />
const. ↔β〈E〉<br />
bzw. F = − 1<br />
β ln Z K<br />
= F (β, V, N) (2.80)<br />
Dann gilt F (2.79)<br />
= 〈E〉 − 1<br />
S<br />
βkB<br />
(2.81)<br />
<strong>und</strong><br />
∂<br />
(βF ) = 〈E〉<br />
∂β<br />
(2.82)<br />
( ∂<br />
∂<br />
βF = − ∂β ∂β ln Z 1<br />
K = − Z<br />
K<br />
1<br />
h3N <br />
N!<br />
Ω<br />
dΓ ∂<br />
∂β e−βH (Γ) = 〈E〉 )
2.4. STATISTISCHE GESAMTHEITEN 47<br />
2.4.4 Großkanonische Gesamtheit<br />
Mikroskopische Nebenbedingung: V fest<br />
Makroskopische Nebenbedingung: 〈E〉, 〈N〉 vorgegeben<br />
Gesucht: Mikroskopische Verteilungsdichte, die S(p) =<br />
∞ <br />
1 −kB<br />
gen ∞<br />
N! dΓN p(ΓN ) ln<br />
N=0 ΩN h3Np(ΓN ) maximiert mit Nebenbedingun-<br />
<br />
1<br />
N! dΓN p(ΓN ) = 1,<br />
N=0 ΩN ∞ <br />
1<br />
N! dΓN p(ΓN ) H (ΓN ) = 〈E〉<br />
N=0 ΩN <strong>und</strong> ∞<br />
<br />
1<br />
N! dΓN p(ΓN ) N = 〈N〉<br />
N=0 ΩN Lösung: δ S(p) − λ1[ ∞<br />
⇒ ∞<br />
N=0<br />
1<br />
N!<br />
{−kB<br />
N=0<br />
− λ2[ ∞<br />
N=0<br />
− λ3[ ∞<br />
N=0<br />
<br />
1 dΓN N! p(ΓN ) − 1]<br />
1<br />
N!<br />
1<br />
N!<br />
dΓN δp(Γ N ) ·<br />
dΓN p(Γ N ) H (Γ N ) − 〈E〉]<br />
dΓN p(Γ N ) N − 〈N〉] = 0<br />
<br />
1+ln h 3N p(Γ N ) <br />
−λ1−λ2 H (Γ N )−λ3 N} = 0 ∀ δp(Γ N )<br />
⇒ ln h3Np(ΓN ) = −1 − λ1 λ2 − kB kB H (Γ λ2<br />
N ) − kB N<br />
⇒ p(Γ N ) ∝ e − λ 2<br />
k B H (Γ N )− λ 3<br />
k B N<br />
λ3 µ = − λ2 ⇒ p(ΓN ) ∝ e−β<br />
Nebenbedingungen: 〈E〉 ↔ β; 〈N〉 ↔ µ; Normierung ↔ λ1<br />
Notation: β = λ2<br />
kB<br />
Definiere großkanonische Zustandssumme:<br />
Z GK =<br />
∞ 1<br />
h3NN! <br />
N=0<br />
Ω N<br />
dΓN e −β<br />
<br />
H (ΓN )−µ N<br />
❀ Verteilungsdichte: h 3N p GK (Γ N ) = 1<br />
Z GK<br />
Erwartungswerte : 〈A 〉 =<br />
∞ 1<br />
N!<br />
<br />
N=0<br />
Ω N<br />
<br />
H (ΓN )−µ N<br />
= Z GK (β, V, µ) (2.83)<br />
· e −β<br />
<br />
H (ΓN )−µ N<br />
(2.84)<br />
dΓ N p GK (Γ N )A (Γ N ) (2.85)<br />
Entropie: S = βkB(〈E〉 − µ〈N〉) + kB ln(Z GK ) = S(β, V, µ) (2.86)<br />
e −β<br />
<br />
H (ΓN )−µ N<br />
h3N ln<br />
Z<br />
GK<br />
e−β<br />
<br />
H (ΓN )−µ N<br />
( S (2.70)<br />
= −kB · ∞ 1<br />
dΓ N!<br />
N<br />
Z<br />
N=0 Ω GK<br />
N<br />
= k ∞<br />
B<br />
1<br />
Z<br />
GK h<br />
N=0<br />
3N <br />
dΓ<br />
N!<br />
N e<br />
Ω<br />
N<br />
−β<br />
<br />
H (ΓN )−µ N<br />
{ln ZGK + β<br />
<br />
const.<br />
H (ΓN ) − µ N <br />
} )<br />
<br />
↔β(〈E〉−µ〈N〉)
48 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
Definiere noch großkanonisches Potential Ω:<br />
Z GK =: e −βΩ<br />
bzw. Ω = − 1<br />
β ln Z GK<br />
= Ω(β, V, µ) (2.87)<br />
Dann gilt Ω (2.86)<br />
= 〈E〉 − µ〈N〉 − 1<br />
S (2.88)<br />
βkB<br />
<strong>und</strong><br />
∂<br />
(βΩ) = 〈E〉 − µ〈N〉 ;<br />
∂β<br />
∂<br />
Ω = −〈N〉 (2.89)<br />
∂µ<br />
2.4.5 Volumenschwankungen: Enthalpisches Ensemble<br />
Mikroskopische Nebenbedingung: N fest<br />
Makroskopische Nebenbedingung: 〈V 〉, 〈E〉 vorgegeben<br />
Notation: <br />
dΓ = <br />
<br />
dq1 · · · dqN dp1 · · · dpN<br />
Ω V<br />
V N<br />
Gesucht: Mikroskopische Verteilungsdichte, die S(p) =<br />
∞<br />
dV <br />
dΓ p(Γ) ln h3Np(Γ) maximiert mit Nebenbedingungen<br />
− kB 1<br />
N!<br />
1<br />
∞<br />
N!<br />
0<br />
<strong>und</strong> 1<br />
N!<br />
0<br />
dV <br />
∞<br />
0<br />
Ω V<br />
Ω V<br />
dΓ p(Γ) = 1, 1<br />
N!<br />
dV <br />
Ω V<br />
∞<br />
0<br />
dV <br />
dΓ p(Γ) V = 〈V 〉<br />
Ω V<br />
dΓ p(Γ) H (Γ N ) = 〈E〉<br />
Lösung: Verfahren wie oben, zusätzlicher Lagrangeparameter λ4 ≡ kBβΠ<br />
⇒ p(Γ) ∝ e −β<br />
<br />
H (Γ)+Π V<br />
Definiere enthalpische Zustandssumme (V0 beliebig)<br />
Z G =<br />
1<br />
h 3N N!<br />
∞<br />
0<br />
dV<br />
<br />
V0<br />
ΩV dΓ e −β<br />
<br />
H (Γ)+Π V<br />
❀ Verteilungsdichte h 3N p G (Γ) = 1<br />
Z G<br />
Erwartungswerte : 〈A 〉 = 1<br />
N!<br />
∞<br />
0<br />
dV<br />
<br />
V0<br />
ΩV = Z G (β, Π, N) (2.90)<br />
· e −β<br />
<br />
H (Γ)+Π V<br />
(2.91)<br />
dΓ p G (Γ)A (Γ) (2.92)<br />
Entropie : S = βkB(〈E〉 + Π〈V 〉) + kB ln(Z G ) = S(β, Π, N) (2.93)<br />
( Beweis? )
2.4. STATISTISCHE GESAMTHEITEN 49<br />
Definiere noch Freie Enthalpie G:<br />
Z G =: e −βG<br />
bzw. G = − 1<br />
β ln Z G<br />
= G(β, Π, N) (2.94)<br />
Dann gilt: G (2.93)<br />
= 〈E〉 + Π〈V 〉 − 1<br />
S (2.95)<br />
βkB<br />
<strong>und</strong><br />
∂<br />
(βG) = 〈E〉 + Π〈V 〉 ;<br />
∂β<br />
∂<br />
G = 〈V 〉 (2.96)<br />
∂Π<br />
2.4.6 Gesamtheiten mit verschiedenen Teilchensorten<br />
• Mikrokanonisches Ensemble: E, V, N1 · · · Nk <br />
fest<br />
ZMK =<br />
dΓ<br />
1<br />
h 3N N1!···Nk!<br />
Ω ∆E<br />
; S MK = kB ln(Z MK ) = S MK (E, V, N1 · · · Nk)<br />
• Kanonisches Ensemble: V, N1 · · · Nk <br />
fest, 〈E〉 vorgegeben<br />
ZK =<br />
1<br />
h 3N N1!···Nk!<br />
Ω<br />
dΓ e −βH (Γ) ; F = − 1<br />
β ln Z K = F (β, V, N1 · · · Nk)<br />
• Großkanonisches Ensemble: V fest, 〈E〉 <strong>und</strong> 〈N1〉 · · · 〈Nk〉 vorgegeben<br />
ZGK = ∞<br />
· · · ∞<br />
<br />
<br />
−β H (Γ)− µj Nj<br />
dΓ e<br />
N1=0<br />
Nk=0<br />
1<br />
h 3N N1!···Nk!<br />
Ω = − 1<br />
β ln Z GK = Ω(β, V, µ1 · · · µk)<br />
• Diverse ” semigroßkanonische“ Ensemble, z.B.<br />
· N1 fest, 〈N2〉 vorgegeben<br />
(Osmose, semipermeable Membran)<br />
· Nj = N fest, aber in diesem Rahmen 〈Nj〉 frei
50 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.5 Kontakt zur Wärmelehre<br />
2.5.0 Vorbemerkung<br />
In den vorherigen Abschnitten: <strong>Statistische</strong> Theorie<br />
❀ Wahrscheinlichkeitsverteilungen <strong>und</strong> Mittelwerte<br />
für verschiedene Systeme (isoliert, geschlossen, offen, . . . )<br />
Jetzt: Kontakt zu den empirischen Beobachtungen aus Kapitel 1 S.11.<br />
<strong>Physik</strong>alische Bedeutung der Parameter β, π, µ<br />
Erinnerung an Kapitel 1 S.11:<br />
Makroskopische Systeme charakterisiert durch Zustandsgröße<br />
- extensive Zustandsgrößen (z.B. E, V, N)<br />
additiv: Bei Aufteilung in Untersysteme ist der<br />
Wert der extensiven Größe im gesamten<br />
Systeme gleich der Summe der<br />
Werte in den Untersystemen<br />
- intensive Zustandsgrößen (z.B. p, T, µ) innerhalb eines Systems konstant<br />
Ausgleich: Bringt man zwei Systeme in Kontakt, so stellt<br />
sich die intensive Größe nach Möglichkeit“ so<br />
”<br />
ein, dass sie in beiden Systemen gleich ist.<br />
” nach Möglichkeit“ = falls Ausgleich durch Austausch einer<br />
zugeordneten extensiven Größe stattfinden kann<br />
z.B. Temperaturausgleich ↔ Wärmeaustausch<br />
Druckausgleich ↔ Volumenaustausch<br />
Temperaturskala ↔ gesetzt durch ideale Gasgesetz p · V = NkBT<br />
kinetische Interpretation der Temperatur: 〈Ekin〉 = N<br />
2 m〈v2 〉 =: 3<br />
2 NkBT<br />
kinetische Gastheorie → ermöglicht Ableitung des idealen Gasgesetzes<br />
❀ Diese Bef<strong>und</strong>e sollen nach Möglichkeit von der statistischen Theorie reproduziert<br />
werden.<br />
Vorgehen:<br />
- Exakte Berechnung des idealen Gases ❀ Identifikation von T <strong>und</strong> p<br />
- Identifikation extensiver <strong>und</strong> intensiver Zustandsgrößen <strong>und</strong> deren Eigenschaften<br />
- Äquivalenz der Gesamtheiten <strong>und</strong> Voraussetzungen dafür
2.5. KONTAKT ZUR WÄRMELEHRE 51<br />
2.5.1 Das klassische ideale Gas<br />
System von N nichtwechselwirkenden Teilchen: H (Γ) = Hkin = p 2 i<br />
2m<br />
❀ kann exakt berechnet werden<br />
(a) Kanonisches Ensemble h 3N p(Γ) = 1<br />
Z K<br />
Zustandssumme : ZK = 1<br />
<br />
V<br />
N! λ3 N T<br />
· e−βH (Γ)<br />
(2.97)<br />
mit λT = h β/2πm thermische de Broglie-Wellenlänge (2.98)<br />
Z = K 1<br />
h3N <br />
dΓ e<br />
N!<br />
Ω<br />
−βH (Γ) = 1<br />
h3N <br />
N!<br />
V N<br />
dq1···dqN<br />
= 1<br />
h3N N <br />
V N dpie<br />
N!<br />
i=1<br />
−β p2 i<br />
2m (2.99)<br />
= 1<br />
N! V N 2πm<br />
βh2 3N<br />
dp1···dpN e −β p2 i<br />
2m<br />
Merke: p2<br />
−β<br />
dp e 2m = √ 2πm/β d =(h/λT ) d (d=Dimension) (2.99)<br />
Freie Energie: F = 1<br />
β<br />
N · ln<br />
N<br />
V<br />
βh 2<br />
2πm<br />
3 <br />
F =− 1<br />
β ln Z 1<br />
= ln(N! λ3N<br />
K β T /V N 1<br />
) ≈<br />
(Stirling: ln N!≈N ln N)<br />
β<br />
❀ mittlere Energie: 〈E〉 = 〈Ekin〉 =<br />
∂(βF )<br />
∂β<br />
(für sehr große N) (2.100)<br />
3 1<br />
= N<br />
2 β<br />
N ln( N<br />
V ·λ3<br />
T )<br />
(2.101)<br />
Vergleiche mit kinetischer Gastheorie : 〈Ekin〉 = N 〈p2 i 〉 3<br />
=<br />
2m 2 N kB T<br />
→ Identifikation β = 1/kBT (2.102)<br />
Bemerkung: Bestätigt kinetische Gastheorie : 〈p 2 i 〉 = 3m<br />
β<br />
- Aus dieser folgte auch P · V = N · kB · T<br />
mit P : mechanischer Druck = Impulsübertrag<br />
Fläche·Zeit<br />
- Interpretation der thermischen de-Broglie-Wellenlänge<br />
<br />
β<br />
2πm<br />
(2.103)<br />
λT = h = h/¯p: de-Broglie-Wellenlänge eines Teilchens mit<br />
<br />
2πm<br />
Impuls ¯p = β ∝ 〈p 2 〉 (thermischer Impuls)<br />
(b) Zum Vergleich: Enthalpisches Ensemble h 3N p(Γ) = 1<br />
Z G<br />
<br />
1<br />
Zustandssumme : ZG =<br />
β Π λ3 T<br />
Z = G 1<br />
h3N ∞<br />
N!<br />
0<br />
= 1<br />
h 3N N!<br />
<br />
N+1<br />
dV<br />
dΓ e−β(H (Γ)+Π V ) 1<br />
= V0 h3N ∞<br />
N!<br />
0<br />
∞<br />
dV<br />
e<br />
V0<br />
0<br />
−β Π V V N N<br />
i=1<br />
<br />
N!(1/β Π) N+1 1<br />
V0 <br />
· e−β(H (Γ)+Π·V )<br />
(für V0 = λ 3 T ) (2.104)<br />
<br />
√ 2πm/β 3<br />
dV<br />
e V0 −β Π V dΓ e−βH (Γ)<br />
dpie −β p2 i<br />
2m = 1<br />
N+1 N 1<br />
1<br />
·<br />
V0 β Π<br />
λT
52 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
Bemerkung: Die Wahl von V0 ist beliebig, spielt für Ergebnisse im limes N → ∞ keine Rolle.<br />
Naheliegend - wegen (a) - ist V0 = λ 3 T<br />
= Ausdehnung eines thermischen Wellenpakets.<br />
Freie Enthalpie: G = − 1<br />
β ln Z 1<br />
G =<br />
β (N + 1) ln(β Π λ3T ) (2.105)<br />
Mittlere Energie: 〈E〉 = 〈Ekin〉 = 3<br />
2<br />
1<br />
N<br />
β<br />
wie bei (a) (2.106)<br />
( Beweis zu Fuß“:<br />
”<br />
〈E〉 = 1 1<br />
Z<br />
G h3N ∞ dV<br />
N! λ<br />
0<br />
3 e<br />
T<br />
−β Π V N p<br />
i=1<br />
dΓ e−βH (Γ)<br />
2 i<br />
2m<br />
<br />
H (Γ)<br />
= 1 1<br />
Z<br />
G h3N ∞<br />
dV<br />
N! λ<br />
0<br />
3 e<br />
T<br />
−β Π V · V N<br />
<br />
N!(1/β Π) N+1 1<br />
λ3 ·<br />
T<br />
N<br />
<br />
p<br />
dpi<br />
i=1<br />
2 i<br />
2m e−β p2 i N<br />
<br />
2m dpj e<br />
j=1<br />
j=i<br />
√ 3<br />
3<br />
2πm/β<br />
2β<br />
−β p2 j<br />
2m<br />
<br />
√ 3<br />
2πm/β<br />
= 1<br />
<br />
1<br />
Z<br />
G β Π λ3 N+1 ·<br />
T<br />
3 1<br />
N 2 β )<br />
Vergleich mit kinetischer Gastheorie liefert wieder: β = 1<br />
kBT ∞<br />
Mittleres Volumen: 〈V 〉 = 1 1<br />
ZG h3N <br />
N!<br />
= − 1<br />
β<br />
0<br />
dV<br />
λ 3 T<br />
e −β Π V · V<br />
<br />
−βH (Γ)<br />
dΓ e<br />
∂<br />
∂Π ln(Z ∂ (N + 1) (N + 1)<br />
G ) = G = = · kB T (2.107)<br />
∂Π β Π Π<br />
Vergleich mit dem idealen Gasgesetz: V = N<br />
P kBT, N ≫ 1<br />
→ Identifikation Π ≡ P = Druck (2.108)<br />
(c) Großkanonisches Ensemble<br />
Rechnung: Übungsaufgabe<br />
Ergebnis:<br />
<br />
V<br />
ZGK = exp e βµ<br />
2.5.2 Zustandsgrößen<br />
λ 3 T<br />
2.5.2.1 Extensive Zustandsgrößen <strong>und</strong> Additivität<br />
Teile System in Untersysteme auf.<br />
Additiv <strong>und</strong> somit extensiv sind:<br />
(2.109)<br />
∗ Volumen: V = Vi (⇒ 〈V 〉 = 〈Vi〉) klar <br />
∗ Teilchenzahl: N = Ni (⇒ 〈N〉 = 〈Ni〉) klar <br />
∗ Energie: E = Ei ? Weniger klar<br />
E = Ei exakt erfüllt nur, wenn es keine Wechselwirkungen zwischen<br />
Untersystemen gibt. Das würde aber bedeuten, dass Energieaustausch<br />
zwischen Untersystemen allenfalls über Teilchenaustausch (Konvektion)<br />
möglich ist, keine andere Form der Wärmeleitung → im Allgemeinen nicht
2.5. KONTAKT ZUR WÄRMELEHRE 53<br />
richtig.<br />
Näherungsweise Additivität gilt aber immer noch bei<br />
” schwacher Kopplung“. Wechselwirkungen zwischen<br />
Untersystemen beschränken sich auf Bereich der Dicke<br />
∆R um die teilenden Grenzflächen. Beitrag zur Gesamtenergie<br />
vernachlässigbar:<br />
E = Ei<br />
<br />
+<br />
∝V<br />
Eij<br />
˜<br />
<br />
≈<br />
∝A: Oberfläche<br />
der Grenzflächen<br />
Ei, wenn<br />
❀ Voraussetzungen für Additivität:<br />
A ∆R<br />
V<br />
≪ 1<br />
- Durchmesser der Untersysteme ≫ ∆R (Wechselwirkungsreichweite)<br />
❀ Systeme groß genug (makroskopisch)<br />
- Wechselwirkungen nicht langreichweitig<br />
Konkret bei zentralsymmetrischen Paarpotentialen:<br />
∞<br />
∞<br />
ϱ dr V (r) < ∞ ⇒ dr rD−1V (r) < ∞ (D: Raumdimension)<br />
R0<br />
∗ Entropie: S = Si<br />
R0<br />
❀ V (r) muss schneller abfallen als 1/r D<br />
Trifft z.B. nicht zu für Coulombkraft, Dipolkraft (falls nicht abgeschirmt),<br />
für Gravitationskraft (nicht abschirmbar)<br />
Gleiche Voraussetzungen wie bei der Energie: S = Si, falls Untersysteme<br />
nicht korreliert sind (vgl. Kapitel 2.3.2 S.37)<br />
❀ Wahrscheinlichkeitsverteilung im Untersystem α darf nur von Vα<br />
oder 〈Vα〉, 〈Eα〉, 〈Nα〉 abhängen.<br />
Das ist nur dann der Fall, wenn die Grenzflächenbeiträge zur Gesamtenergie<br />
nicht ins Gewicht fallen.<br />
Bemerkung: Die Entropie wäre nicht extensiv, wenn wir nicht den Faktor<br />
1/N! in die Wahrscheinlichkeitsverteilung eingeführt hätten. Wären<br />
die Teilchen unterscheidbar“, dann wären alle Untersysteme korreliert,<br />
da jedes” Teilchen mit jedem anderen vertauscht werden kann.<br />
(vgl. ideales Gas, kanonisches Ensemble: ZK = 1<br />
<br />
V<br />
N! λ3 N T<br />
S = βkB〈E〉 + kB ln ZK = 3<br />
2 kBN<br />
<br />
V<br />
+ kBN ln<br />
λ3 kommt von 1/N!<br />
<br />
− kBN ln N<br />
T<br />
<br />
3 N<br />
Mit letztem Term: S = kBN − ln( λ 2 V<br />
<br />
Dichte ϱ<br />
3 T )<br />
<br />
: extensiv<br />
<br />
3<br />
Ohne letzten Term: S = kBN 2 − ln(V/λ3 T )<br />
<br />
: nicht extensiv )<br />
2.5.2.2 Intensive Zustandsgrößen <strong>und</strong> Ausgleich<br />
∗ Temperatur <strong>und</strong> kanonisches Ensemble<br />
Betrachte zwei Systeme im Wärmegleichgewicht, kanonisches Ensemble<br />
Energie <strong>und</strong> Entropie seien additiv: 〈E〉 = 〈E1〉 + 〈E2〉, S = S1 + S2<br />
Maximiere Gesamtentropie S bzgl. β1, β2 mit vorgegebenem 〈E〉
54 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
• Nebenbedingung: δ(〈E〉) = ∂〈E〉<br />
∂β1 δβ1 + ∂〈E〉<br />
∂β2 δβ2 = ∂〈E1〉<br />
∂β1 δβ1 + ∂〈E2〉<br />
∂β2 δβ2 ! = 0<br />
⇒ (1): ∂〈E1〉<br />
∂β1 δβ1 = − ∂〈E2〉<br />
∂β2 δβ2<br />
• Maximierung von S: δS = ∂S<br />
∂β1 δβ1 + ∂S<br />
∂β2 δβ2 = ∂S1<br />
∂β1 δβ1 + ∂S2<br />
∂β2 δβ2 ! = 0<br />
⇒ (2): ∂S1<br />
∂β1 δβ1 = − ∂S2<br />
∂β2 δβ2 für (δβ1, δβ2), die Nebenbedingung erfüllen<br />
∂<br />
• Differenziere Sα = kBβα〈Eα〉 − kBβαFα mit (βαFα) = 〈Eα〉 : (siehe 2.4.3 S.46)<br />
∂βα<br />
⇒ (3): ∂Sα<br />
<br />
= kB〈Eα〉 + βαkB ∂βα ∂〈Eα〉<br />
<br />
∂(βαFα)<br />
− kB ∂βα ∂βα<br />
• Setze (3) in (2): β1kB ∂〈E1〉<br />
∂β1 δβ1<br />
(2)<br />
= −β2kB ∂〈E2〉<br />
∂β2 δβ2<br />
(1)<br />
= β2kB ∂〈E1〉<br />
∂β1 δβ1 ∀δβ1<br />
⇒ β1 = β2 : Temperaturen in beiden Systemen stellen sich gleich ein.<br />
∗ Chemisches Potential <strong>und</strong> großkanonisches Ensemble<br />
Betrachte 2 Systeme im Wärme- <strong>und</strong> Teilchenaustausch (großkanonisch)<br />
mit 〈E〉 = 〈E1〉 + 〈E2〉, 〈N〉 = 〈N1〉 + 〈N2〉, S = S1 + S2<br />
Maximiere Entropie S bzgl. β1, β2, µ1, µ2 mit vorgegebenem 〈E〉, 〈N〉<br />
• Nebenbedingung: δ(〈E〉) = ∂〈E1〉<br />
∂β1 δβ1 + ∂〈E1〉<br />
∂µ1 δµ1 + ∂〈E2〉<br />
∂β2 δβ2 + ∂〈E2〉<br />
∂µ2 δµ2 ! = 0<br />
<br />
∂〈E1〉<br />
⇒ (1a):<br />
∂β1<br />
<br />
∂〈N1〉<br />
(1b):<br />
∂β1<br />
δ(〈N〉) = ∂〈N1〉<br />
∂β1 δβ1 + ∂〈N1〉<br />
∂µ1 δµ1 + ∂〈N2〉<br />
∂β2 δβ2 + ∂〈N2〉<br />
∂µ2 δµ2 ! = 0<br />
<br />
∂〈E1〉<br />
∂µ1<br />
<br />
δβ1<br />
∂〈E2〉 ∂〈E2〉<br />
= −<br />
δµ1<br />
∂β2 ∂µ2<br />
<br />
δβ2<br />
δµ2<br />
<br />
∂〈N1〉<br />
∂µ1<br />
<br />
δβ1<br />
∂〈N2〉 ∂〈N2〉<br />
= −<br />
δµ1<br />
∂β2 ∂µ2<br />
<br />
δβ2<br />
δµ2<br />
• Maximierung von S: δS = ∂S1<br />
∂β1 δβ1 + ∂S1<br />
∂µ1 δµ1 + ∂S2<br />
∂β2 δβ2 + ∂S2<br />
∂µ2 δµ2 ! = 0<br />
<br />
∂S1 ∂S1<br />
⇒ (2): ∂β1 ∂µ1<br />
<br />
δβ1<br />
∂S2 ∂S2<br />
= −<br />
δµ1<br />
∂β2 ∂µ2<br />
<br />
δβ2<br />
δµ2<br />
• Differenziere Sα = kBβα(〈Eα〉 − µα〈Nα〉 − Ωα)<br />
∂<br />
∂<br />
mit (βαΩα) = 〈Eα〉 − µα〈Nα〉 <strong>und</strong> Ωα = −〈Nα〉: (siehe 2.4.4 S.47)<br />
∂βα ∂µα<br />
⇒ (3a): ∂Sα<br />
∂βα =<br />
<br />
∂〈Eα〉 ∂〈Nα〉<br />
kB(〈Eα〉 − µα〈Nα〉) + βαkB − µα − kB ∂βα ∂βα<br />
∂(βαΩα)<br />
<br />
∂βα<br />
(3b): ∂Sα<br />
∂µα =<br />
<br />
∂〈Eα〉 ∂〈Nα〉<br />
− kBβα〈Nα〉 + βαkB − µα − kBβα ∂µα ∂µα<br />
∂Ωα<br />
<br />
∂µα<br />
<br />
∂〈E1〉 ∂〈E1〉<br />
• (3a/b) in (2): kBβ1 ∂β1 ∂µ1<br />
<br />
<br />
δβ1<br />
∂〈N1〉 ∂〈N1〉<br />
− kBβ1µ1<br />
δµ1<br />
∂β1 ∂µ1<br />
<br />
δβ1<br />
δµ1<br />
<br />
∂〈E2〉 ∂〈E2〉<br />
= − kBβ2 ∂β2 ∂µ2<br />
<br />
<br />
δβ2<br />
∂〈N2〉 ∂〈N2〉<br />
− kBβ2µ2<br />
δµ2<br />
∂β2 ∂µ2<br />
<br />
δβ2<br />
δµ2<br />
<br />
∂〈E1〉 ∂〈E1〉<br />
• (1a/b): = kBβ2 ∂β1 ∂µ1<br />
<br />
<br />
δβ1<br />
∂〈N1〉 ∂〈N1〉<br />
− kBβ2µ2<br />
δµ1<br />
∂β1 ∂µ1<br />
<br />
δβ1<br />
∀δβ1∀δµ1<br />
δµ1<br />
⇒ β1 = β2 <strong>und</strong> µ1 = µ2 : µ ist intensive Variable: ” chemisches Potential“<br />
∗ Druck <strong>und</strong> enthalpisches Ensemble<br />
Betrachte 2 Systeme mit Wärme- <strong>und</strong> Volumenaustausch (enthalpisch)<br />
mit 〈E〉 = 〈E1〉 + 〈E2〉, 〈V 〉 = 〈V1〉 + 〈V2〉, S = S1 + S2<br />
Maximiere Entropie S bzgl. β1, β2, P1, P2 mit vorgegebenem 〈E〉, 〈V 〉<br />
- Rechnung genau wie im großkanonischen Ensemble -<br />
⇒ β1 = β2 <strong>und</strong> P1 = P2 : Druck <strong>und</strong> Temperatur gleichen sich an.<br />
Fazit: Die Variablen β ↔ T (Temperatur), P (Druck) <strong>und</strong> µ (chemisches<br />
Potential) sind intensiv <strong>und</strong> machen einen Ausgleich, d.h. sie stellen sich<br />
in Systemen, die die zugeordneten extensiven Größen austauschen können,<br />
gleich ein. Dabei ist die ” zugeordnete“ extensive Größe diejenige Größe,<br />
deren Erwartungswert durch die intensive Größe eingestellt wird.
2.5. KONTAKT ZUR WÄRMELEHRE 55<br />
β ↔ 〈E〉<br />
µ ↔ 〈N〉 (bzw. µα ↔ 〈Nα〉 bei mehreren Teilchensorten)<br />
P ↔ 〈V 〉<br />
Bemerkung: Von manchen Autoren werden einfach alle Variablen, die nicht<br />
mit der Systemgröße anwachsen, intensiv“ genannt - also z.B. auch die<br />
”<br />
Dichte ϱ = V<br />
N . Wir tun dies ausdrücklich nicht, da man viele Sachverhalte<br />
der <strong>Thermodynamik</strong> mit unserer Begriffsbildung viel klarer darstellen<br />
kann (siehe Kapitel 3 S.65). Aber nicht irritieren lassen, wenn die Begriffe<br />
gelegentlich anders benutzt werden.<br />
2.5.2.3 Nochmals Temperatur: Kinetische Interpretation <strong>und</strong> Gleichverteilungssatz<br />
Erinnerung an Kapitel 1:<br />
Temperatur = kinetische Energie von ungeordneter Teilchenbewegung.<br />
Was ist da dran?<br />
Betrachte klassisches wechselwirkendes System:<br />
H = Hpot + Hpot = V (q1, . . . qN) + p 2 i<br />
2m<br />
Kanonische Gesamtheit: ZK = 1<br />
h3N <br />
dq1 . . . dqNe N!<br />
−βHpot<br />
⇒ ZK = 1 1<br />
(<br />
N! λ3 )<br />
T<br />
N<br />
<br />
<br />
β<br />
mit λT = h 2πm<br />
N <br />
i=1<br />
(2.110)<br />
dpie −βp2 i /2m<br />
<br />
√ 2πm/β 3<br />
dq1 . . . dqNe −βHpot (2.111)<br />
: thermische de-Broglie Wellenlänge wie gehabt<br />
Mittlere kinetische Energie pro Bewegungsfreiheitsgrad eines Teilchens:<br />
〈 p2ix 1<br />
〉 =<br />
2m 2 kBT (2.112)<br />
❀ Jeder Bewegungsfreiheitsgrad liefert einen Beitrag 1<br />
2kBT zur mittleren<br />
kinetischen Energie<br />
(Beweis: 〈 p2ix 1 1<br />
〉 = 2m Z N!<br />
K<br />
dq1 . . . dqN e −βHpot ( 1<br />
= dpixe −βp2 ix /2m p2 ix<br />
2m<br />
λ3 )<br />
T<br />
N−1 dpie −βp2 i /2m p2 ix<br />
2m<br />
<br />
dpixe−βp2 ix /2m = 1<br />
2β )<br />
Bemerkung: Bestätigt die kinetische Interpretation der Temperatur<br />
für klassische, nichtrelativistische Systeme
56 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
2.5.3 Äquivalenz der Gesamtheiten<br />
Betrachte makroskopisches System fester Größe V ,<br />
teile es ein in gleiche Untersysteme Vi<br />
Additive Größen N, E, S haben in jedem Untersystem gleiche Verteilung<br />
Betrachte nun den thermodynamischen Limes: Vi → ∞, V = m → 0<br />
Vi<br />
Mikrokanonisches Ensemble: E = Ei, N = Ni fest (Bedingung an Ei,<br />
Ni)<br />
Kanonisches Ensemble: N = Ni fest, aber E = Ei frei<br />
Zentraler Grenzwertsatz: Falls Verteilung fE(Ei) der Energie in den Untersystemen<br />
ein zweites Moment hat, ist E gaußverteilt<br />
mit σE/〈E〉 ∝ 1/ √ m → 0<br />
Für makroskopisches System mit fluktuierendem Volumen V gilt ähnliche<br />
Überlegung, man muss nur das System anders einteilen.<br />
→ Fazit:<br />
Im thermodynamischen Limes N → ∞ bzw. V → ∞<br />
(also in makroskopischen Systemen) werden die relativen<br />
Schwankungen extensiver Zustandsgrößen beliebig klein.<br />
❀ Verschiedene Gesamtheiten können als äquivalent<br />
angesehen werden.<br />
Voraussetzungen:<br />
• Keine langreichweitigen Wechselwirkungen<br />
(sonst ist Additivität der Energie schon nicht gegeben)<br />
• Die Verteilung der betrachteten extensiven Größe musss<br />
ein zweites Moment haben<br />
(ist z.B. bei kritischen Phänomenen nicht erfüllt)<br />
(2.113)
2.6. BEZIEHUNGEN ZWISCHEN ZUSTANDSGRÖSSEN 57<br />
2.6 Beziehungen zwischen Zustandsgrößen<br />
2.6.1 Zusammenhänge zwischen Zustandsgrößen für die wichtigsten<br />
statistischen Gesamtheiten ” einfacher“ Systeme<br />
” Einfache“ Systeme: Eine Teilchensorte, keine zusätzlichen makroskopischen<br />
Freiheitsgrade (wie z.B. Magnetisierung, elektr. Dipolmoment etc.). Zustandgrößen:<br />
extensiv: S, E, V, N, intensiv: T, µ, P<br />
Jede Gesamtheit wird durch Vorgabe dreier Zustandsgrößen bestimmt. Wegen<br />
(2.76) sollten darüberhinaus alle Zustandgrößen immer definiert sein. Wir<br />
rekapitulieren <strong>und</strong> ergänzen bisherige Definitionen systematisch:<br />
Gesamtheit<br />
mikrokanonisch<br />
vorgegeben<br />
E, V, N Z MK<br />
Zustandssumme<br />
(2.72)<br />
=<br />
isoenthalpisch H, P, N ZH = 1<br />
h3N ∞<br />
N!<br />
0<br />
kanonisch T, V, N Z K<br />
enthalpisch T, P, N Z G<br />
großkanonisch T, V, µ Z GK<br />
allgemein<br />
großkanonisch<br />
(2.76)<br />
=<br />
(2.90)<br />
=<br />
(2.83)<br />
=<br />
T, P, µ Z ∆ = ∞<br />
N=0<br />
1<br />
h3N <br />
dΓ<br />
N!<br />
{Γ:H (Γ)∈[E,E+∆E]}<br />
dV<br />
V0<br />
1<br />
h3N <br />
N!<br />
Ω<br />
1<br />
h3N ∞<br />
N!<br />
0<br />
dΓ<br />
{Γ:H (Γ)+P V ∈[H,H+∆H]}<br />
− 1 H (Γ)<br />
k T<br />
dΓ e B<br />
<br />
dV<br />
− 1 H (Γ)+P V<br />
k T<br />
dΓ e B<br />
V0<br />
Ω<br />
<br />
− 1 H (Γ)−µN<br />
k T<br />
dΓ e B<br />
∞ 1<br />
h<br />
N=0<br />
3N <br />
N!<br />
Ω<br />
1<br />
h3N <br />
∞ dV<br />
− 1 H −µN+P V<br />
k T<br />
dΓ e B<br />
N! V0<br />
0 Ω<br />
Charakteristische<br />
Größe ” ln Z“<br />
S (2.75)<br />
= k B ln Z MK<br />
S = k B ln Z H<br />
F (2.80)<br />
= −k B T ln Z K<br />
G (2.94)<br />
= −k B T ln Z G<br />
Ω (2.87)<br />
= −k B T ln Z GK<br />
∆ = −k B T ln Z ∆<br />
(2.114)<br />
Tabelle 2 zeigt, wie man in einer Gesamtheit die nicht vorgegebenen Zustandsgößen<br />
berechnet (Beweise siehe Abschnitt 2.6.2)<br />
Gesamtheit Charakteristische abgeleitete Zustandsgrößen<br />
(vorgegeben) Größe ” ln Z“<br />
mikrokanonisch<br />
(E, V, N)<br />
isoenthalpisch<br />
(H, P, N)<br />
kanonisch<br />
(T, V, N)<br />
enthalpisch<br />
(T, P, N)<br />
großkanonisch<br />
(T, V, µ)<br />
allgemein<br />
großkanonisch<br />
(T, P, µ)<br />
Bemerkungen:<br />
S<br />
S<br />
F (2.81)<br />
= 〈E〉 − T S<br />
G (2.95)<br />
= 〈E〉 − T S<br />
+P 〈V 〉<br />
Ω (2.88)<br />
= 〈E〉 − T S<br />
−µ〈N〉<br />
∆ = 〈E〉 − T S<br />
−µ〈N〉 + P 〈V 〉<br />
<br />
∂S <br />
∂E <br />
V,N<br />
<br />
∂S <br />
∂H <br />
P,N<br />
= 1<br />
T<br />
= 1<br />
T<br />
<br />
∂F <br />
∂T = −S<br />
V,N<br />
<br />
∂G <br />
∂T = −S<br />
P,N<br />
<br />
∂Ω <br />
∂T = −S<br />
V,µ<br />
<br />
∂∆ <br />
∂T = −S<br />
P,µ<br />
∂S<br />
∂V<br />
<br />
<br />
<br />
N,E<br />
<br />
∂S <br />
∂P <br />
N,H<br />
∂F<br />
∂V<br />
= P<br />
T<br />
= −V<br />
T<br />
<br />
<br />
= −P<br />
N,T<br />
<br />
∂G <br />
∂P = 〈V 〉<br />
N,T<br />
∂Ω<br />
∂V<br />
<br />
<br />
= −P<br />
µ,T<br />
<br />
∂∆ <br />
∂P = 〈V 〉<br />
µ,T<br />
<br />
∂S <br />
∂N <br />
E,V<br />
<br />
∂S <br />
∂N <br />
H,P<br />
= −µ<br />
T<br />
= −µ<br />
T<br />
<br />
∂F <br />
∂N = µ<br />
T,V<br />
<br />
∂G <br />
∂N = µ<br />
T,P<br />
<br />
∂Ω <br />
∂µ = −〈N〉<br />
T,V<br />
<br />
∂∆ <br />
∂µ = −〈N〉<br />
T,P<br />
(2.115)
58 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
1. Ableitungen der charakteristischen Größe ” ln Z“ nach einer extensiven<br />
Zustandsgröße führen zu einer intensiven Zustandsgröße - <strong>und</strong> umgekehrt.<br />
2. Die Formeln in Spalte 2 “Charakteristische Größe“ wurden zum größten<br />
Teil schon in Abschnitt 2.4 S.42 gezeigt.<br />
3. Einige Formeln in den Spalten 3-5 “Abgeleitete Zustandsgrößen“ werden<br />
im folgenden Abschnitt exemplarisch bewiesen.<br />
4. Schreibweise als vollständiges Differential, z.B. Zeile 1 von Übersicht 2<br />
(mikrokanonisch): Vollständiges Differential von S = S(E, V, N):<br />
dS = 1 P<br />
dE +<br />
T T<br />
µ<br />
dV − dN (2.116)<br />
T<br />
5. Überlegung: Welche physikalisch sinnvollen Größen kann es geben?<br />
Eine Gesamtheit ist definiert durch die Rahmenbedingungen eines makroskopischen<br />
Systems<br />
- mikroskopisch festgehaltene extensive Größen<br />
- vorgegebene intensive Größen<br />
Festgehalten werden kann durch<br />
- <strong>und</strong>urchlässige Wände: Teilchenzahl N<br />
- unbewegliche Wände: Volumen V<br />
- isolierende Wände:<br />
(V, N) vorgegeben → Energie E<br />
(P, N) vorgegeben nicht Energie<br />
denn mit jeder Volumenschwankung ∆V wird Arbeit P ·∆V<br />
verrichtet ❀ Energie entweder zugeführt oder entzogen. Bei<br />
isolierenden Wänden gilt aber ∆E = −P · ∆V → E + P · V<br />
bleibt erhalten.<br />
→ Enthalpie H = E + P · V<br />
(V, µ) vorgegeben<br />
Teilchenaustausch, Teilchen führen Wärme mit sich → de<br />
facto wie Wärmebad.<br />
(Formal kann man ein System definieren, in dem E − µN<br />
erhalten bleibt, aber praktische Anwendung kann ich mir<br />
nicht vorstellen)
2.6. BEZIEHUNGEN ZWISCHEN ZUSTANDSGRÖSSEN 59<br />
2.6.2 Beweis einiger Formeln für ” Abgeleitete Zustandsgrößen“<br />
Vorbemerkung<br />
Jede Ableitung in Übersicht 2 muss im Moment im Prinzip noch einzeln<br />
berechnet werden - etwas unsystematisch. Wir beschränken uns auf einige<br />
exemplarische Beweise.<br />
❀ Die <strong>Thermodynamik</strong> (Kapitel 3 S.65) wird dies formal auf eine solidere<br />
Basis stellen:<br />
Beweis von Spalte 3 Zeile 3 (kanonisch)<br />
Zu zeigen: ∂F<br />
<br />
<br />
∂T = −S<br />
V,N<br />
(2.82), (2.81) → 〈E〉 = ∂<br />
(βF ) <strong>und</strong> F = 〈E〉 − T · S<br />
∂β<br />
⇒ 〈E〉 = ∂<br />
∂F<br />
∂F dT<br />
∂F d(k<br />
(βF ) = F + β = F + β = F + β Bβ)<br />
∂β ∂β ∂T dβ ∂T<br />
−1<br />
dβ<br />
= 〈E〉 − T · S − T ∂F<br />
∂T <br />
Beweis von Spalte 3 Zeile 5 (großkanonisch)<br />
= F − β ∂F<br />
∂T<br />
Zu zeigen: ∂Ω<br />
<br />
<br />
∂T = −S<br />
V,µ<br />
(2.89), (2.88) → 〈E〉 − µ〈N〉 = ∂<br />
(βΩ) <strong>und</strong> Ω = 〈E〉 − µ〈N〉 − T · S<br />
∂β<br />
⇒ 〈E〉 − µ〈N〉 = ∂<br />
∂Ω<br />
∂Ω dT<br />
∂Ω d(k<br />
(βΩ) = Ω + β = Ω + β = Ω + β Bβ)<br />
∂β ∂β ∂T dβ ∂T<br />
−1<br />
dβ<br />
= 〈E〉 − µ〈N〉 − T · S − T ∂Ω<br />
∂T<br />
Beweis von Spalte 3 Zeile 4 (enthalpisch)<br />
Zu zeigen: ∂G<br />
<br />
<br />
∂T = −S<br />
P,N<br />
(2.96), (2.95) → 〈E〉 + P 〈V 〉 = ∂<br />
(βG) <strong>und</strong> G = 〈E〉 + P 〈V 〉 − T · S<br />
∂β<br />
⇒ 〈E〉 + P 〈V 〉 = ∂<br />
∂G<br />
∂G dT<br />
∂G d(k<br />
(βG) = G + β = G + β = G + β Bβ)<br />
∂β ∂β ∂T dβ ∂T<br />
−1<br />
dβ<br />
= 〈E〉 + P 〈V 〉 − T · S − T ∂G<br />
∂T<br />
Beweis von Spalte 3 Zeile 1 (mikrokanonisch)<br />
<br />
<br />
1<br />
k Bβ 2<br />
= Ω − β ∂Ω<br />
∂T<br />
= G − β ∂G<br />
∂T<br />
Zu zeigen: ∂S<br />
<br />
<br />
∂E =<br />
V,N<br />
1<br />
T<br />
Betrachte S <strong>und</strong> E in kanonischer Situation: E(T, V, N), S(T, V, N)<br />
(i) S = E−F<br />
<br />
∂S <br />
⇒ T ∂T =<br />
V,N<br />
∂ E−F E − F<br />
= − ∂T T T 2<br />
+<br />
<br />
S/T<br />
1<br />
<br />
∂E <br />
T ∂T −<br />
V,N<br />
1 ∂F<br />
<br />
<br />
T =<br />
∂T V,N<br />
<br />
−S<br />
1<br />
<br />
∂E <br />
T ∂T <br />
V,N<br />
(ii) δS = ∂S<br />
<br />
<br />
∂T δT +<br />
V,N<br />
∂S<br />
<br />
<br />
∂V δV +<br />
N,T<br />
∂S<br />
<br />
<br />
∂N δN<br />
T,V<br />
δE = ∂E<br />
<br />
<br />
∂T δT +<br />
V,N<br />
∂E<br />
<br />
<br />
∂V δV +<br />
N,T<br />
∂E<br />
<br />
<br />
∂N δN<br />
T,V<br />
(iii) N, V = const. ⇒ δV = δN = 0 ⇒ δS<br />
<br />
∂S <br />
= δE ∂E =<br />
V,N<br />
∂S<br />
<br />
∂E (∗) 1<br />
∂T ∂T = T<br />
V,N V,N<br />
<br />
Beweis von Spalte 4 Zeile 1 (mikrokanonisch)<br />
Zu zeigen: ∂S<br />
<br />
<br />
∂V =<br />
E,N<br />
P<br />
T<br />
Betrachte S, V <strong>und</strong> E in enthalpischer Situation: S(T, P, N), V (T, P, N), E(T, P, N)<br />
1<br />
kBβ 2<br />
1<br />
kBβ 2<br />
vereinfachte Schreibweise: 〈E〉 → E <strong>und</strong> 〈V 〉 → V erlaubt <strong>und</strong> sinnvoll im thermodynamischen<br />
Limes (siehe 2.5.3 S.56 ” Äquivalenz der Gesamtheiten“)<br />
E+P V −G<br />
(i) S = (2.4.4 S.47)<br />
T<br />
⇒ ∂S<br />
<br />
<br />
∂T =<br />
P,N<br />
∂ E+P V −G E + P V − G<br />
= − ∂T T<br />
T 2<br />
<br />
+<br />
<br />
S/T<br />
1<br />
<br />
∂E <br />
T ∂T +<br />
P,N<br />
P<br />
<br />
∂V <br />
T ∂T −<br />
P,N<br />
1<br />
<br />
∂G<br />
<br />
<br />
T (1)<br />
∂T P,N<br />
<br />
−S<br />
⇒ ∂S<br />
<br />
<br />
∂P =<br />
N,T<br />
∂ E+P V −G<br />
= ∂P T<br />
1<br />
<br />
∂E <br />
T ∂P +<br />
N,T<br />
V<br />
<br />
+ T<br />
P<br />
<br />
∂V <br />
T ∂P −<br />
N,T<br />
1<br />
V<br />
<br />
∂G<br />
<br />
<br />
T (2)<br />
∂P N,T<br />
(∗)
60 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
(ii) N, E = const. ⇒ δE = δN = 0<br />
⇒ δE = ∂E<br />
<br />
<br />
∂T δT +<br />
P,N<br />
∂E<br />
<br />
<br />
∂P δP +<br />
N,T<br />
∂E<br />
<br />
<br />
∂N δN = 0 (3)<br />
T,P<br />
⇒ δV = ∂V<br />
<br />
<br />
∂T δT +<br />
P,N<br />
∂V<br />
<br />
<br />
∂P δP +<br />
N,T<br />
∂V<br />
<br />
<br />
∂N δN<br />
(4)<br />
T,P<br />
⇒ δS = ∂S<br />
<br />
<br />
∂T δT +<br />
P,N<br />
∂S<br />
<br />
<br />
∂P δP +<br />
N,T<br />
∂S<br />
<br />
<br />
∂N δN<br />
T,P<br />
<br />
(1,2) 1 ∂E <br />
= T ∂T δT +<br />
P,N<br />
P<br />
<br />
∂V <br />
T ∂T δT +<br />
P,N<br />
1<br />
<br />
∂E <br />
T ∂P δP +<br />
N,T<br />
P<br />
<br />
∂V <br />
T ∂P δP<br />
N,T<br />
(3,4)<br />
= P<br />
δV (5)<br />
T<br />
(iii) δS<br />
<br />
∂S (5) P<br />
= δV ∂V = T<br />
E,N
2.6. BEZIEHUNGEN ZWISCHEN ZUSTANDSGRÖSSEN 61<br />
2.6.3 <strong>Statistische</strong> Fluktuationen <strong>und</strong> Suszeptibilitäten<br />
Suszeptibilität: beschreibt allgemein die Reaktion einer extensiven Größe auf<br />
Änderung einer intensiven Größe<br />
Besonders bekannt sind:<br />
Kompressibilität: κ = − 1 ∂V<br />
V ∂P<br />
Volumenausdehnungskoeffizient: α = 1<br />
V<br />
Spezifische Wärme: c = T ∂S<br />
N ∂T<br />
Begründung zur spezifischen Wärme:<br />
∂V<br />
∂T<br />
(2.117)<br />
(2.118)<br />
(2.119)<br />
Wärme δQ, die zugeführt werden muss, um eine Temperaturänderung dT zu erzielen:<br />
Kanonisch: δQ = dE = d(F + T S)<br />
Enthalpisch: δQ = dH = d(E + P V ) = d(G + T S)<br />
⇒ δQ<br />
dT<br />
= T ∂S<br />
∂T<br />
<br />
∂F <br />
in beiden Fällen (da ∂T =<br />
V,N<br />
∂G<br />
<br />
<br />
∂T )<br />
P,N<br />
Üblicherweise wird noch normiert ( 1<br />
N oder<br />
1<br />
Masse )<br />
Suszeptibilitäten hängen im allgemeinen vom Ensemble ab<br />
(z.B. ist c P bei konstantem Druck = c V bei konstantem Volumen)<br />
<strong>Statistische</strong> Berechnung<br />
Beispiele<br />
→ Suszeptibilitäten hängen immer mit Fluktuationen <strong>und</strong> Korrelationen<br />
extensiver Größen zusammen-<br />
(Anschaulich: starke Fluktuationen ❀ starke Reaktion auf äußere Felder<br />
möglich)<br />
∗ Kompressibilität (Enthalpisches Ensemble (N, P, T ))<br />
∂V ∂ 1 1<br />
= ∂P ∂P Z<br />
G h3N <br />
dV<br />
dΓ e−β(H +P V ) V<br />
N! V0<br />
= 1<br />
Z2 1<br />
ZG<br />
h<br />
G<br />
3N dV<br />
dΓ e−β(H +P V ) (−βV 2 )<br />
N! V0<br />
−(−β) 1<br />
h3N dV<br />
dΓ e−β(H +P V ) 2 V<br />
N! V0<br />
= −β(〈V 2 〉 − 〈V 〉 2 )<br />
⇒ κ = − 1 ∂V<br />
=<br />
V ∂P<br />
Kompressibilität<br />
1<br />
(〈V<br />
kBT V<br />
2 〉 − 〈V 〉 2 )<br />
<br />
Volumenfluktuationen<br />
(2.120)<br />
Wenn das Volumen ohnehin stark schwankt, lässt es sich leichter<br />
komprimieren.<br />
∗ Spezifische Wärme (festes T, N)<br />
(Rechnung: Übungsaufgabe)
62 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN<br />
(N, V, T ) Ensemble : c V =<br />
(N, P, T ) Ensemble : c P =<br />
1<br />
kBT 2N (〈E2 〉 − 〈E〉 2 ) (2.121)<br />
1<br />
kBT 2N (〈H2 〉 − 〈H〉 2 )<br />
(mit H = E + P V )<br />
(2.122)<br />
∗ Volumenausdehnung ( (N, P, T ) Ensemble)<br />
α =<br />
1<br />
kBT 2 {(〈V E〉 − 〈V 〉〈E〉 ) + P · (<br />
V <br />
〈V<br />
Korrelationen<br />
2 〉 − 〈V 〉 2<br />
<br />
)} (2.123)<br />
Volumenfluktuationen
2.7. ZUSAMMENFASSUNG 63<br />
2.7 Zusammenfassung<br />
Zu Kapitel 2: Gr<strong>und</strong>lagen der <strong>Statistische</strong>n Mechanik<br />
∗ Begründung: Ergodizitätshxpothese<br />
<strong>und</strong>/oder Prinzip der maximalen Ignoranz<br />
∗ Zentrale Größe: Entropie<br />
S = −kB 〈ln p Γ 〉<br />
S = −kB 〈ln h 3N p(Γ) 〉<br />
diskrete Zustände Γ, (2.71) <br />
kontinuierliche Zustände, (2.70) <br />
Im Thermodynamischen Gleichgewicht (keine Erinnerung an<br />
” Anfangsbedingungen“): Wahrscheinlichkeitsverteilung p<br />
mikroskopischer Zustände Γ maximiert S.<br />
❀ (je nach Randbedingung) Verteilungen der versch. Gesamtheiten<br />
∗ Wichtige Begriffe<br />
- Extensive Zustandsgröße: additiv, Erhaltungsgröße in isoliertem System<br />
- Intensive Zustandsgröße: Räumlich konstant, Ausgleich<br />
Extensiv: N, V, E ∗ ; S ∗ (abgeleitete Zustandsgröße)<br />
Intensiv ∗ : T, P, µ<br />
(∗): Falls endliche Wechselwirkungsreichweite<br />
makroskopische Systeme<br />
- Falls Entropie extensiv: Thermodynamischer Limes<br />
bei festem N/V = const.<br />
lim<br />
N,V →∞<br />
∗ Falls zusätzlich noch die Häufigkeitsverteilung für extensive Größen N, V, E, S<br />
in makroskopischen Teilsystemen ein zweites Moment hat, gilt:<br />
Gesamtheiten für verschiedene Randbedingungen äquivalent<br />
→ Feste Beziehungen zwischen Zustandsgrößen,<br />
unabhängig von Randbedingungen<br />
→ Definition eines (Makro)- Zustands<br />
∗ Praktische Rechnungen ↔ Zustandssumme
64 KAPITEL 2. MIKROSKOPISCHER ZUGANG: GRUNDLAGEN
Kapitel 3<br />
<strong>Thermodynamik</strong><br />
c○ Copyright 2005 Friederike Schmid 1<br />
3.0 Einleitung<br />
<strong>Statistische</strong> <strong>Physik</strong>: Ausgehend von mikroskopischem Bild<br />
❀ Zustände, Zustandsgrößen<br />
Entropie (↔ Information) mit bestimmten Eigenschaften<br />
<strong>Thermodynamik</strong>: Axiomatischer Zugang<br />
Vergiß mikroskopischen Hintergr<strong>und</strong><br />
Postuliere die Existenz von Zuständen <strong>und</strong> Zustandsgrößen<br />
Postuliere Entropie mit gewünschten Eigenschaften<br />
❀ Frage: Was kann man aus diesen Strukturen folgern?<br />
→ Phänomenologische Beschreibung von Makrosystemen im thermodynamischen<br />
Gleichgewicht, kommt ohne mikroskopische Annahmen aus<br />
1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />
Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />
65
66 KAPITEL 3. THERMODYNAMIK<br />
3.1 Postulate der <strong>Thermodynamik</strong> (Entropiepostulate)<br />
Hier: Für einfache Systeme (homogen, eine Substanz, keine äußeren Felder,<br />
keine Oberflächeneffekte, . . . )<br />
Verallgemeinerungen auf kompliziertere Systeme ergeben sich ” organisch“<br />
1. Postulat<br />
Es gibt eine extensive Zustandsvariable U, die ” innere Energie“,<br />
<strong>und</strong> Gleichgewichtszustände, die durch einen Satz von Zustandsvariablen<br />
U, V <strong>und</strong> N vollständig charakterisiert werden.<br />
(vollständiger Satz von Zustandsvariablen, vgl. Quantenmechanik)<br />
2. Postulat:<br />
Für jeden Gleichgewichtszustand existiert eine Zustandsvariable<br />
S, die ” Entropie“, mit den folgenden Eigenschaften:<br />
(i) S ist extensiv<br />
(ii) S(U, V, N) ist differenzierbar (zwei Mal)<br />
(iii) S wächst streng monoton in U<br />
(3.1)<br />
(3.2)<br />
NB: ◮ S muss sich als Funktion von U, V, N darstellen lassen, da Gleichgewichtszustände<br />
durch U, V, N bereits charakterisiert sind.<br />
3. Postulat:<br />
◮ Aus (iii) folgt: Inverse Funktion U(S, V, N) existiert <strong>und</strong> differenzierbar.)<br />
Der Gleichgewichtszustand eines isolierten Systems ist von<br />
mehreren möglichen Zuständen derjenige, für den die Entropie<br />
maximal ist.<br />
(3.3)<br />
4. Postulat:<br />
Die Entropie verschwindet in Systemen mit ∂U<br />
<br />
<br />
∂S <br />
V,N<br />
= 0 (3.4)<br />
Bemerkungen<br />
( ∂U<br />
∂S<br />
= 0 ⇒ S = 0)<br />
(a) Postulate 1-4 bilden ein vollständiges System von Basissätzen für einfache<br />
Systeme. (Für kompliziertere Systeme muss man in Postulat 1 weitere<br />
extensive Zustandsvariablen aufnehmen.)<br />
(b) Postulat 1 = 1. Hauptsatz der <strong>Thermodynamik</strong><br />
Innere Energie U entspricht Zustandsgröße E aus Kapitel 2.<br />
→ Deutlich zu unterscheiden von Arbeit <strong>und</strong> Wärme
3.1. POSTULATE DER THERMODYNAMIK (ENTROPIEPOSTULATE)67<br />
Arbeit: mechanische Energie - vom System abgegeben <strong>und</strong> mechanisch<br />
umgesetzt, oder am System geleistete Arbeit<br />
Wärme: Bei thermischem Ausgleich übertragene Energie<br />
❀ Flüsse , keine Zustandsgrößen<br />
Der 1. Hauptsatz der <strong>Thermodynamik</strong> sagt aus:<br />
Bei Prozessen, die einen Gleichgewichtszustand in einen anderen<br />
überführen, gilt allgemein:<br />
∆U<br />
<br />
Änderung der<br />
Zustandsgröße U<br />
= Q<br />
<br />
Wärme<br />
+ W<br />
<br />
Arbeit<br />
<br />
Flüsse<br />
(3.5)<br />
Wenn Prozesse quasistatisch sind, d.h. System während des ganzen<br />
Prozesses im Gleichgewicht, d.h. U(S, V, N) ständig definiert (beliebig<br />
langsamer Prozess), gilt auch Differentialform<br />
dU<br />
<br />
totales Differential<br />
der Funktion U(S,V,N)<br />
= δQ + δW<br />
<br />
keine totalen<br />
Differentiale<br />
(c) Postulate 2 <strong>und</strong> 3 = 2. Hauptsatz der <strong>Thermodynamik</strong><br />
(3.6)<br />
→ dU = 0; δQ = 0; δW = 0<br />
(Darauf kommen wir noch zurück)<br />
Postulat 3 sagt aus, was passiert, wenn zwei Systeme in Kontakt gebracht<br />
werden (Gleichgewichtsbedingungen)<br />
(d) Postulat 4 = 3. Hauptsatz der <strong>Thermodynamik</strong><br />
bzw. ” Nernst’sches Theorem“<br />
Hat keine Begründung in der klassischen statistischen Mechanik,<br />
schlimmer noch: Gilt da gar nicht.<br />
Gilt in der Quantenmechanik; Begründung: Eindeutiger Gr<strong>und</strong>zustand.<br />
Mehr dazu später.<br />
Folgerungen aus den Entropiepostulaten<br />
(1) Homogenität<br />
Betrachte homogenes System (U, V, N) → Entropie S(U, V, N)<br />
Teile es auf in n gleiche Subsysteme;<br />
→ jedes Subsystem definiert durch U ′ , V ′ , N ′<br />
hat Entropie S ′ (U ′ , V ′ , N ′ )<br />
mit nU ′ = U, nV ′ = V , nN ′ = N<br />
Betrachte System bestehend aus m Subsystemen, λ = m<br />
n<br />
⇒ S(λU, λV, λN) = λS(U, V, N) (3.7)<br />
Entropie als Funktion von extensiven Variablen<br />
ist homogen vom Grad 1
68 KAPITEL 3. THERMODYNAMIK<br />
Konsequenzen aus Homogenität<br />
(2) Konvexität<br />
• Wähle λ = 1 1<br />
U V<br />
N ⇒ N S(U, V, N) = S( N , N , 1) ≡ s(u, v)<br />
mit Dichten u = U V S<br />
N , v = N , s = N<br />
Analog: 1<br />
N U(S, V, N) = u(s, v)<br />
• Eulersche Homogenitätsrelation:<br />
Eine Funktion f(x1, · · · xr) heißt homogen vom Grad s, wenn<br />
f(λx1, · · · λxr) = λsf(x1, · · · xr). Dann gilt<br />
r ∂f<br />
· xi = s f (3.8)<br />
∂xi<br />
i=1<br />
( Beweis: d<br />
dλ f(λx1, · · · λxr) = d<br />
dλ λsf(x1, · · · xr) = s λs−1f(x1, · · · xr)<br />
= r<br />
i=1<br />
∂f(λx1,···λxr)<br />
∂λx i<br />
· d(λx i)<br />
dλ<br />
= r<br />
i=1<br />
Angewandt auf S : S = ∂S<br />
∂U<br />
Analog für U : U = ∂U<br />
∂S<br />
S + ∂U<br />
∂V<br />
∂f(λx1,···λxr)<br />
∂λx i<br />
U + ∂S<br />
∂V<br />
· xi Wähle λ = 1 )<br />
V + ∂S<br />
∂N<br />
V + ∂U<br />
∂N<br />
N (3.9)<br />
N (3.10)<br />
Betrachte System mit Entropiefunktion s(u, v) wie im<br />
Bild. Behauptung: Entropie im Bereich zwischen A<br />
<strong>und</strong> B kann erhöht werden durch Aufspaltung in Teilsysteme<br />
A,B (mit Teilchenzahlen NA, NB <strong>und</strong> Energiedichten<br />
pro Teilchenzahl uA, uB).<br />
Beweis: NA + NB = N <strong>und</strong> NAuA + NBuB = U ⇒ NA = N u B−u<br />
u B−u A <strong>und</strong> NB = N u−u A<br />
u B−u A<br />
⇒ S = NAsA + NBsB = N{sA + (u − uA) s B−s A<br />
u B−u A } = konkave Einhüllende<br />
→ Oben gezeigte Entropiefunktion nicht kompatibel mit 3. Hauptsatz<br />
Tatsächliche Entropie S(U, V, N) konkav: ∂ 2 S<br />
∂U 2 ≤ 0 (3.11)<br />
analog :<br />
∂2S ≤ 0,<br />
∂V 2<br />
∂2S ≤ 0 (3.12)<br />
∂N 2<br />
allgemein : ←→ ∂2 S negativ definit (3.13)<br />
Umgekehrt: Klappe Bild um:<br />
∂<br />
→ U(S, V, N) konvex,<br />
2U ≥ 0 (3.14)<br />
∂S2 allgemein : ←→ ∂2 U positiv definit (3.15)<br />
Ergänzungen (in Vorbereitung)
3.2. GIBBSSCHE GRUNDFORM 69<br />
3.2 Gibbssche Gr<strong>und</strong>form<br />
Herleitung<br />
2. Entropiepostulat: Es existiert Funktion S(U, V, N), differenzierbar<br />
→ totales Differential: dS = ∂S<br />
∂U<br />
Identifikation: ∂S<br />
∂U<br />
1 ∂S = T , ∂V<br />
⇒ dS = 1 P<br />
dU +<br />
T T<br />
Umgekehrt (nach dU aufgelöst)<br />
Folgerungen<br />
P ∂S = T , ∂N<br />
∂S ∂S<br />
dU + ∂V dV + ∂N dN<br />
= −µ<br />
T<br />
µ Gibbssche Gr<strong>und</strong>form<br />
dV − dN<br />
T in Entropiedarstellung<br />
(siehe (2.116)<br />
(3.16)<br />
dU = T dS − P dV + µdN in Energiedarstellung (3.17)<br />
(1) Entropie <strong>und</strong> Wärme<br />
Vergleiche Gibbssche Gr<strong>und</strong>form mit 1. Hauptsatz für quasistatische<br />
Prozesse, dU (3.6)<br />
= δQ + δW<br />
1. Hauptsatz formuliert für feste Teilchenzahl ⇒ dN = 0<br />
Arbeit δW = −P dV (3.18)<br />
⇒ δQ = T dS Entropieänderung = Wärmefluss (3.19)<br />
NB: Damit wird dS messbar! (∆Q ↔ z.B. Tauchsieder)<br />
(2) P, µ, T sind als Funktionen von U, V, N bzw. S, V, N<br />
homogen vom Grad 0<br />
z.B. T (λS, λV, λN) = ∂U(λS,λV,λN)<br />
∂(λS)<br />
= λ∂U(S,V,N)<br />
λ∂S<br />
(3) Gleichgewichtsbedingungen in isolierten Systemen<br />
• Thermisch<br />
= T (S, V, N)λ 0<br />
U = U1 + U2, V1, V2, N1, N2 fest<br />
→ δU1 = −δU2<br />
S = S1(U1, V1, N1) + S2(U2, V2, N2) = max<br />
⇒ ∂S1<br />
∂U1 δU1 + ∂S2<br />
∂U2 δU2 = 0<br />
⇒ ( 1<br />
T1<br />
− 1<br />
T2 )δU1 = 0 ⇒ T1 = T2 : Temperaturausgleich<br />
• Thermisch-mechanisch<br />
U = U1 + U2, V = V1 + V2, N1, N2 fest<br />
→ δU1 = −δU2, δV1 = −δV2<br />
S = S1(U1, V1, N1) + S2(U2, V2, N2) = max<br />
⇒ ∂S1<br />
∂U1 δU1 + ∂S1<br />
∂V1 δV1 + ∂S2<br />
∂U2 δU2 + ∂S2<br />
∂V2 δV2 = 0<br />
⇒ ( 1<br />
T1<br />
− 1<br />
T2 )δU1 + ( P1<br />
T1<br />
− P2<br />
T2 )δV1 = 0 ∀δU1, δV1 ⇒ T1 = T2, P1 = P2
70 KAPITEL 3. THERMODYNAMIK<br />
• Thermisch-materiell<br />
U = U1 + U2, N = N1 + N2, V1, V2 fest<br />
→ δU1 = −δU2, δN1 = −δN2<br />
S = S1(U1, V1, N1) + S2(U2, V2, N2) = max<br />
⇒ ∂S1<br />
∂U1 δU1 + ∂S1<br />
∂N1 δN1 + ∂S2<br />
∂U2 δU2 + ∂S2<br />
∂N2 δN2 = 0<br />
⇒ ( 1<br />
T1<br />
− 1<br />
T2 )δU1 − ( µ1<br />
T1<br />
− µ2<br />
T2 )δN1 = 0 ∀δU1, δN1 ⇒ T1 = T2, µ1 = µ2<br />
• ⇒ zeigt wieder: P, µ, T sind intensive Größen.<br />
(4) Gibbs-Duhem-Relation<br />
Eulersche Homogenitätsrelationen (3.9) <strong>und</strong> (3.10):<br />
S = 1<br />
(U + P V − µ N) <strong>und</strong> U = T S − P V + µ N (3.20)<br />
T<br />
<br />
→ dS = U d( 1 1<br />
T ) + T dU<br />
<br />
+ V d( P P<br />
T ) + T dV<br />
<br />
<br />
<br />
<br />
<strong>und</strong> → dU = S dT + T dS − V dP − P dV<br />
µ<br />
) − T dN<br />
<br />
<br />
+ N dµ + µ dN<br />
Differenziere <strong>und</strong> subtrahiere Gibbssche Gr<strong>und</strong>form 3.16 bzw. 3.17<br />
− N d( µ<br />
T<br />
⇒ Gibbs-Duhem-Relation<br />
Ud( 1<br />
)+V d(P<br />
T T<br />
µ<br />
)−Nd( )=0 <strong>und</strong> SdT −V dP +Ndµ=0 (3.21)<br />
T<br />
Bedeutung: Beziehung zwischen intensiven Größen<br />
ermöglicht Herleitung von Zustandsgleichungen<br />
Beispiel: Ideales Gas<br />
Bekannt: Zustandsgleichungen P V = NkBT <strong>und</strong> U = 3<br />
⇒ v = V<br />
N<br />
= kB T<br />
P<br />
Frage: s? µ?<br />
Gibbs-Duhem: 3<br />
⇒ d( µ 3<br />
T ) = 2kB <strong>und</strong> u = U<br />
N<br />
= 3<br />
2 kBT<br />
2NkBT d( 1<br />
1<br />
T ) + NkBT P<br />
d( 1<br />
T )<br />
1 + kB<br />
T<br />
d( P<br />
T<br />
= − 3<br />
2kB d(ln T ) − kB d(ln T<br />
P )<br />
= − 3<br />
2kB d(ln u) − kB d(ln v)<br />
= −kB d(ln(v · u3/2 ))<br />
2 NkBT<br />
µ<br />
) − Nd( T ) = 0<br />
d( P<br />
T )<br />
P =<br />
T<br />
3<br />
2kB d(ln 1<br />
T ) + kB d(ln P<br />
T )<br />
⇒ Zustandsgleichung für µ: µ µ0<br />
T − T0 = −kB ln v u · ( v0 u0 )3/2<br />
für Entropie: S<br />
N<br />
❀ s = s0 + kB ln v<br />
= s = U<br />
NT<br />
v0<br />
+ P V<br />
NT<br />
· ( u<br />
)<br />
u0<br />
3/2<br />
− µ<br />
T<br />
5 = 2kB − µ<br />
T<br />
(3.22)<br />
Entropie bestimmt bis auf Integrationskonstante<br />
Überprüfe Postulate:<br />
2. Postulat: S(U, V, N) existiert, differenzierbar, wächst streng<br />
monoton in U <br />
4. Postulat: ∂U<br />
U<br />
∂S = T = 0 ❀ N = u = 0 ❀ s ∝ ln u<br />
→ −∞ = 0 ⇒ nicht erfüllt (Problem: klassisches System,<br />
aber bei T = 0 greift Quantenmechanik)
3.2. GIBBSSCHE GRUNDFORM 71<br />
(5) Beziehungen zwischen Ableitungen<br />
Zweite Ableitungen = Thermodynamische Koeffizienten“<br />
”<br />
: Maxwell Relationen<br />
• Ableitungen vertauschbar ∂ 2 U<br />
∂x1∂x2 = ∂2 U<br />
∂x2∂x1<br />
z.B.<br />
∂ 2 U<br />
∂S∂V<br />
= −∂P<br />
∂S<br />
= ∂T<br />
∂V = ∂2 U<br />
∂V ∂S<br />
(3.23)<br />
• Eulersche Beziehung (erste Ableitungen homogen vom Grad 0)<br />
∂T ∂T ∂T<br />
S + V + N = 0. (3.24)<br />
∂S ∂V ∂N<br />
analog für P <strong>und</strong> µ<br />
❀ Bleiben 3 unabhängige Koeffizienten
72 KAPITEL 3. THERMODYNAMIK<br />
3.3 Thermodynamische Potentiale<br />
3.3.1 Legendre-Transformation<br />
Ausgangspunkt: F<strong>und</strong>amentalform U(S, V, N) enthält die Information über ein<br />
thermodynamisches System<br />
(Fehlende Zustandsgrößen aus T = ∂U<br />
∂S<br />
∂U ∂U<br />
, P = − ∂V , µ = ∂N )<br />
Wunsch: In der Praxis wäre es oft günstiger, andere unabhängige Variablen zu<br />
haben, da Kontrollparameter eines Systems oft nicht S, V, N sind, sondern<br />
z.B. T <strong>und</strong>/oder P etc.<br />
Versuch: einfache Variablensubstitution, z.B. S ↔ T<br />
Löse T (S, V, N) = ∂U<br />
∂S (wenn möglich) nach S auf → S(T, V, N)<br />
❀ Innere Energie U(T, V, N) = U(S(T, V, N), V, N)<br />
(z.B. ideales Gas: U(T, V, N) = 3<br />
2NkBT )<br />
Probleme<br />
• Die Funktion U(T, V, N) enthält nicht mehr die gesamte Information:<br />
U = f( ∂U<br />
∂S , V, N) kann nicht eindeutig nach S aufgelöst<br />
werden; wenn S Lösung, ist auch S + S0 Lösung.<br />
• Die Fälle, in denen man T = ∂U<br />
∂S nicht eindeutig nach S auflösen<br />
kann - z.B. falls U nicht streng konvex, sondern flache Stücke<br />
enthält - sind so überhaupt nicht zugänglich.<br />
Ausweg: Legendre-Transformation<br />
Gesucht: Funktion von ∂U<br />
∂S , die die gesamte<br />
Information von U enthält <strong>und</strong> eindeutig ist<br />
Lösung: Da U konvex ist: Achsenabschnitte<br />
der Tangenten definieren Kurve vollständig<br />
· S = U − T S<br />
→ U − ∂U<br />
∂S<br />
Einschub: Allgemein zu Legendre-Transformation (in einer Dimension)<br />
Gegeben eine konvexe oder konkave Funktion f(x)<br />
→ Tangenten mit Steigung df<br />
= ξ <strong>und</strong> Achsenabschnitt f(x) − ξx<br />
dx<br />
Wunsch: Eine Funktion F (ξ) finden, die dieselbe Information wie f(x) enthält ❀ aus F (ξ)<br />
muss f(x) sich eindeutig rekonstruieren lassen<br />
1. Versuch: Ordne jeder Steigung ξ den Wert f(x(ξ)) zu: F (ξ) = f(x(ξ))<br />
Problem: f(x) kann aus F (ξ) nicht eindeutig rekonstruiert werden: Falls f(x) Lösung von<br />
F (ξ) = f, ist f(x − a) auch Lösung für alle a! ⇒ Informationsverlust: nicht akzeptabel<br />
Ausweg: Legendre-Transformation F (ξ) = f(x) − ξx<br />
- F (ξ) = f(x) − ξx ist eindeutig<br />
(selbst wenn f(x) nicht invertierbar)<br />
- F (ξ) definiert f(x) vollständig<br />
(als Einhüllende der Tangentenschar)
3.3. THERMODYNAMISCHE POTENTIALE 73<br />
• klar, falls f(x) zweimal differenzierbar <strong>und</strong> streng konvex/konkav<br />
• Falls f(x) Knick hat<br />
❀ F (ξ) ist linear über<br />
einen Bereich von ξ<br />
• Falls f(x) linear über<br />
einen Bereich von x<br />
❀ F (ξ) hat einen Knick<br />
Es gilt:<br />
- Umkehrung: F (ξ) Legendre-Trafo<br />
−→ f(− dF<br />
dξ )<br />
( F ′ (ξ) = d<br />
<br />
df<br />
dx df dx<br />
dx<br />
(f − ξx) = − x − ξ = − x − ξ = −x<br />
dξ dξ dξ dx dξ dξ<br />
F (ξ) − F ′ (ξ)ξ = f − ξx + ξx = f(x) = f(−F ′ (ξ)) )<br />
- Wenn f(x) konkav ist, ist F (ξ) konvex <strong>und</strong> umgekehrt<br />
(<br />
d 2 f<br />
dx2 ≥ 0 ⇒ dξ<br />
dx ≥ 0 ⇒ d2F dξ2 = d dF<br />
dξ dξ<br />
dx<br />
= − ≤ 0 )<br />
dξ<br />
Bemerkung: Legendre-Transformation in der klassischen Mechanik<br />
1. Ausgangspunkt: Lagrange-Funktion L (q1 · · · qm, ˙q1 · · · ˙qm, t), die ein<br />
bestimmtes dynamisches System vollständig beschreibt.<br />
2. Gesucht: (Hamilton-)Funktion H (q1 · · · qm, p1 · · · pm, t) mit pi = ∂L<br />
∂ ˙qi ,<br />
die dasselbe leistet.<br />
3. Voraussetzung: pj = ∂L<br />
∂ ˙qj eindeutig nach ˙qj auflösbar, oder L konvex<br />
<br />
∂2L in ˙qj ❀ det ∂ ˙qj∂ = 0 überall (erfüllt für L =∼ ˙qk<br />
1 <br />
2<br />
mi ˙x 2 i − V (xj))<br />
4. Legendre-Transformation: L → L − pj ˙qj = −H<br />
3.3.2 Definition der thermodynamischen Potentiale<br />
Ausgangspunkt: F<strong>und</strong>amentalform U(S, V, N) mit ∂U<br />
∂S<br />
Gewünschte freie Parameter:<br />
• T, V, N ❀ geeignete Legendre-Transformation:<br />
F (T, V, N) = U − ∂U<br />
∂S<br />
= T , ∂U<br />
∂V<br />
= −P , ∂U<br />
∂N<br />
= µ<br />
· S = U − T S Helmholtzsche freie Energie (3.25)<br />
Ableitungen: Aus F (T, V, N) = U(S(T, V, N), V, N) − T · S(T, V, N):<br />
- ∂F<br />
<br />
<br />
∂T =<br />
V,N<br />
∂U<br />
<br />
∂S <br />
∂S <br />
∂S ∂T − S − T ∂T = −S(T, V, N)<br />
V,N V,N<br />
V,N<br />
- ∂F<br />
<br />
<br />
∂V =<br />
T,N<br />
∂U<br />
<br />
∂S <br />
∂S ∂V +<br />
V,N T,N<br />
∂U<br />
<br />
<br />
∂S <br />
∂V − T ∂V = −P (T, V, N)<br />
S,N<br />
T,N<br />
- ∂F<br />
<br />
<br />
∂N =<br />
T,V<br />
∂U<br />
<br />
∂S <br />
∂S ∂N +<br />
V,N T,V<br />
∂U<br />
<br />
<br />
∂S <br />
∂N − T ∂N = µ(T, V, N)<br />
S,V<br />
T,V
74 KAPITEL 3. THERMODYNAMIK<br />
⇒ Alle Informationen enthalten, F (T, V, N) ist F<strong>und</strong>amentalform<br />
Differential: dF = −S dT − P dV + µ dN (3.26)<br />
Vergleich mit Kapitel 2.6.2 S.59 ❀ Helmholtzsche freie Energie ist identisch<br />
mit der freien Energie aus der statistischen Mechanik<br />
• T, P, N ❀ geeignete Legendre-Transformation:<br />
G(T, P, N) = F − ∂F<br />
∂V<br />
· V = U − T S + P V Gibbssche freie Energie (3.27)<br />
identisch mit der freien Enthalpie aus der statistischen Mechanik<br />
• S, P, N ❀ geeignete Legendre-Transformation:<br />
H(S, P, N) = U − ∂U<br />
∂V<br />
(kennen wir auch schon)<br />
· V = U + P V Enthalpie (3.28)<br />
Zusammenstellung für diverse Kombinationen freier Parameter<br />
(Zustandsgrößen)<br />
freie Pa- Thermodynamisches Potential<br />
rameter Name Formel Differential (3.29.<br />
S, V, N Innere Energie U(S, V, N) dU = T dS − P dV + µ dN a)<br />
S, P, N Enthalpie H(S, P, N) = U + P V dH = T dS + V dP + µ dN b)<br />
T, V, N<br />
T, P, N<br />
T, V, µ<br />
T, P, µ<br />
Bemerkungen<br />
(Helmholtzsche)<br />
freie Energie<br />
Gibbssche freie<br />
Energie =<br />
freie Enthalpie<br />
Großkanonisches<br />
Potential<br />
Allgemeines<br />
großkanonisches<br />
Potential<br />
F (T, V, N) = U − T S dF = −S dT − P dV + µ dN c)<br />
G(T, P, N) = U − T S<br />
+P V<br />
(3.32)→ = µN<br />
Ω(T, V, µ) = U − T S<br />
−µN<br />
(3.31)→ = −P V<br />
∆(T, P, µ) = U − T S<br />
−µN +P V<br />
(3.30)→ = 0<br />
dG = −S dT + V dP + µ dN d)<br />
dΩ = −S dT − P dV − N dµ e)<br />
d∆ = −S dT + V dP − N dµ f)<br />
(3.29)<br />
• Ausgangspunkt für Legendre-Transformationen ist U(S, V, N) <strong>und</strong> nicht<br />
S(U, V, N), da ∂U<br />
<br />
<br />
∂V = −P experimentell kontrollierbarer Parame-<br />
S,N<br />
ter ist (mechanischer Druck), während ∂S<br />
<br />
<br />
∂V =<br />
U,N<br />
P<br />
T bei festem U<br />
nicht kontrollierbar<br />
• Die thermodynamischen Potentiale sind extensiv, Summen von extensiven<br />
Zustandsgrößen multipliziert mit intensiven Variablen.
3.3. THERMODYNAMISCHE POTENTIALE 75<br />
• Folgerungen aus Extensivität<br />
∗ ∆(T, P, µ) extensiv, hängt nur von intensiven Größen ab<br />
⇒ ∆ ≡ 0 einzige Möglichkeit (3.30)<br />
(konsistent mit Euler-Relation (3.20): U = T S + µN − P V )<br />
∗ Ω(T, V, µ) extensiv, einzige unabhängige extensive Variable ist V<br />
→ V kann nur linear in Ω eingehen.<br />
∆=0⇒ Ω = −P V ⇒ P (T, V, µ) = − Ω(T,V,µ)<br />
V = P (T, µ) (3.31)<br />
⇒ P hängt nur von T <strong>und</strong> µ ab<br />
∗ Analoge Argumentation für G(T, P, N) ⇒<br />
G = µN <strong>und</strong> µ(T, P ) hängt nur von T <strong>und</strong> P ab. (3.32)<br />
∆(T, P, µ) ≡ 0 ist als einziges kein f<strong>und</strong>amentales Potential, man<br />
kann daraus nicht eindeutig auf U(S, V, N) schließen<br />
❀ liegt an der Abhängigkeit der intensiven Größen voneinander<br />
(µ = µ(P, T ))<br />
❀ letzte Legendre-Transformation Ω → ∆ bzw. G → ∆ eigentlich<br />
nicht mehr zulässig<br />
NB: Im Rahmen einer mikroskopischen, statistischen Theorie kann<br />
man ein ∆ natürlich unter Umständen aus einer Zustandssumme<br />
Z∆ berechnen. Man stellt dann fest, dass ∆ ≈ 0 in dem Sinne,<br />
dass es Terme enthält, die maximal wie ln(〈N〉) skalieren,<br />
(2.114)<br />
z.B. ideales Gas: Z∆ =<br />
∞ 1<br />
h<br />
N=0<br />
3N ∞<br />
N!<br />
0<br />
= . . . = 1/(βP λ3 T − eβµ )<br />
e<br />
→ N =<br />
βµ<br />
βP λ3 λ<br />
, V =<br />
−eβµ<br />
T 3 T<br />
βP λ3 T −eβµ<br />
→ N, V makroskopisch für eβµ ≈ βP λ3 T<br />
dV<br />
V0<br />
<br />
Ω<br />
− 1<br />
k T<br />
dΓ e B<br />
Dann gilt: ∆ (2.114)<br />
= −k B T ln Z ∆ = k B T ln(βP λ 3 T /N)<br />
<br />
H −µN+P V<br />
(→ Gasgesetz<br />
βP V<br />
N<br />
1<br />
= 1 + N )<br />
(→ Beziehung µ(P, T ))<br />
3.3.3 Eigenschaften der thermodynamischen Potentiale<br />
(1) Konvexität <strong>und</strong> Differenzierbarkeit<br />
U(S, V, N) konvex (3.14) <strong>und</strong> differenzierbar (evtl. mit linearen Stücken)<br />
Eigenschaft der Legendre-Transformation:<br />
Falls f(x) konvex → Legendre-Transformierte konkav<br />
❀ F (T, V, N) = U − T S konkav in T , nicht unbedingt differenzierbar<br />
(hat evtl. Knicke)<br />
konvex <strong>und</strong> differenzierbar in V, N<br />
❀ G(T, P, N) = U − T S + P V konkav in T, P , konvex in N<br />
usw.<br />
Allgemein: Thermodynamische Potentiale U, H, F, G, Ω, . . . sind<br />
konvex (∪) <strong>und</strong> differenzierbar in extensiven Variablen<br />
(3.33)<br />
konkav (∩) <strong>und</strong> evtl. mit Knicken in intensiven Variablen<br />
(3.34)<br />
” Knick“ = üblicherweise Phasenübergang, mehr dazu später
76 KAPITEL 3. THERMODYNAMIK<br />
(2) Extremalprinzip<br />
Thermodynamische Potentiale U, H, F, G, Ω, . . . sind minimal. (3.35)<br />
Diese Extremalprinzipien lassen sich ableiten aus dem 3. Entropiepostulat<br />
(S maximal in isolierten, abgeschlossenen Systemen)<br />
❀ vorgeführt am Beispiel von U <strong>und</strong> F<br />
- Innere Energie U: Betrachte System A mit fester Entropie SA,<br />
A sei Teil eines isolierten Gesamtsystems A ∪ B<br />
❀ UA + UB fest, SA vorgegeben, SA + SB maximal<br />
Das ” Bad“ B sei ständig im Gleichgewicht, System<br />
A evtl. noch nicht<br />
Wegen ∂SB<br />
∂UB > 0 muss U in B möglichst groß sein, damit SB maximal<br />
⇒ UA (bei festem SA) möglichst klein ⇒ UA minimal<br />
- Freie Energie F : Betrachte System A mit fester Temperatur TA, wieder<br />
Teil eines isolierten Gesamtsystems A ∪ B. B ist Wärmebad<br />
⇒ TA = ∂UB<br />
∂SB = TB = T (zw. A <strong>und</strong> B Wärmeaustausch). Während<br />
A sich dem Gleichgewicht nähert, gilt: δFA = δ(UA − TASA)<br />
= δUA − T δSA<br />
δUA=−δUB<br />
= −δUB − T δSA<br />
SA + SB wächst an ⇒ δ(SA + SB) > 0 ⇒ δFA ≤ 0<br />
⇒ FA stellt sich minimal ein<br />
- Ableitungen für die übrigen Potentiale analog<br />
δUB=T δSB<br />
= −T (δSA + δSB)<br />
Nutzen: Nun stehen Extremalprinzipien nicht nur für isolierte Systeme,<br />
sondern für alle Gleichgewichtssysteme zur Verfügung.<br />
Analog zu Abschnitt 3.2 (3) können jetzt Gleichgewichtsbedingungen<br />
für alle möglichen zusammengesetzten Systeme mit allen möglichen<br />
Randbedingungen hergeleitet werden.<br />
3.3.4 Thermodynamische Koeffizienten<br />
Thermodynamische Koeffizienten = zweite Ableitungen von thermodynamischen<br />
Relationen<br />
(1) Bekannteste Koeffizienten<br />
Thermischer Ausdehnungskoeffizient: α = 1<br />
<br />
∂V <br />
<br />
V ∂T =<br />
P,N<br />
1 ∂<br />
V<br />
2 <br />
G 1 ∂S <br />
= − <br />
∂T ∂P V ∂P <br />
T,N<br />
Spezifische Wärme: cP = T<br />
<br />
∂S <br />
<br />
N ∂T = −<br />
P,N<br />
T ∂<br />
N<br />
2G ∂T 2<br />
cV = T<br />
<br />
∂S <br />
<br />
N ∂T = −<br />
V,N<br />
T ∂<br />
N<br />
2F ∂T 2<br />
Isotherme Kompressibilität: κT = − 1<br />
<br />
∂V <br />
<br />
V ∂P = −<br />
T,N<br />
1 ∂<br />
V<br />
2G ∂P 2<br />
Adiabatische Kompressibilität: κS = − 1<br />
<br />
∂V <br />
<br />
V ∂P = −<br />
S,N<br />
1 ∂<br />
V<br />
2H ∂P 2<br />
Spannungskoeffizient: β = ∂P<br />
<br />
<br />
<br />
∂T = −<br />
V,N<br />
1 ∂<br />
V<br />
2 <br />
F 1 ∂S <br />
= <br />
∂T ∂V V ∂V <br />
T,N<br />
(3.36)<br />
(3.37)<br />
(3.38)<br />
(3.39)<br />
(3.40)<br />
(3.41)
3.3. THERMODYNAMISCHE POTENTIALE 77<br />
(2) Zusammenhänge zwischen Koeffizienten<br />
Beziehungen:<br />
- Maxwell Relationen ↔ ∂2 F<br />
∂x1∂x2 = ∂2 F<br />
∂x2∂x1<br />
(vgl. (3.23))<br />
(anwendbar auf alle thermodynamischen Relationen)<br />
- Euler-Relationen für Ableitungen von T (S, V, N), P (S, V, N),<br />
µ(S, V, N) (vgl. ((3.24))<br />
- Variablentransformation: S ↔ T , V ↔ P , µ ↔ N<br />
⇒ Insgesamt drei unabhängige Variablen in einfachen Systemen<br />
Übliche Wahl : α, c P , κ T (3.42)<br />
Daraus können alle üblichen Koeffizienten gewonnen werden.<br />
Hilfsmittel zur Variablentransformation: Funktionaldeterminanten<br />
Gegeben sei u(x, y, z), v(x, y, z), w(x, y, z)<br />
⇒ Jacobi-Determinante ∂(u,v,w)<br />
∂(x,y,z) :=<br />
<br />
<br />
ux<br />
<br />
vx<br />
wx<br />
uy<br />
vy<br />
wy<br />
<br />
uz <br />
<br />
vz <br />
<br />
wz<br />
(ux = ∂u<br />
∂x etc.)<br />
Rechenregeln:<br />
(i) ∂(u,y,z) ∂u ∂(u,z,y)<br />
= = ∂(x,y,z) ∂x ∂(x,z,y)<br />
<br />
ux<br />
0<br />
0<br />
uy<br />
1<br />
0<br />
<br />
uz<br />
<br />
0 <br />
= ux<br />
1 <br />
<br />
. . .<br />
(ii) ∂(u,v,w) ∂(v,u,w) ∂(u,v,w)<br />
= − = − ∂(x,y,z) ∂(x,y,z) ∂(y,x,z)<br />
(iii) Kettenregel ∂(u,v,w)<br />
∂(r,s,t)<br />
(iv) ∂(u,v,w)<br />
∂(x,y,z)<br />
Anwendungsbeispiele<br />
∂(r,s,t) ∂(u,v,w)<br />
· = ∂(x,y,z) ∂(x,y,z)<br />
<br />
∂(x,y,z)<br />
∂u <br />
= 1/ ; speziell ∂(u,v,w) ∂x = 1/<br />
y,z ∂x<br />
<br />
<br />
∂u <br />
y,z<br />
(ohne Beweis)<br />
1<br />
( = Eigenwerte 1<br />
Eigenwerte )<br />
(a) β = α/κT (3.43)<br />
<br />
β (3.41)<br />
= ∂P<br />
<br />
(i) ∂(P,V,N) (iii) ∂(P,V,N) ∂(T,P,N) (ii) ∂(V,P,N) ∂(P,T,N)<br />
∂T = = · = − ·<br />
V,N<br />
∂(T,V,N) ∂(T,P,N) ∂(T,V,N) ∂(T,P,N) ∂(V,T,N)<br />
<br />
(i) ∂V <br />
= − ∂T ·<br />
P,N ∂P<br />
<br />
<br />
<br />
<br />
(iv) ∂V ∂V (3.36),(3.39)<br />
∂V = −<br />
T,N<br />
∂T <br />
P,N<br />
∂P = −V α (−V κT ) <br />
T,N<br />
(b) cP − cV = T · (V/N) · (α 2 /κT ) (3.44)<br />
<br />
cV (T/N) (3.38)<br />
= ∂S<br />
<br />
(i) ∂(S,V,N) (iii) ∂(S,V,N) ∂(T,P,N)<br />
∂T = = ·<br />
V,N<br />
∂(T,V,N) ∂(T,P,N) ∂(T,V,N)<br />
<br />
<br />
<br />
(ii),(i) ST<br />
SP SN<br />
<br />
<br />
= <br />
VT<br />
VP VN<br />
∂P <br />
∂S ∂V <br />
· ∂V =<br />
0 0 1 T,N<br />
∂T <br />
P,N<br />
∂P −<br />
T,N ∂V<br />
<br />
∂S <br />
∂T <br />
P,N<br />
∂P ·<br />
T,N<br />
∂P<br />
<br />
<br />
∂V <br />
T,N<br />
(3.37),(3.36),(3.39) ∂S<br />
<br />
<br />
=<br />
−<br />
∂T P,N<br />
<br />
c /(T /N)<br />
P ∂V<br />
<br />
∂S<br />
<br />
∂P<br />
<br />
<br />
<br />
<br />
∂T P,N ∂P T,N ∂V T,N<br />
<br />
V α −V α −1/(V κ )<br />
T<br />
(c) κS/κT = cV /cP (3.45)<br />
<br />
<br />
(3.40) ∂V (i) ∂(V,S,N) (iii) ∂(V,S,N) ∂(P,T,N)<br />
− V κS = ∂P = = ·<br />
S,N<br />
∂(P,S,N) ∂(P,T,N) ∂(P,S,N)<br />
<br />
<br />
<br />
(ii),(i) VP<br />
VT VN<br />
<br />
<br />
= <br />
SP<br />
ST SN<br />
∂T <br />
∂V ∂S <br />
· ∂S =<br />
0 0 1 P,N<br />
∂P <br />
T,N<br />
∂T −<br />
P,N ∂V<br />
<br />
∂S <br />
∂T <br />
P,N<br />
∂P ·<br />
T,N<br />
∂T<br />
<br />
<br />
∂S <br />
P,N<br />
= ∂V<br />
<br />
<br />
−<br />
∂P T,N<br />
<br />
(3.39)<br />
=−V κ<br />
T<br />
∂V<br />
<br />
∂S<br />
<br />
∂T<br />
<br />
<br />
=<br />
∂T P,N ∂P T,N ∂S P,N<br />
<br />
(3.36)<br />
=V α<br />
(3.36)<br />
=−V α<br />
(3.37)<br />
=T /(Nc )<br />
P −V κ T (c c P − T<br />
P<br />
V α<br />
N<br />
2 <br />
) <br />
κT <br />
(3.44) =c<br />
V<br />
(Damit sind cV , κS , β auf α, cP , κT zurückgeführt!)
78 KAPITEL 3. THERMODYNAMIK<br />
(3) Stabilitätsbedingungen<br />
Anschaulich: Reaktion einer extensiven Variablen auf Änderung der entsprechenden<br />
intensiven Variablen muss positiv sein.<br />
Thermodynamische Stabilität = Konvexität der Potentiale<br />
U(S, V, N) konvex bzw. N · u(s, v) konvex<br />
⇒ Matrix der 2. Ableitungen muss positiv definit sein<br />
<br />
<br />
⇔<br />
<br />
∂2u ∂s2 ∂2u ∂s∂v<br />
∂2u ∂v∂s<br />
∂2u ∂v2 ∂ 2 U<br />
= N ∂S2 ∂2U ∂S∂V<br />
⎛ <br />
∂T ∂T <br />
(3.29) ∂S <br />
= N ⎝ V,N<br />
∂V<br />
− ∂P<br />
<br />
<br />
−<br />
V,N ∂P<br />
<br />
<br />
NB: Matrix<br />
∂S<br />
S,N<br />
∂V <br />
S,N<br />
∂2U ∂V ∂S<br />
∂2U ∂V 2<br />
⎞<br />
⎠ positiv definit<br />
<br />
a c<br />
positiv definit ⇔ Eigenwerte λ1, λ2 ≥ 0<br />
c b<br />
⇔ Determinante = ab − c 2 = λ1λ2 ≥ 0 & Spur = a + b = λ1 + λ2 ≥ 0<br />
( ⇒ klar<br />
⇐ Determinante ≥ 0 ⇒ Beide λi gleiches Vorzeichen<br />
Spur ≥ 0 ⇒ Mindestens ein λi ≥ 0 )<br />
⇔ ab − c 2 ≥ 0 <strong>und</strong> a > 0, b > 0<br />
( ⇐ klar<br />
⇒ ab − c 2 ≥ 0 ⇒ a <strong>und</strong> b gleiches Vorzeichen<br />
a + b ≥ 0 ⇒ Eins von beiden, a oder b muss positiv sein )<br />
⇔ ∂T<br />
<br />
<br />
∂S ∝<br />
V,N 1<br />
c ≥ 0 ; −<br />
V<br />
∂P<br />
<br />
<br />
∂V ∝<br />
S,N 1<br />
κS<br />
<br />
∂T ∂T <br />
∂S <br />
V,N<br />
∂V <br />
S,N<br />
<br />
−<br />
∂P<br />
<br />
<br />
∂S −<br />
V,N ∂P<br />
<br />
<br />
<br />
∂(T,−P,N)<br />
= ∂(S,V,N)<br />
∂V <br />
<br />
S,N<br />
<br />
·<br />
T,N ∂T<br />
<br />
<br />
∝<br />
V,N 1 ≥ 0<br />
= − ∂P<br />
∂V<br />
∂S κT ⇔ cV ≥ 0, κS ≥ 0, κT ≥ 0<br />
1<br />
c V<br />
≥ 0<br />
∂(T,P,N) ∂(T,V,N)<br />
= − ∂(T,V,N) ∂(S,V,N)<br />
Kombiniert mit den Relationen (3.44) <strong>und</strong> (3.45)<br />
⇒ Stabilitätsbedingungen<br />
c P ≥ c V ≥ 0<br />
κ T ≥ κ S ≥ 0 (3.46)<br />
Bemerkung: κ T , κ S ≥ 0 sichert auch mechanische Stabilität<br />
(Volumen verringert sich, wenn Druck erhöht wird)
3.3. THERMODYNAMISCHE POTENTIALE 79<br />
(4) Verhalten bei T → 0<br />
4. Entropiepostulat: (Nernstsches Theorem)<br />
<br />
∂U <br />
∂S = T (S, V, N) = 0 ⇔ S = 0 (siehe (3.4))<br />
V,N<br />
äquivalent: lim<br />
T →0 S(T, V, N) = 0 (3.47)<br />
Daraus folgt auch: lim S(T, P, N) = 0, lim S(T, V, µ) = 0 etc.<br />
T →0 T →0<br />
( lim S(T, P, N) = lim S(T, V (T, P, N), N) = 0 etc. )<br />
T →0 T →0<br />
Folgerungen:<br />
Aus S(T = 0) endlich:<br />
• lim<br />
T →0 c V = 0 (3.48)<br />
( Gr<strong>und</strong>: S(T, V, N) endlich <strong>und</strong><br />
T <br />
S(T, V, N) = S(0, V, N) + dT ′ ∂S <br />
T<br />
∂T = S(0, V, N) + N dT<br />
0<br />
V,N 0<br />
′ c V<br />
T ′ < ∞<br />
⇒ c V<br />
T ∝ T x mit x > 0 für T → 0 )<br />
• U = F <strong>und</strong> H = G für T → 0 (3.49)<br />
( Gr<strong>und</strong>: U − F = H − G = T S = 0 für T = 0 )<br />
Aus S(T = 0) = 0:<br />
• lim<br />
T →0 α = 0 <strong>und</strong> lim<br />
T →0 β = 0 (3.50)<br />
• lim<br />
T →0 :<br />
( Gr<strong>und</strong>: α = 1<br />
<br />
∂V <br />
V ∂T = −<br />
P,N 1<br />
<br />
∂S <br />
V ∂P = 0,<br />
T,N<br />
da S(T = 0, P, N) ≡ 0 für alle P, N.<br />
β = ∂P<br />
<br />
<br />
∂T =<br />
V,N ∂S<br />
<br />
<br />
∂V = 0,<br />
T,N<br />
da S(T = 0, V, N) ≡ 0 für alle V, N. )<br />
U =U0(V, N)+O(T 2 ) ; F =U0(V, N)+O(T 2 )<br />
H =H0(P, N)+O(T 2 ) ; G=H0(P, N)+O(T 2 ) (3.51)<br />
U <strong>und</strong> F , H <strong>und</strong> G identisch <strong>und</strong> konstant bis zur O(T 2 )<br />
( Gr<strong>und</strong>: z.B. U, F :<br />
U−F<br />
lim S = lim<br />
T →0 T →0 T<br />
∂S<br />
= 0 <strong>und</strong> lim<br />
T 0 ∂T<br />
∂ U−F<br />
= lim<br />
T →0 ∂T T<br />
(3.48)<br />
< ∞<br />
∂<br />
∂ U−F<br />
⇒ lim (U − F ) = lim T<br />
T →0 ∂T T →0 ∂T T<br />
U−F<br />
+ lim<br />
T →0 T = 0<br />
∂<br />
∂<br />
∂<br />
⇒ lim U = lim F = lim S(T, V, N) = 0<br />
T →0 ∂T T →0 ∂T T →0 ∂T<br />
❀ lineare Ordnung in T verschwindet )<br />
⇒ P (S, V, N) = P (T, V, N) bei T → 0 (3.52)<br />
<br />
Gr<strong>und</strong>: P (S, V, N) == − ∂U<br />
<br />
<br />
∂V = −<br />
S,N ∂(U,S,N) ∂(U,S,N) ∂(T,V,N)<br />
= · ∂(V,S,N) ∂(T,V,N) ∂(S,V,N)<br />
<br />
<br />
<br />
UT<br />
UV UN<br />
<br />
<br />
= <br />
ST<br />
SV SN<br />
∂T <br />
∂U ∂S <br />
· ∂S =<br />
0 0 1 V,N<br />
∂T <br />
V,N<br />
∂V −<br />
T,N ∂S<br />
<br />
∂U <br />
∂T <br />
V,N<br />
∂V ·<br />
T,N<br />
∂T<br />
<br />
<br />
∂S <br />
V,N<br />
= ∂U<br />
<br />
∂S <br />
<br />
∂T V,N<br />
∂V ·<br />
T,N<br />
<br />
≈0<br />
∂T<br />
<br />
<br />
∂S −<br />
V,N ∂U<br />
<br />
<br />
<br />
T →0 ∂F<br />
∂V ≈ − = P (T, V, N) <br />
T,N<br />
∂V<br />
T,N<br />
<br />
∂T<br />
❀ T = 0 unerreichbar durch adiabatische Expansion: ∂P<br />
S,N =0 (3.53)
80 KAPITEL 3. THERMODYNAMIK<br />
3.4 Prozesse <strong>und</strong> zweiter Hauptsatz<br />
3.4.1 Prozessführung <strong>und</strong> Reversibilität<br />
Prozess: <br />
<br />
a (Anfangszustand) −→ e (Endzustand)<br />
charakterisiert durch Anfangszustand, Endzustand, Prozessführung<br />
Beispiel: Isotherme Ausdehnung eines Gases von Va nach Ve<br />
- Quasistatische Prozessführung<br />
System leistet Arbeit: W =<br />
Ve<br />
Va<br />
System ständig im Gleichgewicht.<br />
Zustandsänderungen lassen sich<br />
anhand der F<strong>und</strong>amentalgleichungen<br />
verfolgen.<br />
P dV<br />
Zuführung der gleichen Arbeit kehrt Prozess um: reversibel.<br />
In quasistatischen Prozessen gilt differentielle Form des 1. Hauptsatzes:<br />
dU (3.6)<br />
= δQ + δW mit δQ (3.19)<br />
= T dS <strong>und</strong> δW (3.18)<br />
= −P dV .<br />
- Prozessführung im Nichtgleichgewicht ( ” Realer“ Prozess)<br />
System leistet keine Arbeit; Prozess nicht umkehrbar, ohne Arbeit<br />
von außen zuzuführen → irreversibel<br />
Entropieerhöhung, aber ∆S = Q/T (Wärme muss nicht unbedingt<br />
fließen, z.B. im idealen Gas)<br />
Allgemein: Diskutiere Prozesse in einem System <br />
Betrachte Kombination <strong>und</strong> ” Umwelt“ U<br />
Idealisiere U durch Kombination von Arbeits- <strong>und</strong> Wärmereservoir<br />
(evtl. noch Teilchenreservoir hier nicht berücksichtigt).<br />
Reservoire seien immer im Gleichgewicht.<br />
Gesamtsystem = ∪U sei abgeschlossen.<br />
Dann: Induziere Prozess <br />
<br />
a −→ b im Teilsystem<br />
• Quasistatische (reversible) Prozessführung<br />
= Pfad im thermodynamischen Zustandsraum<br />
Entropie im Gesamtsystem: dS = dS + dSA + dSB = 0 (abgeschlossen)<br />
mit dSA = 0 (reines Arbeitsreservoir) ; dSB = − δQ<br />
T<br />
⇒ dSΣ = δQ<br />
TB<br />
, ∆SΣ =<br />
e<br />
a<br />
δQ<br />
T<br />
(δQ : ausgetauschte<br />
Wärme)<br />
(3.54)
3.4. PROZESSE UND ZWEITER HAUPTSATZ 81<br />
• Nichtgleichgewichts-Zustandsänderung (irreversibel)<br />
Gesamtentropie: ∆S = ∆S + ∆SA + ∆SB<br />
3. Postulat (3.3): ∆S ≥ 0 , sonst läuft Prozess nicht ab. (3.55)<br />
(Speziell: ∆S > 0 ⇒ irreversibel, denn umgekehrte Richtung<br />
ist dann nicht möglich.)<br />
∆SA = 0 (Arbeitsreservoir), ∆SB =<br />
⇒ ∆S ≥<br />
δQ<br />
T<br />
3.4.2 Wärmekraftmaschinen <strong>und</strong> 2. Hauptsatz<br />
b<br />
a<br />
dSB = − δQ<br />
T<br />
(3.56)<br />
Definition einer Wärmekraftmaschine: Maschine, die Wärme in Arbeit umsetzt,<br />
ohne sich dabei selbst zu verändern.<br />
(also: Kreisprozess, der immer wieder in den Ausgangszustand zurückkehrt)<br />
1. Versuch, eine Wärmekraftmaschine zu konstruieren<br />
∆S = ∆SΣ<br />
<br />
=0<br />
(Maschine ändert sich nicht)<br />
+ ∆SA<br />
<br />
=0<br />
(reines Arbeitsreservoir)<br />
Gesamtsystem<br />
Σ = Σ ∪ A ∪ B<br />
+ ∆SB<br />
<br />
=− Q<br />
T B<br />
(3.55)<br />
≥ 0<br />
(3.57)<br />
⇒ ∆UΣ = Q + W = 0 (denn Maschine soll sich ja nicht ändern) (3.58)<br />
⇒ ∆SB ≥ 0 ⇒ Q ≤ 0 ⇒ W ≥ 0<br />
❀ Maschine kann nur Arbeit in Wärme umwandeln, nicht umgekehrt!<br />
(als Wärmekraftmaschine ziemlich untauglich!)<br />
❀ 1. Formulierung des 2. Hauptsatzes der <strong>Thermodynamik</strong><br />
(nach Planck, Kelvin): Es gibt kein perpetuum mobile 2. Art,<br />
das nichts tut als einem Wärmereservoir Wärme zu entziehen<br />
<strong>und</strong> dabei Arbeit zu leisten.<br />
2. Versuch, eine Wärmekraftmaschine zu konstruieren<br />
(3.59)<br />
Gesamtsystem<br />
Σ = Σ ∪ A ∪ B1 ∪ B2<br />
o.B.d.A. gelte<br />
T1 > T2
82 KAPITEL 3. THERMODYNAMIK<br />
∆S<br />
❀ Fazit:<br />
analog<br />
(3.57)<br />
= ∆SΣ + ∆SA + ∆SB1 + ∆SB2<br />
<br />
=0 =0<br />
=− Q 1<br />
T1<br />
=− Q 2<br />
T2<br />
(3.55)<br />
≥ 0 ⇒ Q2 ≤ − T2<br />
T1 Q1<br />
analog<br />
(3.58)<br />
= W + Q1 + Q2 = 0 ⇒ −W = Q1 + Q2 ≤ (1 − T2<br />
T1 )Q1<br />
∆UΣ<br />
⇒ geleistete Arbeit (−W ) kann positiv sein, wenn Q1 > 0 (⇒ Q2 < 0)<br />
Energiebilanz:<br />
Wirkungsgrad: η = −W<br />
Q1 ≤ ηmax = 1 − T2/T1 (3.60)<br />
Realisierung einer Wärmekraftmaschine mit optimalem Wirkungsgrad<br />
Bilanz:<br />
Carnot-Prozess: (Sadi Carnot 1796-1832)<br />
Gedankenexperiment (1824)<br />
mit idealem Gas (⇒ U ∝ T ) durchzuführen,<br />
Reversibler Kreisprozess,<br />
alle Zustandsänderungen quasistatisch<br />
(a) (adiabatische) Kompression: ∆Sa = 0 ⇒ Qa = 0 ⇒ Wa = ∆Ua<br />
(b) (isotherme) Expansion: ∆Ub = 0 ⇒ Wb = −Qb = −∆Sb · T1<br />
(c) (adiabatische) Expansion: ∆Sc = 0 ⇒ Qc = 0 ⇒ Wc = ∆Uc = −∆Ua<br />
(d) (isotherme) Kompression: ∆Ud = 0 ⇒ Wd = −Qd = −∆Sd · T2 = ∆Sb · T2<br />
⇒ W = Wa + Wb + Wc + Wd = ∆Sb(T2 − T1); Q1 = Qb = ∆Sb · T1<br />
⇒ η = − W<br />
Q1 = 1 − T2/T1 <br />
• Wärmekraftmaschinen sind möglich, aber nur, wenn<br />
(mindestens) zwei Wärmereservoirs daran beteiligt sind. (3.61)<br />
• 2. Formulierung des 2. Hauptsatzes der <strong>Thermodynamik</strong><br />
Der Wirkungsgrad einer Wärmekraftmaschine<br />
ist maximal<br />
η = 1 − T2/T1<br />
(3.62)<br />
Bemerkung: Nach ähnlichem Prinzip wie die Wärmekraftmaschine kann man<br />
auch eine Wärmepumpe konzipieren, die Wärme von einem kälteren zu<br />
einem wärmeren Körper transferiert:<br />
Aus: −W ≤ (1 − T2/T1)Q1 <strong>und</strong> Q2 ≤ −(T2/T1)Q1<br />
folgt: Q2 > 0 <strong>und</strong> Q1 < 0 ist möglich, wenn der Maschine zusätzlich<br />
die Arbeit W ≥ (1 − T2/T1) · |Q1| zugeführt wird.<br />
Spontan (ohne Zufuhr von Arbeit) ist Wärmetransfer nicht möglich.<br />
❀ 3. Formulierung des 2. Hauptsatzes der <strong>Thermodynamik</strong><br />
(nach Clausius): Wärme kann nicht von selbst von<br />
einem kälteren zu einem wärmeren Körper fließen.<br />
(3.63)
3.4. PROZESSE UND ZWEITER HAUPTSATZ 83<br />
⇒ 3 äquivalente Formulierungen des 2. Hauptsatzes<br />
Alle diese Formulierungen sind letztlich eine Konsequenz des dritten<br />
Entropiepostulats (3.3): Die Entropie in einem isolierten System stellt sich<br />
im Gleichgewicht maximal ein.<br />
Diskussion: Muss der zweite Hauptsatz gelten?<br />
Maxwellscher Dämon (Maxwell, Theorie der Wärme)<br />
Verwandte Konstruktion<br />
Tür: langsame Atome werden von links nach rechts<br />
gelassen, schnelle von rechts nach links.<br />
Problem: Praktische Realisierung?<br />
Klapptür: Öffnet sich nur, wenn Atom<br />
dagegenstößt, schließt dann wieder<br />
❀ Sammeln sich dann alle Atome rechts?<br />
Dann könnte mit dem Druckunterschied Arbeit<br />
verrichtet werden.<br />
Problem: Klapptür muss sehr weich sein (mikroskopisch).<br />
Fluktuiert, ist auch mal so offen.<br />
Feynmansche Ratsche<br />
Antwort:<br />
Teilchen links stoßen zufällig gegen<br />
das Rad. Dieses kann sich wegen<br />
Kopplung an Ratsche rechts nur<br />
in eine Richtung drehen.<br />
Frage: Kann damit Arbeit verrichtet<br />
werden?<br />
T1 = T2 → Nein<br />
Feder der Ratsche muss sehr weich sein, fluktuiert, gelegentlich<br />
Bewegung in Gegenrichtung<br />
T1 > T2 → Ja: ” Brownian ratchet“<br />
aktuelles Forschungsgebiet (aber OK mit 2. Hauptsatz)
84 KAPITEL 3. THERMODYNAMIK<br />
3.5 Nicht-einfache Systeme<br />
3.5.1 Allgemeine Bemerkungen<br />
Bis jetzt: ” Einfache Systeme“<br />
Charakterisiert durch N, V, E = U<br />
Jetzt: Weitere charakteristische Größen<br />
(a) Formale Beschreibung<br />
Einbau über 1. Entropiepostlat (3.1)<br />
Erweiterung des Zustandsraums um weitere Koordinaten<br />
Aufstellung einer geeigneten F<strong>und</strong>amentalform<br />
Der Rest geht von allein<br />
Beispiele:<br />
(i) Verschiedene Teilchensorten<br />
Zustandsvariablen: V, N1 . . . Nl<br />
F<strong>und</strong>amentalform: dU = T dS − P dV + l<br />
i=1<br />
(ii) Magnetisierung<br />
Zustandsvariablen: V, N, M<br />
F<strong>und</strong>amentalform: dU = T dS − P dV + HdM<br />
µidNi<br />
(iii) Oberflächen<br />
Zustandsvariablen: V, N, A (Fläche)<br />
F<strong>und</strong>amentalform: dU = T dS − P dV + σdA (Oberflächenspannung)<br />
(b) Interpretation<br />
Formale Aufstellung ” einfach“! Wichtig: Interpretation der F<strong>und</strong>amentalform.<br />
❀ Man kommt doch nicht darum herum, sich in jedem<br />
Einzelfall mit der <strong>Physik</strong> des Systems auseinanderzusetzen.<br />
Dazu: Erinnerung an Abschnitt 2.4.1.1 auf Seite 42:<br />
N, V, E: ” natürliche Variablen“ des Systems<br />
- extensiv<br />
(damit ist Entropie extensiv, sind Ensembles äquivalent etc.)<br />
- in isolierten Systemen (einzige) Erhaltungsgröße<br />
(damit Ergodentheorem greift <strong>und</strong> erlaubter Phasenraum gleichmäßig<br />
aufgesucht wird → Voraussetzung für Anwendung des Jaynesschen<br />
Prinzips)<br />
Wie ist das hier?<br />
∗ Extensiv?<br />
(i) Teilchenzahlen <br />
(ii) Magnetisierung ()<br />
Ein Magnetfeld wird vom magnetisierten System aufgebaut. Energie<br />
nicht unbedingt extensiv<br />
❀ nur als Näherung (Ferromagnetismus: strenggenommen nicht<br />
magnetische Wechselwirkung, kurzreichweitig)
3.5. NICHT-EINFACHE SYSTEME 85<br />
(iii) Oberflächen <br />
Das glaubt man auf den ersten Blick nicht, denn Oberflächenergie<br />
nicht ∝ Volumen. De facto aber doch additiv, <strong>und</strong> nur das<br />
zählt.<br />
∗ Erhaltungsgröße?<br />
(i) Teilchenzahlen: nicht unbedingt<br />
(z.B. chemische Reaktionen), aber immerhin potentielle Erhaltungsgröße.<br />
⇒ Man kann unabhängige Reservoire anschließen, in denen (bei<br />
Abschaltung der Kopplung) Teilchenzahlen erhalten sind. ❀<br />
Deshalb kann chemisches Potential überhaupt eingestellt werden.<br />
Beispiel, wo das nicht möglich ist: Photonengas → Teilchenzahl nie erhalten →<br />
µ = 0<br />
(ii) Magnetisierung: auch nicht unbedingt<br />
(Ummagnetisierung tritt in endlichen Systemen irgendwann ein)<br />
aber: Erhaltungsgröße über makroskopischen Zeitraum<br />
❀ Ergodizitätsbrechung: Es wird nur ein Teil des Phasenraums<br />
erk<strong>und</strong>et, der charakterisiert ist durch bestimmten Wert der Magnetisierung.<br />
(iii) Oberflächen: Noch am ehesten<br />
(Aber: Oberfläche könnte auch makroskopisch rau sein)<br />
Fazit:<br />
Im Gegensatz zu anderen <strong>Vorlesung</strong>en (Mechanik, Quantenmechanik<br />
etc.) darf man ” Bedingungen“ hier nicht zu starr fordern.<br />
Es kommt darauf an, dass man versteht, wozu man sie braucht, <strong>und</strong><br />
beurteilen kann, ob Schlussfolgerungen nach wie vor gezogen werden<br />
können.<br />
❀ <strong>Physik</strong>alisches Verständnis des Systems, nicht starre Axiomatik!<br />
3.5.2 Chemische Reaktionen<br />
Eine der wichtigsten Anwendungen der <strong>Thermodynamik</strong><br />
→ Basis der physikalischen Chemie !<br />
(a) Charakterisierung von Reaktionen<br />
Beispiel: Knallgas<br />
Reaktion: 2H2 + O2 ⇋ 2H2O<br />
Alternativ: 2H2O − 2H2 − O2 ⇋ 0<br />
Reaktionslaufzahl Ƅ: Anzahl Reaktionen<br />
∆NH2 = −2∆Ñ<br />
∆NO2 = −∆Ñ<br />
∆NH2O = 2∆Ñ
86 KAPITEL 3. THERMODYNAMIK<br />
Allgemeiner:<br />
Reaktion: <br />
νl xl ⇋ 0<br />
l<br />
xl: Substanzen (H2, O2, H2O)<br />
νl: stöchiometrische Koeffizienten<br />
νl > 0 : = Reaktionsprodukte<br />
νl < 0 : = Reaktanden<br />
Reaktionslaufzahl:<br />
∆Nl = νl∆ Ñ<br />
(b) Thermodynamische Beschreibung<br />
∗ Zustandsraum: Bestimmt durch Anfangszustand {Nl}<br />
Mögliche Nl erfüllen: Nl = N 0 l + νl∆Ñ ≥ 0<br />
❀ ein freier Parameter (∆Ñ) Bedingungen Nl ≥ 0 ∀l → Ränder<br />
dNl = νld Ñ<br />
∗ Häufig günstiges Ensemble: Konstanter Druck <strong>und</strong> Temperatur<br />
❀ freie Enthalpie G(T, P, N1 . . . Nl)<br />
(3.64)<br />
Dann gilt G = µlNl mit µl(T, P, N1 . . . Nl) (3.65)<br />
(vgl. eine Sorte G = µN (3.32))<br />
→ ∂G<br />
∂ Ñ = µlνl<br />
(3.66)<br />
→ ∂2 G<br />
∂ Ñ 2 > 0 (?) (3.67)<br />
∗ Chemisches Gleichgewicht: Zustand, an dem G minimal ist<br />
Möglichkeiten:<br />
• Minimum am Rand (rechts/links)<br />
❀ Reaktion läuft vollständig ab<br />
Einer der Partner Nl stirbt aus<br />
→ Gleichgewicht ” ganz rechts“/ ” ganz links“<br />
• Minimum in der Mitte<br />
❀ Gleichgewichtsbedingung:<br />
dG = ∂G<br />
dNl = (<br />
∂Nl <br />
<br />
µlνl)dÑ = 0 ∀dÑ<br />
l<br />
<br />
µl<br />
νld Ñ<br />
⇒ <br />
µlνl = 0 bzw.<br />
l<br />
l<br />
∂G<br />
= 0<br />
∂Ñ (c) Gleichgewichtsverschiebungen - Qualitative Vorbemerkungen<br />
(3.68)<br />
Betrachte nun Änderung des Gleichgewichts, wenn Druck oder Temperatur<br />
erhöht wird.
3.5. NICHT-EINFACHE SYSTEME 87<br />
Die Richtung, in der sich ein thermodynamisches Gleichgewicht unter<br />
dem Einfluss eines äußeren Zwanges verschiebt, wurde qualitativ angegeben<br />
von Henry Le Chatelier (1850-1877) durch sein Prinzip des<br />
kleinsten Zwanges.<br />
Prinzip von Le Chatelier:<br />
Übt man auf auf ein im Gleichgewicht befindliches System durch<br />
Änderung einer Zustandsvariablen einen Zwang aus, so ändern sich<br />
die anderen Zustandsparameter von selbst in dem Sinne, dass sich<br />
dieser Zwang vermindert. Die Gleichgewichtsverschiebung schwächt<br />
also die Wirkung des äußeren Einflusses ab.<br />
Beispiele:<br />
1. Bei Drucksteigerung verschiebt sich das Schmelzgleichgewicht<br />
zugunsten der spezifisch schwereren Phase, was eine Volumenverminderung<br />
<strong>und</strong> damit Abschwächung des erhöhten Druckes<br />
bedeutet. Da die spezifisch schwerere Phase in der Regel die<br />
feste ist, kann man also die flüssige Phase bei erhöhter Temperatur<br />
durch Drucksteigerung zum Erstarren bringen. Beim<br />
Wasser ist die feste Phase leichter, daher lässt sich Eis durch<br />
Druckerhöhung schmelzen-<br />
2. Die Löslichkeit nimmt mit wachsendem Druck zu, falls das Molvolumen<br />
des festen Stoffes größer als das partielle Molvolumen<br />
des gelösten Stoffes ist <strong>und</strong> im umgekehrten Falle abnimmt.<br />
3. Die Löslichkeit nimmt mit wachsender Temperatur zu, falls beim<br />
Lösen Wärme frei wird, <strong>und</strong> nimmt ab, wenn Wärme verbraucht<br />
wird.<br />
(d) Gleichgewichtsverschiebungen - Quantitativ<br />
Allgemein:<br />
d( <br />
µlνl) = 0<br />
l<br />
⇒ ∂<br />
∂T ( µlνl)dT +<br />
l<br />
∂<br />
∂P ( µlνl)dP +<br />
l<br />
∂<br />
(<br />
∂Nm<br />
m<br />
<br />
µlνl)dNm = 0 (3.69)<br />
l<br />
<br />
(i) T = const., P wird erhöht<br />
<br />
dÑ −<br />
(3.69)<br />
=<br />
∂<br />
dP<br />
T<br />
(3.67)<br />
∂V <br />
∝ =<br />
∂Ñ l<br />
∂P ( µlνl)<br />
∂<br />
∂ Ñ ( µlνl)<br />
∂V<br />
∂Nl<br />
<br />
v l<br />
(Molvolumen)<br />
∂<br />
(3.66)<br />
= 2 G<br />
∂P ∂Ñ ∂2G ∂Ñ2 = ∂Nm<br />
m ∂Ñ ∂<br />
∂Nm ( µ lνl )d<br />
l<br />
Ñ<br />
= ∂ ( µ<br />
∂Ñ lνl )d<br />
l<br />
Ñ<br />
= ∂V<br />
∂ Ñ<br />
∂ 2 G<br />
∂ Ñ2<br />
dNl<br />
dÑ =<br />
<br />
νl<br />
vlνl<br />
Druck erhöht → System schrumpft ❀ beweist das Prinzip von Le<br />
Chatelier in diesem konkreten Fall<br />
⇒ Falls Reaktionsprodukte mehr Platz brauchen ❀ Gleichgewicht<br />
verschiebt sich nach links. Anderenfalls: Gleichgewicht nach rechts.
88 KAPITEL 3. THERMODYNAMIK<br />
(ii) P = const., T wird erhöht<br />
<br />
dÑ −<br />
(3.69)<br />
=<br />
∂<br />
∂T ( µlνl)<br />
dT<br />
P<br />
(3.67)<br />
∝ ∂ 2 G<br />
∂Nl∂T<br />
∂<br />
∂ Ñ ( µlνl)<br />
<br />
dNl · =<br />
dÑ l<br />
∂<br />
(3.66)<br />
= 2 G<br />
∂T ∂Ñ ∂2G ∂Ñ2 ∂S dNl<br />
∂Nl dÑ =<br />
∂ 2 G<br />
∂N l ∂T · dN l<br />
d Ñ<br />
∂ 2 G<br />
∂ Ñ2<br />
Andererseits ist während einer Reaktion mit T = const., P = const.<br />
S ≤ S(T, P, N1 . . . Nl) ⇒ dS = <br />
l<br />
∂S<br />
∂Nl dNl = δQ<br />
T<br />
mit δQ: Wärme, die während der Reaktion entsteht oder verbraucht<br />
wird.<br />
Also:<br />
dÑ<br />
dT<br />
P<br />
1 δQ<br />
∝ T dÑ Falls Wärme verbraucht wird (endotherme Reaktion) → Gleichgewicht<br />
verschiebt sich bei Temperaturerhöhung nach rechts.<br />
Falls Wärme entsteht (exotherme Reaktion) → Gleichgewicht verschiebt<br />
sich bei Temperaturerhöhung nach links.<br />
⇒ Wirkt - im Einklang mit Le Chatelier - der Temperaturänderung<br />
entgegen!
Kapitel 4<br />
Quantenstatistik <strong>und</strong><br />
quantenmechanische<br />
Vielteilchensysteme<br />
c○ Copyright 2005 Friederike Schmid 1<br />
4.1 <strong>Statistische</strong> Quantenmechanik<br />
Vorbemerkungen<br />
Ein quantenmechanischer Zustand enthält alle Information über ein System,<br />
ist also analog einem Phasenraumpunkt Γ. Nun ist aber auch in der<br />
Quantenmechanik der Mikrozustand |ψ〉 in der Praxis nicht genau bekannt,<br />
d.h. zu der ” Heisenbergschen Unschärfe“ kommt eine statistische<br />
Unschärfe hinzu.<br />
❀ Quantenstatistik<br />
Beschreibung eines statistischen Gemischs von Zuständen<br />
Situation: Ensemble von Zuständen, irgendwie präpariert.<br />
<strong>Statistische</strong> Ungenauigkeit → jeder Zustand etwas anders präpariert<br />
❀ Wahrscheinlichkeitsverteilung pi, einen Mikrozustand |ψi〉 vorzufinden<br />
mit pi = 1, 〈ψi|ψi〉 = 1 (normiert)<br />
⇒ <strong>Statistische</strong>r Erwartungswert<br />
der Observablen A: 〈A〉 stat = pi〈ψi|A|ψi〉 (4.1)<br />
Bemerkungen:<br />
∗ |ψi〉 müssen nicht notwendig orthogonal zueinander sein<br />
∗ In der Literatur wird häufig unterschieden zwischen:<br />
- idealisierter ” reiner“ Fall: Immer der gleiche Zustand |ψ〉 wird präpariert<br />
- ” gemischter“ Fall: <strong>Statistische</strong>s Gemisch vieler Zustände<br />
∗ <strong>Statistische</strong> Überlagerung von Zuständen unterscheidet sich wesentlich<br />
von quantenmechanischer Überlagerung: inkohärent, keine Interferenz<br />
1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />
Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />
89
90 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
4.1.1 Der <strong>Statistische</strong> Operator<br />
Ziel: Suche quantenmechanisches Analogon zur klassischen Wahrscheinlichkeitsverteilung<br />
p(Γ) (nach Möglichkeit linearer Operator mit definiertem Transformationsverhalten<br />
bei Darstellungswechsel)<br />
Herleitung, Definition <strong>und</strong> Eigenschaften: Wir rekapitulieren Postulat IV aus<br />
der <strong>Vorlesung</strong> Quantenmechanik 1 <strong>und</strong> leiten aus Gleichung 4.1 eine expliziten<br />
Ausdruck für den statistischen Operator her, der die Bedingungen des Postulats<br />
IV erfüllt.<br />
4.1.1.1 Die ” Postulate“ der Quantenmechanik<br />
Die gesamte Quantenmechanik lässt sich aus den folgenden 4 ” Postulaten“ ableiten:<br />
(Eine Erinnerung an die <strong>Vorlesung</strong> Quantenmechanik 1)<br />
I Die Zustände eines quantenmechanischen Systems sind (bis auf Phasenfaktor<br />
bestimmte, normierte) Vektoren |ψ〉 in einem unitären Vektorraum<br />
(Hilbertraum + Dirac-Vektoren). Sie enthalten die maximal mögliche Information<br />
über ein System. Zustände können linear überlagert werden zu<br />
einem neuen Zustand (Superpositionsprinzip). (4.2)<br />
II Jeder dynamischen Variable (messbare Größe) ist ein selbstadjungierter<br />
Operator (eine Observable) zugeordnet. Der Zustandsraum wird von den<br />
Eigenvektoren eines vollständigen Satzes kommutierender Observablen<br />
aufgespannt (d.h. es gibt keine “überflüssigen“ Freiheitsgrade). (4.3)<br />
III Die einzig möglichen Werte (Messwerte) einer dynamischen Variable sind<br />
die Eigenwerte der zugeordneten Observable. (4.4)<br />
IV Ein konkretes System wird durch einen ” statistischen Operator“ ϱ beschrieben.<br />
Der Erwartungswert einer Observablen A<br />
bei einer Messung ist gegeben durch<br />
Es muss gelten:<br />
〈A〉stat = Sp(ϱA) (4.5)<br />
ϱ ist selbstadjungiert (4.6)<br />
ϱ ist positiv semidefinit (〈ψ|ϱ|ψ〉 ≥ 0 für alle |ψ〉) (4.7)<br />
Sp(ϱ) = 1 (4.8)<br />
Zwei Systeme sind identisch, wenn sie durch denselben statistischen Operator<br />
beschrieben werden (d.h., alle Erwartungswerte physikalisch messbarer<br />
Größen sind identisch)
4.1. STATISTISCHE QUANTENMECHANIK 91<br />
4.1.1.2 Der statistische Operator im allgemeinen (gemischten) Fall<br />
<strong>Statistische</strong>r Operator<br />
für gemischte Systeme:<br />
Beweise:<br />
ϱ = <br />
i |ψi〉pi〈ψi| mit pi ≥ 0, <br />
(|ψi〉 normiert (〈ψi|ψi〉 = 1), aber nicht notwendig orthogonal)<br />
i pi = 1 (4.9)<br />
(4.5)<br />
(4.9) <br />
(4.1) erfüllt, denn 〈A〉stat = Sp(ϱA) = pi 〈bk|ψi〉〈ψi|A|bk〉 =<br />
i k<br />
<br />
pi〈ψi|A<br />
i<br />
<br />
|bk〉〈bk| ψi〉 <br />
k<br />
<br />
=1<br />
(4.6) erfüllt (ϱ selbstadjungiert), denn (4.9) ist eine Summe von Projektionsoperatoren <br />
( oder zu Fuß: 〈ϕ|ϱ|ψ〉 = <br />
〈ϕ|ψi〉pi〈ψi|ψ〉 =<br />
i<br />
<br />
〈ψ|ψi〉<br />
i<br />
∗p∗ i 〈ψi|ϕ〉 ∗ = 〈ψ|ϱ|ϕ〉 ∗ )<br />
(4.7) erfüllt (ϱ positiv semidefinit), denn 〈ϕ|ϱ|ϕ〉 = <br />
pi〈ϕ|ψi〉〈ψi|ϕ〉 =<br />
i<br />
<br />
pi|〈ϕ|ψi〉|<br />
i<br />
2 ≥ 0 ∀|ϕ〉 <br />
(4.8) erfüllt, denn Sp(ϱ) = <br />
pi 〈bk|ψi〉〈ψi|bk〉 =<br />
i k<br />
<br />
pi〈ψi|<br />
i<br />
<br />
|bk〉〈bk| ψi〉 =<br />
k<br />
<br />
=1<br />
<br />
pi = 1 <br />
i<br />
4.1.1.3 Sonderfälle des statistischen Operators<br />
•<br />
•<br />
<strong>Statistische</strong>r Operator<br />
für reine Systeme:<br />
⇒ 〈A〉 = 〈ψ|A|ψ〉<br />
ϱ = |ψ〉〈ψ| (|ψ〉 normiert) (4.10)<br />
(check: 〈A〉 = Sp(ϱA) = <br />
〈bk|ψ〉〈ψ|A|bk〉 = 〈ψ|A<br />
k<br />
<br />
|bk〉〈bk| ψ〉<br />
k<br />
<br />
=1<br />
<br />
√ )<br />
❀ Ergebnis der Wellenmechanik für ein System mit vorgegebener<br />
Wellenfunktion ψ<br />
Kennzeichen reiner Systeme: ϱ 2 = ϱ (d.h., ϱ ist Projektionsoperator)<br />
ϱ ↔ |ψ〉: ϱ enthält maximal mögliche Information über ein<br />
System.<br />
<strong>Statistische</strong>r Operator im<br />
völlig unbestimmten Fall:<br />
ϱ = 1l/Sp(1l) (4.11)<br />
4.1.1.4 Dynamische Entwicklung von unbeobachteten Gemischen<br />
Während eine Messung (in fast allen Lehrbüchern - aber vgl. ” Dekohärenz“) als<br />
Projektion auf einen neuen statistischen Operator ( ” Kollaps“) beschrieben wird,<br />
gehorcht ein unbeobachtetes Gemisch der Schrödingergleichung bzw. (äquivalent)<br />
der von-Neumann-Gleichung. (Wie in der <strong>Vorlesung</strong> Quantenmechanik I gezeigt wird,<br />
lassen sich diese Gesetze aus allgemeinen Prinzipien herleiten.)
92 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
Schrödingerbild: (Index S bedeutet Schrödinger)<br />
Schrödingergleichung: i ∂<br />
∂t |ψS(t)〉 = H |ψS(t)〉 (4.12)<br />
oder (Definition): |ψS(t)〉 = U(t, t0)<br />
<br />
Zeitentwicklungsoperator<br />
|ψS(t0)〉 (4.13)<br />
Zeitentwicklungsoperator erfüllt i ∂<br />
∂t U(t, t0) = H U(t, t0) (4.14)<br />
⇒ ϱS(t) = <br />
|ψi(t)〉pi〈ψi(t)| = <br />
U(t, t0)|ψi(t0)〉pi〈ψi(t0)|U † (t, t0)<br />
i<br />
i<br />
⇒ ϱS(t) = U(t, t0)ϱS(t0)U † (t, t0) (4.15)<br />
bzw. i ∂<br />
∂t ϱS(t) = [H, ϱS(t)]<br />
von-Neumann-<br />
Gleichung<br />
( i ∂<br />
∂t ϱS = (i ∂<br />
∂t U) ϱS(t0) U † − U ϱS(t0) (i ∂<br />
∂t U)†<br />
= H U ϱS(t0) U †<br />
<br />
ϱ S (t)<br />
− U ϱS(t0) U †<br />
<br />
ϱ S (t)<br />
H )<br />
(4.16)<br />
Heisenbergbild: (Index H bedeutet Heisenberg)<br />
|ψH(t)〉 = const. ⇒ ϱH = const. (4.17)<br />
4.1.2 <strong>Statistische</strong> Mechanik<br />
Ausgangspunkt: Wie in der klassischen Mechanik<br />
Informationsentropie: S = −kB〈ln ϱ〉 = −kBSp(ϱ ln ϱ) (4.18)<br />
Prinzip der maximalen Ignoranz: S ist im Gleichgewicht maximal unter<br />
den vorgegebenen Nebenbedingungen<br />
Damit können im Wesentlichen alle Ergebnisse aus der klassischen statistischen<br />
Mechanik reproduziert werden.<br />
Bemerkung zur Anwendbarkeit des Jaynesschen Prinzips:<br />
klassisch: Argumentation beruht auf Liouvillesatz <strong>und</strong> der Annahme von<br />
Ergodizität.<br />
quantenmechanisch: Analogon zum Liouvillesatz:<br />
- Zeitentwicklungsoperator U(t, t0) unitär<br />
❀ Zeitentwicklung = Drehung im Hilbertraum<br />
Ergodizität muss wieder angenommen werden<br />
(nicht erfüllt z.B. beim harmonischen Oszillator)<br />
” Ergodizität“ bedeutet z.B. bei Energieerhaltung:<br />
Eigenraum eines Energie-Eigenwertes wird mit der Zeit<br />
gleichmäßig ausgefüllt (auf Kugel 〈ψ|ψ〉 = 1)
4.1. STATISTISCHE QUANTENMECHANIK 93<br />
Beispiel: Berechnung der Entropie eines Gemischs<br />
- im reinen Fall: ϱ = |ψ〉〈ψ|:<br />
Wähle Basis so, dass ψ erster Basisvektor<br />
⇒ ϱ =<br />
1 0 · · ·<br />
0 0 · · ·<br />
.<br />
.<br />
. . .<br />
⇒ S = 0<br />
- im unbestimmten Fall: ϱ = 1l/Sp(1l) ⇒ S = +kBSp(1l) maximal<br />
4.1.3 Berechnung des statistischen Operators in verschiedenen<br />
Gesamtheiten<br />
(1) Mikrokanonische Gesamtheit<br />
E vorgegeben (oder En ∈ [E, E + ∆E])<br />
Zustände mit Eigenenergie E: |ψν〉<br />
Entropie S maximal für<br />
statistischer<br />
Operator<br />
Zustandssumme<br />
ϱ MK = 1<br />
Z MK<br />
Z MK = Sp( <br />
<br />
ν |ψν〉〈ψν|<br />
(Gleichverteilung)<br />
(4.19)<br />
ν |ψν〉〈ψν|) (4.20)<br />
Entropie S = kB ln Z MK (4.21)<br />
(2) Kanonische Gesamtheit<br />
〈E〉 vorgegeben<br />
Entropie S maximal mit Nebenbedingung Sp(ϱ) = 1, Sp(ϱH) = 〈E〉<br />
<br />
<br />
❀ Variiere I[ϱ] = S − λ1 Sp(ϱ) − 1 − λ2 Sp(ϱH) − 〈E〉 (4.22)<br />
bzgl. Operator ϱ<br />
Rechnung (trotz Operator) ganz ähnlich zum klassischen Fall:<br />
δI<br />
<br />
(4.22)<br />
= δS<br />
<br />
−λ1<br />
I[ϱ+δϱ]−I[ϱ] S[ϱ+δϱ]−S[ϱ]<br />
−δS<br />
k B<br />
δ[Sp(ϱ)] −λ2<br />
<br />
Sp[ϱ+δϱ]−Sp[ϱ]<br />
=Sp[δϱ]<br />
(4.18)<br />
= Sp[(ϱ + δϱ) ln(ϱ + δϱ)<br />
<br />
ln ϱ+ϱ −1 δϱ+Terme ϱ m [ϱ n ,δϱ]+O(δϱ 2 )<br />
δ[Sp(ϱH)]<br />
<br />
Sp[(ϱ+δϱ)H]−Sp[ϱ]H<br />
=Sp[δϱH]<br />
] − Sp[ϱ ln ϱ]<br />
!<br />
= 0 für alle δϱ<br />
<br />
= Sp[ϱ ln ϱ] + Sp[δϱ ln ϱ] + Sp[δϱ] + Terme Sp ϱ m+1 [ϱ n <br />
, δϱ] −Sp[ϱ ln ϱ] + O(δϱ<br />
<br />
=0<br />
2 )<br />
<br />
<br />
!=<br />
⇒ δI = Sp δϱ − kB(ln ϱ + 1l) − λ11l − λ2H 0 für alle δϱ<br />
<br />
⇒ . . . = 0 ⇒ ln ϱ = − 1<br />
<br />
<br />
1l(kB + λ1) + λ2H ⇒ ϱ ∝ e kB − λ2 H<br />
k !<br />
B = e−βH Ergebnis: Entropie S maximal für<br />
statistischer<br />
Operator<br />
Zustandssumme<br />
ϱK = 1<br />
e<br />
ZK −βH<br />
Z K = Sp(e −βH )<br />
Entropie S = 1<br />
T 〈E〉 + kB ln Z K<br />
(Normierungsfaktor<br />
Sp(ϱ) = 1)<br />
(wie im<br />
klassischen Fall)<br />
(4.23)<br />
(4.24)<br />
(4.25)
94 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
Bemerkung: Da die einzige Nebenbedingung, die von einem anderen Operator<br />
als ϱ abhängt, die Bedingung Sp(ϱH) = 〈E〉 ist, darf ϱ nur von<br />
H abhängen. Alles andere wäre Zusatzinformation.<br />
(3) Großkanonische Gesamtheit<br />
Geht analog: Entropie S[ϱ] maximal mit Nebenbedingung Sp(ϱ) = 1,<br />
Sp(ϱH) = 〈E〉, Sp(ϱN) = 〈N〉 (N: Teilchenzahloperator)<br />
Variation liefert:<br />
statistischer<br />
Operator<br />
Zustandssumme<br />
ϱGK = 1<br />
e<br />
ZGK −β(H−µN)<br />
(4.26)<br />
Z GK = Sp(e −β(H−µN) ) (4.27)<br />
Entropie S = 1<br />
T (〈E〉 − µ〈N〉) + kB ln Z GK<br />
(4.28)<br />
Frage: Was hat man sich überhaupt unter einem quantenmechanischen Vielteilchenzustand<br />
vorzustellen?<br />
→ Nächstes Kapitel<br />
4.2 Quantenmechanische Vielteilchensysteme<br />
4.2.1 Unterscheidbare Teilchen<br />
(z.B. Wasserstoffatom: Proton + Elektron)<br />
Ein Teilchen: → Zustandsraum der Einteilchenzustände |ψ〉<br />
(z.B. Ein-Teilchen-Wellenfunktion ψ(z, t))<br />
Mehrere Teilchen: → Erweiterung des Zustandsraums über Produktbildung<br />
Angenommen, zwei Teilchen a,b,<br />
Einteilchenzustände |ψ〉a ∈ Ha, |ψ〉b ∈ Hb<br />
❀ Gemeinsamer Zustandsraum wird von den Zuständen |ψ〉a|ψ〉b aufgespannt:<br />
Hgesamt = Ha<br />
Hb<br />
(z.B. Proton + Elektron: ψelektron(x, t) ψproton(x, t))<br />
NB: Mit |ψi〉a |ψj〉b ist natürlich auch jede Linearkombination im Zustandsraum,<br />
also |ψi1 〉a |ψi1 〉b + |ψi2 〉a |ψi2 〉b<br />
❀ Zwei-Teilchen-Zustände faktorisieren i. A. nicht in Ein-Teilchen-Zustände<br />
4.2.2 Identische Teilchen<br />
” Identisch“: Man kann kein Verfahren angeben, mit dem ein Teilchen von<br />
einem anderen unterschieden werden kann - gleiche Masse, gleiche Ladung,<br />
gleicher Spin, . . .<br />
→ Hamiltonoperator verändert sich nicht bei Vertauschung zweier Teil-<br />
chen (z.B. zwei Teilchen a,b: H = p2 a<br />
2m + p2 b<br />
2m + V (|xa − xb|)
4.2. VIELTEILCHENSYSTEME 95<br />
→ Man kann bei einer Messung nicht unterscheiden, welches Teilchen<br />
man gerade misst: Sinnvolle Messgrößen sind nur solche, die zwischen<br />
Teilchen nicht unterscheiden (z.B. bei zwei Teilchen nicht xa, xb, aber<br />
1<br />
2 (xa + xb), |xa − xb|, . . . )<br />
❀ De facto ununterscheidbar<br />
Gegeben sei nun System N identischer Teilchen. Wie behandelt man das?<br />
4.2.2.1 Erster (falscher) Ansatz: Austauschentartung<br />
Versuch: N-facher Produktraum H N des Einteilchenzustandsraums H<br />
Bei Einteilchenbasis |bi〉 N-Teilchenzustand aufgespannt von |bi1 〉 · · · |biN 〉<br />
Ununterscheidbarkeit: Es kann nur Observablen geben, die nicht zwischen Teilchen<br />
unterscheiden<br />
Problem:<br />
Das heißt aber: Zustände |ψ1〉|ψ2〉 <strong>und</strong> |ψ2〉|ψ1〉 können durch keine<br />
Observable unterschieden werden. Zustand enthält Information, die<br />
durch keine Messung extrahiert werden kann. Es gibt kein VSKA!<br />
Austauschentartung: Eigenwerte sämtlicher Messgrößen bleiben bei Vertauschung<br />
erhalten (N!-fache Entartung). Entartung kann prinzipiell<br />
nicht aufgehoben werden, da Vertauschungssymmetrie nicht gebrochen<br />
werden kann, solange Teilchen identisch sind.<br />
Läuft dem Gr<strong>und</strong>gedanken der Quantenmechanik zutiefst zuwider<br />
Hätte Auswirkungen für Statistik: ” Identische Zustände“ |ψ1〉|ψ2〉 <strong>und</strong><br />
|ψ2〉|ψ1〉 hätten bei Gleichverteilung (maximale Entropie) zusammen<br />
ein doppelt so hohes Gewicht wie z.B. |ψ1〉|ψ1〉.<br />
Aber: Es stellt sich heraus - in der Natur ist es anders. Es gibt keine Austauschwechselwirkung,<br />
sondern es gilt das sog. Symmetrisierungspostulat: Der<br />
Gesamtzustand |ψ〉 eines Systems ist so beschaffen, dass er bei Vertauschung<br />
zweier beliebiger Teilchen<br />
• entweder in |ψ〉 übergeht - ” völlig symmetrisch“ - Bosonen<br />
• oder in −|ψ〉 - ” völlig antisymmetrisch“ - Fermionen<br />
Zunächst formale Beschreibung der Situation mittels Vertauschungsoperatoren<br />
4.2.2.2 Permutationsoperatoren<br />
∗ Zunächst für zwei Teilchen<br />
- Permutationsoperator Pab: Pab ( <br />
|ψi〉a|ϕi〉b) = <br />
|ϕi〉a|ψi〉b<br />
- Eigenschaften:<br />
- symmetrisch: Pab = Pba<br />
- P 2 ab<br />
= 1 ⇒ Eigenwerte: λ = ±1<br />
i<br />
i
96 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
- Form der Eigenvektoren (Beispiele)<br />
λ = +1 :<br />
λ = −1 :<br />
∗ Erweiterung auf N Teilchen<br />
❀ N! mögliche Permutationen<br />
1<br />
√2 (|ψ〉a|ϕ〉b + |ϕ〉a|ψ〉b)<br />
1<br />
√2 (|ψ〉a|ϕ〉b − |ϕ〉a|ψ〉b)<br />
Zugehörige Permutationsoperatoren bilden Permutationsgruppe<br />
Es existiert eindeutige Zuordnung: Eine Permutation heißt ” gerade“<br />
oder ” ungerade“, je nachdem ob sie sich aus einer geraden oder<br />
einer ungeraden Anzahl Vertauschungen zusammensetzt.<br />
Simultane Eigenvektoren aller Permutationsoperatoren P<br />
entweder total symmetrisch: P |ψ S 〉 = |ψ S 〉 ∀P (4.29)<br />
oder total antisymmetrisch: P |ψ A 〉 = (−1) P |ψ A 〉 (4.30)<br />
mit<br />
<br />
(−1) P = +1 P gerade<br />
(−1) P = −1 P ungerade<br />
(4.31)<br />
Bilden den Unterraum der symmetrischen <strong>und</strong> antisymmetrischen Zustände<br />
Konstruktion der Basis: Gegeben Einteilchenbasis |ψi〉, N Teilchen 1 . . . N<br />
- Basisvektoren von H N : |ψi1 〉 1 · · · |ψiN 〉 N<br />
- Projektionen dieser Basisvektoren auf symmetrische bzw. antisym-<br />
metrische Unterräume mittels Projektionsoperatoren<br />
S = 1 <br />
Pα symmetrisiert (4.32)<br />
N!<br />
A = 1<br />
N!<br />
Alle Permutationen<br />
α<br />
<br />
Alle Permutationen<br />
α<br />
(−1) Pα Pα antisymmetrisiert (4.33)<br />
(Betrachte S|ψ〉 ⇒ PβS|ψ〉 = 1 <br />
PβPα|ψ〉 = N!<br />
α<br />
1 <br />
Pγ|ψ〉 = S|ψ〉 <br />
N!<br />
γ<br />
Analog A|ψ〉 ⇒ PβA|ψ〉 = 1 <br />
Pβ(−1) N!<br />
α<br />
Pα Pα|ψ〉 = 1 <br />
(−1) N!<br />
γ<br />
Pγ −P β Pγ|ψ〉<br />
= (−1) P β A|ψ〉 )
4.2. VIELTEILCHENSYSTEME 97<br />
∗ Beispiele<br />
- Zwei Teilchen 1,2; Einteilchenbasis |ψi〉<br />
Permutationsoperatoren: ungerade: P12 =<br />
gerade: id =<br />
<br />
1<br />
<br />
2<br />
2 1<br />
<br />
1<br />
<br />
2<br />
1 2<br />
symmetrische Zustände: 1 √2 (|ψi1 〉 1 |ψi2 〉 2 + |ψi2 〉 1 |ψi1 〉 2 ) = |ψS i1i2 〉<br />
antisymmetrische Zustände: 1 √2 (|ψi1 〉 1 |ψi2 〉 2 − |ψi2 〉 1 |ψi1 〉 2 ) = |ψA i1i2 〉<br />
- Drei Teilchen 1,2,3<br />
- N Teilchen<br />
Permutationsoperatoren: ungerade:<br />
gerade:<br />
<br />
1<br />
1<br />
2<br />
3<br />
<br />
3 1<br />
,<br />
2 2<br />
2<br />
1<br />
<br />
3 1<br />
,<br />
3 3<br />
2<br />
2<br />
<br />
3<br />
1<br />
<br />
1<br />
1<br />
2<br />
2<br />
<br />
3 1<br />
,<br />
3 2<br />
2<br />
3<br />
<br />
3 1<br />
,<br />
1 3<br />
2<br />
1<br />
<br />
3<br />
2<br />
Symmetrische/Antisymmetrische Zustände: |ψ S/A<br />
〉 ∝ i1i2i3<br />
( |ψi1 〉 1 |ψi2 〉 2 |ψi3 〉 3 + |ψi2 〉 1 |ψi3 〉 2 |ψi1 〉 3 + |ψi3 〉 1 |ψi1 〉 2 |ψi2 〉 3<br />
± |ψi1 〉 1 |ψi3 〉 2 |ψi2 〉 3 ± |ψi2 〉 1 |ψi1 〉 2 |ψi3 〉 3 ± |ψi3 〉 1 |ψi2 〉 2 |ψi1 〉 3 )<br />
Symmetrische Zustände:<br />
|ψ S i1i2...iN 〉 ∝ ( |ψi1 〉 1 |ψi2 〉 2 · · · |ψiN 〉 N + Permutationen ) (4.34)<br />
Antisymmetrische Zustände:<br />
|ψ A <br />
<br />
1<br />
<br />
<br />
i1i2...iN 〉 = √ <br />
N! .<br />
<br />
|ψi1 〉 1 · · · |ψi1 〉 N<br />
. ..<br />
|ψiN 〉 1 · · · |ψiN 〉 N<br />
.<br />
<br />
<br />
<br />
<br />
Slaterdeterminante (4.35)<br />
<br />
<br />
NB: Laut Bronstein (Taschenbuch der Mathematik) wird die Determinante definiert als<br />
<br />
<br />
<br />
<br />
<br />
<br />
<br />
|ψi1 〉 1 · · · |ψi1 〉 N<br />
.<br />
. ..<br />
.<br />
|ψi N 〉 1 · · · |ψi N 〉 N<br />
<br />
<br />
<br />
def <br />
=<br />
<br />
π<br />
(−1) j(π) |ψi1 〉 1 |ψi2 〉 2 · · · |ψi N 〉 N<br />
(4.36)<br />
wobei die Summe aller möglichen Permutationen π der Zahlen 1, 2, . . . N zu erstrecken<br />
ist. Man bildet also aus den Elementen der Determinante alle möglichen Produkte<br />
|ψi1 〉 1 |ψi2 〉 2 · · · |ψi N 〉 N in der Weise, dass jedes der Produkte aus jeder Zeile <strong>und</strong> aus<br />
jeder Spalte genau ein Element als Faktor enthält. Der Wert des Ausdrucks (−1) j(π) <br />
er-<br />
<br />
1 2 . . . N<br />
gibt sich aus der Anzahl j(π) der Inversionen der Permutation π =<br />
.<br />
i1 i2 . . . iN<br />
Schließlich werden alle diese N! Summanden addiert.<br />
Die Anzahl der Inversionen gibt an, an wievielen Stellen in der Anordnung i1, i2, . . . , iN<br />
eine größere Zahl vor einer kleineren steht. Bei einer geraden Anzahl der Inversionen<br />
heißt die Permutation gerade, bei ungerader Anzahl ungerade, die identische Permuta-<br />
tion ist z.B. gerade. <br />
1<br />
Beispiel: Die Permutation<br />
4<br />
2<br />
3<br />
3<br />
1<br />
4<br />
5<br />
<br />
5<br />
hat 6 Inversionen: Es stehen in der unte-<br />
2<br />
ren Zeile 4 vor 3, 4 vor 2, 4 vor 1, 3 vor 2, 3 vor 1 <strong>und</strong> 5 vor 2.
98 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
4.2.2.3 Symmetrisierungspostulat<br />
Auf dieser Gr<strong>und</strong>lagekann man folgende Postulate für die Beschreibung eines<br />
quantenmechanischen Systems identischer Teilchen formulieren:<br />
(A) Ununterscheidbarkeit<br />
In einem System identischer Teilchen sind nur Observablen A zulässig,<br />
die mit allen Permutationsoperatoren kommutieren:<br />
[A, P ] = 0 ∀P (d.h., A muss gegen Permutationen invariant sein) (4.37)<br />
ˆ= Formale Fassung der Forderung, dass man bei einer Messung nicht<br />
unterscheiden kann, welches Teilchen man gerade misst<br />
(Beispiele: Gesamtimpuls, Gesamtdrehimpuls etc.)<br />
(B) Symmetrisierungspostulat<br />
Der Gesamtzustand eines Systems ist entweder völlig symmetrisch (Bosonen)<br />
oder völlig antisymmetrisch (Fermionen). Übergänge zwischen Symmetrien<br />
<strong>und</strong> gemischte Symmetrien sind nicht möglich.<br />
(Gilt in drei Dimensionen: In zwei Dimensionen sind ” Zwischensymmetrien“ möglich<br />
→ Anyonen, diskutiert im Zusammenhang mit Hochtemperatursupraleitung)<br />
Damit ist Austauschentartung aufgehoben.<br />
(C) In diesem Zusammenhang: Spin-Statistik-Theorem<br />
Bosonen → Teilchen mit ganzzahligem Spin (z.B. Photonen, He 4 )<br />
Fermionen → Teilchen mit halbzahligem Spin (z.B. Elektronen, He 3 )<br />
Begründung: Aus der relativistischen Quantenfeldtheorie<br />
Folgerungen aus dem Symmetrisierungsprinzip<br />
∗ Pauliprinzip: Zwei Elektronen können nie exakt den gleichen Zustand einnehmen.<br />
→ sehr gr<strong>und</strong>legend: Verantwortlich dafür, dass die Materie trotz elektrostatischer<br />
Kräfte nicht kollabiert.<br />
∗ Auswirkungen auf Statistik<br />
Betrachte zwei Teilchen in einem Zwei-Niveau-System (1,2).<br />
Stelle Basisvektoren des gemeinsamen Zustandsraumes auf.<br />
❀ Unterscheidbare Teilchen: |1〉|1〉, |1〉|2〉, |2〉|1〉, |2〉|2〉<br />
Bosonen: |1〉|1〉, 1<br />
√ 2 (|1〉|2〉 + |2〉|1〉), |2〉|2〉<br />
Fermionen:<br />
1<br />
√2 (|1〉|2〉 − |2〉|1〉)<br />
❀ Im Vergleich zu unterscheidbaren Teilchen sind zwei Bosonen häufiger<br />
im gleichen Zustand <strong>und</strong> Fermionen seltener (um nicht zu sagen nie)<br />
❀ • Fermionen meiden einander ( ” Pauli-Abstoßung“)<br />
⇒ Kennzeichen der Fermi-Dirac-Statistik<br />
• Bosonen suchen einander ( ” Anziehung“)<br />
⇒ Kennzeichen der Bose-Einstein-Statistik
4.3. IDEALE QUANTENGASE 99<br />
4.3 Ideale Quantengase<br />
N unabhängige Teilchen in einem Kasten V = Ld (d: Dimension)<br />
Freie Teilchen: H = N<br />
p<br />
i=1<br />
2 N<br />
i /2m = hi<br />
i=1<br />
4.3.1 Zustandsraum<br />
∗ Löse zunächst Einteilchenproblem:<br />
Schrödingergleichung: hψ = p2<br />
2mψ = Eψ, ❀ Lösungen sind<br />
Eigenvektoren zu p : |p〉 mit 〈x|p〉 ∝ e i px<br />
<strong>und</strong> εp = p2<br />
2m<br />
(4.38)<br />
Randbedingungen in der Box: Nur diskrete Werte von p zugelassen. In<br />
großen Boxen hängt das Verhalten kaum von der genauen Form der<br />
Randbedingungen ab, deshalb wähle hier ” periodische Randbedingungen“:<br />
ψ(xi ± L) = ψ(xi)<br />
⇒ p = h<br />
n mit n : ganzzahliger Vektor (4.39)<br />
L<br />
⇒ Anzahl der Zustände p in einem Volumen dp: ( L<br />
h )d dp = V<br />
h d dp<br />
⇒ Für genügend glatte Funktionen f(p) gilt<br />
<br />
f(p) = V<br />
hd <br />
dp f(p) (4.40)<br />
p<br />
Zustandsdichte:<br />
bzw. <br />
p,s<br />
f(p) = (2s+1)<br />
<br />
Spinentartung<br />
V<br />
hd <br />
dpf(p) (4.41)<br />
Anzahl der Zustände in einem Energieintervall [ε, ε + dε]:<br />
<br />
p:εp∈<br />
[ε,ε+dε]<br />
= V<br />
h d ·<br />
= V<br />
hd · ωd 1<br />
≈ V<br />
hd · 1<br />
2ωd <br />
|p|∈ √2mε, √ <br />
2m(ε+dε)<br />
dp = V<br />
h d · ωd<br />
√ 2m(ε+dε)<br />
<br />
√ 2mε<br />
dp p d−1<br />
d (2m(ε + dε) d − √ 2mε d )<br />
√ d dε 2mε ε<br />
⎧<br />
⎪⎨ 2 für d = 1<br />
wobei ωd = Oberfläche der d-dimensionalen Kugel = 2π<br />
⎪⎩<br />
4π<br />
für d = 2<br />
für d = 3<br />
(4.42)<br />
Berücksichtige noch Spinentartung (2s + 1)<br />
⇒ Anzahl der Zustände in [ε, ε + dε] = V D(ε) dε (4.43)<br />
mit D(ε) = ωd<br />
d<br />
d−2 2m 2<br />
(2s + 1) ε<br />
2<br />
Zustandsdichte (4.44)<br />
h 2
100 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
Speziell:<br />
Damit gilt dann:<br />
<br />
<br />
f(εp) = V dε D(ε) f(ε) für genügend glatte f(x) (4.45)<br />
p,s<br />
(s=Spin)<br />
∗ N-Teilchen-Problem<br />
• Unterscheidbare Teilchen<br />
❀ Basisvektoren |ψ p1...p N 〉 = |ψ p1 〉 · · · |ψ p N 〉 (4.46)<br />
N<br />
N<br />
⇒ H|ψp1...p 〉 = ( hi)|ψ N p1...p 〉 = ( ε N pi )|ψp1...p 〉 (4.47)<br />
N<br />
i=1<br />
i=1<br />
Permutierte Vektoren |ψP (p1...p N )〉 haben gleichen Eigenwert<br />
• Identische Teilchen<br />
Bosonen: Basisvektoren |ψ S p1...p N 〉 ∝ ( |ψ p1 〉 · · · |ψ p N 〉 + Permutationen ) (4.48)<br />
Fermionen: Basisvektoren |ψ A p1...p N 〉 = 1<br />
√ N!<br />
⇒ H|ψ S/A<br />
p1...p N 〉 = (<br />
N<br />
i=1<br />
4.3.2 Statistik idealer Quantengase<br />
Betrachte ideales Gas identischer Teilchen<br />
→ am bequemsten ist großkanonische Zustandssumme<br />
Z GK<br />
(4.26)<br />
= Sp(e −β(H−µN) ) = <br />
(4.50)<br />
<br />
= eβµN = <br />
N<br />
eβµN <br />
p,s<br />
<br />
<br />
|ψp1 <br />
<br />
<br />
<br />
<br />
〉 · · · |ψp1 〉<br />
<br />
<br />
<br />
. . ..<br />
. <br />
.<br />
.<br />
.<br />
<br />
<br />
|ψpN 〉 · · · |ψpN 〉<br />
<br />
(= 0, wenn alle pi verschieden)<br />
(4.49)<br />
ε pi )|ψ S/A<br />
p1...p N 〉 (4.50)<br />
N<br />
{(p 1 s 1 ...p N s N )}<br />
Reihenfolge egal<br />
∞(Bosonen)<br />
oder 1 (Fermionen)<br />
<br />
N<br />
np,s=0 ∞ oder 1<br />
e<br />
p,s np,s=0 −β(εp,s−µ)np,s = <br />
<br />
{(p 1 s 1 ...p N s N )}<br />
Reihenfolge egal<br />
da identisch<br />
N<br />
−β εpi ,si e i=1<br />
e<br />
<br />
〈ψ S/A<br />
p1...pN |e−β(H−µN) |ψ S/A<br />
p1...pN 〉<br />
〈ψ S/A<br />
p1...pN |ψS/A<br />
<br />
Bosonen: 1<br />
Fermionen: 1,<br />
<br />
wenn alle p i verschieden<br />
p1...pN 〉<br />
−β <br />
np,sεp,s p,s · δ <br />
N, np<br />
(4.51)<br />
(4.52)
4.3. IDEALE QUANTENGASE 101<br />
Z GK = <br />
Folgerungen<br />
p,s<br />
Zp,s mit Zp,s =<br />
<br />
1/(1 − e −β(ε p,s−µ) ) Bosonen<br />
1 + e −β(ε p,s−µ) Fermionen<br />
(4.53)<br />
Im Fall von Bosonen muß µ < min εp,s sein. (4.54)<br />
∗ Großkanonisches Potential<br />
Ω(T, V, µ) (2.87)<br />
(4.53)<br />
= −kBT ln ZGK <br />
(4.45)<br />
⇒ Ω(T, V, µ) = ±kBT V<br />
= ±kBT <br />
p,s<br />
ln(1∓e −β(ε p,s−µ) ) Bosonen<br />
Fermionen<br />
dε D(ε) ln(1 ∓ e −β(ε−µ) ) (4.55)<br />
∗ Mittlere Besetzung des Zustands (p, s): n p,s zählt Teilchen in (p, s)<br />
〈np,s〉 (4.5)<br />
= Sp(ϱGK np,s) (4.26)<br />
=<br />
analog (4.52)<br />
=<br />
(4.52)<br />
= − 1<br />
β<br />
1<br />
Z GK<br />
<br />
p ′ ,s ′<br />
∞ oder 1<br />
d<br />
dε ln Z<br />
p,s GK = − 1<br />
β<br />
e <br />
β(ε<br />
⇒ 〈np,s〉 = 1<br />
p,s−µ)<br />
∓ 1<br />
1<br />
Z Sp(e<br />
GK<br />
−β(H−µN) np,s)<br />
e<br />
np ′ ,s ′=0<br />
−β(εp ′ ,s ′−µ)np ′ ,s ′ np,s<br />
d<br />
dε p,s ln Z p,s<br />
mit −“: Bosonen: Bose-Einstein-Statistik<br />
”<br />
” +“: Fermionen: Fermi-Dirac-Statistik<br />
4.3.3 Der Grenzfall der ” klassischen“ Statistik<br />
Klassische Statistik: Großkanonische Zustandssumme<br />
Z GK<br />
(2.83)<br />
= ∞<br />
N=0<br />
(4.40)<br />
= <br />
= <br />
N<br />
1<br />
h3N <br />
eβµN<br />
N!<br />
ΩN 1<br />
N! eβµN<br />
<br />
{(p 1 s 1 ...p N s N )}<br />
Reihenfolge<br />
nicht egal<br />
N<br />
1 <br />
N!<br />
eβµN e<br />
N<br />
i=1 pi,si<br />
−βεp i ,si 1<br />
N!<br />
N<br />
eβµN<br />
<br />
e<br />
p,s<br />
−βε N p,s<br />
= <br />
⇒ Z GK = <br />
p,s<br />
dΓ N e −βH (Γ N )<br />
−β<br />
e<br />
<br />
εpi ,si p i ,si = exp e<br />
−βµ <br />
p,s<br />
Zp,s mit Zp,s = exp e −β(ε p,s−µ) <br />
<br />
e−βε <br />
p,s<br />
(4.56)<br />
(4.57)<br />
(4.58)<br />
(4.59)
102 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
❀ Mittlere Besetzung: 〈np,s〉 = − 1<br />
β<br />
⇒ 〈np,s〉 = e −β(ε p,s−µ)<br />
d<br />
dε p,s ln Z p,s<br />
wie vorher<br />
: Maxwell-Boltzmann-Statistik (4.60)<br />
Maxwell-Boltzmann-Statistik entspricht dem Grenzwert<br />
β(ε−µ) ≫ 1 der Bose-Einstein- <strong>und</strong> Fermi-Dirac-<br />
Statistik. In Quantengasen sind hohe Energieniveaus<br />
nach der Maxwell-Boltzmann-Statistik besetzt!<br />
❀ Nachträgliche Rechtfertigung des Faktors 1<br />
N! in klassischen Mechanik.<br />
Speziell freie Teilchen: εp = p 2 /2m<br />
⇒ Z (4.57)<br />
= exp e<br />
= exp e<br />
−βµ<br />
p e−βε (4.40)<br />
p ≈ exp e−βµ V<br />
hd <br />
dp e−βp2 /2m <br />
−βµ V<br />
λd <br />
mit λT = √ h<br />
thermische de-Broglie-Wellenlänge<br />
T<br />
2πmkBT<br />
❀ Ergebnis der klassischen Rechnung (Aufgabe 14) nachvollzogen.<br />
❀ Nachträgliche Rechtfertigung des Faktors 1/h dN<br />
Übergang Quantenstatistik zur klassischen Statistik<br />
Wann wird klassische Maxwell-Boltzmann-Statistik gültig?<br />
Voraussetzung Wesentliche Beiträge zur Zustandssumme kommen in der klassischen<br />
<strong>und</strong> Quantenstatistik von N-Tupeln<br />
→ Bedingung 〈np,s〉klassisch = (2s+1)λ d T<br />
N<br />
V<br />
≪ 1<br />
Anschaulich: Thermische de-Broglie-Wellenlänge = (größenordnungsmäßig) der<br />
mittleren Ausdehnung eines Wellenpaketes mit thermischem Impuls<br />
〈p 2 〉klassisch = 2mE/N ∝ √ mkBT<br />
❀ Quantenstatistik wichtig bei hohen Dichten, tiefen Temperaturen, leichten Teilchen<br />
Man spricht dann von entarteten Gasen<br />
4.3.4 Zustandsgleichungen von Quantengasen<br />
Gegeben: Großkanonisches Potential<br />
Ω(T, V, µ) (4.55)<br />
= ±kBT V dε D(ε) ln(1 ∓ e −β(ε−µ) ) Bosonen<br />
Fermionen<br />
Gesucht: Thermische Zustandsgleichung P (T, V, N)<br />
Kalorische Zustandsgleichung U(T, V, N)
4.3. IDEALE QUANTENGASE 103<br />
Vorgehen:<br />
• Für thermische Zustandsgleichung: Gleichungssystem ( Bosonen<br />
Fermionen )<br />
<br />
= kBT<br />
(∗) P (µ, T ) (3.31)<br />
= − Ω<br />
dε D(ε) [∓ ln(1 ∓ e<br />
V −β(ε−µ) )] (4.61)<br />
(∗∗) N(T, V, µ) (2.115)<br />
= − ∂Ω<br />
<br />
= V dε D(ε)/(e<br />
∂µ β(ε−µ) ∓ 1) (4.62)<br />
• Für kalorische Zustandsgleichung: Thermische Zustandsgleichung<br />
+ Beziehung U = d<br />
P V<br />
2<br />
für ideale Gase<br />
(4.63)<br />
(Beweis: freie Teilchen → D(ε) (4.44)<br />
= ω <br />
d<br />
2m<br />
(2s + 1)<br />
2 h2 d d−2<br />
d−2<br />
2 2<br />
ε = const. · ε<br />
Besetzung n(ε) (4.56)<br />
e <br />
= 1 β(ε−µ) 1 d<br />
∓ 1 = − β dε [∓ ln(1 ∓ e−β(ε−µ) )] vgl. (4.61)!<br />
⇒ U = V dε D(ε) n(ε)ε = − 1<br />
β V d<br />
2 d<br />
dε const. ε [. . .] dε<br />
partielle<br />
Integration<br />
=<br />
1<br />
β V dε const. d<br />
2 ε<br />
d−2<br />
2 d<br />
d<br />
[. . .] = dε 2 kBT V dε D(ε) [. . .] (4.61)<br />
= d<br />
2<br />
P V )<br />
Lösung: Explizit nicht möglich, implizites Gleichungssystem (4.61),(4.62)<br />
Betrachte dreidimensionalen Fall:<br />
Standardintegrale<br />
g (z)<br />
<br />
5/2 = ∓<br />
f (z) 5/2 2<br />
<br />
√ dx<br />
π<br />
√ x ln(1 ∓ z e −x )<br />
g (z)<br />
<br />
3/2 = z<br />
f (z) 3/2<br />
(4.64)<br />
d<br />
<br />
g5/2 (z)<br />
<br />
=<br />
dz f (z) 5/2 2<br />
<br />
√ dx<br />
π<br />
√ x<br />
1<br />
(4.65)<br />
❀ Gleichungssystem:<br />
1<br />
z ex ∓ 1<br />
(∗) βP = 2s+1<br />
λ3 <br />
g5/2 (e<br />
T<br />
βµ ) Bosonen<br />
f (e 5/2 βµ ) Fermionen<br />
(∗∗) N<br />
V<br />
NB: Entwicklung um z = 0:<br />
g (z)<br />
<br />
5/2 =. . .=±<br />
f (z) 5/2 ∞<br />
k=1<br />
= ϱ = 2s+1<br />
λ 3<br />
T<br />
(±z) k<br />
k 5/2<br />
mit Konvergenzradius |z| < R = 1 ( lim<br />
k→∞<br />
;<br />
g3/2 (e βµ ) Bosonen<br />
f 3/2 (e βµ ) Fermionen<br />
g (z)<br />
<br />
3/2 =. . .=±<br />
f (z) 3/2 ∞ (±z)<br />
k=1<br />
k<br />
k3/2 k 5/2<br />
(k+1) 5/2 = lim<br />
k→∞<br />
Programm: ϱ(e βµ ) → e βµ = f(ϱ) → βP (ϱ): Zustandsgleichung<br />
Graphisch (Diskussion von g 3/2, f 3/2 → Übungsaufgabe)<br />
Fermionen:<br />
Bosonen:<br />
(4.66)<br />
(4.67)<br />
(4.68)<br />
k 3/2<br />
(k+1) 3/2 = 1)<br />
⇒ Umkehrung von (4.67) möglich,<br />
Programm funktioniert!<br />
⇒ Umkehrung von (4.67)<br />
nicht immer möglich,<br />
❀ Folgerungen siehe Kapitel 4.3.5
104 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
Diskussion:<br />
(1) “schwach entartete” Quantengase<br />
e βµ ≪ 1 → klassische ideale Gase mit Quantenkorrekturen<br />
Ansatz: Virialentwicklung nach ϱ = N<br />
Definiere z = e βµ , ˜ϱ = N<br />
V<br />
λ 3 T<br />
2s+1<br />
(∗) → λ3 T<br />
z2<br />
2s+1βP (z) = z ±<br />
25/2 + z3<br />
35/2 ± . . .<br />
(∗∗) → ˜ϱ(z) = z ± z2<br />
23/2 + z3<br />
33/2 ± . . .<br />
Invertiere (∗∗) → z(˜ϱ) = ˜ϱ ∓ ˜ϱ2<br />
23/2 + . . .<br />
Setze ein in (∗) → λ3 T<br />
2s+1βP (˜ϱ) = ˜ϱ ∓ ˜ϱ/25/2 + . . .<br />
⇒ βP = ϱ ∓ ϱ<br />
<br />
klassisches<br />
ideales Gas<br />
2 λ3 T 1<br />
· + . . .<br />
2s + 1 25/2 <br />
Quantenkorrekturen<br />
Bosonen: Druck kleiner als im klassischen Gas<br />
→ effektive Anziehung zwischen Teilchen<br />
Fermionen: Druck größer als im klassischen Gas<br />
→ effektive Abstoßung<br />
(2) stark entartete Gase<br />
(a) Bosonen: Zwei Fälle<br />
(∗) “Echte” Teilchen, feste Teilchenzahl N, e βµ → 1 −<br />
❀ Bose-Einstein-Kondensation, siehe nächstes Kapitel<br />
(∗) Quasiteilchen mit µ ≡ 0 (Photonen, Phononen)<br />
Teilchenzahl variabel<br />
Photonen: Siehe Übungsaufgabe (Hohlraumstrahlung)<br />
(b) Fermionen: e βµ ≫ 1<br />
(∗) Maximale Entartung: T = 0 oder µ → ∞<br />
❀ Verteilung n(ε) (4.56)<br />
=<br />
1<br />
e β(ε−µ) +1 =<br />
V<br />
<br />
1 : ε < µ<br />
0 : ε > µ<br />
(4.69)<br />
Stufenfunktion<br />
Alle Zustände besetzt bis zu p = p F mit p F = √ 2mµ (4.70)<br />
❀ Man spricht von Fermikugel mit Fermiimpuls p F<br />
<strong>und</strong> Fermienergie ε F = µ (4.71)<br />
Berechnung von ε F :<br />
N = V dε n(ε)D(ε), D(ε) (4.44)<br />
= 4π (2s + 1)<br />
⇒ N = V (2s + 1)2π<br />
<br />
2m<br />
h2 3 ε F<br />
0<br />
<br />
2/3 h2 3<br />
⇒ εF = ϱ<br />
2m 4π(2s + 1)<br />
2/3<br />
2<br />
dε √ ε = V (2s + 1) 4π<br />
3<br />
<br />
2m<br />
h2 3<br />
ε 3−2<br />
2<br />
<br />
2m<br />
h2 3<br />
ε3/2 F<br />
3<br />
⇒ D(ε) = ϱ<br />
2 √ √<br />
3 ε (4.72)<br />
εF
4.3. IDEALE QUANTENGASE 105<br />
⇒ Gesamtenergie: U = V<br />
ε F<br />
0<br />
dε εD(ε) = 3<br />
2N ε F<br />
dε<br />
0<br />
3<br />
ε/εF → U = 5<br />
2 Nε F (4.73)<br />
Druck: P (4.63)<br />
= U<br />
V<br />
· 2<br />
3<br />
→ P = 2<br />
5 · ϱ · ε F<br />
(∗) Starke Entartung: T → 0, e βµ ≫ 1<br />
∝ ϱ5/3<br />
(4.74)<br />
Entwicklung nach kBT/εF • Bei (kBT/εF ) ist n(ε) immer noch nahezu eine Stufenfunktion<br />
Entwickle − ∂n<br />
∂ε = ak δ (k) (ε−µ) mit ak = 1<br />
<br />
k! dε (ε−µ) k ∂n (− ∂ε )<br />
❀ − ∂n<br />
∂ε<br />
≈ δ(ε − µ) + π2<br />
6β 2 δ ′′ (ε − µ) + O( 1<br />
• ϱ = dε n(ε)D(ε) (4.72)<br />
= ϱ 3<br />
2 √ ε F 3<br />
⇒ 1 = dε ε<br />
3<br />
ε (−<br />
F<br />
∂n<br />
∂ε ) ≈ dε ε<br />
εF ⇒ µ<br />
ε F<br />
=<br />
= µ<br />
εF <br />
1 + π2<br />
8(βε ) F 2 ( εF µ )2<br />
−3/2 βµ )3 + O(e −βµ )<br />
dε n(ε) √ ε = ϱ dε (− ∂n<br />
3 <br />
δ(ε − µ) + π2<br />
3 <br />
1 + π2<br />
≈ 1 −<br />
6β 2<br />
3<br />
4ε2 (<br />
F<br />
εF µ )2<br />
π2<br />
12(βε ) F 2 + O( 1<br />
βεF • U = V dε n(ε)D(ε) · ε = 3<br />
2N dε n(ε) ε/εF = 5<br />
2Nε <br />
∂n<br />
F dε(− ∂ε ) 5<br />
ε/εF ≈ 5<br />
2Nε 5<br />
F dε ε/εF<br />
<br />
δ(ε − µ) + π2<br />
6β2 δ ′′ <br />
(ε − µ)<br />
= 5<br />
2Nε 5<br />
F µ/εF<br />
<br />
1 + 5π2<br />
8(βε ) F 2 ( εF µ )2<br />
<br />
≈ 5<br />
2Nε <br />
F 1 − π2<br />
12(βε ) F 2<br />
5/2 1 + 5π2<br />
8(βε ) F 2<br />
<br />
= 5<br />
2Nε <br />
F 1 + π2<br />
<br />
12<br />
❀ U = 5<br />
2 Nε F<br />
P = U<br />
V<br />
Spezifische<br />
Wärme:<br />
(1 + 5π2<br />
12<br />
2 2 · 3 = 5ε <br />
F · ϱ<br />
c V = 1<br />
N<br />
1<br />
(βε F ) 2<br />
kBT<br />
( ε )<br />
F<br />
2 + . . .)<br />
1 + 5π2<br />
12<br />
∂U<br />
∂T<br />
<br />
<br />
<br />
V,N<br />
kBT<br />
( ε )<br />
F<br />
2 <br />
+ · · ·<br />
= π2k2 B<br />
2ε T + . . .<br />
F<br />
3<br />
∂ε ) ε<br />
3<br />
εF 6β2 δ ′′ <br />
(ε − µ)<br />
<br />
) 3<br />
(4.75)<br />
(4.76)<br />
(4.77)
106 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
4.3.5 Bose-Einstein-Kondensation<br />
(a) Vorüberlegungen<br />
Betrachte ideales Gas von Bosonen, in 3 Dimensionen. Nach Kapitel 4.3.4<br />
sind Zustandsgleichungen implizit gegeben durch Gleichungssystem<br />
(∗) βP (4.66)<br />
= 2s+1g<br />
(e 5/2 βµ ) mit Nebenbedingung µ < 0<br />
λ3 T<br />
(∗∗) ϱ (4.67)<br />
= 2s+1g<br />
(e 3/2 βµ ) µ < 0<br />
λ3 T<br />
Lösung durch Invertieren von (∗∗) → e βµ als Funktion von ϱ → Einsetzen<br />
in (∗)<br />
Aber: Invertieren von (∗∗) ist im Fall von Bosonen nicht immer<br />
möglich.<br />
1<br />
k3/2 3 = ζ (<br />
2 ) = 2.612<br />
Riemannsche ζ-Funktion<br />
(NB: Ableitungen dk<br />
dzk g3/2(z) divergieren<br />
bei z → 1 (Übungsaufgabe))<br />
lim<br />
z→1 g3/2(z) = ∞<br />
k=1<br />
❀ Bei hohen Dichten ϱ ( ϱλ3 T<br />
2s+1 > 2.612) gelingt Inversion nicht.<br />
Problem rührt von Ersetzung <br />
〈np,s〉 · · · → V dε D(ε)n(ε) · · · , die<br />
s,p<br />
in (∗) <strong>und</strong> (∗∗) eingeht. Ist nur für genügend glatte“ Funktionen<br />
”<br />
n(ε) erlaubt - jedoch n(ε) =<br />
1<br />
e β(ε−µ) −1 divergiert bei ε = 0, µ → 0− .<br />
Analyse des Problems: Verteile N Teilchen auf 〈np,s〉 Zustände, betrachte<br />
Grenzfall |βµ| ≪ 1 (µ < 0)<br />
• Gr<strong>und</strong>zustand ε0 = 0:<br />
1 〈n0〉 = e−βµ 1<br />
1<br />
≈ −1 |βµ| ≤ N (⇒ βµ ≤ − N )<br />
❀ Dichte 〈n0〉 N<br />
V ≤ V kann im Prinzip endlich groß sein!<br />
❀ makroskopische Besetzung des Gr<strong>und</strong>zustandes möglich.<br />
• Angeregte Zustände ε = p2<br />
⇒ ε ≥ 1<br />
2m<br />
❀ 〈nε<br />
V<br />
= 1<br />
V<br />
( 2π<br />
L )2 = ε1<br />
1<br />
eβε 1 ≈ 1 −1 V βε1<br />
2m<br />
mit p = ( 2π<br />
L )n<br />
= 2m<br />
β(2π) 2 V −1/3 → 0 für V → ∞<br />
❀ Im thermodynamischen limes V → ∞ sind alle angeregten<br />
Zustände nur mikroskopisch besetzt.<br />
⇒ Ersetzung <br />
〈np,s〉 · · · → V dε D(ε)n(ε) · · · ist in Ordnung für ε =<br />
(b) Neuer Ansatz<br />
s,p<br />
s,p<br />
0, aber problematisch für den Gr<strong>und</strong>zustand.<br />
<br />
〈np,s〉 . . . = <br />
∞<br />
〈n0〉 . . . +V dε D(ε)n(ε) . . .<br />
bzw. <br />
. . . = <br />
s,p<br />
s<br />
s,p=0<br />
. . . +V<br />
0<br />
∞<br />
0<br />
dε D(ε) . . .<br />
❀ Zusätzliche Terme in den Zustandsgleichungen:
4.3. IDEALE QUANTENGASE 107<br />
❀<br />
(∗) βP = − Ω<br />
−<br />
<br />
s ln Z0,s<br />
V<br />
ln ZGK = V hat zusätzlich:<br />
= − (2s+1)<br />
V ln(1 − eβµ ) ≤<br />
βµ≤ 1<br />
N<br />
kBT V<br />
❀ Korrektur vernachlässigbar bei V → ∞<br />
(∗∗) ϱ = N<br />
V hat zusätzlich:<br />
1 kann groß werden.<br />
1<br />
V<br />
s<br />
〈n0〉 = 2s+1<br />
V<br />
e −βµ −1<br />
(∗) βP = 2s+1<br />
λ3 g (e 5/2<br />
T<br />
βµ ) wie gehabt<br />
(∗∗) ϱ = 2s+1<br />
λ3 <br />
g3/2 (e<br />
T<br />
βµ ) + λ3<br />
T e<br />
V<br />
βµ<br />
1−eβµ <br />
Vergleiche neue Version von (∗∗) mit der alten<br />
(2s+1)<br />
V ln βN →<br />
V →∞ 0<br />
⇒ Gleichung (∗∗) wird<br />
invertierbar für alle ϱ<br />
→ Problem gelöst!<br />
(4.78)<br />
Bemerkung zur kalorischen Zustandsgleichung<br />
Der Zustand ε = 0 trägt nicht zur inneren Energie U bei.<br />
Die Gleichung (∗) für P ist unverändert, also bleibt die Gleichung<br />
U = 3<br />
2P V gültig!<br />
(c) Diskussion: Bose-Einstein-Kondensation<br />
Betrachte (∗∗) im Grenzfall V → ∞ ⇒ λ3<br />
T<br />
V<br />
nur bei e βµ → 1 von Null verschieden.<br />
e βµ<br />
1−e βµ wird beliebig scharf, ist<br />
❀ Phasenübergang bei ϱλ3<br />
T<br />
2s+1 = 2.612<br />
Im Bereich (II) liegt ein Kondensat“ vor. Mischung von zwei Pha-<br />
”<br />
sen: (2s+1)〈n0〉 Teilchen im Gr<strong>und</strong>zustand, N −(2s+1)〈n0〉 Teilchen<br />
in angeregten Zuständen.<br />
Nun: Analyse dieses Phasenübergangs:<br />
∗ Phasendiagramme<br />
• ϱ − T -Ebene<br />
Übergang bei ϱλ3 T<br />
2s+1 = g 3/2(1)<br />
⇒ ϱ0T −3/2<br />
0<br />
= const.
108 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
• P − T -Ebene<br />
Übergang bei e βµ = 1<br />
⇒ βP = 2s+1<br />
λ 3 T<br />
⇒ P0T −5/2<br />
0<br />
• µ−?-Ebene<br />
” Trivial“<br />
g 5/2(1)<br />
<br />
1.341<br />
= const.<br />
∗ Verhalten verschiedener Größen<br />
• Besetzung des Gr<strong>und</strong>zustandes<br />
Berechnet aus N − (2s + 1)〈n0〉 (4.67)<br />
= V 2s+1<br />
λ3 g (1) 3/2<br />
T<br />
<br />
⇒ (2s + 1) 〈n0〉<br />
N = 1 − 2s+1<br />
ϱλ 3 T<br />
= 1 − T<br />
T 0 (ϱ)<br />
Aufgetragen gegen T :<br />
<br />
2s+1<br />
ϱλ3 T 0 = 1 − (ϱλ3 T ) 0<br />
(ϱλ3 T )<br />
3/2 oder 1 − ϱ0(T )<br />
ϱ<br />
• Isothermen im P-V-Diagramm (N fest)<br />
Phasenübergangslinie:<br />
P0 ∝ T 5/2<br />
0 , T0 ∝ ϱ2/3 ⇒ P0 ∝ ϱ 5/3<br />
0<br />
−5/3<br />
∝ V0 (4.79)<br />
Isothermen: (mit g 1/2(z) = z k<br />
√ k )<br />
Im Kondensat: P = const.<br />
Im Gas: ∂P<br />
<br />
<br />
∂V <br />
T,N<br />
(<br />
∂P<br />
∂V<br />
= −ϱkBT g 3/2(e βµ )<br />
g 1/2(e βµ )<br />
<br />
<br />
=<br />
T,N<br />
∂(P,T,N) ∂(P,T,N) ∂(P,T,µ)<br />
= ∂(V,T,N) ∂(V,T,µ) ∂(V,T,N)<br />
<br />
1 ∂P<br />
<br />
= ∂N <br />
∂N <br />
∂µ ∂V ∂µ −<br />
T,µ V,T<br />
V,T <br />
=0<br />
∂P<br />
<br />
∂N<br />
<br />
<br />
∂µ <br />
V,T ∂V T,µ<br />
<br />
= −ϱ<br />
=ϱ<br />
∂P<br />
<br />
<br />
∂N<br />
∂µ <br />
∂µ<br />
V,T<br />
V,T<br />
= −ϱkBT g′ 5/2 (eβµ )<br />
g ′ 3/2 (eβµ <br />
)<br />
)<br />
⇒ ∂P<br />
∂V<br />
<br />
<br />
T,N<br />
< 0:<br />
P fällt monoton<br />
g1/2(eβµ ) → ∞<br />
µ→0<br />
⇒ ∂P<br />
<br />
<br />
∂V → 0 bei V → V<br />
T,N<br />
+<br />
0 ,<br />
glatter Übergang
4.3. IDEALE QUANTENGASE 109<br />
• Entropie<br />
S = − ∂Ω<br />
<br />
<br />
∂T <br />
V,µ<br />
= V · ∂P<br />
<br />
<br />
∂T <br />
V,µ<br />
= 5<br />
<br />
P V<br />
2 T 1 − 2<br />
5eβµ · βµ · g3/2(eβµ )<br />
g5/2(eβµ Im Gas:<br />
<br />
)<br />
Nähert sich mit βµ → 0 stetig der Kurve S = 5 P V<br />
2 T an.<br />
Direkt am Übergangspunkt:<br />
S = 5 P V<br />
2 T<br />
5 βP<br />
= 2NkB ϱ<br />
5 = 2NkB g5/2(1) g3/2(1) ≡ s0N (4.80)<br />
mit s0 = 5 g5/2(1) 2 g3/2(1) kB = 1.33kB<br />
Im Kondensat:<br />
S = 5<br />
2<br />
P V<br />
T<br />
(4.81)<br />
(s0: Entropie/Teilchen in Gasphase bei Koexistenz)<br />
5 βP<br />
= S = 2NkB ϱ = N · s0 · 2s + 1<br />
<br />
= s0 N − (2s + 1)〈n0〉 <br />
ϱλ 3 T<br />
2s + 1<br />
ϱλ 3 T<br />
<br />
1−(2s+1)〈n0〉/N<br />
0<br />
(4.82)<br />
❀ Interpretation: Die (2s + 1)〈n0〉 Teilchen im Gr<strong>und</strong>zustand<br />
tragen nicht zur Entropie bei. Die übrigen (N −(2s+1)〈n0〉)<br />
Teilchen haben im Mittel die für die Gasphase charakteristische<br />
Entropie s0.<br />
• Spezifische Wärme<br />
Berechnung aus c V = 1<br />
<br />
<br />
<br />
V,N<br />
∂U<br />
N ∂T mit U = 3<br />
2P V<br />
<br />
∂U <br />
∂T =<br />
V,N ∂(U,V,N) ∂(U,V,N) ∂(T,V,µ)<br />
= · ∂(T,V,N) ∂(T,V,µ) ∂(T,V,N)<br />
<br />
1<br />
= ∂U ∂N <br />
∂N ∂T <br />
∂µ V,µ<br />
∂µ −<br />
T,V<br />
T,V<br />
∂U<br />
<br />
∂N <br />
∂µ <br />
T,V<br />
∂T <br />
V,µ<br />
= ∂U<br />
<br />
<br />
∂T −<br />
V,µ ∂U<br />
<br />
∂N/∂T | V,µ<br />
∂µ =<br />
T,V<br />
∂N/∂µ| V,T ∂U<br />
<br />
<br />
∂T −<br />
V,µ ∂U<br />
<br />
∂µ <br />
∂µ <br />
V,T<br />
∂T <br />
V,N<br />
Berechne zunächst ∂µ<br />
<br />
<br />
∂T aus ϱ<br />
V,N ! = const. (4.78)<br />
= 2s+1<br />
λ3 g (e 3/2<br />
T<br />
βµ ) + ϱ0<br />
Im Kondensat: µ ≡ 0 ⇒ ∂µ<br />
= 0 ∂T<br />
Im Gas: ϱ0 = 0 ⇒ ϱ = 2s+1<br />
λ3 g (e 3/2<br />
T<br />
βµ ) = const.<br />
<br />
3 βµ<br />
g<br />
⇒ dϱ = dT · ϱ − 2T T<br />
′ 3/2 (eβµ )<br />
g3/2 (eβµ <br />
+ dµ · ϱβ<br />
)<br />
g′ 3/2 (eβµ )<br />
g3/2 (eβµ !<br />
= 0<br />
)<br />
⇒ ( ∂µ<br />
<br />
)ϱ = kB − ∂T 3<br />
2 eβµ g3/2 (eβµ )<br />
g1/2 (eβµ <br />
+ βµ<br />
)<br />
Weiterhin: ∂U<br />
<br />
<br />
∂T =<br />
V,µ U<br />
<br />
5<br />
T 2 − βµe−βµ g3/2 (eβµ )<br />
g5/2 (eβµ <br />
,<br />
)<br />
<br />
∂U <br />
∂µ = Uβe<br />
V,T −βµ g3/2 (eβµ )<br />
g5/2 (eβµ )<br />
Zusammengesetzt: cV = 1<br />
<br />
∂U <br />
N ∂T =<br />
V,N<br />
1<br />
<br />
∂U <br />
N ∂T −<br />
V,µ ∂U<br />
<br />
∂µ <br />
∂µ <br />
V,T<br />
∂T <br />
V,N<br />
Im Kondensat: (βµ = 0): 5 U 15 2s+1<br />
= kB 2 NT 4 ϱλ3 g (1) = 5/2<br />
T<br />
15<br />
4 kB<br />
g (1) 3/2 5/2 T<br />
g (1) T0(ϱ)<br />
3/2<br />
Im Gas: U<br />
<br />
5<br />
NT 2 −βµe−βµ g3/2 (eβµ )<br />
g5/2 (eβµ <br />
+βµe<br />
)<br />
−βµ g3/2 (eβµ )<br />
g5/2 (eβµ <br />
−<br />
)<br />
3 g3/2 (e<br />
2<br />
βµ )g3/2 (e βµ )<br />
g1/2 (eβµ )g5/2 (eβµ <br />
)<br />
=<br />
(einsetzen) kB<br />
<br />
15 g5/2 (e<br />
4<br />
βµ )<br />
g3/2 (eβµ 9 g3/2 (e<br />
−<br />
) 4<br />
βµ )<br />
g1/2 (eβµ <br />
)<br />
⇒ Ergebnis: (s0 wie in (4.81))
110 KAPITEL 4. QUANTENSTATISTIK, Q.M. VIELTEILCHENSYSTEME<br />
⎧<br />
⎨<br />
cV =<br />
⎩<br />
3<br />
2s0 <br />
T 3/2<br />
T0 (ϱ)<br />
3<br />
2kB <br />
5 g5/2(e 2<br />
βµ )<br />
g3/2(eβµ )<br />
− 3<br />
g3/2(e 2<br />
βµ )<br />
g1/2(eβµ )<br />
Grenzverhalten:<br />
im Gas: T → ∞ ⇒ eβµ → 0 ⇒ cV → 3<br />
<br />
: T < T 0 (ϱ) (Kondensat)<br />
: T > T 0 (ϱ) (Gas) (4.83)<br />
5−3 3<br />
2kB( 2 ) = 2kB <br />
T → 0 ⇒ eβµ → 1 ⇒ g1/2 → ∞, cV → 3<br />
2s0 = 1.92kB<br />
im Kondensat: T → T0 ⇒ cV → 3<br />
2s0 T → 0 ⇒ cV → T 3/2 → 0<br />
(d) Bemerkungen zum Phasenübergang<br />
∗ Experimentell erstmals 1995 nachgewiesen<br />
∗ Verwandte Phasenübergänge:<br />
❀ stetig am Phasenübergang, macht<br />
Knick<br />
Suprafluidität (He 4 : Quantenflüssigkeit<br />
He 3 : Quantenflüssigkeit von Atompaaren)<br />
Supraleitung ( ” Flüssigkeit“ von Elektronenpaaren)<br />
∗ Bose-Einstein-Kondensation in beliebiger Dimension d<br />
Verallgemeinerung der Gleichung (∗∗) (4.78)<br />
❀ ϱ =<br />
2s + 1<br />
λ d T<br />
mit g d/2 (z) = ∞<br />
1<br />
gd/2 (e βµ ) + λd<br />
T<br />
V<br />
eβµ 1 − eβµ <br />
z k /k d<br />
2 : divergiert für z → 1 ab d ≤ 2<br />
(4.84)<br />
⇒ d ≤ 2: Gleichung (4.84) hat für alle ϱ < ∞ eine Lösung<br />
bei e βµ < 1. In diesem Bereich verschwindet im limes<br />
V → ∞ der zweite Term in (4.84) ❀ rein makroskopisch<br />
besetzter Gr<strong>und</strong>zustand, keine Kondensation.<br />
d > 2: Für große Dichten <strong>und</strong> V → ∞ ist die Lösung von (4.84)<br />
bei e βµ → 1.<br />
→ Bose-Einstein-Kondensation<br />
⇒ Phasenübergang findet erst oberhalb einer<br />
unteren kritischen Dimension statt<br />
❀ kennzeichnend für Phasenübergänge<br />
∗ Ursache der Bose-Einstein-Kondensation: ” Bose-Anziehung“
Kapitel 5<br />
Phasengleichgewichte <strong>und</strong><br />
Phasenübergänge<br />
c○ Copyright 2005 Friederike Schmid 1<br />
5.1 Beispiele für Phasenübergänge<br />
(siehe auch: Einleitung Seite 7 ff)<br />
(0) Bereits kennengelernt: Bose-Einstein-Kondensation<br />
exakt berechenbar, Beispiel für Phasenübergang erster Ordnung<br />
in mancher Hinsicht etwas untypisch, daher weitere Beispiele<br />
(1) Gas-Flüssig-Übergang<br />
Phänomenologische Beschreibung mit van-der-Waals-Zustandsgleichung<br />
∗ Heuristische Herleitung<br />
Ausgehend von der freien Energie für klassisches ideales Gas<br />
F (2.100)<br />
= NkBT ln( N<br />
V · λ3<br />
T )<br />
Betrachte nun Gas von wechselwirkenden klassischen Teilchen mit abstoßenden<br />
Kernen (keine Durchdringung) <strong>und</strong> längerreichweitiger Anziehung<br />
• Effekt des abstoßenden Kerns: Zugängliches Volumen reduziert<br />
❀ V → V − V0; V0 ≈ Nb mit b: Eigenvolumen der Teilchen<br />
⇒ F → F ≈ NkBT ln( hard core N<br />
V −Nb · λ3<br />
T )<br />
• Effekt der anziehenden Wechselwirkung<br />
❀ Beitrag zur inneren Energie: Upot ≈ −N a ϱ<br />
⇒ F = U − T S → F − N a ϱ<br />
hard core<br />
N 2<br />
⇒ Insgesamt: F (T, V, N) = −a van der Waals V + NkBT ln( N<br />
V −Nb · λ3<br />
T )<br />
Druck: P = − ∂F<br />
∂V<br />
= −a N 2<br />
V 2 + NkBT/(V − Nb)<br />
⇒ (P + a( N<br />
V )2<br />
<br />
” Binnendruck“<br />
)(V − Nb) = NkBT van-der-Waals-Gleichung<br />
(5.1)<br />
1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />
Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />
111
112 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
∗ Diskussion<br />
van-der-Waals-Gleichung äquivalent mit<br />
(5.1) ⇔ ϕ(V, T, P ) = V 3 − V 2 (Nb + NkBT<br />
P ) + V N 2 a<br />
P<br />
Graphisch: P-V-Diagramm<br />
− N 3 ab<br />
P<br />
= 0 (5.2)<br />
❀ Große Temperaturen: P fällt monoton mit V , kein Phasenübergang<br />
Kleine Temperaturen: ” Van-der-Waals-Schleife“<br />
❀ Nicht kompatibel mit Stabilitätsbedingungen (Kapitel ...)<br />
Problem rührt daher, dass auch F vdWaals nicht konvex in V .<br />
❀ Phasentrennung: Koexistenz von zwei Zuständen 1,2<br />
Ergeben sich aus konvexen Einhüllenden von F vdWaals<br />
(i) Druck im Koexistenzbereich konstant (PKoex )<br />
2<br />
2<br />
∂FvdWaals (ii) P dV = −<br />
vdWaals ∂V dV = −F2+F1 = PKoex (V2−V1)<br />
1<br />
1<br />
❀ ” Maxwellsche Flächenregel“<br />
⇒ Legt eindeutig fest, welche beiden Phasen bei gegebener Temperatur<br />
koexistieren.<br />
Übergang: Kritischer Punkt T c<br />
- Zusammenhang zwischen Zustandsgrößen am kritischen Punkt:<br />
V cP c<br />
NkBT c<br />
= 3<br />
= 0.375<br />
8<br />
(experimentell: 4 He : 0.308 H2 : 0.304<br />
O2 : 0.292 H2O : 0.230) (5.3)<br />
(Beweis: Bei (V c , T c ) ist: ∂P<br />
∂V = ∂2 P<br />
∂V 2 = 0 ⇒ 3 Nullstellen von ϕ als Funktion von<br />
V fallen aufeinander: ϕ(V, T c , P c ) (5.2)<br />
= . . . = (V − V c ) 3 → Koeffizientenvergleich)<br />
- Verhalten in der Nähe des kritischen Punktes: Verschiedene Pfade<br />
(a) V ≡Vc : κT = − 1<br />
<br />
∂V <br />
Vc ∂P ∝ |T − Tc| T<br />
−γ<br />
(b) T ≡Tc : (P − Pc) ∝ |V − Vc| δ<br />
(c) Koexistenzkurve: VGas −V ∝ (T fl. c −T ) β<br />
(5.4)<br />
mit (van der Waals): γ = 1, δ = 3, β = 1/2<br />
❀ algebraisches Verhalten, kritische Exponenten γ, δ, β<br />
( ” experimentell“: γ ≈ 1, δ ≈ 4.8, β ≈ 0.33)
5.1. BEISPIELE FÜR PHASENÜBERGÄNGE 113<br />
Schlußfolgerung:<br />
Phänomenologische Beschreibung erstaunlich erfolgreich<br />
für viele Flüssigkeiten<br />
Universelle Eigenschaften am kritischen Punkt<br />
(Potenzgesetze, kritische Exponenten unabhängig von der konkreten<br />
Substanz)<br />
(2) Magnetismus<br />
∗ Phasenverhalten<br />
Magnetisierung eines Ferromagneten<br />
∗ Phänomenologische Theorie: Weißsche Molekularfeldnäherung<br />
Idealer Paramagnet: Curie-Gesetz M = C<br />
T H (C: ” Curie-Konstante“)<br />
(5.5)<br />
Ferromagnet: Curie-Gesetz + Molekularfeld H = λM<br />
mol<br />
von magnetisierter Umgebung<br />
❀ M = C<br />
(5.6)<br />
T · (H + λM) (Curie-Weiss-Gesetz)<br />
→ Suszeptibilität: ∂M<br />
<br />
<br />
∂H = χT ∝<br />
T<br />
1<br />
T −λ·C<br />
!<br />
Funktioniert bei T > Tc = λ · C; dann ist χT ∝ 1 (5.7)<br />
|T −Tc |<br />
Bei niedriger Temperatur T < Tc bricht die Beschreibung zusammen.<br />
Abhilfe: Ersetze das Curie-Gesetz (5.5) durch die bessere<br />
Näherung M ∝ tanh(CH/kBT )<br />
(5.8)<br />
❀ Damit kann der Rest des Phasenverhaltens (spontane Magnetisierung<br />
etc.) beschrieben werden.<br />
∗ Vergleich mit Flüssig-Gas-Übergang<br />
Phasendiagramme
114 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
Kritische Exponenten<br />
Ordnungsparameter : M 0 (T ) ; V gas − V fl ∝ |T − T c| β<br />
∂(Ordnungsparameter)<br />
∂(zugeordnete intensive Größe) :<br />
Ordnungsp. ↔ zugeordnete intensive Größe:<br />
(5.9)<br />
Kompressibilität: κ T ∝ |T − T c| −γ (5.10)<br />
Suszeptibilität: χ T ∝ |T − T c| −γ (5.11)<br />
Druck ↔ Volumen bei T c : (P − P c) ∝ |V − V c| δ<br />
Feld ↔ Magnetisierung bei T c : H ∝ |M| δ<br />
(5.12)<br />
(5.13)<br />
Spezifische Wärme : c V , c P ∝ |T − T c| −α (5.14)<br />
- theoretische Werte: gleich für van der Waals-Flüssigkeit <strong>und</strong> Molekularfeldnäherung:<br />
α = 0 (Sprung), β = 1<br />
2 , γ = 1, δ = 3<br />
- experimentelle Werte: ähnlich für alle Systeme:<br />
α = −0.1 . . . 0.1, β = 0.2 . . . 0.4, γ = 1.2 . . . 1.4, δ = 4.2 . . . 4.4<br />
(3) Weitere Beispiele<br />
∗ Entmischung von Flüssigkeiten<br />
∗ Antiferromagnet<br />
∗ Ordnungs-Unordnungsphasenumwandlungen<br />
• Lageordnung<br />
Ordnungsparameter ∝ N (A)<br />
Cu<br />
− N (B)<br />
Cu
5.1. BEISPIELE FÜR PHASENÜBERGÄNGE 115<br />
• Orientierungsordnung<br />
Ordnungsparameter: (a) Orientierungstensor<br />
(b) mittlere Ausrichtung: σ j mit σ j = ±1<br />
∗ Strukturelle Phasenübergänge<br />
Beschreibung: Kondensierung“ eines bestimmten optischen Phonons<br />
”<br />
bei q = 0 → soft mode“<br />
”<br />
Bei Annäherung an den Phasenübergang von der ungeordneten Phase her<br />
wird dieses Phonon beliebig weich“.<br />
”<br />
” Ordnungsparameter“: 〈ϕ〉, wobei ϕ = Amplitude des Phonons.<br />
∗ Schmelzen-Erstarren<br />
” Einfrieren von Dichteschwankungen“<br />
- Phasenübergang immer erster Ordnung<br />
- mögliche Beschreibung: ϱ(r) = <br />
ˆϱ e G i Gr<br />
Ordnungsparameter: {ˆϱ G }<br />
∗ Flüssigkristalle<br />
Flüssigkeiten von stark anisotropen Molekülen<br />
Anwendung: LCDs:<br />
Nematische Phase: optische Anisotropie, starke Fluktuationen in der<br />
Nähe des Phasenübergangspunktes<br />
→ starke isotrope Lichtstreuung<br />
Der Übergang in die nematische Phase wird z.B. durch Anlegen eines<br />
elektrischen Feldes induziert.<br />
G
116 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
∗ Makroskopische Quantenzustände<br />
• Bosekondensation: Systeme von Boseteilchen<br />
niedrige Temperaturen: ein makroskopischer Anteil von Teilchen<br />
geht in den Gr<strong>und</strong>zustand<br />
• Suprafluidität ( 3 He, 4 He)<br />
Ordnungsparameter: Wellenfunktion des<br />
makroskopisch besetzten Zustandes<br />
ψ = R · e iφ<br />
supraflüssiger Zustand:<br />
Bosekondensat von<br />
makroskopischer Dimension<br />
mit 10 23 Teilchen<br />
Konsequenzen:<br />
z.B. dissipationsfreier Fluss durch Rohre <strong>und</strong> Kapillare<br />
(keine Energiedissipation durch Stöße mit einzelnen Teilchen<br />
mehr möglich; kollektive Anregungen, bei denen ein bestimmter<br />
Impuls übertragen wird, haben eine bestimmte Mindestenergie)<br />
• Supraleitung<br />
supraleitender Zustand:<br />
Bosekondensat von<br />
Elektronenpaaren<br />
(Cooperpaaren)<br />
Konsequenzen:<br />
Kein Widerstand (↔ dissipationsfreier Fluss)<br />
Meißner-Effekt: Magnetfeld wird aus der supraleitenden Phase<br />
verdrängt<br />
etc.<br />
(4) Folgerungen: Beschreibung von Phasenübergängen<br />
Wichtige Konzepte<br />
(1) Ordnungsparameter<br />
Größe, die zwischen Phasen unterscheidet<br />
(idealerweise Null in einer der beiden Phasen)<br />
Beispiel: Magnetisierung<br />
Kontinuierliche Phasenübergänge<br />
→ O.P. geht stetig gegen Null bei einem kritischen Punkt T c<br />
Phasenübergänge ” erster Ordnung“<br />
→ endlicher Sprung am Übergangspunkt<br />
⇒ Ordnungsparameter sollte extensiv sein<br />
Bei intensiver Größe wäre zweites Szenario nicht möglich.
5.1. BEISPIELE FÜR PHASENÜBERGÄNGE 117<br />
(2) Fluktuationen<br />
In der Nähe von Phasenübergängen treten häufig Schwankungen auf.<br />
Beispiele:<br />
- flüssig/gasf. kritischer Punkt: starke Dichteschwankungen (kritische<br />
Opaleszenz)<br />
- Soft mode bei strukturellen Phasenübergängen<br />
Schwankungen hängen im Allgemeinen mit Suszeptibilitäten zusammen<br />
(z.B. Dichteschwankungen ↔ Kompressibilität)<br />
❀ in der Nähe von Phasenübergängen divergieren diese oft.<br />
Konsequenzen:<br />
• Energieschwankungen: Peak in den spezifischen Wärmen<br />
• Große Korrelationslängen/Clustergrößen<br />
❀ experimentell messbare Effekte<br />
• Große Cluster → längere Relaxationszeiten<br />
” critical slowing down“<br />
(bei Phasenübergängen geht alles langsamer)<br />
(3) Symmetrie <strong>und</strong> Symmetriebrechung<br />
Phasenübergänge sind häufig mit Änderung der Symmetrie im System<br />
verb<strong>und</strong>en<br />
(z.B. Magnetismus, Ordnungs/Unordnungs-Phasenumwandlung)<br />
Ordnungsparameter beschreibt dann diese Symmetriebrechung<br />
(4) Kritisches Verhalten<br />
Es gibt häufig kritische Punkte (Linien . . . ), an denen Phasenübergänge<br />
kontinuierlich werden.<br />
Gekennzeichnet durch<br />
- Potenzgesetze<br />
- kritische Exponenten α, β, γ, δ<br />
- Universalität<br />
Konkret: Einteilung in Universalitätsklassen nach<br />
• Raumdimensionen<br />
• Symmetrie des Ordnungsparameters<br />
• Reichweite der Wechselwirkungen
118 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
5.2 <strong>Thermodynamik</strong> von Phasengleichgewichten <strong>und</strong><br />
Phasenübergängen<br />
(1) Vorbemerkung<br />
Phasenübergang nur im thermodynamischen Limes möglich<br />
Gründe:<br />
• Im Allgemeinen verknüpft mit Symmetriebrechung,<br />
auf jeden Fall verknüpft mit Ergodizitätsbrechung<br />
• Verknüpft mit Singularitäten in verschiedenen Größen<br />
(Potenzgesetze, kritische Exponenten etc.)<br />
❀ Singularitäten in thermodynamischen Potentialen<br />
als Funktion von intensiven Größen<br />
Aber: TD Potential = − kBT<br />
<br />
· log(Zustandssumme)<br />
−βE(Zustand)(+βµN−βP V )<br />
Zustandssumme = e<br />
” “<br />
Zustände<br />
hängt analytisch ab von T,µ,P,...<br />
⇒ Z analytisch, wenn “ endlich viele Summanden hat<br />
”<br />
→ ln Z analytisch → Thermodynam.<br />
<br />
Potential analytisch<br />
→ Singularität nur möglich, wenn “ über unendlich viele<br />
”<br />
Zustände summiert.<br />
Ähnliche Argumentation bei endlichen Integralen.<br />
(2) Phasengleichgewichte <strong>und</strong> Phasendiagramme<br />
∗ Beispiel Magnetismus
5.2. THERMODYNAMIK 119<br />
∗ Beispiel Flüssig-Gas-Übergang (+Festkörper)<br />
∗ Allgemeine Bemerkungen<br />
• Phasengleichgewichte<br />
Intensive Größen sind gleich (P (1) =P (2) =· · · ,<br />
T (1) =T (2) =· · · , µ (1) =µ (2) =· · · )<br />
Extensive Größen spalten auf (V =V (1)+V (2)+· · · ,<br />
S =S (1)+S (2)+· · · , . . .)<br />
• Folgerungen für Phasendiagramme von Phasen im Gleichgewicht<br />
Phasendiagramme in intensiven Größen (z.B. P-T)<br />
→ Parametrisierte Linien (in 2D), Flächen (in 3D) etc.<br />
Phasendiagramme in extensiven Größen (z.B. V-T)<br />
→ Koexistenzgebiete (Flächen, Volumina)<br />
(3) ” Klassifizierung“ von Phasenübergängen<br />
Phasenübergänge treten dann auf, wenn thermodynamische Potentiale<br />
als Funktion der intensiven Variablen eine Singularität haben.<br />
Ehrenfestsche Klassifizierung<br />
- Phasenübergang erster Ordnung: Erste Ableitung unstetig, Sprung<br />
erste Ableitung = zugeordnete extensive Variable<br />
Sprung = Koexistenz von 2 Phasen unterschiedlicher Dichte<br />
- Phasenübergang n-ter Ordnung: n-te Ableitung unstetig, Sprung<br />
❀ Klassifizierung ” scheitert“, weil bei Phasenübergängen höherer<br />
Ordnung die entsprechende Ableitung nicht nur einen Sprung<br />
macht, sondern gemäß Potenzgesetz divergiert<br />
⇒ Singularität nicht ausreichend charakterisiert<br />
(möglicher Ausweg: Fraktionale Ableitungen)<br />
In der Literatur meistens keine weitergehende Klassifizierung, sondern<br />
einfache Unterscheidung zwischen Phasenübergängen erster Ordnung <strong>und</strong><br />
kontinuierlichen Phasenübergängen.
120 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
(4) Gibbssche Phasenregel<br />
Beispiel, wie man aus thermodynamischen Überlegungen konkrete Aussagen<br />
ableiten kann.<br />
• Betrachte 1-komponentiges NV T -System, Phasendiagramm in P-T-<br />
Ebene, m koexistierende Phasen, chemisches Potential identisch<br />
⇒ (m − 1) Gleichungen µ1(P, T ) = µ2(P, T ) = . . . µm(P, T )<br />
❀ Es können nicht mehr als 3 Phasen koexistieren. (Denn man<br />
braucht zwei Gleichungen für zwei Unbekannte P, T )<br />
Koexistenz von 3 Phasen → keine ” freie“ Variable → (Tripel-)Punkt<br />
Koexistenz von 2 Phasen → eine freie Variable → Linie<br />
• Verallgemeinerung: n-komponentiges System, m koexistierende Phasen<br />
⇒ n(m − 1) Gleichungen für n chemische Potentiale<br />
2 + m(n − 1) Unbekannte (P, T , Konzentrationen der Komponenten<br />
i in Phase α mit <br />
ciα = 1 ∀α)<br />
⇒ f = 2 + n − m ” freie Variablen“<br />
⇒ Es können nicht mehr als m = n + 2 Phasen koexistieren. (5.15)<br />
Bemerkung: Gibbssche Phasenregel stimmt nicht unbedingt, wenn weitere<br />
intensive Zustandsgrößen existieren (z.B. H bei Ferromagnetismus) <strong>und</strong><br />
P-T-Ebene aus Symmetriegründen ausgezeichnet ist.<br />
(5) Phasenübergang erster Ordnung <strong>und</strong> Clausius-Clapeyron-Gleichung<br />
Betrachte Phasenübergang erster Ordnung<br />
in einkomponentigem System<br />
Gleichgewichtsbedingung:<br />
Bei Koexistenz µ I (T, P 0 (T )) = µ II (T, P 0 (T ))<br />
⇒ dµ I = dT ( ∂µ I<br />
∂T + ∂µ I ∂P0 ∂P ∂T ) = dµ II = dT ( ∂µ II<br />
∂T + ∂µ II ∂P0 ∂P ∂T )<br />
Ferner gilt Gibbs-Duhem-Relation: dµ (3.21)<br />
= v dP − s dT (v = V<br />
dµ α = dT (−s α + v α<br />
⇒ dP0 (T )<br />
dT = sII − sI vII − vI dP 0 (T )<br />
dT )<br />
= Q I→II<br />
T ∆V<br />
i<br />
N<br />
, s= S<br />
N )<br />
Clausius-Clapeyron-Gleichung (5.16)<br />
mit Q I→II = T · (s II − s I ) latente Wärme (5.17)<br />
Wärme, die beim Phasenübergang I → II zugeführt werden muss<br />
(z.B. Flüssig-Gas-Übergang: Verdampfungswärme)
5.3. STATISTIK 121<br />
Bemerkung: Steigung kann auch negativ sein<br />
(6) Kontinuierliche Phasenübergänge <strong>und</strong> kritische Exponenten<br />
Fragestellung: Was kann man aus der <strong>Thermodynamik</strong> über kritische<br />
Exponenten lernen, wenn man von den Relationen (5.14), (5.9) <strong>und</strong><br />
(5.10) bzw. (5.11) als experimentelle Tatsache (α = −0.1 . . . 0.1, β =<br />
0.2 . . . 0.4, γ = 1.2 . . . 1.4) ausgeht?<br />
Flüssig-Gas-Übergang<br />
- <strong>Thermodynamik</strong><br />
cP ≥ cV ≥ 0 siehe (3.46)<br />
cP − cV = T · V<br />
N ·<br />
2 1 ∂V 1<br />
V ∂T<br />
siehe (3.44), (3.36)<br />
P κT<br />
⇒ cP ≥ T · V 1<br />
N · κT ·<br />
2 1 ∂V<br />
(5.18)<br />
V ∂T<br />
<br />
P<br />
- Folge Pfad entlang Koexistenzlinie<br />
(5.14)<br />
∝ |T − Tc| −α divergiert<br />
→ cP 1<br />
κT (5.10)<br />
∝ |T − Tc| γ divergiert<br />
∂V (5.9)<br />
∝ analytische Funktion + (Tc − T )<br />
∂T<br />
β−1 (5.18)<br />
⇒<br />
divergiert<br />
|T −Tc| −α muss schneller divergieren als |T −Tc| γ |T −Tc| β−12 ⇒ α + 2β + γ ≥ 2 (5.19)<br />
Ähnlich für Magnetismus → gleiche Ungleichung<br />
(Rushbrooke Ungleichung)<br />
(Es stellt sich heraus: De facto gilt das Gleichheitszeichen:<br />
” Skalenrelation“ α + 2β + γ = 2)<br />
5.3 <strong>Statistische</strong> <strong>Physik</strong> von Phasenübergängen<br />
Sehr unvollständige Einführung, ” Märchenst<strong>und</strong>e“<br />
5.3.1 Phasenkoexistenz in der <strong>Statistische</strong>n <strong>Physik</strong><br />
Problem: Zustandssumme = Scharmittel<br />
Bei Phasenübergängen erster Ordnung → Ergodizitätsbrechung,<br />
Zeitmittel = Scharmittel, in Zustandssumme nicht berücksichtigt.<br />
Wie geht man damit um?
122 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
Beispielsystem: Isingmodell, die ” Drosophila“ der Theorie der Phasenübergänge<br />
Gitter, Plätze belegt mit Spin“-Variable σi = ±1<br />
”<br />
Energie: E{σk} = −J <br />
σiσj − h<br />
〈ij〉<br />
<br />
<br />
σi<br />
i<br />
Paare von Nachbarn<br />
(jedes Paar nur einmal)<br />
kanonische Zustandssumme: Z = <br />
e−βE{σk} (keine kinetischen Freiheitsgrade)<br />
{σk}<br />
” <strong>Physik</strong>alische“ Motivation: Idealisiertes Modell für uniaxialen Ferromagneten<br />
Es stellt sich heraus, dass das Isingmodell bei Raumdimensionen ≥ 2<br />
einen Phasenübergang hat; Phasendiagramm ähnlich dem beim Magnetismus<br />
” Problem“ bei der Beschreibung der Phasenkoexistenz (s.o.):<br />
Bei h = 0 sind Zustände mit M0 (T ) <strong>und</strong> −M0 (T ) gleichwahrscheinlich.<br />
❀ Scharmittel würde 〈M〉 = 0 ergeben.<br />
Prinzipielle Möglichkeiten, die Phasenkoexistenz trotzdem zu identifizieren:<br />
(i) Symmetriebrechendes infinitesimales Feld<br />
Berechne Zustandssumme allgemein für h = 0 → M(T, h)<br />
Phasenkoexistenz ⇔ lim M(T, h) = lim M(T, h)<br />
h→0 + h→0− <br />
M0 (T )<br />
−M0 (T )<br />
(ii) Symmetriebrechende Randbedingungen<br />
(iii) Histogramm von M<br />
P ( ˜ M) = 〈δ(M − M)〉<br />
Analog kann man auch mit anderen Phasenübergängen erster Ordnung umgehen.<br />
Voraussetzung: Wahl einer Gesamtheit, in der der Ordnungsparameter<br />
nicht erhalten ist
5.3. STATISTIK 123<br />
5.3.2 Kritische Phänomene<br />
5.3.2.1 Konfigurationen des Ising-Modells<br />
Jedes schwarze Quadrat entspricht einem nach oben weisenden, jedes weiße<br />
Quadrat einem nach unten weisenden ” Spin“. Abbildungen von Kenneth Geddes<br />
Wilson 2 , Nobelpreis 1982.<br />
T = 2T c:<br />
Bei großen Temperaturen<br />
heben sich die<br />
Spin-Wirkungen gegenseitig<br />
auf. Man findet<br />
nur kleine Gebiete, in<br />
in denen benachbarte<br />
Spins in die gleiche<br />
Richtung zeigen.<br />
2 Spektrum der Wissenschaft 1979, Heft 10.<br />
T = 1.05T c:<br />
In der Nähe der<br />
kritischen Temperatur<br />
treten auch größere<br />
Gebiete mit<br />
gleichgerichteten<br />
Spins auf.<br />
T = T c:<br />
Kritische Temperatur<br />
Große Gebiete gleicher<br />
Orientierung. Magnetisierung<br />
setzt ein. Daneben<br />
immer noch kleine<br />
Gebiete gleicher Orientierung,<br />
die für höhere<br />
Temperaturen<br />
charakteristisch sind.<br />
T = 0.99T c:<br />
Unterhalb der kritischen<br />
Temperatur wird<br />
die Spin-Orientierung<br />
immer einheitlicher,<br />
eine Orientierung überwiegt,<br />
das System ist<br />
magnetisch.
124 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
5.3.2.2 Korrelationslänge <strong>und</strong> Fluktuationen am kritischen Punkt<br />
∗ ❀ Kennzeichen des kritischen Punktes:<br />
Korrelationslänge ξ für Ordnungsparameterfluktuationen divergiert<br />
Quantitativer heißt das:<br />
Definiere lokale Ordnungsparameterdichte m(x)<br />
z.B. im<br />
Isingm(x)<br />
=<br />
Modell:<br />
<br />
σi<br />
<br />
Anzahl Plätze in Box<br />
Gitterplätze in Box um x<br />
Räumliche Korrelationen: 〈m(x)m(x ′ )〉 − 〈m〉 2 ≡ gm(x − x ′ )<br />
Im Allgemeinen: Bei großen Abständen exponentiell abfallend<br />
gm(x − x ′ ) ∝<br />
|x−x ′ |→∞ e−|x−x′ |/ξ ξ: führende Zerfallslänge<br />
Am kritischen Punkt divergiert ξ: ξ ∝ |T − T c| −ν<br />
mit kritischem Exponenten ν (Isingmodell: ν ≈ 0.64)<br />
Frage: Wie ” wichtig“ ist Korrelationslänge?<br />
Abschätzung: Kriterium für Fluktuationen<br />
Fluktuationen werden wichtig, wenn in der geordneten<br />
Phase in einem Teilsystem des Volumens<br />
ξd σ2 M = 〈M 2 〉 − 〈M〉 2 > ∼ 〈M〉 2<br />
(5.20)<br />
In diesem Fall wird Korrelationslänge die dominante Längenskala des<br />
Systems.<br />
∗ Behandlung von kritischen Phänomenen<br />
(falls exakte Berechnung nicht möglich)<br />
(1) Falls Fluktuationen nicht dominant<br />
→ Man kann Mean field Näherungen anwenden, siehe Abschnitt<br />
5.3.2.3<br />
(2) Falls Fluktuationen nicht dominieren<br />
Singularitäten der thermodynamischen Größen am kritischen Punkt<br />
werden von der Divergenz der Korrelationslänge bestimmt<br />
→ Renormierung, siehe Abschnitt 5.3.2.4<br />
5.3.2.3 Mean field Näherungen<br />
(a) Beispiel Isingmodell<br />
E{σk} = −J <br />
σiσj − h <br />
∂E<br />
∂σi<br />
= −J <br />
〈ij〉<br />
Nachbarn<br />
von i<br />
i<br />
σi<br />
σj − h ≡ − ˜ hi<br />
❀ ” Spin“ σi sieht lokales Feld ˜ hi<br />
= äußeres Feld h + effektives Feld von Nachbarspins
5.3. STATISTIK 125<br />
∗ Einfachste Mean field Näherung (Bragg-Williams-Näherung)<br />
lokales Feld ≈ Mittleres Feld h + J <br />
〈σ〉<br />
〈ij〉<br />
Paare<br />
Nachbarn<br />
Äquivalente Formulierung (vgl. Übungsaufgabe):<br />
Spins völlig unkorreliert: 〈σiσj〉 = 〈σi〉〈σj〉<br />
❀ Energie: E = −J <br />
〈σi〉〈σj〉 − h 〈σi〉 = − 1<br />
2NqJ〈σ〉2 − Nh〈σ〉<br />
(q=Koordinationszahl des Gitters)<br />
❀ Entropie S ↔ Anzahl der Möglichkeiten, N + = N<br />
2 (1 + 〈σ〉)<br />
Spins (+1) auf N Plätze zu verteilen ❀ S = kb ln( N<br />
N )<br />
+<br />
⇒ S = −kBN ( 1−〈σ〉<br />
2 ) ln( 1−〈σ〉<br />
2 ) + ( 1+〈σ〉<br />
2 ) ln( 1+〈σ〉<br />
2 ) <br />
❀ Freie Energie: F = E − T S = N · f(M/N) (wg. 〈σ〉 = M<br />
N )<br />
F<br />
N<br />
Jq M = − 2 ( N )2−h( M<br />
N )+kBT (<br />
1− M<br />
N<br />
2 ) ln(<br />
1− M<br />
N<br />
2 )+(<br />
1+ M<br />
N<br />
2 ) ln(<br />
1+ M<br />
N<br />
2 ) <br />
∗ Verfeinerte Mean field Näherungen möglich, z.B. statt einzelner Spins<br />
Spincluster im mittleren Feld, aber: F, M, N extensiv → Ergebnis<br />
muss immer Form F (M, N) = N · f( M<br />
N ) haben. Falls M nicht festgehalten<br />
wird, stellt es sich so ein, dass F minimal wird.<br />
Hier interessieren wir uns speziell für den kritischen Punkt: h = 0,<br />
T → Tc ⇒ M<br />
F<br />
M<br />
N ≪ 1, Entwicklung von N nach kleinen N möglich.<br />
∗ Allgemeine Symmetrieüberlegungen<br />
Bei h = 0 ist Isingmodell unverändert, wenn Vorzeichen aller σi<br />
umgedreht werden<br />
❀ F muss invariant sein unter Vertauschung M → −M<br />
❀ Nur gerade Terme in der Entwicklung erlaubt<br />
F<br />
N = f=(T ) + 1<br />
A(T )(M<br />
2 N )2 + 1<br />
B(T )(M<br />
4 N )4 + · · · (5.21)<br />
Beispiel für eine Landauentwicklung: Entwicklung von F<br />
N nach dem<br />
Ordnungsparameter unter Berücksichtigung seiner Symmetrie.<br />
Liefert generische Form von F<br />
N , alle systemspezifischen Eigenschaften<br />
stecken in den Koeffizienten f0, A, B, . . ..<br />
(konkret: Bragg-Williams-Näherung →<br />
F<br />
N<br />
≈ −T ln 2 + 1<br />
2 (kBT − qJ) · ( M<br />
N )2 + kBT<br />
24<br />
( M<br />
N )4 + . . .)<br />
∗ Analyse der Landauentwicklung<br />
Angenommen, B(T ) > 0 (anderenfalls muss Entwicklung weitergeführt<br />
werden)
126 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
∗ Kritische Exponenten<br />
In der Nähe von A ≈ 0, T ≈ Tc gilt: A ∝ (T − Tc) • Ordnungsparameter<br />
∂F<br />
∂M<br />
= 0 ⇒ A · ( M<br />
N<br />
) + B · ( M<br />
N )3 = 0<br />
⇒ M = ±N −A/B ∝ T c − T<br />
⇒ M ∝ (T c − T ) β<br />
mit β = 1<br />
2<br />
• Suszeptibilität<br />
Schalte Feld h = 0 ein ⇒ F = F (h = 0) − h · M<br />
Betrachte T > T c ⇒ A(T ) > 0<br />
∂F<br />
∂M<br />
= ∂F (h=0)<br />
∂M<br />
M<br />
− h = 0 ⇒ A(<br />
N<br />
⇒ M = N h h<br />
A ∝ T −Tc ⇒ χ = ∂M<br />
∂h ∝ (Tc − T ) γ<br />
) + B(M<br />
N )3 = h<br />
<br />
vernachlässigt<br />
(5.22)<br />
mit γ = 1 (5.23)<br />
• Korrelationslänge<br />
Eigentlich nicht definiert, denn räumliche Korrelationen werden<br />
in Mean field Näherung ja gerade vernachlässigt. Trotzdem<br />
zugänglich über ” Trick“: Betrachte Isingmodell mit variablem<br />
äußerem Feld hi: E = −J σiσj − hiσi <strong>und</strong> verwende<br />
exakte Beziehung: 〈σiσj〉 = +kBT ∂〈σi〉<br />
(Beweis: ∂〈σi ′ 〉<br />
∂hj ′<br />
= ∂<br />
=<br />
∂h j ′<br />
e −βE σi ′<br />
e −βE<br />
e −βE σi ′ βσ j ′<br />
e −βE<br />
= ∂<br />
∂h j ′<br />
∂hj<br />
e +β(J σ i σ j + h i σ i ) σi ′<br />
e +β(J σ i σ j + h i σ i )<br />
− ( e −βE σ i ′ )( e −βE βσ j ′ )<br />
( e −βE ) 2<br />
= β(〈σ i ′ σ j ′ 〉 − 〈σ i ′ 〉〈σ j ′ 〉) )<br />
Formuliere Landauentwicklung für räumlich variierende Ordnungsparameterdichte<br />
m(x) im variablen Feld h(x)<br />
→ . . . längere Rechnung . . . →<br />
g(x − x ′ ) = 〈m(x)m(x ′ )〉 − 〈m〉 2 ∝<br />
|x−x ′ |→∞ e−|x−x′ |/ξ<br />
mit ξ ∝ |T − T c| −ν<br />
<strong>und</strong> ν = 1<br />
2<br />
(5.24)
5.3. STATISTIK 127<br />
(b) Verallgemeinerung auf andere Systeme<br />
Zur Herleitung der kritischen Exponenten war nur die Kenntnis der allgemeinen<br />
Form der Landauentwicklung nötig, nicht die Kenntnis der<br />
spezifischen Koeffizienten f0, A, B, . . .. Die Form der Landauentwicklung<br />
wird von der Symmetrie des Ordnungsparameters bestimmt.<br />
⇒ Kritische Exponenten sind in jeder Mean field Näherung dieselben für<br />
verschiedene Systeme, wenn der Ordnungsparameter die gleiche Symmetrie<br />
hat.<br />
(❀ ” Universalitätsklassen“ für Mean field Exponenten)<br />
Systeme mit einem Ordnungsparameter der gleichen Symmetrie wie der<br />
des Isingmodells sind zum Beispiel<br />
- uniaxialer Ferromagnet<br />
- Ordnungs-/Unordnungs-Phasenumwandlungen<br />
- Gas-Flüssig-Übergang<br />
Nicht so offensichtlich, aber man kann argumentieren, dass die<br />
Landauentwicklung die Form<br />
F<br />
N ≈ f0 + 1 V<br />
2A( N − v0) 2 + 1 V<br />
4B( N − v0) 4 + . . .<br />
haben muss. (Linearer Term verschwindet durch geeignete Wahl<br />
von v0, kubischer Term muss bei Tc verschwinden, sonst wäre<br />
der Phasenübergang nicht kontinuierlich.)<br />
Systeme mit Ordnungsparameter einer anderen Symmetrie sind z.B.<br />
- die meisten anderen Ferromagneten (mehrdimensionaler Ordnungsparameter)<br />
❀ das gibt’s also auch!<br />
(c) Gültigkeitsbereich der Mean field Exponenten<br />
Betrachte die Terme der Ungleichung (5.20) bei Annäherung an T c:<br />
•〈M〉 2 ∝ (ξ d |T − T c| β ) 2 ∝ |T − T c| 2β−2dν<br />
•〈M 2 〉 − 〈M〉 2<br />
Behauptung<br />
∝ χM ∝ ξd |T − Tc| −γ ∝ |T − Tc| −γ−dν<br />
(Zum Beweis obiger Behauptung vgl. Abschnitt 2.6.3:<br />
χM = ∂〈M〉<br />
β(J<br />
d e<br />
= ∂h dh<br />
σiσj +hM)<br />
M<br />
β(J<br />
e σiσj +hM)<br />
β(J<br />
e<br />
= β<br />
σiσj +hM) 2<br />
M<br />
β(J<br />
e σiσj +hM) − β ( e β(J σiσj +hM) 2<br />
M)<br />
( e β(J σiσj +hM)<br />
) 2<br />
= β(〈M 2 〉 − 〈M〉 2 ) )<br />
Mean field Näherung wird problematisch, wenn linke Seite der Ungleichung<br />
(5.20) schneller divergiert als rechte Seite,<br />
also wenn (−γ − dν) ≤ (2β − 2dν)<br />
Im Falle eines Ordnungsparameters mit Ising-Symmetrie<br />
β = 1<br />
1<br />
2 , γ = 1, ν = 2 folgt die Bedingung Raumdimension d > 4.<br />
⇒ Ginzburg-Kriterium“: Fluktuationen werden wichtig unterhalb der<br />
”<br />
” oberen kritischen Dimension“ dc = 4<br />
(Ising-Symmetrie, kurzreichweitige Wechselwirkungen)
128 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE<br />
NB: In Systemen mit langreichweitigen Wechselwirkungen (die langsamer<br />
abfallen als 1/r d+1 ) gilt Exponent ν nicht, da Version der Landauentwicklung<br />
für räumlich variierende m(x) sich ändert, <strong>und</strong> Mean<br />
field Exponenten bleiben auch unterhalb von d = 4 u. Umständen<br />
gültig.<br />
5.3.2.4 Renormierung<br />
Idee: Nahe am kritischen Punkt ist die Korrelationslänge ξ die einzige relevante<br />
Längenskala. Am kritischen Punkt divergiert ξ, also gibt es dort keine<br />
charakteristische Längenskala.<br />
❀ Eine Skalentransformation Länge → Länge/λ sollte im Prinzip<br />
das gleiche System reproduzieren: Selbstähnlichkeit.<br />
Funktioniert natürlich noch nicht auf kleinen Längenskalen (auf der Skala<br />
der Gitterkonstante), aber für λ → ∞ sollte Fixpunkt erreicht werden.<br />
Illustrationsbeispiel:<br />
Verteilung der lokal gemittelten Ordnungsparameterdichte<br />
m (1) = σ<br />
m (2) = 1<br />
2 d<br />
Fixpunkt:<br />
Feste Grenzverteilung,<br />
wenn man m (λ)<br />
geeignet reskaliert.<br />
(möglicherweise Levy-Verteilung, siehe 2.2.6)<br />
Ähnlich findet man Grenzverteilungen für andere Größen.<br />
Es zeigt sich, dass der Fixpunkt abhängt von<br />
• der Symmetrie des Ordnungsparameters<br />
(wie bei Mean field Theorie ↔ Landauentwicklung)<br />
• der Raumdimension<br />
• der Reichweite der Wechselwirkungen, falls sie langsamer abfallen als<br />
1/r d+2<br />
Stimmen diese überein, so findet man für ganz verschiedene Systeme denselben<br />
Fixpunkt<br />
→ Universalität<br />
2d <br />
i=1<br />
σ
5.3. STATISTIK 129<br />
<strong>Physik</strong>alische Vorstellung: Mikroskopische Details (lokale Struktur, Ursprung<br />
<strong>und</strong> Form der Wechselwirkungspotential etc.) spielen auf großen Längenskalen<br />
keine Rolle mehr. Diese Längenskalen dominieren aber gerade die<br />
<strong>Physik</strong> der Singularität am kritischen Punkt.<br />
Bemerkung zur Renormierung<br />
Renormierung ist eine der ganz wichtigen Ideen der theoretischen <strong>Physik</strong>.<br />
Greift immer dann, wenn einem physikalischen System die<br />
charakteristische Längenskala abhanden kommt.<br />
❀ Suche nach einem Fixpunkt, der invariant ist unter<br />
Skalentransformationen<br />
Hier: Skalentransformation zu größeren Längenskalen (ins ” Infrarote“).<br />
<strong>Physik</strong> der kritischen Phänomene ist von langwelligen Fluktuationen<br />
bestimmt. Eine minimale Längenskala ist im System vorgegeben<br />
(Teilchengröße).<br />
In der Feldtheorie auch: Skalentransformation zu kleineren Längenskalen<br />
(ins ” Ultraviolette“).<br />
Speziell Quantenfeldtheorie (Teilchenphysik):<br />
<strong>Physik</strong> wird von kurzwelligen (hochenergetischen) Fluktuationen bestimmt.<br />
Häufig ist maximale Längenskala vorgegeben (durch die<br />
Masse der Teilchen, die eine Wechselwirkung vermitteln).<br />
Weitere Anwendungen der Renormierung:<br />
- Nichtgleichgewichtssysteme<br />
- Selbstorganisiert kritische Systeme<br />
- <strong>Physik</strong> der Makromoleküle<br />
. . .<br />
Konkret geht man beim Renormieren je nach System jedesmal anders<br />
vor.<br />
Keine ” Methode“, sondern eine ” Denkweise“<br />
So weit zur Theorie der Phasenübergänge hier. Mehr in der <strong>Vorlesung</strong> ” <strong>Statistische</strong><br />
<strong>Physik</strong> II“.
130 KAPITEL 5. PHASENGLEICHGEWICHTE, PHASENÜBERGÄNGE
Kapitel 6<br />
Computersimulationen in der<br />
statistischen <strong>Physik</strong><br />
c○ Copyright 2005 Friederike Schmid 1<br />
6.0 Einleitung<br />
Gegeben ein makroskopisches Vielteilchensystem im Gleichgewicht. Theoretische<br />
Behandlung im Idealfall:<br />
<strong>Statistische</strong> <strong>Physik</strong> <strong>Thermodynamik</strong><br />
<strong>Statistische</strong> Thermodynamische<br />
Erwartungswerte Zustandsgrößen<br />
✂ ✂✍<br />
❇▼<br />
❇<br />
Zustandssumme Thermodynamisches Potential<br />
Idealziel wäre die Berechnung der Zustandssumme im thermodynamischen Limes<br />
→ liefert thermodynamisches Potential, enthält alle interessante Information<br />
über das System.<br />
De facto: Exakte Berechnung nur in wenigen Fällen möglich (z.B. ideale Gase,<br />
manche eindimensionalen Systeme, manche Systeme im Hochtemperaturlimes<br />
(kBT → ∞) oder bei T = 0 (Gr<strong>und</strong>zustand).<br />
Mögliche Auswege:<br />
∗ Näherungsverfahren<br />
• Entwicklungen um exakte Lösung, z.B.<br />
– Virialentwicklung um ideales Gas nach N<br />
V<br />
– Hochtemperaturentwicklung um T → ∞ nach ( ˜ E/kBT )<br />
( ˜ E: charakteristische Energie des Systems)<br />
1 Prof. Dr. Friederike Schmid, <strong>Vorlesung</strong> <strong>Thermodynamik</strong> <strong>und</strong> <strong>Statistische</strong> <strong>Physik</strong>, Universität<br />
Bielefeld, WS 2003/2004. Letzte Änderung der <strong>PDF</strong>-Datei am 21.04.05.<br />
131
132 KAPITEL 6. COMPUTERSIMULATIONEN<br />
– Tieftemperaturentwicklung um T = 0 nach (kbT/ ˜ E)<br />
• Mean field Näherungen<br />
u.a.<br />
Nachteile der Näherungsverfahren:<br />
Entwicklungen nur auf relativ eingeschränkte Systemklassen in eingeschränkten<br />
Parameterbereichen anwendbar<br />
Mean field Näherungen haben breite Anwendungsmöglichkeiten,<br />
sind dafür aber oft unkontrolliert.<br />
∗ Numerische Verfahren: Computersimulation<br />
Vorteile: Eine breite Klasse von Problemen zugänglich. Fehler vergleichsweise<br />
kontrollierbar (bei genügend viel Rechenzeit).<br />
Nachteile: Kann nur für relativ kleine Systeme durchgeführt werden<br />
(je nach Komplexität des Systems 100 − 10 6−9 Teilchen).<br />
→ Man ist vom thermodynamischen limes weit entfernt.<br />
❀ Extrem sorgfältige Datenanalyse notwendig.<br />
Beliebte Methoden:<br />
• Molekularsynamik:<br />
Numerische Lösung der Bewegungsgleichungen eines Vielteilchensystems<br />
• Langevin-Dynamik:<br />
Numerische Lösung einer geeigneten Langevin-Gleichung<br />
• Monte Carlo Simulationen:<br />
Numerische Berechnung thermodynamischer Erwartungswerte<br />
Inhalt dieses Kapitels: Kurze Einführung in die Idee der Molekulardynamik<br />
<strong>und</strong> Monte Carlo Methode für klassische Systeme. Nichts über<br />
Datenanalyse.<br />
6.1 Molekulardynamik<br />
Gegeben ein klassisches Vielteilchensystem,<br />
Phasenraum {Γ} = {(q1 · · · qN, p1 · · · pN)} mit Hamiltonscher Dynamik,<br />
Hamiltonfunktion H (Γ) = p 2 i + V ({qi})<br />
2mi<br />
Ziel: Numerische Berechnung von Trajektorien Γ(t)<br />
❀ ermöglicht Berechnung dynamischer Eigenschaften <strong>und</strong> bei<br />
Ergodizität <strong>und</strong> genügend langer Laufzeit auch Scharmittelwerte<br />
gemäß 〈A 〉 (2.5) 1 = lim<br />
T →∞<br />
T<br />
T<br />
dt A (Γ(t))<br />
Durchführung im mikrokanonischen Ensemble<br />
Aufgabe:<br />
0<br />
Integration der Bewegungsgleichungen ( ˙ pi = − ∂V<br />
∂qi = fi; ˙ qi = pi<br />
mi )<br />
notwendig: Diskretisierung Γ(t) → (Γ0, Γ1 · · · Γn, · · · ), Zeitschritt ∆t<br />
(→ Diskretisierungsfehler)
6.2. MONTE CARLO SIMULATIONEN 133<br />
Vorgaben:<br />
- nicht zu rechenzeitaufwendig<br />
(nur einmal pro Zeitschritt Kräfte berechnen)<br />
- akzeptable Kurzzeitstabilität = akzeptable Abweichung der integrierten<br />
Trajektorie von der echten Trajektorie:<br />
|Γn − Γ(t + ∆t · n))| ∝ |Γ1 − Γ(t + ∆t)| · e +(n−1)∆t/τ (t < ∼ τ)<br />
|Γ1 − Γ2| 2 = | <br />
(q<br />
i<br />
(1)<br />
i − q(2)<br />
i ) 2 + <br />
(p<br />
i<br />
(1)<br />
i − p(2)<br />
i ) 2 |<br />
- gute Langzeitstabilität<br />
Erhaltungssätze <strong>und</strong> Symmetrien gut erfüllt,<br />
speziell (im mikrokanonischen Fall) Energieerhaltung<br />
Die Lösung, die sich für die meisten Anwendungen weitgehend durchgesetzt<br />
hat: Verlet-Algorithmus<br />
- Algorithmus: Gegeben Konfiguration (q1 · · · qN, p1 · · · pN)<br />
In einem Zeitschritt ∆t wird sie folgendermaßen propagiert:<br />
(i) Berechne Kräfte am Ort qi<br />
(ii) qi(t + ∆t) = 2qi(t) − qi(t − ∆t) + (∆t)2 fi(t) mi<br />
- Herleitung“: Aus Taylorentwicklung der realen Trajektorie<br />
”<br />
qi(t ± ∆t) = qi(t) ± ∆t · pi(t)<br />
mi<br />
+ (∆t)2<br />
mi<br />
fi(t) ± (∆t)3<br />
6 bi(t) · · ·<br />
Addiere ” +“ <strong>und</strong> ” -“<br />
→ Verlet-Gleichung + Fehler der Ordnung O(∆t) 4<br />
- Vorteile des Algorithmus:<br />
• nicht sehr aufwendig<br />
• reversibel in der Zeit wie die ursprünglichen Bewegungsgleichungen<br />
• vernünftig kurzzeitstabil (Fehler von der Ordnung (∆t) 4 )<br />
• Hauptvorteil: exakt phasenraumerhaltend ( ” symplektisch“)<br />
Man kann zeigen (nicht schwer, trotzdem nicht hier), dass<br />
die Transformation Γ(t) → Γ(t + ∆t) unitär ist.<br />
• Daraus ergibt sich auch die enorm gute Langzeitstabilität,<br />
z.B. bzgl. Energie. Nicht exakt erhalten, aber nahe dran.<br />
Die Symplektizität ist die wichtigste Eigenschaft des Verlet-Algorithmus. In<br />
der Simulation von dynamischen Systemen, in denen der Liouville-Satz<br />
gilt, haben symplektische Algorithmen alle anderen weitgehend verdrängt.<br />
6.2 Monte Carlo Simulationen<br />
<strong>Statistische</strong>r Ansatzpunkt: Vergiss mikroskopische Dynamik,<br />
<br />
dΓ p(Γ) A (Γ) direkt zu berechnen.<br />
Versuche, Integral 〈A 〉 (2.5)<br />
= 1<br />
N!<br />
Bemerkung: Im allgemeinen muss man nur über Ortsfreiheitsgrade numerisch<br />
integrieren, da Integration über Impulsfreiheitsgrade analytisch gelöst werden<br />
kann.
134 KAPITEL 6. COMPUTERSIMULATIONEN<br />
z.B. kanonisches Ensemble, H = p 2 i<br />
dp N<br />
h 3N e −β p2 i<br />
2m =<br />
2πm<br />
β<br />
3N<br />
2m<br />
+ V ({ri})<br />
= ( 1<br />
λ )<br />
T<br />
3N (6.1)<br />
<br />
dΓ A ({ri})e−β( p2 i +V ({ri}))<br />
2m<br />
〈A 〉 = 1<br />
h3N 1<br />
N! ZK<br />
∝ ( dr<br />
V )N A ({ri})e−βV ({ri})<br />
❀ Nach wie vor hochdimensionales Integral (3N Dimensionen)<br />
Aufgabe: Evaluiere ein solches hochdimensionales Integral anhand geeigneter<br />
Stützstellen. Wähle geeignete Stützstellen.<br />
(Schlecht ist z.B. ein regelmäßiges Gitter mit p Stützstellen pro Intervall<br />
I = [0, 1]. Man braucht p 3N Stützstellen im Volumen I 3N (zu viele), <strong>und</strong><br />
sie sind ungleichmäßig verteilt.)<br />
Lösung: Monte-Carlo-Integration Generiere Stützstellen mit Zufallszahlen. Verteile<br />
sie gemäß vorgegebener Verteilung, z.B. gleichförmig (simple sampling)<br />
oder mit besonderem Gewicht auf interessante Bereiche des Phasenraums<br />
(importance sampling).<br />
(1) Simple Sampling<br />
Ziehe Konfigurationen völlig zufällig<br />
Auswertung: (kanonisches Ensemble) 〈A 〉 = lim<br />
n 1 A (ln) exp(−βV (ln))<br />
n<br />
n→∞ 1 exp(−βV (ln))<br />
Funktioniert gut, wenn Integrand exp(−βV (ln)) gleichmäßig im Phasenraum<br />
verteilt ist, z.B. bei sehr hohen Temperaturen, β → 0. Sonst<br />
ineffizient, da viel zu viele Stützstellen in uninteressanten Bereichen<br />
des Phasenraums berechnet werden.<br />
(2) Importance Sampling<br />
Ziehe Konfigurationen gemäß einer vorgegebenen Verteilung ¯ P (l)<br />
l = (q1, . . . qn); im kanonischen Ensemble wäre naheliegend, aber<br />
−βV (l)<br />
nicht zwingend, die Wahl ¯ P (l) ∝ e<br />
1 n <br />
❀ Auswertung 〈A 〉 = lim<br />
n→∞ n 1 A (ln)<br />
Frage: Wie macht man das?<br />
Lösung: Generiere Markov-Kette in diskreter Zeit<br />
Erinnerung an Kapitel 2.2.7:<br />
Markov-Kette: Stochastischer Prozess ohne Gedächtnis,<br />
charakterisiert durch Übergangsrate W l→l ′<br />
Wahrscheinlichkeitsverteilung Pn(l) entwickelt sich gemäß<br />
Mastergleichung: Pn+1(l) = Pn(l)+ <br />
l ′<br />
Wl ′ →l Pn(l ′ )−W l→l ′ Pn(l) <br />
Nun gilt für Markovketten ein zentraler Grenzwertsatz:<br />
(in Kapitel 2.2.7 verschwiegen)<br />
Falls eine Markovkette irreduzibel ist, d.h. jeder Zustand kann<br />
von jedem anderen aus erreicht weren, <strong>und</strong> der Zustandsraum<br />
{l} endlich (in einer Simulation immer der Fall), dann existiert<br />
genau eine stationäre Grenzverteilung P∞(l) mit<br />
lim<br />
n→∞ Pn(l) = P∞(l)<br />
(6.2)
6.2. MONTE CARLO SIMULATIONEN 135<br />
unabhängig von der Anfangsverteilung. Die Grenzverteilung erfüllt<br />
(6.3)<br />
<br />
l ′ W l ′ →l P∞(l ′ ) = <br />
l ′ W l→l ′ P∞(l)<br />
Dieser Satz wird ausgenutzt, um zufällig Konfigurationen mit einer<br />
vorgegebenen Verteilung ¯ P (l) zu ziehen.<br />
Trick: Konstruiere Übergangswahrscheinlichkeit W l→l ′ so, dass Grenzverteilung<br />
gerade die gewünschte Verteilung ist,<br />
also z.B. folgende beiden hinreichenden Bedingungen:<br />
(i) irreduzibel: Jeder Zustand kann von jedem anderen aus erreicht<br />
werden<br />
(ii) Detailliertes Gleichgewicht: W l→l ′<br />
W l ′ →l<br />
= ¯ P (l ′ )<br />
¯P (l)<br />
Konkret z.B. Metropolis-Algorithmus (besonders beliebt)<br />
(6.4)<br />
Wl→l ′ = Nll ′<br />
<br />
symmetrisch:<br />
N<br />
ll ′ =N l ′ l<br />
· min(1, ¯ P (l)/ ¯ P (l ′ )) (6.5)<br />
Jeder andere Algorithmus geht auch, solange er die beiden Bedingungen<br />
(i) <strong>und</strong> (ii) erfüllt.<br />
Anwendungsbeispiel:<br />
Simulation des Isingmodells mit einem Single-flip“ Algorithmus<br />
”<br />
Isingmodell: Kubisches Gitter, Spin“variablen σi = ±1<br />
”<br />
Energiefunktion: E({σi}) = −J<br />
<br />
Gewünschte Verteilung (kanonisch):<br />
P ({σi}) ∝ exp(−βE)<br />
〈ij〉<br />
Paare<br />
von Nachbarn<br />
Algorithmus:<br />
Startkonfiguration {σi} mit Energie E({σi})<br />
1. Wähle zufällig ” Spin“ σj<br />
2. Berechne Energieunterschied ∆E zwischen der<br />
aktuellen Konfiguration <strong>und</strong> der Konfiguration, in<br />
der σj gerade umgekehrte Vorzeichen hat (z.B. kubisches<br />
Gitter, 2 dimensional: ∆E = 0, ±2J, ±4J)<br />
3. Ziehe Zufallszahl r ∈ [0, 1]<br />
Drehe Spin σj um, falls r < e −β∆E<br />
(Metropolis-Algorithmus: W l→l ′ = min(1, e −β∆E ))<br />
4. → Neue Konfiguration<br />
σiσj