Introducci´on a las transiciones de fase y a su simulaci´on

Introducci´on a las transiciones de fase y a su simulaci´on Introducci´on a las transiciones de fase y a su simulaci´on

sistemas.fciencias.unam.mx
from sistemas.fciencias.unam.mx More from this publisher
27.12.2013 Views

lafunción departición: Z(β) = ∑e −βH(σ) . (29) σ Los términos en la suma dependen nada más de la energía H(σ) de cada configuración. Ahora reordenemos los términos, agrupando todas las configuraciones que tienen el mismo valor E de la energía H(σ),yluegosumando sobretodos los valoresdeesta E: Z(β) = ∑ E ⎡ ⎣ ∑ σ:H(σ)=E e −βH(σ) ⎤ ⎦. (30) Cada término individual en la suma interior ahora tiene el mismo valor de H(σ), y por lo tanto la sumadaelvalorcomún e −βE ,multiplicadoporelnúmero g(E)deestostérminos, es decirdeconfiguraciones conenergía E. Entonces la suma seconvierte en Z(β) = ∑g(E)e −βE . (31) E La función g(E) que acabamos de introducir se llama la densidad de estados, o la degeneración. Simplemente cuenta el número de estados microscópicos (configuraciones) del sistema que tienen energíatotal E. Ahoralasuma(31)tienemuchomenostérminos. Porejemplo,enelmodelodeIsing lasumaoriginaltenía2 N términos,perolasumanuevatienenadamás N términos,porquesepuede mostrar que hay N valoresposibles delaenergíatotal enelmodelo deIsing. Una vez que se cuente con la función g(E), se pueden calcular no sólo la Z(β) para cualquier valorde β, esdecirparacualquiertemperatura T,usando(31),sinotambiénsepuedencalcular(casi) cualquierfuncióntermodinámicadelsistema,tambiénparatodaslastemperaturas. Porejemplo,para calcularelvalor promediode laenergía,reescribimos delamisma maneralaecuación paradar 〈E〉 = 1 Z(β) ∑ σ 〈E〉 = 1 Z(β) ∑ E E(σ)e −βH(σ) (32) Eg(E)e −βE , (33) lo cual involucra de nuevo la densidad de estados. Una vez que se conoce g(E), se puede evaluar mediante esta ecuación la energía promedio 〈E〉, y de la misma manera para otras funciones termodinámicas. Nóteseaquí que si semultiplica g(E)por unaconstante, noafectalos resultadospara lasfunciones termodinámicas,yaqueelmismofactorapareceenelnumeradoryeneldenominador (lafunción departición). Sin embargo, todo lo anterior es muy formal, porque ¡desconocemos el valor de g(E)! Si lo conociéramos, entonces tendríamos la solución exacta del modelo. En general se puede calcular exactamente nada para sistemas pequeños nada más. Por lo tanto, hay que calcular la función g(E) denuméricamente, que es loque haceel algoritmode Wang–Landau. 9.2 Elalgoritmo demuestreoentrópico Wang y Landau introdujeron su algoritmo en 2001 para calcular directamente una aproximación a la densidad de estados g(E). Su algoritmo se desarrolló basado en una serie de algoritmos anteriores, de los cuales se destaca el de muestreo entrópico en 1993. Son algoritmos tipo Monte Carlo que 22

permitenobtener una muy buena aproximaciónala densidaddeestados completa g(E),paratodos los valores posibles de E, en una sola simulación. Con el método de Metropolis y métodos parecidos,paraobtenerinformaciónsobrelasfuncionestermodinámicasparadistintastemperaturas,¡hay que hacer una nueva simulación para cada temperatura! Con los métodos nuevos (que se llaman métodos de ensambles generalizados), una única simulación –aunque pueda ser larga– provee la g(E) completa, usando lo cual luego se puede calcular toda la información termodinámica de un golpe, sinla necesidaddellevaracabomássimulaciones. Primeroveremoselalgoritmodemuestreoentrópico,yaque funciona deuna maneramástransparente. La idea del algoritmo es cambiar la distribución de equilibrio que nos interesa –ya no simulamos la distribución deBoltzmannparaunatemperaturafija, comoenel algoritmo deMetropolis usual. En una simulación de este tipo a temperatura T fija, resulta que el sistema visita una gama muy reducida de valores de la energía E, que son los que son más probables a la temperatura T. Si uno calcula un histograma H(E) –el número de veces que se visitó cada valor E de la energía– entonces esta información se puede convertir en una aproximación local para la densidad de estados g(E), pero nada más para la gama de valores de E que sí se visitaron. Usando el llamado método de histogramas,esta información puede utilizarseparacalcular funciones termodinámicas paratemperaturascercanas,dondevisitaunagamaparecidadeenergía. Asísepuedereducirelnúmerodesimulacionesindependientesqueserequierenparallevaracaboelcálculodefuncionestermodinámicas enunagamaampliadevaloresde T. Sinembargo,estosmétodos nosontanfácilesdeimplementar. Los métodos de muestreo entrópico y Wang–Landau, por otro lado, intentan visitar la gama más amplia de valores de la energía que se pueda, y recolectar información directamente sobre la g(E). Así,la informaciónobtenida sirve paracalcularlas funciones termodinámicas paracualquier T. Para hacerlo, se modifica la distribución de equilibrio P eq (σ) que queremos simular, para intentar visitar demanerauniformetodoslosvaloresposiblesdelaenergíaE. Esdecir,queremosquelaprobabilidad P eq (E) devisitar laenergía E seauna constante,la misma paratodaslas E. Laprobabilidaddevisita aenergía E estádadapor P eq (E) = ∑ P eq (σ), (34) σ:H(σ)=E esdecir,eslasumadelasprobabilidadesdelasconfiguracionesquetienenestaenergía. Sisuponemos quecadaconfiguracióndeéstastienelamismaprobabilidad,entoncestenemosP eq (E) = g(E)P eq (σ), y por lo tanto la distribución de equilibrio deseado es P eq (σ) = C/g(E(σ)), donde C es una constante, ya que queremos que las P eq (E) sean constantes (es decir, independientes de E), y g(E(σ)) es la densidad de estados del valor de energía correspondiente a la configuración σ. La regla de Metropolis para la probabilidad de transición de un estado microscópico σ a otro τ se modifica entonces de lamanerasiguiente. Ahoratenemos y por lotantopodemos tomar p σ→τ = Peq (τ) p τ→σ P eq (σ) = g(E(σ)) g(E(τ)) , (35) { 1, si g(E(τ)) ≤ g(E(σ)) p(σ → τ) = g(E(σ)) g(E(τ)) , si g(E(τ)) ≥ g(E(σ)). (36) Si conociéramos la g(E), y llevaramos a cabo una simulación con estas probabilidades de saltos conestanuevaprobabilidaddeequilibrio,entonceselsistemavisitaríademanerauniformelasE. Sin embargo, todavía desconocemos la g(E). La idea ahora es que empecemos con cualquier estimado 23

permitenobtener una muy buena aproximaciónala <strong>de</strong>nsidad<strong>de</strong>estados completa g(E),paratodos<br />

los valores posibles <strong>de</strong> E, en una sola simulación. Con el método <strong>de</strong> Metropolis y métodos parecidos,paraobtenerinformaciónsobre<strong>las</strong>funcionestermodinámicasparadistintastemperaturas,¡hay<br />

que hacer una nueva simulación para cada temperatura! Con los métodos nuevos (que se llaman<br />

métodos <strong>de</strong> ensambles generalizados), una única simulación –aunque pueda ser larga– provee la g(E)<br />

completa, usando lo cual luego se pue<strong>de</strong> calcular toda la información termodinámica <strong>de</strong> un golpe,<br />

sinla necesidad<strong>de</strong>llevaracabomássimulaciones.<br />

Primeroveremoselalgoritmo<strong>de</strong>muestreoentrópico,yaque funciona <strong>de</strong>una maneramástransparente.<br />

La i<strong>de</strong>a <strong>de</strong>l algoritmo es cambiar la distribución <strong>de</strong> equilibrio que nos interesa –ya no simulamos<br />

la distribución <strong>de</strong>Boltzmannparaunatemperaturafija, comoenel algoritmo <strong>de</strong>Metropolis<br />

u<strong>su</strong>al. En una simulación <strong>de</strong> este tipo a temperatura T fija, re<strong>su</strong>lta que el sistema visita una gama<br />

muy reducida <strong>de</strong> valores <strong>de</strong> la energía E, que son los que son más probables a la temperatura T. Si<br />

uno calcula un histograma H(E) –el número <strong>de</strong> veces que se visitó cada valor E <strong>de</strong> la energía– entonces<br />

esta información se pue<strong>de</strong> convertir en una aproximación local para la <strong>de</strong>nsidad <strong>de</strong> estados<br />

g(E), pero nada más para la gama <strong>de</strong> valores <strong>de</strong> E que sí se visitaron. Usando el llamado método <strong>de</strong><br />

histogramas,esta información pue<strong>de</strong> utilizarseparacalcular funciones termodinámicas paratemperaturascercanas,don<strong>de</strong>visitaunagamaparecida<strong>de</strong>energía.<br />

Asísepue<strong>de</strong>reducirelnúmero<strong>de</strong>simulacionesin<strong>de</strong>pendientesqueserequierenparallevaracaboelcálculo<strong>de</strong>funcionestermodinámicas<br />

enunagamaamplia<strong>de</strong>valores<strong>de</strong> T. Sinembargo,estosmétodos nosontanfáciles<strong>de</strong>implementar.<br />

Los métodos <strong>de</strong> muestreo entrópico y Wang–Landau, por otro lado, intentan visitar la gama más<br />

amplia <strong>de</strong> valores <strong>de</strong> la energía que se pueda, y recolectar información directamente sobre la g(E).<br />

Así,la informaciónobtenida sirve paracalcular<strong>las</strong> funciones termodinámicas paracualquier T. Para<br />

hacerlo, se modifica la distribución <strong>de</strong> equilibrio P eq (σ) que queremos simular, para intentar visitar<br />

<strong>de</strong>manerauniformetodoslosvaloresposibles<strong>de</strong>laenergíaE. Es<strong>de</strong>cir,queremosquelaprobabilidad<br />

P eq (E) <strong>de</strong>visitar laenergía E seauna constante,la misma paratodas<strong>las</strong> E.<br />

Laprobabilidad<strong>de</strong>visita aenergía E estádadapor<br />

P eq (E) =<br />

∑ P eq (σ), (34)<br />

σ:H(σ)=E<br />

es<strong>de</strong>cir,es<strong>las</strong>uma<strong>de</strong><strong>las</strong>probabilida<strong>de</strong>s<strong>de</strong><strong>las</strong>configuracionesquetienenestaenergía. Si<strong>su</strong>ponemos<br />

quecadaconfiguración<strong>de</strong>éstastienelamismaprobabilidad,entoncestenemosP eq (E) = g(E)P eq (σ),<br />

y por lo tanto la distribución <strong>de</strong> equilibrio <strong>de</strong>seado es P eq (σ) = C/g(E(σ)), don<strong>de</strong> C es una constante,<br />

ya que queremos que <strong>las</strong> P eq (E) sean constantes (es <strong>de</strong>cir, in<strong>de</strong>pendientes <strong>de</strong> E), y g(E(σ))<br />

es la <strong>de</strong>nsidad <strong>de</strong> estados <strong>de</strong>l valor <strong>de</strong> energía correspondiente a la configuración σ. La regla <strong>de</strong><br />

Metropolis para la probabilidad <strong>de</strong> transición <strong>de</strong> un estado microscópico σ a otro τ se modifica entonces<br />

<strong>de</strong> lamanerasiguiente. Ahoratenemos<br />

y por lotantopo<strong>de</strong>mos tomar<br />

p σ→τ<br />

= Peq (τ)<br />

p τ→σ P eq (σ) = g(E(σ))<br />

g(E(τ)) , (35)<br />

{<br />

1, si g(E(τ)) ≤ g(E(σ))<br />

p(σ → τ) = g(E(σ))<br />

g(E(τ)) , si g(E(τ)) ≥ g(E(σ)). (36)<br />

Si conociéramos la g(E), y llevaramos a cabo una simulación con estas probabilida<strong>de</strong>s <strong>de</strong> saltos<br />

conestanuevaprobabilidad<strong>de</strong>equilibrio,entonceselsistemavisitaría<strong>de</strong>manerauniforme<strong>las</strong>E. Sin<br />

embargo, todavía <strong>de</strong>sconocemos la g(E). La i<strong>de</strong>a ahora es que empecemos con cualquier estimado<br />

23

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!