16.01.2015 Views

1. EVENTOS ALEATORIOS Y PROBABILIDAD

1. EVENTOS ALEATORIOS Y PROBABILIDAD

1. EVENTOS ALEATORIOS Y PROBABILIDAD

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>1.</strong> <strong>EVENTOS</strong> <strong>ALEATORIOS</strong> Y <strong>PROBABILIDAD</strong><br />

<strong>1.</strong>1 El concepto de probabilidad<br />

Todos los conceptos básicos de la teoría de la probabilidad pueden ser ilustrados mediante<br />

un sencillo ejemplo. El ejemplo que veremos a continuación tiene un alto interés para la<br />

llamada física estadística. Consideremos la molécula A que se mueve caóticamente dentro<br />

de un receptáculo que tiene la forma de una caja (Fig. <strong>1.</strong>1)<br />

Un evento aleatorio se define como un fenómeno que en la realización experimental su<br />

observación ocurre o no ocurre. Por ejemplo, la posición de la molécula A en un determinado<br />

instante se encuentre dentro del volumen ∆τ ubicado al interior de la caja (Fig. <strong>1.</strong>1).<br />

Si la molécula A pudiese ser fotografiada, la fotografía obtenida determinará dos posibles<br />

resultados, que se encuentre al interior de ∆τ, en cuyo caso consideramos que el evento<br />

ha ocurrido, o que la molécula se encuentre fuera de ∆τ, entonces el evento no ha ocurrido.<br />

Un experimento que determina la observación de un evento aleatorio es llamado una<br />

prueba.<br />

Fig. <strong>1.</strong>1<br />

Habitualmente, se entiende por probabilidad de un evento aleatorio como la razón entre<br />

el número de pruebas m en que el evento ha ocurrido y el número total M de pruebas, de tal<br />

manera que M sea suficientemente grande. Si designamos la probabilidad de que el evento<br />

A ocurra por W (A), tenemos que<br />

W (A) = m o W(A) = lim<br />

M M→∞<br />

¿Por qué se impone el requerimiento de que el número de pruebas M sea suficientemente<br />

grande Y ¿cuán grande debe ser El hecho de que M debe ser grande es obvio<br />

conforme a la precisión para determinar el valor de la probabilidad. Supongamos que fotografiamos<br />

la molécula en la caja y paramos despues de obtener la primera fotografía<br />

mostrando a la molécula dentro de la región ∆τ. Si el número total de fotografías fue de<br />

127, podría ser prematuro concluir que W(A) =1/127. Ahora, si tomamos 60 fotografías<br />

m<br />

M<br />

1


más, podermos ver, por ejemplo, que el evento en que estamos interesados no ocurrió aún<br />

cuando se realizaron pruebas adicionales y, consecuentemente, de acuerdo a las nuevas<br />

mediciones la probabilidad es de 1/187. Para obtener un resultado suficientemente preciso,<br />

debemos realizar pruebas hasta que la razón m/M difiera una de otra en un valor<br />

pequeño determinado por la precisión en que nosotros queremos conocer la probabilidad<br />

del evento A. Rigurosamente hablando, puesto que el evento A ocurre aleatoriamente, no<br />

podemos excluir de nuestras consideraciones el caso en que la razón m/M obtenida experimentalmente<br />

no nos entrega el correcto valor de la probabilidad. Aunque tales casos son<br />

posibles en principio, son eventos cuya chance de ocurrencia es extremadamente pequeña,<br />

y su probabilidad disminuye cuando aumenta el número de pruebas.<br />

Daremos un interesante ejemplo histórico que ilustra lo que hemos dicho anteriormente.<br />

El científico francés Pierre Simón de Laplace, uno de los fundadores de la teoría de la probabilidad,<br />

estuvo interesado en los nacimientos de niños y niñas. El material por el estudiado,<br />

que incluía un número de ciudades europeas, y así para Francia completa, mostraba que la<br />

razón que la razón entre el número m de niños nacidos y el número total de infantes nacidos<br />

M estaba cercano a 0.5116. Tomando en cuenta que el número de niños nacidos m que<br />

el había analizado era muy grande, Laplace llegó a la conclusión que la discrepancia que<br />

había descubierto no podía deberse a la suerte. Descubrió que el número de infantes nacidos<br />

en París incluía a los infantes abandonados, y la población de los suburbios abandonaba<br />

principalmente a niñas. Después de excluir los datos relacionados a infantes abandonados,<br />

la estadística de los nacidos en parís se ajustaron a los conclusiones de otras ciudades europeas.<br />

La importancia de cuántas pruebas son necesarias no es de modo alguno trivial. Como<br />

veremos, en el ejemplo con la molécula, las pruebas pueden ejecutarse de dos formas, y<br />

que en principio son diferentes.<br />

De la primera forma, fotografíamos la molécula en la caja consecutivamente en diferentes<br />

instantes. No resulta difícil ver que que estos instantes deben estar separados en<br />

intervalos de tiempo suficientemente grandes. Si una serie de fotografías es tomada a una<br />

velocidad muy alta, durante ese tiempo la molécula no logrará moverse a una distancia considerable;<br />

al evaluar la razón m/M sobre la base de tal serie, inevitablemente llegaremos<br />

a un resultado impropio. Los intervalos de tiempo entre fotografías deben ser, por ejemplo,<br />

de tal forma que la molécula tenga tiempo para viajar a cualquier punto de la caja.<br />

Desde el punto de vista experimental, el criterio de elección del intervalo de tiempo entre<br />

fotografías consiste en que en series repetidas de pruebas a intervalos más grandes que el<br />

original deben converger al mismo valor límite m/M.<br />

La segunda forma de ejecutar una prueba es considerar M cajas idénticas, de modo que<br />

cada una de ellas contenga una molécula de la misma especie A. En un instante definido,<br />

todas las moléculas son fotografiadas simultaneamente, y el valor de la razón m/M se establece<br />

analizando cada una de las diferentes fotos de cada caja. Una colección de sistemas<br />

idénticos usados para el estudio de las características de la probabilidad es llamado un<br />

ensemble. Entonces, podemos usar un ensemble de cajas con moléculas para determinar<br />

la probabilidad.<br />

Ambas formas conducen a idénticos resultados si solamente en la primera forma la<br />

condición de intervalos de tiempo suficientemente grande es mantenida, y en la segunda<br />

2


forma todos los sistemas del ensemble deben ser necesariamente idénticos.<br />

Se sigue de la definición de probabilidad que estos valores están confinados entre 0 y<br />

<strong>1.</strong> Necesariamente, m y M son números positivos y, además, el menor valor posible para<br />

m es 0, y el máximo valor posible es el número total de pruebas M. Un evento que ocurre<br />

en cada ensayo y cuya probabilidad es además igual a la unidad se llamado un evento<br />

seguro. Un ejemplo es el evento consistente en la ubicación de la molécula A en cualquier<br />

lugar del interior el recipiente. Es natural que en cada fotografía que tomemos siempre la<br />

molécula se encontrará en el interior del recipiente. Esto es, para cada prueba siempre la<br />

molécula estará en el interior de la caja. En el caso opuesto, cuando un evento no ocurre en<br />

cualquier prueba, y además su probabilidad es cero, se denominará imposible. Podemos<br />

dar un ejemplo trivial: el evento de encontrar la molécula fuera del receptáculo. Puesto que<br />

la molécula, físicamente siempre estará en la caja, es imposible encontrarla fuera de ella.<br />

<strong>1.</strong>2 Conjuntos de eventos mutuamente excluyentes<br />

De gran significado en la construcción y aplicación de la teoría de la probabilidad es el<br />

concepto de conjuntos de eventos mutuamente excluyentes.<br />

Dos eventos se dicen mutuamente excluyentes si la ocurrencia de uno excluye la posibilidad<br />

de ocurrencia del otro.<br />

Fig. <strong>1.</strong>2<br />

Consideremos un ejemplo. Dos volúmenes, ∆τ 1 y ∆τ 2 , se seleccionan de la caja para<br />

observar si se encuentra en uno de ellos la molécula. Si los volúmenes no se intersectan,<br />

como se muestra en la Fig. <strong>1.</strong>2a, el evento 1 consistirá en que en el instante t la molécula A<br />

se encuentre en ∆τ 1 y el evento 2 consistirá en que la molécula se encuentre, en el mismo<br />

instante t, en∆τ 2 . En este caso ambos eventos son mutuamente excluyentes. Es evidente<br />

que cuando los dos volúmenes se intersectan, como lo indica la Fig. <strong>1.</strong>2b, los dos eventos<br />

son compatibles puesto que en instante t la molécula puede encontrarse en la región<br />

sombreda de la intersección, y esto significa que la molécula puede encontrarse en ambos<br />

3


volúmenes.<br />

El valor de aplicación del concepto de eventos mutuamente excluyentes se debe al<br />

siguiente teorema: la probabilidad de ocurrencia de uno de dos eventos mutuamente excluyentes<br />

es igual a la suma de las probabilidades de ocurrencia de cada uno de ellos. Este<br />

toerema es fácil de probar considerando el ejemplo dado anteriormente. Supongamos que<br />

la situación de que la molécula se encuentre en el primero de los dos volúmenes que no se<br />

intersectan, está caracterizada por la probabilidad<br />

W(1) = m 1<br />

M<br />

donde m 1 es el número de veces que la molécula cae dentro del primer volumen en M<br />

pruebas. Similarmente, la proababilidad de que la molécula se encuentre en el segundo<br />

volumen es<br />

W(2) = m 2<br />

M<br />

El evento consistente en encontrar la molécula en al menos uno de los dos volúmenes sucede<br />

m 1 + m 2 veces. Ahora, de acuerdo con la definición general, podemos ver que la probabilidad<br />

de que suceda al menos uno de los dos eventos es<br />

W = m 1 + m 2<br />

M = m 1<br />

M + m 2<br />

= W (1) + W (2)<br />

M<br />

y esto prueba el teorema. Con eventos compatibles (intersección no vacía), no podemos<br />

asegurar que el número de veces que la molécula se encuentra en el primer o segundo volumen<br />

es m 1 + m 2 . Este número será más pequeño debido a los casos en que la molécula<br />

se encuentre en la intersección de los volúmenes, y tales eventos son incluidos simultáneamente<br />

en m 1 y m 2 .<br />

Un colección completa de eventos mutuamente excluyentes se define como la colección<br />

de eventos mutuamente excluyentes en que la ocurrencia de uno de ellos es segura.<br />

Los eventos mutuamente excluyentes considerados en el ejemplo precedente (Fig. <strong>1.</strong>2a)<br />

no forma un conjunto completo debido a que la molécula puede estar fuera de ambos<br />

volúmenes ∆τ 1 y ∆τ 2 . es decir es una situación posible que no ocurra ninguno de ellos.<br />

Ahora, si complementamos los eventos 1 y 2 anteriores con el evento 3 consistente en<br />

que la molécula se encuentre en el resto del espacio luego de restar los volúmenes ∆τ 1 y<br />

∆τ 2 , el nuevo grupo de estos tres eventos forma un conjunto completo. Entonces, como<br />

los eventos no se intersectan, ellos son mutuamente excluyentes; y además la ocurrencia<br />

de cualquiera de ellos es una certeza, puesto que la molécula se encontrará ya sea en ∆τ 1 ,<br />

oen∆τ 2 , o fuera de ambos volúmenes.<br />

Eventos igualmente posibles son aquellos en que la probabilidad de ocurrencia de<br />

cualquiera de ellos tiene el mismo valor. Para explicar este concepto, vamos a suponer<br />

que la caja está dividida en dos partes iguales, digamos 1 y 2 (Fig. <strong>1.</strong>3) y consideremos una<br />

colección consistente en dos eventos: obtener la molécula A en 1 y obtener la molécula A<br />

en 2. Los volumenes no se intersectan, y, consecuentemente los eventos son mutuamente<br />

excluyentes. Lacolecciónescompletaporquelosvolúmenes1y2completanexhaustivamente<br />

todo el volumen de la caja. Finalmente, de la equivalencia completa de los dos<br />

volumenes, es evidente de que la probabilidad de encontrar la molécula en 1 es igual a la<br />

probabilidad de encontrarla en 2. En este ejemplo, los eventos 1y2formanunacolección<br />

4


completa mutuamente excluyente e igualmente posible.<br />

Fig. <strong>1.</strong>3<br />

Debemos cuidar que la conclusión de los eventos igualmente posibles esté fundado en<br />

nociones bien específicas de la naturaleza y condiciones del movimiento de la molécula.<br />

Por ejemplo, si la molécula tiene un momento magnético y un magneto que produce un<br />

campo magnético no homogeneo ubicado en la cara izquierda de la caja, la probabilidad<br />

de detectar la molécula en el volumen 1 será más alta, y en este caso los eventos no son<br />

igualmente posibles.<br />

La Figura <strong>1.</strong>4 muestra cinco volúmenes de tamaño idéntico en que una caja ha sido<br />

dividida virtualmente. Consideremos los eventos de encontrar la molécula en cada uno de<br />

estos volúmenes, ¿són estos volúmenes igualmente posibles<br />

Fig. <strong>1.</strong>4<br />

La respuesta dependerá de lo que ocurrirá cuando la molécula colisiona con una pared.<br />

Si suponemos que la molécula después de la colisión se adhiere a la pared por algún tiempo,<br />

es natural que pasará más tiempo en el volumen 1 y 5. En consecuencia, las probabilidades<br />

W (1) y W (5), aunque siendo iguales, serán mayores que las otras probabilidades. Las<br />

condiciones del movimiento en cada uno de los volúmenes 2, 3 y 4, sin embargo, son absolutamente<br />

idénticos, y además las probabilidades W(2), W (3) y W (4) son iguales unas<br />

a otras. En una situación real, lo más frecuente en lo que respecta a colisiones con una muralla<br />

es que los impactos se pueden considerar perfectamente elásticos. Las probabilidades<br />

de estos cinco eventos serán, entonces, iguales. En lo que sigue, vamos a considerar este<br />

5


tipo de colisión, de modo que los sucesos que consisten en detectar una molécula en un<br />

cierto instante en volúmenes iguales tendrá la misma posibilidad.<br />

La importancia del concepto de un conjunto completo de eventos igualmente posibles y<br />

mutuamente excluyentes consiste en que nos permite encontrar el valor de la probabilidad<br />

de un evento teóricamente. Consideremos el ejemplo de determinar la probabilidad de que<br />

la molécula se encuentre dentro del volumen ∆τ queestáenlacaja.<br />

Dividamos virtualmente la caja en n paralelepípedos idénticos (Fig. 5) de manera<br />

tal que el volumen ∆τ, con una alta precisión, esté contenido en un número m de estos<br />

paralelepípedos. Como hemos visto anteriormente, los eventos consistente en encontrar la<br />

molécula A en uno de estos paralelepípedos, en un instante t, forman un conjunto completo<br />

de eventos igualmente posibles y mutuamente excluyentes.<br />

Fig. <strong>1.</strong>5<br />

La probabilidad de que la molécula A esté en un determinado paralelepípedo es la<br />

misma para todos los paralelepípedos (la condición de igualmente posible) y la podemos<br />

calcular de las condiciones de completitud y exclusión mutua. La probabilidad de que la<br />

molécula A se encuentre dentro de la caja es 1 (el evento seguro). Por otro lado, de acuerdo<br />

a la regla de la suma para eventos mutuamente excluyentes, la misma probabilidad puede<br />

ser representada como la suma de las probabilidades de todos los eventos (que son n), es<br />

decir 1=nW . Se concluye entonces que<br />

W = 1 n<br />

La probabilidad W (∆τ) en la que estamos interesados será igual a la suma de las probabilidades<br />

de que la molécula se encuentre en alguno de los paralelepípedos que conforman el<br />

volumen ∆τ. Puesto que la suma total de estos paralelepípedos es m, usando nuevamente<br />

el teorema de la adición, tenemos que<br />

W (∆τ) =m × 1 n = m (<strong>1.</strong>1)<br />

n<br />

Si multiplicamos el numerador y el denominador por el volumen de uno de los paralelepípe-<br />

6


dos, obtenemos ∆τ en el numerador y el volumen de la caja entera en el denominador. En<br />

consecuencia, la probabilidad de que una molécula en un recipiente de volumen V se encuentre<br />

en el elemento ∆τ de volumen en el instante t es<br />

W (∆τ) ≈ ∆τ<br />

(<strong>1.</strong>2)<br />

V<br />

La fórmula (<strong>1.</strong>2) no contiene el número de paralelepípedos n, de modo que el resultado<br />

final no depende del tamaño de los volúmenes en el cual hicimos la división virtual del<br />

volumen del recipiente. Este tamaño se puede considerar infinitamente pequeño y, consecuentemente,<br />

será más exacto formar el volumen ∆τ de modo que la fórmula (<strong>1.</strong>2) es<br />

absolutamente precisa, más que la fórmula aproximada de (<strong>1.</strong>1)<br />

<strong>1.</strong>3 Eventos independientes<br />

En los cálculos que tenemos que desarrollar con probabilidades, la propiedad de independencia<br />

de eventos aleatorios es frecuentemente utilizada. Dos eventos se dicen que son<br />

independientes si la ocurrencia de uno de ellos no afecta la probabilidad de ocurrencia del<br />

segundo. Consideremos un ejemplo. Supongamos que el primer evento consiste en que la<br />

molécula A está dentro del volumen ∆τ 1 en el instante t; y el segundo, que otra molécula<br />

B se ubique dentro del volumen ∆τ 2 en el mismo instante. Sin importar si la molécula<br />

A estáonodentrodelvolumen∆τ 1 , la probabilidad de que la molécula B se encuentre<br />

en el volumen ∆τ 2 es igual a la cantidad ∆τ 2 /V , luego estos eventos son independientes.<br />

Esto ocurrirá si es que las moléculas no interactúan una con la otra. Y en este caso, aún<br />

si los volúmenes ∆τ 1 y ∆τ 2 coinciden, los eventos son independientes. La presencia de<br />

interacción, sin embargo, puede cambiar la situación. Por ejemplo, bajo la mutua repulsión<br />

de las moléculas, la probabilidad de que la molécula B aparezca en el volumen ∆τ 1 junto<br />

con la molécula A es más baja que si fuese en la ausencia de A. En condiciones generales,<br />

todas las moléculas interactúan una con la otra, pero la fuerza de interacción disminuye rapidamente<br />

cuando la distancia entre ellas aumenta entre ellas, de modo que a distancias de<br />

orden de varios diámetros de las moléculas la interacción pueded ser despreciada completamente.<br />

Esto es posible en bajas concentraciones (gases), cuando la distancia media entre<br />

moléculas es mucho más grande que su diámetro, luego si consideramos esta situación, los<br />

eventos tratados en el ejemplo anterior son efectivamente independientes. Para grandes<br />

concentraciones (gases fuertemente comprimidos, líquidos) la situación es diferente.<br />

La probabilidad de la ocurrencia conjunta de eventos independientes es igual al producto<br />

de las probabilidades de cada uno de ellos.<br />

Para explicar esta propiedad, consideraremos un gas enrarecido. Supongamos que hasta<br />

n pruebas la molécula A fue encontrada m 1 veces en el volumen ∆τ 1 ,ylamoléculaB fue<br />

encontrada m 2 veces en el volumen ∆τ 2 , entonces<br />

W (A) = m 1<br />

y W(B) = m 2<br />

n<br />

n<br />

De todas las pruebas cuyo número total es m 1 en que A cae dentro de ∆τ 1 , dejemos de<br />

lado aquellas pruebas en que B cae dentro de ∆τ 2 . Puesto que la probabilidad de que el<br />

evento B ocurra es m 2 /n, el número de eventos dejados fuera debe ser igual a m 1 (m 2 /n).<br />

Si ahora relacionamos el número encontrado de eventos con el número total de pruebas, la<br />

7


probabilidad de la ocurrencia conjunta de los eventos A y B es<br />

W (AB) = m 1(m 2 /n)<br />

= m 1 m 2<br />

= W (A) · W (B)<br />

n n n<br />

Esta fórmula es la expresión matemática de lo que se asevero anteriormente.<br />

<strong>1.</strong>4 Probabilidad condicional<br />

La pregunta que asoma ahora es: ¿cómo podemos calcular la probabilidad conjunta de dos<br />

sucesos que son dependientes Para responder a esto volvamos a un ejemplo. Tomemos el<br />

evento 1 como la ubicación de la molécula A dentro del volumen ∆τ 1 en el instante t, y<br />

el evento 2 como la ubicación de la misma molécula dentro del volumen ∆τ 2 en el mismo<br />

instante t. Estos eventos son independientes. Supongamos, por ejemplo, que los volúmenes<br />

∆τ 1 y ∆τ 2 noseintersectan,esdecirqueloseventos1y2sonmutuamenteexcluyentes.<br />

Ahora, si la molécula se encuentra en ∆τ 1 , ella no podría estar, naturalmente, en el volumen<br />

∆τ 2 . Luego si la probabilidad del evento 2 es ∆τ 2 /V , la misma probabilidad, cuando el<br />

evento 1 ocurre, es ahora 0. Es exactamente el cambio en el valor de la probabilidad del<br />

evento 2 debido a la ocurrencia del evento 1 que indica la dependencia de estos eventos<br />

en el sentido probabilístico.<br />

En el caso más general de intersección arbitraria entre los volúmens ∆τ 1 y ∆τ 2 ,los<br />

eventos 1 y 2 siguen siendo dependientes. para convencernos que esto es cierto, calculemos<br />

cuanto cambia la probabilidad del evento 2 dado que ocurre el evento <strong>1.</strong> La ocurrencia del<br />

evento 1 significa que la molécula está en el interior de ∆τ 1 , y además se puede considerar<br />

como un nuevo recipiente que contiene a la molécula. La probabilidad de detectar a la<br />

molécula, en el mismo instante, en el volumen ∆τ 2 es la probabilidad de que la molécula<br />

se encuentre en el volumen ∆τ, que es la parte común de ∆τ 1 y ∆τ 2 (vea Fig. <strong>1.</strong>2b). Esta<br />

probabilidad es igual a la razón entre ∆τ y el volumen del ’’nuevo recipiente’’ ∆τ 1 .Luego<br />

la probabilidad W (2) del evento 2 sin la condición 1, o, de otra forma, la probabilidad<br />

incondicional, tiene el valor de<br />

W(2) = ∆τ 2<br />

V<br />

mientras que la probabilidad condicional W 1 (2) es la probabilidad de que el evento 2<br />

ocurra dado que el evento 1 ha ocurrido :estoes<br />

W 1 (2) = ∆τ<br />

∆τ 1<br />

Es obvio que en el caso general las probabilidaes condicionales e incondicionales no coinciden<br />

en su valor, y esto es justamente lo que significa la dependencia entre dos eventos.<br />

Para eventos independientes, las probabilidades condicional e incondicional son iguales.<br />

Podemos ahora formular una regla casi evidente. La probabilidad W (1, 2) de la ocurrencia<br />

conjunta de los dos eventos 1 y 2 es igual a la probabilidad W (1) del evento 1<br />

multiplicado por la probabilidad condicional W 1 (2), o la probabilidad W (2) del evento<br />

2 multiplicado por la probabilidad condicional W 2 (1). Estoes<br />

W (1, 2) = W (1)W 1 (2) = W (2)W 2 (1)<br />

Tomemos el ejemplo con intersección de ambos volúmenes para ilustrar este regla. La<br />

8


probabilidad W(1,2) de ocurrencia de ambos eventos 1y2es,enesencia,laprobabilidad<br />

de que ocurra la intersección de estas dos regiones, es decir que la molécula se encuentre<br />

en ∆τ,demodoque<br />

W (1, 2) = ∆τ<br />

(<strong>1.</strong>3)<br />

V<br />

la fórmula (<strong>1.</strong>3) pues ser escrita ya sea como<br />

W (1, 2) = ∆τ<br />

V<br />

= ∆τ<br />

∆τ 1<br />

∆τ 1<br />

V = W (1) · W 1(2)<br />

oenlaforma<br />

W (1, 2) = ∆τ<br />

V<br />

= ∆τ ∆τ 2<br />

∆τ 2 V = W (2) · W 2(1)<br />

lo cual describe matemáticamente la regla anunciada más arriba.<br />

<strong>1.</strong>5 Distribución binomial de probabilidades<br />

La información dada anteriormente nos permite resolver muchos problemas de la física estadística.<br />

En la prsente sección, consideraremos uno de ellos que tiene gran relevancia tanto<br />

desde el punto de vista de la aplicación como del desarrollo de la teoría de la probabilidad.<br />

Supongamos que un tubo contiene un gas con un determinado número de moléculas N.<br />

Mentalmente fijemos una parte del volumen del vaso ∆τ y determinemos la probabilidad<br />

de encontrar n moléculas en el volumen ∆τ. Lasolucióndeesteproblemaharáposible,<br />

particularmente, conocer la probabilidad de un cierto valor de la densidad del gas, que es<br />

de interés en algunas aplicaciones físicas.<br />

Comencemos con dos moléculas (N =2) y asignemos los números 1 y 2 a las moléculas.<br />

Para determinar la probabilidad en la que estamos interesados, debemos considerar el<br />

siguiente conjunto completo de eventos mutuamente excluyentes:<br />

1 lasmoléculas1y2estánen∆τ;<br />

2 la molécula 1 está en ∆τ, y la 2 está fuera de este volumen;<br />

3 la molécula 2 está en ∆τ, y la 1 está fuera de este volumen;<br />

4 ambas moléculas están fuera de ∆τ.<br />

Las probabilidades de estos eventos se evalúan como sigue.<br />

La probabilidad de que la molécula 1 esté en ∆τ es W = ∆τ/V , mientras que la<br />

probabilidad de que se encuentre fuera de ella es<br />

1 − W =1− ∆τ<br />

V<br />

en virtud de que la suma de las probabilidades de ambos eventos debe ser <strong>1.</strong> Las probabilidades<br />

relevantes para la molécula 2 tiene los mismos valores. Volvamos ahora al primer<br />

evento en que ambas moléculas están en ∆τ. Puesto que hemos supuesto que la intersección<br />

entre ambas moléculas puede ser despreciada, la ubicación de las moléculas 1 y<br />

2en∆τ son eventos independientes, y además la probabilidad W 1 del primer evento es el<br />

9


producto de las probabilidades de que las moléculas 1 y 2 estén en ∆τ, es decir<br />

W 1 = ∆τ<br />

V<br />

∆τ<br />

V<br />

= µ ∆τ<br />

V<br />

Similarmente, podemos encontrar<br />

W 2 = ∆τ µ<br />

1 − ∆τ <br />

= W (1 − W )<br />

V V<br />

W 3 = ∆τ µ<br />

1 − ∆τ <br />

= W (1 − W )<br />

V V<br />

µ<br />

W 4 = 1 − ∆τ 2<br />

=(1− W ) 2<br />

V<br />

Estamos interesados en la probabilidad de que ∆τ contenga n moléculas, es decir, para<br />

nuestro caso será 2, 1 ó 0. No es difícil verificar que<br />

W (2) = W 1 = W 2<br />

puesto que el evento 1 sucede solamente si ambas moléculas están en ∆τ. Además,<br />

W (1) = W 2 + W 3 =2W (1 − W )<br />

puesto que en el segundo y tercer caso solo una molécula está en ∆τ. Finalmente,<br />

W (0) = W 4 =(1− W ) 2<br />

Si el número de moléculas es tres y ellas son designadas por 1, 2, y 3, los eventos<br />

listados en la Tabla <strong>1.</strong>1 son posibles. Esa tabla entrega los valores de las probabilidades<br />

W i correspondientes a las diferentes posibles distribuciones de las moléculas, y también<br />

entrega las probabilidades requeridas W (3), W (2), W (1) y W (0).<br />

Yendo ahora al caso más general de N moléculas, podemos demostrar que<br />

N!<br />

W (n) =<br />

n!(N − n)! W n (1 − W ) N−n (<strong>1.</strong>4)<br />

2<br />

N o even.<br />

mol.<br />

en ∆τ<br />

mol.<br />

en V −∆τ<br />

N o mol.<br />

en ∆τ<br />

W i<br />

W (n)<br />

1 1,2,3 — 3 W 3 W (3) = W 3<br />

2<br />

3<br />

4<br />

1, 2<br />

1, 3<br />

2, 3<br />

3<br />

2<br />

1<br />

5<br />

6<br />

7<br />

1<br />

2<br />

3<br />

2, 3<br />

1, 3<br />

1, 2<br />

2 W 2 (1−W ) W (2) = 3W 2 (1−W )<br />

1 W (1−W ) 2 W (1) = 3W (1−W ) 2<br />

8 — 1, 2, 3 0 (1−W ) 3 W (0) = (1−W ) 3<br />

Tabla<strong>1.</strong>1<br />

Necesariamente, la probabilidad de que n moléculas estén en el volumen ∆τ,yelrestode<br />

10


las N− ∆τ moléculas se encuentren fuera de este volumen es<br />

W n (1 − W ) N −n (<strong>1.</strong>5)<br />

El número de eventos similares que difieren unos a otros en cuanto a determinar que n<br />

moléculas del total N se encuentren en ∆τ es igual al número de combinaciones de N<br />

tomadas de n a la vez, esto es<br />

µ N N!<br />

=<br />

(<strong>1.</strong>6)<br />

n n!(N − n)!<br />

Luego, sumando las probabilidades de todos los eventos en que n moléculas se encuentran<br />

en ∆τ, esto es multiplicando (<strong>1.</strong>5) por (<strong>1.</strong>6), nos conduce a la fórmula general dada en<br />

(<strong>1.</strong>4).<br />

Los eventos que indican el número de moléculas que pueden estar en ∆τ, quepueden<br />

ser 0, 1, 2, ..., N, conforman una colección mutuamente excluyente y completa. De manera<br />

que la suma de las probabilidades de estos eventos deber ser igual a la unidad. Es sencillo<br />

convencerse que es necesariemente correcto lo siguiente:<br />

NX<br />

NX N!<br />

W (n) =<br />

n!(N − n)! W n (1 − W ) N−n<br />

n=0<br />

n=0<br />

Usando el teorema del binomio, podemos escribir<br />

NX N!<br />

n!(N − n)! W n (1 − W ) N−n =[W +(1− W )] N =1 N =1<br />

n=0<br />

La relación entre las probabilidades W (n) y el teorema del binomio explica el porque a<br />

este tipo de distribución se le conoce como distribución binomial de probabilidades.<br />

Consideremos como ejemplo la distribución de seis moléculas en un recipiente, que<br />

lo hemos dividido mentalmente en dos partes iguales, esto es ∆τ = V/2. Una vez que<br />

hayamos calculado los coeficientes binomiales, podemos obtener los resultados que se<br />

grafican en la Fig. <strong>1.</strong>6, donde los puntos indican los valores correspondientes de las probabilidades.<br />

Se puede observar que el evento que tiene la probabilidad mayor cuando n es<br />

igual a tres, es decir cuando el recipiente contiene la mitad del número total de moléculas.<br />

La ausencia de moléculas (n =0) o cuando están todas en una de las mitades del recipiente<br />

(n =6) son considerablemente menos probable y además se observan con menor<br />

frecuencia (unas 20 veces menos frecuente).<br />

La distribución binomial es usada para la resolución de variados problemas, y no solamente<br />

en el tipo de ejemplo considerado aquí. Supongamos que conocemos la probabilidad<br />

de que una molécula tenga una característica definida (por ejemplo, la velocidad que oscila<br />

entre 100 y 150 m/s, o que ella viaja sin colisionar con otra molécula en una trayectoria<br />

quenoexcede1mm, etcétera). ¿Cuál es la probabilidad de que n moléculas de un total<br />

de N tenga la misma característica Si los correspondientes eventos para las diferentes<br />

moléculas son independientes y su probabilidad es W , la respuesta está dada por la distribución<br />

binomial (<strong>1.</strong>4). Para convencernos de lo cierto de esta conclusión, es suficiente<br />

tomar en cuenta que el contenido específico del problema del problema dado anteriormente<br />

fue usado solamente para encontrar el valor de la probabilidad W = ∆τ/V de tener una<br />

11


Figure 1: Fig. <strong>1.</strong>6<br />

característica definida (en este caso que la molécula esté dentro de ∆τ en el instante t).<br />

Todas las otras razones no dependen sobre que otra característica podamos considerar.<br />

<strong>1.</strong>6 La fórmula de Stirling<br />

En la resolución de problemas físicos estadísticos, debemos trabajar con grandes números<br />

de moléculas. En consecuencia, el uso de algunas fórmulas, particularmente la distribución<br />

binomial, no es conveniente debido a los grandes factoriales de números muy grandes que<br />

vamos a encontrar. Por ejemplo, a temperatura y presión estándar, un centímetro cúbico de<br />

gas contiene 2.69 × 10 19 moléculas. Si queremos determinar la probabilidad de que 10 16<br />

de ellas se encuentren en un volumen de ∆τ =1mm 3 , el uso de la fórmula (<strong>1.</strong>4) requiere<br />

que computemos 10 16 ! y 2.69 × 10 19 !. Si tomamos en cuenta que ya es difícil el cómputo<br />

de 30! ode40!, es bastante obvio que es deseable tener una fórmula que rapidamente<br />

nos permita acceder a factoriales de grandes números. La correspondiente expresión, que<br />

encontraremos, fue obtenida por J. Stirling y lleva su nombre.<br />

Es conveniente considerar no el valor de N! sino que con el logaritmo natural de esta<br />

expresión<br />

NX<br />

ln N! = ln 1 + ln 2 + ···+lnN = ln n<br />

n=1<br />

12


Fig. <strong>1.</strong>7<br />

Los valores de ln n han sido graficados en la Fig. <strong>1.</strong>7. Y hemos agregado una suma<br />

de rectángulos de tal forma que cada uno de ellos tiene altura precisamente ln n,ydebase<br />

unitaria, por lo tanto el área de cada rectángulo es ln n. De modo que el área es la figura<br />

escalonada está dada por S = P N<br />

n=1<br />

ln n. Por otro lado, el área bajo la curva determinada<br />

por y =lnx desde x =1hasta x = N está dada por<br />

S 0 =<br />

Z N<br />

1<br />

ln xdx= N ln N − (N − 1) (<strong>1.</strong>7)<br />

La fórmula (<strong>1.</strong>7) da un valor aproximado para el área de S, estoesS 0 ≈ S, peroS puede<br />

ser determinado con más precisión. Del gráfico se desprende claramente que S 0


La estricta derivación, que se puede obtener en un curso de análisis, concluye que un resultado<br />

más preciso tiene la forma de<br />

N! = √ 2πN N e −N√ N (<strong>1.</strong>8)<br />

es decir, existe una leve diferencia en el valor del factor constante (e =2.718..., √ 2π =<br />

2.506...).<br />

El error relativo de la fórmula <strong>1.</strong>8 disminuye cuando N aumenta. Daremos dos ejemplos.<br />

Cuando N =4, el valor exacto de 4! es 24, mientras que la fórmula de Stirling nos<br />

da √ √<br />

2π 4 × 4 4 e −4 ≈ 23.7<br />

Cuando N =6, el valor exacto de N! es 720, mientras que si aplicamos la fórmula (<strong>1.</strong>8)<br />

obtenemos el valor de 716. En el primer ejemplo, el error relativo es del <strong>1.</strong>25%, y en el<br />

segundo, 0.56%. El error relativo disminuye rápidamente cuando aumenta el valor de N.<br />

2. VARIABLES ALEATORIAS Y SUS<br />

CARACTERÍSTICAS<br />

2.1 Variable aleatoria<br />

En las aplicaciones de la teoría de probabilidad a problemas de la física estadística, debemos<br />

trabajar con la noción de variable aleatoria.Toda variable que toma valores numéricos<br />

con una probabilidad definida se dice que es aleatoria. En el capítulo anterior, en esencia,<br />

estabamos trabajando con el concepto de variable aleatoria. En efecto, el número de<br />

moléculas en el elemento de volumen ∆τ seleccionado de un recipiente de volumen V es<br />

el correspondiente ejemplo, puesto que este número toma valores en 0, 1, 2, ..., N, y cada<br />

uno de estos valores puede ocurrir con una probabilidad W (n) determinada por la fórmula<br />

<strong>1.</strong>4 de la distribución binomial. El número de moléculas en el volumen elemental ∆τ es,<br />

entonces, una variable aleatoria. Tal variable aleatoria si dirá discreta debido a que toma<br />

valores sobre un conjunto finito (en nuestro ejemplo, los valores son 0, 1, 2, ..., N).<br />

Variables aleatorias continuas también son consideradas.Estas toman valores sobre una<br />

serie de valores continuos (un intervalo, por ejemplo). Posiblemente, el ejemplo más simple<br />

de variable aleatoria continua es la coordenada de la molécula A en el recipiente de<br />

volñumen V . Ubiquemos el origen de las coordenadas en una de las esquinas del recipiente<br />

rectangular como lo muestra la Fig. 2.<strong>1.</strong> La coordenada z A de la molécula a lo largo<br />

del eje Z puede tomar valores dentro del intervalo de z =0hasta z = a, donde a es la<br />

dimensión del recipiente en la dirección del eje Z.<br />

No es correcto calcular la probabilidad de que una variable aleatoria continua tome un<br />

determinado valor prefijado. Lo adecuado es establecer la probabilidad de que una variable<br />

aleatoria tome un valor comprendido entre z y z + dz. Si el intervalo dz es infinitamente<br />

pequeño, la correspondiente probabilidad dW será tambien infinitamente pequeña, y, consecuentemente,<br />

será proporcional al intervalo dz. Podemos escribie la siguiente expresión<br />

14


Figure 2: Fig. 2.1<br />

para la probabilidad requerida:<br />

dW = w(z) dz (2.1)<br />

donde w(z) se conoce como la función de densidad de probabilidad. Su dimensión es<br />

inversamente proporcional a la variable aleatoria z puesto que la probabilidad dW es una<br />

cantidad adimensional. Entonce, la función de densidad de probabilidad de una variable<br />

aleatoria z es una función w(z ) de tal forma que cuando se multiplica por dz , obtenemos<br />

la probabilidad de que el valor de la variable aleatoria se encuentre en el intervalo que va<br />

desde z hasta z + dz. Si el intervalo dz es igual a cero, la correspondiente probabilidad<br />

también es cero, además no tiene sentido en interesarse por la probabilidad de un valor<br />

puntual de una variable aleatoia continua.<br />

Para explicar el concepto que hemos introducido, volvamos al ejemplo en que la coordenada<br />

z de la molécula A es una variable aleatoria continua. Tenemos que encontrar la<br />

densidad de probabilidad para esta variable aleatoria. La coordenada de la molécula caerá<br />

dentro del intervalo dz si, como se puede ver en la Fig. 2.1, la molécula misma logra estar<br />

dentro del volumen ∆τ que está confinado por dos planos paralelas que pasan por los puntos<br />

z y dz en un ángulo recto al eje Z. Supongamos que el área de la base del recipiente<br />

15


Figure 3: Fig. 2.2<br />

es S, luego el volumen elemental es dτ = Sdz. Puesto que el volumen del recipiente<br />

completo es V = aS, obtenemos la siguiente expresión para la probabilidad:<br />

dW = dτ<br />

V = Sdz<br />

aS = 1 a dz<br />

Comparando esta última igualdad con (2,1) podemos concluir que la densidad de probabilidad<br />

para la coordenada de la molécula es<br />

w(z) = 1 a<br />

Como debía de esperarse, la dimensión de la función de densidad de probabilidad es el valor<br />

recíproco de la longitud debido a que la variable aleatoria z tiene unidades de longitud.<br />

Que la función de densidad que encontramos sea una cantidad constante está asoiado<br />

con las características específicas del problema planteado, en que el recipiente es rectangular<br />

y que todas las posiciones de la molécula A en el recipiente son igualmente posibles.<br />

Si el recipiente fuera ubicado en un campo de acción de fuerzas externas (por ejemplo, si<br />

tomamos en cuenta la acción de la fuerza de gravedad), o si la forma del recipiente no fuese<br />

rectangular, la función de densidad de probabilidad podría no ser una cantidad constante.<br />

Por ejemplo, consideremos un recipiente de forma cónica (Fig. 2.2), despreciando la<br />

acción de la fuerza de gravedad, podemos encontrar la siguiente expresión para la probabilidad<br />

dW :<br />

πr2 dz<br />

(1/3)πR 2 H<br />

dW = dτ<br />

V =<br />

donde r es el radio de la sección de un cono corcular a una altitud z de la base y, consecuentemente,<br />

πr 2 dz es el volumen de la sección del cono confinado entre los planos que<br />

16


pasan perpendiculares al eje Z por los puntos z y z + dz respecto de la base. R es el radio<br />

de la base, H es la altura del cono. En virtud de la similaridad de los triángulos COA y<br />

CO´B se sigue que r R = H−z<br />

H<br />

, entonces tenemos<br />

r 2 (H − z)2<br />

=<br />

H 2 R 2<br />

Si tomamos en cuenta que el volumen del cono es V =(1/3) πR 2 H, entonces<br />

(H − z)2<br />

dW =3 dz<br />

es decir, la densidad de probabilidad es<br />

(H − z)2<br />

w(z) =3<br />

H 3<br />

A menudo tendremos que trabajar con vectores de variables aleatorias, es decir con<br />

vectores que tengan varias opciones de longitud y dirección que puedan tomar con una<br />

probabilidad definida. Un ejemplo muy simple de un vector aleatorio es la posición de la<br />

molécula A que puede tomar en el recipiente de volumen V . Construyamos un sistema<br />

cartesiano de coordenadas cuyos ejes describirán las componentes x A , y A ,yz A aleatorias<br />

del vector aleatorio r A , y consideremos todos los puntos x, y, z que están contenidos en<br />

el volumen rectangular infinitamente pequeño dτ = dz dy dz (Fig. 2.3). ¿Cuál es la<br />

probabilidad de que la punta del vector r A esté en el interior del volumen dτ Puesto<br />

que el volumen es infinitamente pequeño, la probabilidad dW debe ser proporcional a tal<br />

volumen pequeño, esto es<br />

dW = w(x, y, z) dτ (2.2)<br />

La cantidad w, que depende de las coordenadas x, y z, es llamada la densidad de probabilidad<br />

del vector de variables aleatorias r A . Entonces, el producto de la densidad de probabilidad<br />

w de un vector de variables aleatorias y un volumen elemental dτ es la probabilidad<br />

de que la posición del vector r A esté en el interior de dτ o, en otras palabras, que las<br />

siguientes condiciones se observan simultaneamente: las componentes x, y, z de r A están<br />

contenidas dentro de los intervalos que van desde x hasta x + dx ,desde y hasta y + dy,<br />

desde z hasta z + dz, respectivamente.<br />

En el ejemplo que hemos considerado, la densidad de probabilidad w es el recíproco<br />

del volumen del recipiente. En efecto, en la sección <strong>1.</strong>2, establecimos que la probabilidad<br />

de que la molécula A esté en el volumen elemental dτ, esto es la probabilidad de que la<br />

posición superior del vector esté en este elmento, es<br />

dW = dτ<br />

V<br />

Comparando esta ecuación con la ecuación (2.2), podemos concluir que<br />

w = 1 (2.3)<br />

V<br />

Si las componentes de un vector aleatorio son independientes, en este importante caso<br />

particular la densidad de probabilidad w(x, y, z) está representada como el producto de tres<br />

H 3<br />

17


Figure 4: Fig. 2.3<br />

densidades de probabilidad<br />

w(x, y, z) dτ = w x (x) dx · w y (y) dy · w z (z) dz (2.4)<br />

de modo que la probabilidad de que la componente x se encuentre en el intervalo dx es<br />

w x (x) dx y no depende de los valores de las otras componentes.<br />

La fórmula (2.4) tiene una sencilla interpretación, significa que la probabilidad de que<br />

el vector r A esté en dτ es igual al producto de tres eventos independientes, digamos a la<br />

probabilidad de que la componente x se encuentre en el intervalo dx, que la componente y<br />

se encuentre en el intervalo dy, y que la componente z se encuentre en el intervalo dz. La<br />

fórmula (2.3) obtenida más arriba ilustra este caso. Puesto que el volumen del recipiente<br />

tiene la forma de un paralelepípedo rectangular es igual al producto de sus lados, tenemos<br />

que<br />

V = cba<br />

donde c, b y a son las longitudes de los lados a lo largo de los ejes X, Y ,yZ, respectivamente.<br />

Usando esta relación, podemos escribir la siguiente expresión para la densidad de<br />

probabilidad:<br />

entonces<br />

w = 1 V = 1 c × 1 b × 1 a<br />

w x = 1 c ; w y = 1 b ; w z = 1 a<br />

18


2.2 Valor medio<br />

El conocimiento de las probabilidades de los valores que puede tomar una variable aleatoria<br />

discreta o la densidad de probabilidad de una variable aleatoria continua, nos permite<br />

encontarr su valor medio, o, dicho de otra forma, su esperanza matemática. Obtendremos<br />

la regla para su cálculo mediante un ejemplo específico.Supongamos que tenemos un volumen<br />

∆τ dentro del recipiente de volumen V , y la variable aleatoria en la que estamos<br />

interesados es el número de moléculas que pueden estar en el interior de ∆τ en un cierto<br />

instante t. Supongamos además que realizamos un gran número de pruebas M yencada<br />

una de ellas registramos el número de moléculad en ∆τ. Supongamos que m 1 veces fue<br />

registrado el valor n 1 , m 2 veces el valor n 2 , y así sucesivamente. Entonces, encontramos<br />

el valor medio del número de moléculas en ∆τ mediante la fórmula<br />

hni = m 1n 1 + m 2 n 2 + ···<br />

m 1 + m 2 + ···<br />

= m 1n 1 + m 2 n 2 + ···<br />

M<br />

= m 1<br />

M n 1 + m 2<br />

M n 2 + ···<br />

Si el número de pruebas es suficientemente grande, la razón m 1 /M , m 2 /M , etcétera, llegará<br />

a ser igual a la probabilidad de los valores relevantes de n,esdecir<br />

hni = w(n 1 )n 1 + w(n 2 )n 2 + ···= X w(n i )n i (2.5)<br />

i<br />

donde la suma es evaluada sobre todos los valores posibles de la variable aleatoria n i (n i =<br />

0, 1,...,N), donde N es el número de moléculas en el recipiente).<br />

Cuando consideremos una variable aleatoria continua z, y puesto que la probabilidad<br />

de que su valor se encuentre en un intervalo dz es w(z) dz, debemos sumar la expresión<br />

zw(z) dz sobre todos los valores de z, es decir sobre todos los intervalor dz debemos<br />

encontrar el valor medio. Esto significa que la regla para determinar el valor medio de<br />

una variable aleatoria continua puede escribirse como<br />

Z<br />

hzi = zw(z) dz (2.6)<br />

donde la integral (suma) es evaluada sobre todos los valores posibles de z.<br />

Volvamos al número medio de partículas en el volumen ∆τ. Supongamos que el número<br />

total de partículas en el recipiente de volumen V es N. El valor medio está determinado por<br />

la fórmula (2.5) en que w(n i ) deber entenderse como la probabilidad de que n i parículas<br />

estén en ∆τ, esto es la expresión (<strong>1.</strong>4). Luego<br />

hni =<br />

NX<br />

n i =0<br />

n i<br />

N!<br />

n i !(N − n i )!<br />

µ ∆τ<br />

V<br />

ni<br />

µ<br />

1 − ∆τ<br />

V<br />

N − ni<br />

En la evaluación de la suma anterior. debemos prestar atención al hecho de que la suma<br />

empieza desde n i =1debido a que en n i =0el término se anula (debemos recordar que<br />

0!=1).Conestoenmenteycancelanon i , podemos escribir<br />

hni =<br />

NX<br />

n i =1<br />

N!<br />

(n i − 1)!(N − n i )!<br />

µ ∆τ<br />

V<br />

ni<br />

µ<br />

1 − ∆τ<br />

V<br />

N − ni<br />

19


Si designamos n i − 1 por k, donde k toma los valores 0, 1, ..., N − 1, la expresión para hni<br />

puede escribirse como<br />

NX<br />

− 1<br />

µ k µ<br />

N! ∆τ ∆τ<br />

hni =<br />

1 − ∆τ N − 1− k<br />

k!(N − 1 − k)! V V V<br />

k =0<br />

Removemos el factor común dentro de la suma, y obtenemos<br />

hni = N ∆τ<br />

NX<br />

− 1<br />

µ k µ<br />

(N − 1)! ∆τ<br />

1 − ∆τ N − 1− k<br />

V k!(N − 1 − k)! V V<br />

k =0<br />

Mediante la fórmula del teorema del binomio y de manera análoga a los cálculos que realizamos<br />

en la sección <strong>1.</strong>5, tenemos<br />

N−1<br />

X<br />

µ k µ<br />

N! ∆τ ∆τ<br />

1 − ∆τ N−1−k ∙ µ ∆τ<br />

=<br />

k!(N − 1 − k)! V V V<br />

V + 1 − ∆τ<br />

¸N−1<br />

=1<br />

V<br />

k=0<br />

De modo que,<br />

hni = N ∆τ<br />

(2.7)<br />

V<br />

es decir, el número medio de partículas en el volumen ∆τ es igual al número de partículas N<br />

del recipiente multiplicado por la probabilidad (∆τ/V ) de que una partícula se encuentre<br />

en ∆τ.<br />

Ahora calcularemos el valor medio de una variable aleatoria continua usando el ejemplo<br />

de la coordenada z de una molécula en un recipiente rectangular. Habíamos visto que la<br />

densidad de probabilidad para este caso es w(z) =1/a. El valor medio de z es calculado<br />

mediante (2.6):<br />

Z a<br />

hzi = z 1 ∙ 1<br />

a dz = z 2 ¸a<br />

= a (2.8)<br />

a 2<br />

0<br />

2<br />

0<br />

y obtenemos un resultado que fue intuitivamente obvio desde el principio.<br />

A menudo es importante en las aplicaciones conocer el valor medio de la función de<br />

una variable aleatoria, por ejemplo, el cuadrado (u otra potencia) del número de partículas<br />

en el volumen ∆τ o el cuadrado de la coordenada de una molécula z 2 . Aplicando el razonamiento<br />

anterior no a la variable aleatoria n i misma, sino a la función ψ(n i ) de ella,<br />

podemos demostrar fácilmente que el valor medio puede ser determinado por la fórmula<br />

hψ(n i )i = X ψ(n i ) w(n i ) (2.9)<br />

i<br />

El valor medio de la función de una variable aleatoria continua es evaluada con ayuda de<br />

la regla cuyo significado es similar<br />

Z<br />

hψ(z)i = ψ(z) w(z) dz (2.10)<br />

la integral es evaluada sobre todos los valores posibles de la variable aleatoria z.<br />

Entonces, el valor medio (esperanza matemática) de la función de una variable aleatoria<br />

es evaluada como la suma del producto de esta función y la probabilidad del valor de<br />

su argumento, es decir mediante la fórmula (2.9) para una variable aleatoria discreta y por<br />

20


la fórmula (2.10) para una continua.<br />

Usemos la regla anterior para calcular una importante característica conocida como dispersión.<br />

La dispersión es la esperanza matemática del cuadrado de la desviación de una<br />

variable aleatoria respecto de su valor medio, es decir<br />

D<br />

D(n i )= (n i − hn i i) 2E , D(z) = ­ (z − hzi) 2® (2.11)<br />

La importancia de esta característica viene del hecho que ella determina el grado de dispersión<br />

de una variable aleatoria, es decir de una cierta manera la dispersión es una medida de<br />

la aleatoriedad o azar. Si una variable no aleatoria es considerada como aleatoria tomando<br />

un mismo valor con probabilidad1, es claro que la desviación de su valor medio es cero,<br />

y, en consecuencia, la dispersión también es cero. Luego, la dispersión de una variable<br />

no aleatoria es cero, mientras que para una variable aleatoria ella será más grande, y su<br />

amplitud es la dispersión de sus valores.<br />

las fórmulas (2.11) pueden escribirse de manera más conveniente para sus cálculos.<br />

Obtendremo más abajo su cálculo para un ejemplo de una variable aleatoria continua puesto<br />

que para el caso discreto solo tenemos que sustituir la integral por una suma.<br />

De acuerdo con la definición de la dispersión,<br />

Z<br />

Z<br />

D(z) = (z − hzi) 2 w(z) dz =<br />

³z 2´<br />

2 − 2 z hzi + hzi w(z) dz<br />

Z<br />

Z<br />

Z<br />

= z 2 w(z) dz − 2 z hzi w(z) dz + hzi 2 w(z) dz<br />

Puesto que z 2 es simplemente un número, la última integral es igual a<br />

Z<br />

Z<br />

hzi 2 w(z) dz = hzi 2 w(z) dz<br />

La condición de normalización para la densidad de probabilidad de una variable aleatoria<br />

es<br />

Z<br />

w(z) dz =1<br />

Esto proviene del hecho de que los valores que toma una variable aleatoria de diferentes<br />

intervalos dz forman una colección de eventos completo y mutuamente excluyente. La<br />

condición de normailidad significa que la variable aleatoria con probabilidad 1 tomará un<br />

valor cualquiera de todos los posibles valores.<br />

La penúltima integral en la expresión para la dispersión adopta la siguiente forma:<br />

Z<br />

Z<br />

2z hzi w(z) dz =2hzi zw(z) dz =2hzih2i =2hzi 2<br />

Puesto que la primera integral corresponde al valor medio del cuadrado de la variable puede<br />

ser denotada por ­ z 2® , y tomando en cuenta la normalización el resultado final es<br />

D(z) = ­ z 2® − 2 hzi 2 + hzi 2 = ­ z 2® − hzi 2 (2.12)<br />

Una fórmula similar se tiene para una variable aleatoria discreta:<br />

D(n i )= ­ n 2 ®<br />

i − hni i 2<br />

Usando el ejemplo de una dispersión, se puede demostrar fácilmente que el valor medio<br />

21


de una función de variable aleatoria no es igual a la función cuando el valor medio de la<br />

variable aleatoria es considerada en el argumento de la función. Necesariamente, en el caso<br />

dado, debemos evaluar el valor medio de la función f(z) =z 2 . Su valor medio es ­ z 2® ,y<br />

no es igual al cuadrado del valor medio hzi 2 . Si tal igualdad existiese, la dispersión debería<br />

ser nula. Veremos que esto no sucede, usando el ejemplo tratado en la presente sección.<br />

Vamos a calcular la dispersión de la coordenada de una molécula en un recipiente<br />

rectángular. Para usar (2.12), calcularemos ­ z 2® :<br />

­ z<br />

2 ® =<br />

Z a<br />

0<br />

z 2 1 a<br />

Puesto que hzi = a/2, por (2.12) tenemos<br />

dz =<br />

a2<br />

3<br />

D(z) = a2<br />

3 − a2<br />

4 = a2<br />

12<br />

Las siguientes propiedades de valor medio y dispersión son muy importantes para su<br />

aplicación.<br />

(a) Si sumamos dos funciones f 1 (x, y, z) y f 2 (x, y, z), donde r = {x, y, z} es un vector<br />

aleatorio, el valor medio de la suma de sus funciones es igual a la suma de los valores<br />

medios.<br />

Además, cuando r es un vector aleatorio continuo, tenemos que<br />

Z<br />

h[f 1 (x, y, z)+f 2 (x, y, z)]i = (f 1 + f 2 ) w(x, y, z) dτ<br />

Z<br />

Z<br />

= f 1 w(x, y, z) dτ + f 2 w(x, y, z) dτ<br />

= hf 1 i + hf 2 i<br />

Esta propiedad es similar para el caso de variables aleatorias discretas.<br />

(b) Si una función de un vector aleatorio r es multiplicado por una constante nuérica a, el<br />

valor medio del producto es igual al valor medio de f 1 multiplicado por a. Deotramanera,<br />

esta propiedad es formulada como sigue: un factor constante puede ser removido<br />

del operador del valor medio. La prueba es como sigue:<br />

Z<br />

Z<br />

haf 1 i = af 1 wdτ = a f 1 wdτ = a hf 1 i<br />

(la prueba es similar para el caso discreto)<br />

(c) Si existen varias funciones (por ejemplo, tres) f 1 ,f 2 , y f 3 de las componentes x, y, z del<br />

vector aleatorio r = {x, y, z}, ysi las variables aleatorias x, y, z son independientes,<br />

de modo que<br />

w(x, y, z) dτ = w x dx · w y dy · w z dz<br />

el valor medio del producto f 1 (x) · f 2 (y) · f 3 (z) es igual al producto de sus valores<br />

medios.<br />

22


En efecto,<br />

hf 1 · f 2 · f 3 i =<br />

=<br />

Z Z Z<br />

f 1 (x) f 2 (y) f 3 (z) w x (x) w y (y) w z (z) dx dy dz<br />

Z<br />

Z<br />

Z<br />

f 1 (x) w z (x) dx · f 2 (y) w y (y) dy · f 3 (z) w z (z) dz<br />

= hf 1 i·hf 2 i·hf 3 i<br />

(d) La dispersión de la suma de varias variables aleatorias independientes es igual a la<br />

suma de sus dispersiones.<br />

Sea x, y, z variables aleatorias independientes; luego, por definición, tenemos<br />

D<br />

D(x + y + z) = (x + y + z) 2E − hx + y + zi 2<br />

Obteniendo el cuadrado del primer paréntesis y usando la propiedad (a) en el segundo<br />

paréntsis:<br />

D(x + y + z) = ­¡ x 2 + y 2 + z 2 +2xy +2xz +2yz ¢®<br />

− (hxi + hyi + hzi) 2<br />

Obteniendo el cuadrado del segundo paréntesis y aplicando la propiedad (a) al primero:<br />

D(x + y + z) = ( ­ x 2® + ­ y 2® + ­ z 2® + h2xyi + h2xzi + h2yzi<br />

− hxi 2 − hyi 2 − hzi 2<br />

−2 hxihyi − 2 hxihzi − 2 hyihzi)<br />

En virtud de la propiedad (b), removemos el factor 2 del operador valor medio de modo<br />

que, por ejemplo, h2xyi =2hxyi. Y, puesto que las cantidades x, y, z son independientes,<br />

de acuerdo a la propiedad (c) tenemos<br />

hxyi = hxihyi ; hxzi = hxihzi ; hyzi = hyihzi<br />

y ahora vemos que todos los términos contienen productos de los valores medios de<br />

diferentes variables aleatorias cancelándose unos con otros. En consecuencia,<br />

D(x + y + z) = ­ x 2® − hxi 2 + ­ y 2® − hyi 2 + ­ z 2® − hzi 2<br />

= D(x)+D(y)+D(z)<br />

Las propiedades anteriores nos permiten a menudo simplificar los cálculos de los valores<br />

medios y de dispersión. Nuevamente vamos a considerar el ejemplo del número de<br />

párticulas en el volumen ∆τ. Si asociamos a cada molécula la variable aleatoria n A que<br />

toma el valor de 1 cuando la molécula está en ∆τ y el valor de 0 cuando está fuera de<br />

este volumen, el número de partículas en ∆τ puede ser considerado como la suma de estas<br />

variables aleatorias para todas las moléculas del gas. En virtud de la propiedad (a), el valor<br />

medio del número de partículas es igual a la suma de la esperanza matemática de n A .Esta<br />

última cantidad es calculada por la fórmula general<br />

hn A i =1× ∆τ<br />

V +0× µ<br />

1 − ∆τ <br />

V<br />

= Λτ<br />

V<br />

23


Puesto que la esperanza matemática para todas las moléculas es la misma, su suma es evaluada<br />

multiplicando la expresión obtenida por el número total de moléculas N. Enconsecuencia,<br />

hni = N ∆τ<br />

V<br />

La dispersión del número de partículas en ∆τ se puede evaluar rápidamente. Primero es<br />

necesario encontrar ­ nA® 2 :<br />

­ n<br />

2<br />

A<br />

® =1 2 × ∆τ<br />

V +02 ×<br />

y entonces la dispersión de esta cantidad es<br />

Dn A = ­ n 2 ®<br />

A − hnA i 2 = ∆τ<br />

V<br />

µ<br />

1 − ∆τ<br />

V<br />

<br />

= ∆τ<br />

V<br />

µ 2 ∆τ<br />

− = ∆τ µ<br />

V V<br />

1 − ∆τ<br />

V<br />

La dispersión del número total de partículas en ∆τ está determinada con la ayuda de la<br />

propiedad (d). Esto es<br />

D = NDn A = N ∆τ µ<br />

1 − ∆τ <br />

V V<br />

El cálculo directo de esta cantidad es considerablemente más incómodo.<br />

2.3 Distribución de Poisson<br />

En el Capítulo 1, mencionamos que el uso de la distribución biniomial para calcular probabilidades,<br />

cuando el número de moléculas es muy grande, no era conveniente, y obteníamos<br />

la fórmula de Stirling para facilitar la evaluación de factoriales muy grandes. Usando la<br />

fórmula de Stirling, podemos simplificar la distribución binomial y reducirla a otra distribución<br />

que puede ser nás conveniente para los cálculos.<br />

En la presente seección, cuando el número de moléculas N es muy grande, y pequeños<br />

valores para el número n de moléculas en ∆τ será el principal interés, es decir, asumimos<br />

que para grandes valores de n la probabilidad es muy baja de modo que puede ser ignorado.<br />

Supongamos que, por ejemplo, que un recipiente contiene N moléculas, donde N es del<br />

orden de 10 19 . Separemos al volumen ∆τ es muy péqueño en comparación con el volumen<br />

V del recipiente de modo que podemos encontrar n =0, 1, 2 o 3 moléculas en él, y la<br />

probabilidad de que el número de moléculas exceda por ejemplo el valor de n =10,esmuy<br />

baja. Para este propósito, el volumen debe ser tal que el número medio de moléculas en él,<br />

dado por hni = N (∆τ/V ) debe ser más pequeño que el número lómite n =10que hemos<br />

elegido, por ejemplo, hni =3. Naturalmente, el número 3 ha sido elegido arbitrariamente<br />

y perfectamente puede ser otro número que sea suficientemente pequeño en comparación<br />

con el número total de moléculas N; sin embargo para valores relativamente grandes es<br />

más conveniente usar una aproximación diferente de la distribución binomial que daremos<br />

en la próxima sección y que a sabiendas es inadecuada para valores bajos de hni (como<br />

hni ≤ 3)<br />

<br />

24


El valor exacto de la probabilidad según la fórmula de la distribución binomial es<br />

µ n µ<br />

N! ∆τ<br />

W (n) =<br />

1 − ∆τ N−n<br />

n!(N − n)! V V<br />

Tomando en cuenta el hecho de que N y N − n son números muy grandes, reemplazamos<br />

los factoriales usando la aproximación de la fórmula de Stirling<br />

N N e − N N 1/2√ µ n µ<br />

2π<br />

∆τ<br />

W (n) =<br />

n!(N − n) N−n e −N+n (N − n) 1/2√ 2π × 1 − ∆τ N−n<br />

V V<br />

Dividiendo tanto el numerador como el denominador por √ 2π×N N−n N 1/2 e N , nos queda<br />

W (n) =<br />

N n (∆τ/V ) n (1 − ∆τ/V ) N−n<br />

(2.13)<br />

n!(1 − n/N) N−n e N (1 − n/M) 1/2<br />

El factor en el denominador, esto es<br />

(1 − n/N) N−n =<br />

(1 − n/N)N<br />

(1 − n/N) n<br />

es transformado como sigue. Se sabe del análisis que la expresión (1 − n/N) N cuando<br />

N →∞(en términos prácticos, cuando N es suficientemente grande) es igual a e −n .La<br />

expresión (1 − n/N) n , cuando n/N es una cantidad muy pequeña, está muy cerca de la<br />

unidad. Si tenemos que n ¿ √ N, por ejemplo n =0.3 √ N, entonces<br />

³<br />

1 − n ´n<br />

N<br />

=<br />

µ<br />

1 − 0.3 √<br />

N<br />

0.3<br />

√<br />

N<br />

=<br />

" µ<br />

1 − 0.3 √<br />

N<br />

√ N #0.3<br />

= ¡ e −0.3¢ 0.3<br />

= e −0.09 =0.91<br />

De ahí que<br />

³<br />

1 − n ´N−n<br />

≈ e<br />

− n<br />

N<br />

Naturalmente, con las suposiciones que hemos hecho. el otro factor del denominador de<br />

(2.13) también se aproxima a la unidad:<br />

³<br />

1 − n ´1/2<br />

≈ 1<br />

N<br />

Para completar nuestros cálculos, nos queda por considerar la expresión encontrada en el<br />

numerador de (2.13):<br />

³<br />

µ<br />

1 − ∆τ N−n 1 − N (∆τ/V )<br />

´N<br />

N<br />

=<br />

V<br />

(1 − ∆τ/V ) n (2.14)<br />

Si n∆τ ¿ V , por analogía al razonamiento anterior, el denominador de (2.14) es igual a<br />

la unidad. La cantidad N(∆τ/V ) es igual al valor medio del número de moléculas en ∆τ,<br />

y que denotamos por hni,esmáspequeñoqueN, y además<br />

µ<br />

1 − ∆τ N<br />

= e −hni<br />

N<br />

25


Para la probabilidad en la que estamos interesado, hemos encontrado la siguiente expresión:<br />

W (n) = [N (∆τ /V)]n e − hni<br />

− hni<br />

hni e<br />

n! e − n e n = (2.15)<br />

n!<br />

la fórmula (2.15) se conoce como la distribución de Poisson. Ella determina la probabilidad<br />

de encontrar n moléculas en ∆τ (cuando el valor medio del número de moléculas en<br />

∆τ es igual a hni) y esta distribución es correcta si el número de moléculas en el recipiente<br />

es más grande que hni 2 .<br />

Puesto que la distribución de Poisson es el caso límite de una binomial cuando hni 2 ¿<br />

N, o, en otras palabras, cuando hni /N = ∆τ/N → 0, la dispersión de una variable<br />

aleatoria que se distribuye según una Poisson es obtenida de la fórmula (tanto tanto) por el<br />

mismo proceso de límite, es decie, la dispersión es igual al valor medio:<br />

D = hni<br />

2.4 Distribución Gaussiana<br />

Otra distribución muy útil se puede utilizar no solo cuando el número de moléculas N es<br />

suficientemente grande si no que también cuando el número de molécula n en el volumen<br />

∆τ lo es, así como el número N-n de moléculas que quedan fuera del volumen ∆τ. Este<br />

caso se realiza a menudo en la práctica puesto que para que ocurra es suficiente que el<br />

número medio de moléculas en el elemento<br />

hni = N ∆τ<br />

(2.16)<br />

V<br />

sea grande, pero no demasaido cercano al número total de moléculas, en otras palabras,<br />

el volumen ∆τ no debe ser demasiado pequeño en comparación con V , ni tampoco muy<br />

cercano a este volumen. Veremos en lo que sigue que la distribusión Gaussiana es suficientemente<br />

precisa si hni y N − hni son mayores que 3, y su precisión aumenta cuando hni y<br />

N − hni crecen.<br />

La probabilidad de que el volumen ∆τ contenga n partículas de modo que el número<br />

medio de partícula en ∆τ sea hni y el número medio de partículas N −hni fueradeestevolumen<br />

sean suficientemente grandes está dada por la fórmula conocida como distribución<br />

Gaussiana,<br />

"<br />

#<br />

1 (n − hni)2<br />

W (n) = √ exp − (2.17)<br />

2π D 2D<br />

La distribución Gaussiana (2.17) es usada con más fracuencia cuando el número de<br />

moléculas en ∆τ es muy grande. En la práctica, virtualmente no conocemos la probabilidad<br />

de encontrar n moléculas exactas en el volumen ∆τ; por lo general estamos interesados<br />

en la probabilidad δW de que el número de moléculas esté dentro del intervalo de valores<br />

desde n hasta n + δn. Si la cantidad δn es suficientemente pequeña (mucho más pequeña<br />

que √ D), la probabilidad calculada por (2.17) para cualquier n del intervalo de longitud<br />

δn es virtualmente la misma. Desde esta condición, la probabilidad δW se obtiene multiplicando<br />

la probabilidad W (n) por δn, considerando cualquier n arbitario del intervalo de<br />

26


longitud δn,estoes<br />

δW =<br />

"<br />

1<br />

√ exp − 2π D<br />

#<br />

(n − hni)2<br />

2D<br />

δn (2.18)<br />

La fórmula (2.20) nos muestra que cuando se trabaja con un gran número de moléculas la<br />

variable n puede considerarse como una variable aleatoria continua, y la probabilidad de<br />

que su valor se encuentre entre n y n + δn está determinado por la fórmula (2.18), es decir,<br />

la densidad de la probabilidad es<br />

w(n) =<br />

"<br />

1<br />

√ exp −<br />

2π D<br />

#<br />

(n − hni)2<br />

2D<br />

Si es necesario determinar la probabilidad W del hecho de que n esté contenido en el intervaloquevadesden<br />

1 hasta n 2 , y suponiendo que este intervalo no es pequeño en comparación<br />

con √ D, será necesario tomar en cuenta los cambios en la densidad de probabilidad<br />

en este intervalo, y considerando el caracter de variable aleatoria contínua que tiene n,<br />

tenemos que<br />

W =<br />

Zn 2<br />

n 1<br />

w(n) dn =<br />

Zn 2<br />

"<br />

√ exp −<br />

2π D<br />

n 1<br />

1<br />

#<br />

(n − hni)2<br />

dn<br />

2D<br />

Exactamente de la misma manera que cuando determinamos el valor medio de la función<br />

f(n) de el número de moléculas n, debemos usat la fórmula para el cálculo de los valores<br />

medios de variables aleatorias continuas:<br />

hf(n)i =<br />

Z ∞<br />

−∞<br />

f(n)<br />

1<br />

√<br />

2π D<br />

exp<br />

"<br />

−<br />

#<br />

(n − hni)2<br />

dn (2.19)<br />

2D<br />

Hacemos notar que la distribución Gaussiana se utiliza muy a menudo y describe el comportamientodeungrannúmerodevariablesaleatoriascontinuas,ynosoloenlasituación<br />

descrita aquí. Existen razones para esto. El punto central es que para un gran número<br />

de pruebas la distribución Gaussiana es el límite de una serie completa de distribuciones.<br />

Existe un teorema, que debido a su importancia es conocido como el teorema central del<br />

límite de la teoría de la probabilidad, que establece condiciones generales suficientes para<br />

que la distribución Gaussiana sea el límite. A la distribución Gaussiana se le llama también<br />

distribución normal. La extendida dispersión de la ley normal proporcinó las bases para<br />

la ingeniosa observación que los físicos consideran la dispersión a gran escala de la ley<br />

normal para que sea un teorema matemático, mientras que los matemáticos consideran que<br />

es un hecho experimentalmente establecido. Debe ser tenido en cuenta naturalmente, que<br />

la distribución Gaussiana, aunque de uso frecuente, no es la úncia posible.<br />

Si una variable aleatoria continua odedece la ley normal de distribución, la probabilidad<br />

de que los valores de esta variable z se encuentren en el intervalo que va desde z<br />

hasta z + dz, que llamaremos dW, está determinada por la fórmula<br />

dW (z) =<br />

1<br />

√<br />

2π D<br />

exp<br />

"<br />

−<br />

(z − hzi)2<br />

2D<br />

#<br />

dz (2.20)<br />

27


donde hzi es el valor medio, y D es la dispersión de la variable aleatoria z.<br />

Podemos comparar la aproximación Gaussiana de la fórmula (1) con la fórmula de la<br />

distribución binomial, para los valores de N =6y ∆τ/V =0.5, donde se considera que<br />

hni =3,yD = N(∆τ/V )(1 − ∆τ/V )=<strong>1.</strong>5<strong>1.</strong> Los valores comparativos se entregan en<br />

la siguiente tabla:<br />

Normal Binomial<br />

0.016488 0.015625<br />

0.086337 0.09375<br />

0.23314 0.234375<br />

0.32465 0.3125<br />

0.23314 0.234375<br />

0.086337 0.09375<br />

0.016488 0.015625<br />

La primera columna fue obtenida de la fórmula<br />

W (n) =<br />

"<br />

1<br />

√ exp − 2π <strong>1.</strong>51<br />

#<br />

(n − 3)2<br />

2<strong>1.</strong>51<br />

y la segunda columna de<br />

6!<br />

W (n) =<br />

n!(6 − n)! 0.5n (1 − 0.5) 6 − n<br />

en los valores n =0, 1, 2, 3, 4, 5, 6. Como podemos observar los valores están muy cercanos.<br />

Para valores más grande de hni y N − hni la diferencia entre los resultados es<br />

extremadamente insignificante.<br />

2.5 Probabilidad como medida de incertidumbre<br />

La probabilidad de un evento puede ser la medida de su incertidumbre. Estoesbastante<br />

evidente cualitativamente. Si la probabilidad es baja, un evento raramente sucede, consecuentemente,<br />

se puede decir que está en la categoría de los secuesos de incertidumbre.<br />

Inversamente, si la probabilidad es cercana a uno, es un evento que ocurre a menudo, y<br />

desde este punto de vista se relaciona con los evento esperados comunes.<br />

En la teoría de la información se conviene tomar como medida de la incertidumbre de<br />

un evento el logaritmo natural de su probabilidad W con el signo opuesto: −lnW.<br />

La medida de incertidumbre elegida de esta manera transmite de manera correcta muchas<br />

de nuestras nociones intuitivas de las propiedades que debe poseer. Ciertamente, como la<br />

probabilidad es una cantidad menor o igual a 1, entonces su logaritmo tomado con el signo<br />

menos será positivo, en otras palabras, la incertidumbre es una cantidad positiva. Si un<br />

evento es seguro su probabilidad es 1, y su logaritmo es cero, de modo que su incertidumbre<br />

es cero, de modo que la incertidumbre de un evento seguro es cero. Finalmente, si un<br />

evento consiste de dos eventos independientes, y como la probabilidad es igual al producto<br />

de las probabilidades, la incertidumbre de un evento compuesto es igual a la suma de las<br />

incertidumbres de los eventos simples que lo componen.<br />

Consideraremos un ejemplo para ilustrar este concepto. Supongamos que un recipiente-<br />

28


conriene tres moléculas y que tenemos una porción de volumen del 0.1 del volumen total,<br />

esto es ∆τ/V =0.<strong>1.</strong> ¿Cuál es la incertidumbre del evento que este volumen contenga las<br />

moléculas La probabilidad del evento que estamos interesado, de acuerdo a la distribución<br />

binomial, es<br />

µ 3 ∆τ<br />

W (3) = =10 −3<br />

V<br />

De esto se concluye que sunincertidumbre es<br />

− ln W (3) = 3 · ln(10) = 6. 9078<br />

El mismo rsultado se podía haber obtenido de una forma diferente. El evento considerado<br />

consiste en la ocurrencia de tres eventos independientes, digamos, la obtención de cada<br />

una de las tres moléculas en ∆τ. La inceridumbre de obtener una molécula en el volumen,<br />

puesto que la probabilidad de este evento es W = ∆τ/V =0.1,es<br />

− ln W =ln10=2.3<br />

La incertidumbre de obtener las tres moléculas es tres veces este producto, y así obtenemos<br />

el mismo resultado.<br />

Puesto que la razón ∆τ/V es pequeña, la probabilidad de encontrar molécula allí es<br />

baja, y será menos sorprendente si las tres moléculas estén fuera de ∆τ. ¿Cuál es la probabilidad<br />

de este evento Puesto que la probabilidad relevante es<br />

µ<br />

W (0) = 1 − ∆τ 3<br />

=0.9 3<br />

V<br />

y tomando en cuenta que ∆τ ¿ 1, tenemos que la incertidumbre es aproximadamente<br />

µ<br />

−3ln 1 − ∆τ <br />

≈ 3 ∆τ<br />

V V =0.3<br />

El valor numérico en este caso es mucho menor que el precedente.<br />

Disminución de la incertidumbre puede considerarse como un aumento de la información<br />

que se desprende de esta medición.<br />

2.6 Entropia y aleatoriedad<br />

En la sección precedente, introducimos una medida de incertidumbre para un evento aleatorio.<br />

Supongamos que estamos considerando un conjunto completo de eventos mutuamente<br />

excluyentes. cada uno de estos eventos tiene su propia incertidumbre, y nos gustaría encontrar<br />

una característica que es común para el sistema entero. Tal característica, conocida<br />

como la entropía olaentropía de la información, es introducida como el valor medio de<br />

la incertidumbre para el sistema completo, es decir, la incertidumbre de cada evento es multiplicada<br />

por la probabilidad W i de este evento, y todos estos productos se suman. Luego,<br />

designando la entropía por S, podemos llegar a una expresión matemática definiendo la<br />

cantidad:<br />

NX<br />

S = − W i ln W i (2.21)<br />

i=1<br />

donde la suma es desarrollada sobre todos los eventos que forman la colección completa. La<br />

29


entropía caracteriza el grado de indeterminancia o aleatoriedad que ocurre en una situación<br />

dada. para explicar este significado de entropía, volvamos al ejemplo precedente considerado<br />

que la molécula A en un recipiente de volumen V puede estar o no estar en el volumen<br />

∆τ.<br />

Supongamos primeramente que el volumen ∆τ es muy pequeño en comparación con<br />

V . Es intuitivamente obvio que en este caso la indeterminancia de la situación es muy<br />

pequeña porque la molécula con toda seguridad estará fuera de ∆τ. La entropía refleja esta<br />

noción. Necesariamente, la probabilidad de obtener la molécula en ∆τ es W 1 = ∆τ/V ,y<br />

la probabilidad de no encontrarla en ∆τ es W 2 =1−W 1 =(1− ∆τ/V ).Paralaentropía,<br />

consecuentemente, tenemos<br />

S = − ∆τ<br />

V<br />

µ<br />

∆τ<br />

ln<br />

V −<br />

1 − ∆τ<br />

V<br />

µ<br />

ln<br />

1 − ∆τ<br />

V<br />

Si ∆τ/V es muy pequeño, no resulta complicado verificar que el valor de S será también<br />

muy pequeño. En efecto, basta verificar que la siguiente igualdad es correcta<br />

lim x ln x +(1− x)ln(1− x) =0<br />

x→0 +<br />

No resulta complicado verificar que el resultado es el mismo cuando ∆τ está muy cerca<br />

de V . En este caso la molécula A ciertamente deberá estar contenida en ∆τ. La indeterminancia<br />

de la situación es pequeña y por lo tanto la entropía será baja.<br />

¿En que caso una gran indeterminancia puede conseguirse Intentemos responder esta<br />

pregunta despues de establecer las condiciones en que la entropía alcanza su valor máximo<br />

considerándolo como una función de la probabilidad W 1 = ∆τ/V . Derivando la entropía<br />

S como función de W 1 , tenemos que<br />

dS d<br />

= [−W 1 ln W 1 − (1 − W 1 )ln(1− W 1 )]<br />

dW 1 dW 1<br />

= − ln W 1 − 1+ln(1− W 1 )+1=0<br />

Se sigue de esta ecuación que W 1 =(1− W 1 ),estoes<br />

W 1 = ∆τ<br />

V = 1 2<br />

Entonces, el estado de mayor indeterminancia es alcanzado cuando ∆τ es la mitad del<br />

volumen V .<br />

Unamedidadelaindeterminanciaoaleatoriedaddeunasituacióncaracterizadapor<br />

una colección completa de eventos mutuamente excluyentes con probabilidades W i como<br />

la que establece la fórmula (2.21) es llamada la entropía de la información.<br />

<br />

30

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!