1. EVENTOS ALEATORIOS Y PROBABILIDAD
1. EVENTOS ALEATORIOS Y PROBABILIDAD
1. EVENTOS ALEATORIOS Y PROBABILIDAD
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>1.</strong> <strong>EVENTOS</strong> <strong>ALEATORIOS</strong> Y <strong>PROBABILIDAD</strong><br />
<strong>1.</strong>1 El concepto de probabilidad<br />
Todos los conceptos básicos de la teoría de la probabilidad pueden ser ilustrados mediante<br />
un sencillo ejemplo. El ejemplo que veremos a continuación tiene un alto interés para la<br />
llamada física estadística. Consideremos la molécula A que se mueve caóticamente dentro<br />
de un receptáculo que tiene la forma de una caja (Fig. <strong>1.</strong>1)<br />
Un evento aleatorio se define como un fenómeno que en la realización experimental su<br />
observación ocurre o no ocurre. Por ejemplo, la posición de la molécula A en un determinado<br />
instante se encuentre dentro del volumen ∆τ ubicado al interior de la caja (Fig. <strong>1.</strong>1).<br />
Si la molécula A pudiese ser fotografiada, la fotografía obtenida determinará dos posibles<br />
resultados, que se encuentre al interior de ∆τ, en cuyo caso consideramos que el evento<br />
ha ocurrido, o que la molécula se encuentre fuera de ∆τ, entonces el evento no ha ocurrido.<br />
Un experimento que determina la observación de un evento aleatorio es llamado una<br />
prueba.<br />
Fig. <strong>1.</strong>1<br />
Habitualmente, se entiende por probabilidad de un evento aleatorio como la razón entre<br />
el número de pruebas m en que el evento ha ocurrido y el número total M de pruebas, de tal<br />
manera que M sea suficientemente grande. Si designamos la probabilidad de que el evento<br />
A ocurra por W (A), tenemos que<br />
W (A) = m o W(A) = lim<br />
M M→∞<br />
¿Por qué se impone el requerimiento de que el número de pruebas M sea suficientemente<br />
grande Y ¿cuán grande debe ser El hecho de que M debe ser grande es obvio<br />
conforme a la precisión para determinar el valor de la probabilidad. Supongamos que fotografiamos<br />
la molécula en la caja y paramos despues de obtener la primera fotografía<br />
mostrando a la molécula dentro de la región ∆τ. Si el número total de fotografías fue de<br />
127, podría ser prematuro concluir que W(A) =1/127. Ahora, si tomamos 60 fotografías<br />
m<br />
M<br />
1
más, podermos ver, por ejemplo, que el evento en que estamos interesados no ocurrió aún<br />
cuando se realizaron pruebas adicionales y, consecuentemente, de acuerdo a las nuevas<br />
mediciones la probabilidad es de 1/187. Para obtener un resultado suficientemente preciso,<br />
debemos realizar pruebas hasta que la razón m/M difiera una de otra en un valor<br />
pequeño determinado por la precisión en que nosotros queremos conocer la probabilidad<br />
del evento A. Rigurosamente hablando, puesto que el evento A ocurre aleatoriamente, no<br />
podemos excluir de nuestras consideraciones el caso en que la razón m/M obtenida experimentalmente<br />
no nos entrega el correcto valor de la probabilidad. Aunque tales casos son<br />
posibles en principio, son eventos cuya chance de ocurrencia es extremadamente pequeña,<br />
y su probabilidad disminuye cuando aumenta el número de pruebas.<br />
Daremos un interesante ejemplo histórico que ilustra lo que hemos dicho anteriormente.<br />
El científico francés Pierre Simón de Laplace, uno de los fundadores de la teoría de la probabilidad,<br />
estuvo interesado en los nacimientos de niños y niñas. El material por el estudiado,<br />
que incluía un número de ciudades europeas, y así para Francia completa, mostraba que la<br />
razón que la razón entre el número m de niños nacidos y el número total de infantes nacidos<br />
M estaba cercano a 0.5116. Tomando en cuenta que el número de niños nacidos m que<br />
el había analizado era muy grande, Laplace llegó a la conclusión que la discrepancia que<br />
había descubierto no podía deberse a la suerte. Descubrió que el número de infantes nacidos<br />
en París incluía a los infantes abandonados, y la población de los suburbios abandonaba<br />
principalmente a niñas. Después de excluir los datos relacionados a infantes abandonados,<br />
la estadística de los nacidos en parís se ajustaron a los conclusiones de otras ciudades europeas.<br />
La importancia de cuántas pruebas son necesarias no es de modo alguno trivial. Como<br />
veremos, en el ejemplo con la molécula, las pruebas pueden ejecutarse de dos formas, y<br />
que en principio son diferentes.<br />
De la primera forma, fotografíamos la molécula en la caja consecutivamente en diferentes<br />
instantes. No resulta difícil ver que que estos instantes deben estar separados en<br />
intervalos de tiempo suficientemente grandes. Si una serie de fotografías es tomada a una<br />
velocidad muy alta, durante ese tiempo la molécula no logrará moverse a una distancia considerable;<br />
al evaluar la razón m/M sobre la base de tal serie, inevitablemente llegaremos<br />
a un resultado impropio. Los intervalos de tiempo entre fotografías deben ser, por ejemplo,<br />
de tal forma que la molécula tenga tiempo para viajar a cualquier punto de la caja.<br />
Desde el punto de vista experimental, el criterio de elección del intervalo de tiempo entre<br />
fotografías consiste en que en series repetidas de pruebas a intervalos más grandes que el<br />
original deben converger al mismo valor límite m/M.<br />
La segunda forma de ejecutar una prueba es considerar M cajas idénticas, de modo que<br />
cada una de ellas contenga una molécula de la misma especie A. En un instante definido,<br />
todas las moléculas son fotografiadas simultaneamente, y el valor de la razón m/M se establece<br />
analizando cada una de las diferentes fotos de cada caja. Una colección de sistemas<br />
idénticos usados para el estudio de las características de la probabilidad es llamado un<br />
ensemble. Entonces, podemos usar un ensemble de cajas con moléculas para determinar<br />
la probabilidad.<br />
Ambas formas conducen a idénticos resultados si solamente en la primera forma la<br />
condición de intervalos de tiempo suficientemente grande es mantenida, y en la segunda<br />
2
forma todos los sistemas del ensemble deben ser necesariamente idénticos.<br />
Se sigue de la definición de probabilidad que estos valores están confinados entre 0 y<br />
<strong>1.</strong> Necesariamente, m y M son números positivos y, además, el menor valor posible para<br />
m es 0, y el máximo valor posible es el número total de pruebas M. Un evento que ocurre<br />
en cada ensayo y cuya probabilidad es además igual a la unidad se llamado un evento<br />
seguro. Un ejemplo es el evento consistente en la ubicación de la molécula A en cualquier<br />
lugar del interior el recipiente. Es natural que en cada fotografía que tomemos siempre la<br />
molécula se encontrará en el interior del recipiente. Esto es, para cada prueba siempre la<br />
molécula estará en el interior de la caja. En el caso opuesto, cuando un evento no ocurre en<br />
cualquier prueba, y además su probabilidad es cero, se denominará imposible. Podemos<br />
dar un ejemplo trivial: el evento de encontrar la molécula fuera del receptáculo. Puesto que<br />
la molécula, físicamente siempre estará en la caja, es imposible encontrarla fuera de ella.<br />
<strong>1.</strong>2 Conjuntos de eventos mutuamente excluyentes<br />
De gran significado en la construcción y aplicación de la teoría de la probabilidad es el<br />
concepto de conjuntos de eventos mutuamente excluyentes.<br />
Dos eventos se dicen mutuamente excluyentes si la ocurrencia de uno excluye la posibilidad<br />
de ocurrencia del otro.<br />
Fig. <strong>1.</strong>2<br />
Consideremos un ejemplo. Dos volúmenes, ∆τ 1 y ∆τ 2 , se seleccionan de la caja para<br />
observar si se encuentra en uno de ellos la molécula. Si los volúmenes no se intersectan,<br />
como se muestra en la Fig. <strong>1.</strong>2a, el evento 1 consistirá en que en el instante t la molécula A<br />
se encuentre en ∆τ 1 y el evento 2 consistirá en que la molécula se encuentre, en el mismo<br />
instante t, en∆τ 2 . En este caso ambos eventos son mutuamente excluyentes. Es evidente<br />
que cuando los dos volúmenes se intersectan, como lo indica la Fig. <strong>1.</strong>2b, los dos eventos<br />
son compatibles puesto que en instante t la molécula puede encontrarse en la región<br />
sombreda de la intersección, y esto significa que la molécula puede encontrarse en ambos<br />
3
volúmenes.<br />
El valor de aplicación del concepto de eventos mutuamente excluyentes se debe al<br />
siguiente teorema: la probabilidad de ocurrencia de uno de dos eventos mutuamente excluyentes<br />
es igual a la suma de las probabilidades de ocurrencia de cada uno de ellos. Este<br />
toerema es fácil de probar considerando el ejemplo dado anteriormente. Supongamos que<br />
la situación de que la molécula se encuentre en el primero de los dos volúmenes que no se<br />
intersectan, está caracterizada por la probabilidad<br />
W(1) = m 1<br />
M<br />
donde m 1 es el número de veces que la molécula cae dentro del primer volumen en M<br />
pruebas. Similarmente, la proababilidad de que la molécula se encuentre en el segundo<br />
volumen es<br />
W(2) = m 2<br />
M<br />
El evento consistente en encontrar la molécula en al menos uno de los dos volúmenes sucede<br />
m 1 + m 2 veces. Ahora, de acuerdo con la definición general, podemos ver que la probabilidad<br />
de que suceda al menos uno de los dos eventos es<br />
W = m 1 + m 2<br />
M = m 1<br />
M + m 2<br />
= W (1) + W (2)<br />
M<br />
y esto prueba el teorema. Con eventos compatibles (intersección no vacía), no podemos<br />
asegurar que el número de veces que la molécula se encuentra en el primer o segundo volumen<br />
es m 1 + m 2 . Este número será más pequeño debido a los casos en que la molécula<br />
se encuentre en la intersección de los volúmenes, y tales eventos son incluidos simultáneamente<br />
en m 1 y m 2 .<br />
Un colección completa de eventos mutuamente excluyentes se define como la colección<br />
de eventos mutuamente excluyentes en que la ocurrencia de uno de ellos es segura.<br />
Los eventos mutuamente excluyentes considerados en el ejemplo precedente (Fig. <strong>1.</strong>2a)<br />
no forma un conjunto completo debido a que la molécula puede estar fuera de ambos<br />
volúmenes ∆τ 1 y ∆τ 2 . es decir es una situación posible que no ocurra ninguno de ellos.<br />
Ahora, si complementamos los eventos 1 y 2 anteriores con el evento 3 consistente en<br />
que la molécula se encuentre en el resto del espacio luego de restar los volúmenes ∆τ 1 y<br />
∆τ 2 , el nuevo grupo de estos tres eventos forma un conjunto completo. Entonces, como<br />
los eventos no se intersectan, ellos son mutuamente excluyentes; y además la ocurrencia<br />
de cualquiera de ellos es una certeza, puesto que la molécula se encontrará ya sea en ∆τ 1 ,<br />
oen∆τ 2 , o fuera de ambos volúmenes.<br />
Eventos igualmente posibles son aquellos en que la probabilidad de ocurrencia de<br />
cualquiera de ellos tiene el mismo valor. Para explicar este concepto, vamos a suponer<br />
que la caja está dividida en dos partes iguales, digamos 1 y 2 (Fig. <strong>1.</strong>3) y consideremos una<br />
colección consistente en dos eventos: obtener la molécula A en 1 y obtener la molécula A<br />
en 2. Los volumenes no se intersectan, y, consecuentemente los eventos son mutuamente<br />
excluyentes. Lacolecciónescompletaporquelosvolúmenes1y2completanexhaustivamente<br />
todo el volumen de la caja. Finalmente, de la equivalencia completa de los dos<br />
volumenes, es evidente de que la probabilidad de encontrar la molécula en 1 es igual a la<br />
probabilidad de encontrarla en 2. En este ejemplo, los eventos 1y2formanunacolección<br />
4
completa mutuamente excluyente e igualmente posible.<br />
Fig. <strong>1.</strong>3<br />
Debemos cuidar que la conclusión de los eventos igualmente posibles esté fundado en<br />
nociones bien específicas de la naturaleza y condiciones del movimiento de la molécula.<br />
Por ejemplo, si la molécula tiene un momento magnético y un magneto que produce un<br />
campo magnético no homogeneo ubicado en la cara izquierda de la caja, la probabilidad<br />
de detectar la molécula en el volumen 1 será más alta, y en este caso los eventos no son<br />
igualmente posibles.<br />
La Figura <strong>1.</strong>4 muestra cinco volúmenes de tamaño idéntico en que una caja ha sido<br />
dividida virtualmente. Consideremos los eventos de encontrar la molécula en cada uno de<br />
estos volúmenes, ¿són estos volúmenes igualmente posibles<br />
Fig. <strong>1.</strong>4<br />
La respuesta dependerá de lo que ocurrirá cuando la molécula colisiona con una pared.<br />
Si suponemos que la molécula después de la colisión se adhiere a la pared por algún tiempo,<br />
es natural que pasará más tiempo en el volumen 1 y 5. En consecuencia, las probabilidades<br />
W (1) y W (5), aunque siendo iguales, serán mayores que las otras probabilidades. Las<br />
condiciones del movimiento en cada uno de los volúmenes 2, 3 y 4, sin embargo, son absolutamente<br />
idénticos, y además las probabilidades W(2), W (3) y W (4) son iguales unas<br />
a otras. En una situación real, lo más frecuente en lo que respecta a colisiones con una muralla<br />
es que los impactos se pueden considerar perfectamente elásticos. Las probabilidades<br />
de estos cinco eventos serán, entonces, iguales. En lo que sigue, vamos a considerar este<br />
5
tipo de colisión, de modo que los sucesos que consisten en detectar una molécula en un<br />
cierto instante en volúmenes iguales tendrá la misma posibilidad.<br />
La importancia del concepto de un conjunto completo de eventos igualmente posibles y<br />
mutuamente excluyentes consiste en que nos permite encontrar el valor de la probabilidad<br />
de un evento teóricamente. Consideremos el ejemplo de determinar la probabilidad de que<br />
la molécula se encuentre dentro del volumen ∆τ queestáenlacaja.<br />
Dividamos virtualmente la caja en n paralelepípedos idénticos (Fig. 5) de manera<br />
tal que el volumen ∆τ, con una alta precisión, esté contenido en un número m de estos<br />
paralelepípedos. Como hemos visto anteriormente, los eventos consistente en encontrar la<br />
molécula A en uno de estos paralelepípedos, en un instante t, forman un conjunto completo<br />
de eventos igualmente posibles y mutuamente excluyentes.<br />
Fig. <strong>1.</strong>5<br />
La probabilidad de que la molécula A esté en un determinado paralelepípedo es la<br />
misma para todos los paralelepípedos (la condición de igualmente posible) y la podemos<br />
calcular de las condiciones de completitud y exclusión mutua. La probabilidad de que la<br />
molécula A se encuentre dentro de la caja es 1 (el evento seguro). Por otro lado, de acuerdo<br />
a la regla de la suma para eventos mutuamente excluyentes, la misma probabilidad puede<br />
ser representada como la suma de las probabilidades de todos los eventos (que son n), es<br />
decir 1=nW . Se concluye entonces que<br />
W = 1 n<br />
La probabilidad W (∆τ) en la que estamos interesados será igual a la suma de las probabilidades<br />
de que la molécula se encuentre en alguno de los paralelepípedos que conforman el<br />
volumen ∆τ. Puesto que la suma total de estos paralelepípedos es m, usando nuevamente<br />
el teorema de la adición, tenemos que<br />
W (∆τ) =m × 1 n = m (<strong>1.</strong>1)<br />
n<br />
Si multiplicamos el numerador y el denominador por el volumen de uno de los paralelepípe-<br />
6
dos, obtenemos ∆τ en el numerador y el volumen de la caja entera en el denominador. En<br />
consecuencia, la probabilidad de que una molécula en un recipiente de volumen V se encuentre<br />
en el elemento ∆τ de volumen en el instante t es<br />
W (∆τ) ≈ ∆τ<br />
(<strong>1.</strong>2)<br />
V<br />
La fórmula (<strong>1.</strong>2) no contiene el número de paralelepípedos n, de modo que el resultado<br />
final no depende del tamaño de los volúmenes en el cual hicimos la división virtual del<br />
volumen del recipiente. Este tamaño se puede considerar infinitamente pequeño y, consecuentemente,<br />
será más exacto formar el volumen ∆τ de modo que la fórmula (<strong>1.</strong>2) es<br />
absolutamente precisa, más que la fórmula aproximada de (<strong>1.</strong>1)<br />
<strong>1.</strong>3 Eventos independientes<br />
En los cálculos que tenemos que desarrollar con probabilidades, la propiedad de independencia<br />
de eventos aleatorios es frecuentemente utilizada. Dos eventos se dicen que son<br />
independientes si la ocurrencia de uno de ellos no afecta la probabilidad de ocurrencia del<br />
segundo. Consideremos un ejemplo. Supongamos que el primer evento consiste en que la<br />
molécula A está dentro del volumen ∆τ 1 en el instante t; y el segundo, que otra molécula<br />
B se ubique dentro del volumen ∆τ 2 en el mismo instante. Sin importar si la molécula<br />
A estáonodentrodelvolumen∆τ 1 , la probabilidad de que la molécula B se encuentre<br />
en el volumen ∆τ 2 es igual a la cantidad ∆τ 2 /V , luego estos eventos son independientes.<br />
Esto ocurrirá si es que las moléculas no interactúan una con la otra. Y en este caso, aún<br />
si los volúmenes ∆τ 1 y ∆τ 2 coinciden, los eventos son independientes. La presencia de<br />
interacción, sin embargo, puede cambiar la situación. Por ejemplo, bajo la mutua repulsión<br />
de las moléculas, la probabilidad de que la molécula B aparezca en el volumen ∆τ 1 junto<br />
con la molécula A es más baja que si fuese en la ausencia de A. En condiciones generales,<br />
todas las moléculas interactúan una con la otra, pero la fuerza de interacción disminuye rapidamente<br />
cuando la distancia entre ellas aumenta entre ellas, de modo que a distancias de<br />
orden de varios diámetros de las moléculas la interacción pueded ser despreciada completamente.<br />
Esto es posible en bajas concentraciones (gases), cuando la distancia media entre<br />
moléculas es mucho más grande que su diámetro, luego si consideramos esta situación, los<br />
eventos tratados en el ejemplo anterior son efectivamente independientes. Para grandes<br />
concentraciones (gases fuertemente comprimidos, líquidos) la situación es diferente.<br />
La probabilidad de la ocurrencia conjunta de eventos independientes es igual al producto<br />
de las probabilidades de cada uno de ellos.<br />
Para explicar esta propiedad, consideraremos un gas enrarecido. Supongamos que hasta<br />
n pruebas la molécula A fue encontrada m 1 veces en el volumen ∆τ 1 ,ylamoléculaB fue<br />
encontrada m 2 veces en el volumen ∆τ 2 , entonces<br />
W (A) = m 1<br />
y W(B) = m 2<br />
n<br />
n<br />
De todas las pruebas cuyo número total es m 1 en que A cae dentro de ∆τ 1 , dejemos de<br />
lado aquellas pruebas en que B cae dentro de ∆τ 2 . Puesto que la probabilidad de que el<br />
evento B ocurra es m 2 /n, el número de eventos dejados fuera debe ser igual a m 1 (m 2 /n).<br />
Si ahora relacionamos el número encontrado de eventos con el número total de pruebas, la<br />
7
probabilidad de la ocurrencia conjunta de los eventos A y B es<br />
W (AB) = m 1(m 2 /n)<br />
= m 1 m 2<br />
= W (A) · W (B)<br />
n n n<br />
Esta fórmula es la expresión matemática de lo que se asevero anteriormente.<br />
<strong>1.</strong>4 Probabilidad condicional<br />
La pregunta que asoma ahora es: ¿cómo podemos calcular la probabilidad conjunta de dos<br />
sucesos que son dependientes Para responder a esto volvamos a un ejemplo. Tomemos el<br />
evento 1 como la ubicación de la molécula A dentro del volumen ∆τ 1 en el instante t, y<br />
el evento 2 como la ubicación de la misma molécula dentro del volumen ∆τ 2 en el mismo<br />
instante t. Estos eventos son independientes. Supongamos, por ejemplo, que los volúmenes<br />
∆τ 1 y ∆τ 2 noseintersectan,esdecirqueloseventos1y2sonmutuamenteexcluyentes.<br />
Ahora, si la molécula se encuentra en ∆τ 1 , ella no podría estar, naturalmente, en el volumen<br />
∆τ 2 . Luego si la probabilidad del evento 2 es ∆τ 2 /V , la misma probabilidad, cuando el<br />
evento 1 ocurre, es ahora 0. Es exactamente el cambio en el valor de la probabilidad del<br />
evento 2 debido a la ocurrencia del evento 1 que indica la dependencia de estos eventos<br />
en el sentido probabilístico.<br />
En el caso más general de intersección arbitraria entre los volúmens ∆τ 1 y ∆τ 2 ,los<br />
eventos 1 y 2 siguen siendo dependientes. para convencernos que esto es cierto, calculemos<br />
cuanto cambia la probabilidad del evento 2 dado que ocurre el evento <strong>1.</strong> La ocurrencia del<br />
evento 1 significa que la molécula está en el interior de ∆τ 1 , y además se puede considerar<br />
como un nuevo recipiente que contiene a la molécula. La probabilidad de detectar a la<br />
molécula, en el mismo instante, en el volumen ∆τ 2 es la probabilidad de que la molécula<br />
se encuentre en el volumen ∆τ, que es la parte común de ∆τ 1 y ∆τ 2 (vea Fig. <strong>1.</strong>2b). Esta<br />
probabilidad es igual a la razón entre ∆τ y el volumen del ’’nuevo recipiente’’ ∆τ 1 .Luego<br />
la probabilidad W (2) del evento 2 sin la condición 1, o, de otra forma, la probabilidad<br />
incondicional, tiene el valor de<br />
W(2) = ∆τ 2<br />
V<br />
mientras que la probabilidad condicional W 1 (2) es la probabilidad de que el evento 2<br />
ocurra dado que el evento 1 ha ocurrido :estoes<br />
W 1 (2) = ∆τ<br />
∆τ 1<br />
Es obvio que en el caso general las probabilidaes condicionales e incondicionales no coinciden<br />
en su valor, y esto es justamente lo que significa la dependencia entre dos eventos.<br />
Para eventos independientes, las probabilidades condicional e incondicional son iguales.<br />
Podemos ahora formular una regla casi evidente. La probabilidad W (1, 2) de la ocurrencia<br />
conjunta de los dos eventos 1 y 2 es igual a la probabilidad W (1) del evento 1<br />
multiplicado por la probabilidad condicional W 1 (2), o la probabilidad W (2) del evento<br />
2 multiplicado por la probabilidad condicional W 2 (1). Estoes<br />
W (1, 2) = W (1)W 1 (2) = W (2)W 2 (1)<br />
Tomemos el ejemplo con intersección de ambos volúmenes para ilustrar este regla. La<br />
8
probabilidad W(1,2) de ocurrencia de ambos eventos 1y2es,enesencia,laprobabilidad<br />
de que ocurra la intersección de estas dos regiones, es decir que la molécula se encuentre<br />
en ∆τ,demodoque<br />
W (1, 2) = ∆τ<br />
(<strong>1.</strong>3)<br />
V<br />
la fórmula (<strong>1.</strong>3) pues ser escrita ya sea como<br />
W (1, 2) = ∆τ<br />
V<br />
= ∆τ<br />
∆τ 1<br />
∆τ 1<br />
V = W (1) · W 1(2)<br />
oenlaforma<br />
W (1, 2) = ∆τ<br />
V<br />
= ∆τ ∆τ 2<br />
∆τ 2 V = W (2) · W 2(1)<br />
lo cual describe matemáticamente la regla anunciada más arriba.<br />
<strong>1.</strong>5 Distribución binomial de probabilidades<br />
La información dada anteriormente nos permite resolver muchos problemas de la física estadística.<br />
En la prsente sección, consideraremos uno de ellos que tiene gran relevancia tanto<br />
desde el punto de vista de la aplicación como del desarrollo de la teoría de la probabilidad.<br />
Supongamos que un tubo contiene un gas con un determinado número de moléculas N.<br />
Mentalmente fijemos una parte del volumen del vaso ∆τ y determinemos la probabilidad<br />
de encontrar n moléculas en el volumen ∆τ. Lasolucióndeesteproblemaharáposible,<br />
particularmente, conocer la probabilidad de un cierto valor de la densidad del gas, que es<br />
de interés en algunas aplicaciones físicas.<br />
Comencemos con dos moléculas (N =2) y asignemos los números 1 y 2 a las moléculas.<br />
Para determinar la probabilidad en la que estamos interesados, debemos considerar el<br />
siguiente conjunto completo de eventos mutuamente excluyentes:<br />
1 lasmoléculas1y2estánen∆τ;<br />
2 la molécula 1 está en ∆τ, y la 2 está fuera de este volumen;<br />
3 la molécula 2 está en ∆τ, y la 1 está fuera de este volumen;<br />
4 ambas moléculas están fuera de ∆τ.<br />
Las probabilidades de estos eventos se evalúan como sigue.<br />
La probabilidad de que la molécula 1 esté en ∆τ es W = ∆τ/V , mientras que la<br />
probabilidad de que se encuentre fuera de ella es<br />
1 − W =1− ∆τ<br />
V<br />
en virtud de que la suma de las probabilidades de ambos eventos debe ser <strong>1.</strong> Las probabilidades<br />
relevantes para la molécula 2 tiene los mismos valores. Volvamos ahora al primer<br />
evento en que ambas moléculas están en ∆τ. Puesto que hemos supuesto que la intersección<br />
entre ambas moléculas puede ser despreciada, la ubicación de las moléculas 1 y<br />
2en∆τ son eventos independientes, y además la probabilidad W 1 del primer evento es el<br />
9
producto de las probabilidades de que las moléculas 1 y 2 estén en ∆τ, es decir<br />
W 1 = ∆τ<br />
V<br />
∆τ<br />
V<br />
= µ ∆τ<br />
V<br />
Similarmente, podemos encontrar<br />
W 2 = ∆τ µ<br />
1 − ∆τ <br />
= W (1 − W )<br />
V V<br />
W 3 = ∆τ µ<br />
1 − ∆τ <br />
= W (1 − W )<br />
V V<br />
µ<br />
W 4 = 1 − ∆τ 2<br />
=(1− W ) 2<br />
V<br />
Estamos interesados en la probabilidad de que ∆τ contenga n moléculas, es decir, para<br />
nuestro caso será 2, 1 ó 0. No es difícil verificar que<br />
W (2) = W 1 = W 2<br />
puesto que el evento 1 sucede solamente si ambas moléculas están en ∆τ. Además,<br />
W (1) = W 2 + W 3 =2W (1 − W )<br />
puesto que en el segundo y tercer caso solo una molécula está en ∆τ. Finalmente,<br />
W (0) = W 4 =(1− W ) 2<br />
Si el número de moléculas es tres y ellas son designadas por 1, 2, y 3, los eventos<br />
listados en la Tabla <strong>1.</strong>1 son posibles. Esa tabla entrega los valores de las probabilidades<br />
W i correspondientes a las diferentes posibles distribuciones de las moléculas, y también<br />
entrega las probabilidades requeridas W (3), W (2), W (1) y W (0).<br />
Yendo ahora al caso más general de N moléculas, podemos demostrar que<br />
N!<br />
W (n) =<br />
n!(N − n)! W n (1 − W ) N−n (<strong>1.</strong>4)<br />
2<br />
N o even.<br />
mol.<br />
en ∆τ<br />
mol.<br />
en V −∆τ<br />
N o mol.<br />
en ∆τ<br />
W i<br />
W (n)<br />
1 1,2,3 — 3 W 3 W (3) = W 3<br />
2<br />
3<br />
4<br />
1, 2<br />
1, 3<br />
2, 3<br />
3<br />
2<br />
1<br />
5<br />
6<br />
7<br />
1<br />
2<br />
3<br />
2, 3<br />
1, 3<br />
1, 2<br />
2 W 2 (1−W ) W (2) = 3W 2 (1−W )<br />
1 W (1−W ) 2 W (1) = 3W (1−W ) 2<br />
8 — 1, 2, 3 0 (1−W ) 3 W (0) = (1−W ) 3<br />
Tabla<strong>1.</strong>1<br />
Necesariamente, la probabilidad de que n moléculas estén en el volumen ∆τ,yelrestode<br />
10
las N− ∆τ moléculas se encuentren fuera de este volumen es<br />
W n (1 − W ) N −n (<strong>1.</strong>5)<br />
El número de eventos similares que difieren unos a otros en cuanto a determinar que n<br />
moléculas del total N se encuentren en ∆τ es igual al número de combinaciones de N<br />
tomadas de n a la vez, esto es<br />
µ N N!<br />
=<br />
(<strong>1.</strong>6)<br />
n n!(N − n)!<br />
Luego, sumando las probabilidades de todos los eventos en que n moléculas se encuentran<br />
en ∆τ, esto es multiplicando (<strong>1.</strong>5) por (<strong>1.</strong>6), nos conduce a la fórmula general dada en<br />
(<strong>1.</strong>4).<br />
Los eventos que indican el número de moléculas que pueden estar en ∆τ, quepueden<br />
ser 0, 1, 2, ..., N, conforman una colección mutuamente excluyente y completa. De manera<br />
que la suma de las probabilidades de estos eventos deber ser igual a la unidad. Es sencillo<br />
convencerse que es necesariemente correcto lo siguiente:<br />
NX<br />
NX N!<br />
W (n) =<br />
n!(N − n)! W n (1 − W ) N−n<br />
n=0<br />
n=0<br />
Usando el teorema del binomio, podemos escribir<br />
NX N!<br />
n!(N − n)! W n (1 − W ) N−n =[W +(1− W )] N =1 N =1<br />
n=0<br />
La relación entre las probabilidades W (n) y el teorema del binomio explica el porque a<br />
este tipo de distribución se le conoce como distribución binomial de probabilidades.<br />
Consideremos como ejemplo la distribución de seis moléculas en un recipiente, que<br />
lo hemos dividido mentalmente en dos partes iguales, esto es ∆τ = V/2. Una vez que<br />
hayamos calculado los coeficientes binomiales, podemos obtener los resultados que se<br />
grafican en la Fig. <strong>1.</strong>6, donde los puntos indican los valores correspondientes de las probabilidades.<br />
Se puede observar que el evento que tiene la probabilidad mayor cuando n es<br />
igual a tres, es decir cuando el recipiente contiene la mitad del número total de moléculas.<br />
La ausencia de moléculas (n =0) o cuando están todas en una de las mitades del recipiente<br />
(n =6) son considerablemente menos probable y además se observan con menor<br />
frecuencia (unas 20 veces menos frecuente).<br />
La distribución binomial es usada para la resolución de variados problemas, y no solamente<br />
en el tipo de ejemplo considerado aquí. Supongamos que conocemos la probabilidad<br />
de que una molécula tenga una característica definida (por ejemplo, la velocidad que oscila<br />
entre 100 y 150 m/s, o que ella viaja sin colisionar con otra molécula en una trayectoria<br />
quenoexcede1mm, etcétera). ¿Cuál es la probabilidad de que n moléculas de un total<br />
de N tenga la misma característica Si los correspondientes eventos para las diferentes<br />
moléculas son independientes y su probabilidad es W , la respuesta está dada por la distribución<br />
binomial (<strong>1.</strong>4). Para convencernos de lo cierto de esta conclusión, es suficiente<br />
tomar en cuenta que el contenido específico del problema del problema dado anteriormente<br />
fue usado solamente para encontrar el valor de la probabilidad W = ∆τ/V de tener una<br />
11
Figure 1: Fig. <strong>1.</strong>6<br />
característica definida (en este caso que la molécula esté dentro de ∆τ en el instante t).<br />
Todas las otras razones no dependen sobre que otra característica podamos considerar.<br />
<strong>1.</strong>6 La fórmula de Stirling<br />
En la resolución de problemas físicos estadísticos, debemos trabajar con grandes números<br />
de moléculas. En consecuencia, el uso de algunas fórmulas, particularmente la distribución<br />
binomial, no es conveniente debido a los grandes factoriales de números muy grandes que<br />
vamos a encontrar. Por ejemplo, a temperatura y presión estándar, un centímetro cúbico de<br />
gas contiene 2.69 × 10 19 moléculas. Si queremos determinar la probabilidad de que 10 16<br />
de ellas se encuentren en un volumen de ∆τ =1mm 3 , el uso de la fórmula (<strong>1.</strong>4) requiere<br />
que computemos 10 16 ! y 2.69 × 10 19 !. Si tomamos en cuenta que ya es difícil el cómputo<br />
de 30! ode40!, es bastante obvio que es deseable tener una fórmula que rapidamente<br />
nos permita acceder a factoriales de grandes números. La correspondiente expresión, que<br />
encontraremos, fue obtenida por J. Stirling y lleva su nombre.<br />
Es conveniente considerar no el valor de N! sino que con el logaritmo natural de esta<br />
expresión<br />
NX<br />
ln N! = ln 1 + ln 2 + ···+lnN = ln n<br />
n=1<br />
12
Fig. <strong>1.</strong>7<br />
Los valores de ln n han sido graficados en la Fig. <strong>1.</strong>7. Y hemos agregado una suma<br />
de rectángulos de tal forma que cada uno de ellos tiene altura precisamente ln n,ydebase<br />
unitaria, por lo tanto el área de cada rectángulo es ln n. De modo que el área es la figura<br />
escalonada está dada por S = P N<br />
n=1<br />
ln n. Por otro lado, el área bajo la curva determinada<br />
por y =lnx desde x =1hasta x = N está dada por<br />
S 0 =<br />
Z N<br />
1<br />
ln xdx= N ln N − (N − 1) (<strong>1.</strong>7)<br />
La fórmula (<strong>1.</strong>7) da un valor aproximado para el área de S, estoesS 0 ≈ S, peroS puede<br />
ser determinado con más precisión. Del gráfico se desprende claramente que S 0
La estricta derivación, que se puede obtener en un curso de análisis, concluye que un resultado<br />
más preciso tiene la forma de<br />
N! = √ 2πN N e −N√ N (<strong>1.</strong>8)<br />
es decir, existe una leve diferencia en el valor del factor constante (e =2.718..., √ 2π =<br />
2.506...).<br />
El error relativo de la fórmula <strong>1.</strong>8 disminuye cuando N aumenta. Daremos dos ejemplos.<br />
Cuando N =4, el valor exacto de 4! es 24, mientras que la fórmula de Stirling nos<br />
da √ √<br />
2π 4 × 4 4 e −4 ≈ 23.7<br />
Cuando N =6, el valor exacto de N! es 720, mientras que si aplicamos la fórmula (<strong>1.</strong>8)<br />
obtenemos el valor de 716. En el primer ejemplo, el error relativo es del <strong>1.</strong>25%, y en el<br />
segundo, 0.56%. El error relativo disminuye rápidamente cuando aumenta el valor de N.<br />
2. VARIABLES ALEATORIAS Y SUS<br />
CARACTERÍSTICAS<br />
2.1 Variable aleatoria<br />
En las aplicaciones de la teoría de probabilidad a problemas de la física estadística, debemos<br />
trabajar con la noción de variable aleatoria.Toda variable que toma valores numéricos<br />
con una probabilidad definida se dice que es aleatoria. En el capítulo anterior, en esencia,<br />
estabamos trabajando con el concepto de variable aleatoria. En efecto, el número de<br />
moléculas en el elemento de volumen ∆τ seleccionado de un recipiente de volumen V es<br />
el correspondiente ejemplo, puesto que este número toma valores en 0, 1, 2, ..., N, y cada<br />
uno de estos valores puede ocurrir con una probabilidad W (n) determinada por la fórmula<br />
<strong>1.</strong>4 de la distribución binomial. El número de moléculas en el volumen elemental ∆τ es,<br />
entonces, una variable aleatoria. Tal variable aleatoria si dirá discreta debido a que toma<br />
valores sobre un conjunto finito (en nuestro ejemplo, los valores son 0, 1, 2, ..., N).<br />
Variables aleatorias continuas también son consideradas.Estas toman valores sobre una<br />
serie de valores continuos (un intervalo, por ejemplo). Posiblemente, el ejemplo más simple<br />
de variable aleatoria continua es la coordenada de la molécula A en el recipiente de<br />
volñumen V . Ubiquemos el origen de las coordenadas en una de las esquinas del recipiente<br />
rectangular como lo muestra la Fig. 2.<strong>1.</strong> La coordenada z A de la molécula a lo largo<br />
del eje Z puede tomar valores dentro del intervalo de z =0hasta z = a, donde a es la<br />
dimensión del recipiente en la dirección del eje Z.<br />
No es correcto calcular la probabilidad de que una variable aleatoria continua tome un<br />
determinado valor prefijado. Lo adecuado es establecer la probabilidad de que una variable<br />
aleatoria tome un valor comprendido entre z y z + dz. Si el intervalo dz es infinitamente<br />
pequeño, la correspondiente probabilidad dW será tambien infinitamente pequeña, y, consecuentemente,<br />
será proporcional al intervalo dz. Podemos escribie la siguiente expresión<br />
14
Figure 2: Fig. 2.1<br />
para la probabilidad requerida:<br />
dW = w(z) dz (2.1)<br />
donde w(z) se conoce como la función de densidad de probabilidad. Su dimensión es<br />
inversamente proporcional a la variable aleatoria z puesto que la probabilidad dW es una<br />
cantidad adimensional. Entonce, la función de densidad de probabilidad de una variable<br />
aleatoria z es una función w(z ) de tal forma que cuando se multiplica por dz , obtenemos<br />
la probabilidad de que el valor de la variable aleatoria se encuentre en el intervalo que va<br />
desde z hasta z + dz. Si el intervalo dz es igual a cero, la correspondiente probabilidad<br />
también es cero, además no tiene sentido en interesarse por la probabilidad de un valor<br />
puntual de una variable aleatoia continua.<br />
Para explicar el concepto que hemos introducido, volvamos al ejemplo en que la coordenada<br />
z de la molécula A es una variable aleatoria continua. Tenemos que encontrar la<br />
densidad de probabilidad para esta variable aleatoria. La coordenada de la molécula caerá<br />
dentro del intervalo dz si, como se puede ver en la Fig. 2.1, la molécula misma logra estar<br />
dentro del volumen ∆τ que está confinado por dos planos paralelas que pasan por los puntos<br />
z y dz en un ángulo recto al eje Z. Supongamos que el área de la base del recipiente<br />
15
Figure 3: Fig. 2.2<br />
es S, luego el volumen elemental es dτ = Sdz. Puesto que el volumen del recipiente<br />
completo es V = aS, obtenemos la siguiente expresión para la probabilidad:<br />
dW = dτ<br />
V = Sdz<br />
aS = 1 a dz<br />
Comparando esta última igualdad con (2,1) podemos concluir que la densidad de probabilidad<br />
para la coordenada de la molécula es<br />
w(z) = 1 a<br />
Como debía de esperarse, la dimensión de la función de densidad de probabilidad es el valor<br />
recíproco de la longitud debido a que la variable aleatoria z tiene unidades de longitud.<br />
Que la función de densidad que encontramos sea una cantidad constante está asoiado<br />
con las características específicas del problema planteado, en que el recipiente es rectangular<br />
y que todas las posiciones de la molécula A en el recipiente son igualmente posibles.<br />
Si el recipiente fuera ubicado en un campo de acción de fuerzas externas (por ejemplo, si<br />
tomamos en cuenta la acción de la fuerza de gravedad), o si la forma del recipiente no fuese<br />
rectangular, la función de densidad de probabilidad podría no ser una cantidad constante.<br />
Por ejemplo, consideremos un recipiente de forma cónica (Fig. 2.2), despreciando la<br />
acción de la fuerza de gravedad, podemos encontrar la siguiente expresión para la probabilidad<br />
dW :<br />
πr2 dz<br />
(1/3)πR 2 H<br />
dW = dτ<br />
V =<br />
donde r es el radio de la sección de un cono corcular a una altitud z de la base y, consecuentemente,<br />
πr 2 dz es el volumen de la sección del cono confinado entre los planos que<br />
16
pasan perpendiculares al eje Z por los puntos z y z + dz respecto de la base. R es el radio<br />
de la base, H es la altura del cono. En virtud de la similaridad de los triángulos COA y<br />
CO´B se sigue que r R = H−z<br />
H<br />
, entonces tenemos<br />
r 2 (H − z)2<br />
=<br />
H 2 R 2<br />
Si tomamos en cuenta que el volumen del cono es V =(1/3) πR 2 H, entonces<br />
(H − z)2<br />
dW =3 dz<br />
es decir, la densidad de probabilidad es<br />
(H − z)2<br />
w(z) =3<br />
H 3<br />
A menudo tendremos que trabajar con vectores de variables aleatorias, es decir con<br />
vectores que tengan varias opciones de longitud y dirección que puedan tomar con una<br />
probabilidad definida. Un ejemplo muy simple de un vector aleatorio es la posición de la<br />
molécula A que puede tomar en el recipiente de volumen V . Construyamos un sistema<br />
cartesiano de coordenadas cuyos ejes describirán las componentes x A , y A ,yz A aleatorias<br />
del vector aleatorio r A , y consideremos todos los puntos x, y, z que están contenidos en<br />
el volumen rectangular infinitamente pequeño dτ = dz dy dz (Fig. 2.3). ¿Cuál es la<br />
probabilidad de que la punta del vector r A esté en el interior del volumen dτ Puesto<br />
que el volumen es infinitamente pequeño, la probabilidad dW debe ser proporcional a tal<br />
volumen pequeño, esto es<br />
dW = w(x, y, z) dτ (2.2)<br />
La cantidad w, que depende de las coordenadas x, y z, es llamada la densidad de probabilidad<br />
del vector de variables aleatorias r A . Entonces, el producto de la densidad de probabilidad<br />
w de un vector de variables aleatorias y un volumen elemental dτ es la probabilidad<br />
de que la posición del vector r A esté en el interior de dτ o, en otras palabras, que las<br />
siguientes condiciones se observan simultaneamente: las componentes x, y, z de r A están<br />
contenidas dentro de los intervalos que van desde x hasta x + dx ,desde y hasta y + dy,<br />
desde z hasta z + dz, respectivamente.<br />
En el ejemplo que hemos considerado, la densidad de probabilidad w es el recíproco<br />
del volumen del recipiente. En efecto, en la sección <strong>1.</strong>2, establecimos que la probabilidad<br />
de que la molécula A esté en el volumen elemental dτ, esto es la probabilidad de que la<br />
posición superior del vector esté en este elmento, es<br />
dW = dτ<br />
V<br />
Comparando esta ecuación con la ecuación (2.2), podemos concluir que<br />
w = 1 (2.3)<br />
V<br />
Si las componentes de un vector aleatorio son independientes, en este importante caso<br />
particular la densidad de probabilidad w(x, y, z) está representada como el producto de tres<br />
H 3<br />
17
Figure 4: Fig. 2.3<br />
densidades de probabilidad<br />
w(x, y, z) dτ = w x (x) dx · w y (y) dy · w z (z) dz (2.4)<br />
de modo que la probabilidad de que la componente x se encuentre en el intervalo dx es<br />
w x (x) dx y no depende de los valores de las otras componentes.<br />
La fórmula (2.4) tiene una sencilla interpretación, significa que la probabilidad de que<br />
el vector r A esté en dτ es igual al producto de tres eventos independientes, digamos a la<br />
probabilidad de que la componente x se encuentre en el intervalo dx, que la componente y<br />
se encuentre en el intervalo dy, y que la componente z se encuentre en el intervalo dz. La<br />
fórmula (2.3) obtenida más arriba ilustra este caso. Puesto que el volumen del recipiente<br />
tiene la forma de un paralelepípedo rectangular es igual al producto de sus lados, tenemos<br />
que<br />
V = cba<br />
donde c, b y a son las longitudes de los lados a lo largo de los ejes X, Y ,yZ, respectivamente.<br />
Usando esta relación, podemos escribir la siguiente expresión para la densidad de<br />
probabilidad:<br />
entonces<br />
w = 1 V = 1 c × 1 b × 1 a<br />
w x = 1 c ; w y = 1 b ; w z = 1 a<br />
18
2.2 Valor medio<br />
El conocimiento de las probabilidades de los valores que puede tomar una variable aleatoria<br />
discreta o la densidad de probabilidad de una variable aleatoria continua, nos permite<br />
encontarr su valor medio, o, dicho de otra forma, su esperanza matemática. Obtendremos<br />
la regla para su cálculo mediante un ejemplo específico.Supongamos que tenemos un volumen<br />
∆τ dentro del recipiente de volumen V , y la variable aleatoria en la que estamos<br />
interesados es el número de moléculas que pueden estar en el interior de ∆τ en un cierto<br />
instante t. Supongamos además que realizamos un gran número de pruebas M yencada<br />
una de ellas registramos el número de moléculad en ∆τ. Supongamos que m 1 veces fue<br />
registrado el valor n 1 , m 2 veces el valor n 2 , y así sucesivamente. Entonces, encontramos<br />
el valor medio del número de moléculas en ∆τ mediante la fórmula<br />
hni = m 1n 1 + m 2 n 2 + ···<br />
m 1 + m 2 + ···<br />
= m 1n 1 + m 2 n 2 + ···<br />
M<br />
= m 1<br />
M n 1 + m 2<br />
M n 2 + ···<br />
Si el número de pruebas es suficientemente grande, la razón m 1 /M , m 2 /M , etcétera, llegará<br />
a ser igual a la probabilidad de los valores relevantes de n,esdecir<br />
hni = w(n 1 )n 1 + w(n 2 )n 2 + ···= X w(n i )n i (2.5)<br />
i<br />
donde la suma es evaluada sobre todos los valores posibles de la variable aleatoria n i (n i =<br />
0, 1,...,N), donde N es el número de moléculas en el recipiente).<br />
Cuando consideremos una variable aleatoria continua z, y puesto que la probabilidad<br />
de que su valor se encuentre en un intervalo dz es w(z) dz, debemos sumar la expresión<br />
zw(z) dz sobre todos los valores de z, es decir sobre todos los intervalor dz debemos<br />
encontrar el valor medio. Esto significa que la regla para determinar el valor medio de<br />
una variable aleatoria continua puede escribirse como<br />
Z<br />
hzi = zw(z) dz (2.6)<br />
donde la integral (suma) es evaluada sobre todos los valores posibles de z.<br />
Volvamos al número medio de partículas en el volumen ∆τ. Supongamos que el número<br />
total de partículas en el recipiente de volumen V es N. El valor medio está determinado por<br />
la fórmula (2.5) en que w(n i ) deber entenderse como la probabilidad de que n i parículas<br />
estén en ∆τ, esto es la expresión (<strong>1.</strong>4). Luego<br />
hni =<br />
NX<br />
n i =0<br />
n i<br />
N!<br />
n i !(N − n i )!<br />
µ ∆τ<br />
V<br />
ni<br />
µ<br />
1 − ∆τ<br />
V<br />
N − ni<br />
En la evaluación de la suma anterior. debemos prestar atención al hecho de que la suma<br />
empieza desde n i =1debido a que en n i =0el término se anula (debemos recordar que<br />
0!=1).Conestoenmenteycancelanon i , podemos escribir<br />
hni =<br />
NX<br />
n i =1<br />
N!<br />
(n i − 1)!(N − n i )!<br />
µ ∆τ<br />
V<br />
ni<br />
µ<br />
1 − ∆τ<br />
V<br />
N − ni<br />
19
Si designamos n i − 1 por k, donde k toma los valores 0, 1, ..., N − 1, la expresión para hni<br />
puede escribirse como<br />
NX<br />
− 1<br />
µ k µ<br />
N! ∆τ ∆τ<br />
hni =<br />
1 − ∆τ N − 1− k<br />
k!(N − 1 − k)! V V V<br />
k =0<br />
Removemos el factor común dentro de la suma, y obtenemos<br />
hni = N ∆τ<br />
NX<br />
− 1<br />
µ k µ<br />
(N − 1)! ∆τ<br />
1 − ∆τ N − 1− k<br />
V k!(N − 1 − k)! V V<br />
k =0<br />
Mediante la fórmula del teorema del binomio y de manera análoga a los cálculos que realizamos<br />
en la sección <strong>1.</strong>5, tenemos<br />
N−1<br />
X<br />
µ k µ<br />
N! ∆τ ∆τ<br />
1 − ∆τ N−1−k ∙ µ ∆τ<br />
=<br />
k!(N − 1 − k)! V V V<br />
V + 1 − ∆τ<br />
¸N−1<br />
=1<br />
V<br />
k=0<br />
De modo que,<br />
hni = N ∆τ<br />
(2.7)<br />
V<br />
es decir, el número medio de partículas en el volumen ∆τ es igual al número de partículas N<br />
del recipiente multiplicado por la probabilidad (∆τ/V ) de que una partícula se encuentre<br />
en ∆τ.<br />
Ahora calcularemos el valor medio de una variable aleatoria continua usando el ejemplo<br />
de la coordenada z de una molécula en un recipiente rectangular. Habíamos visto que la<br />
densidad de probabilidad para este caso es w(z) =1/a. El valor medio de z es calculado<br />
mediante (2.6):<br />
Z a<br />
hzi = z 1 ∙ 1<br />
a dz = z 2 ¸a<br />
= a (2.8)<br />
a 2<br />
0<br />
2<br />
0<br />
y obtenemos un resultado que fue intuitivamente obvio desde el principio.<br />
A menudo es importante en las aplicaciones conocer el valor medio de la función de<br />
una variable aleatoria, por ejemplo, el cuadrado (u otra potencia) del número de partículas<br />
en el volumen ∆τ o el cuadrado de la coordenada de una molécula z 2 . Aplicando el razonamiento<br />
anterior no a la variable aleatoria n i misma, sino a la función ψ(n i ) de ella,<br />
podemos demostrar fácilmente que el valor medio puede ser determinado por la fórmula<br />
hψ(n i )i = X ψ(n i ) w(n i ) (2.9)<br />
i<br />
El valor medio de la función de una variable aleatoria continua es evaluada con ayuda de<br />
la regla cuyo significado es similar<br />
Z<br />
hψ(z)i = ψ(z) w(z) dz (2.10)<br />
la integral es evaluada sobre todos los valores posibles de la variable aleatoria z.<br />
Entonces, el valor medio (esperanza matemática) de la función de una variable aleatoria<br />
es evaluada como la suma del producto de esta función y la probabilidad del valor de<br />
su argumento, es decir mediante la fórmula (2.9) para una variable aleatoria discreta y por<br />
20
la fórmula (2.10) para una continua.<br />
Usemos la regla anterior para calcular una importante característica conocida como dispersión.<br />
La dispersión es la esperanza matemática del cuadrado de la desviación de una<br />
variable aleatoria respecto de su valor medio, es decir<br />
D<br />
D(n i )= (n i − hn i i) 2E , D(z) = (z − hzi) 2® (2.11)<br />
La importancia de esta característica viene del hecho que ella determina el grado de dispersión<br />
de una variable aleatoria, es decir de una cierta manera la dispersión es una medida de<br />
la aleatoriedad o azar. Si una variable no aleatoria es considerada como aleatoria tomando<br />
un mismo valor con probabilidad1, es claro que la desviación de su valor medio es cero,<br />
y, en consecuencia, la dispersión también es cero. Luego, la dispersión de una variable<br />
no aleatoria es cero, mientras que para una variable aleatoria ella será más grande, y su<br />
amplitud es la dispersión de sus valores.<br />
las fórmulas (2.11) pueden escribirse de manera más conveniente para sus cálculos.<br />
Obtendremo más abajo su cálculo para un ejemplo de una variable aleatoria continua puesto<br />
que para el caso discreto solo tenemos que sustituir la integral por una suma.<br />
De acuerdo con la definición de la dispersión,<br />
Z<br />
Z<br />
D(z) = (z − hzi) 2 w(z) dz =<br />
³z 2´<br />
2 − 2 z hzi + hzi w(z) dz<br />
Z<br />
Z<br />
Z<br />
= z 2 w(z) dz − 2 z hzi w(z) dz + hzi 2 w(z) dz<br />
Puesto que z 2 es simplemente un número, la última integral es igual a<br />
Z<br />
Z<br />
hzi 2 w(z) dz = hzi 2 w(z) dz<br />
La condición de normalización para la densidad de probabilidad de una variable aleatoria<br />
es<br />
Z<br />
w(z) dz =1<br />
Esto proviene del hecho de que los valores que toma una variable aleatoria de diferentes<br />
intervalos dz forman una colección de eventos completo y mutuamente excluyente. La<br />
condición de normailidad significa que la variable aleatoria con probabilidad 1 tomará un<br />
valor cualquiera de todos los posibles valores.<br />
La penúltima integral en la expresión para la dispersión adopta la siguiente forma:<br />
Z<br />
Z<br />
2z hzi w(z) dz =2hzi zw(z) dz =2hzih2i =2hzi 2<br />
Puesto que la primera integral corresponde al valor medio del cuadrado de la variable puede<br />
ser denotada por z 2® , y tomando en cuenta la normalización el resultado final es<br />
D(z) = z 2® − 2 hzi 2 + hzi 2 = z 2® − hzi 2 (2.12)<br />
Una fórmula similar se tiene para una variable aleatoria discreta:<br />
D(n i )= n 2 ®<br />
i − hni i 2<br />
Usando el ejemplo de una dispersión, se puede demostrar fácilmente que el valor medio<br />
21
de una función de variable aleatoria no es igual a la función cuando el valor medio de la<br />
variable aleatoria es considerada en el argumento de la función. Necesariamente, en el caso<br />
dado, debemos evaluar el valor medio de la función f(z) =z 2 . Su valor medio es z 2® ,y<br />
no es igual al cuadrado del valor medio hzi 2 . Si tal igualdad existiese, la dispersión debería<br />
ser nula. Veremos que esto no sucede, usando el ejemplo tratado en la presente sección.<br />
Vamos a calcular la dispersión de la coordenada de una molécula en un recipiente<br />
rectángular. Para usar (2.12), calcularemos z 2® :<br />
z<br />
2 ® =<br />
Z a<br />
0<br />
z 2 1 a<br />
Puesto que hzi = a/2, por (2.12) tenemos<br />
dz =<br />
a2<br />
3<br />
D(z) = a2<br />
3 − a2<br />
4 = a2<br />
12<br />
Las siguientes propiedades de valor medio y dispersión son muy importantes para su<br />
aplicación.<br />
(a) Si sumamos dos funciones f 1 (x, y, z) y f 2 (x, y, z), donde r = {x, y, z} es un vector<br />
aleatorio, el valor medio de la suma de sus funciones es igual a la suma de los valores<br />
medios.<br />
Además, cuando r es un vector aleatorio continuo, tenemos que<br />
Z<br />
h[f 1 (x, y, z)+f 2 (x, y, z)]i = (f 1 + f 2 ) w(x, y, z) dτ<br />
Z<br />
Z<br />
= f 1 w(x, y, z) dτ + f 2 w(x, y, z) dτ<br />
= hf 1 i + hf 2 i<br />
Esta propiedad es similar para el caso de variables aleatorias discretas.<br />
(b) Si una función de un vector aleatorio r es multiplicado por una constante nuérica a, el<br />
valor medio del producto es igual al valor medio de f 1 multiplicado por a. Deotramanera,<br />
esta propiedad es formulada como sigue: un factor constante puede ser removido<br />
del operador del valor medio. La prueba es como sigue:<br />
Z<br />
Z<br />
haf 1 i = af 1 wdτ = a f 1 wdτ = a hf 1 i<br />
(la prueba es similar para el caso discreto)<br />
(c) Si existen varias funciones (por ejemplo, tres) f 1 ,f 2 , y f 3 de las componentes x, y, z del<br />
vector aleatorio r = {x, y, z}, ysi las variables aleatorias x, y, z son independientes,<br />
de modo que<br />
w(x, y, z) dτ = w x dx · w y dy · w z dz<br />
el valor medio del producto f 1 (x) · f 2 (y) · f 3 (z) es igual al producto de sus valores<br />
medios.<br />
22
En efecto,<br />
hf 1 · f 2 · f 3 i =<br />
=<br />
Z Z Z<br />
f 1 (x) f 2 (y) f 3 (z) w x (x) w y (y) w z (z) dx dy dz<br />
Z<br />
Z<br />
Z<br />
f 1 (x) w z (x) dx · f 2 (y) w y (y) dy · f 3 (z) w z (z) dz<br />
= hf 1 i·hf 2 i·hf 3 i<br />
(d) La dispersión de la suma de varias variables aleatorias independientes es igual a la<br />
suma de sus dispersiones.<br />
Sea x, y, z variables aleatorias independientes; luego, por definición, tenemos<br />
D<br />
D(x + y + z) = (x + y + z) 2E − hx + y + zi 2<br />
Obteniendo el cuadrado del primer paréntesis y usando la propiedad (a) en el segundo<br />
paréntsis:<br />
D(x + y + z) = ¡ x 2 + y 2 + z 2 +2xy +2xz +2yz ¢®<br />
− (hxi + hyi + hzi) 2<br />
Obteniendo el cuadrado del segundo paréntesis y aplicando la propiedad (a) al primero:<br />
D(x + y + z) = ( x 2® + y 2® + z 2® + h2xyi + h2xzi + h2yzi<br />
− hxi 2 − hyi 2 − hzi 2<br />
−2 hxihyi − 2 hxihzi − 2 hyihzi)<br />
En virtud de la propiedad (b), removemos el factor 2 del operador valor medio de modo<br />
que, por ejemplo, h2xyi =2hxyi. Y, puesto que las cantidades x, y, z son independientes,<br />
de acuerdo a la propiedad (c) tenemos<br />
hxyi = hxihyi ; hxzi = hxihzi ; hyzi = hyihzi<br />
y ahora vemos que todos los términos contienen productos de los valores medios de<br />
diferentes variables aleatorias cancelándose unos con otros. En consecuencia,<br />
D(x + y + z) = x 2® − hxi 2 + y 2® − hyi 2 + z 2® − hzi 2<br />
= D(x)+D(y)+D(z)<br />
Las propiedades anteriores nos permiten a menudo simplificar los cálculos de los valores<br />
medios y de dispersión. Nuevamente vamos a considerar el ejemplo del número de<br />
párticulas en el volumen ∆τ. Si asociamos a cada molécula la variable aleatoria n A que<br />
toma el valor de 1 cuando la molécula está en ∆τ y el valor de 0 cuando está fuera de<br />
este volumen, el número de partículas en ∆τ puede ser considerado como la suma de estas<br />
variables aleatorias para todas las moléculas del gas. En virtud de la propiedad (a), el valor<br />
medio del número de partículas es igual a la suma de la esperanza matemática de n A .Esta<br />
última cantidad es calculada por la fórmula general<br />
hn A i =1× ∆τ<br />
V +0× µ<br />
1 − ∆τ <br />
V<br />
= Λτ<br />
V<br />
23
Puesto que la esperanza matemática para todas las moléculas es la misma, su suma es evaluada<br />
multiplicando la expresión obtenida por el número total de moléculas N. Enconsecuencia,<br />
hni = N ∆τ<br />
V<br />
La dispersión del número de partículas en ∆τ se puede evaluar rápidamente. Primero es<br />
necesario encontrar nA® 2 :<br />
n<br />
2<br />
A<br />
® =1 2 × ∆τ<br />
V +02 ×<br />
y entonces la dispersión de esta cantidad es<br />
Dn A = n 2 ®<br />
A − hnA i 2 = ∆τ<br />
V<br />
µ<br />
1 − ∆τ<br />
V<br />
<br />
= ∆τ<br />
V<br />
µ 2 ∆τ<br />
− = ∆τ µ<br />
V V<br />
1 − ∆τ<br />
V<br />
La dispersión del número total de partículas en ∆τ está determinada con la ayuda de la<br />
propiedad (d). Esto es<br />
D = NDn A = N ∆τ µ<br />
1 − ∆τ <br />
V V<br />
El cálculo directo de esta cantidad es considerablemente más incómodo.<br />
2.3 Distribución de Poisson<br />
En el Capítulo 1, mencionamos que el uso de la distribución biniomial para calcular probabilidades,<br />
cuando el número de moléculas es muy grande, no era conveniente, y obteníamos<br />
la fórmula de Stirling para facilitar la evaluación de factoriales muy grandes. Usando la<br />
fórmula de Stirling, podemos simplificar la distribución binomial y reducirla a otra distribución<br />
que puede ser nás conveniente para los cálculos.<br />
En la presente seección, cuando el número de moléculas N es muy grande, y pequeños<br />
valores para el número n de moléculas en ∆τ será el principal interés, es decir, asumimos<br />
que para grandes valores de n la probabilidad es muy baja de modo que puede ser ignorado.<br />
Supongamos que, por ejemplo, que un recipiente contiene N moléculas, donde N es del<br />
orden de 10 19 . Separemos al volumen ∆τ es muy péqueño en comparación con el volumen<br />
V del recipiente de modo que podemos encontrar n =0, 1, 2 o 3 moléculas en él, y la<br />
probabilidad de que el número de moléculas exceda por ejemplo el valor de n =10,esmuy<br />
baja. Para este propósito, el volumen debe ser tal que el número medio de moléculas en él,<br />
dado por hni = N (∆τ/V ) debe ser más pequeño que el número lómite n =10que hemos<br />
elegido, por ejemplo, hni =3. Naturalmente, el número 3 ha sido elegido arbitrariamente<br />
y perfectamente puede ser otro número que sea suficientemente pequeño en comparación<br />
con el número total de moléculas N; sin embargo para valores relativamente grandes es<br />
más conveniente usar una aproximación diferente de la distribución binomial que daremos<br />
en la próxima sección y que a sabiendas es inadecuada para valores bajos de hni (como<br />
hni ≤ 3)<br />
<br />
24
El valor exacto de la probabilidad según la fórmula de la distribución binomial es<br />
µ n µ<br />
N! ∆τ<br />
W (n) =<br />
1 − ∆τ N−n<br />
n!(N − n)! V V<br />
Tomando en cuenta el hecho de que N y N − n son números muy grandes, reemplazamos<br />
los factoriales usando la aproximación de la fórmula de Stirling<br />
N N e − N N 1/2√ µ n µ<br />
2π<br />
∆τ<br />
W (n) =<br />
n!(N − n) N−n e −N+n (N − n) 1/2√ 2π × 1 − ∆τ N−n<br />
V V<br />
Dividiendo tanto el numerador como el denominador por √ 2π×N N−n N 1/2 e N , nos queda<br />
W (n) =<br />
N n (∆τ/V ) n (1 − ∆τ/V ) N−n<br />
(2.13)<br />
n!(1 − n/N) N−n e N (1 − n/M) 1/2<br />
El factor en el denominador, esto es<br />
(1 − n/N) N−n =<br />
(1 − n/N)N<br />
(1 − n/N) n<br />
es transformado como sigue. Se sabe del análisis que la expresión (1 − n/N) N cuando<br />
N →∞(en términos prácticos, cuando N es suficientemente grande) es igual a e −n .La<br />
expresión (1 − n/N) n , cuando n/N es una cantidad muy pequeña, está muy cerca de la<br />
unidad. Si tenemos que n ¿ √ N, por ejemplo n =0.3 √ N, entonces<br />
³<br />
1 − n ´n<br />
N<br />
=<br />
µ<br />
1 − 0.3 √<br />
N<br />
0.3<br />
√<br />
N<br />
=<br />
" µ<br />
1 − 0.3 √<br />
N<br />
√ N #0.3<br />
= ¡ e −0.3¢ 0.3<br />
= e −0.09 =0.91<br />
De ahí que<br />
³<br />
1 − n ´N−n<br />
≈ e<br />
− n<br />
N<br />
Naturalmente, con las suposiciones que hemos hecho. el otro factor del denominador de<br />
(2.13) también se aproxima a la unidad:<br />
³<br />
1 − n ´1/2<br />
≈ 1<br />
N<br />
Para completar nuestros cálculos, nos queda por considerar la expresión encontrada en el<br />
numerador de (2.13):<br />
³<br />
µ<br />
1 − ∆τ N−n 1 − N (∆τ/V )<br />
´N<br />
N<br />
=<br />
V<br />
(1 − ∆τ/V ) n (2.14)<br />
Si n∆τ ¿ V , por analogía al razonamiento anterior, el denominador de (2.14) es igual a<br />
la unidad. La cantidad N(∆τ/V ) es igual al valor medio del número de moléculas en ∆τ,<br />
y que denotamos por hni,esmáspequeñoqueN, y además<br />
µ<br />
1 − ∆τ N<br />
= e −hni<br />
N<br />
25
Para la probabilidad en la que estamos interesado, hemos encontrado la siguiente expresión:<br />
W (n) = [N (∆τ /V)]n e − hni<br />
− hni<br />
hni e<br />
n! e − n e n = (2.15)<br />
n!<br />
la fórmula (2.15) se conoce como la distribución de Poisson. Ella determina la probabilidad<br />
de encontrar n moléculas en ∆τ (cuando el valor medio del número de moléculas en<br />
∆τ es igual a hni) y esta distribución es correcta si el número de moléculas en el recipiente<br />
es más grande que hni 2 .<br />
Puesto que la distribución de Poisson es el caso límite de una binomial cuando hni 2 ¿<br />
N, o, en otras palabras, cuando hni /N = ∆τ/N → 0, la dispersión de una variable<br />
aleatoria que se distribuye según una Poisson es obtenida de la fórmula (tanto tanto) por el<br />
mismo proceso de límite, es decie, la dispersión es igual al valor medio:<br />
D = hni<br />
2.4 Distribución Gaussiana<br />
Otra distribución muy útil se puede utilizar no solo cuando el número de moléculas N es<br />
suficientemente grande si no que también cuando el número de molécula n en el volumen<br />
∆τ lo es, así como el número N-n de moléculas que quedan fuera del volumen ∆τ. Este<br />
caso se realiza a menudo en la práctica puesto que para que ocurra es suficiente que el<br />
número medio de moléculas en el elemento<br />
hni = N ∆τ<br />
(2.16)<br />
V<br />
sea grande, pero no demasaido cercano al número total de moléculas, en otras palabras,<br />
el volumen ∆τ no debe ser demasiado pequeño en comparación con V , ni tampoco muy<br />
cercano a este volumen. Veremos en lo que sigue que la distribusión Gaussiana es suficientemente<br />
precisa si hni y N − hni son mayores que 3, y su precisión aumenta cuando hni y<br />
N − hni crecen.<br />
La probabilidad de que el volumen ∆τ contenga n partículas de modo que el número<br />
medio de partícula en ∆τ sea hni y el número medio de partículas N −hni fueradeestevolumen<br />
sean suficientemente grandes está dada por la fórmula conocida como distribución<br />
Gaussiana,<br />
"<br />
#<br />
1 (n − hni)2<br />
W (n) = √ exp − (2.17)<br />
2π D 2D<br />
La distribución Gaussiana (2.17) es usada con más fracuencia cuando el número de<br />
moléculas en ∆τ es muy grande. En la práctica, virtualmente no conocemos la probabilidad<br />
de encontrar n moléculas exactas en el volumen ∆τ; por lo general estamos interesados<br />
en la probabilidad δW de que el número de moléculas esté dentro del intervalo de valores<br />
desde n hasta n + δn. Si la cantidad δn es suficientemente pequeña (mucho más pequeña<br />
que √ D), la probabilidad calculada por (2.17) para cualquier n del intervalo de longitud<br />
δn es virtualmente la misma. Desde esta condición, la probabilidad δW se obtiene multiplicando<br />
la probabilidad W (n) por δn, considerando cualquier n arbitario del intervalo de<br />
26
longitud δn,estoes<br />
δW =<br />
"<br />
1<br />
√ exp − 2π D<br />
#<br />
(n − hni)2<br />
2D<br />
δn (2.18)<br />
La fórmula (2.20) nos muestra que cuando se trabaja con un gran número de moléculas la<br />
variable n puede considerarse como una variable aleatoria continua, y la probabilidad de<br />
que su valor se encuentre entre n y n + δn está determinado por la fórmula (2.18), es decir,<br />
la densidad de la probabilidad es<br />
w(n) =<br />
"<br />
1<br />
√ exp −<br />
2π D<br />
#<br />
(n − hni)2<br />
2D<br />
Si es necesario determinar la probabilidad W del hecho de que n esté contenido en el intervaloquevadesden<br />
1 hasta n 2 , y suponiendo que este intervalo no es pequeño en comparación<br />
con √ D, será necesario tomar en cuenta los cambios en la densidad de probabilidad<br />
en este intervalo, y considerando el caracter de variable aleatoria contínua que tiene n,<br />
tenemos que<br />
W =<br />
Zn 2<br />
n 1<br />
w(n) dn =<br />
Zn 2<br />
"<br />
√ exp −<br />
2π D<br />
n 1<br />
1<br />
#<br />
(n − hni)2<br />
dn<br />
2D<br />
Exactamente de la misma manera que cuando determinamos el valor medio de la función<br />
f(n) de el número de moléculas n, debemos usat la fórmula para el cálculo de los valores<br />
medios de variables aleatorias continuas:<br />
hf(n)i =<br />
Z ∞<br />
−∞<br />
f(n)<br />
1<br />
√<br />
2π D<br />
exp<br />
"<br />
−<br />
#<br />
(n − hni)2<br />
dn (2.19)<br />
2D<br />
Hacemos notar que la distribución Gaussiana se utiliza muy a menudo y describe el comportamientodeungrannúmerodevariablesaleatoriascontinuas,ynosoloenlasituación<br />
descrita aquí. Existen razones para esto. El punto central es que para un gran número<br />
de pruebas la distribución Gaussiana es el límite de una serie completa de distribuciones.<br />
Existe un teorema, que debido a su importancia es conocido como el teorema central del<br />
límite de la teoría de la probabilidad, que establece condiciones generales suficientes para<br />
que la distribución Gaussiana sea el límite. A la distribución Gaussiana se le llama también<br />
distribución normal. La extendida dispersión de la ley normal proporcinó las bases para<br />
la ingeniosa observación que los físicos consideran la dispersión a gran escala de la ley<br />
normal para que sea un teorema matemático, mientras que los matemáticos consideran que<br />
es un hecho experimentalmente establecido. Debe ser tenido en cuenta naturalmente, que<br />
la distribución Gaussiana, aunque de uso frecuente, no es la úncia posible.<br />
Si una variable aleatoria continua odedece la ley normal de distribución, la probabilidad<br />
de que los valores de esta variable z se encuentren en el intervalo que va desde z<br />
hasta z + dz, que llamaremos dW, está determinada por la fórmula<br />
dW (z) =<br />
1<br />
√<br />
2π D<br />
exp<br />
"<br />
−<br />
(z − hzi)2<br />
2D<br />
#<br />
dz (2.20)<br />
27
donde hzi es el valor medio, y D es la dispersión de la variable aleatoria z.<br />
Podemos comparar la aproximación Gaussiana de la fórmula (1) con la fórmula de la<br />
distribución binomial, para los valores de N =6y ∆τ/V =0.5, donde se considera que<br />
hni =3,yD = N(∆τ/V )(1 − ∆τ/V )=<strong>1.</strong>5<strong>1.</strong> Los valores comparativos se entregan en<br />
la siguiente tabla:<br />
Normal Binomial<br />
0.016488 0.015625<br />
0.086337 0.09375<br />
0.23314 0.234375<br />
0.32465 0.3125<br />
0.23314 0.234375<br />
0.086337 0.09375<br />
0.016488 0.015625<br />
La primera columna fue obtenida de la fórmula<br />
W (n) =<br />
"<br />
1<br />
√ exp − 2π <strong>1.</strong>51<br />
#<br />
(n − 3)2<br />
2<strong>1.</strong>51<br />
y la segunda columna de<br />
6!<br />
W (n) =<br />
n!(6 − n)! 0.5n (1 − 0.5) 6 − n<br />
en los valores n =0, 1, 2, 3, 4, 5, 6. Como podemos observar los valores están muy cercanos.<br />
Para valores más grande de hni y N − hni la diferencia entre los resultados es<br />
extremadamente insignificante.<br />
2.5 Probabilidad como medida de incertidumbre<br />
La probabilidad de un evento puede ser la medida de su incertidumbre. Estoesbastante<br />
evidente cualitativamente. Si la probabilidad es baja, un evento raramente sucede, consecuentemente,<br />
se puede decir que está en la categoría de los secuesos de incertidumbre.<br />
Inversamente, si la probabilidad es cercana a uno, es un evento que ocurre a menudo, y<br />
desde este punto de vista se relaciona con los evento esperados comunes.<br />
En la teoría de la información se conviene tomar como medida de la incertidumbre de<br />
un evento el logaritmo natural de su probabilidad W con el signo opuesto: −lnW.<br />
La medida de incertidumbre elegida de esta manera transmite de manera correcta muchas<br />
de nuestras nociones intuitivas de las propiedades que debe poseer. Ciertamente, como la<br />
probabilidad es una cantidad menor o igual a 1, entonces su logaritmo tomado con el signo<br />
menos será positivo, en otras palabras, la incertidumbre es una cantidad positiva. Si un<br />
evento es seguro su probabilidad es 1, y su logaritmo es cero, de modo que su incertidumbre<br />
es cero, de modo que la incertidumbre de un evento seguro es cero. Finalmente, si un<br />
evento consiste de dos eventos independientes, y como la probabilidad es igual al producto<br />
de las probabilidades, la incertidumbre de un evento compuesto es igual a la suma de las<br />
incertidumbres de los eventos simples que lo componen.<br />
Consideraremos un ejemplo para ilustrar este concepto. Supongamos que un recipiente-<br />
28
conriene tres moléculas y que tenemos una porción de volumen del 0.1 del volumen total,<br />
esto es ∆τ/V =0.<strong>1.</strong> ¿Cuál es la incertidumbre del evento que este volumen contenga las<br />
moléculas La probabilidad del evento que estamos interesado, de acuerdo a la distribución<br />
binomial, es<br />
µ 3 ∆τ<br />
W (3) = =10 −3<br />
V<br />
De esto se concluye que sunincertidumbre es<br />
− ln W (3) = 3 · ln(10) = 6. 9078<br />
El mismo rsultado se podía haber obtenido de una forma diferente. El evento considerado<br />
consiste en la ocurrencia de tres eventos independientes, digamos, la obtención de cada<br />
una de las tres moléculas en ∆τ. La inceridumbre de obtener una molécula en el volumen,<br />
puesto que la probabilidad de este evento es W = ∆τ/V =0.1,es<br />
− ln W =ln10=2.3<br />
La incertidumbre de obtener las tres moléculas es tres veces este producto, y así obtenemos<br />
el mismo resultado.<br />
Puesto que la razón ∆τ/V es pequeña, la probabilidad de encontrar molécula allí es<br />
baja, y será menos sorprendente si las tres moléculas estén fuera de ∆τ. ¿Cuál es la probabilidad<br />
de este evento Puesto que la probabilidad relevante es<br />
µ<br />
W (0) = 1 − ∆τ 3<br />
=0.9 3<br />
V<br />
y tomando en cuenta que ∆τ ¿ 1, tenemos que la incertidumbre es aproximadamente<br />
µ<br />
−3ln 1 − ∆τ <br />
≈ 3 ∆τ<br />
V V =0.3<br />
El valor numérico en este caso es mucho menor que el precedente.<br />
Disminución de la incertidumbre puede considerarse como un aumento de la información<br />
que se desprende de esta medición.<br />
2.6 Entropia y aleatoriedad<br />
En la sección precedente, introducimos una medida de incertidumbre para un evento aleatorio.<br />
Supongamos que estamos considerando un conjunto completo de eventos mutuamente<br />
excluyentes. cada uno de estos eventos tiene su propia incertidumbre, y nos gustaría encontrar<br />
una característica que es común para el sistema entero. Tal característica, conocida<br />
como la entropía olaentropía de la información, es introducida como el valor medio de<br />
la incertidumbre para el sistema completo, es decir, la incertidumbre de cada evento es multiplicada<br />
por la probabilidad W i de este evento, y todos estos productos se suman. Luego,<br />
designando la entropía por S, podemos llegar a una expresión matemática definiendo la<br />
cantidad:<br />
NX<br />
S = − W i ln W i (2.21)<br />
i=1<br />
donde la suma es desarrollada sobre todos los eventos que forman la colección completa. La<br />
29
entropía caracteriza el grado de indeterminancia o aleatoriedad que ocurre en una situación<br />
dada. para explicar este significado de entropía, volvamos al ejemplo precedente considerado<br />
que la molécula A en un recipiente de volumen V puede estar o no estar en el volumen<br />
∆τ.<br />
Supongamos primeramente que el volumen ∆τ es muy pequeño en comparación con<br />
V . Es intuitivamente obvio que en este caso la indeterminancia de la situación es muy<br />
pequeña porque la molécula con toda seguridad estará fuera de ∆τ. La entropía refleja esta<br />
noción. Necesariamente, la probabilidad de obtener la molécula en ∆τ es W 1 = ∆τ/V ,y<br />
la probabilidad de no encontrarla en ∆τ es W 2 =1−W 1 =(1− ∆τ/V ).Paralaentropía,<br />
consecuentemente, tenemos<br />
S = − ∆τ<br />
V<br />
µ<br />
∆τ<br />
ln<br />
V −<br />
1 − ∆τ<br />
V<br />
µ<br />
ln<br />
1 − ∆τ<br />
V<br />
Si ∆τ/V es muy pequeño, no resulta complicado verificar que el valor de S será también<br />
muy pequeño. En efecto, basta verificar que la siguiente igualdad es correcta<br />
lim x ln x +(1− x)ln(1− x) =0<br />
x→0 +<br />
No resulta complicado verificar que el resultado es el mismo cuando ∆τ está muy cerca<br />
de V . En este caso la molécula A ciertamente deberá estar contenida en ∆τ. La indeterminancia<br />
de la situación es pequeña y por lo tanto la entropía será baja.<br />
¿En que caso una gran indeterminancia puede conseguirse Intentemos responder esta<br />
pregunta despues de establecer las condiciones en que la entropía alcanza su valor máximo<br />
considerándolo como una función de la probabilidad W 1 = ∆τ/V . Derivando la entropía<br />
S como función de W 1 , tenemos que<br />
dS d<br />
= [−W 1 ln W 1 − (1 − W 1 )ln(1− W 1 )]<br />
dW 1 dW 1<br />
= − ln W 1 − 1+ln(1− W 1 )+1=0<br />
Se sigue de esta ecuación que W 1 =(1− W 1 ),estoes<br />
W 1 = ∆τ<br />
V = 1 2<br />
Entonces, el estado de mayor indeterminancia es alcanzado cuando ∆τ es la mitad del<br />
volumen V .<br />
Unamedidadelaindeterminanciaoaleatoriedaddeunasituacióncaracterizadapor<br />
una colección completa de eventos mutuamente excluyentes con probabilidades W i como<br />
la que establece la fórmula (2.21) es llamada la entropía de la información.<br />
<br />
30