09.05.2013 Views

Ver/Abrir - Repositorio Digital - Instituto Politécnico Nacional

Ver/Abrir - Repositorio Digital - Instituto Politécnico Nacional

Ver/Abrir - Repositorio Digital - Instituto Politécnico Nacional

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

determinarse con certeza. Por ello, para describir la manera en que el sistema<br />

cambia de un periodo al siguiente Se emplean probabilidades de transición. Por<br />

tanto, estamos interesados en la probabilidad de que el sistema esté en un<br />

estado particular en un periodo dado. (Anderson, Sweeney, Williams, 2004).<br />

Tales procesos de Markov se conocen como cadenas de Markov con<br />

probabilidades de transición estacionarias.<br />

Las cadenas de Markov tienen la propiedad particular de que las<br />

probabilidades que describen la forma en que el proceso evolucionará en el<br />

futuro dependen sólo del estado actual en que se encuentra el proceso y, por lo<br />

tanto, son independientes de los eventos ocurridos en el pasado. Muchos<br />

procesos se ajustan a esta descripción, por lo que las cadenas de Markov<br />

constituyen una clase de modelo probabilístico de gran importancia (Hillier,<br />

Lieberman, 2007).<br />

4.6.2 Supuestos de las Cadenas de Markov<br />

Es necesario hacer algunos supuestos sobre la distribución conjunta de<br />

X0, X 1,...<br />

para obtener resultados analíticos. Un supuesto que conduce al<br />

manejo analítico es que el proceso estocástico es una cadena de Markov, que<br />

tiene la siguiente propiedad esencial:<br />

Se dice que un proceso estocástico { X t}<br />

tiene la propiedad markoviana si<br />

{ t+ 1 = 0 = 0, 1 = 1,..., t−1 = t−1, t = } = { t−1 = t = } , para t = 0,1,... y<br />

P X jX k X k X k X i P X jX i<br />

toda sucesión i, jk , 0, k1,..., kt− 1.<br />

(Hillier, 2004)<br />

Es decir, esta propiedad markoviana establece que la probabilidad<br />

condicional de cualquier “evento” futuro dados cualquier “evento” pasado y el<br />

estado actual Xt= i,<br />

es independiente de los eventos pasados y sólo depende<br />

del estado actual del proceso.<br />

Un proceso estocástico { X t}<br />

( 0,1,... )<br />

propiedad markoviana.<br />

64<br />

t = es una cadena de Markov si presenta la

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!