05.06.2013 Views

File - unam

File - unam

File - unam

SHOW MORE
SHOW LESS

Create successful ePaper yourself

Turn your PDF publications into a flip-book with our unique Google optimized e-Paper software.

I(f, g(·| ˆ θ(y))) es una variable aleatoria.<br />

Necesitamos usar la esperanza de la información K-L para medir la divergencia entre<br />

g y f.<br />

Obtengamos pues el AIC, buscamos<br />

Sabemos que<br />

Ey<br />

<br />

I(f, g(·| ˆ <br />

θ(y))) =<br />

Ω<br />

minimizarg∈GEy<br />

<br />

f(x)log(f(x))dx −<br />

<br />

I(f, g(·| ˆ <br />

θ(y)))<br />

Ω<br />

<br />

f(y)<br />

Ω<br />

<br />

f(x)log g(x| ˆ θ(y))<br />

<br />

<br />

dx dy<br />

<br />

EyEx[log(g(x| ˆ θ(y)))<br />

donde, G es la colección de modelos admisibles en términos de funciones de densidad, ˆ θ es<br />

el estimador de máxima verosimilitud basado en el modelo g y los datos y y y es la muestra<br />

aleatoria de la función de densidad f(x)<br />

Por ende, el criterio de selección se obtendrá a partir de<br />

Maximizarg∈GEyEx[log(g(x| ˆ θ(y)))]<br />

Akaike demostró un estimador insesgado EyEx[log(g(x| ˆ θ(y)))] para grandes muestras<br />

y un buen modelo es<br />

log(L( ˆ θ(y)) − k<br />

donde, L es la función de verosimilitud, ˆ θ es el estimador de ML de θ y k número de<br />

parámetros estimados. Por buen modelo se debería entender aquel modelo que es cercano a<br />

f en el sentido de tener un valor K-L pequeño.<br />

6

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!