25.06.2014 Views

Diseño experimental y análisis de resultados

Diseño experimental y análisis de resultados

Diseño experimental y análisis de resultados

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

DISEÑO EXPERIMENTAL<br />

Y ANALISIS DE<br />

RESULTADOS<br />

– Introducción<br />

– Simulación <strong>de</strong> variables aleatorias<br />

– Análisis <strong>de</strong> datos<br />

– Organización <strong>de</strong> simulaciones (o experimentos)<br />

– Selección <strong>de</strong> entradas : diseños factoriales<br />

– Comparación <strong>de</strong> diseños alternativos<br />

– Análisis <strong>de</strong> regresión<br />

1


INTRODUCCION<br />

Técnicas básicas en la evaluación <strong>de</strong>l rendimiento<br />

<strong>de</strong> sistemas :<br />

– Medición<br />

– Simulación<br />

– Mo<strong>de</strong>lado anaĺıtico<br />

Medición y simulación : se requieren técnicas<br />

estadísticas para diseñar experimentos, recoger<br />

datos, análisis <strong>de</strong> datos.<br />

2


Medición<br />

Experimentación con un sistema real.<br />

Medición <strong>de</strong> parámetros <strong>de</strong> rendimiento por<br />

hardware, software, métodos híbridos.<br />

Factores no controlados en la experimentación<br />

:<br />

– análisis estadístico <strong>de</strong> las medidas,<br />

– selección <strong>de</strong> entradas y salidas.<br />

3


Simulación<br />

Elaboración y ejecución <strong>de</strong> un programa que<br />

representa el funcionamiento <strong>de</strong> un sistema.<br />

Una simulación requiere :<br />

– construir un mo<strong>de</strong>lo <strong>de</strong>l funcionamiento <strong>de</strong>l<br />

sistema,<br />

– suministrar una representación (mo<strong>de</strong>lo) o<br />

una traza <strong>de</strong> la carga.<br />

Cuestiones en una simulación :<br />

– nivel <strong>de</strong> <strong>de</strong>talle <strong>de</strong>l sistema que se mo<strong>de</strong>la,<br />

– análisis estadístico <strong>de</strong> los <strong>resultados</strong>,<br />

– diseño <strong>de</strong>l experimento para que sea factible.<br />

4


Técnicas <strong>de</strong> simulación<br />

Simulación <strong>de</strong> eventos discretos : el estado <strong>de</strong>l<br />

sistema se actualiza cada vez que ocurre un<br />

evento. (Llegada <strong>de</strong> un cliente a una cola, adquisición<br />

<strong>de</strong> un recurso, finalización <strong>de</strong> un servicio,<br />

etc.)<br />

Generación <strong>de</strong> eventos :<br />

– siguiendo una traza, medición <strong>de</strong> un sistema<br />

real, se preserva el <strong>de</strong>talle <strong>de</strong> las entradas,<br />

– siguiendo una distribución (mediante algoritmos<br />

que simulan variables aleatorias), mo<strong>de</strong>lo<br />

compacto, reproducible y modificable<br />

<strong>de</strong> la carga.<br />

Simulación siguiendo una distribución : algoritmos<br />

que generan números aleatorios <strong>de</strong> acuerdo<br />

con la distribución dada. Algoritmo <strong>de</strong>terminista,<br />

requiere una semilla (número) inicial.<br />

5


SIMULACION DE VARIABLES<br />

ALEATORIAS<br />

Partimos <strong>de</strong> un algoritmo (software) generador<br />

<strong>de</strong> una secuencia <strong>de</strong> números aleatorios distribuidos<br />

uniformemente entre 0 y 1 : unif(0, 1).<br />

Algoritmo <strong>de</strong>terminista, una semilla (un número<br />

entero) inicial <strong>de</strong>termina la secuencia generada<br />

:<br />

– se proporciona la semilla,<br />

– el software recurre al reloj <strong>de</strong>l computador,<br />

– etc.<br />

Un software : java.util.Random<br />

Métodos básicos para generar variables aleatorias<br />

continuas : método <strong>de</strong> transformación<br />

inversa, método <strong>de</strong> rechazo.<br />

6


Método <strong>de</strong> transformación inversa<br />

U variable aleatoria uniforme en (0, 1).<br />

X variable aleatoria con una función <strong>de</strong> distribución<br />

F (x) :<br />

X = F −1 (U)<br />

(Interpretar discretizando x.)<br />

Generar u con unif(0, 1), x = F −1 (u).<br />

Ejemplo : variable aleatoria exponencial,<br />

F (x) = 1 − e −λx<br />

X = − 1 λ log(1 − U) 7


Método <strong>de</strong> rechazo<br />

No existe una expresión expĺıcita <strong>de</strong> F −1<br />

Planteamiento :<br />

– queremos generar X, con <strong>de</strong>nsidad f(x),<br />

– po<strong>de</strong>mos generar Y , con <strong>de</strong>nsidad g(y).<br />

Requisito : para cierta constante c,<br />

f(x) ≤ c g(x) ,<br />

∀x<br />

(mejor c mínima)<br />

Iterar :<br />

1. Generar un valor Y = y,<br />

2. Generar un valor U=u, unif(0, 1), y proporcionar<br />

X = y si :<br />

u ≤ f(y)/cg(y)<br />

(aceptar con probabilidad f(y)/cg(y))<br />

8


Ejemplo : variable aleatoria normal a partir <strong>de</strong><br />

una variable exponencial (asignar ± aleatoriamente).<br />

Distribuciones <strong>de</strong> variables discretas<br />

Trivial : versión discretizada <strong>de</strong>l método <strong>de</strong><br />

transformación inversa.<br />

9


ANALISIS DE DATOS<br />

Sistemas con carga no <strong>de</strong>terminista, factores<br />

in<strong>de</strong>terminados : <strong>resultados</strong> aleatorios. Parámetros<br />

<strong>de</strong> rendimiento : se necesitan varias observaciones.<br />

1. ¿Cómo estimar el valor promedio <strong>de</strong>l parámetro<br />

<strong>de</strong> rendimiento a partir <strong>de</strong> varias<br />

observaciones ?<br />

2. ¿Un mayor número <strong>de</strong> observaciones proporciona<br />

una estimación más fiable ?<br />

3. ¿Cómo caracterizar el error <strong>de</strong> la estimación<br />

en función <strong>de</strong>l número <strong>de</strong> observaciones<br />

?<br />

4. ¿Cómo realizar los experimentos para que<br />

la caracterización <strong>de</strong>l error sea fiable ?<br />

5. ¿Cómo reducir el número necesario <strong>de</strong> observaciones<br />

?<br />

10


X parámetro <strong>de</strong> rendimiento <strong>de</strong>l sistema : variable<br />

aleatoria con distribución <strong>de</strong>sconocida.<br />

Media s y varianza σ 2 <strong>de</strong>sconocidos : estimar<br />

<strong>experimental</strong>mente.<br />

X 1 , X 2 , . . . , X n observaciones <strong>experimental</strong>es<br />

<strong>de</strong>l parámetro X, en principio no in<strong>de</strong>pendientes<br />

entre si.<br />

X i observación i-ésima <strong>de</strong>l sistema, varible aleatoria<br />

: media s y varianza σ 2 .<br />

Un estimador <strong>de</strong> s, <strong>de</strong> la esperanza <strong>de</strong> X :<br />

X = 1 n<br />

n∑<br />

X i<br />

i=1<br />

X es un estimador no sesgado :<br />

E[X] = s<br />

11


X es un estimador más fiable aumentando el<br />

número <strong>de</strong> observaciones :<br />

[ (X ) ] 2<br />

Var(X) = E − s =<br />

= E<br />

⎡⎛<br />

⎢<br />

⎣<br />

⎝ 1 n<br />

n∑<br />

i=1<br />

(X i − s)<br />

⎞<br />

⎠2 ⎤ ⎥ ⎦ =<br />

= σ2<br />

n + 2 n 2 ∑<br />

i<br />

∑<br />

j>i<br />

Cov(X i , X j )<br />

– Observaciones in<strong>de</strong>pendientes,<br />

Cov(X i , X j ) = 0 : la varianza <strong>de</strong>crece,<br />

Var(X) → 0, con n → ∞<br />

– Condición más débil,<br />

Cov(X i , X i+m ) = 0 para m → ∞ : la varianza<br />

<strong>de</strong>crece con n.<br />

12


Determinar cuantitativamente la bondad <strong>de</strong>l<br />

estimador X : intervalo en torno al resultado<br />

X que incluye s con cierta probabilidad. Necesitamos<br />

estimar la varianza.<br />

Estimador <strong>de</strong> σ 2 , la varianza <strong>de</strong> X :<br />

δ 2 X = 1<br />

n − 1<br />

don<strong>de</strong> X = 1/n ∑ i X i<br />

n∑<br />

i=1<br />

Esperanza <strong>de</strong>l estimador :<br />

E [ δ 2 X]<br />

= σ 2 −<br />

2<br />

n(n − 1)<br />

(X i − X) 2<br />

∑<br />

i<br />

∑<br />

j>i<br />

Para observaciones in<strong>de</strong>pendientes,<br />

estimador no sesgado : E[δ 2 X ] = σ2<br />

Cov(X i , X j )<br />

Varianza <strong>de</strong> X, σ 2 /n para observaciones in<strong>de</strong>pendientes,<br />

estimador <strong>de</strong> Var(X) :<br />

Decrece con n.<br />

δ 2 X = δ2 X<br />

n<br />

13


Para cuantificar, con una probabilidad, el margen<br />

<strong>de</strong> error <strong>de</strong>l valor estimado : distribución<br />

<strong>de</strong> X = 1/n ∑ i X i<br />

Variable aleatoria normalizada :<br />

Y = (X − s) √ n/σ<br />

Si las variables (in<strong>de</strong>pendientes) X 1 , . . . , X n siguen<br />

la distribución normal N (s, σ), entonces<br />

Y sigue la t-distribución estándar con n−1 grados<br />

<strong>de</strong> libertad. (Ver tabla.)<br />

Teorema <strong>de</strong>l ĺımite central : variables (in<strong>de</strong>pendientes)<br />

X 1 , . . . , X n con distribución cualquiera,<br />

Y tien<strong>de</strong> a la distribución normal N (0, 1) con<br />

n → ∞.<br />

14


Tabla <strong>de</strong> la t-distribución estándar : df grados<br />

<strong>de</strong> libertad, α probabilidad <strong>de</strong> cola.<br />

df \ α 0.10 0.05 0.025<br />

1 3.077684 6.313752 12.70620<br />

2 1.885618 2.919986 4.30265<br />

3 1.637744 2.353363 3.18245<br />

4 1.533206 2.131847 2.77645<br />

5 1.475884 2.015048 2.57058<br />

6 1.439756 1.943180 2.44691<br />

7 1.414924 1.894579 2.36462<br />

8 1.396815 1.859548 2.30600<br />

9 1.383029 1.833113 2.26216<br />

10 1.372184 1.812461 2.22814<br />

inf 1.281552 1.644854 1.95996<br />

15


Continuación<br />

df \ α 0.01 0.005<br />

1 31.82052 63.65674<br />

2 6.96456 9.92484<br />

3 4.54070 5.84091<br />

4 3.74695 4.60409<br />

5 3.36493 4.03214<br />

6 3.14267 3.70743<br />

7 2.99795 3.49948<br />

8 2.89646 3.35539<br />

9 2.82144 3.24984<br />

10 2.76377 3.16927<br />

inf 2.32635 2.57583<br />

16


Cuantificar la bondad <strong>de</strong>l estimador X<br />

Intervalo <strong>de</strong> confianza : s ± e<br />

Nivel <strong>de</strong> confianza :<br />

P = 1 − 2α = Pr(|X − s| < e)<br />

Valores típicos : P = 0.90, 0.95, 0.99<br />

(α = 0.05, 0.025, 0.005)<br />

Variable normalizada Y :<br />

P = 1 − 2α = Pr(|Y | < e ′ )<br />

√<br />

e ′ n<br />

=<br />

σ e<br />

Probabilida<strong>de</strong>s <strong>de</strong> cola (para distribución simétrica)<br />

:<br />

Pr(Y > e ′ ) = Pr(Y < −e ′ ) = α<br />

Dada una distribución, un nivel <strong>de</strong> confianza<br />

se correspon<strong>de</strong> con un intervalo <strong>de</strong> confianza.<br />

Mayor nivel <strong>de</strong> confianza implica ensanchar el<br />

intervalo <strong>de</strong> confianza.<br />

17


Determinar el número <strong>de</strong> observaciones n necesario<br />

para un nivel <strong>de</strong> confianza mayor que<br />

P 0 = 1 − 2α 0 y un intervalo <strong>de</strong> confianza ±e<br />

dados, <strong>de</strong> acuerdo con una :<br />

– t-distribución con n − 1 grados <strong>de</strong> libertad,<br />

– distribución normal estándar para n → ∞.<br />

(para la variable normalizada Y .)<br />

Pasos :<br />

1. Con un número <strong>de</strong> observaciones inicial n 0<br />

estimar s y σ 2 calculando X y δ 2 X<br />

2. Determinar n <strong>de</strong> forma que en la t-distribución<br />

con n − 1 grados <strong>de</strong> libertad :<br />

Pr(Y > e ′ ) < α 0<br />

don<strong>de</strong> e ′ = ( √ n/σ)e . (Distribución normal<br />

para n gran<strong>de</strong>.)<br />

3. Con n observaciones volver a estimar s y<br />

σ 2 , y verificar el nivel <strong>de</strong> confianza. En caso<br />

contrario, incrementar n y repetir.<br />

18


Ejemplo<br />

Para <strong>de</strong>terminar un parámetro <strong>de</strong> rendimiento<br />

se han realizado cinco experimentos, observandose<br />

los siguientes valores :<br />

3.07, 3.24, 3.14, 3.11, 3.07<br />

1. Calcular el nivel <strong>de</strong> confianza para un intervalo<br />

<strong>de</strong> ±0.1<br />

2. Calcular el número <strong>de</strong> observaciones necesario<br />

para un nivel <strong>de</strong> confianza superior al<br />

99% con el intervalo <strong>de</strong> confianza anterior.<br />

Recordar :<br />

– observaciones X i in<strong>de</strong>pendientes,<br />

– distribuciones normales <strong>de</strong> X i vs. teorema <strong>de</strong>l<br />

ĺımite central.<br />

Cuestión adicional : intervalo <strong>de</strong> confianza para<br />

la estimación <strong>de</strong> la varianza <strong>de</strong> X.<br />

19


ORGANIZACION DE SIMULACIONES<br />

(O EXPERIMENTOS)<br />

Tipos <strong>de</strong> parámetros <strong>de</strong> rendimiento :<br />

(A) Una simulación o experimento proporciona<br />

un único valor, bien <strong>de</strong>finido, <strong>de</strong> X, parámetro<br />

que pue<strong>de</strong> tener una componente aleatoria.<br />

Ejemplo : tiempo <strong>de</strong> ejecución <strong>de</strong> un programa<br />

por un procesador.<br />

(B) Una simulación o experimento proporciona<br />

una secuencia <strong>de</strong> valores, en general no in<strong>de</strong>pendientes<br />

entre sí, cuyo promedio <strong>de</strong>fine X.<br />

Ejemplo : número <strong>de</strong> paquetes en un buffer <strong>de</strong><br />

un switch.<br />

¿Cómo organizar una simulación o experimento<br />

para obtener observaciones X 1 , . . . , X n in<strong>de</strong>pendientes<br />

entre sí ?<br />

20


Método <strong>de</strong> réplicas in<strong>de</strong>pendientes<br />

Realizar n simulaciones o experimentos in<strong>de</strong>pendientes.<br />

Parámetros <strong>de</strong> tipo (A).<br />

En una simulación cambiar a<strong>de</strong>cuadamente la<br />

semilla para generar números aleatorios (o generar<br />

números <strong>de</strong> forma consecutiva).<br />

21


Método <strong>de</strong> ejecución única<br />

Parámetros <strong>de</strong> tipo (B).<br />

Ejecución <strong>de</strong> una única simulación (o experimento)<br />

<strong>de</strong> longitud m×n : n lotes o tramos <strong>de</strong><br />

tamaño m. Observaciones X 11 , . . . , X 1m , . . . ,<br />

X i1 , . . . , X im , . . . , X n1 , . . . , X nm .<br />

X i promedio <strong>de</strong> las m observaciones <strong>de</strong>l lote<br />

i-ésimo.<br />

¿Son in<strong>de</strong>pendientes entre si X 1 , . . . , X n ?<br />

Autocovarianza <strong>de</strong> X :<br />

R(k) = 1<br />

n − k<br />

n−k ∑<br />

i=1<br />

(X i − X)(X i+k − X)<br />

Coeficiente <strong>de</strong> autocorrelación :<br />

R(k)/R(0)<br />

R(0) un estimador <strong>de</strong> la varianza <strong>de</strong> X.<br />

Usualmente k = 1.<br />

22


Hipótesis <strong>de</strong> observaciones in<strong>de</strong>pendientes :<br />

si R(k)/R(0) pequeño (< 0.02 ?)<br />

Seleccionar m gran<strong>de</strong> para que R(k)/R(0) ≈ 0<br />

Valores típicos : n ∝ 10, m ∝ 100<br />

Variantes <strong>de</strong>l método :<br />

– NB (nonoverlapping batch), lotes no superpuestos,<br />

variante arriba <strong>de</strong>scrita,<br />

– OB (overlapping batch), lotes superpuestos.<br />

Variante OB <strong>de</strong>l método : con cada observación<br />

se inicia un lote (disjunto) <strong>de</strong> longitud<br />

m y paso k.<br />

X i : media <strong>de</strong> las observaciones <strong>de</strong>l lote i-<br />

ésimo.<br />

Seleccionar k <strong>de</strong> forma que, sobre todas las observaciones,<br />

R(k)/R(0) ≈ 0<br />

Estimar parámetros a partir <strong>de</strong> X 1 , . . . , X n<br />

(ver referencias)<br />

La variante OB pue<strong>de</strong> ser más eficiente.<br />

23


Métodos regenerativos<br />

Proceso estocástico {X(t); t ≥ 0}<br />

X(t) : estado <strong>de</strong> un sistema, variable aleatoria<br />

función <strong>de</strong> un parámetro temporal (continuo).<br />

Proceso regenerativo : existe un estado <strong>de</strong> renovación<br />

<strong>de</strong>s<strong>de</strong> el cual el sistema se renueva<br />

probabiĺısticamente.<br />

Ciclo : realización <strong>de</strong>l proceso entre dos renovaciones<br />

consecutivas. (Duración con esperanza<br />

finita, infinidad <strong>de</strong> renovaciones.)<br />

Estimación <strong>de</strong> los parámetros <strong>de</strong> rendimiento :<br />

promedio <strong>de</strong> los valores obtenidos en cada ciclo.<br />

Sistemas complejos : muy improbable entrar<br />

en un estado global <strong>de</strong> renovación. Método regenerativo<br />

impracticable.<br />

24


SELECCION DE ENTRADAS<br />

(INPUTS) : DISEÑOS FACTORIALES<br />

Estudio <strong>de</strong>l efecto en el rendimiento <strong>de</strong> un sistema<br />

<strong>de</strong> los distintos parámetros o factores<br />

<strong>de</strong> entrada multivaluados : k entradas controlables,<br />

cada uno con n valores diferentes.<br />

Diseño <strong>de</strong> un experimento factorial : n k combinaciones<br />

posibles <strong>de</strong>l experimento. Pue<strong>de</strong> ser<br />

impracticable.<br />

Para simplificar la experimentación :<br />

– mantener constantes los factores menos importantes,<br />

– consi<strong>de</strong>rar in<strong>de</strong>pendientes factores que interaccionan<br />

débilmente.<br />

Selección <strong>de</strong> factores importantes<br />

Asignar dos valores a cada factor :<br />

0 bajo (mínimo), 1 alto (máximo).<br />

Diseño factorial <strong>de</strong> 2 k combinaciones.<br />

25


Vector <strong>de</strong> factores c = (c 1 , . . . , c k ) don<strong>de</strong> cada<br />

c i ∈ {0, 1}<br />

X(c) valor <strong>de</strong>l parámetro <strong>de</strong> rendimiento para<br />

un vector <strong>de</strong> entrada c<br />

Efecto principal o <strong>de</strong> primer or<strong>de</strong>n <strong>de</strong>l factor<br />

i-ésimo :<br />

⎡<br />

⎤<br />

e i = 1<br />

2 k−1 ⎣<br />

∑<br />

X(c) −<br />

∑<br />

X(c) ⎦<br />

c : c i =1<br />

c : c i =0<br />

Valor promedio <strong>de</strong>l rendimiento :<br />

X = 1 ∑<br />

2 k X(c)<br />

Si e i ≪ X : factor no importante. Se fija el<br />

factor con un valor intermedio (monotonicidad<br />

supuesta).<br />

Si e i significativo frente a X : factor importante.<br />

c<br />

26


Interacción entre factores importantes<br />

Efectos <strong>de</strong> or<strong>de</strong>n superior.<br />

m ij (x) : efecto (<strong>de</strong> primer or<strong>de</strong>n) <strong>de</strong>l factor<br />

i-ésimo fijando el factor j para x ∈ {0, 1},<br />

⎡<br />

⎢<br />

∑<br />

2 k−2 ⎣<br />

c : c i =1,c j =x<br />

= 1<br />

m ij (x) =<br />

X(c) −<br />

∑<br />

c : c i =0,c j =x<br />

X(c)<br />

⎤<br />

⎥<br />

⎦<br />

Efecto <strong>de</strong> interacción entre los factores i y j :<br />

(e ij = e ji )<br />

e ij = m ij(1) − m ij (0)<br />

2<br />

Si e ij ≪ X : interacción débil entre factores i<br />

y j, factores in<strong>de</strong>pendientes.<br />

Si e ij significativo frente a X : factores <strong>de</strong>pendientes.<br />

27


Diseño <strong>experimental</strong><br />

– Factor importante que no interacciona con<br />

otros : estudiar el rendimiento para los n valores.<br />

– Factores importantes que interaccionan entre<br />

si : experimentar con n p combinaciones<br />

para p factores.<br />

Diseño factorial fraccional : se eliminan algunas<br />

<strong>de</strong> las 2 k combinaciones iniciales <strong>de</strong> factores.<br />

Estudio <strong>de</strong> factores principales y sus interacciones.<br />

(ver referencias)<br />

28


COMPARACION DE DISEÑOS<br />

ALTERNATIVOS<br />

Problema : <strong>de</strong> un conjunto <strong>de</strong> sistemas, seleccionar<br />

un sistema <strong>de</strong> acuerdo con un criterio<br />

<strong>de</strong> rendimiento.<br />

Minimizar (o maximizar) un parámetro <strong>de</strong> rendimiento<br />

(o una función <strong>de</strong> varios).<br />

Formulación estadística<br />

– P 0 probabilidad mínima requerida para la selección<br />

correcta.<br />

– d diferencia mínima entre los valores <strong>de</strong> rendimiento<br />

<strong>de</strong> dos sistemas que se consi<strong>de</strong>ra<br />

significativa en la práctica.<br />

– Siendo s 1 , . . . , s k las esperanzas <strong>de</strong>l parámetro<br />

<strong>de</strong> rendimiento para varios sistemas, el<br />

sistema i es óptimo si s i < s j para cada sistema<br />

j restante.<br />

– Para cada sistema l, estimación estadística<br />

<strong>de</strong> s l realizando n l observaciones (n función<br />

<strong>de</strong> l). 29


Método sistemático : ver referencias<br />

Método indirecto<br />

Inicio : estimación <strong>de</strong>l parámetro <strong>de</strong> rendimiento<br />

según un intervalo <strong>de</strong> confianza y un nivel<br />

<strong>de</strong> confianza Pr(l), para cada sistema l.<br />

Fijado d, mantener una separación mínima d<br />

entre el intervalo <strong>de</strong>l sistema óptimo y los intervalos<br />

<strong>de</strong>l resto <strong>de</strong> sistemas.<br />

Dado P 0 , obtener :<br />

∏<br />

l<br />

Pr(l) ≥ P 0<br />

– ampliando intervalos <strong>de</strong> confianza,<br />

– aumentando el número <strong>de</strong> observaciones si<br />

fuera necesario.<br />

30


Variaciones <strong>de</strong>l problema<br />

– Seleccionar varios sistemas (igualmente) óptimos<br />

– Seleccionar un subconjunto <strong>de</strong> tamaño m<br />

que contenga el sistema óptimo.<br />

– Seleccionar los m mejores sistemas.<br />

31


ANALISIS DE REGRESION<br />

Rendimiento <strong>de</strong> un sistema. Parámetros <strong>de</strong> entrada<br />

controlables :<br />

– cualitativos,<br />

– cuantitativos.<br />

Entradas cuantitativas : interpolación y extrapolación<br />

para un parámetro <strong>de</strong> rendimiento.<br />

Formulación general<br />

Parámetro <strong>de</strong> rendimiento (salida) y, parámetro<br />

<strong>de</strong> entrada x :<br />

y = f(x)<br />

Hipótesis : la función f es conocida, salvo los<br />

valores <strong>de</strong> sus parámetros α 1 , . . . , α k :<br />

y = f(x; α 1 , . . . , α k )<br />

Valores <strong>de</strong> entrada x 1 , . . . , x n<br />

Valores observados Y 1 , . . . , Y n (variables aleatorias)<br />

<strong>de</strong>l parámetro <strong>de</strong> salida (rendimiento)<br />

Estimar α 1 , . . . , α k<br />

32


Observaciones con un componente <strong>de</strong> error<br />

aleatorio (<strong>de</strong>sconocido) :<br />

Y i = f(x i ) + ε i<br />

Método <strong>de</strong> mínimos cuadrados : minimizar el<br />

error cuadrático respecto <strong>de</strong> ˆα 1 , . . . , ˆα k ,<br />

Q E =<br />

n∑<br />

i=1<br />

[<br />

Yi − ˆf(x i ) ] 2<br />

Y 1 , . . . , Y n valores <strong>de</strong> salida observados,<br />

ˆf(x 1 ), . . . , ˆf(x n ) valores <strong>de</strong> salida estimados por<br />

f(x; ˆα 1 , . . . , ˆα k ) para los valores <strong>de</strong> entrada<br />

x 1 , . . . , x n<br />

Regresión <strong>de</strong> y sobre x : obtener los valores <strong>de</strong><br />

los estimadores ˆα 1 , . . . , ˆα k<br />

33


Teorema <strong>de</strong> Gauss-Markov<br />

El método <strong>de</strong> mínimos cuadrados proporciona<br />

unos estimadores <strong>de</strong> α 1 , . . . , α k que no son sesgados<br />

y su varianza es mínima, bajo las siguientes<br />

condiciones :<br />

1. f(x) es lineal en los parámetros :<br />

f(x) = α 1 g 1 (x) + . . . + α k g k (x)<br />

2. No hay sesgo en el error <strong>de</strong> los valores observados<br />

Y i , es <strong>de</strong>cir, E[ε i ] = 0<br />

3. No hay correlación entre los valores observados.<br />

Mínimos cuadrados : el mejor método para estimar<br />

f(x) lineal en α 1 , . . . , α k<br />

34


Q E convexo para cada ˆα j , mínimo global : <strong>de</strong>rivar,<br />

para j = 1, . . . , k, e igualar a 0,<br />

n∑<br />

i=1<br />

g j (x i ) [Y i − ˆα 1 g 1 (x i ) − . . . − ˆα k g k (x i )] = 0<br />

Expresión matricial <strong>de</strong>l sistema <strong>de</strong> ecuaciones :<br />

Πˆα = θ<br />

Π matriz k × k, θ vector columna,<br />

ˆα solución <strong>de</strong> la ecuación.<br />

Ejemplo<br />

Regresión <strong>de</strong> y sobre x para<br />

f(x) = α 1 + α 2 x + α 3 x 2 35


Regresión lineal<br />

Parámetro <strong>de</strong> salida y función lineal <strong>de</strong>l<br />

parámetro <strong>de</strong> entrada x :<br />

y = α + β x<br />

Minimizar Q E , estimadores <strong>de</strong> α y β :<br />

ˆβ =<br />

n∑<br />

i=1<br />

ˆα = Y − ˆβ x<br />

(x i − x) Y i /<br />

n∑<br />

i=1<br />

(x i − x) 2<br />

don<strong>de</strong> x = ∑ n<br />

i=1<br />

x i /n, Y = ∑ n<br />

i=1<br />

Y i /n<br />

Estimador <strong>de</strong>l parámetro <strong>de</strong> rendimiento (salida),<br />

función <strong>de</strong> la entrada x :<br />

Ŷ = ˆα + ˆβ x = Y + ˆβ (x − x)<br />

Gauss-Jordan : ˆα y ˆβ estimadores no sesgados,<br />

varianza mínima. ¿Varianza <strong>de</strong> Ŷ ?<br />

36


Var(Ŷ ) = Var(Y ) + (x − x) 2 Var(ˆβ)<br />

(Y y ˆβ no están correlacionadas)<br />

Var(Ŷ ) = σ 2 [<br />

1<br />

n<br />

]<br />

(x − x)2<br />

+ ∑ ni=1<br />

(x i − x) 2<br />

Y 1 , . . . , Y n variables aleatorias no correlacionadas<br />

y <strong>de</strong> varianza σ 2 (<strong>de</strong>sconocida)<br />

Var(Ŷ ) función <strong>de</strong> x : mínimo σ 2 /n en x = x,<br />

incremento cuadrático para |x − x| > 0<br />

Estimador <strong>de</strong> σ 2 , no sesgado :<br />

δ 2 = 1<br />

n − 2<br />

n∑<br />

i=1<br />

Y i valor observado para x i ,<br />

Ŷ i = ˆα + ˆβx i valor estimado.<br />

(Y i − Ŷ i ) 2 = Q E<br />

n − 2<br />

37


Cuantificar bondad <strong>de</strong>l estimador Ŷ :<br />

Ŷ − y<br />

ν<br />

sigue una t-distribución estándar con n−2 grados<br />

<strong>de</strong> libertad, don<strong>de</strong> :<br />

Ŷ = ˆα + ˆβx, y = α + βx,<br />

ν 2 (función <strong>de</strong> x) varianza estimada <strong>de</strong> Ŷ .<br />

(Hipótesis : distribución normal <strong>de</strong> los errores<br />

<strong>de</strong> observación ε i )<br />

Intervalo y nivel <strong>de</strong> confianza <strong>de</strong>l valor <strong>de</strong> salida<br />

estimado Ŷ para una entrada x.<br />

38


A<strong>de</strong>cuación <strong>de</strong>l mo<strong>de</strong>lo<br />

A<strong>de</strong>cuación <strong>de</strong>l mo<strong>de</strong>lo <strong>de</strong> regresión :<br />

Un criterio sencillo.<br />

y = f(x; α 1 , . . . , α k )<br />

Variación total en torno a la media,<br />

Q T =<br />

n∑<br />

i=1<br />

(Y i − Y ) 2<br />

Error cuadrático mínimo para ˆf,<br />

Criterio :<br />

Q E =<br />

n∑<br />

i=1<br />

(Y i − Ŷ i ) 2<br />

Q E / Q T → 0<br />

Fuentes <strong>de</strong> error :<br />

– mediciones muy erróneas, número <strong>de</strong> mediciones<br />

pequeño,<br />

– mo<strong>de</strong>lo ina<strong>de</strong>cuado.<br />

39


Otras cuestiones<br />

Linealización <strong>de</strong> una función <strong>de</strong> regresión no lineal<br />

en los parámetros : por ejemplo, logarítmo<br />

<strong>de</strong> f(x) = αe βx<br />

Mínimos cuadrados.<br />

Gauss-Markov : no hay sesgo en el error <strong>de</strong> los<br />

nuevos valores observados g(Y i ) ?<br />

En cualquier caso, comprobar Q E / Q T → 0<br />

Ejemplo<br />

Regresión múltiple :<br />

y = f(u, v, w, . . . ; α 1 , α 2 , . . .)<br />

Mínimos cuadrados, teorema <strong>de</strong><br />

Gauss-Markov.<br />

Complejidad <strong>de</strong>l mo<strong>de</strong>lo, gran número <strong>de</strong> observaciones.<br />

Técnicas <strong>de</strong> reducción <strong>de</strong> varianza<br />

40

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!