Diseño experimental y análisis de resultados
Diseño experimental y análisis de resultados
Diseño experimental y análisis de resultados
You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
DISEÑO EXPERIMENTAL<br />
Y ANALISIS DE<br />
RESULTADOS<br />
– Introducción<br />
– Simulación <strong>de</strong> variables aleatorias<br />
– Análisis <strong>de</strong> datos<br />
– Organización <strong>de</strong> simulaciones (o experimentos)<br />
– Selección <strong>de</strong> entradas : diseños factoriales<br />
– Comparación <strong>de</strong> diseños alternativos<br />
– Análisis <strong>de</strong> regresión<br />
1
INTRODUCCION<br />
Técnicas básicas en la evaluación <strong>de</strong>l rendimiento<br />
<strong>de</strong> sistemas :<br />
– Medición<br />
– Simulación<br />
– Mo<strong>de</strong>lado anaĺıtico<br />
Medición y simulación : se requieren técnicas<br />
estadísticas para diseñar experimentos, recoger<br />
datos, análisis <strong>de</strong> datos.<br />
2
Medición<br />
Experimentación con un sistema real.<br />
Medición <strong>de</strong> parámetros <strong>de</strong> rendimiento por<br />
hardware, software, métodos híbridos.<br />
Factores no controlados en la experimentación<br />
:<br />
– análisis estadístico <strong>de</strong> las medidas,<br />
– selección <strong>de</strong> entradas y salidas.<br />
3
Simulación<br />
Elaboración y ejecución <strong>de</strong> un programa que<br />
representa el funcionamiento <strong>de</strong> un sistema.<br />
Una simulación requiere :<br />
– construir un mo<strong>de</strong>lo <strong>de</strong>l funcionamiento <strong>de</strong>l<br />
sistema,<br />
– suministrar una representación (mo<strong>de</strong>lo) o<br />
una traza <strong>de</strong> la carga.<br />
Cuestiones en una simulación :<br />
– nivel <strong>de</strong> <strong>de</strong>talle <strong>de</strong>l sistema que se mo<strong>de</strong>la,<br />
– análisis estadístico <strong>de</strong> los <strong>resultados</strong>,<br />
– diseño <strong>de</strong>l experimento para que sea factible.<br />
4
Técnicas <strong>de</strong> simulación<br />
Simulación <strong>de</strong> eventos discretos : el estado <strong>de</strong>l<br />
sistema se actualiza cada vez que ocurre un<br />
evento. (Llegada <strong>de</strong> un cliente a una cola, adquisición<br />
<strong>de</strong> un recurso, finalización <strong>de</strong> un servicio,<br />
etc.)<br />
Generación <strong>de</strong> eventos :<br />
– siguiendo una traza, medición <strong>de</strong> un sistema<br />
real, se preserva el <strong>de</strong>talle <strong>de</strong> las entradas,<br />
– siguiendo una distribución (mediante algoritmos<br />
que simulan variables aleatorias), mo<strong>de</strong>lo<br />
compacto, reproducible y modificable<br />
<strong>de</strong> la carga.<br />
Simulación siguiendo una distribución : algoritmos<br />
que generan números aleatorios <strong>de</strong> acuerdo<br />
con la distribución dada. Algoritmo <strong>de</strong>terminista,<br />
requiere una semilla (número) inicial.<br />
5
SIMULACION DE VARIABLES<br />
ALEATORIAS<br />
Partimos <strong>de</strong> un algoritmo (software) generador<br />
<strong>de</strong> una secuencia <strong>de</strong> números aleatorios distribuidos<br />
uniformemente entre 0 y 1 : unif(0, 1).<br />
Algoritmo <strong>de</strong>terminista, una semilla (un número<br />
entero) inicial <strong>de</strong>termina la secuencia generada<br />
:<br />
– se proporciona la semilla,<br />
– el software recurre al reloj <strong>de</strong>l computador,<br />
– etc.<br />
Un software : java.util.Random<br />
Métodos básicos para generar variables aleatorias<br />
continuas : método <strong>de</strong> transformación<br />
inversa, método <strong>de</strong> rechazo.<br />
6
Método <strong>de</strong> transformación inversa<br />
U variable aleatoria uniforme en (0, 1).<br />
X variable aleatoria con una función <strong>de</strong> distribución<br />
F (x) :<br />
X = F −1 (U)<br />
(Interpretar discretizando x.)<br />
Generar u con unif(0, 1), x = F −1 (u).<br />
Ejemplo : variable aleatoria exponencial,<br />
F (x) = 1 − e −λx<br />
X = − 1 λ log(1 − U) 7
Método <strong>de</strong> rechazo<br />
No existe una expresión expĺıcita <strong>de</strong> F −1<br />
Planteamiento :<br />
– queremos generar X, con <strong>de</strong>nsidad f(x),<br />
– po<strong>de</strong>mos generar Y , con <strong>de</strong>nsidad g(y).<br />
Requisito : para cierta constante c,<br />
f(x) ≤ c g(x) ,<br />
∀x<br />
(mejor c mínima)<br />
Iterar :<br />
1. Generar un valor Y = y,<br />
2. Generar un valor U=u, unif(0, 1), y proporcionar<br />
X = y si :<br />
u ≤ f(y)/cg(y)<br />
(aceptar con probabilidad f(y)/cg(y))<br />
8
Ejemplo : variable aleatoria normal a partir <strong>de</strong><br />
una variable exponencial (asignar ± aleatoriamente).<br />
Distribuciones <strong>de</strong> variables discretas<br />
Trivial : versión discretizada <strong>de</strong>l método <strong>de</strong><br />
transformación inversa.<br />
9
ANALISIS DE DATOS<br />
Sistemas con carga no <strong>de</strong>terminista, factores<br />
in<strong>de</strong>terminados : <strong>resultados</strong> aleatorios. Parámetros<br />
<strong>de</strong> rendimiento : se necesitan varias observaciones.<br />
1. ¿Cómo estimar el valor promedio <strong>de</strong>l parámetro<br />
<strong>de</strong> rendimiento a partir <strong>de</strong> varias<br />
observaciones ?<br />
2. ¿Un mayor número <strong>de</strong> observaciones proporciona<br />
una estimación más fiable ?<br />
3. ¿Cómo caracterizar el error <strong>de</strong> la estimación<br />
en función <strong>de</strong>l número <strong>de</strong> observaciones<br />
?<br />
4. ¿Cómo realizar los experimentos para que<br />
la caracterización <strong>de</strong>l error sea fiable ?<br />
5. ¿Cómo reducir el número necesario <strong>de</strong> observaciones<br />
?<br />
10
X parámetro <strong>de</strong> rendimiento <strong>de</strong>l sistema : variable<br />
aleatoria con distribución <strong>de</strong>sconocida.<br />
Media s y varianza σ 2 <strong>de</strong>sconocidos : estimar<br />
<strong>experimental</strong>mente.<br />
X 1 , X 2 , . . . , X n observaciones <strong>experimental</strong>es<br />
<strong>de</strong>l parámetro X, en principio no in<strong>de</strong>pendientes<br />
entre si.<br />
X i observación i-ésima <strong>de</strong>l sistema, varible aleatoria<br />
: media s y varianza σ 2 .<br />
Un estimador <strong>de</strong> s, <strong>de</strong> la esperanza <strong>de</strong> X :<br />
X = 1 n<br />
n∑<br />
X i<br />
i=1<br />
X es un estimador no sesgado :<br />
E[X] = s<br />
11
X es un estimador más fiable aumentando el<br />
número <strong>de</strong> observaciones :<br />
[ (X ) ] 2<br />
Var(X) = E − s =<br />
= E<br />
⎡⎛<br />
⎢<br />
⎣<br />
⎝ 1 n<br />
n∑<br />
i=1<br />
(X i − s)<br />
⎞<br />
⎠2 ⎤ ⎥ ⎦ =<br />
= σ2<br />
n + 2 n 2 ∑<br />
i<br />
∑<br />
j>i<br />
Cov(X i , X j )<br />
– Observaciones in<strong>de</strong>pendientes,<br />
Cov(X i , X j ) = 0 : la varianza <strong>de</strong>crece,<br />
Var(X) → 0, con n → ∞<br />
– Condición más débil,<br />
Cov(X i , X i+m ) = 0 para m → ∞ : la varianza<br />
<strong>de</strong>crece con n.<br />
12
Determinar cuantitativamente la bondad <strong>de</strong>l<br />
estimador X : intervalo en torno al resultado<br />
X que incluye s con cierta probabilidad. Necesitamos<br />
estimar la varianza.<br />
Estimador <strong>de</strong> σ 2 , la varianza <strong>de</strong> X :<br />
δ 2 X = 1<br />
n − 1<br />
don<strong>de</strong> X = 1/n ∑ i X i<br />
n∑<br />
i=1<br />
Esperanza <strong>de</strong>l estimador :<br />
E [ δ 2 X]<br />
= σ 2 −<br />
2<br />
n(n − 1)<br />
(X i − X) 2<br />
∑<br />
i<br />
∑<br />
j>i<br />
Para observaciones in<strong>de</strong>pendientes,<br />
estimador no sesgado : E[δ 2 X ] = σ2<br />
Cov(X i , X j )<br />
Varianza <strong>de</strong> X, σ 2 /n para observaciones in<strong>de</strong>pendientes,<br />
estimador <strong>de</strong> Var(X) :<br />
Decrece con n.<br />
δ 2 X = δ2 X<br />
n<br />
13
Para cuantificar, con una probabilidad, el margen<br />
<strong>de</strong> error <strong>de</strong>l valor estimado : distribución<br />
<strong>de</strong> X = 1/n ∑ i X i<br />
Variable aleatoria normalizada :<br />
Y = (X − s) √ n/σ<br />
Si las variables (in<strong>de</strong>pendientes) X 1 , . . . , X n siguen<br />
la distribución normal N (s, σ), entonces<br />
Y sigue la t-distribución estándar con n−1 grados<br />
<strong>de</strong> libertad. (Ver tabla.)<br />
Teorema <strong>de</strong>l ĺımite central : variables (in<strong>de</strong>pendientes)<br />
X 1 , . . . , X n con distribución cualquiera,<br />
Y tien<strong>de</strong> a la distribución normal N (0, 1) con<br />
n → ∞.<br />
14
Tabla <strong>de</strong> la t-distribución estándar : df grados<br />
<strong>de</strong> libertad, α probabilidad <strong>de</strong> cola.<br />
df \ α 0.10 0.05 0.025<br />
1 3.077684 6.313752 12.70620<br />
2 1.885618 2.919986 4.30265<br />
3 1.637744 2.353363 3.18245<br />
4 1.533206 2.131847 2.77645<br />
5 1.475884 2.015048 2.57058<br />
6 1.439756 1.943180 2.44691<br />
7 1.414924 1.894579 2.36462<br />
8 1.396815 1.859548 2.30600<br />
9 1.383029 1.833113 2.26216<br />
10 1.372184 1.812461 2.22814<br />
inf 1.281552 1.644854 1.95996<br />
15
Continuación<br />
df \ α 0.01 0.005<br />
1 31.82052 63.65674<br />
2 6.96456 9.92484<br />
3 4.54070 5.84091<br />
4 3.74695 4.60409<br />
5 3.36493 4.03214<br />
6 3.14267 3.70743<br />
7 2.99795 3.49948<br />
8 2.89646 3.35539<br />
9 2.82144 3.24984<br />
10 2.76377 3.16927<br />
inf 2.32635 2.57583<br />
16
Cuantificar la bondad <strong>de</strong>l estimador X<br />
Intervalo <strong>de</strong> confianza : s ± e<br />
Nivel <strong>de</strong> confianza :<br />
P = 1 − 2α = Pr(|X − s| < e)<br />
Valores típicos : P = 0.90, 0.95, 0.99<br />
(α = 0.05, 0.025, 0.005)<br />
Variable normalizada Y :<br />
P = 1 − 2α = Pr(|Y | < e ′ )<br />
√<br />
e ′ n<br />
=<br />
σ e<br />
Probabilida<strong>de</strong>s <strong>de</strong> cola (para distribución simétrica)<br />
:<br />
Pr(Y > e ′ ) = Pr(Y < −e ′ ) = α<br />
Dada una distribución, un nivel <strong>de</strong> confianza<br />
se correspon<strong>de</strong> con un intervalo <strong>de</strong> confianza.<br />
Mayor nivel <strong>de</strong> confianza implica ensanchar el<br />
intervalo <strong>de</strong> confianza.<br />
17
Determinar el número <strong>de</strong> observaciones n necesario<br />
para un nivel <strong>de</strong> confianza mayor que<br />
P 0 = 1 − 2α 0 y un intervalo <strong>de</strong> confianza ±e<br />
dados, <strong>de</strong> acuerdo con una :<br />
– t-distribución con n − 1 grados <strong>de</strong> libertad,<br />
– distribución normal estándar para n → ∞.<br />
(para la variable normalizada Y .)<br />
Pasos :<br />
1. Con un número <strong>de</strong> observaciones inicial n 0<br />
estimar s y σ 2 calculando X y δ 2 X<br />
2. Determinar n <strong>de</strong> forma que en la t-distribución<br />
con n − 1 grados <strong>de</strong> libertad :<br />
Pr(Y > e ′ ) < α 0<br />
don<strong>de</strong> e ′ = ( √ n/σ)e . (Distribución normal<br />
para n gran<strong>de</strong>.)<br />
3. Con n observaciones volver a estimar s y<br />
σ 2 , y verificar el nivel <strong>de</strong> confianza. En caso<br />
contrario, incrementar n y repetir.<br />
18
Ejemplo<br />
Para <strong>de</strong>terminar un parámetro <strong>de</strong> rendimiento<br />
se han realizado cinco experimentos, observandose<br />
los siguientes valores :<br />
3.07, 3.24, 3.14, 3.11, 3.07<br />
1. Calcular el nivel <strong>de</strong> confianza para un intervalo<br />
<strong>de</strong> ±0.1<br />
2. Calcular el número <strong>de</strong> observaciones necesario<br />
para un nivel <strong>de</strong> confianza superior al<br />
99% con el intervalo <strong>de</strong> confianza anterior.<br />
Recordar :<br />
– observaciones X i in<strong>de</strong>pendientes,<br />
– distribuciones normales <strong>de</strong> X i vs. teorema <strong>de</strong>l<br />
ĺımite central.<br />
Cuestión adicional : intervalo <strong>de</strong> confianza para<br />
la estimación <strong>de</strong> la varianza <strong>de</strong> X.<br />
19
ORGANIZACION DE SIMULACIONES<br />
(O EXPERIMENTOS)<br />
Tipos <strong>de</strong> parámetros <strong>de</strong> rendimiento :<br />
(A) Una simulación o experimento proporciona<br />
un único valor, bien <strong>de</strong>finido, <strong>de</strong> X, parámetro<br />
que pue<strong>de</strong> tener una componente aleatoria.<br />
Ejemplo : tiempo <strong>de</strong> ejecución <strong>de</strong> un programa<br />
por un procesador.<br />
(B) Una simulación o experimento proporciona<br />
una secuencia <strong>de</strong> valores, en general no in<strong>de</strong>pendientes<br />
entre sí, cuyo promedio <strong>de</strong>fine X.<br />
Ejemplo : número <strong>de</strong> paquetes en un buffer <strong>de</strong><br />
un switch.<br />
¿Cómo organizar una simulación o experimento<br />
para obtener observaciones X 1 , . . . , X n in<strong>de</strong>pendientes<br />
entre sí ?<br />
20
Método <strong>de</strong> réplicas in<strong>de</strong>pendientes<br />
Realizar n simulaciones o experimentos in<strong>de</strong>pendientes.<br />
Parámetros <strong>de</strong> tipo (A).<br />
En una simulación cambiar a<strong>de</strong>cuadamente la<br />
semilla para generar números aleatorios (o generar<br />
números <strong>de</strong> forma consecutiva).<br />
21
Método <strong>de</strong> ejecución única<br />
Parámetros <strong>de</strong> tipo (B).<br />
Ejecución <strong>de</strong> una única simulación (o experimento)<br />
<strong>de</strong> longitud m×n : n lotes o tramos <strong>de</strong><br />
tamaño m. Observaciones X 11 , . . . , X 1m , . . . ,<br />
X i1 , . . . , X im , . . . , X n1 , . . . , X nm .<br />
X i promedio <strong>de</strong> las m observaciones <strong>de</strong>l lote<br />
i-ésimo.<br />
¿Son in<strong>de</strong>pendientes entre si X 1 , . . . , X n ?<br />
Autocovarianza <strong>de</strong> X :<br />
R(k) = 1<br />
n − k<br />
n−k ∑<br />
i=1<br />
(X i − X)(X i+k − X)<br />
Coeficiente <strong>de</strong> autocorrelación :<br />
R(k)/R(0)<br />
R(0) un estimador <strong>de</strong> la varianza <strong>de</strong> X.<br />
Usualmente k = 1.<br />
22
Hipótesis <strong>de</strong> observaciones in<strong>de</strong>pendientes :<br />
si R(k)/R(0) pequeño (< 0.02 ?)<br />
Seleccionar m gran<strong>de</strong> para que R(k)/R(0) ≈ 0<br />
Valores típicos : n ∝ 10, m ∝ 100<br />
Variantes <strong>de</strong>l método :<br />
– NB (nonoverlapping batch), lotes no superpuestos,<br />
variante arriba <strong>de</strong>scrita,<br />
– OB (overlapping batch), lotes superpuestos.<br />
Variante OB <strong>de</strong>l método : con cada observación<br />
se inicia un lote (disjunto) <strong>de</strong> longitud<br />
m y paso k.<br />
X i : media <strong>de</strong> las observaciones <strong>de</strong>l lote i-<br />
ésimo.<br />
Seleccionar k <strong>de</strong> forma que, sobre todas las observaciones,<br />
R(k)/R(0) ≈ 0<br />
Estimar parámetros a partir <strong>de</strong> X 1 , . . . , X n<br />
(ver referencias)<br />
La variante OB pue<strong>de</strong> ser más eficiente.<br />
23
Métodos regenerativos<br />
Proceso estocástico {X(t); t ≥ 0}<br />
X(t) : estado <strong>de</strong> un sistema, variable aleatoria<br />
función <strong>de</strong> un parámetro temporal (continuo).<br />
Proceso regenerativo : existe un estado <strong>de</strong> renovación<br />
<strong>de</strong>s<strong>de</strong> el cual el sistema se renueva<br />
probabiĺısticamente.<br />
Ciclo : realización <strong>de</strong>l proceso entre dos renovaciones<br />
consecutivas. (Duración con esperanza<br />
finita, infinidad <strong>de</strong> renovaciones.)<br />
Estimación <strong>de</strong> los parámetros <strong>de</strong> rendimiento :<br />
promedio <strong>de</strong> los valores obtenidos en cada ciclo.<br />
Sistemas complejos : muy improbable entrar<br />
en un estado global <strong>de</strong> renovación. Método regenerativo<br />
impracticable.<br />
24
SELECCION DE ENTRADAS<br />
(INPUTS) : DISEÑOS FACTORIALES<br />
Estudio <strong>de</strong>l efecto en el rendimiento <strong>de</strong> un sistema<br />
<strong>de</strong> los distintos parámetros o factores<br />
<strong>de</strong> entrada multivaluados : k entradas controlables,<br />
cada uno con n valores diferentes.<br />
Diseño <strong>de</strong> un experimento factorial : n k combinaciones<br />
posibles <strong>de</strong>l experimento. Pue<strong>de</strong> ser<br />
impracticable.<br />
Para simplificar la experimentación :<br />
– mantener constantes los factores menos importantes,<br />
– consi<strong>de</strong>rar in<strong>de</strong>pendientes factores que interaccionan<br />
débilmente.<br />
Selección <strong>de</strong> factores importantes<br />
Asignar dos valores a cada factor :<br />
0 bajo (mínimo), 1 alto (máximo).<br />
Diseño factorial <strong>de</strong> 2 k combinaciones.<br />
25
Vector <strong>de</strong> factores c = (c 1 , . . . , c k ) don<strong>de</strong> cada<br />
c i ∈ {0, 1}<br />
X(c) valor <strong>de</strong>l parámetro <strong>de</strong> rendimiento para<br />
un vector <strong>de</strong> entrada c<br />
Efecto principal o <strong>de</strong> primer or<strong>de</strong>n <strong>de</strong>l factor<br />
i-ésimo :<br />
⎡<br />
⎤<br />
e i = 1<br />
2 k−1 ⎣<br />
∑<br />
X(c) −<br />
∑<br />
X(c) ⎦<br />
c : c i =1<br />
c : c i =0<br />
Valor promedio <strong>de</strong>l rendimiento :<br />
X = 1 ∑<br />
2 k X(c)<br />
Si e i ≪ X : factor no importante. Se fija el<br />
factor con un valor intermedio (monotonicidad<br />
supuesta).<br />
Si e i significativo frente a X : factor importante.<br />
c<br />
26
Interacción entre factores importantes<br />
Efectos <strong>de</strong> or<strong>de</strong>n superior.<br />
m ij (x) : efecto (<strong>de</strong> primer or<strong>de</strong>n) <strong>de</strong>l factor<br />
i-ésimo fijando el factor j para x ∈ {0, 1},<br />
⎡<br />
⎢<br />
∑<br />
2 k−2 ⎣<br />
c : c i =1,c j =x<br />
= 1<br />
m ij (x) =<br />
X(c) −<br />
∑<br />
c : c i =0,c j =x<br />
X(c)<br />
⎤<br />
⎥<br />
⎦<br />
Efecto <strong>de</strong> interacción entre los factores i y j :<br />
(e ij = e ji )<br />
e ij = m ij(1) − m ij (0)<br />
2<br />
Si e ij ≪ X : interacción débil entre factores i<br />
y j, factores in<strong>de</strong>pendientes.<br />
Si e ij significativo frente a X : factores <strong>de</strong>pendientes.<br />
27
Diseño <strong>experimental</strong><br />
– Factor importante que no interacciona con<br />
otros : estudiar el rendimiento para los n valores.<br />
– Factores importantes que interaccionan entre<br />
si : experimentar con n p combinaciones<br />
para p factores.<br />
Diseño factorial fraccional : se eliminan algunas<br />
<strong>de</strong> las 2 k combinaciones iniciales <strong>de</strong> factores.<br />
Estudio <strong>de</strong> factores principales y sus interacciones.<br />
(ver referencias)<br />
28
COMPARACION DE DISEÑOS<br />
ALTERNATIVOS<br />
Problema : <strong>de</strong> un conjunto <strong>de</strong> sistemas, seleccionar<br />
un sistema <strong>de</strong> acuerdo con un criterio<br />
<strong>de</strong> rendimiento.<br />
Minimizar (o maximizar) un parámetro <strong>de</strong> rendimiento<br />
(o una función <strong>de</strong> varios).<br />
Formulación estadística<br />
– P 0 probabilidad mínima requerida para la selección<br />
correcta.<br />
– d diferencia mínima entre los valores <strong>de</strong> rendimiento<br />
<strong>de</strong> dos sistemas que se consi<strong>de</strong>ra<br />
significativa en la práctica.<br />
– Siendo s 1 , . . . , s k las esperanzas <strong>de</strong>l parámetro<br />
<strong>de</strong> rendimiento para varios sistemas, el<br />
sistema i es óptimo si s i < s j para cada sistema<br />
j restante.<br />
– Para cada sistema l, estimación estadística<br />
<strong>de</strong> s l realizando n l observaciones (n función<br />
<strong>de</strong> l). 29
Método sistemático : ver referencias<br />
Método indirecto<br />
Inicio : estimación <strong>de</strong>l parámetro <strong>de</strong> rendimiento<br />
según un intervalo <strong>de</strong> confianza y un nivel<br />
<strong>de</strong> confianza Pr(l), para cada sistema l.<br />
Fijado d, mantener una separación mínima d<br />
entre el intervalo <strong>de</strong>l sistema óptimo y los intervalos<br />
<strong>de</strong>l resto <strong>de</strong> sistemas.<br />
Dado P 0 , obtener :<br />
∏<br />
l<br />
Pr(l) ≥ P 0<br />
– ampliando intervalos <strong>de</strong> confianza,<br />
– aumentando el número <strong>de</strong> observaciones si<br />
fuera necesario.<br />
30
Variaciones <strong>de</strong>l problema<br />
– Seleccionar varios sistemas (igualmente) óptimos<br />
– Seleccionar un subconjunto <strong>de</strong> tamaño m<br />
que contenga el sistema óptimo.<br />
– Seleccionar los m mejores sistemas.<br />
31
ANALISIS DE REGRESION<br />
Rendimiento <strong>de</strong> un sistema. Parámetros <strong>de</strong> entrada<br />
controlables :<br />
– cualitativos,<br />
– cuantitativos.<br />
Entradas cuantitativas : interpolación y extrapolación<br />
para un parámetro <strong>de</strong> rendimiento.<br />
Formulación general<br />
Parámetro <strong>de</strong> rendimiento (salida) y, parámetro<br />
<strong>de</strong> entrada x :<br />
y = f(x)<br />
Hipótesis : la función f es conocida, salvo los<br />
valores <strong>de</strong> sus parámetros α 1 , . . . , α k :<br />
y = f(x; α 1 , . . . , α k )<br />
Valores <strong>de</strong> entrada x 1 , . . . , x n<br />
Valores observados Y 1 , . . . , Y n (variables aleatorias)<br />
<strong>de</strong>l parámetro <strong>de</strong> salida (rendimiento)<br />
Estimar α 1 , . . . , α k<br />
32
Observaciones con un componente <strong>de</strong> error<br />
aleatorio (<strong>de</strong>sconocido) :<br />
Y i = f(x i ) + ε i<br />
Método <strong>de</strong> mínimos cuadrados : minimizar el<br />
error cuadrático respecto <strong>de</strong> ˆα 1 , . . . , ˆα k ,<br />
Q E =<br />
n∑<br />
i=1<br />
[<br />
Yi − ˆf(x i ) ] 2<br />
Y 1 , . . . , Y n valores <strong>de</strong> salida observados,<br />
ˆf(x 1 ), . . . , ˆf(x n ) valores <strong>de</strong> salida estimados por<br />
f(x; ˆα 1 , . . . , ˆα k ) para los valores <strong>de</strong> entrada<br />
x 1 , . . . , x n<br />
Regresión <strong>de</strong> y sobre x : obtener los valores <strong>de</strong><br />
los estimadores ˆα 1 , . . . , ˆα k<br />
33
Teorema <strong>de</strong> Gauss-Markov<br />
El método <strong>de</strong> mínimos cuadrados proporciona<br />
unos estimadores <strong>de</strong> α 1 , . . . , α k que no son sesgados<br />
y su varianza es mínima, bajo las siguientes<br />
condiciones :<br />
1. f(x) es lineal en los parámetros :<br />
f(x) = α 1 g 1 (x) + . . . + α k g k (x)<br />
2. No hay sesgo en el error <strong>de</strong> los valores observados<br />
Y i , es <strong>de</strong>cir, E[ε i ] = 0<br />
3. No hay correlación entre los valores observados.<br />
Mínimos cuadrados : el mejor método para estimar<br />
f(x) lineal en α 1 , . . . , α k<br />
34
Q E convexo para cada ˆα j , mínimo global : <strong>de</strong>rivar,<br />
para j = 1, . . . , k, e igualar a 0,<br />
n∑<br />
i=1<br />
g j (x i ) [Y i − ˆα 1 g 1 (x i ) − . . . − ˆα k g k (x i )] = 0<br />
Expresión matricial <strong>de</strong>l sistema <strong>de</strong> ecuaciones :<br />
Πˆα = θ<br />
Π matriz k × k, θ vector columna,<br />
ˆα solución <strong>de</strong> la ecuación.<br />
Ejemplo<br />
Regresión <strong>de</strong> y sobre x para<br />
f(x) = α 1 + α 2 x + α 3 x 2 35
Regresión lineal<br />
Parámetro <strong>de</strong> salida y función lineal <strong>de</strong>l<br />
parámetro <strong>de</strong> entrada x :<br />
y = α + β x<br />
Minimizar Q E , estimadores <strong>de</strong> α y β :<br />
ˆβ =<br />
n∑<br />
i=1<br />
ˆα = Y − ˆβ x<br />
(x i − x) Y i /<br />
n∑<br />
i=1<br />
(x i − x) 2<br />
don<strong>de</strong> x = ∑ n<br />
i=1<br />
x i /n, Y = ∑ n<br />
i=1<br />
Y i /n<br />
Estimador <strong>de</strong>l parámetro <strong>de</strong> rendimiento (salida),<br />
función <strong>de</strong> la entrada x :<br />
Ŷ = ˆα + ˆβ x = Y + ˆβ (x − x)<br />
Gauss-Jordan : ˆα y ˆβ estimadores no sesgados,<br />
varianza mínima. ¿Varianza <strong>de</strong> Ŷ ?<br />
36
Var(Ŷ ) = Var(Y ) + (x − x) 2 Var(ˆβ)<br />
(Y y ˆβ no están correlacionadas)<br />
Var(Ŷ ) = σ 2 [<br />
1<br />
n<br />
]<br />
(x − x)2<br />
+ ∑ ni=1<br />
(x i − x) 2<br />
Y 1 , . . . , Y n variables aleatorias no correlacionadas<br />
y <strong>de</strong> varianza σ 2 (<strong>de</strong>sconocida)<br />
Var(Ŷ ) función <strong>de</strong> x : mínimo σ 2 /n en x = x,<br />
incremento cuadrático para |x − x| > 0<br />
Estimador <strong>de</strong> σ 2 , no sesgado :<br />
δ 2 = 1<br />
n − 2<br />
n∑<br />
i=1<br />
Y i valor observado para x i ,<br />
Ŷ i = ˆα + ˆβx i valor estimado.<br />
(Y i − Ŷ i ) 2 = Q E<br />
n − 2<br />
37
Cuantificar bondad <strong>de</strong>l estimador Ŷ :<br />
Ŷ − y<br />
ν<br />
sigue una t-distribución estándar con n−2 grados<br />
<strong>de</strong> libertad, don<strong>de</strong> :<br />
Ŷ = ˆα + ˆβx, y = α + βx,<br />
ν 2 (función <strong>de</strong> x) varianza estimada <strong>de</strong> Ŷ .<br />
(Hipótesis : distribución normal <strong>de</strong> los errores<br />
<strong>de</strong> observación ε i )<br />
Intervalo y nivel <strong>de</strong> confianza <strong>de</strong>l valor <strong>de</strong> salida<br />
estimado Ŷ para una entrada x.<br />
38
A<strong>de</strong>cuación <strong>de</strong>l mo<strong>de</strong>lo<br />
A<strong>de</strong>cuación <strong>de</strong>l mo<strong>de</strong>lo <strong>de</strong> regresión :<br />
Un criterio sencillo.<br />
y = f(x; α 1 , . . . , α k )<br />
Variación total en torno a la media,<br />
Q T =<br />
n∑<br />
i=1<br />
(Y i − Y ) 2<br />
Error cuadrático mínimo para ˆf,<br />
Criterio :<br />
Q E =<br />
n∑<br />
i=1<br />
(Y i − Ŷ i ) 2<br />
Q E / Q T → 0<br />
Fuentes <strong>de</strong> error :<br />
– mediciones muy erróneas, número <strong>de</strong> mediciones<br />
pequeño,<br />
– mo<strong>de</strong>lo ina<strong>de</strong>cuado.<br />
39
Otras cuestiones<br />
Linealización <strong>de</strong> una función <strong>de</strong> regresión no lineal<br />
en los parámetros : por ejemplo, logarítmo<br />
<strong>de</strong> f(x) = αe βx<br />
Mínimos cuadrados.<br />
Gauss-Markov : no hay sesgo en el error <strong>de</strong> los<br />
nuevos valores observados g(Y i ) ?<br />
En cualquier caso, comprobar Q E / Q T → 0<br />
Ejemplo<br />
Regresión múltiple :<br />
y = f(u, v, w, . . . ; α 1 , α 2 , . . .)<br />
Mínimos cuadrados, teorema <strong>de</strong><br />
Gauss-Markov.<br />
Complejidad <strong>de</strong>l mo<strong>de</strong>lo, gran número <strong>de</strong> observaciones.<br />
Técnicas <strong>de</strong> reducción <strong>de</strong> varianza<br />
40