2. El Modelo de Regresi ´ on Lineal Simple
Problema de m´ınimos cuadrados.
Estimadores m´ınimos cuadrados β ˆ 0 , β ˆ 1 , y s 2 .
Estimadores de m ´axima verosimilitud y propiedades.
Inferencia: pruebas de hip ´otesis e intervalos de confianza.
Bondad de ajuste: ANOVA , R 2 .
Transformaciones de la l´ınea recta.
Transformaciones potencia de Box-Cox y Box-Tidwell.
Modelos no lineales.
Error puro y falta de ajuste.
Revisi ´on de los supuestos del modelo de regresi ´on: An ´alisis de residuales.
altura (cm)
presión (kg/cm^2)
100 120 140 160 180 200
0 50 100 150 200
y obs y
e = y obs − y
(no observado)
y = β 0 + β 1 x
(teórica)
Modelo generador teórico
Regresi ´ on Lineal Simple
y i = β 0 + β 1 x i + i , i = 1, . . . , n
Donde,
y i : variable de respuesta, variable dependiente.
x i : variable de control, regresor, variable independiente.
β 0 , β 1 : coeficientes del modelo.
β 0 : es el nivel de la respuesta cuando x = 0 .
β 1 : es el incremento en la respuesta cuando aumento al regresor x en una unidad. (tasa de cambio)
i : error aleatorio (no observado), diferencia entre el modelo generador y el
valor observado.
Regresi ´ on Lineal Simple
Si suponemos que el error es tal que
E[] = 0, var() = σ 2 , cov(, 0 ) = 0 la respuesta y es aleatoria, pero para el nivel x = x 0 ,
E[y|x = x 0 ] = β 0 + β 1 x 0 var(y|x = x 0 ) = var() = σ 2
cov(y, y 0 ) = 0 Esto es,
El nivel medio de y depende del nivel de x.
La variabilidad de la respuesta y no depende de x.
cov(y, y 0 ) = cov(, 0 ) = 0.
β 0 es la respuesta media para x = 0.
β 1 es el incremento de la respuesta debido a un cambio unitario del
regresor x. Es decir, para ∆ x = 1, se tiene que ∆ y = β 1 .
altura (cm)
presión (kg/cm^2)
100 120 140 160 180 200
0 50 100 150 200
y obs
~ y
r~ = y obs − y ~
(residual)
~ = β~ y 0 + β ~
1 x
(ajustada)
modelo generador
Modelo ajustado
Criterios para determinar la “mejor” l´ınea recta
Problema: Elegir “la mejor ” l´ınea recta ( β 0 ∗ , β 1 ∗ ).
1. Elija ( ˜ β 0 , ˜ β 1 ) , de modo que X
i
(y i − ˜ y i ) = X
i
(y i − ˜ β 0 − ˜ β 1 x i ) = 0 ¡¡¡Impr ´actico!!!
2. Criterio L 1 : M´ınima Desviaci ´on Absoluta m´ın β
X
i
|y i − ˜ β 0 − ˜ β 1 x i |
3. Criterio L 2 : M´ınimos Cuadrados m´ın β
X
i
(y i − ˜ β 0 − ˜ β 1 x i ) 2
4. Criterio L ∞ : M´ınima Desviaci ´on M ´axima m´ın β
n
m´ ax
i
y i − ˜ β 0 − ˜ β 1 x i o
El Problema de M´ınimos Cuadrados
Considere la suma de cuadrados: S(β) .
= P n i=1 (y i − β 0 − β 1 x i ) 2 Criterio:
m´ın β S(β) ≡ m´ın
β
0, β
1n
X
i=1
(y i − β 0 − β 1 x i ) 2
dS
dβ ≡ 0 =⇒
Ecuaciones normales ( ortogonales ) : nβ 0 + β 1 P x i = P y i
β 0 P x i + β 1 P x 2 i = P x i y i Soluci ´on: Estimadores M´ınimos Cuadrados
β ˆ 1 =
X (x i − ¯ x)(y i − ¯ y)
X (x i − ¯ x) 2 = S xy S xx
β ˆ 0 = ¯ y − ˆ β 1 x ¯
altura (cm)
presión (kg/cm^2)
100 120 140 160 180 200
0 50 100 150 200
x y
y ^ = β^ 0 + β ^
1 x
Recta ajustada por mínimos cuadrados
La recta ajustada pasa por el centroide de los datos(X, Y )
Se considera un motor de cohete estudiando el propelente de encendido den- tro de un dep ´osito de metal. La fuerza para separar la uni ´on entre las compo- nentes del combustible es la respuesta, que depende de la edad de propelen- te.
Datos:
obs fuerza edad obs fuerza edad 1 2158.70 15.50 11 2165.20 13.00 2 1678.15 23.75 12 2399.55 3.75 3 2316.00 8.00 13 1779.80 25.00 4 2061.30 17.00 14 2336.75 9.75 5 2207.50 5.50 15 1765.30 22.00 6 1708.30 19.00 16 2053.50 18.00 7 1784.70 24.00 17 2414.40 6.00 8 2575.00 2.50 18 2200.50 12.50 9 2357.90 7.50 19 2654.20 2.00 10 2256.70 11.00 20 1753.70 21.50
5 10 15 20 25
1800 2000 2200 2400 2600
Propelente
edad (semanas)
fuerza (psi)
Montgomery et al. (2001)
Ejemplo Propelente (cont.)
0 5 10 15 20 25
1800 2000 2200 2400 2600
Propelente
edad (semanas)
fuerza (psi)
1708.3 y 1921.9 y ^ r^ = −213.6
y = 2627.82 − 37.15x
Ejemplo Propelente (cont.)
Ajuste:
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) 2627.822 44.184 59.48 < 2e-16 edad -37.154 2.889 -12.86 1.64e-10
Residual standard error: 96.11 on 18 degrees of freedom Multiple R-squared: 0.9018, Adjusted R-squared: 0.8964 F-statistic: 165.4 on 1 and 18 DF, p-value: 1.643e-10
Analysis of Variance Table Response: fuerza
Df Sum Sq Mean Sq F value Pr(>F)
edad 1 1527483 1527483 165.38 1.643e-10
Residuals 18 166255 9236
Ejemplo Propelente (cont.)
Datos ajustados y residuales:
obs yobs yhat res obs yobs yhat res
1 2158.70 2051.9 106.8 11 2165.20 2144.8 20.4 2 1678.15 1745.4 -67.3 12 2399.55 2488.5 -88.9 3 2316.00 2330.6 -14.6 13 1779.80 1699.0 80.8
4 2061.30 1996.2 65.1 14 2336.75 2265.6 71.2
5 2207.50 2423.5 -216.0 15 1765.30 1810.4 -45.1 6 1708.30 1921.9 -213.6 16 2053.50 1959.1 94.4
7 1784.70 1736.1 48.6 17 2414.40 2404.9 9.5
8 2575.00 2534.9 40.1 18 2200.50 2163.4 37.1
9 2357.90 2349.2 8.7 19 2654.20 2553.5 100.7
10 2256.70 2219.1 37.6 20 1753.70 1829.0 -75.3
Observe que P n
i=1 res i = 0.
Ejemplo Propelente (cont.)
1800 2000 2200 2400
−200 −100 0 100 200
Residuales vs. Respuesta Ajustada
respuesta ajustada
residual
Propiedades de los estimadores de m´ınimos cuadrados
β ˆ 1 =
P (x i − ¯ x)(y i − ¯ y) P (x i − ¯ x) 2 E [ ˆ β 1 ] = β 1
var ( ˆ β 1 ) = σ 2 1 S xx
β ˆ 0 = ¯ y − ˆ β 1 x ¯
E [ ˆ β 0 ] = β 0
var ( ˆ β 0 ) = σ 2
1
n + x ¯ 2 S xx
Nota: Los resultados anteriores se siguen del hecho que P
(x i − ¯ x) = 0 y por lo mismo S xy = P (x i − ¯ x)y i . Luego β ˆ 1 = P c i y i , donde c i = (x i − ¯ x)/S xx .
Teorema Gauss-Markov Bajo los supuestos
E [ i ] = 0, var ( i ) = σ 2 , cov ( i , j ) = 0
los estimadores de m´ınimos cuadrados son los mejores estimadores lineales
insesgados, en el sentido de que tienen varianza m´ınima.
Propiedades de los estimadores de m´ınimos cuadrados
ˆ
r i = y i − ˆ y i = y i − ( ˆ β 0 + ˆ β 1 x i ) Se tiene que,
1.
X r ˆ i = X (y i − ˆ y i ) = 0 2.
X y ˆ i = X y i 3.
¯
y = ˆ β 0 + ˆ β 1 x ¯ 4.
X x i r ˆ i = 0 5.
X y ˆ i r ˆ i = 0
Estimaci ´ on de σ 2
Suma de Cuadrados:
SC Res =
n
X
i=1
(y i − ˆ y i ) 2 = S yy − ˆ β 1 S xy
Si se supone adem ´as que ∼ N(0, σ 2 ), se puede mostrar que
SC Res
σ 2 ∼ χ 2 n−2 Luego,
E SC Res σ 2
= n − 2, var SC Res σ 2
= 2(n − 2)
Cuadrados Medios:
s 2 = CM Res = 1
n − 2 SC Res = 1 n − 2
X (y i − ˆ y i ) 2
Entonces,
E s 2 = E SC Res n − 2
= σ 2 , var s 2 = var SC Res n − 2
= 2σ 4 n − 2
Error Est ´andar de la Regresi ´on:
s = p CM Res = s
SC Res n − 2 =
r 1 n − 2
X (y i − ˆ y i ) 2
Inferencia
Estimaci ´ on por M ´axima Verosimilitud
y i − β 0 − β 1 x i ∼ N (0, σ 2 ) i.i.d.
Funci ´on de verosimilitud del modelo de regresi ´on:
L(β 0 , β 1 , σ 2 ; x, y) =
n
Y
i=1
f (x i , y i ; β 0 , β 1 , σ 2 )
=
n
Y
i=1
√ 1
2πσ exp
− 1
2σ 2 (y i − β 0 − β 1 x i ) 2
= (2π) −n/2 σ −n exp (
− 1 2σ 2
n
X
i=1
(y i − β 0 − β 1 x i ) 2 )
` = log L = − n
2 log(2π) − n log(σ) − 1 2σ 2
n
X
i=1
(y i − β 0 − β 1 x i ) 2
Estimaci ´ on por M ´axima Verosimilitud
Maximizar la funci ´on de verosimilitud equivale a minimizar la suma de cuadra- dos:
∂ log L
∂β 0 = 0
∂ log L
∂β 1 = 0
La soluci ´on del sistema da lugar a los Estimado- res de M ´axima Verosimili- tud (EMV).
β ˆ 1 = S S xy
xx
β ˆ 0 = ¯ y − ˆ β 1 x ¯
Adem ´as,
∂ log L
∂σ = 0 =⇒ σ ˆ 2 = 1 n
n
X
i=1
(y i − ˆ β 0 − ˆ β 1 x i ) 2
Por lo tanto, los EMV son los mismos que los EMC, y s 2 = n
n − 2 σ ˆ 2 , σ ˆ 2 = n − 2 n s 2
Nota: El hecho que los EMC coincidan con los EMV, a ˜nade las propiedades
de estos ´ultimos (consistencia, suficiencia) a la m´ınima varianza (eficiencia)
de los EMC (Teorema Gauss-Markov).
Observaciones:
El supuesto de normalidad de los errores es necesario para hacer inferen- cia pero no para que se cumplan las condiciones de Gauss-Markov.
El supuesto ∼ N (0, σ 2 ) hace que los EMV y los EMC coincidan. (A ex- cepci ´on del estimador de la varianza muestral)
Teorema de Gauss-Markov. Dentro de la clase de estimadores insesga- dos para β 0 y β 1 , los estimadores de m´ınimos cuadrados tienen varianza m´ınima. Se tiene que si β ˜ 0 es tal que E ( ˜ β 0 ) = β 0 :
⇒ Var ( ˜ β 0 ) ≥ Var ( ˆ β 0 ) An ´alogamente, si β ˜ 1 es tal que E ( ˜ β 1 ) = β 1 :
⇒ Var ( ˜ β 1 ) ≥ Var ( ˆ β 1 )
Donde β ˆ 0 , ˆ β 1 son los estimadores de m´ınimos cuadrados (EMC).
Distribuciones
Podemos escribir los EMC como funciones lineales de y ∼ N (β 0 + β 1 x, σ 2 ) β ˆ 1 = S xy
S xx = X c i y i , β ˆ 0 = ¯ y − ˆ β 1 x = ¯ X d i y i c i , d i ∈ R Luego,
β ˆ 1 ∼ N (β 1 , σ 2 1
S xx ), β ˆ 0 ∼ N
β 0 , σ 2
1
n + x ¯ 2 S xx
e independientemente,
s 2 ∼ σ 2
n − 2 χ 2 n−2 Respuesta media ajustada y(x) ˆ :
ˆ
y(x) = ˆ β 0 + ˆ β 1 x ∼ N
β 0 + β 1 x, σ 2
1
n + (x − ¯ x) 2 S xx
Nueva observaci ´on ˙y(x) :
˙y(x) = ˆ β 0 + ˆ β 1 x + ∼ N
β 0 + β 1 x, σ 2
1 + 1
n + (x − ¯ x) 2 S xx
Pruebas de Hip ´ otesis sobre los coeficientes
Suponiendo σ 2 conocida
Recta que pasa por β 0 0 al origen:
H 0 : β 0 = β 0 0 vs. H 1 : β 0 6= β 0 0
z 0 =
β ˆ 0 − β 0 0 de ( ˆ β 0 ) =
β ˆ 0 − β 0 0 σ
q 1
n + S x ¯
2xx
∼ N (0, 1)
Recta de pendiente β 1 0 :
H 0 : β 1 = β 1 0 vs. H 1 : β 1 6= β 1 0
z 1 =
β ˆ 1 − β 1 0 de ( ˆ β 1 ) =
β ˆ 1 − β 1 0 σ q
1 S
xx∼ N (0, 1)
−4 −2 0 2 4
0.0 0.1 0.2 0.3 0.4
z
densidad
− z
obsp
1z
obsp
2p
valor= p
1+ p
2Pruebas de Hip ´ otesis sobre los coeficientes
Suponiendo σ 2 desconocida Recta que pasa por β 0 0 al origen:
H 0 : β 0 = β 0 0 vs. H 1 : β 0 6= β 0 0
t ˆ 0 =
β ˆ 0 − β 0 0 ee ( ˆ β 0 ) =
β ˆ 0 − β 0 0 s
q 1
n + S x ¯
2xx
∼ t n−2
Recta de pendiente β 1 0 :
H 0 : β 1 = β 1 0 vs. H 1 : β 1 6= β 1 0
t ˆ 1 =
β ˆ 1 − β 1 0 ee ( ˆ β 1 ) =
β ˆ 1 − β 1 0 s q
1 S
xx∼ t n−2
−6 −4 −2 0 2 4 6
0.0 0.1 0.2 0.3 0.4
^ t
densidad
− t ^
obs
p
1^ t
obs
p
2p
value= p
1+ p
2Pruebas de Hip ´ otesis sobre los coeficientes
Casos particulares
Recta que pasa por el origen:
H 0 : β 0 = 0 vs. H 1 : β 0 6= 0
●
●
●
●
●
● ●
● ● ●
●
●
● ●
●
●
●
●
●
●
x y
Significancia de la regresi ´on:
H 0 : β 1 = 0 vs. H 1 : β 1 6= 0
●
●
●
●
●
●
●
●
●
●
● ●
●
●
●
●
●
●
●
●
x
y
Intervalos de Confianza
Ordenada al origen β 0 :
β ˆ 0 ± t (1−α/2;n−2) · s s
1
n + x ¯ 2 S xx Pendiente β 1 :
β ˆ 1 ± t (1−α/2;n−2) · s s
1 S xx Varianza σ 2 :
(n − 2)s 2 χ 2 (1−α/2,n−2)
, (n − 2)s 2 χ 2 (α/2,n−2)
!
Respuesta media y ˆ x , al nivel x :
ˆ
y x ± t (1−α/2;n−2) · s s
1
n + (x − ¯ x) 2 S xx Intervalos de predicci ´on – nueva observaci ´on ˙y x :
˙y x ± t (1−α/2;n−2) · s s
1 + 1
n + (x − ¯ x) 2
S xx
x y x
respuesta media nueva observación
y ^ = β ^ 0
+ β ^ 1
x
Recta Ajustada
Consideremos la reparametrizaci ´on del modelo de regresi ´on
y = β 0 + β 1 x + = β 0 0 + β 1 (x − ¯ x) +
Entonces, β ˆ 0
0 = ¯ y y var( ˆ β 0 0 ) = σ 2 /n
ˆ
β
00−β
00σ/ √
n
2
= n( ˆ β
00σ −β
2 00)
2∼ χ 2 1
ˆ
β
1−β
1σ/ √
S
xx2
= S
xx( ˆ β σ
12−β
1)
2∼ χ 2 1
Independientes
Luego,
n( ˆ β 0 0 − β 0 0 ) 2
σ 2 + S xx ( ˆ β 1 − β 1 ) 2
σ 2 ∼ χ 2 2
Y por otro lado,
(n − 2)s 2 /σ 2 ∼ χ 2 n−2
independientemente de β ˆ 0 0 y β ˆ 1 . Entonces,
n( ˆ β 0 0 − β 0 0 ) 2 + S xx ( ˆ β 1 − β 1 ) 2
2s 2 ∼ F 2,n−2
Por lo que una regi ´on del (1 − α) nivel de confianza para (β 0 , β 1 ) es:
RC (1−α) = n
(β 0 , β 1 ) : n( ˆ β 0 − β 0 ) 2 + 2 X
x i ( ˆ β 0 − β 0 )( ˆ β 1 − β 1 ) + X
x 2 i ( ˆ β 1 − β 1 ) 2 ≤ 2s 2 F (1−α;2,n−2)
o
Regiones de Confianza
Intervalos de Confianza y M ´etodo de Bonferroni
Sea IC j el intervalo de 1 − α nivel de confianza para el par ´ametro β j ( j = 0, 1 ).
Sea I j el evento “el intervalo IC j efectivamente contiene el par ´ametro de in- ter ´es β j ”. Luego, P (I j ) = 1 − α , y
P (I 0 ∩ I 1 ) = 1 − P ((I 0 ∩ I 1 ) c )
= 1 − P (I 0 c ∪ I 1 c )
= 1 − [ P (I 0 c ) + P (I 1 c ) − P (I 0 c ∩ I 1 c )]
= 1 − 2α + P (I 0 c ∩ I 1 c )
≥ 1 − 2α
Entonces, para garantizar un nivel de (1 − α) confianza conjunto, construya marginalmente los intervalos IC j con un nivel (1 − α/2) de confianza.
Para garantizar la confianza conjunta de k intervalos marginales con niveles
de confianza (1 − α/k) .
Intervalos y Regiones de Confianza para (β 0 , β 1 ) :
10 20 30 40 50
0.05 0.10 0.15 0.20
TV por cable
β 0
β 1
1 − α 1 − α
Marginales
1 − α 2 1 − α 2
Bonferroni
El coeficiente de determinaci ´on es el porcentaje de variabilidad debido a la regresi ´on; es decir, el porcentaje de la variabilidad de los datos explicado por el modelo.
R 2 = SC Debido a la regresi ´on SCTotal corregidos =
P (ˆ y i − ¯ y) 2
P (y i − ¯ y) 2 = SC Reg
SCT corr = 1 − SC Res SCT corr
Notas:
1. R 2 = [ corr (y, ˆ y)] 2 , de ah´ı que tambi ´en se le conozca como Coeficiente De Correlaci ´on Cuadrada.
2. corr (X, Y ) = signo ( ˆ β 1 ) · R
3. En la definici ´on de R 2 , se considera siempre un modelo base, que en el ca- so de la RLM es el modelo trivial: y = ¯ y + . Evite el uso de R 2 en modelos sin ordenada al origen.
4. 0 ≤ R 2 ≤ 1 . Sin embargo, si se tienen r ´eplicas puras, (varios y(x) ’s para el
mismo X = x ), se tiene error puro y no hay modelo que capture la variaci ´on
debida a este error. En este caso: R 2 < 1 .
Prueba de Hip ´ otesis
An ´alisis de Varianza
Fuente gl Suma de Cuadrados (SC) Cuadrados Medios (CM) F Debido regresi ´on 1 SC Reg = P(ˆ y i − ¯ y) 2 CM Reg = SC 1
RegCM CM
RegRes
Residuales n − 2 SC Res = P(y i − ˆ y i ) 2 CM Res = SC n−2
ResTotal (Corregido) n − 1 SC Total = P(y i − ¯ y) 2
An ´alisis de Varianza y Suma Extra de Cuadrados
Fuente GL Suma de Cuadrados Cuadrados Medios F
β 0 1 n y ¯ 2
β 1 |β 0 1 S 2 xy /S xx CM Reg CM Reg /s 2 Residuales n − 2 Por diferencia s 2
Total n P y i 2
Coeficiente de Determinaci ´ on R 2
Notas:(cont.)
5. R 2 cercanas a 1 indican “buen ajuste”. Recuerde sin embargo que “buen ajuste” y “mal ajuste” depende del contexto.
6. En el caso de RLS, se puede mostrar que E [R 2 ] =
β ˆ 1 2 S xx σ 2 + ˆ β 1 2 S xx
por lo que es posible incrementar R 2 aumentando el rango del regresor X . 7. Una R 2 alta no implica un buen modelo de predicci ´on.
8. En RLM, siempre se puede incrementar R 2 aumentando el n ´umero de re-
gresores.
Coeficiente de Correlaci ´ on (Muestral)
r =
P (y i − ¯ y)(x i − ¯ x) h P
(x i − ¯ x) 2 P (y i − ¯ y) 2 i
1/2 = S XY
[S XX S Y Y ] 1/2
Entonces, se puede mostrar que β ˆ 1 = r
S Y Y S XX
1/2
y que r 2 es el Coeficiente de Determinaci ´on. Es decir, r 2 = R 2 .
El modelo de una l´ınea recta que pasa por el origen es:
y i = βx i + i ,
tiene los siguientes estimadores (insesgados) de m´ınimos cuadra- dos:
β = ˆ
P x i y i
P x 2 i = S xy S xx y
s 2 = 1 n − 1
X (y i − ˆ y i ) 2 −3 −2 −1 0 1 2 3
−3
−2
−1 0 1 2 3
Regresión por el Origen
x
y
Los estimadores β ˆ y s 2 tiene propiedades similares a las correspondientes en los modelos con ordenada al origen. A saber,
β ∼ ˆ N (β, σ 2 1
S xx ) y s 2 ∼ σ 2
n − 1 χ 2 n−1
Recuerde que en este caso la R 2 no tiene sentido.
Transformaciones a una L´ınea Recta
Ejemplo: Generaci ´ on de Electricidad Mediante Molino de Viento ∗
Un ingeniero investiga la posibilidad de generar electricidad mediante un mo- lino de viento. Despu ´es de un tiempo ha registrado la corriente el ´ectrica que sale del molino y la velocidad del viento.
Datos:
obs. velocidad voltaje obs. velocidad voltaje
mph. kv. mph. kv.
1 5.00 1.58 14 5.80 1.74
2 6.00 1.82 15 7.40 2.09
3 3.40 1.06 16 3.60 1.14
4 2.70 0.50 17 7.85 2.18
5 10.00 2.24 18 8.80 2.11
6 9.70 2.39 19 7.00 1.80
7 9.55 2.29 20 5.45 1.50
8 3.05 0.56 21 9.10 2.30
9 8.15 2.17 22 10.20 2.31
10 6.20 1.87 23 4.10 1.19
11 2.90 0.65 24 3.95 1.14
12 6.35 1.93 25 2.45 0.12
13 4.60 1.56
4 6 8 10
0.5 1.0 1.5 2.0
velocidad (mph.)
v oltaje (kv.)
Ejemplo: Generaci ´ on de Electricidad (cont.) Ajuste del Modelo: y = β 0 + β 1 x +
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) 0.13088 0.12599 1.039 0.31 velocidad 0.24115 0.01905 12.659 7.55e-12
Residual standard error: 0.2361 on 23 degrees of freedom Multiple R-Squared: 0.8745, Adjusted R-squared: 0.869 F-statistic: 160.3 on 1 and 23 DF, p-value: 7.546e-12
Analysis of Variance Table
Response: voltaje
Df Sum Sq Mean Sq F value Pr(>F)
velocidad 1 8.9296 8.9296 160.26 7.546e-12
Residuals 23 1.2816 0.0557
Ejemplo: Generaci ´ on de Electricidad (cont.) Validaci ´ on del Modelo
1.0 1.5 2.0 2.5
−0.6 −0.4 −0.2 0.0 0.2 0.4 0.6
fitted values
residuals
Voltaje ajustado vs. Residuales
−0.6 −0.4 −0.2 0.0 0.2
−2 −1 0 1 2
residuals
nor mal scores
Gráfica Normal de Residuales
Análisis de Residuales
Ejemplo: Generaci ´ on de Electricidad (cont.)
Identificaci ´ on del Modelo – Transformaci ´ on X = 1/x
0.10 0.15 0.20 0.25 0.30 0.35 0.40
0.5 1.0 1.5 2.0
1/velocidad
v oltaje (kv.)
Ejemplo: Generaci ´ on de Electricidad (cont.) Ajuste del Modelo: y = β 0 + β 1 /x +
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) 2.9789 0.0449 66.34 <2e-16 invX -6.9345 0.2064 -33.59 <2e-16
Residual standard error: 0.09417 on 23 degrees of freedom Multiple R-Squared: 0.98, Adjusted R-squared: 0.9792 F-statistic: 1128 on 1 and 23 DF, p-value: < 2.2e-16
Analysis of Variance Table
Response: voltaje
Df Sum Sq Mean Sq F value Pr(>F)
invX 1 10.0072 10.0072 1128.4 < 2.2e-16
Residuals 23 0.2040 0.0089
Ejemplo: Generaci ´ on de Electricidad Mediante Molino de Viento Validaci ´ on del Modelo
0.5 1.0 1.5 2.0
−0.2 −0.1 0.0 0.1 0.2
fitted values
residuals
Voltaje ajustado vs. Residuales
−0.20 −0.10 0.00 0.05 0.10
−2 −1 0 1 2
residuals
nor mal scores
Gráfica Normal de Residuales
Análisis de Residuales
Transformaciones a una L´ınea Recta
Funciones Linealizables y Formas Lineales
Funci ´on Transformaci ´on Forma
Linealizable Lineal
y = β 0 x β
1Y = log y, X = log x Y = log β 0 + β 1 X y = β 0 e β
1x Y = log y Y = log β 0 + β 1 x y = β 0 + β 1 log x X = log x y = β 0 + β 1 X y = β x
0
x+β
1Y = 1 y , X = x 1 Y = β 0 + β 1 X
Transformaciones a una L´ınea Recta
Modelo:
y = β 0 x β 1
0 1
0 1
β 1 = 1 β 1 > 1 β 1 < 1
β 0 > 0 , β 1 > 0 ; x > 0
0 1
0 1
β 1 = − 1 β 1 < − 1 β 1 > − 1
β 0 > 0 , β 1 < 0 ; x > 0
Transformaciones a una L´ınea Recta
Modelo:
y = β 0 e β 1 x
0 β 0
β 1 = 1 β 1 > 1 β 1 < 1
β 0 > 0 , β 1 > 0 ; x > 0
0 β 0
β 1 = − 1 β 1 < − 1 β 1 > − 1
β 0 > 0 , β 1 < 0 ; x > 0
Transformaciones a una L´ınea Recta
Modelo:
y = β 0 + β 1 log(x)
0 1
0 β 0
β 1 = 1 β 1 > 1 β 1 < 1
β 0 > 0 , β 1 > 0 ; x > 0
0 1
0 β 0
β 1 = − 1 β 1 > − 1 β 1 < − 1
β 0 > 0 , β 1 < 0 ; x > 0
Transformaciones a una L´ınea Recta
Modelo:
y = x
β 0 x + β 1
0 β 0
β 1 = 1 β 1 > 1 β 1 < 1
β 0 > 0 , β 1 > 0 ; x > 0
0 β 0
β 1 = − 1 β 1 < − 1 β 1 > − 1
β 0 > 0 , β 1 < 0 ; x > 0
Transformaciones Estabilizadoras de la Varianza
Relaci ´on Transformaci ´on Notas
σ 2 ∝ k Y = y Sin transformaci ´on
σ 2 ∝ E (y) Y = √
y Ra´ız cuadrada (datos Poisson) σ 2 ∝ E (y)[1 − E (y)] Y = arcsin √
y Arco seno (proporciones binomiales) 0 ≤ y i ≤ 1
σ 2 ∝ [ E (y)] 2 Y = log y Logaritmo σ 2 ∝ [ E (y)] 3 Y = 1/ √
y Rec´ıproco ra´ız cuadrada
σ 2 ∝ [ E (y)] 4 Y = 1/y Rec´ıproco
F ´ ormula de Transmisi ´ on de Error - M ´etodo Delta ∗
M ´etodo Delta: Sea Y v. a. con al menos sus primeros 2 momentos finitos (E [Y ] = µ Y < ∞ y var (Y ) = σ Y 2 < ∞ ), y sea h(·) una funci ´on suave, al menos 2 veces diferenciable. Entonces
E [h(Y )] ≈ h(µ Y ) + h (2) (µ Y ) σ Y 2 2 var (h(Y )) ≈ h (1) (µ Y ) 2 σ Y 2
Ejemplo: Sea Y v. a. con varianza σ Y 2 ∝ µ 2 Y . Entonces W = log(Y ) tiene va- rianza constante.
Soluci ´on: Sea W = h(Y ) = log(Y ) . Entonces h 0 (y) = 1/y , y σ W 2 ≈ [h 0 (µ Y )] 2 σ Y 2 =
1 µ Y
2
σ Y 2 ∝ 1
µ 2 Y µ 2 Y ≡ 1 Esto es, σ W 2 ∝ k .
∗
Dudewicz and Mishra (1988), Casella and Berger (2002)
Ejemplo: Demanda de energ´ıa y uso de energ´ıa
Una compa ˜n´ıa generadora de electricidad est ´a interesada en modelar la demanda en horas pico (y) como funci ´on del uso mensual total (x).
obs. x y obs. x y
(kwh) (kw) (kwh) (kw) 1 679 0.79 27 837 4.20 2 292 0.44 28 1748 4.88 3 1012 0.56 29 1381 3.48 4 493 0.79 30 1428 7.58 5 582 2.70 31 1255 2.63 6 1156 3.64 32 1777 4.99 7 997 4.73 33 370 0.59 8 2189 9.50 34 2316 8.19 9 1097 5.34 35 1130 4.79 10 2078 6.85 36 463 0.51 11 1818 5.84 37 770 1.74 12 1700 5.21 38 724 4.10 13 747 3.25 39 808 3.94 14 2030 4.43 40 790 0.96 15 1643 3.16 41 783 3.29 16 414 0.50 42 406 0.44 17 354 0.17 43 1242 3.24 18 1276 1.88 44 658 2.14 19 745 0.77 45 1746 5.71 20 435 1.39 46 468 0.64 21 540 0.56 47 1114 1.90 22 874 1.56 48 413 0.51 23 1543 5.28 49 1787 8.33 24 1029 0.64 50 3560 14.94 25 710 4.00 51 1495 5.11 26 1434 0.31 52 2221 3.85 53 1526 3.93
500 1000 1500 2000 2500 3000 3500
0 5 10 15
uso de energia (kwh)
demanda de energia (kw)
∗
Montgomery and Peck (1992)
Ejemplo: Demanda de energ´ıa (cont.)
Ajuste del Modelo: y = β 0 + β 1 x +
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) -0.8313037 0.4416121 -1.882 0.0655 x 0.0036828 0.0003339 11.030 4.11e-15
Residual standard error: 1.577 on 51 degrees of freedom Multiple R-Squared: 0.7046, Adjusted R-squared: 0.6988 F-statistic: 121.7 on 1 and 51 DF, p-value: 4.106e-15
Analysis of Variance Table
Response: y
Df Sum Sq Mean Sq F value Pr(>F)
x 1 302.633 302.633 121.66 4.106e-15
Residuals 51 126.866 2.488
Ejemplo: Demanda de energ´ıa (cont.)
Validacion del Modelo:
0 2 4 6 8 10 12
−4 −2 0 2 4
fitted values
residuals
Voltaje ajustado vs. Residuales
−4 −2 0 2
−2 −1 0 1 2
residuals
nor mal scores
Gráfica Normal de Residuales
Análisis de Residuales
Ejemplo: Demanda de energ´ıa (cont.)
Identificaci ´ on del Modelo – Transformaci ´ on Y = √ y
500 1000 1500 2000 2500 3000 3500
0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0
uso de energia (kwh)
y
Ejemplo: Demanda de energ´ıa (cont.)
Ajuste del Modelo: Y = √
y = β 0 + β 1 x +
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) 5.822e-01 1.299e-01 4.481 4.22e-05 x 9.529e-04 9.824e-05 9.699 3.61e-13
Residual standard error: 0.464 on 51 degrees of freedom Multiple R-Squared: 0.6485, Adjusted R-squared: 0.6416 F-statistic: 94.08 on 1 and 51 DF, p-value: 3.614e-13
Analysis of Variance Table
Response: Y
Df Sum Sq Mean Sq F value Pr(>F)
x 1 20.2585 20.2585 94.078 3.614e-13
Residuals 51 10.9822 0.2153
Ejemplo: Demanda de energ´ıa (cont.)
Validaci ´ on del Modelo:
1.0 1.5 2.0 2.5 3.0 3.5 4.0
−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5
fitted values
residuals
Voltaje ajustado vs. Residuales
−1.0 −0.5 0.0 0.5
−2 −1 0 1 2
residuals
nor mal scores
Gráfica Normal de Residuales
Análisis de Residuales
Determinaci ´ on Anal´ıtica de Transformaciones
Transformaci ´ on estabilizadora de la varianza: Box-Cox ∗
Ajuste el modelo de regresi ´on lineal simple a la respuesta
Y =
y λ , λ 6= 0 log y, λ = 0
Para determinar qu ´e λ utilizar, considere
y (λ) =
( y λ −1
λ ˙y λ−1 , λ 6= 0
˙y log y, λ = 0
donde, ˙y = (Π n i=1 y i ) 1/n , es el promedio geom ´etrico de las respuestas y i . Esto es, ajuste
y (λ) = β 0 + β 1 x +
y elija λ ˆ que minimice la suma de cuadrados de los residuales SC Res (λ) .
Box and Cox (1964)
Determinaci ´ on Anal´ıtica de Transformaciones
Transformaci ´ on estabilizadora de la varianza: Box-Cox ∗ (Cont.) Intervalo (aproximado) del 100(1 − α) % de confianza para λ :
SC ∗ = SC Res (ˆ λ) 1 + t 2 (1−α/2,ν) ν
!
donde ν (= n − 2) son los grados de libertad de los residuales.
Observaciones:
Cuando el error tiene varianza constante se llama homosced ´astico; si no es constante, heterosced ´astico.
¿C ´omo saber qu ´e funci ´on proponer para estabilizar la varianza?
• Si el intervalo de confianza incluye al cero, el modelo es multiplicativo.
• Si el intervalo incluye al uno, indica que no hay que hacer una transfor-
maci ´on.
Transformaci ´ on estabilizadora de la varianza
Transformaciones Potencia de Box-Cox
Ejemplo: Demanda de energ´ıa y uso de energ´ıa
Variable respuesta: y (λ)
λ SC
Res(λ) log[SC
Res(λ)]
−2.00 34100.6 10.44
−1.75 12716.2 9.45
−1.50 5014.7 8.52
−1.25 2126.2 7.66
−1.00 986.0 6.89
−0.75 507.3 6.23
−0.50 291.6 5.68
−0.25 187.3 5.23
0.00 134.1 4.90
0.25 107.2 4.67
0.50 96.9 4.57
0.75 101.7 4.62
1.00 126.9 4.84
1.25 188.8 5.24
1.50 325.7 5.79
1.75 623.5 6.44
2.00 1275.6 7.15
SC
∗= 96.9 · (1 + 2.007
251 ) = 104.46
−2 −1 0 1 2
5 6 7 8 9 10
λ log ( S C Res ( λ ))
95 % conf
λ ^
Transformaciones Estabilizadoras de la Varianza
Transformaciones Potencia de Box-Cox Notas:
1. La transformaci ´on de Box-Cox ayuda a estabilizar la varianza y normalizar los datos.
2. La transformaci ´on de Box-Cox es continua en λ = 0 .
3. En la pr ´actica utilice valores de λ “f ´aciles de interpretar”. Por ejemplo, λ = 0.45 → λ ≡ 0.5 =⇒ y λ = √
y λ = −0.10 → λ ≡ 0.0 =⇒ y λ = log(y)
4. El m ´etodo de estimaci ´on de λ ˆ es el mismo en el caso de la regresi ´on lineal m ´ultiple.
5. Transformaci ´on utilizada en varias ´areas estad´ısticas, no solamente en mo- delos lineales.
6. Box y Cox (1964) es de los art´ıculos m ´as referenciados en la literatura
estad´ıstica. Es la transformaci ´on m ´as usada pero no la ´unica.
Transformaciones Estabilizadoras de la Varianza
Transformaciones Potencia de Box-Cox Notas 2:
1. Box y Cox sugieren la estimaci ´on de λ , β 0 y β 1 de manera conjunta y por m ´axima verosimilitud.
2. En la pr ´actica, se utiliza el perfil de la verosimilitud: para distintos valores de λ , se obtienen β ˆ 0 y β ˆ 1 y se elige λ ˆ tal que minimice la SC error .
3. Una partici ´on del intervalo [−2, 2] de longitud 0.25 es apropiada.
4. Hay otras familias de transformaciones o procedimientos utilizados en la
regresi ´on. Vea por ejemplo Carroll and Ruppert (1988).
Determinaci ´ on Anal´ıtica de Transformaciones
Transformaci ´ on de los regresores: Box-Tidwell 1
Supone que la variable respuesta y est ´a relacionada con una potencia del regresor x , digamos ξ = x α ,
E [y] = f (β 0 , β 1 ; ξ) = β 0 + β 1 ξ + donde
ξ =
x α , α 6= 0 ln x, α = 0
Aproximaci ´on por Taylor y m ´etodos iterativos para estimar α .
1
Box and Tidwell (1962)
Transformaciones a una L´ınea Recta
Modelo No lineal de Michaelis-Menten ∗
Ejemplo: Velocidad de reacci ´ on como funci ´ on de la concentraci ´ on
El modelo de Michaelis-Menten es utilizado en qu´ımica cin ´etica para modelar la velocidad inicial y de una reacci ´on enzim ´atica con la concentraci ´on x del substrato. El modelo est ´a dado por:
y = f (x, θ) + = θ 1 x
θ 2 + x + Que se puede linealizar de la siguiente manera:
Y = 1
f (x, θ) = β 0 + β 1 X donde,
Y = 1
y ; X = 1
x ; β 0 = 1
θ 1 ; β 1 = θ 2 θ 1
Bates and Watts (1988)
Transformaciones a una L´ınea Recta
Modelo No lineal de Michaelis-Menten Ejemplo: Velocidad de reacci ´ on (cont.)
obs. concentraci´ on velocidad
(x) (y)
1 0.02 47
2 0.02 76
3 0.06 97
4 0.06 107
5 0.11 123
6 0.11 139
7 0.22 152
8 0.22 159
9 0.56 191
10 0.56 201
11 1.10 200
12 1.10 207 0.0 0.2 0.4 0.6 0.8 1.0
50 100 150 200
Velocidad de Reacción
concentración [ppm]
velocidad [cuentas/min^2]
Transformaciones a una L´ınea Recta
Modelo No lineal de Michaelis-Menten Ejemplo: Velocidad de reacci ´ on (cont.)
Y = β 0 + β 1 X +
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) 0.0051072 0.0007040 7.255 2.74e-05 X 0.0002472 0.0000321 7.700 1.64e-05
Residual standard error: 0.001892 on 10 degrees of freedom Multiple R-squared: 0.8557, Adjusted R-squared: 0.8413 F-statistic: 59.3 on 1 and 10 DF, p-value: 1.642e-05
Analysis of Variance Table
Response: Y
Df Sum Sq Mean Sq F value Pr(>F)
X 1 2.1232e-04 2.1232e-04 59.297 1.642e-05
Residuals 10 3.5806e-05 3.5810e-06
Modelo No lineal de Michaelis-Menten Ejemplo: Velocidad de reacci ´ on (cont.)
Y = ˆ ˆ β 0 + ˆ β 1 X y = ˆ
θ ˆ 1 x θ ˆ 2 + x
0 10 20 30 40 50
0.005 0.010 0.015 0.020
a) Ajuste Modelo Transformado
1 / concentración
1 / velocidad
0.0 0.2 0.4 0.6 0.8 1.0
50 100 150 200
b) Modelo Ajustado en Escala Original
concentración [ppm]
velocidad [cuentas/min^2]
Ejemplo: Velocidad de reacci ´ on (cont.)
Gr ´aficas de Residuales
0.006 0.008 0.010 0.012 0.014 0.016
−2−1012
fitted values
std residuals
(a) Residuals vs. Fitted Values
−2 −1 0 1 2
−1.5−0.50.51.5
std residuals
normal scores
(b) Normal plot of residuals
std residuals
Frequency
−3 −2 −1 0 1 2 3
012345
(c) Histogram of residuals
2 4 6 8 10 12
−2−1012
order
std residuals
(d) Residuals in experimental order
Postule la clase general de los modelos
Identifique el modelo que será tentativamente utilizado
Estime los parámetros del modelo utilizado
tentativamente
¿Es el modelo adecuado?
Utilice el modelo
F
Verificación del modelo
SÍ
NO
Validaci ´ on del Modelo
Modelo:
y i = β 0 + β 1 x i + i , i = 1, . . . , n
Supuestos:
∼ N (0, σ 2 ) i.i.d.
Validaci ´ on:
Modelo Correcto. Bondad (Falta) de Ajuste An ´alisis de Residuales
• Varianza constante
• Normalidad
• Correlaci ´on
Modelo Correcto: Error Puro y Falta de Ajuste
x
y
x 1 x 2 x 3
y 1
y 2
y 3 y ^
1
y ^
2
y ^
3
y
1− y ^
1
y
2− y ^
2
y
3− y ^
3
y
1uy
1u− y
1y
2uy
2u− y
2y
3uy
3u− y
3Falta de ajuste
Error puro
Modelo Correcto: Error Puro y Falta de Ajuste
Considere los datos:
y iu ; u = 1, . . . , n i ; i = 1, . . . , m
la u - ´esima observaci ´on de la respuesta al nivel X = x i . Hay en total n = P m i=1 n i observaciones. La Suma de Cuadrados Debida al Error Puro:
SC Error Puro = SC EP =
m
X
i=1 n
iX
u=1
(y iu − ¯ y i· ) 2
con P m
i=1 (n i − 1) = n − m grados de libertad, y donde y ¯ i· = n 1
i
P n
iu=1 y iu es la respuesta promedio al nivel X = x i .
? El Cuadrado Medio Debido al Error Puro: CM EP = SC EP /n − m es un esti- mador de σ 2 , independientemente del modelo.
Note que SC EP es parte de la SC Resid pues
(y iu − ˆ y i ) = (y iu − ¯ y i· ) + (¯ y i· − ˆ y i )
Residual = Error Puro + Falta de Ajuste
Modelo Correcto: Error Puro y Falta de Ajuste
En la presencia de r ´eplicas puras la Suma de Cuadrados de los Residuales se puede descomponer como
P m i=1
P n
iu=1 (y iu − ˆ y i ) 2 = P m i=1 P n u=1
i(y iu − ¯ y i· ) 2 + P m i=1 n i (¯ y i· − ˆ y i ) 2
SC Residuales = SC Error Puro + SC Falta de Ajuste
g.l. (n − 2) = (n − m) + (m − 2)
Bajo los supuestos del modelo, CM EP = SC EP /(n − m) y CM FA = SC FA /m − 2 son estimaciones independientes de σ 2 , y su cociente ser´ıa aproximadamen- te 1. De hecho, bajo los supuestos del modelo:
F = ˆ CM FA
CM EP ∼ F (m−2,n−m) Entonces, si
F > F ˆ (1−α;m−2,n−m) =⇒ “El modelo no es correcto”
Modelo Correcto: Error Puro y Falta de Ajuste
Ejemplo Simulado Datos:
i x
iy
iy ¯
iy ˆ
1iy ˆ
2ii x
iy
iy ¯
iy ˆ
1iy ˆ
2i1 1 −2.25 3.71 −10.96 3.84 21 6 33.11 35.56 49.10 40.25 2 1 7.46 3.71 −10.96 3.84 22 6 27.60 35.56 49.10 40.25 3 1 5.90 3.71 −10.96 3.84 23 6 40.54 35.56 49.10 40.25 4 2 0.34 7.38 1.05 6.34 24 6 40.98 35.56 49.10 40.25 5 2 15.19 7.38 1.05 6.34 25 7 56.39 56.46 61.11 54.69 6 2 3.98 7.38 1.05 6.34 26 7 60.16 56.46 61.11 54.69 7 2 9.47 7.38 1.05 6.34 27 7 52.84 56.46 61.11 54.69 8 2 7.90 7.38 1.05 6.34 28 8 62.01 71.17 73.13 71.52 9 3 10.01 6.49 13.06 11.24 29 8 73.47 71.17 73.13 71.52 10 3 0.57 6.49 13.06 11.24 30 8 85.05 71.17 73.13 71.52 11 3 8.87 6.49 13.06 11.24 31 8 63.58 71.17 73.13 71.52 12 4 11.06 19.93 25.08 18.52 32 8 71.72 71.17 73.13 71.52 13 4 24.18 19.93 25.08 18.52 33 9 93.55 90.62 85.14 90.75 14 4 27.03 19.93 25.08 18.52 34 9 97.28 90.62 85.14 90.75 15 4 17.43 19.93 25.08 18.52 35 9 83.49 90.62 85.14 90.75 16 5 30.60 31.84 37.09 28.19 36 9 88.16 90.62 85.14 90.75 17 5 34.89 31.84 37.09 28.19 37 10 110.30 112.79 97.15 112.36 18 5 31.50 31.84 37.09 28.19 38 10 113.64 112.79 97.15 112.36 19 5 28.60 31.84 37.09 28.19 39 10 114.44 112.79 97.15 112.36 20 5 33.60 31.84 37.09 28.19
donde x i es el nivel del regresor; y i la respuesta observada; y ¯ i la respuesta media obser-
vada; y ˆ 1i la respuesta media ajustada por el modelo 1; y y ˆ 2i la respuesta media ajustada
por el modelo 2.
Modelo Correcto: Error Puro y Falta de Ajuste
Ejemplo Simulado
2 4 6 8 10
0 20 40 60 80 100
a) Datos
x
y
2 4 6 8 10
0 20 40 60 80 100
b) Modelos Ajustados
x
y
Modelo lineal
cuadrático
Modelo Correcto: Error Puro y Falta de Ajuste
Ejemplo Simulado Ajuste modelo lineal
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) -22.975 3.652 -6.292 2.53e-07
x 12.013 0.594 20.224 < 2e-16
Residual standard error: 10.28 on 37 degrees of freedom Multiple R-squared: 0.917, Adjusted R-squared: 0.9148 F-statistic: 409 on 1 and 37 DF, p-value: < 2.2e-16 Analysis of Variance Table
Response: y
Df Sum Sq Mean Sq F value Pr(>F) x 1 43255 43255 409.02 < 2.2e-16 Residuals 37 3913 106
SCRes SCEP SCFA F p
3.912829e+03 1.021897e+03 2.890932e+03 1.025507e+01 2.090028e-06
Modelo Correcto: Error Puro y Falta de Ajuste
Ejemplo Simulado
An ´alisis de Residuales
0 20 40 60 80 100
−20
−10 0 10 20
a) Modelo lineal
y ^
r^
0 20 40 60 80 100
−10
−5 0 5 10
b) Modelo cuadrático
y ^
r^
Modelo Correcto: Error Puro y Falta de Ajuste
Ejemplo Simulado
Ajuste modelo cuadr ´atico
Coefficients:
Estimate Std. Error t value Pr(>|t|) (Intercept) 3.7195 3.7326 0.996 0.326
x -1.0763 1.5490 -0.695 0.492
x2 1.1940 0.1378 8.665 2.47e-10
Residual standard error: 5.935 on 36 degrees of freedom Multiple R-squared: 0.9731, Adjusted R-squared: 0.9716 F-statistic: 651.5 on 2 and 36 DF, p-value: < 2.2e-16 Analysis of Variance Table
Response: y
Df Sum Sq Mean Sq F value Pr(>F) x 1 43255 43255 1227.983 < 2.2e-16
x2 1 2645 2645 75.084 2.467e-10
Residuals 36 1268 35
SCRes SCEP SCFA F p
1268.0666396 1021.8971671 246.1694725 0.8732428 0.5390620
η i = E [y i ] = E [y|x = x i ]
es el valor esperado de la respuesta y al nivel del regresor x = x i . Y sea ˆ
y i = ˆ β 0 + ˆ β 1 x i el valor ajustado del modelo al mismo nivel.
ˆ
i = (y i − ˆ y i ) = (y i − ˆ y i ) + E [y i − ˆ y i ] + E [y i − ˆ y i ]
= [(y i − ˆ y i ) − (η i − E [ˆ y i ])]
| {z }
q i
+ (η i − E [ˆ y i ])
| {z } b i
donde b i es el sesgo al nivel x = x i .
• Si el modelo es correcto E [ˆ y i ] = η i =⇒ b i = 0
• Por otro lado, E [q i ] = 0 independientemente del modelo.
• Se puede mostrar que los q i son correlacionados y E [ P q i ] = (n − 2)σ 2 . De donde,
E [s 2 ] = E
1 n − 2
X (y i − ˆ y i ) 2
=
σ 2 si el modelo es correcto
σ 2 + n−2 1 P b 2 i si el modelo no es correcto
An ´alisis de Residuales
Mediante los residuales tratamos de verificar si los supuestos del modelo se satisfacen.
y i = β 0 + β 1 x i + i , i = 1, . . . , n
∼ N (0, σ 2 ), v.a.i.i.d.
ˆ
i = y i − ˆ y i = y i − ( ˆ β 0 + ˆ β 1 x i )
Los residuales son “errores observados” si el modelo es correcto. Pero por las ecuaciones normales se tiene dependencia entre ellos.
¿Sugieren los residuales que los supuestos no se satisfacen?
An ´alisis m ´as sofisticados: pruebas estad´ısticas formales.
Definici ´on de otros residuales.
Validaci ´ on del Modelo
An ´alisis de Residuales
Varianza constante
• Prueba de Barttlet.
• Prueba de Levene.
? Gr ´aficas de residuales: (ˆ i vs. y ˆ i ); (ˆ i vs. i) ; (ˆ i vs. x j i ) .
• (ˆ i vs. y i ) no se grafican por estar correlacionados.
Normalidad
• Pruebas de Bondad de Ajuste: χ 2 ; Kolmogorov-Smirnov ; Anderson- Darling; Jarque-Bera, Cram ´er-Von Mises, Lilliefors, etc.
? Gr ´aficas de residuales ˆ en papel de probabilidad normal.
Correlaci ´on
• Significancia de la autocorrelaci ´on de residuales r ` .
• Correlogramas.
• Prueba de Durbin-Watson.
? Gr ´aficas de residuales: (ˆ vs. ˆ ).
An ´alisis de Residuales
Varianza constante
0 20 40 60 80 100
−20
−10 0 10 20
e ^
i vs. y ^
i
respuesta ajustada
residual
0 20 40 60 80 100
−20
−10 0 10 20
e ~
i vs. y ~
i
respuesta ajustada
residual
An ´alisis de Residuales
Varianza constante
0 10 20 30 40 50
−0.004 −0.002 0.000 0.002 0.004
e ^
i vs. x i
regresor
residual
2 4 6 8 10 12
−0.004 −0.002 0.000 0.002 0.004
e ^
i vs. i
tiempo
residual
Normalidad
0.682
2σ
µ − 3σ µ − 2σ µ − σ µ µ + σ µ + 2σ µ + 3σ
−3 −2 −1 0 1 2 3
Probabilidad Acumulada
0.0 0.2 0.4 0.6 0.8 1.0
0.159 0.841
2σ 0.682
µ − 3σ µ − 2σ µ − σ µ µ + σ µ + 2σ µ + 3σ
−3 −2 −1 0 1 2 3
Probabilidad
0.001 0.01 0.05 0.1 0.2 0.3 0.5 0.7 0.8 0.9 0.95 0.99 0.999
−3
−2
−1 0 1 2 3
escale normal
0.159 0.841
2σ 0.682
µ − 3σ µ − 2σ µ − σ µ µ + σ µ + 2σ µ + 3σ
−3 −2 −1 0 1 2 3
Ejemplo simulado:
100 observaciones normales
a) Histograma
x
−2 −1 0 1 2
−3−2−10123
b) Gráfica Cuantil−Cuantil
x
normal scores
Papel de probabilidad Normal
1. Ordene la muestra {z 1 , . . . , z n } : x 1 = z (1) , . . . , x n = z (n)
2. Calcule la probabilidad emp´ırica acumulada: y i = F n (x i ) = i−1/2 n 3. Grafique (x i , y i ), i = 1, . . . , n en papel de probabilidad normal.
i z
iord. x
iF
n(x
i) 1 1.703 9 - 1.820 0.025 2 - 0.865 17 - 1.263 0.075 3 - 0.301 11 - 1.251 0.125 4 1.014 18 - 1.039 0.175 5 2.088 2 - 0.865 0.225 6 0.740 13 - 0.726 0.275 7 - 0.254 16 - 0.494 0.325 8 0.968 3 - 0.301 0.375 9 - 1.820 7 - 0.254 0.425 10 1.014 14 0.330 0.475 11 - 1.251 12 0.458 0.525 12 0.458 6 0.740 0.575 13 - 0.726 20 0.789 0.625 14 0.330 8 0.968 0.675 15 1.845 4 1.014 0.725 16 - 0.494 10 1.014 0.775 17 - 1.263 19 1.539 0.825 18 - 1.039 1 1.703 0.875 19 1.539 15 1.845 0.925 20 0.789 5 2.088 0.975
Papel de Probabilidad Normal (gráfica cuantil−cuantil)
F
n( z
i)
−2 −1 0 1 2
0.05 0.1 0.2 0.3 0.5 0.7 0.8 0.9 0.95
−2
−1 0 1 2
escala normal