2. El Modelo de Regresión Lineal Simple

Texto completo

(1)

2. El Modelo de Regresi ´ on Lineal Simple

Problema de m´ınimos cuadrados.

Estimadores m´ınimos cuadrados β ˆ 0 , β ˆ 1 , y s 2 .

Estimadores de m ´axima verosimilitud y propiedades.

Inferencia: pruebas de hip ´otesis e intervalos de confianza.

Bondad de ajuste: ANOVA , R 2 .

Transformaciones de la l´ınea recta.

Transformaciones potencia de Box-Cox y Box-Tidwell.

Modelos no lineales.

Error puro y falta de ajuste.

Revisi ´on de los supuestos del modelo de regresi ´on: An ´alisis de residuales.

(2)

altura (cm)

presión (kg/cm^2)

100 120 140 160 180 200

0 50 100 150 200

y obs y

e = y obs − y

(no observado)

y = β 0 + β 1 x

(teórica)

Modelo generador teórico

(3)

Regresi ´ on Lineal Simple

y i = β 0 + β 1 x i +  i , i = 1, . . . , n

Donde,

y i : variable de respuesta, variable dependiente.

x i : variable de control, regresor, variable independiente.

β 0 , β 1 : coeficientes del modelo.

β 0 : es el nivel de la respuesta cuando x = 0 .

β 1 : es el incremento en la respuesta cuando aumento al regresor x en una unidad. (tasa de cambio)

 i : error aleatorio (no observado), diferencia entre el modelo generador y el

valor observado.

(4)

Regresi ´ on Lineal Simple

Si suponemos que el error  es tal que

E[] = 0, var() = σ 2 , cov(,  0 ) = 0 la respuesta y es aleatoria, pero para el nivel x = x 0 ,

E[y|x = x 0 ] = β 0 + β 1 x 0 var(y|x = x 0 ) = var() = σ 2

cov(y, y 0 ) = 0 Esto es,

El nivel medio de y depende del nivel de x.

La variabilidad de la respuesta y no depende de x.

cov(y, y 0 ) = cov(,  0 ) = 0.

β 0 es la respuesta media para x = 0.

β 1 es el incremento de la respuesta debido a un cambio unitario del

regresor x. Es decir, para ∆ x = 1, se tiene que ∆ y = β 1 .

(5)

altura (cm)

presión (kg/cm^2)

100 120 140 160 180 200

0 50 100 150 200

y obs

~ y

r~ = y obs − y ~

(residual)

~ = β~ y 0 + β ~

1 x

(ajustada)

modelo generador

Modelo ajustado

(6)

Criterios para determinar la “mejor” l´ınea recta

Problema: Elegir “la mejor ” l´ınea recta ( β 0 , β 1 ).

1. Elija ( ˜ β 0 , ˜ β 1 ) , de modo que X

i

(y i − ˜ y i ) = X

i

(y i − ˜ β 0 − ˜ β 1 x i ) = 0 ¡¡¡Impr ´actico!!!

2. Criterio L 1 : M´ınima Desviaci ´on Absoluta m´ın β

X

i

|y i − ˜ β 0 − ˜ β 1 x i |

3. Criterio L 2 : M´ınimos Cuadrados m´ın β

X

i

(y i − ˜ β 0 − ˜ β 1 x i ) 2

4. Criterio L : M´ınima Desviaci ´on M ´axima m´ın β

n

m´ ax

i

y i − ˜ β 0 − ˜ β 1 x i o

(7)

El Problema de M´ınimos Cuadrados

Considere la suma de cuadrados: S(β) .

= P n i=1 (y i − β 0 − β 1 x i ) 2 Criterio:

m´ın β S(β) ≡ m´ın

β

0

, β

1

n

X

i=1

(y i − β 0 − β 1 x i ) 2

dS

dβ ≡ 0 =⇒

 

 

 

 

Ecuaciones normales ( ortogonales ) : nβ 0 + β 1 P x i = P y i

β 0 P x i + β 1 P x 2 i = P x i y i Soluci ´on: Estimadores M´ınimos Cuadrados

β ˆ 1 =

X (x i − ¯ x)(y i − ¯ y)

X (x i − ¯ x) 2 = S xy S xx

β ˆ 0 = ¯ y − ˆ β 1 x ¯

(8)

altura (cm)

presión (kg/cm^2)

100 120 140 160 180 200

0 50 100 150 200

x y

y ^ = β^ 0 + β ^

1 x

Recta ajustada por mínimos cuadrados

La recta ajustada pasa por el centroide de los datos(X, Y )

(9)

Se considera un motor de cohete estudiando el propelente de encendido den- tro de un dep ´osito de metal. La fuerza para separar la uni ´on entre las compo- nentes del combustible es la respuesta, que depende de la edad de propelen- te.

Datos:

obs fuerza edad obs fuerza edad 1 2158.70 15.50 11 2165.20 13.00 2 1678.15 23.75 12 2399.55 3.75 3 2316.00 8.00 13 1779.80 25.00 4 2061.30 17.00 14 2336.75 9.75 5 2207.50 5.50 15 1765.30 22.00 6 1708.30 19.00 16 2053.50 18.00 7 1784.70 24.00 17 2414.40 6.00 8 2575.00 2.50 18 2200.50 12.50 9 2357.90 7.50 19 2654.20 2.00 10 2256.70 11.00 20 1753.70 21.50

5 10 15 20 25

1800 2000 2200 2400 2600

Propelente

edad (semanas)

fuerza (psi)

Montgomery et al. (2001)

(10)

Ejemplo Propelente (cont.)

0 5 10 15 20 25

1800 2000 2200 2400 2600

Propelente

edad (semanas)

fuerza (psi)

1708.3 y 1921.9 y ^ r^ = −213.6

y = 2627.82 − 37.15x

(11)

Ejemplo Propelente (cont.)

Ajuste:

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 2627.822 44.184 59.48 < 2e-16 edad -37.154 2.889 -12.86 1.64e-10

Residual standard error: 96.11 on 18 degrees of freedom Multiple R-squared: 0.9018, Adjusted R-squared: 0.8964 F-statistic: 165.4 on 1 and 18 DF, p-value: 1.643e-10

Analysis of Variance Table Response: fuerza

Df Sum Sq Mean Sq F value Pr(>F)

edad 1 1527483 1527483 165.38 1.643e-10

Residuals 18 166255 9236

(12)

Ejemplo Propelente (cont.)

Datos ajustados y residuales:

obs yobs yhat res obs yobs yhat res

1 2158.70 2051.9 106.8 11 2165.20 2144.8 20.4 2 1678.15 1745.4 -67.3 12 2399.55 2488.5 -88.9 3 2316.00 2330.6 -14.6 13 1779.80 1699.0 80.8

4 2061.30 1996.2 65.1 14 2336.75 2265.6 71.2

5 2207.50 2423.5 -216.0 15 1765.30 1810.4 -45.1 6 1708.30 1921.9 -213.6 16 2053.50 1959.1 94.4

7 1784.70 1736.1 48.6 17 2414.40 2404.9 9.5

8 2575.00 2534.9 40.1 18 2200.50 2163.4 37.1

9 2357.90 2349.2 8.7 19 2654.20 2553.5 100.7

10 2256.70 2219.1 37.6 20 1753.70 1829.0 -75.3

Observe que P n

i=1 res i = 0.

(13)

Ejemplo Propelente (cont.)

1800 2000 2200 2400

−200 −100 0 100 200

Residuales vs. Respuesta Ajustada

respuesta ajustada

residual

(14)

Propiedades de los estimadores de m´ınimos cuadrados

β ˆ 1 =

P (x i − ¯ x)(y i − ¯ y) P (x i − ¯ x) 2 E [ ˆ β 1 ] = β 1

var ( ˆ β 1 ) = σ 2 1 S xx

β ˆ 0 = ¯ y − ˆ β 1 x ¯

E [ ˆ β 0 ] = β 0

var ( ˆ β 0 ) = σ 2

 1

n + x ¯ 2 S xx



Nota: Los resultados anteriores se siguen del hecho que P

(x i − ¯ x) = 0 y por lo mismo S xy = P (x i − ¯ x)y i . Luego β ˆ 1 = P c i y i , donde c i = (x i − ¯ x)/S xx .

Teorema Gauss-Markov Bajo los supuestos

E [ i ] = 0, var ( i ) = σ 2 , cov ( i ,  j ) = 0

los estimadores de m´ınimos cuadrados son los mejores estimadores lineales

insesgados, en el sentido de que tienen varianza m´ınima.

(15)

Propiedades de los estimadores de m´ınimos cuadrados

ˆ

r i = y i − ˆ y i = y i − ( ˆ β 0 + ˆ β 1 x i ) Se tiene que,

1.

X r ˆ i = X (y i − ˆ y i ) = 0 2.

X y ˆ i = X y i 3.

¯

y = ˆ β 0 + ˆ β 1 x ¯ 4.

X x i r ˆ i = 0 5.

X y ˆ i r ˆ i = 0

(16)

Estimaci ´ on de σ 2

Suma de Cuadrados:

SC Res =

n

X

i=1

(y i − ˆ y i ) 2 = S yy − ˆ β 1 S xy

Si se supone adem ´as que  ∼ N(0, σ 2 ), se puede mostrar que

SC Res

σ 2 ∼ χ 2 n−2 Luego,

E  SC Res σ 2



= n − 2, var  SC Res σ 2



= 2(n − 2)

Cuadrados Medios:

s 2 = CM Res = 1

n − 2 SC Res = 1 n − 2

X (y i − ˆ y i ) 2

Entonces,

E s 2  = E  SC Res n − 2



= σ 2 , var s 2  = var  SC Res n − 2



= 2σ 4 n − 2

Error Est ´andar de la Regresi ´on:

s = p CM Res = s

SC Res n − 2 =

r 1 n − 2

X (y i − ˆ y i ) 2

(17)

Inferencia

Estimaci ´ on por M ´axima Verosimilitud

y i − β 0 − β 1 x i ∼ N (0, σ 2 ) i.i.d.

Funci ´on de verosimilitud del modelo de regresi ´on:

L(β 0 , β 1 , σ 2 ; x, y) =

n

Y

i=1

f  (x i , y i ; β 0 , β 1 , σ 2 )

=

n

Y

i=1

√ 1

2πσ exp



− 1

2 (y i − β 0 − β 1 x i ) 2



= (2π) −n/2 σ −n exp (

− 1 2σ 2

n

X

i=1

(y i − β 0 − β 1 x i ) 2 )

` = log L = − n

2 log(2π) − n log(σ) − 1 2σ 2

n

X

i=1

(y i − β 0 − β 1 x i ) 2

(18)

Estimaci ´ on por M ´axima Verosimilitud

Maximizar la funci ´on de verosimilitud equivale a minimizar la suma de cuadra- dos:

∂ log L

∂β 0 = 0

∂ log L

∂β 1 = 0

La soluci ´on del sistema da lugar a los Estimado- res de M ´axima Verosimili- tud (EMV).

β ˆ 1 = S S xy

xx

β ˆ 0 = ¯ y − ˆ β 1 x ¯

Adem ´as,

∂ log L

∂σ = 0 =⇒ σ ˆ 2 = 1 n

n

X

i=1

(y i − ˆ β 0 − ˆ β 1 x i ) 2

Por lo tanto, los EMV son los mismos que los EMC, y s 2 = n

n − 2 σ ˆ 2 , σ ˆ 2 = n − 2 n s 2

Nota: El hecho que los EMC coincidan con los EMV, a ˜nade las propiedades

de estos ´ultimos (consistencia, suficiencia) a la m´ınima varianza (eficiencia)

de los EMC (Teorema Gauss-Markov).

(19)

Observaciones:

El supuesto de normalidad de los errores es necesario para hacer inferen- cia pero no para que se cumplan las condiciones de Gauss-Markov.

El supuesto  ∼ N (0, σ 2 ) hace que los EMV y los EMC coincidan. (A ex- cepci ´on del estimador de la varianza muestral)

Teorema de Gauss-Markov. Dentro de la clase de estimadores insesga- dos para β 0 y β 1 , los estimadores de m´ınimos cuadrados tienen varianza m´ınima. Se tiene que si β ˜ 0 es tal que E ( ˜ β 0 ) = β 0 :

⇒ Var ( ˜ β 0 ) ≥ Var ( ˆ β 0 ) An ´alogamente, si β ˜ 1 es tal que E ( ˜ β 1 ) = β 1 :

⇒ Var ( ˜ β 1 ) ≥ Var ( ˆ β 1 )

Donde β ˆ 0 , ˆ β 1 son los estimadores de m´ınimos cuadrados (EMC).

(20)

Distribuciones

Podemos escribir los EMC como funciones lineales de y ∼ N (β 0 + β 1 x, σ 2 ) β ˆ 1 = S xy

S xx = X c i y i , β ˆ 0 = ¯ y − ˆ β 1 x = ¯ X d i y i c i , d i ∈ R Luego,

β ˆ 1 ∼ N (β 1 , σ 2 1

S xx ), β ˆ 0 ∼ N



β 0 , σ 2

 1

n + x ¯ 2 S xx



e independientemente,

s 2 ∼ σ 2

n − 2 χ 2 n−2 Respuesta media ajustada y(x) ˆ :

ˆ

y(x) = ˆ β 0 + ˆ β 1 x ∼ N



β 0 + β 1 x, σ 2

 1

n + (x − ¯ x) 2 S xx



Nueva observaci ´on ˙y(x) :

˙y(x) = ˆ β 0 + ˆ β 1 x +  ∼ N



β 0 + β 1 x, σ 2



1 + 1

n + (x − ¯ x) 2 S xx



(21)

Pruebas de Hip ´ otesis sobre los coeficientes

Suponiendo σ 2 conocida

Recta que pasa por β 0 0 al origen:

H 0 : β 0 = β 0 0 vs. H 1 : β 0 6= β 0 0

z 0 =

β ˆ 0 − β 0 0 de ( ˆ β 0 ) =

β ˆ 0 − β 0 0 σ

q 1

n + S x ¯

2

xx

∼ N (0, 1)

Recta de pendiente β 1 0 :

H 0 : β 1 = β 1 0 vs. H 1 : β 1 6= β 1 0

z 1 =

β ˆ 1 − β 1 0 de ( ˆ β 1 ) =

β ˆ 1 − β 1 0 σ q

1 S

xx

∼ N (0, 1)

−4 −2 0 2 4

0.0 0.1 0.2 0.3 0.4

z

densidad

− z

obs

p

1

z

obs

p

2

p

valor

= p

1

+ p

2

(22)

Pruebas de Hip ´ otesis sobre los coeficientes

Suponiendo σ 2 desconocida Recta que pasa por β 0 0 al origen:

H 0 : β 0 = β 0 0 vs. H 1 : β 0 6= β 0 0

t ˆ 0 =

β ˆ 0 − β 0 0 ee ( ˆ β 0 ) =

β ˆ 0 − β 0 0 s

q 1

n + S x ¯

2

xx

∼ t n−2

Recta de pendiente β 1 0 :

H 0 : β 1 = β 1 0 vs. H 1 : β 1 6= β 1 0

t ˆ 1 =

β ˆ 1 − β 1 0 ee ( ˆ β 1 ) =

β ˆ 1 − β 1 0 s q

1 S

xx

∼ t n−2

−6 −4 −2 0 2 4 6

0.0 0.1 0.2 0.3 0.4

^ t

densidad

− t ^

obs

p

1

^ t

obs

p

2

p

value

= p

1

+ p

2

(23)

Pruebas de Hip ´ otesis sobre los coeficientes

Casos particulares

Recta que pasa por el origen:

H 0 : β 0 = 0 vs. H 1 : β 0 6= 0

● ●

● ● ●

● ●

x y

Significancia de la regresi ´on:

H 0 : β 1 = 0 vs. H 1 : β 1 6= 0

● ●

x

y

(24)

Intervalos de Confianza

Ordenada al origen β 0 :

β ˆ 0 ± t (1−α/2;n−2) · s s

1

n + x ¯ 2 S xx Pendiente β 1 :

β ˆ 1 ± t (1−α/2;n−2) · s s

1 S xx Varianza σ 2 :

(n − 2)s 2 χ 2 (1−α/2,n−2)

, (n − 2)s 2 χ 2 (α/2,n−2)

!

Respuesta media y ˆ x , al nivel x :

ˆ

y x ± t (1−α/2;n−2) · s s

1

n + (x − ¯ x) 2 S xx Intervalos de predicci ´on – nueva observaci ´on ˙y x :

˙y x ± t (1−α/2;n−2) · s s

1 + 1

n + (x − ¯ x) 2

S xx

(25)

x y x

respuesta media nueva observación

y ^ = β ^ 0

+ β ^ 1

x

Recta Ajustada

(26)

Consideremos la reparametrizaci ´on del modelo de regresi ´on

y = β 0 + β 1 x +  = β 0 0 + β 1 (x − ¯ x) + 

Entonces, β ˆ 0

0 = ¯ y y var( ˆ β 0 0 ) = σ 2 /n

 ˆ

β

00

−β

00

σ/ √

n

 2

= n( ˆ β

00

σ −β

2 00

)

2

∼ χ 2 1

 ˆ

β

1

−β

1

σ/ √

S

xx

 2

= S

xx

( ˆ β σ

12

−β

1

)

2

∼ χ 2 1

 

 

Independientes

Luego,

n( ˆ β 0 0 − β 0 0 ) 2

σ 2 + S xx ( ˆ β 1 − β 1 ) 2

σ 2 ∼ χ 2 2

Y por otro lado,

(n − 2)s 22 ∼ χ 2 n−2

independientemente de β ˆ 0 0 y β ˆ 1 . Entonces,

n( ˆ β 0 0 − β 0 0 ) 2 + S xx ( ˆ β 1 − β 1 ) 2

2s 2 ∼ F 2,n−2

Por lo que una regi ´on del (1 − α) nivel de confianza para (β 0 , β 1 ) es:

RC (1−α) = n

0 , β 1 ) : n( ˆ β 0 − β 0 ) 2 + 2 X

x i ( ˆ β 0 − β 0 )( ˆ β 1 − β 1 ) + X

x 2 i ( ˆ β 1 − β 1 ) 2 ≤ 2s 2 F (1−α;2,n−2)

o

(27)

Regiones de Confianza

Intervalos de Confianza y M ´etodo de Bonferroni

Sea IC j el intervalo de 1 − α nivel de confianza para el par ´ametro β j ( j = 0, 1 ).

Sea I j el evento “el intervalo IC j efectivamente contiene el par ´ametro de in- ter ´es β j ”. Luego, P (I j ) = 1 − α , y

P (I 0 ∩ I 1 ) = 1 − P ((I 0 ∩ I 1 ) c )

= 1 − P (I 0 c ∪ I 1 c )

= 1 − [ P (I 0 c ) + P (I 1 c ) − P (I 0 c ∩ I 1 c )]

= 1 − 2α + P (I 0 c ∩ I 1 c )

≥ 1 − 2α

Entonces, para garantizar un nivel de (1 − α) confianza conjunto, construya marginalmente los intervalos IC j con un nivel (1 − α/2) de confianza.

Para garantizar la confianza conjunta de k intervalos marginales con niveles

de confianza (1 − α/k) .

(28)

Intervalos y Regiones de Confianza para0 , β 1 ) :

10 20 30 40 50

0.05 0.10 0.15 0.20

TV por cable

β 0

β 1

1 − α 1 − α

Marginales

1 − α 2 1 − α 2

Bonferroni

(29)

El coeficiente de determinaci ´on es el porcentaje de variabilidad debido a la regresi ´on; es decir, el porcentaje de la variabilidad de los datos explicado por el modelo.

R 2 = SC Debido a la regresi ´on SCTotal corregidos =

P (ˆ y i − ¯ y) 2

P (y i − ¯ y) 2 = SC Reg

SCT corr = 1 − SC Res SCT corr

Notas:

1. R 2 = [ corr (y, ˆ y)] 2 , de ah´ı que tambi ´en se le conozca como Coeficiente De Correlaci ´on Cuadrada.

2. corr (X, Y ) = signo ( ˆ β 1 ) · R

3. En la definici ´on de R 2 , se considera siempre un modelo base, que en el ca- so de la RLM es el modelo trivial: y = ¯ y +  . Evite el uso de R 2 en modelos sin ordenada al origen.

4. 0 ≤ R 2 ≤ 1 . Sin embargo, si se tienen r ´eplicas puras, (varios y(x) ’s para el

mismo X = x ), se tiene error puro y no hay modelo que capture la variaci ´on

debida a este error. En este caso: R 2 < 1 .

(30)

Prueba de Hip ´ otesis

An ´alisis de Varianza

Fuente gl Suma de Cuadrados (SC) Cuadrados Medios (CM) F Debido regresi ´on 1 SC Reg = P(ˆ y i − ¯ y) 2 CM Reg = SC 1

Reg

CM CM

Reg

Res

Residuales n − 2 SC Res = P(y i − ˆ y i ) 2 CM Res = SC n−2

Res

Total (Corregido) n − 1 SC Total = P(y i − ¯ y) 2

An ´alisis de Varianza y Suma Extra de Cuadrados

Fuente GL Suma de Cuadrados Cuadrados Medios F

β 0 1 n y ¯ 2

β 10 1 S 2 xy /S xx CM Reg CM Reg /s 2 Residuales n − 2 Por diferencia s 2

Total n P y i 2

(31)

Coeficiente de Determinaci ´ on R 2

Notas:(cont.)

5. R 2 cercanas a 1 indican “buen ajuste”. Recuerde sin embargo que “buen ajuste” y “mal ajuste” depende del contexto.

6. En el caso de RLS, se puede mostrar que E [R 2 ] =

β ˆ 1 2 S xx σ 2 + ˆ β 1 2 S xx

por lo que es posible incrementar R 2 aumentando el rango del regresor X . 7. Una R 2 alta no implica un buen modelo de predicci ´on.

8. En RLM, siempre se puede incrementar R 2 aumentando el n ´umero de re-

gresores.

(32)

Coeficiente de Correlaci ´ on (Muestral)

r =

P (y i − ¯ y)(x i − ¯ x) h P

(x i − ¯ x) 2 P (y i − ¯ y) 2 i

1/2 = S XY

[S XX S Y Y ] 1/2

Entonces, se puede mostrar que β ˆ 1 = r

 S Y Y S XX

 1/2

y que r 2 es el Coeficiente de Determinaci ´on. Es decir, r 2 = R 2 .

(33)

El modelo de una l´ınea recta que pasa por el origen es:

y i = βx i +  i ,

tiene los siguientes estimadores (insesgados) de m´ınimos cuadra- dos:

β = ˆ

P x i y i

P x 2 i = S xy S xx y

s 2 = 1 n − 1

X (y i − ˆ y i ) 2 −3 −2 −1 0 1 2 3

−3

−2

−1 0 1 2 3

Regresión por el Origen

x

y

Los estimadores β ˆ y s 2 tiene propiedades similares a las correspondientes en los modelos con ordenada al origen. A saber,

β ∼ ˆ N (β, σ 2 1

S xx ) y s 2 ∼ σ 2

n − 1 χ 2 n−1

Recuerde que en este caso la R 2 no tiene sentido.

(34)

Transformaciones a una L´ınea Recta

Ejemplo: Generaci ´ on de Electricidad Mediante Molino de Viento

Un ingeniero investiga la posibilidad de generar electricidad mediante un mo- lino de viento. Despu ´es de un tiempo ha registrado la corriente el ´ectrica que sale del molino y la velocidad del viento.

Datos:

obs. velocidad voltaje obs. velocidad voltaje

mph. kv. mph. kv.

1 5.00 1.58 14 5.80 1.74

2 6.00 1.82 15 7.40 2.09

3 3.40 1.06 16 3.60 1.14

4 2.70 0.50 17 7.85 2.18

5 10.00 2.24 18 8.80 2.11

6 9.70 2.39 19 7.00 1.80

7 9.55 2.29 20 5.45 1.50

8 3.05 0.56 21 9.10 2.30

9 8.15 2.17 22 10.20 2.31

10 6.20 1.87 23 4.10 1.19

11 2.90 0.65 24 3.95 1.14

12 6.35 1.93 25 2.45 0.12

13 4.60 1.56

4 6 8 10

0.5 1.0 1.5 2.0

velocidad (mph.)

v oltaje (kv.)

(35)

Ejemplo: Generaci ´ on de Electricidad (cont.) Ajuste del Modelo: y = β 0 + β 1 x + 

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 0.13088 0.12599 1.039 0.31 velocidad 0.24115 0.01905 12.659 7.55e-12

Residual standard error: 0.2361 on 23 degrees of freedom Multiple R-Squared: 0.8745, Adjusted R-squared: 0.869 F-statistic: 160.3 on 1 and 23 DF, p-value: 7.546e-12

Analysis of Variance Table

Response: voltaje

Df Sum Sq Mean Sq F value Pr(>F)

velocidad 1 8.9296 8.9296 160.26 7.546e-12

Residuals 23 1.2816 0.0557

(36)

Ejemplo: Generaci ´ on de Electricidad (cont.) Validaci ´ on del Modelo

1.0 1.5 2.0 2.5

−0.6 −0.4 −0.2 0.0 0.2 0.4 0.6

fitted values

residuals

Voltaje ajustado vs. Residuales

−0.6 −0.4 −0.2 0.0 0.2

−2 −1 0 1 2

residuals

nor mal scores

Gráfica Normal de Residuales

Análisis de Residuales

(37)

Ejemplo: Generaci ´ on de Electricidad (cont.)

Identificaci ´ on del Modelo – Transformaci ´ on X = 1/x

0.10 0.15 0.20 0.25 0.30 0.35 0.40

0.5 1.0 1.5 2.0

1/velocidad

v oltaje (kv.)

(38)

Ejemplo: Generaci ´ on de Electricidad (cont.) Ajuste del Modelo: y = β 0 + β 1 /x + 

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 2.9789 0.0449 66.34 <2e-16 invX -6.9345 0.2064 -33.59 <2e-16

Residual standard error: 0.09417 on 23 degrees of freedom Multiple R-Squared: 0.98, Adjusted R-squared: 0.9792 F-statistic: 1128 on 1 and 23 DF, p-value: < 2.2e-16

Analysis of Variance Table

Response: voltaje

Df Sum Sq Mean Sq F value Pr(>F)

invX 1 10.0072 10.0072 1128.4 < 2.2e-16

Residuals 23 0.2040 0.0089

(39)

Ejemplo: Generaci ´ on de Electricidad Mediante Molino de Viento Validaci ´ on del Modelo

0.5 1.0 1.5 2.0

−0.2 −0.1 0.0 0.1 0.2

fitted values

residuals

Voltaje ajustado vs. Residuales

−0.20 −0.10 0.00 0.05 0.10

−2 −1 0 1 2

residuals

nor mal scores

Gráfica Normal de Residuales

Análisis de Residuales

(40)

Transformaciones a una L´ınea Recta

Funciones Linealizables y Formas Lineales

Funci ´on Transformaci ´on Forma

Linealizable Lineal

y = β 0 x β

1

Y = log y, X = log x Y = log β 0 + β 1 X y = β 0 e β

1

x Y = log y Y = log β 0 + β 1 x y = β 0 + β 1 log x X = log x y = β 0 + β 1 X y = β x

0

x+β

1

Y = 1 y , X = x 1 Y = β 0 + β 1 X

(41)

Transformaciones a una L´ınea Recta

Modelo:

y = β 0 x β 1

0 1

0 1

β 1 = 1 β 1 > 1 β 1 < 1

β 0 > 0 , β 1 > 0 ; x > 0

0 1

0 1

β 1 = − 1 β 1 < − 1 β 1 > − 1

β 0 > 0 , β 1 < 0 ; x > 0

(42)

Transformaciones a una L´ınea Recta

Modelo:

y = β 0 e β 1 x

0 β 0

β 1 = 1 β 1 > 1 β 1 < 1

β 0 > 0 , β 1 > 0 ; x > 0

0 β 0

β 1 = − 1 β 1 < − 1 β 1 > − 1

β 0 > 0 , β 1 < 0 ; x > 0

(43)

Transformaciones a una L´ınea Recta

Modelo:

y = β 0 + β 1 log(x)

0 1

0 β 0

β 1 = 1 β 1 > 1 β 1 < 1

β 0 > 0 , β 1 > 0 ; x > 0

0 1

0 β 0

β 1 = − 1 β 1 > − 1 β 1 < − 1

β 0 > 0 , β 1 < 0 ; x > 0

(44)

Transformaciones a una L´ınea Recta

Modelo:

y = x

β 0 x + β 1

0 β 0

β 1 = 1 β 1 > 1 β 1 < 1

β 0 > 0 , β 1 > 0 ; x > 0

0 β 0

β 1 = − 1 β 1 < − 1 β 1 > − 1

β 0 > 0 , β 1 < 0 ; x > 0

(45)

Transformaciones Estabilizadoras de la Varianza

Relaci ´on Transformaci ´on Notas

σ 2 ∝ k Y = y Sin transformaci ´on

σ 2 ∝ E (y) Y = √

y Ra´ız cuadrada (datos Poisson) σ 2 ∝ E (y)[1 − E (y)] Y = arcsin √

y Arco seno (proporciones binomiales) 0 ≤ y i ≤ 1

σ 2 ∝ [ E (y)] 2 Y = log y Logaritmo σ 2 ∝ [ E (y)] 3 Y = 1/ √

y Rec´ıproco ra´ız cuadrada

σ 2 ∝ [ E (y)] 4 Y = 1/y Rec´ıproco

(46)

F ´ ormula de Transmisi ´ on de Error - M ´etodo Delta

M ´etodo Delta: Sea Y v. a. con al menos sus primeros 2 momentos finitos (E [Y ] = µ Y < ∞ y var (Y ) = σ Y 2 < ∞ ), y sea h(·) una funci ´on suave, al menos 2 veces diferenciable. Entonces

E [h(Y )] ≈ h(µ Y ) + h (2)Y ) σ Y 2 2 var (h(Y )) ≈  h (1)Y )  2 σ Y 2

Ejemplo: Sea Y v. a. con varianza σ Y 2 ∝ µ 2 Y . Entonces W = log(Y ) tiene va- rianza constante.

Soluci ´on: Sea W = h(Y ) = log(Y ) . Entonces h 0 (y) = 1/y , y σ W 2 ≈ [h 0Y )] 2 σ Y 2 =

 1 µ Y

 2

σ Y 2 ∝ 1

µ 2 Y µ 2 Y ≡ 1 Esto es, σ W 2 ∝ k .

Dudewicz and Mishra (1988), Casella and Berger (2002)

(47)

Ejemplo: Demanda de energ´ıa y uso de energ´ıa

Una compa ˜n´ıa generadora de electricidad est ´a interesada en modelar la demanda en horas pico (y) como funci ´on del uso mensual total (x).

obs. x y obs. x y

(kwh) (kw) (kwh) (kw) 1 679 0.79 27 837 4.20 2 292 0.44 28 1748 4.88 3 1012 0.56 29 1381 3.48 4 493 0.79 30 1428 7.58 5 582 2.70 31 1255 2.63 6 1156 3.64 32 1777 4.99 7 997 4.73 33 370 0.59 8 2189 9.50 34 2316 8.19 9 1097 5.34 35 1130 4.79 10 2078 6.85 36 463 0.51 11 1818 5.84 37 770 1.74 12 1700 5.21 38 724 4.10 13 747 3.25 39 808 3.94 14 2030 4.43 40 790 0.96 15 1643 3.16 41 783 3.29 16 414 0.50 42 406 0.44 17 354 0.17 43 1242 3.24 18 1276 1.88 44 658 2.14 19 745 0.77 45 1746 5.71 20 435 1.39 46 468 0.64 21 540 0.56 47 1114 1.90 22 874 1.56 48 413 0.51 23 1543 5.28 49 1787 8.33 24 1029 0.64 50 3560 14.94 25 710 4.00 51 1495 5.11 26 1434 0.31 52 2221 3.85 53 1526 3.93

500 1000 1500 2000 2500 3000 3500

0 5 10 15

uso de energia (kwh)

demanda de energia (kw)

Montgomery and Peck (1992)

(48)

Ejemplo: Demanda de energ´ıa (cont.)

Ajuste del Modelo: y = β 0 + β 1 x + 

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -0.8313037 0.4416121 -1.882 0.0655 x 0.0036828 0.0003339 11.030 4.11e-15

Residual standard error: 1.577 on 51 degrees of freedom Multiple R-Squared: 0.7046, Adjusted R-squared: 0.6988 F-statistic: 121.7 on 1 and 51 DF, p-value: 4.106e-15

Analysis of Variance Table

Response: y

Df Sum Sq Mean Sq F value Pr(>F)

x 1 302.633 302.633 121.66 4.106e-15

Residuals 51 126.866 2.488

(49)

Ejemplo: Demanda de energ´ıa (cont.)

Validacion del Modelo:

0 2 4 6 8 10 12

−4 −2 0 2 4

fitted values

residuals

Voltaje ajustado vs. Residuales

−4 −2 0 2

−2 −1 0 1 2

residuals

nor mal scores

Gráfica Normal de Residuales

Análisis de Residuales

(50)

Ejemplo: Demanda de energ´ıa (cont.)

Identificaci ´ on del Modelo – Transformaci ´ on Y = √ y

500 1000 1500 2000 2500 3000 3500

0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

uso de energia (kwh)

y

(51)

Ejemplo: Demanda de energ´ıa (cont.)

Ajuste del Modelo: Y = √

y = β 0 + β 1 x + 

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 5.822e-01 1.299e-01 4.481 4.22e-05 x 9.529e-04 9.824e-05 9.699 3.61e-13

Residual standard error: 0.464 on 51 degrees of freedom Multiple R-Squared: 0.6485, Adjusted R-squared: 0.6416 F-statistic: 94.08 on 1 and 51 DF, p-value: 3.614e-13

Analysis of Variance Table

Response: Y

Df Sum Sq Mean Sq F value Pr(>F)

x 1 20.2585 20.2585 94.078 3.614e-13

Residuals 51 10.9822 0.2153

(52)

Ejemplo: Demanda de energ´ıa (cont.)

Validaci ´ on del Modelo:

1.0 1.5 2.0 2.5 3.0 3.5 4.0

−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5

fitted values

residuals

Voltaje ajustado vs. Residuales

−1.0 −0.5 0.0 0.5

−2 −1 0 1 2

residuals

nor mal scores

Gráfica Normal de Residuales

Análisis de Residuales

(53)

Determinaci ´ on Anal´ıtica de Transformaciones

Transformaci ´ on estabilizadora de la varianza: Box-Cox

Ajuste el modelo de regresi ´on lineal simple a la respuesta

Y =

 y λ , λ 6= 0 log y, λ = 0

Para determinar qu ´e λ utilizar, considere

y (λ) =

( y λ −1

λ ˙y λ−1 , λ 6= 0

˙y log y, λ = 0

donde, ˙y = (Π n i=1 y i ) 1/n , es el promedio geom ´etrico de las respuestas y i . Esto es, ajuste

y (λ) = β 0 + β 1 x + 

y elija λ ˆ que minimice la suma de cuadrados de los residuales SC Res (λ) .

Box and Cox (1964)

(54)

Determinaci ´ on Anal´ıtica de Transformaciones

Transformaci ´ on estabilizadora de la varianza: Box-Cox (Cont.) Intervalo (aproximado) del 100(1 − α) % de confianza para λ :

SC = SC Res (ˆ λ) 1 + t 2 (1−α/2,ν) ν

!

donde ν (= n − 2) son los grados de libertad de los residuales.

Observaciones:

Cuando el error tiene varianza constante se llama homosced ´astico; si no es constante, heterosced ´astico.

¿C ´omo saber qu ´e funci ´on proponer para estabilizar la varianza?

• Si el intervalo de confianza incluye al cero, el modelo es multiplicativo.

• Si el intervalo incluye al uno, indica que no hay que hacer una transfor-

maci ´on.

(55)

Transformaci ´ on estabilizadora de la varianza

Transformaciones Potencia de Box-Cox

Ejemplo: Demanda de energ´ıa y uso de energ´ıa

Variable respuesta: y (λ)

λ SC

Res

(λ) log[SC

Res

(λ)]

−2.00 34100.6 10.44

−1.75 12716.2 9.45

−1.50 5014.7 8.52

−1.25 2126.2 7.66

−1.00 986.0 6.89

−0.75 507.3 6.23

−0.50 291.6 5.68

−0.25 187.3 5.23

0.00 134.1 4.90

0.25 107.2 4.67

0.50 96.9 4.57

0.75 101.7 4.62

1.00 126.9 4.84

1.25 188.8 5.24

1.50 325.7 5.79

1.75 623.5 6.44

2.00 1275.6 7.15

SC

= 96.9 · (1 + 2.007

2

51 ) = 104.46

−2 −1 0 1 2

5 6 7 8 9 10

λ log ( S C Res ( λ ))

95 % conf

λ ^

(56)

Transformaciones Estabilizadoras de la Varianza

Transformaciones Potencia de Box-Cox Notas:

1. La transformaci ´on de Box-Cox ayuda a estabilizar la varianza y normalizar los datos.

2. La transformaci ´on de Box-Cox es continua en λ = 0 .

3. En la pr ´actica utilice valores de λ “f ´aciles de interpretar”. Por ejemplo, λ = 0.45 → λ ≡ 0.5 =⇒ y λ = √

y λ = −0.10 → λ ≡ 0.0 =⇒ y λ = log(y)

4. El m ´etodo de estimaci ´on de λ ˆ es el mismo en el caso de la regresi ´on lineal m ´ultiple.

5. Transformaci ´on utilizada en varias ´areas estad´ısticas, no solamente en mo- delos lineales.

6. Box y Cox (1964) es de los art´ıculos m ´as referenciados en la literatura

estad´ıstica. Es la transformaci ´on m ´as usada pero no la ´unica.

(57)

Transformaciones Estabilizadoras de la Varianza

Transformaciones Potencia de Box-Cox Notas 2:

1. Box y Cox sugieren la estimaci ´on de λ , β 0 y β 1 de manera conjunta y por m ´axima verosimilitud.

2. En la pr ´actica, se utiliza el perfil de la verosimilitud: para distintos valores de λ , se obtienen β ˆ 0 y β ˆ 1 y se elige λ ˆ tal que minimice la SC error .

3. Una partici ´on del intervalo [−2, 2] de longitud 0.25 es apropiada.

4. Hay otras familias de transformaciones o procedimientos utilizados en la

regresi ´on. Vea por ejemplo Carroll and Ruppert (1988).

(58)

Determinaci ´ on Anal´ıtica de Transformaciones

Transformaci ´ on de los regresores: Box-Tidwell 1

Supone que la variable respuesta y est ´a relacionada con una potencia del regresor x , digamos ξ = x α ,

E [y] = f (β 0 , β 1 ; ξ) = β 0 + β 1 ξ +  donde

ξ =

 x α , α 6= 0 ln x, α = 0

Aproximaci ´on por Taylor y m ´etodos iterativos para estimar α .

1

Box and Tidwell (1962)

(59)

Transformaciones a una L´ınea Recta

Modelo No lineal de Michaelis-Menten

Ejemplo: Velocidad de reacci ´ on como funci ´ on de la concentraci ´ on

El modelo de Michaelis-Menten es utilizado en qu´ımica cin ´etica para modelar la velocidad inicial y de una reacci ´on enzim ´atica con la concentraci ´on x del substrato. El modelo est ´a dado por:

y = f (x, θ) +  = θ 1 x

θ 2 + x +  Que se puede linealizar de la siguiente manera:

Y = 1

f (x, θ) = β 0 + β 1 X donde,

Y = 1

y ; X = 1

x ; β 0 = 1

θ 1 ; β 1 = θ 2 θ 1

Bates and Watts (1988)

(60)

Transformaciones a una L´ınea Recta

Modelo No lineal de Michaelis-Menten Ejemplo: Velocidad de reacci ´ on (cont.)

obs. concentraci´ on velocidad

(x) (y)

1 0.02 47

2 0.02 76

3 0.06 97

4 0.06 107

5 0.11 123

6 0.11 139

7 0.22 152

8 0.22 159

9 0.56 191

10 0.56 201

11 1.10 200

12 1.10 207 0.0 0.2 0.4 0.6 0.8 1.0

50 100 150 200

Velocidad de Reacción

concentración [ppm]

velocidad [cuentas/min^2]

(61)

Transformaciones a una L´ınea Recta

Modelo No lineal de Michaelis-Menten Ejemplo: Velocidad de reacci ´ on (cont.)

Y = β 0 + β 1 X + 

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 0.0051072 0.0007040 7.255 2.74e-05 X 0.0002472 0.0000321 7.700 1.64e-05

Residual standard error: 0.001892 on 10 degrees of freedom Multiple R-squared: 0.8557, Adjusted R-squared: 0.8413 F-statistic: 59.3 on 1 and 10 DF, p-value: 1.642e-05

Analysis of Variance Table

Response: Y

Df Sum Sq Mean Sq F value Pr(>F)

X 1 2.1232e-04 2.1232e-04 59.297 1.642e-05

Residuals 10 3.5806e-05 3.5810e-06

(62)

Modelo No lineal de Michaelis-Menten Ejemplo: Velocidad de reacci ´ on (cont.)

Y = ˆ ˆ β 0 + ˆ β 1 X y = ˆ

θ ˆ 1 x θ ˆ 2 + x

0 10 20 30 40 50

0.005 0.010 0.015 0.020

a) Ajuste Modelo Transformado

1 / concentración

1 / velocidad

0.0 0.2 0.4 0.6 0.8 1.0

50 100 150 200

b) Modelo Ajustado en Escala Original

concentración [ppm]

velocidad [cuentas/min^2]

(63)

Ejemplo: Velocidad de reacci ´ on (cont.)

Gr ´aficas de Residuales

0.006 0.008 0.010 0.012 0.014 0.016

−2−1012

fitted values

std residuals

(a) Residuals vs. Fitted Values

−2 −1 0 1 2

−1.5−0.50.51.5

std residuals

normal scores

(b) Normal plot of residuals

std residuals

Frequency

−3 −2 −1 0 1 2 3

012345

(c) Histogram of residuals

2 4 6 8 10 12

−2−1012

order

std residuals

(d) Residuals in experimental order

(64)

Postule la clase general de los modelos

Identifique el modelo que será tentativamente utilizado

Estime los parámetros del modelo utilizado

tentativamente

¿Es el modelo adecuado?

Utilice el modelo

F

Verificación del modelo

NO

(65)

Validaci ´ on del Modelo

Modelo:

y i = β 0 + β 1 x i +  i , i = 1, . . . , n

Supuestos:

 ∼ N (0, σ 2 ) i.i.d.

Validaci ´ on:

Modelo Correcto. Bondad (Falta) de Ajuste An ´alisis de Residuales

• Varianza constante

• Normalidad

• Correlaci ´on

(66)

Modelo Correcto: Error Puro y Falta de Ajuste

x

y

x 1 x 2 x 3

y 1

y 2

y 3 y ^

1

y ^

2

y ^

3

y

1

− y ^

1

y

2

− y ^

2

y

3

− y ^

3

y

1u

y

1u

− y

1

y

2u

y

2u

− y

2

y

3u

y

3u

− y

3

Falta de ajuste

Error puro

(67)

Modelo Correcto: Error Puro y Falta de Ajuste

Considere los datos:

y iu ; u = 1, . . . , n i ; i = 1, . . . , m

la u - ´esima observaci ´on de la respuesta al nivel X = x i . Hay en total n = P m i=1 n i observaciones. La Suma de Cuadrados Debida al Error Puro:

SC Error Puro = SC EP =

m

X

i=1 n

i

X

u=1

(y iu − ¯ y ) 2

con P m

i=1 (n i − 1) = n − m grados de libertad, y donde y ¯ = n 1

i

P n

i

u=1 y iu es la respuesta promedio al nivel X = x i .

? El Cuadrado Medio Debido al Error Puro: CM EP = SC EP /n − m es un esti- mador de σ 2 , independientemente del modelo.

Note que SC EP es parte de la SC Resid pues

(y iu − ˆ y i ) = (y iu − ¯ y ) + (¯ y − ˆ y i )

Residual = Error Puro + Falta de Ajuste

(68)

Modelo Correcto: Error Puro y Falta de Ajuste

En la presencia de r ´eplicas puras la Suma de Cuadrados de los Residuales se puede descomponer como

P m i=1

P n

i

u=1 (y iu − ˆ y i ) 2 = P m i=1 P n u=1

i

(y iu − ¯ y ) 2 + P m i=1 n i (¯ y − ˆ y i ) 2

SC Residuales = SC Error Puro + SC Falta de Ajuste

g.l. (n − 2) = (n − m) + (m − 2)

Bajo los supuestos del modelo, CM EP = SC EP /(n − m) y CM FA = SC FA /m − 2 son estimaciones independientes de σ 2 , y su cociente ser´ıa aproximadamen- te 1. De hecho, bajo los supuestos del modelo:

F = ˆ CM FA

CM EP ∼ F (m−2,n−m) Entonces, si

F > F ˆ (1−α;m−2,n−m) =⇒ “El modelo no es correcto”

(69)

Modelo Correcto: Error Puro y Falta de Ajuste

Ejemplo Simulado Datos:

i x

i

y

i

y ¯

i

y ˆ

1i

y ˆ

2i

i x

i

y

i

y ¯

i

y ˆ

1i

y ˆ

2i

1 1 −2.25 3.71 −10.96 3.84 21 6 33.11 35.56 49.10 40.25 2 1 7.46 3.71 −10.96 3.84 22 6 27.60 35.56 49.10 40.25 3 1 5.90 3.71 −10.96 3.84 23 6 40.54 35.56 49.10 40.25 4 2 0.34 7.38 1.05 6.34 24 6 40.98 35.56 49.10 40.25 5 2 15.19 7.38 1.05 6.34 25 7 56.39 56.46 61.11 54.69 6 2 3.98 7.38 1.05 6.34 26 7 60.16 56.46 61.11 54.69 7 2 9.47 7.38 1.05 6.34 27 7 52.84 56.46 61.11 54.69 8 2 7.90 7.38 1.05 6.34 28 8 62.01 71.17 73.13 71.52 9 3 10.01 6.49 13.06 11.24 29 8 73.47 71.17 73.13 71.52 10 3 0.57 6.49 13.06 11.24 30 8 85.05 71.17 73.13 71.52 11 3 8.87 6.49 13.06 11.24 31 8 63.58 71.17 73.13 71.52 12 4 11.06 19.93 25.08 18.52 32 8 71.72 71.17 73.13 71.52 13 4 24.18 19.93 25.08 18.52 33 9 93.55 90.62 85.14 90.75 14 4 27.03 19.93 25.08 18.52 34 9 97.28 90.62 85.14 90.75 15 4 17.43 19.93 25.08 18.52 35 9 83.49 90.62 85.14 90.75 16 5 30.60 31.84 37.09 28.19 36 9 88.16 90.62 85.14 90.75 17 5 34.89 31.84 37.09 28.19 37 10 110.30 112.79 97.15 112.36 18 5 31.50 31.84 37.09 28.19 38 10 113.64 112.79 97.15 112.36 19 5 28.60 31.84 37.09 28.19 39 10 114.44 112.79 97.15 112.36 20 5 33.60 31.84 37.09 28.19

donde x i es el nivel del regresor; y i la respuesta observada; y ¯ i la respuesta media obser-

vada; y ˆ 1i la respuesta media ajustada por el modelo 1; y y ˆ 2i la respuesta media ajustada

por el modelo 2.

(70)

Modelo Correcto: Error Puro y Falta de Ajuste

Ejemplo Simulado

2 4 6 8 10

0 20 40 60 80 100

a) Datos

x

y

2 4 6 8 10

0 20 40 60 80 100

b) Modelos Ajustados

x

y

Modelo lineal

cuadrático

(71)

Modelo Correcto: Error Puro y Falta de Ajuste

Ejemplo Simulado Ajuste modelo lineal

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) -22.975 3.652 -6.292 2.53e-07

x 12.013 0.594 20.224 < 2e-16

Residual standard error: 10.28 on 37 degrees of freedom Multiple R-squared: 0.917, Adjusted R-squared: 0.9148 F-statistic: 409 on 1 and 37 DF, p-value: < 2.2e-16 Analysis of Variance Table

Response: y

Df Sum Sq Mean Sq F value Pr(>F) x 1 43255 43255 409.02 < 2.2e-16 Residuals 37 3913 106

SCRes SCEP SCFA F p

3.912829e+03 1.021897e+03 2.890932e+03 1.025507e+01 2.090028e-06

(72)

Modelo Correcto: Error Puro y Falta de Ajuste

Ejemplo Simulado

An ´alisis de Residuales

0 20 40 60 80 100

−20

−10 0 10 20

a) Modelo lineal

y ^

r^

0 20 40 60 80 100

−10

−5 0 5 10

b) Modelo cuadrático

y ^

r^

(73)

Modelo Correcto: Error Puro y Falta de Ajuste

Ejemplo Simulado

Ajuste modelo cuadr ´atico

Coefficients:

Estimate Std. Error t value Pr(>|t|) (Intercept) 3.7195 3.7326 0.996 0.326

x -1.0763 1.5490 -0.695 0.492

x2 1.1940 0.1378 8.665 2.47e-10

Residual standard error: 5.935 on 36 degrees of freedom Multiple R-squared: 0.9731, Adjusted R-squared: 0.9716 F-statistic: 651.5 on 2 and 36 DF, p-value: < 2.2e-16 Analysis of Variance Table

Response: y

Df Sum Sq Mean Sq F value Pr(>F) x 1 43255 43255 1227.983 < 2.2e-16

x2 1 2645 2645 75.084 2.467e-10

Residuals 36 1268 35

SCRes SCEP SCFA F p

1268.0666396 1021.8971671 246.1694725 0.8732428 0.5390620

(74)

η i = E [y i ] = E [y|x = x i ]

es el valor esperado de la respuesta y al nivel del regresor x = x i . Y sea ˆ

y i = ˆ β 0 + ˆ β 1 x i el valor ajustado del modelo al mismo nivel.

ˆ

 i = (y i − ˆ y i ) = (y i − ˆ y i ) + E [y i − ˆ y i ] + E [y i − ˆ y i ]

= [(y i − ˆ y i ) − (η i − E [ˆ y i ])]

| {z }

q i

+ (η i − E [ˆ y i ])

| {z } b i

donde b i es el sesgo al nivel x = x i .

• Si el modelo es correcto E [ˆ y i ] = η i =⇒ b i = 0

• Por otro lado, E [q i ] = 0 independientemente del modelo.

• Se puede mostrar que los q i son correlacionados y E [ P q i ] = (n − 2)σ 2 . De donde,

E [s 2 ] = E

 1 n − 2

X (y i − ˆ y i ) 2



=

σ 2 si el modelo es correcto

σ 2 + n−2 1 P b 2 i si el modelo no es correcto

(75)

An ´alisis de Residuales

Mediante los residuales tratamos de verificar si los supuestos del modelo se satisfacen.

y i = β 0 + β 1 x i +  i , i = 1, . . . , n

 ∼ N (0, σ 2 ), v.a.i.i.d.

ˆ

 i = y i − ˆ y i = y i − ( ˆ β 0 + ˆ β 1 x i )

Los residuales son “errores observados” si el modelo es correcto. Pero por las ecuaciones normales se tiene dependencia entre ellos.

¿Sugieren los residuales que los supuestos no se satisfacen?

An ´alisis m ´as sofisticados: pruebas estad´ısticas formales.

Definici ´on de otros residuales.

(76)

Validaci ´ on del Modelo

An ´alisis de Residuales

Varianza constante

• Prueba de Barttlet.

• Prueba de Levene.

? Gr ´aficas de residuales: (ˆ  i vs. y ˆ i ); (ˆ  i vs. i) ; (ˆ  i vs. x j i ) .

• (ˆ  i vs. y i ) no se grafican por estar correlacionados.

Normalidad

• Pruebas de Bondad de Ajuste: χ 2 ; Kolmogorov-Smirnov ; Anderson- Darling; Jarque-Bera, Cram ´er-Von Mises, Lilliefors, etc.

? Gr ´aficas de residuales  ˆ en papel de probabilidad normal.

Correlaci ´on

• Significancia de la autocorrelaci ´on de residuales r ` .

• Correlogramas.

• Prueba de Durbin-Watson.

? Gr ´aficas de residuales: (ˆ  vs.  ˆ ).

(77)

An ´alisis de Residuales

Varianza constante

0 20 40 60 80 100

−20

−10 0 10 20

e ^

i vs. y ^

i

respuesta ajustada

residual

0 20 40 60 80 100

−20

−10 0 10 20

e ~

i vs. y ~

i

respuesta ajustada

residual

(78)

An ´alisis de Residuales

Varianza constante

0 10 20 30 40 50

−0.004 −0.002 0.000 0.002 0.004

e ^

i vs. x i

regresor

residual

2 4 6 8 10 12

−0.004 −0.002 0.000 0.002 0.004

e ^

i vs. i

tiempo

residual

(79)

Normalidad

0.682

µ − 3σ µ − 2σ µ − σ µ µ + σ µ + 2σ µ + 3σ

−3 −2 −1 0 1 2 3

Probabilidad Acumulada

0.0 0.2 0.4 0.6 0.8 1.0

0.159 0.841

0.682

µ − 3σ µ − 2σ µ − σ µ µ + σ µ + 2σ µ + 3σ

−3 −2 −1 0 1 2 3

Probabilidad

0.001 0.01 0.05 0.1 0.2 0.3 0.5 0.7 0.8 0.9 0.95 0.99 0.999

−3

−2

−1 0 1 2 3

escale normal

0.159 0.841

0.682

µ − 3σ µ − 2σ µ − σ µ µ + σ µ + 2σ µ + 3σ

−3 −2 −1 0 1 2 3

Ejemplo simulado:

100 observaciones normales

a) Histograma

x

−2 −1 0 1 2

−3−2−10123

b) Gráfica Cuantil−Cuantil

x

normal scores

(80)

Papel de probabilidad Normal

1. Ordene la muestra {z 1 , . . . , z n } : x 1 = z (1) , . . . , x n = z (n)

2. Calcule la probabilidad emp´ırica acumulada: y i = F n (x i ) = i−1/2 n 3. Grafique (x i , y i ), i = 1, . . . , n en papel de probabilidad normal.

i z

i

ord. x

i

F

n

(x

i

) 1 1.703 9 - 1.820 0.025 2 - 0.865 17 - 1.263 0.075 3 - 0.301 11 - 1.251 0.125 4 1.014 18 - 1.039 0.175 5 2.088 2 - 0.865 0.225 6 0.740 13 - 0.726 0.275 7 - 0.254 16 - 0.494 0.325 8 0.968 3 - 0.301 0.375 9 - 1.820 7 - 0.254 0.425 10 1.014 14 0.330 0.475 11 - 1.251 12 0.458 0.525 12 0.458 6 0.740 0.575 13 - 0.726 20 0.789 0.625 14 0.330 8 0.968 0.675 15 1.845 4 1.014 0.725 16 - 0.494 10 1.014 0.775 17 - 1.263 19 1.539 0.825 18 - 1.039 1 1.703 0.875 19 1.539 15 1.845 0.925 20 0.789 5 2.088 0.975

Papel de Probabilidad Normal (gráfica cuantil−cuantil)

F

n

( z

i

)

−2 −1 0 1 2

0.05 0.1 0.2 0.3 0.5 0.7 0.8 0.9 0.95

−2

−1 0 1 2

escala normal

Figure

Actualización...

Referencias

Actualización...