• No se han encontrado resultados

Propiedades estad´ısticas de MCO

N/A
N/A
Protected

Academic year: 2018

Share "Propiedades estad´ısticas de MCO"

Copied!
33
0
0

Texto completo

(1)

Propiedades estad´ısticas de MCO

Mauricio Olivares

ITAM

(2)

I Hasta ahora hemos visto s´olo propiedades algebraicas.

I Recuerda que los estimadores son variables aleatorias.

I Nos interesa saber qu´e tipo de propiedades estad´ısticas satisfacen los estimadores de MCO.

I En este curso nos preocuparemos por las propiedades exactas de los mismos i.e. para un tama˜no de muestra dado.

(3)

I Hasta ahora hemos visto s´olo propiedades algebraicas.

I Recuerda que los estimadores son variables aleatorias.

I Nos interesa saber qu´e tipo de propiedades estad´ısticas satisfacen los estimadores de MCO.

I En este curso nos preocuparemos por las propiedades exactas de los mismos i.e. para un tama˜no de muestra dado.

(4)

I Hasta ahora hemos visto s´olo propiedades algebraicas.

I Recuerda que los estimadores son variables aleatorias.

I Nos interesa saber qu´e tipo de propiedades estad´ısticas satisfacen los estimadores de MCO.

I En este curso nos preocuparemos por las propiedades exactas de los mismos i.e. para un tama˜no de muestra dado.

(5)

I Hasta ahora hemos visto s´olo propiedades algebraicas.

I Recuerda que los estimadores son variables aleatorias.

I Nos interesa saber qu´e tipo de propiedades estad´ısticas satisfacen los estimadores de MCO.

I En este curso nos preocuparemos por las propiedades exactas de los mismos i.e. para un tama˜no de muestra dado.

(6)

I Hasta ahora hemos visto s´olo propiedades algebraicas.

I Recuerda que los estimadores son variables aleatorias.

I Nos interesa saber qu´e tipo de propiedades estad´ısticas satisfacen los estimadores de MCO.

I En este curso nos preocuparemos por las propiedades exactas de los mismos i.e. para un tama˜no de muestra dado.

(7)

Insesgadez

I Proposici´on 1: Sea {(x1,y1), . . . ,(xn,yn)}una muestra

aleatoria. Bajo los supuestos

I y =α+βx+ε.

I E(ε|x) =0.

entonces los estimadores de MCO son insesgados i.e.

E(αn) = α

(8)

Observaciones

I Recuerda que la propiedad de insesgadez depende de la distribuci´on muestral deαn yβn.

I Es decir, la propiedad de insesgadez no dice nada en particular de la estimaci´on que obtuvimos para nuestra muestra.

I Sabemos que en promedio es igual al verdadero coeficiente de regresi´on.

I Podemos obtener una muestra donde el valor del estimadores est´e alejado del verdadero valor.

(9)

Observaciones

I Recuerda que la propiedad de insesgadez depende de la distribuci´on muestral deαn yβn.

I Es decir, la propiedad de insesgadez no dice nada en particular de la estimaci´on que obtuvimos para nuestra muestra.

I Sabemos que en promedio es igual al verdadero coeficiente de regresi´on.

I Podemos obtener una muestra donde el valor del estimadores est´e alejado del verdadero valor.

(10)

Observaciones

I Recuerda que la propiedad de insesgadez depende de la distribuci´on muestral deαn yβn.

I Es decir, la propiedad de insesgadez no dice nada en particular de la estimaci´on que obtuvimos para nuestra muestra.

I Sabemos que en promedio es igual al verdadero coeficiente de regresi´on.

I Podemos obtener una muestra donde el valor del estimadores est´e alejado del verdadero valor.

(11)

Observaciones

I Recuerda que la propiedad de insesgadez depende de la distribuci´on muestral deαn yβn.

I Es decir, la propiedad de insesgadez no dice nada en particular de la estimaci´on que obtuvimos para nuestra muestra.

I Sabemos que en promedio es igual al verdadero coeficiente de regresi´on.

I Podemos obtener una muestra donde el valor del estimadores est´e alejado del verdadero valor.

(12)

Observaciones

I Recuerda que la propiedad de insesgadez depende de la distribuci´on muestral deαn yβn.

I Es decir, la propiedad de insesgadez no dice nada en particular de la estimaci´on que obtuvimos para nuestra muestra.

I Sabemos que en promedio es igual al verdadero coeficiente de regresi´on.

I Podemos obtener una muestra donde el valor del estimadores est´e alejado del verdadero valor.

(13)

Observaciones

I Insesgadez falla si alguno de nuestros supuestos falla.

I La propiedad de insesgadez depende de la veracidad de los supuestos.

I Por ejemplo, un modelo lineal. Esto puede ser muy restrictivo y a veces poco interesante.

I ¿Qu´e pasa si no estamos en un contexto de muestra aleatoria o si la muestra no es representativa de la poblaci´on?

I Sin embargo, el supuesto en el que m´as nos vamos a concentrar es la independencia en media de ε.

(14)

Observaciones

I Insesgadez falla si alguno de nuestros supuestos falla.

I La propiedad de insesgadez depende de la veracidad de los supuestos.

I Por ejemplo, un modelo lineal. Esto puede ser muy restrictivo y a veces poco interesante.

I ¿Qu´e pasa si no estamos en un contexto de muestra aleatoria o si la muestra no es representativa de la poblaci´on?

I Sin embargo, el supuesto en el que m´as nos vamos a concentrar es la independencia en media de ε.

(15)

Observaciones

I Insesgadez falla si alguno de nuestros supuestos falla.

I La propiedad de insesgadez depende de la veracidad de los supuestos.

I Por ejemplo, un modelo lineal. Esto puede ser muy restrictivo y a veces poco interesante.

I ¿Qu´e pasa si no estamos en un contexto de muestra aleatoria o si la muestra no es representativa de la poblaci´on?

I Sin embargo, el supuesto en el que m´as nos vamos a concentrar es la independencia en media de ε.

(16)

Observaciones

I Insesgadez falla si alguno de nuestros supuestos falla.

I La propiedad de insesgadez depende de la veracidad de los supuestos.

I Por ejemplo, un modelo lineal. Esto puede ser muy restrictivo y a veces poco interesante.

I ¿Qu´e pasa si no estamos en un contexto de muestra aleatoria o si la muestra no es representativa de la poblaci´on?

I Sin embargo, el supuesto en el que m´as nos vamos a concentrar es la independencia en media de ε.

(17)

Observaciones

I Insesgadez falla si alguno de nuestros supuestos falla.

I La propiedad de insesgadez depende de la veracidad de los supuestos.

I Por ejemplo, un modelo lineal. Esto puede ser muy restrictivo y a veces poco interesante.

I ¿Qu´e pasa si no estamos en un contexto de muestra aleatoria o si la muestra no es representativa de la poblaci´on?

I Sin embargo, el supuesto en el que m´as nos vamos a concentrar es la independencia en media de ε.

(18)

Observaciones

I Insesgadez falla si alguno de nuestros supuestos falla.

I La propiedad de insesgadez depende de la veracidad de los supuestos.

I Por ejemplo, un modelo lineal. Esto puede ser muy restrictivo y a veces poco interesante.

I ¿Qu´e pasa si no estamos en un contexto de muestra aleatoria o si la muestra no es representativa de la poblaci´on?

I Sin embargo, el supuesto en el que m´as nos vamos a concentrar es la independencia en media de ε.

(19)

Varianza de los estimadores MCO

I Proposici´on 2: Sea {(x1,y1), . . . ,(xn,yn)}una muestra

aleatoria. Bajo los supuestos

I y =α+βx+ε.

I E(ε|x) =0.

I V(ε|x) =σ2

I E(εiεj|x) =0.

la varianza de los estimadores MCO viene dada por

V(βn|x) =

σ2 Pn

i=1(xi −¯x)2

V(αn|x) =

σ2n−1Pn

i=1xi2

Pn

(20)

Observaciones

I En general vamos a interesarnos porV(βn|x).

I Nota que V(βn|x)depende postivamente de la varianza de lo

que no est´a en el modelo, σ2.

I La intuici´on es que una variaci´on en los factores que afectany

hace m´as dif´ıcil estimarβ.

I Por otro lado, variabilidad en las variables explicativas,

Pn

i=1(xi −¯x)2 , es preferible.

I La intuici´on es que una mayor dispersi´on de los datos hace m´as f´acil establecer una relaci´on entrex yy.

(21)

Observaciones

I En general vamos a interesarnos porV(βn|x).

I Nota que V(βn|x)depende postivamente de la varianza de lo

que no est´a en el modelo, σ2.

I La intuici´on es que una variaci´on en los factores que afectany

hace m´as dif´ıcil estimarβ.

I Por otro lado, variabilidad en las variables explicativas,

Pn

i=1(xi −¯x)2 , es preferible.

I La intuici´on es que una mayor dispersi´on de los datos hace m´as f´acil establecer una relaci´on entrex yy.

(22)

Observaciones

I En general vamos a interesarnos porV(βn|x).

I Nota que V(βn|x)depende postivamente de la varianza de lo

que no est´a en el modelo, σ2.

I La intuici´on es que una variaci´on en los factores que afectany

hace m´as dif´ıcil estimarβ.

I Por otro lado, variabilidad en las variables explicativas,

Pn

i=1(xi −¯x)2 , es preferible.

I La intuici´on es que una mayor dispersi´on de los datos hace m´as f´acil establecer una relaci´on entrex yy.

(23)

Observaciones

I En general vamos a interesarnos porV(βn|x).

I Nota que V(βn|x)depende postivamente de la varianza de lo

que no est´a en el modelo, σ2.

I La intuici´on es que una variaci´on en los factores que afectany

hace m´as dif´ıcil estimarβ.

I Por otro lado, variabilidad en las variables explicativas,

Pn

i=1(xi −¯x)2 , es preferible.

I La intuici´on es que una mayor dispersi´on de los datos hace m´as f´acil establecer una relaci´on entrex yy.

(24)

Observaciones

I En general vamos a interesarnos porV(βn|x).

I Nota que V(βn|x)depende postivamente de la varianza de lo

que no est´a en el modelo, σ2.

I La intuici´on es que una variaci´on en los factores que afectany

hace m´as dif´ıcil estimarβ.

I Por otro lado, variabilidad en las variables explicativas,

Pn

i=1(xi −¯x)2 , es preferible.

I La intuici´on es que una mayor dispersi´on de los datos hace m´as f´acil establecer una relaci´on entrex yy.

(25)

Observaciones

I En general vamos a interesarnos porV(βn|x).

I Nota que V(βn|x)depende postivamente de la varianza de lo

que no est´a en el modelo, σ2.

I La intuici´on es que una variaci´on en los factores que afectany

hace m´as dif´ıcil estimarβ.

I Por otro lado, variabilidad en las variables explicativas,

Pn

i=1(xi −¯x)2 , es preferible.

I La intuici´on es que una mayor dispersi´on de los datos hace m´as f´acil establecer una relaci´on entrex yy.

(26)

Teorema de Gauss-Markov

I Teorema: Sea{(x1,y1), . . . ,(xn,yn)} una muestra aleatoria.

Bajo los supuestos

I y =α+βx+ε.

I E(ε|x) =0.

I V(ε|x) =σ2 I E(εiεj|x) =0.

el estimador de MCO,(αn, βn)eseficiente en la clase de estimadores lineales e insesgados.

I Es decir, para cualquier estimador insesgado(an,bn)

V(αn) < V(an)

V(βn) < V(bn)

(27)

Teorema de Gauss-Markov

I Teorema: Sea{(x1,y1), . . . ,(xn,yn)} una muestra aleatoria.

Bajo los supuestos

I y =α+βx+ε.

I E(ε|x) =0.

I V(ε|x) =σ2 I E(εiεj|x) =0.

el estimador de MCO,(αn, βn)eseficiente en la clase de estimadores lineales e insesgados.

I Es decir, para cualquier estimador insesgado(an,bn)

V(αn) < V(an)

V(βn) < V(bn)

(28)

Teorema de Gauss-Markov

I Teorema: Sea{(x1,y1), . . . ,(xn,yn)} una muestra aleatoria.

Bajo los supuestos

I y =α+βx+ε.

I E(ε|x) =0.

I V(ε|x) =σ2 I E(εiεj|x) =0.

el estimador de MCO,(αn, βn)eseficiente en la clase de estimadores lineales e insesgados.

I Es decir, para cualquier estimador insesgado(an,bn)

V(αn) < V(an)

V(βn) < V(bn)

(29)

Observaciones

I Existe otra noci´on m´as restrictiva del teorema e involucra varianzas condicionales.

I ¿Qu´e cosano significa el teorema de Gauss-Markov?

I Es posible encontrar estimadores de β que no sean insesgados aunque s´ı lineales y que tengan varianza menor a βn.

(30)

Observaciones

I Existe otra noci´on m´as restrictiva del teorema e involucra varianzas condicionales.

I ¿Qu´e cosa no significa el teorema de Gauss-Markov?

I Es posible encontrar estimadores de β que no sean insesgados aunque s´ı lineales y que tengan varianza menor a βn.

(31)

Observaciones

I Existe otra noci´on m´as restrictiva del teorema e involucra varianzas condicionales.

I ¿Qu´e cosa no significa el teorema de Gauss-Markov?

I Es posible encontrar estimadores de β que no sean insesgados aunque s´ı lineales y que tengan varianza menor a βn.

(32)

Observaciones

I Existe otra noci´on m´as restrictiva del teorema e involucra varianzas condicionales.

I ¿Qu´e cosa no significa el teorema de Gauss-Markov?

I Es posible encontrar estimadores de β que no sean insesgados aunque s´ı lineales y que tengan varianza menor a βn.

(33)

Relaci´

on entre

ε

ˆ

y los estimadores MCO

I Proposici´on 3: Sea {(x1,y1), . . . ,(xn,yn)}una muestra

aleatoria. Bajo los supuestos

I y =α+βx+ε.

I E(ε|x) =0.

I V(ε|x) =σ2 I E(εiεj|x) =0.

el estimador de MCO y el residual no est´an correlacionados. Es decir,

Referencias

Documento similar

Puesto que la familia es el contexto más influyente y determinante para ellos, se analizará qué consecuencias tiene que la lectura sea valorada y considerada

[r]

[r]

[r]

[r]

* Este trabajo se basa en el cursillo impartido de la Facultad de Ciencias Económicas de la Universidad de Barcelona, en febrero de 1974, bajo los auspicios del Centro de

El valor es maximo cuando p = 2/9 (es 38.8), que es el caso en que estaba indiferente entre cosechar en uno o dos d as y es cuando mas util le resultar a la informacion para

Hay que tener en cuenta que debido a la evolución tecnológica que se han dado en los últimos años existe una mayor facilidad para todos los ciudadanos para realizar reproducciones