• No se han encontrado resultados

INTRODUCCIÓN A LA ECONOMETRÍA

N/A
N/A
Protected

Academic year: 2022

Share "INTRODUCCIÓN A LA ECONOMETRÍA"

Copied!
33
0
0

Texto completo

(1)

MASTER EN TURISMO

INTRODUCCIÓN A LA

ECONOMETRÍA

Prof. Dr. Juan José García del Hoyo

Curso 2011-2012

(2)

Estructura del Tema

1. Introducción

2. Estimadores mínimo-cuadráticos ordinarios (MCO)

3. Propiedades. Teorema de Gauss-Markov

4. Estimador de la varianza de las perturbaciones aleatorias 5. Bondad del ajuste

6. Predicción con el modelo clásico 7. Modelo con variables transformadas

Anexo: Otros procedimientos: estimación por máxima verosimilitud

(3)

1. INTRODUCCIÓN

En estas clases vamos a abordar el análisis del denominado Modelo de Regresión Lineal Clásico (MRLC). Este modelo nos permitirá, entre otras cosas, cuantificar las relaciones económicas de tipo lineal entre determinadas variables, como por ejemplo, el ahorro y la inversión, la demanda y el precio, la renta y el consumo, etc.

Se trata de un modelo econométrico y uniecuacional que verifica determinadas hipótesis que facilitan su estimación mediante técnicas sencillas. No obstante, estas hipótesis, bastante restrictivas “a priori”, se relajarán en los próximos capítulos.

En esta sección pretenderemos plantear una estrategia para

poder estimar el modelo, para lo cual será necesario especificar

el modelo así como formular las principales hipótesis que, de cara

a poder estimar convenientemente el modelo, tendrán que ser

necesariamente formuladas

(4)

Modelo Estocástico

Y =

0

+

1

X +

Objetivo de la regresión

Variable dependiente, endógena o explicada

Variable independiente, exógena o explicativa

Estimar la relación funcional g entre dos variables X e Y Y = g (X)

MODELO LINEAL SIMPLE

Modelo Determinista

Y =

0

+

1

X

Término de error o perturbación aleatoria

 Variables no incluidas

 Forma funcional incorrecta

 Comportamiento aleatorio de los individuos

 Errores de medida

1. INTRODUCCIÓN

Formulación del modelo y técnica de estimación utilizada

(5)

Especificación del Modelo Lineal Simple

Y =

0

+

1

X +

Información Muestral

y

i

=

0

+

1

x

i

+

i

1. INTRODUCCIÓN

Especificación del modelo

y

n

x

n

...

...

y

2

x

2

y

1

x

1

X Y

Estimación del Modelo Poblacional

i i

1 0

i

βˆ βˆ x e

y

y ˆ

i

(6)

Y = 0 + 1 X +

Parámetros

Variable exógena

Perturbación Variable

endógena

Son desconocidos pero se suponen

constantes en toda la muestra Es una variable aleatoria no observable i.i.d. con media nula y varianza

constante

Es una variable no aleatoria cuyos valores no dependen

del muestreo Es una variable aleatoria

cuyos valores dependen del muestreo

1. INTRODUCCIÓN

Elementos que intervienen en el modelo

(7)

. . .

y

i

x

i

f(y

i

)

1. INTRODUCCIÓN

Representación gráfica del modelo

E(Y/x

i

)=β

0

1

X

i

X1 X2 X3 ……….

f(Y/X1)

f(Y/X2)

f(Y/X3)

Recibe el nombre de recta de regresión

poblacional

(8)

• El análisis de las relaciones existentes entre dos o más variables requiere en la mayoría de las ocasiones de tratamiento estadístico debido a que:

• La estructura verdadera de la relación no es conocida

• No existe dependencia funcional exacta entre las variables consideradas

Enfoques

Grado de dependencia

Estructura de dependencia

Correlación

Regresión

• La elección de la familia de curvas apropiada de la distribución bidimensional es crucial, por lo que será necesario la elaboración de un Diagrama de Dispersión que permita inferir la misma.

Regresión Lineal Mínimo-Cuadrática

(9)

• Supone que una distribución bidimensional responde a una familia de curvas lineales.

• Los parámetros de la recta de regresión lineal y*= a +bx resultan de la minimización de .

• La solución a este problema se obtiene mediante el denominado Sistema de Ecuaciones Normales.

• Interpretación: El parámetro a representa la ordenada en el origen, esto es el valor que toma la variable dependiente cuando la variable independiente toma el valor 0 y el parámetro b es la pendiente de la recta de regresión.

(10)

•A la diferencia entre el valor real de la variable (y) y el valor arrojado por la regresión mínimo- cuadrática (y*) se le denomina residuo (e).

•La recta de regresión pasa por el centro de gravedad de la nube de puntos:

•La suma de los residuos de una recta de regresión es siempre cero.

• El signo del parámetro b será el signo de la covarianza:

- Si la covarianza es positiva (negativa) la pendiente de la recta de regresión lineal también lo es.

- Si la covarianza toma el valor cero, las rectas de regresión serán paralelas a los ejes de coordenadas.

x y

0 Sxy

y , x

x y

0 Sxy

x y

0 Sxy

N ..., 1,2, i

, e bX a

e Y

Y

i i* i i i

i

0

e

(11)

• Correlación: La correlación hace referencia al grado de dependencia mutua entre dos variables.

La covarianza únicamente permitía establecer el tipo de dependencia entre las variables (directa e inversa). El coeficiente de correlación lineal no sólo permitirá determinar el tipo de dependencia sino que también nos servirá para calcular la intensidad de la dependencia entre las variables.

Coeficiente de Correlación Lineal

Coeficiente de Correlación Lineal: r

•Campo de variación:

(12)

Interpretación del Coeficiente de Correlación Lineal:

-1< r < 0 ==> Correlación lineal negativa o inversa, siendo más intensa cuanto más próximo esté a –1.

0 < r <+1 ==> Correlación lineal positiva o directa, siendo más intensa cuanto más próximo esté a 1.

r = -1 ==> Correlación lineal perfecta negativa o inversa. X e Y varían en sentidos opuestos. La recta de regresión es decreciente:

r = 1 ==> Correlación lineal perfecta positiva o directa. X e Y varían en el mismo sentido.

La recta de regresión es creciente:

r = 0 ==> Correlación lineal nula. La recta de regresión es de la forma:

(13)

• Propiedades del Coeficiente de Correlación Lineal:

1.- En caso de independencia entre dos variables, el coeficiente de correlación lineal es nulo debido a que en este caso la covarianza es nula.

X e Y variables independientes ==> SXY = 0 ==> r = 0

2.- Si el coeficiente de correlación lineal es 0, NO podremos afirmar que existe independencia entre las variables estudiadas.

(14)

• El análisis de la regresión se basa en el supuesto de que la información que suministra la variable sobre la que se regresa va a mejorar el conocimiento del comportamiento de la otra variable.

• Para ver en qué medida se alcanza este objetivo es necesario definir el concepto de Varianza debida a la Regresión.

• Para ello, consideremos las tres variables que se obtienen en la regresión:

• yj ==> Valores observados de Y.

• y*j ==> Valores teóricos para cada xi en la regresión de Y sobre X.

• ej = yj - y*j ==> Conjunto de residuos o errores generados en la regresión mínimo- cuadrática.

Bondad del Ajuste. Coeficiente de Determinación

(15)

Ejemplo

Se dispone para una determinada ciudad costera española de los gastos (expresados en cientos de euros) de una muestra de familias que la han visitado junto con el número de personas que componen cada unidad familiar considerada. El Ayuntamiento está interesado en conocer si efectivamente los gastos de estas familias (variable Y) dependen del número de personas que componen la familia (variable X).

a) Estimar la recta de regresión de Y sobre X.

b) Explicar el significado estadístico de los coeficientes de la línea ajustada.

c) Dibujar el diagrama de dispersión y representar la recta de regresión de Y sobre X.

d) Hallar el gasto realizado por una familia compuesta por 10 miembros. ¿Puede considerarse fiable la predicción obtenida?

Gastos

(en cientos de euros)

Nº de personas en la familia

12 5

15 6

17,5 6

20 7

30 8

35 9

(16)

X Y

x

1

x

2

x

3

x

4

y

1

y

2

y

3

y

4

ei

n

1 i

2 i 1 0

i n

1 i

2

i

y βˆ βˆ x

e SCE

βˆ 0 SCE

0

βˆ 0 SCE

1

2 x xy

1

S

βˆ S

βˆ x βˆ

0

y

1

2. ESTIMADORES MÍNIMO

CUADRÁTICO ORDINARIOS (MCO)

El objetivo que nos planteamos será la búsqueda de aquellos estimadores que minimicen la suma de los cuadrados de

los errores (SCE)

i 1 0

i

ˆ ˆ x

Estas son las soluciones al problema de optimización consistente en la

minimiz. de SCE

n

1

= i

i 1 0

i

- β - β X ) = 0 (Y

2

- ˆ ˆ

n

1

=

i

X

i

(Y

i

- β

0

- β

1

X

i

) = 0 2

- ˆ ˆ

n 1

i ei 0

n 1

i eixi 0

¿Por qué?

(17)

2. ESTIMADORES MÍNIMO

CUADRÁTICO ORDINARIOS (MCO)

βˆ 0 SCE

0

βˆ 0 SCE

1

n

1

= i

i 1 0

i

- β - β X ) = 0 (Y

2

- ˆ ˆ

n

1

= i

i 1 0 i

i

(Y - β - β X ) = 0 X

2

- ˆ ˆ

n

1

=

i i

1 0

n 1

=

i

y

i

= n βˆ + βˆ x

n x βˆ

+ βˆ n =

y ∑

n

1

= i i 1 0 n

1

= i i

x βˆ + βˆ

=

y

0 1

2 x xy

1

S

βˆ S

βˆ x βˆ

0

y

1

n

∑ ∑

1

= i

n 1

= i

n 1

= i

2i i

i

i

y βˆ x βˆ x = 0 x -

0

-

1

n

∑ ∑

1

= i

n 1

= i

2i 1 n

1

= i i i

i

y = ( y βˆ x ) x + βˆ x

x -

1

n

∑ ∑ ∑

1

= i

n

1

=

i =

2i

= 1 i

i

y = βˆ ( x )

x

n

1 i

i n

1 i

i

- x x

x

y

-

(18)

Modelo de Regresión Lineal

Múltiple

(19)

Modelo de Regresión Lineal Múltiple

Estimación del modelo propuesto

Estimación de la perturbación aleatoria Formulación econométrica del modelo

2. ESTIMADORES MÍNIMO

CUADRÁTICO ORDINARIOS (MCO)

X y

X y

X ˆ yˆ

X ˆ y

yˆ y

e

Enfoque matricial

T ,..., 2 , 1 t

; x

...

x

y t 0 1 1 t k kt t

T 2 1

y y y

y 

T 2 1

k 2 1 0

kT T

2 T 1

2 k 22

12

1 k 21

11

x x

x 1

x x

x 1

x x

x 1 X

(20)

“El objetivo consiste en localizar el conjunto de parámetros que minimizan el volumen de residuos (errores) que genera el

modelo,definido a partir de la suma de los cuadrados de los errores (SCE)”

Función objetivo

Condición necesaria de mínimo

2. ESTIMADORES MÍNIMO

CUADRÁTICO ORDINARIOS (MCO) Enfoque matricial

k 1 0

k 1 0 1

b ...

b b

ˆ ...

ˆ ˆ y ' X ) X ' X ( ˆ b

T

1 t

2 ki T

1 t

ki i 2 T

1 t

ki i 1 T

1 t

ki

T

1 t

ki i 2 T

1 t

2 i 2 T

1 t

i 2 i 1 T

1 t

i 2

T

1 t

ki i 1 T

1 t

i 2 i 1 T

1 t

2 i 1 T

1 t

i 1

T

1 t

ki T

1 t

i 2 T

1 t

i 1

x ...

x x x

x x

...

...

...

...

...

x x ...

x x

x x

x x ...

x x x

x

x ...

x x

n

X ' X

T

1 t

i ki T

1 t

i i 2 T

1 t

i i 1 T

1 t

i

y x ...

y x

y x

y

Y ' X

ya que

βˆ X ' y

= y ' X ' βˆ

ˆ 0 X X 2 y

X ˆ 2

SCE

X ˆ ˆ X y

ˆ X 2 y y ˆ )

X y ( ˆ ) X y ( e e e

SCE

T

1 t

2 t

(21)

2. ESTIMADORES MÍNIMO

CUADRÁTICO ORDINARIOS (MCO) Enfoque matricial aplicado al MRLS

T

1 t

2 t T

1 t

t

T

1 t

t

x x

x T

X ' X

T x

x x

S T ) 1

X ' X

(

t

1 t

t

t

1 t

t T

1 t

2 t 2

x 2 1

T

1 t

t t T

1 t

t

y x

y Y

' X

1 0

2 x xy

2 x xy

T

1 t

t

1 t

T

1 t

t t t

t t

1 t

t

1 t

T

1 t

t t t

1 t

t t

2 t 2

x 2 1

ˆ ˆ

S S

S x y S

y x T

y x

y x x

y x

S T Y 1

' X

`

)

X

'

X

(

(22)

Hipótesis en el Modelo de Regresión Lineal Clásico(MRLC)

3. SOBRE LA MATRIZ DE OBSERVACIONES X

“El rango de la matriz X debe coincidir con el número de columnas de dicha matriz. Además, el número de filas en X debe ser superior al

número de columnas. Finalmente X es determinista”.

3. PROPIEDADES. TEOREMA DE GAUSS-MARKOV

1. SOBRE EL MODELO

“Entre la variable explicada Y y las variables explicativas X

1

, X

2

, ... , X

k

existe la siguiente relación”

T , , 2 , 1 t

; x

x x

y

t 0 1 1t 2 2t

k kt t

2. SOBRE LA PERTURBACIÓN ALEATORIA

“La perturbación aleatoria se distribuye con esperanza matemática nula y varianza constante y desconocida y las covarianzas entre pares de perturbaciones son nulas (hipótesis de ausencia de autocorrelación)”

0 0 0 E

) ( E

T 2 1

 I

0 0

0 0

0 0

E ) ( E ) (

VAR 2

2 2

2

T 2

1

T 2 1

 

(23)

Propiedades de los estimadores MCO en el modelo clásico

“Bajo las hipótesis del modelo clásico, b es un estimador lineal e insesgado de los parámetros del modelo. Además, con independencia de que X sea o no estocástica, b es un estimador consistente y siempre que exista incorrelación contemporánea b será consistente, aunque se diera algún otro tipo de correlación”

“A través del Teorema de Gauss-Markov se demuestra que además de las propiedades de insesgadez y consistencia, el vector b es óptimo, es decir, es el de varianza mínima entre todos los estimadores lineales insesgados de los parámetros del modelo”

3. PROPIEDADES. TEOREMA DE GAUSS-MARKOV

Todo lo último nos permite afirmar que nuestros estimadores MCO son ELIO, es decir, Estimadores Lineales Insesgados y Óptimos, o lo que es lo mismo, son los de menor varianza de entre todos los estimadores lineales insesgados posibles

) ( E ' X )

X ' X ( '

X )

X ' X ( E

) b (

E

1 1

1 2

1 1

1

1

X ' ( X ' X ) X ' ' ( X ' X ) X ' E ( ' ) X ( X ' X ) ( X ' X ) )

X ' X ( E ) b ( VAR

Esperanza matemática de b E ( b ) E ( ˆ ) E [( X X )

1

X y ] y X

Varianza de b VAR ( b ) VAR ( ˆ ) E [( ˆ )( ˆ ) ] ( X X )

1 2

I

1 2

( X X ) S

ˆ ) ( R A ˆ V )

b ( R A ˆ V

positiva .

cte c 0 ) ˆ c

( LimP

n

(24)

3. PROPIEDADES. TEOREMA DE GAUSS-MARKOV

Estimación de la varianza de los estimadores de los parámetros del modelo

Realizando las operaciones algebraicas oportunas podemos obtener las fórmulas que nos permiten obtener una estimación puntual de la varianza de los estimadores de los parámetros del modelo

lineal simple, así como de la covarianza entre dichos estimadores

n 1 i

i 2 1 2

0

n 1 i

i 2 2 1

n 1 i

i 2 n

1 i

2i 0 2

) X - X ( ˆ X

- ˆ )

ˆ , ( V O ˆ C

) X - X ( ) ˆ

( ˆ R A ˆ V

) X - X ( n

x ˆ

ˆ )

(

R

A ˆ

V

(25)

“Bajo las hipótesis del modelo clásico S

2

es un estimador insesgado de la varianza de la perturbación aleatoria”

4. ESTIMADOR DE LA VARIANZA DE LA PERTURBACIÓN ALEATORIA

No obstante, al no ser un estimador lineal, no es ELIO, aunque goza de las propiedades de insesgadez y consistencia asintótica

Suma de los cuadrados de los errores o residuos

O también

i )

(

VAR

i 2

1 k T

e 1

k T S SCE ˆ

T

1 t

2 t 2

2

y ' X ˆ ' y ' ˆ y

X ' X ˆ ' y ' X ˆ ' 2 y ' y ˆ )

X y

( ˆ )' X y

( e ' e SCE

) ˆ X ' X ( ˆ ' y ' y SCE

Ya que y ' X ) X ' X

ˆ ( 1

(26)

SCT = SCR + SCE

“R

2

mide, por tanto, la proporción de la varianza muestral de Y que es explicada

por la varianza del modelo estimado”

A) Coeficiente de Determinación

B) Raiz del Error Cuadrático Medio (RECM)

C) Error Standard debido a la regresión (E.S.)

5. BONDAD DEL AJUSTE

Siempre y cuando exista término

independiente

SCT 1 SCE SCT

R

2

SCR

T 2

1 t

__

t

y

y SCT

T 2

1 t

__

t

y

y ˆ SCR

T

1 t

2

e

t

SCE

T RECM SCE

100 y

RECM RECM

(%)

__

1 k T S SCE .

S .

E

2

(27)

5. BONDAD DEL AJUSTE

Consideraciones acerca del Coeficiente de Determinación

La obtención del coeficiente R

2

se basa en la siguiente descomposición de sumas de cuadrados

SCT = SCR + SCE

SCT es la Suma de Cuadrados Totales y mide

la variabilidad total de la variable endógena o

explicada

SCR es la Suma de Cuadrados Debida a la Regresión o explicados

por el modelo

SCE es la Suma de los Cuadrados de los Errores o Residuos y viene referida a

la variabilidad de Y no explicada por el modelo

T

1 t

2 2

t y) Y'Y TY

y (

SCT T

1 t

2 2

t y) b'X'Y nY

( SCR

T

1 t

2

t Y'Y b'X'Y e

SCE

Este coeficiente nos permite seleccionar entre aquellos modelos con un mismo número de variables explicativas, aquel con una mayor capacidad explicativa. No obstante, dado que a medida que incorporamos más regresores R

2

se va haciendo mayor, necesitamos un coeficiente que permita la comparación entre modelos con diferente número de variables explicativas. A tal efecto, utilizaremos el denominado Coeficiente de Determinación Ajustado por Grados de Libertad, que penaliza el incremento de R

2

a medida que incorporamos más regresores.

) 1 k T (

) 1 T ) ( R 1 ( 1 R

R

2adj 2 2

(28)

Predicción puntual

Error de predicción

Variabilidad del error de predicción

Varianza estimada del error de predicción

Intervalo de predicción

6. PREDICCIÓN CON EL MODELO CLÁSICO

) x , , x , x , 1 ( x

; b x

y ˆ

T T T 1T 2T

kT

T T

T T

T

y y ˆ x ( b )

e

2 T

T T

T

T

) E ( e e ) x VAR ( b ) x e

( VAR

) X ) X X ( X 1 ( S )

e ( R A ˆ

V

T 2 T 1 T

) X ) X X ( X 1 ( S t

y ˆ

y

T T T 2k 1 2 T 1 T

(29)

El Modelo Clásico con cambios de escala

7. MODELO CON VARIABLES TRANSFORMADAS

Tratemos un caso bastante común en el que, a partir de las variables originales, realizamos un cambio de escala, que en este caso se traducirá en que multiplicamos a todos los valores de la

endógena Y por una constante p, mientras que la matriz de observaciones de X se ve multiplicada por una matriz diagonal de transformaciones P en la que los elementos de la

diagonal principal no tienen por qué ser necesariamente iguales entre sí

b pP p

y ' X ' P ) XP ' X ' P (

* y

*' X

*) X

*' X (

*

b

1 1 1

py

* y

XP

*

X Ya que, entre

otras cosas, P’=P

1 1

2

P VAR ( b ) P p

*) b ( VAR

1 P

; k ..., , 2 , 1 , 0 i

; b

b i * P p i 0

i

1 P

; k ..., , 2 , 1 i P ;

S p

S

2 0

i 2 2 b 2

b* i

i

De esta forma, a partir de los coeficientes estimados para el modelo original, podemos determinar los correspondientes al modelo transformado

2 2

2 2

2

SCE ; SCT * p SCT ; SCR * p SCR ; R * R

p

* SCE

k 1

P 0

0

0 P

0

0 0

1 P

(30)

El Modelo Clásico con datos centrados

“La estimación del modelo con datos centrados no afecta a la estimación de los parámetros del modelo ni a la estimación de las varianzas de los estimadores. Tan

sólo simplifica los cálculos al evitar la primera fila y la primera columna de la matriz X’X con datos centrados”

7. MODELO CON VARIABLES TRANSFORMADAS

xy 1

xx

M M

b

k 2

1

__

k __

2 __

1 __

0

y b x b x b x

b 

2

kt t

2 kt t

1 kt

kt t 2 2

t 2 t

1 t 2

kt t 1 t

2 t 1 2

t 1

xx

m m

m m

m

m m m

m m

m m m

m m

M

__

t

* t __

it it

* t kt

* t t 2

* t t 1

xy

; m x x ; y y y

y m

y m

y m

M

i

xy T

1 t

2

*

t

b trans . M y

SCE

1 xx 2

M

S

)

b

(

R

A ˆ

V

(31)

ANEXO. OTROS PROCEDIMIENTOS DE ESTIMACIÓN:

ESTIMACIÓN POR MÁXIMA VEROSIMILITUD

Suponiendo, tal y como se verá en un tema siguiente, que el término de error se distribuye normalmente con media nula y varianza constante 2, entonces podemos llegar a las siguientes

conclusiones interesantes

j i 0

= ) ε ε ( E

= ) Y , Y ( COV

σ

= ) ε ( E

= ) Y ( VAR

X β + β

= ) Y ( E

j i j

i

2 i2

i

i 1 0 i

Ya que las perturbaciones aleatorias son independientes

entre sí (incorrelación)

Al ser X determinsta, podemos concluir que los Yi son una secuencia de variables normales independientes e identicamente distribuidas (iid), por lo que podemos escribir

2 i i

2(Y β β X )

σ 2

1 2

/ 1 2 2

1 0

i

e

) πσ 2 (

= 1 ) σ , β , β / Y

(f

- - 0- 1

Dado que los Yi son independientes, podemos construir la función de verosimilitud:

e πσ )

2 ( 1

= ) σ , β , β / Y ,..., Y ,

=

n 1

= i

i 2

i β β X)

Y σ ( 2 / 2 n 1 2

0 n 2

0 1

2 - -

2 - 1

f(Y1

L

La aplicación del criterio de la máxima verosimilitud exige la maximización de dicha función. La obtención de las correspondientes derivadas parciales resulta más fácil si tomamos el logaritmo

neperiano de la función de verosimilitud

n

1

= i

i 2

2

( Y

i

β β X )

) σ σ ln(

) π 2 ln(

= L

Ln

2

-

0

-

1

2 - 1 2

- n 2

- n

(32)

ANEXO. OTROS PROCEDIMIENTOS DE ESTIMACIÓN:

ESTIMACIÓN POR MÁXIMA VEROSIMILITUD

Ahora estamos en condiciones de plantear las condiciones de primer orden para la maximización

de la verosimilitud ∑

n 1

i i i 0 1

2

n 1 i

1 0 2 i

- - (Y X 2 -2)

- 1

- - (Y 2 -2)

- 1

= i

1

= i

0

0

= ) X β~ β~ σ (

β = LnL

0

= ) X β~ β~ σ (

β = LnL

que, en definitiva, nos conduce a la obtención del siguiente sistema de ecuaciones

n

1

=

i (Yi -βˆ0 -βˆ1Xi)=0

n

1

=

i Xi(Yi -βˆ0 -βˆ1Xi)=0

que coinciden con las ecuaciones normales mediante las cuales obtuvimos en un apartado anterior los estimadores MCO del modelo lineal simple, lo cual nos permite afirmar que los criterios

de máxima verosimilitud y de MCO proporcionan los mismos estimadores puntuales de los parámetros del modelo Para la estimación de la varianza del término de error aplicaremos el mismo criterio, es decir

∂ ∑

n

1

= i

i 2 4 i

2

β ~ X ) = 0

β ~ Y σ~ (

2 + 1

= σ~

σ LnL

1

2

-

0

-

2 - n

n

1

= i

i2

u~

lo que nos permite establecer que

n u~

=

⇒ σ~

σ~

2

= n σ~

2

u~

n

1

= i

i2 2 2

4 n

1

= i

i2

¡Es sesgado!

2 2

2

2 ≠σ

n σ σ

= n σ

= ) σ~

( E

2 2

n - 2

- No obstante, es asintóticamente insesgado

(33)

BIBLIOGRAFÍA BÁSICA

Greene, W. H., (1998), Análisis Econométrico, 3ª edición, Madrid: Prentice Hall, págs. 193-259.

Guisán Seijas, Mª del Carmen, (1997), Econometría, Madrid: Mc Graw Hill, págs. 15-50.

Martín, G. y otros, (1997), Introducción a la Econometría, Madrid: Prentice Hall, págs. 4-88.

Novales Cinca, A., (1993), Econometría, 2ª edición, Madrid: Mc Graw Hill, págs. 52-112.

Pulido San Román, A., (1987), Modelos Econométricos, Madrid: Pirámide, págs. 105-124.

Trívez Bielsa, F. J., (2004), Introducción a la Econometría, Madrid: Pirámide, págs. 125-160.

Uriel, E. y otros, (1990), Econometría: El Modelo Lineal, Madrid: AC, págs. 19-49.

La bibliografía sobre estas cuestiones es muy extensa. En muchos de los manuales de

Econometría se aborda de manera precisa el desarrollo de la técnica de los MCO aplicada a

la estimación del que se denomina Modelo de Regresión Lineal Simple. De cara a una mayor

generalidad, hemos extendido en este capítulo la aplicación de la técnica de estimación al

caso del modelo lineal en el que se incluyen k variables explicativas, por lo que es

recomendable que el alumno se familiarice con el enfoque matricial lo antes posible. A modo

de resumen, la bibliografía en castellano que puede consultar el alumno, entre una extensa

relación de referencias, es la que mostramos a continuación

Referencias

Documento similar

Se dice que la Administración no está obligada a seguir sus pre- cedentes y puede, por tanto, conculcar legítimamente los principios de igualdad, seguridad jurídica y buena fe,

Després d’un inventari pericial i de consensuar-ho amb els mateixos redactors de l’estudi, s’apunta a que la problemàtica és deguda a que en els casos on l’afectació

Polígon industrial Torrent d'en Puig. Polígonindustrial de Can

Presidenta el Pleno de la Corporación, en votación ordinaria y por mayoría, con la abstención del Grupo Mixto (LANZAROTE EN PIE-SÍ PODEMOS), el voto a favor de los

modelo de

1. LAS GARANTÍAS CONSTITUCIONALES.—2. C) La reforma constitucional de 1994. D) Las tres etapas del amparo argentino. F) Las vías previas al amparo. H) La acción es judicial en

Volviendo a la jurisprudencia del Tribunal de Justicia, conviene recor- dar que, con el tiempo, este órgano se vio en la necesidad de determinar si los actos de los Estados

En cuarto lugar, se establecen unos medios para la actuación de re- fuerzo de la Cohesión (conducción y coordinación de las políticas eco- nómicas nacionales, políticas y acciones