MASTER EN TURISMO
INTRODUCCIÓN A LA
ECONOMETRÍA
Prof. Dr. Juan José García del Hoyo
Curso 2011-2012
Estructura del Tema
1. Introducción
2. Estimadores mínimo-cuadráticos ordinarios (MCO)
3. Propiedades. Teorema de Gauss-Markov
4. Estimador de la varianza de las perturbaciones aleatorias 5. Bondad del ajuste
6. Predicción con el modelo clásico 7. Modelo con variables transformadas
Anexo: Otros procedimientos: estimación por máxima verosimilitud
1. INTRODUCCIÓN
En estas clases vamos a abordar el análisis del denominado Modelo de Regresión Lineal Clásico (MRLC). Este modelo nos permitirá, entre otras cosas, cuantificar las relaciones económicas de tipo lineal entre determinadas variables, como por ejemplo, el ahorro y la inversión, la demanda y el precio, la renta y el consumo, etc.
Se trata de un modelo econométrico y uniecuacional que verifica determinadas hipótesis que facilitan su estimación mediante técnicas sencillas. No obstante, estas hipótesis, bastante restrictivas “a priori”, se relajarán en los próximos capítulos.
En esta sección pretenderemos plantear una estrategia para
poder estimar el modelo, para lo cual será necesario especificar
el modelo así como formular las principales hipótesis que, de cara
a poder estimar convenientemente el modelo, tendrán que ser
necesariamente formuladas
Modelo Estocástico
Y =
0+
1X +
Objetivo de la regresión
Variable dependiente, endógena o explicadaVariable independiente, exógena o explicativa
Estimar la relación funcional g entre dos variables X e Y Y = g (X)
MODELO LINEAL SIMPLE
Modelo Determinista
Y =
0+
1X
Término de error o perturbación aleatoria
Variables no incluidas
Forma funcional incorrecta
Comportamiento aleatorio de los individuos
Errores de medida
1. INTRODUCCIÓN
Formulación del modelo y técnica de estimación utilizada
Especificación del Modelo Lineal Simple
Y =
0+
1X +
Información Muestral
y
i=
0+
1x
i+
i1. INTRODUCCIÓN
Especificación del modelo
y
nx
n...
...
y
2x
2y
1x
1X Y
Estimación del Modelo Poblacional
i i
1 0
i
βˆ βˆ x e
y
y ˆ
iY = 0 + 1 X +
Parámetros
Variable exógena
Perturbación Variable
endógena
Son desconocidos pero se suponen
constantes en toda la muestra Es una variable aleatoria no observable i.i.d. con media nula y varianza
constante
Es una variable no aleatoria cuyos valores no dependen
del muestreo Es una variable aleatoria
cuyos valores dependen del muestreo
1. INTRODUCCIÓN
Elementos que intervienen en el modelo
. . .
y
ix
if(y
i)
1. INTRODUCCIÓN
Representación gráfica del modelo
E(Y/x
i)=β
0+β
1X
iX1 X2 X3 ……….
f(Y/X1)
f(Y/X2)
f(Y/X3)
Recibe el nombre de recta de regresión
poblacional
• El análisis de las relaciones existentes entre dos o más variables requiere en la mayoría de las ocasiones de tratamiento estadístico debido a que:
• La estructura verdadera de la relación no es conocida
• No existe dependencia funcional exacta entre las variables consideradas
• Enfoques
Grado de dependencia
Estructura de dependencia
Correlación
Regresión
• La elección de la familia de curvas apropiada de la distribución bidimensional es crucial, por lo que será necesario la elaboración de un Diagrama de Dispersión que permita inferir la misma.
Regresión Lineal Mínimo-Cuadrática
• Supone que una distribución bidimensional responde a una familia de curvas lineales.
• Los parámetros de la recta de regresión lineal y*= a +bx resultan de la minimización de .
• La solución a este problema se obtiene mediante el denominado Sistema de Ecuaciones Normales.
• Interpretación: El parámetro a representa la ordenada en el origen, esto es el valor que toma la variable dependiente cuando la variable independiente toma el valor 0 y el parámetro b es la pendiente de la recta de regresión.
•A la diferencia entre el valor real de la variable (y) y el valor arrojado por la regresión mínimo- cuadrática (y*) se le denomina residuo (e).
•La recta de regresión pasa por el centro de gravedad de la nube de puntos:
•La suma de los residuos de una recta de regresión es siempre cero.
• El signo del parámetro b será el signo de la covarianza:
- Si la covarianza es positiva (negativa) la pendiente de la recta de regresión lineal también lo es.
- Si la covarianza toma el valor cero, las rectas de regresión serán paralelas a los ejes de coordenadas.
x y
0 Sxy
y , x
x y
0 Sxy
x y
0 Sxy
N ..., 1,2, i
, e bX a
e Y
Y
i i* i i ii
0
e
• Correlación: La correlación hace referencia al grado de dependencia mutua entre dos variables.
La covarianza únicamente permitía establecer el tipo de dependencia entre las variables (directa e inversa). El coeficiente de correlación lineal no sólo permitirá determinar el tipo de dependencia sino que también nos servirá para calcular la intensidad de la dependencia entre las variables.
Coeficiente de Correlación Lineal
• Coeficiente de Correlación Lineal: r
•Campo de variación:
• Interpretación del Coeficiente de Correlación Lineal:
-1< r < 0 ==> Correlación lineal negativa o inversa, siendo más intensa cuanto más próximo esté a –1.
0 < r <+1 ==> Correlación lineal positiva o directa, siendo más intensa cuanto más próximo esté a 1.
r = -1 ==> Correlación lineal perfecta negativa o inversa. X e Y varían en sentidos opuestos. La recta de regresión es decreciente:
r = 1 ==> Correlación lineal perfecta positiva o directa. X e Y varían en el mismo sentido.
La recta de regresión es creciente:
r = 0 ==> Correlación lineal nula. La recta de regresión es de la forma:
• Propiedades del Coeficiente de Correlación Lineal:
1.- En caso de independencia entre dos variables, el coeficiente de correlación lineal es nulo debido a que en este caso la covarianza es nula.
X e Y variables independientes ==> SXY = 0 ==> r = 0
2.- Si el coeficiente de correlación lineal es 0, NO podremos afirmar que existe independencia entre las variables estudiadas.
• El análisis de la regresión se basa en el supuesto de que la información que suministra la variable sobre la que se regresa va a mejorar el conocimiento del comportamiento de la otra variable.
• Para ver en qué medida se alcanza este objetivo es necesario definir el concepto de Varianza debida a la Regresión.
• Para ello, consideremos las tres variables que se obtienen en la regresión:
• yj ==> Valores observados de Y.
• y*j ==> Valores teóricos para cada xi en la regresión de Y sobre X.
• ej = yj - y*j ==> Conjunto de residuos o errores generados en la regresión mínimo- cuadrática.
Bondad del Ajuste. Coeficiente de Determinación
Ejemplo
Se dispone para una determinada ciudad costera española de los gastos (expresados en cientos de euros) de una muestra de familias que la han visitado junto con el número de personas que componen cada unidad familiar considerada. El Ayuntamiento está interesado en conocer si efectivamente los gastos de estas familias (variable Y) dependen del número de personas que componen la familia (variable X).
a) Estimar la recta de regresión de Y sobre X.
b) Explicar el significado estadístico de los coeficientes de la línea ajustada.
c) Dibujar el diagrama de dispersión y representar la recta de regresión de Y sobre X.
d) Hallar el gasto realizado por una familia compuesta por 10 miembros. ¿Puede considerarse fiable la predicción obtenida?
Gastos
(en cientos de euros)
Nº de personas en la familia
12 5
15 6
17,5 6
20 7
30 8
35 9
X Y
x
1x
2x
3x
4y
1y
2y
3y
4ei
n
1 i
2 i 1 0
i n
1 i
2
i
y βˆ βˆ x
e SCE
βˆ 0 SCE
0
βˆ 0 SCE
1
2 x xy
1
S
βˆ S
βˆ x βˆ
0y
12. ESTIMADORES MÍNIMO
CUADRÁTICO ORDINARIOS (MCO)
El objetivo que nos planteamos será la búsqueda de aquellos estimadores que minimicen la suma de los cuadrados de
los errores (SCE)
i 1 0
i
ˆ ˆ x
yˆ
Estas son las soluciones al problema de optimización consistente en la
minimiz. de SCE
∑
n1
= i
i 1 0
i
- β - β X ) = 0 (Y
2
- ˆ ˆ
∑
n1
=
i
X
i(Y
i- β
0- β
1X
i) = 0 2
- ˆ ˆ
n 1
i ei 0
n 1
i eixi 0
¿Por qué?
2. ESTIMADORES MÍNIMO
CUADRÁTICO ORDINARIOS (MCO)
βˆ 0 SCE
0
βˆ 0 SCE
1
∑
n1
= i
i 1 0
i
- β - β X ) = 0 (Y
2
- ˆ ˆ
∑
n1
= i
i 1 0 i
i
(Y - β - β X ) = 0 X
2
- ˆ ˆ
∑
n1
=
i i
1 0
n 1
=
i
y
i= n βˆ + βˆ x
∑
n x βˆ
+ βˆ n =
y ∑
∑
n1
= i i 1 0 n
1
= i i
x βˆ + βˆ
=
y
0 12 x xy
1
S
βˆ S
βˆ x βˆ
0y
1∑
n∑ ∑
1
= i
n 1
= i
n 1
= i
2i i
i
i
y βˆ x βˆ x = 0 x -
0-
1∑
n∑ ∑
1
= i
n 1
= i
2i 1 n
1
= i i i
i
y = ( y βˆ x ) x + βˆ x
x -
1∑
n∑ ∑ ∑
1
= i
n
1
=
i =
2i
= 1 i
i
y = βˆ ( x )
x
n1 i
i n
1 i
i
- x x
x
y
-
Modelo de Regresión Lineal
Múltiple
Modelo de Regresión Lineal Múltiple
Estimación del modelo propuesto
Estimación de la perturbación aleatoria Formulación econométrica del modelo
2. ESTIMADORES MÍNIMO
CUADRÁTICO ORDINARIOS (MCO)
X y
X y
X ˆ yˆ
X ˆ y
yˆ y
e
Enfoque matricial
T ,..., 2 , 1 t
; x
...
x
y t 0 1 1 t k kt t
T 2 1
y y y
y
T 2 1
k 2 1 0
kT T
2 T 1
2 k 22
12
1 k 21
11
x x
x 1
x x
x 1
x x
x 1 X
“El objetivo consiste en localizar el conjunto de parámetros que minimizan el volumen de residuos (errores) que genera el
modelo,definido a partir de la suma de los cuadrados de los errores (SCE)”
Función objetivo
Condición necesaria de mínimo
2. ESTIMADORES MÍNIMO
CUADRÁTICO ORDINARIOS (MCO) Enfoque matricial
k 1 0
k 1 0 1
b ...
b b
ˆ ...
ˆ ˆ y ' X ) X ' X ( ˆ b
T
1 t
2 ki T
1 t
ki i 2 T
1 t
ki i 1 T
1 t
ki
T
1 t
ki i 2 T
1 t
2 i 2 T
1 t
i 2 i 1 T
1 t
i 2
T
1 t
ki i 1 T
1 t
i 2 i 1 T
1 t
2 i 1 T
1 t
i 1
T
1 t
ki T
1 t
i 2 T
1 t
i 1
x ...
x x x
x x
...
...
...
...
...
x x ...
x x
x x
x x ...
x x x
x
x ...
x x
n
X ' X
T
1 t
i ki T
1 t
i i 2 T
1 t
i i 1 T
1 t
i
y x ...
y x
y x
y
Y ' X
ya que
βˆ X ' y
= y ' X ' βˆ
ˆ 0 X X 2 y
X ˆ 2
SCE
X ˆ ˆ X y
ˆ X 2 y y ˆ )
X y ( ˆ ) X y ( e e e
SCE
T
1 t
2 t
2. ESTIMADORES MÍNIMO
CUADRÁTICO ORDINARIOS (MCO) Enfoque matricial aplicado al MRLS
T
1 t
2 t T
1 t
t
T
1 t
t
x x
x T
X ' X
T x
x x
S T ) 1
X ' X
(
t1 t
t
t
1 t
t T
1 t
2 t 2
x 2 1
T
1 t
t t T
1 t
t
y x
y Y
' X
1 0
2 x xy
2 x xy
T
1 t
t
1 t
T
1 t
t t t
t t
1 t
t
1 t
T
1 t
t t t
1 t
t t
2 t 2
x 2 1
ˆ ˆ
S S
S x y S
y x T
y x
y x x
y x
S T Y 1
' X
`
)
X
'
X
(
Hipótesis en el Modelo de Regresión Lineal Clásico(MRLC)
3. SOBRE LA MATRIZ DE OBSERVACIONES X
“El rango de la matriz X debe coincidir con el número de columnas de dicha matriz. Además, el número de filas en X debe ser superior al
número de columnas. Finalmente X es determinista”.
3. PROPIEDADES. TEOREMA DE GAUSS-MARKOV
1. SOBRE EL MODELO
“Entre la variable explicada Y y las variables explicativas X
1, X
2, ... , X
kexiste la siguiente relación”
T , , 2 , 1 t
; x
x x
y
t 0 1 1t 2 2t
k kt t
2. SOBRE LA PERTURBACIÓN ALEATORIA
“La perturbación aleatoria se distribuye con esperanza matemática nula y varianza constante y desconocida y las covarianzas entre pares de perturbaciones son nulas (hipótesis de ausencia de autocorrelación)”
0 0 0 E
) ( E
T 2 1
I
0 0
0 0
0 0
E ) ( E ) (
VAR 2
2 2
2
T 2
1
T 2 1
Propiedades de los estimadores MCO en el modelo clásico
“Bajo las hipótesis del modelo clásico, b es un estimador lineal e insesgado de los parámetros del modelo. Además, con independencia de que X sea o no estocástica, b es un estimador consistente y siempre que exista incorrelación contemporánea b será consistente, aunque se diera algún otro tipo de correlación”
“A través del Teorema de Gauss-Markov se demuestra que además de las propiedades de insesgadez y consistencia, el vector b es óptimo, es decir, es el de varianza mínima entre todos los estimadores lineales insesgados de los parámetros del modelo”
3. PROPIEDADES. TEOREMA DE GAUSS-MARKOV
Todo lo último nos permite afirmar que nuestros estimadores MCO son ELIO, es decir, Estimadores Lineales Insesgados y Óptimos, o lo que es lo mismo, son los de menor varianza de entre todos los estimadores lineales insesgados posibles
) ( E ' X )
X ' X ( '
X )
X ' X ( E
) b (
E
1 11 2
1 1
1
1
X ' ( X ' X ) X ' ' ( X ' X ) X ' E ( ' ) X ( X ' X ) ( X ' X ) )
X ' X ( E ) b ( VAR
Esperanza matemática de b E ( b ) E ( ˆ ) E [( X X )
1X y ] y X
Varianza de b VAR ( b ) VAR ( ˆ ) E [( ˆ )( ˆ ) ] ( X X )
1 2I
1 2
( X X ) S
ˆ ) ( R A ˆ V )
b ( R A ˆ V
positiva .
cte c 0 ) ˆ c
( LimP
n
3. PROPIEDADES. TEOREMA DE GAUSS-MARKOV
Estimación de la varianza de los estimadores de los parámetros del modelo
Realizando las operaciones algebraicas oportunas podemos obtener las fórmulas que nos permiten obtener una estimación puntual de la varianza de los estimadores de los parámetros del modelo
lineal simple, así como de la covarianza entre dichos estimadores
∑
∑
∑
n 1 i
i 2 1 2
0
n 1 i
i 2 2 1
n 1 i
i 2 n
1 i
2i 0 2
) X - X ( ˆ X
- ˆ )
ˆ , ( V O ˆ C
) X - X ( ) ˆ
( ˆ R A ˆ V
) X - X ( n
x ˆ
ˆ )
(
R
A ˆ
V
“Bajo las hipótesis del modelo clásico S
2es un estimador insesgado de la varianza de la perturbación aleatoria”
4. ESTIMADOR DE LA VARIANZA DE LA PERTURBACIÓN ALEATORIA
No obstante, al no ser un estimador lineal, no es ELIO, aunque goza de las propiedades de insesgadez y consistencia asintótica
Suma de los cuadrados de los errores o residuos
O también
i )
(
VAR
i 21 k T
e 1
k T S SCE ˆ
T
1 t
2 t 2
2
y ' X ˆ ' y ' ˆ y
X ' X ˆ ' y ' X ˆ ' 2 y ' y ˆ )
X y
( ˆ )' X y
( e ' e SCE
) ˆ X ' X ( ˆ ' y ' y SCE
Ya que y ' X ) X ' X
ˆ ( 1
SCT = SCR + SCE
“R
2mide, por tanto, la proporción de la varianza muestral de Y que es explicada
por la varianza del modelo estimado”
A) Coeficiente de Determinación
B) Raiz del Error Cuadrático Medio (RECM)
C) Error Standard debido a la regresión (E.S.)
5. BONDAD DEL AJUSTE
Siempre y cuando exista término
independiente
SCT 1 SCE SCT
R
2SCR
T 2
1 t
__
t
y
y SCT
T 2
1 t
__
t
y
y ˆ SCR
T
1 t
2
e
tSCE
T RECM SCE
100 y
RECM RECM
(%)
__1 k T S SCE .
S .
E
25. BONDAD DEL AJUSTE
Consideraciones acerca del Coeficiente de Determinación
La obtención del coeficiente R
2se basa en la siguiente descomposición de sumas de cuadrados
SCT = SCR + SCE
SCT es la Suma de Cuadrados Totales y mide
la variabilidad total de la variable endógena o
explicada
SCR es la Suma de Cuadrados Debida a la Regresión o explicados
por el modelo
SCE es la Suma de los Cuadrados de los Errores o Residuos y viene referida a
la variabilidad de Y no explicada por el modelo
T
1 t
2 2
t y) Y'Y TY
y (
SCT T
1 t
2 2
t y) b'X'Y nY yˆ
( SCR
T
1 t
2
t Y'Y b'X'Y e
SCE
Este coeficiente nos permite seleccionar entre aquellos modelos con un mismo número de variables explicativas, aquel con una mayor capacidad explicativa. No obstante, dado que a medida que incorporamos más regresores R
2se va haciendo mayor, necesitamos un coeficiente que permita la comparación entre modelos con diferente número de variables explicativas. A tal efecto, utilizaremos el denominado Coeficiente de Determinación Ajustado por Grados de Libertad, que penaliza el incremento de R
2a medida que incorporamos más regresores.
) 1 k T (
) 1 T ) ( R 1 ( 1 R
R
2adj 2 2Predicción puntual
Error de predicción
Variabilidad del error de predicción
Varianza estimada del error de predicción
Intervalo de predicción
6. PREDICCIÓN CON EL MODELO CLÁSICO
) x , , x , x , 1 ( x
; b x
y ˆ
T T T 1T 2T
kTT T
T T
T
y y ˆ x ( b )
e
2 T
T T
T
T
) E ( e e ) x VAR ( b ) x e
( VAR
) X ) X X ( X 1 ( S )
e ( R A ˆ
V
T 2 T 1 T) X ) X X ( X 1 ( S t
y ˆ
y
T T T 2k 1 2 T 1 TEl Modelo Clásico con cambios de escala
7. MODELO CON VARIABLES TRANSFORMADAS
Tratemos un caso bastante común en el que, a partir de las variables originales, realizamos un cambio de escala, que en este caso se traducirá en que multiplicamos a todos los valores de la
endógena Y por una constante p, mientras que la matriz de observaciones de X se ve multiplicada por una matriz diagonal de transformaciones P en la que los elementos de la
diagonal principal no tienen por qué ser necesariamente iguales entre sí
b pP p
y ' X ' P ) XP ' X ' P (
* y
*' X
*) X
*' X (
*
b
1 1 1py
* y
XP
*
X Ya que, entre
otras cosas, P’=P
1 1
2
P VAR ( b ) P p
*) b ( VAR
1 P
; k ..., , 2 , 1 , 0 i
; b
b i * P p i 0
i
1 P
; k ..., , 2 , 1 i P ;
S p
S
2 0i 2 2 b 2
b* i
i
De esta forma, a partir de los coeficientes estimados para el modelo original, podemos determinar los correspondientes al modelo transformado
2 2
2 2
2
SCE ; SCT * p SCT ; SCR * p SCR ; R * R
p
* SCE
k 1
P 0
0
0 P
0
0 0
1 P
El Modelo Clásico con datos centrados
“La estimación del modelo con datos centrados no afecta a la estimación de los parámetros del modelo ni a la estimación de las varianzas de los estimadores. Tan
sólo simplifica los cálculos al evitar la primera fila y la primera columna de la matriz X’X con datos centrados”
7. MODELO CON VARIABLES TRANSFORMADAS
xy 1
xx
M M
b
k 2
1
__
k __
2 __
1 __
0
y b x b x b x
b
2kt t
2 kt t
1 kt
kt t 2 2
t 2 t
1 t 2
kt t 1 t
2 t 1 2
t 1
xx
m m
m m
m
m m m
m m
m m m
m m
M
__
t
* t __
it it
* t kt
* t t 2
* t t 1
xy
; m x x ; y y y
y m
y m
y m
M
i
xy T
1 t
2
*
t
b trans . M y
SCE
1 xx 2
M
S
)
b
(
R
A ˆ
V
ANEXO. OTROS PROCEDIMIENTOS DE ESTIMACIÓN:
ESTIMACIÓN POR MÁXIMA VEROSIMILITUD
Suponiendo, tal y como se verá en un tema siguiente, que el término de error se distribuye normalmente con media nula y varianza constante 2, entonces podemos llegar a las siguientes
conclusiones interesantes
j i 0
= ) ε ε ( E
= ) Y , Y ( COV
σ
= ) ε ( E
= ) Y ( VAR
X β + β
= ) Y ( E
j i j
i
2 i2
i
i 1 0 i
≠
∀
Ya que las perturbaciones aleatorias son independientes
entre sí (incorrelación)
Al ser X determinsta, podemos concluir que los Yi son una secuencia de variables normales independientes e identicamente distribuidas (iid), por lo que podemos escribir
2 i i
2(Y β β X )
σ 2
1 2
/ 1 2 2
1 0
i
e
) πσ 2 (
= 1 ) σ , β , β / Y
(f
- - 0- 1Dado que los Yi son independientes, podemos construir la función de verosimilitud:
e πσ )
2 ( 1
= ) σ , β , β / Y ,..., Y ,
=
n 1
= i
i 2
i β β X)
Y σ ( 2 / 2 n 1 2
0 n 2
∑ 0 1
2 - -
2 - 1
f(Y1
L
La aplicación del criterio de la máxima verosimilitud exige la maximización de dicha función. La obtención de las correspondientes derivadas parciales resulta más fácil si tomamos el logaritmo
neperiano de la función de verosimilitud
∑
n1
= i
i 2
2
( Y
iβ β X )
) σ σ ln(
) π 2 ln(
= L
Ln
2-
0-
12 - 1 2
- n 2
- n
ANEXO. OTROS PROCEDIMIENTOS DE ESTIMACIÓN:
ESTIMACIÓN POR MÁXIMA VEROSIMILITUD
Ahora estamos en condiciones de plantear las condiciones de primer orden para la maximización
de la verosimilitud ∑
∑
∂
∂
∂
∂
n 1
i i i 0 1
2
n 1 i
1 0 2 i
- - (Y X 2 -2)
- 1
- - (Y 2 -2)
- 1
= i
1
= i
0
0
= ) X β~ β~ σ (
β = LnL
0
= ) X β~ β~ σ (
β = LnL
que, en definitiva, nos conduce a la obtención del siguiente sistema de ecuaciones
∑
n1
=
i (Yi -βˆ0 -βˆ1Xi)=0
∑
n1
=
i Xi(Yi -βˆ0 -βˆ1Xi)=0
que coinciden con las ecuaciones normales mediante las cuales obtuvimos en un apartado anterior los estimadores MCO del modelo lineal simple, lo cual nos permite afirmar que los criterios
de máxima verosimilitud y de MCO proporcionan los mismos estimadores puntuales de los parámetros del modelo Para la estimación de la varianza del término de error aplicaremos el mismo criterio, es decir
∂ ∑
∂
n1
= i
i 2 4 i
2
β ~ X ) = 0
β ~ Y σ~ (
2 + 1
= σ~
σ LnL
1
2
-
0-
2 - n
∑
n1
= i
i2
u~
lo que nos permite establecer que
n u~
=
⇒ σ~
σ~
2
= n σ~
2
u~
∑
∑
n1
= i
i2 2 2
4 n
1
= i
i2
¡Es sesgado!
2 2
2
2 ≠σ
n σ σ
= n σ
= ) σ~
( E
2 2
n - 2
- No obstante, es asintóticamente insesgado