Clase No 6 Econometria
Clase No 6 Econometria
Clase No 6 Econometria
Introducción
Ya conocemos que para lograr estimaciones de los parámetros Bj del modelo a utilizar se aplicó
el método de los mínimos cuadrados, basados en minimizar la suma de cuadrados residual
n
∑ e2i donde e i= y i− ^
yi
i=1
Desarrollo de la clase
Supuestos del modelo de Regresión:
El análisis de regresión requiere del cumplimiento de un conjunto de supuestos, para que el
resultado estimado sea lo más cercano a la realidad posible.
Estos supuestos se pueden establecer indistintamente sobre U i o sobre Yi .
pág. 1
1. El error aleatorio debe de tener media igual a cero
E(Ui)=0 para i=1,2,3…n
2. Las varianzas de las perturbaciones deben de ser constantes e igual a
σ2(Homocedastisidad). La varianza ei es constante.
3. Las perturbaciones deben de ser independientes entre sí Cov(U iUj)=E(UiUj)=0 para
i=1,2,3…n y para i≠j. No debe de existir autocorrelación entre las perturbaciones.
4. No multicolinealidad r(x)=p ≤n entre las variables x i no hay intercorrelación (para el caso
de más de una variable independiente).
5. Las perturbaciones deben distribuirse normalmente con media =0 y varianza
σ2 Ui~ N (0, σ).
Si se cumplen las 4 hipótesis primeras, entonces las estimaciones mínimas cuadráticas de los
parámetros resultan de varianza mínima en la clase de los estimadores insesgado. Todas estas
hipótesis se hacen necesaria para realizar las pruebas de hipótesis sobre la ecuación estimada y así
como las estimaciones por intervalos.
Inconvenientes que se presentan cuando se incumplen las hipótesis sobre todo la ,2,3,4.
a) Los estimadores mínimos cuadráticos de los parámetros son insesgado, pero no resultan
óptimos, pues sus varianzas pueden alcanzar valores altos.
b) Las varianzas muestrales de los estimadores mínimos cuadráticos manifiestan una seria
sobrestimación de los parámetros correspondientes.
c) Las pruebas estadísticas t para los coeficientes F para la significación de la ecuación de
regresión estimada no tienen validez.
d) Las predicciones obtenidas a partir de la ecuación estimada son ineficientes, no poseen
varianzas mínimas y en ocasiones resultan bastantes altas.
Se plantea que la autocorrelación se asocia fundamentalmente con series temporales.
¿Por qué ocurre la correlación serial?, Pueden existir diferentes razones:
pág. 2
b) Como consecuencia de lo anterior las predicciones de Y no son eficientes.
c) Se invalidan las pruebas t y F debido a que no existe una única varianza σ 2 para todos los
errores sino en general, son diferentes.
a) Confusión de los efectos de las variables exploratorias, lo que provoca una inadecuada
expresión de la ecuación de regresión estimada.
b) Posibles errores en la especificación del modelo, motivado por la exclusión de variables
explicatorias que sus efectos suponen a los de otras ya incluidas en la ecuación.
2
c) Se incrementan las varianzas de los estimadores de los parámetros debido a que σ Ui ( X̀ X)−1 ,
matriz de varianzas y covarianzas, los elementos ( X̀ X )−1 alcanzan valores altos debido a que
el determinante de X̀ X es próximo a 0.
Ya hemos planteado los inconvenientes que producen el incumplimiento de las tres hipótesis más
importantes a continuación expondremos algunos métodos que permiten detectar la validez de las
mismas y también algunas vías de solución para eliminar la invalidez de las hipótesis.
Hemos partido de la hipótesis de que las varianzas de las perturbaciones U i son homocedásticas,
pero ocurre, que a veces, en los problemas económicos, que este supuesto no se cumple,
implicando esto los inconvenientes que ya fueron mencionados.
La prueba que vamos a desarrollar parte de que las varianzas de las perturbaciones crecen o
decrecen; es decir, se plantea que:
pág. 3
1. Se ordenan las observaciones de acuerdo al incremento de los valores de x que se cree que
causa heterocedasticidad.
2. Se omiten las observaciones centrales c y dividir las restantes entre (n-c) /2 (formándose
grupos)
3. Se ajustan las regresiones separadas a las (n-c) /2 primeras observaciones y las (n-c) /2
ultimas. Siendo (n-c) /2 p – número de parámetros a estimar.
4. Se calcula el estadístico de prueba que tiene forma R=S 2/S1 siendo S2 la suma de los
cuadrados de los residuos de la regresión de las ultimas observaciones y S 1 de las primeras.
Este estadístico se distribuye según F con (n-c-2p) /2 grados de libertad.
La potencia de esta prueba depende del valor de c. Si c es muy grande, la potencia es pequeña y
si por el contrario c es pequeña la potencia se equilibra. En general Goldfied y Quandt sugieren
que si n=30 entonces c debe de ser igual 8 o alrededor de 8 y cuando n=60, alrededor de 16.
∑ ( ei−ei−1 )2
d= i=2 n siendo e i= y i− ^yi .
2
∑e i
i=1
Los valores de d se encuentran en el intervalo de 0 a 4. Si toma valor cercano a 0 indica que hay
autocorrelación positiva y cercana a 4 negativa.
Los valores teóricos se buscaran en la selección de tablas estadísticas y habrá una tabla para
cada nivel de significación de 5%, 2.5% y 1% . Se considera el tamaño de la muestra n y k , como
el número de variables independientes que tiene el modelo y dentro de ellas estarán los valores
correspondientes a dL y dU .
pág. 4
Se conoce que -1≤r≤1 entonces:
Por lo tanto una regla practica para constatar si existe autocorrelación entre los residuos, es
calcular el estadístico d y comprobar si está cercano a 2 cuando es significativamente diferente
de 2 , se concluir que existe autocorrelación tal como plantea la siguiente tabla
No Multicolinealidad (supuesto 4)
Generalmente los paquetes econométricos más usuales no suelen tener las pruebas y medidas
que existen para detectar la multicolinealidad.
pág. 5
Si la xi está fuertemente correlacionada, entonces las SC R será muy baja y las V(bj) grande lo que
implica un R2 grande. Si hay multicolinealidad y se aumentan las observaciones muestrales,
habrá cambios sustanciales en la estimación de los coeficientes.
1. La matriz de correlación da una buena información, desde dos puntos de vistas, porque no
solo permite detectar si existe multicolinealidad entre las variables independientes, sino
también cuales deben ser las variables independientes que deben de estar en el modelo.
2. R2 alto y pruebas t no significativas. La prueba del modelo general de un R 2 alto, pero las
pruebas t de los coeficientes dan como resultado que ninguno o pocos de ellos
significativamente diferente de 0.
3. Altas correlaciones pares entre regresores (Regresiones auxiliares). Es decir que se hacen
las regresiones de cada xi con respecto a las demás, si el R 2i es superior a 0.8 (otros
autores plantean 0.9) entonces hay un problema serio de multicolinealidad que se verifica
a partir dela prueba F siguiente:
R 2i
( k−2) ;n−k+1 )
F i= 2 Si Fi es mayor que F(k−2
1−α implica que la Xi escogida no es colineal con
( 1−R )i
( n−k +1 )
las restantes y se retiene esa variable en el modelo
pág. 6