Clase No 6 Econometria

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

Contabilidad y Finanzas

Asignatura: Econometría Año 3ro 5to Semestre


Tema II: Verificación de los supuestos del modelo
Clase No 6 Orientación Tema II
Contenido a Orientar
Supuestos del modelo
Objetivos:
 Conocer los inconvenientes que se producen con el incumplimiento de los supuestos del móldelo
 Desarrollar métodos para detectar el incumplimiento y no de dichos supuestos
 Analizar y desarrollar vías de solución para que se cumplan
 Analizar gráficamente los residuos de la regresión con el fin de tener idea sobre el
incumplimiento de algún supuesto del modelo
Método:
 Elaboración conjunta
 Explicativo
Medios:
 Tiza y pizarra
 Libro de Texto
Control de la actividad
 Preguntas de comprobación que sirven para la introducción de los nuevos contenidos y
chequear estudio independiente.
 Entrega de las notas del control parcial y explicación de problemas fundamentales

Introducción
Ya conocemos que para lograr estimaciones de los parámetros Bj del modelo a utilizar se aplicó
el método de los mínimos cuadrados, basados en minimizar la suma de cuadrados residual
n

∑ e2i donde e i= y i− ^
yi
i=1

Desarrollo de la clase
Supuestos del modelo de Regresión:
El análisis de regresión requiere del cumplimiento de un conjunto de supuestos, para que el
resultado estimado sea lo más cercano a la realidad posible.
Estos supuestos se pueden establecer indistintamente sobre U i o sobre Yi .
pág. 1
1. El error aleatorio debe de tener media igual a cero
E(Ui)=0 para i=1,2,3…n
2. Las varianzas de las perturbaciones deben de ser constantes e igual a
σ2(Homocedastisidad). La varianza ei es constante.
3. Las perturbaciones deben de ser independientes entre sí Cov(U iUj)=E(UiUj)=0 para
i=1,2,3…n y para i≠j. No debe de existir autocorrelación entre las perturbaciones.
4. No multicolinealidad r(x)=p ≤n entre las variables x i no hay intercorrelación (para el caso
de más de una variable independiente).
5. Las perturbaciones deben distribuirse normalmente con media =0 y varianza
σ2 Ui~ N (0, σ).

Si se cumplen las 4 hipótesis primeras, entonces las estimaciones mínimas cuadráticas de los
parámetros resultan de varianza mínima en la clase de los estimadores insesgado. Todas estas
hipótesis se hacen necesaria para realizar las pruebas de hipótesis sobre la ecuación estimada y así
como las estimaciones por intervalos.

Inconvenientes que se presentan cuando se incumplen las hipótesis sobre todo la ,2,3,4.

Cuando se incumple la hipótesis 2 y existe autocorrelación sucede que:

a) Los estimadores mínimos cuadráticos de los parámetros son insesgado, pero no resultan
óptimos, pues sus varianzas pueden alcanzar valores altos.
b) Las varianzas muestrales de los estimadores mínimos cuadráticos manifiestan una seria
sobrestimación de los parámetros correspondientes.
c) Las pruebas estadísticas t para los coeficientes F para la significación de la ecuación de
regresión estimada no tienen validez.
d) Las predicciones obtenidas a partir de la ecuación estimada son ineficientes, no poseen
varianzas mínimas y en ocasiones resultan bastantes altas.
Se plantea que la autocorrelación se asocia fundamentalmente con series temporales.
¿Por qué ocurre la correlación serial?, Pueden existir diferentes razones:

Cuando se incumple la hipótesis 3 y existe heterocedasticidad sucede que:

a) Se aumentan las varianzas de los estimadores mínimos cuadráticos de los coeficientes de la


ecuación de regresión.

pág. 2
b) Como consecuencia de lo anterior las predicciones de Y no son eficientes.
c) Se invalidan las pruebas t y F debido a que no existe una única varianza σ 2 para todos los
errores sino en general, son diferentes.

Si se incumple el supuesto 4 y existe multicolinealidad, esto constituye un serio problema en el


análisis de la regresión múltiple. La multicolinealidad consiste en una alta correlación entre las
variables exploratorias, es decir, alguna variable es combinación lineal de las demás por esto: r (x)<p y
entonces ( X̀ X ¿no tiene inversa y no podría aplicarse el método de los mínimos cuadrados. Los
efectos que tiene el incumplimiento de esta hipótesis son los siguientes:

a) Confusión de los efectos de las variables exploratorias, lo que provoca una inadecuada
expresión de la ecuación de regresión estimada.
b) Posibles errores en la especificación del modelo, motivado por la exclusión de variables
explicatorias que sus efectos suponen a los de otras ya incluidas en la ecuación.
2
c) Se incrementan las varianzas de los estimadores de los parámetros debido a que σ Ui ( X̀ X)−1 ,

matriz de varianzas y covarianzas, los elementos ( X̀ X )−1 alcanzan valores altos debido a que
el determinante de X̀ X es próximo a 0.

Ya hemos planteado los inconvenientes que producen el incumplimiento de las tres hipótesis más
importantes a continuación expondremos algunos métodos que permiten detectar la validez de las
mismas y también algunas vías de solución para eliminar la invalidez de las hipótesis.

Prueba de Homocedastisidad (supuesto No2).

Hemos partido de la hipótesis de que las varianzas de las perturbaciones U i son homocedásticas,
pero ocurre, que a veces, en los problemas económicos, que este supuesto no se cumple,
implicando esto los inconvenientes que ya fueron mencionados.

La prueba que vamos a desarrollar parte de que las varianzas de las perturbaciones crecen o
decrecen; es decir, se plantea que:

H1: σ12>σ22>……σn2 ó H1: σ12<σ22<…σn2 o ambas siendo H0: σ12=σ22=…σn2

Prueba de Goldfied y Quandt

pág. 3
1. Se ordenan las observaciones de acuerdo al incremento de los valores de x que se cree que
causa heterocedasticidad.
2. Se omiten las observaciones centrales c y dividir las restantes entre (n-c) /2 (formándose
grupos)
3. Se ajustan las regresiones separadas a las (n-c) /2 primeras observaciones y las (n-c) /2
ultimas. Siendo (n-c) /2 p – número de parámetros a estimar.
4. Se calcula el estadístico de prueba que tiene forma R=S 2/S1 siendo S2 la suma de los
cuadrados de los residuos de la regresión de las ultimas observaciones y S 1 de las primeras.
Este estadístico se distribuye según F con (n-c-2p) /2 grados de libertad.

Si R>F1-α se rechaza H0 y se acepta H1: σ12>σ22>……σn2

Si R< Fα se rechaza H0 y se acepta H1: σ12<σ22<…σn2

La potencia de esta prueba depende del valor de c. Si c es muy grande, la potencia es pequeña y
si por el contrario c es pequeña la potencia se equilibra. En general Goldfied y Quandt sugieren
que si n=30 entonces c debe de ser igual 8 o alrededor de 8 y cuando n=60, alrededor de 16.

Prueba de Autocorrelación (supuesto 3)

Para determinar si existe autocorrelación de primer orden se utiliza el estadístico d de Durbin –


Watson. La autocorrelación de primer orden consiste en verificar la existencia de correlación
significativa entre los errores.

El estadístico de prueba es el siguiente:

∑ ( ei−ei−1 )2
d= i=2 n siendo e i= y i− ^yi .
2
∑e i
i=1

Los valores de d se encuentran en el intervalo de 0 a 4. Si toma valor cercano a 0 indica que hay
autocorrelación positiva y cercana a 4 negativa.

Los valores teóricos se buscaran en la selección de tablas estadísticas y habrá una tabla para
cada nivel de significación de 5%, 2.5% y 1% . Se considera el tamaño de la muestra n y k , como
el número de variables independientes que tiene el modelo y dentro de ellas estarán los valores
correspondientes a dL y dU .
pág. 4
Se conoce que -1≤r≤1 entonces:

Si r =-1 →d=4 hay correlación serial negativa perfecta

Si r=1 →d=0 hay correlación serial positiva perfecta

Si r=0 →d=2 no hay correlación serial de primer orden

Por lo tanto una regla practica para constatar si existe autocorrelación entre los residuos, es
calcular el estadístico d y comprobar si está cercano a 2 cuando es significativamente diferente
de 2 , se concluir que existe autocorrelación tal como plantea la siguiente tabla

Hipótesi si Decisión Implica


s
Para: Si d<dL Se rechaza H0 Ut está correlacionada +
H0: ρ=0
Si d>dU No se rechaza H0 Ut no está
H1:ρ>0
correlacionada
Si dL<d<dL La prueba es
indeterminada
Para: Si d>4-dL Se rechaza H0 Ut está correlacionada -
H0: ρ=0
Si d<4-dL No se rechaza H0 Ut no está
H1:ρ<0
correlacionada
Si 4-du <d<4-dL La prueba es
indeterminada
Para: Si d<dL o si d<4-dL Se rechaza H0 Ut está correlacionada
H0: ρ=0
Si d>dU o si d<4-dL No se rechaza H0 Ut no está
H1:ρ≠0
correlacionada
Si dL<d<dL o Si 4-du <d<4- La prueba es
dL indeterminada

No Multicolinealidad (supuesto 4)

Generalmente los paquetes econométricos más usuales no suelen tener las pruebas y medidas
que existen para detectar la multicolinealidad.

pág. 5
Si la xi está fuertemente correlacionada, entonces las SC R será muy baja y las V(bj) grande lo que
implica un R2 grande. Si hay multicolinealidad y se aumentan las observaciones muestrales,
habrá cambios sustanciales en la estimación de los coeficientes.

Algunas reglas para detectarla

1. La matriz de correlación da una buena información, desde dos puntos de vistas, porque no
solo permite detectar si existe multicolinealidad entre las variables independientes, sino
también cuales deben ser las variables independientes que deben de estar en el modelo.
2. R2 alto y pruebas t no significativas. La prueba del modelo general de un R 2 alto, pero las
pruebas t de los coeficientes dan como resultado que ninguno o pocos de ellos
significativamente diferente de 0.
3. Altas correlaciones pares entre regresores (Regresiones auxiliares). Es decir que se hacen
las regresiones de cada xi con respecto a las demás, si el R 2i es superior a 0.8 (otros
autores plantean 0.9) entonces hay un problema serio de multicolinealidad que se verifica
a partir dela prueba F siguiente:
R 2i
( k−2) ;n−k+1 )
F i= 2 Si Fi es mayor que F(k−2
1−α implica que la Xi escogida no es colineal con
( 1−R )i

( n−k +1 )
las restantes y se retiene esa variable en el modelo

III Momento estudio Independiente


Estudio Individual
Leer y estudiar el ejemplo de la pag. 225 del LT

pág. 6

También podría gustarte