ECONOMETRÍA
ECONOMETRÍA
Donde
Estimador de mínimos cuadrados ordinarios
El estimador MCO elige los coeficientes de regresión de tal forma que la recta de regresión estimada
se encuentre lo más cercana posible a los datos observados, y la cercanía está medida por la suma de
los errores al cuadrado que se cometen con la predicción de Y dado X
n
y 1+ y 2+…+ yn
y=arg min ∑ ( yi−m )
2
= y;
n i=1
Derivada en función de m:
n n n n
bo y b1 estimadores.
^β n
^β = arg min ∑
0 2
( yi−(bo+ b1 Xi ))
1 i=1
n
∂(bo , b 1)
- =−2 ∑ xi ( yi−( β^ 0 + ^β 1 Xi) )=0
∂b1 i =1
n n n
∂ ( bo , b 1 )
=∑ yi−∑ ^β 0−¿ ∑ β^ 1 Xi=0 ¿
∂bo i=1 i=1 i=1
n n n
∑ yi−∑ ^β 0− ^β 1 ∑ Xi=0
i=1 i=1 i =1
Dividimos entre n:
n n
1/n ∑ yi− β^ 0 − ^β1 /n ∑ Xi=0 (esto no está del todo bien)
i=1 i=1
n
(∑ yi entre n queda la media, y . Las constantes las puedo sacar fuera del
i=1
sumatorio ( ^β 0 , β^ 1 , x )
y− ^β0 − ^β 1 x = 0 ; ^β = y − ^β x
0 1
n
∂(bo , b 1)
Ahora sustituyo en la ecuación de arriba: - =−2 ∑ xi ( yi−( β^ 0 + ^β 1 Xi) )=0
∂b1 i =1
(sustituyo ^β 0)
n
1 ∑ xi¿ ¿ ¿
i=1
( )
n n n n
( )
n n n n
∑ xi yi− y ∑ xi+ ^β 1 ¿ ¿
i=1 i=1
∑ xi yi+ y ∑ xi= ^β 1 ¿ ¿
i=1 i=1
Y dividimos:
n n
∑ xi yi+ y ∑ xi
^β 1= i=1 i=1
n n
x ∑ xi−∑ xi 2
i=1 i=1
xi
Aplicamos la siguiente expresión. Si x=∑ entonces ∑ xi = n x
n
n
∑ xi yi+n x y
^β 1= i=1
n
^β = s XY
1
s 2X
Revisar esto porque de aquí se supone que hay que sacar B1, Bo ya está
demostrado creo.
Así sacamos estimador β 1 y β 0
Mirar toda la demostración y mirar también lo de los residuos, las sumas igual a
0. FOTOS MÓVIL.