Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 5

EJERCICIO

Calcular con r= 7

x tal que p(𝑋 ≥ 𝑥 ) = 0.025

𝑥 = 2,3646

EJERCICIO

Calcular con r= 18

p(𝑋 ≥ 1.9)= p(x≥ 1,7341) =0,05

= p(x≥ 2,1009) =0,025

0,025 ≤ p(𝑋 ≥ 1.9) ≤ 0,05

2,5% 5%
UNIDAD V

ESTIMACIÓN

Los números que aparecen en las distribuciones de las variables aleatorias:

p en la distribución binomial p éxito q fracaso 1-p p= 5 q= 1-p = 1-5= 4

𝜇 y 𝜎 en la distribución normal

N(0,1)
𝜇 ,𝜎
Se llaman parámetros o características de la población.

La estimación estadística es el proceso mediante el cual se aproxima al valor del


parámetro de la población, a partir de la información de una muestra.

 La estimación de un parámetro, es decir, que se realiza de un solo valor, se llama


estimación puntual.
 La estimación de un intervalo, es decir, de un rango de valores dentro del cual se
espera el valor del parámetro se denomina estimación por intervalo.
0 ≤x ≤1

Estimación puntual

La estimación puntual de un parámetro desconocido 𝜃 de la población consiste en elegir


un estimador 𝜃̂ de 𝜃 que se tome como una aproximación de 𝜃

Por ejemplo: el estadístico (media ̅𝑋, varianza 𝑠 2 , proporción 𝑝̂ ) que genere un valor
simple, se utiliza para hacer una estimación del valor del parámetro desconocido
( 𝜇, 𝜎 2 , 𝑝)

Media Muestral estimador de la media poblacional

∑𝑛𝑗=1 𝑋𝑗
𝑋̅ =
𝑛

Varianza muestral estimador puntual de la varianza poblacional


𝑘 ̅
∑𝑗=1(𝑋𝑗 − 𝑋) 2
𝑠2 =
𝑛−1

Proporción muestral estimador puntual de una proporción poblacional


𝑋
𝑝̂ =
𝑛
Ejemplo:

Las puntuaciones en una muestra aleatoria de 10 personas a un test psicométrico fueron


respectivamente de 25, 24, 22, 20, 25, 18, 17, 24, 16, 21. Determinar estimaciones
insesgadas y eficientes de la media, varianza y de la proporción de personas que tienen
una puntuación mayor de 22 puntos.

n=10

Estimación puntual de la media


∑𝑛𝑗=1 𝑋𝑗
𝑋̅ =
𝑛

25+ 24+ 22+ 20+ 25+ 18+ 17+ 24+ 16+ 21 212
𝑋̅ = = = 21,2
10 10

Estimación puntual de la varianza


∑𝑘𝑗=1(𝑋𝑗 − 𝑋̅)2
2
𝑠 =
𝑛−1

(25−21,2)2 + (24−21,2)2 + (22−21,2) 2+ (20−21,2)2 + (25−21,2)2 + (18−21,2)2 + …+ (21−21,2)2


𝑆2 = = 11,29
10−1

Estimación puntual de la proporción


𝑋
𝑝̂ = 𝑛

4
𝑝̂ = 10 = 0,4 = 40 %

EJERCICIO

Los siguientes datos son una muestra de las temperaturas en 0C registradas por un
sistema de calefacción. Determinar las estimaciones puntuales de la media, varianza y de
la proporción de valores que sean menores a 211.2 0C

210,93 210,95 211,02 211,04 211,05 211,05 211,06 211,07 211,08 211,10
211,11 211,11 211,12 211,12 211,13 211,13 211,14 211,16 211,16 211,16
211,17 211,17 211,18 211,19 211,19 211,20 211,20 211,20 211,20 211,21
211,21 211,25 211,25 211,25 211,25 211,27 211,27 211,27 211,27 211,30
211,31 211,32 211,32 211,35 211,39 211,40 211,41 211,47 211,50 211,56

∑𝑛𝑗=1 𝑋𝑗 ∑𝑘𝑗=1(𝑋𝑗 − 𝑋̅)2 𝑋


𝑝̂ = 𝑛
𝑋̅ = 2
𝑠 =
𝑛 𝑛−1
𝑋̅ = 211,204

𝑠 2 = 0,018

𝑝̂ = 0,5 = 50%

Pueden usarse varios posibles estimadores diferentes para un parámetro por ej.: si
queremos estimar la media de una variable aleatoria se puede considerar, la media
muestral o la mediana muestral o la observación más pequeña en la muestra como un
estimador puntual. Sin embargo, para estimar 𝜃 debe escogerse un estimador 𝜃̂ cuya
distribución se concentre cerca del verdadero valor de 𝜃

Propiedades de un estimador

Las propiedades permiten comparar estimadores para ver cuál de los estimadores es
mejor que el otro para así utilizarlo. Cuantas más propiedades tenga un estimador
significará que es el mejor.

a) Insesgabilidad. Un estimador es insesgado, cuando la esperanza matemática de su


distribución en el muestreo coincide con el valor del parámetro.

Si 𝐸(𝜃̂ ) = 𝜃

𝜇 = 𝑥̅

b) Eficiencia. Un estimador eficiente de θ es el que tiene varianza mínima o estimador


de varianza mínima de θ.
c) Consistencia. El estimador 𝜃̂𝑛 se acerca al parámetro θ, a medida que crece el tamaño
de muestra aleatoria. Si el tamaño muestral n, {𝜃̂𝑛 }tiende a infinito el estimador es
insesgado, de varianza uno.

lim 𝑝(|𝜃̂𝑛 − 𝜃| < 𝜀) = 1


𝑛→∞

d) Suficiencia. Un estimador es suficiente cuando incluye toda la información relevante


de la muestra, de forma que ningún otro estimador pueda considerar información
adicional.

e) Invariabilidad. Un estimador es invariable cuando si transformamos el parámetro a


estimar mediante una función 𝑓(𝜃), dicha función puede ser estimada por la función
del estimador 𝑓(𝜃̂ )

f) Error cuadrático medio de un estimador Sea ̂𝜃 = 𝐺(𝑋1 , 𝑋2 , … , 𝑋𝑛 ) un estimador de θ.


El error cuadrático medio del estimador 𝜃̂ se define por 𝐸(𝜃̂ − 𝜃)2 .

Notación El error cuadrático medio del estimador 𝜃̂ se denota por 𝑀𝑆𝐸(𝜃̂ ). Es decir,
𝑀𝑆𝐸(𝜃̂) = 𝐸(𝜃̂ − 𝜃)2

Observación El error cuadrático medio de 𝜃̂ se escribe así

𝑀𝑆𝐸(𝜃̂ ) = 𝑉𝑎𝑟(𝜃̂) + [𝜃 − 𝐸(𝜃̂)]2

De modo que, si 𝜃̂ es un estimador insesgado de θ, entonces 𝑀𝑆𝐸(𝜃̂ ) = 𝑉𝑎𝑟(𝜃̂)

g) Eficiencia relativa El error cuadrático medio es un criterio importante para comparar


dos estimadores. Sean 𝜃̂1 y 𝜃̂2 dos estimadores del parámetro θ y sean 𝑀𝑆𝐸(𝜃̂1 ) y
𝑀𝑆𝐸(𝜃̂2 ) los errores cuadráticos medio de 𝜃̂1 y 𝜃̂2 respectivamente. La eficiencia
relativa de 𝜃̂2 con respecto a 𝜃̂1 se define como el cociente

𝑀𝑆𝐸(𝜃̂1 )
𝑀𝑆𝐸(𝜃̂2 )

si esta eficiencia relativa es menor que 1 concluimos que 𝜃̂1 es un estimador más eficiente
que 𝜃̂2 , en el sentido que tiene menor error cuadrático medio.

También podría gustarte