( ) = 0 entonces ˆ i i. xy x Y Y xy Y x ˆ. β = = β =.(1) Propiedades Estadísticas de los estimadores MICO. Linealidad

Propiedades Estadísticas de los estimadores MICO Linealidad βˆ2 = Dado que la ∑ ∑ x y = ∑ x (Y − Y ) = ∑ x Y − Y ∑ x ∑x ∑x ∑x i i 2 i i xi = 0 e

13 downloads 48 Views 56KB Size

Recommend Stories


Problema 1 (i) Probar que el sistema. y 2 + z 2 x = 0 yz + xz xy 1 = 0,
Capítulo 1 Función implícita Problema 1 (i) Probar que el sistema ( y 2 + z 2 − x2 + 2 = 0 yz + xz − xy − 1 = 0, dene dos funciones implícitas y

OPCIÓN A. x y 2 0 X = 1 4. x 3 1 x 2. f (x) =
UNIVERSIDADES PÚBLICAS DE LA COMUNIDAD DE MADRID PRUEBA DE ACCESO A LAS ENSEÑANZAS UNIVERSITARIAS OFICIALES DE GRADO Modelo Curso 2015-2016 MATERIA:

46,XY
7º Congreso Virtual Hispanoamericano de Anatomía Patológica Página 1 de 11 HERMAFRODITISMO VERDADERO, PRESENTACION DE 2 CASOS, UNO DE ELLOS CON MOSA

y = b 0 + b 1 x b k x k
Las técnicas de Regresión lineal multiple parten de k+1 variables cuantitativas: La variable respuesta (y) Las variables explicativas (x1 ,…, xk) Y t

( x) ( 1) OPCIÓN A Ejercicio 1 : Calificación máxima: 3 puntos. = + 1 ln. x x + x. 4 x = + = + = 0 + = 0. x x. x x. lim lim = + 1 lim. ln
IES Mediterráneo de Málaga Solución Junio 2015 Juan Carlos Alonso Gianonatti OPCIÓN A Ejercicio 1 : Calificación máxima: 3 puntos. Dada la función

Funciones. Domf = {x R f(x) B} Ranf = {f(x) x Domf} x (, 4) (4, ) 4y + 1 y. 4y + 1. > 4 = y y. > 0 = y
Funciones Una funci´on real de variable real es una aplicaci´on f : A → B donde A,B son conjuntos de n´ umeros reales. Domf = {x ∈ R | f (x) ∈ B} on f

Story Transcript

Propiedades Estadísticas de los estimadores MICO Linealidad

βˆ2 =

Dado que la



∑ x y = ∑ x (Y − Y ) = ∑ x Y − Y ∑ x ∑x ∑x ∑x i i 2 i

i

xi = 0 entonces βˆ2 =

a) No estocástico b) ki = 0

∑ 1 c) ∑ k = ∑x d) ∑ k x = ∑ k X i i

i i

2 i

Si definimos el ponderador ki =

2 i

i

2 i

∑ x Y .(1) ∑x i i 2 i

xi , con las propiedades siguientes: xi2



Tarea: verificar estas propiedades. (Gujarati Apéndice 3A.2)

2 i

i

i

i

=1

Sustituyendo el ponderador en (1), tenemos que:

βˆ2 =

∑ x Y = ∑k Y ∑x i i 2 i

i i

(2)

Se muestra que βˆ2 es un estimador que puede expresarse de forma lineal, donde ki son las ponderaciones de esta combinación lineal. Insesgamiento Sabemos que Yi = β1 + β 2 X i + ui , entonces sustituyendo en (2) tenemos:

∑k Y = ∑k ( β + β X + u ) = β ∑k + β ∑ k X + ∑k u = β ∑ k + β ∑ k X +∑k u = β + ∑k u (3)

βˆ2 =

βˆ2

i i

i

1

2

i

i

1

i

2

i

i

i i

1

i

2

i

i

i i

2

i i

Aplicando la esperanza:

( )

(

E βˆ2 = E β2 +

∑ k u ) = β + ∑ k E (u ) i i

2

i

i

= β2 Por lo tanto, βˆ2 es un estimador insesgado. Esto quiere decir que βˆ2 se puede alejar del verdadero β2 en una muestra, pero si repetimos muchas veces el experimento, estaremos en promedio sobre el verdadero valor del parámetro. Recordar: el estimador insesgado no es necesariamente el mejor estimador. (¿por qué?) De la misma manera se puede demostrarse que βˆ1 es también un estimador insesgado. Tarea: Demostrar que βˆ1 es insesgado Eficiencia Calculo de varianzas y covarianza Necesitamos calcular primero las varianzas de los estimadores MICO.

( )

( )

var βˆ2 = E  βˆ2 − E βˆ2   

( )

Sabemos que E βˆ2 = β 2 , entonces sustituyendo:

2

( )

var βˆ2 = E  βˆ2 − β 2 

2

(4)

De (3), sabemos que:

∑ k u , sustituyendo en (4) tenemos: = ∑k u

βˆ2 = β 2 +

i i

βˆ2 − β 2

i i

( )



2 kiui  = E ( k1u1 + k2u2 + ... + knun )    = E ( k1u1 + k2u2 + ... + kn un )( k1u1 + k2u2 + ... + knun ) 

var βˆ2 = E 

2

(

)

= E  k12u12 + k1k2u1u2 + k1k3u1u3 ... + k22u22 + k2u2k 1u 1 + ...    Vamos a tener: n



∑k u

2 2 i i ,

2 2 i i

n términos k u

1

n ( n −1) 2



n( n−1) 2

∑ 2k u k u

términos 2kiuikjuj

i

i

j

j

1

( )

var βˆ2

 = E 

n



ki2ui2

+2

1

n ( n −1) 2

∑ 1

 ki k i u j u j  

2 2  E (ui ) = σ Recordando  y ki es no aleatorio o no estocástico. E ( u u ) = 0  i j n ( n −1) 2

( ) ∑ k E (u ) + 2 ∑ k k E (u u )

var βˆ2 =

n

2 i

2 i

i

1



i

1

n

2

j

∑k

2 i

1



2

1 σ2 = xi2 xi2





j

( )

var βˆ2

Tarea: demostrar que var( βˆ1 ) = σ

2

σ2 = xi2



∑X n∑ x

2 i 2 i

 X2 1 =σ  +  2  xi n  2



Ahora vamos a calcular la covarianza entre βˆ1 y βˆ2

(

)

( (

)(

)

cov βˆ1 , βˆ2 = E  βˆ1 − E ( βˆ1 ) βˆ2 − E ( βˆ2 )    (5) ˆ ˆ = E  β1 − β1 β2 − β2 

)(

)

 βˆ1 = Y − βˆ2 X con lo que βˆ1 − β1 : Y = β1 + β 2 X + µ

Sabemos que 

βˆ1 − β1 = Y − βˆ2 X − β1 1 424 3 βˆ1

= β1 + β 2 X + µ − βˆ2 X − β1 14 4244 3

(

Y

)

= − X βˆ2 − β 2 + µ Sustituyendo en (5) tenemos:

(

)

( ( βˆ

cov βˆ1 , βˆ2 = E  − X  = E − X 

) )( )( )

)

− β 2 + µ βˆ2 − β2   βˆ2 − β2 βˆ2 − β 2  + E  µ βˆ2 − β2     2 µ = − X ⋅ E  βˆ2 − β2  + E  ∑N i ki ui    σ2 1  = −X + E  ( u1 + u2 + ...un )( k1u1 + k2u2 + ... + knun )  2 xi N  2

(

( )( ∑

(

)

)



σ2 2 = −X + σ xi2



(

cov βˆ1 , βˆ2

)

∑k

Los productos cruzados son iguales a cero, por el supuesto de no autocorrelación. E(µiµj)=0

i

σ2 = −X = − X var βˆ2 2 xi

( )



Características de la varianza •

2 La varianza de βˆ2 es directamente proporcional a σ (varianza de µ) e

inversamente proporcional a • •

∑x

2 i

(varianza de X)

Dado σ , cuanto mayor sea la variabilidad de la variable X, màs centrado estará el estimador del verdadero valor. 2 Dada la varianza de Xi, a mayor σ (mayor variabilidad de los datos a explicar o mayor variabilidad del error aleatorio), mayor será la varianza del estimador. 2

Características de la covarianza • •

Tanto βˆ1 como βˆ2 , dependen entre si.

El signo depende de X , si X > 0 la covarianza es negativa y viceversa.

Tanto las varianzas como la covarianza de los estimadores, dependen de datos conocidos

(∑ X , ∑ X i

2 i

)

, n, X ... y de un parámetro desconocido σ 2 .

Como no conocemos σ , porque es un parámetro poblacional, no conoceremos los 2 valores de las verdaderas varianzas. Estimaremos σ y eso nos permitirá estimar 2

las varianzas de βˆ1 y βˆ2 . Estimador de s 2

Yi = β1 + β2 X i + µi

∑Y

i

n

= β1 + β 2

(6), dividiendo entre n y aplicando sumatoria para todo i

∑X + ∑µ i

i

n

n

Y = β1 + β2 X + µ (7), restando (6)-(7) tenemos, Yi − Y = β1 − β1 + β2 ( X i − X ) + ui − u y i = β2 xi + ui − u (8) (En desvíos) Recordemos que:

ei = yi − yˆ i = yi − βˆ2 xi

(9), sustituyendo (8) en (9)

ei = β2 xi + ui − u − yˆ i = β 2 xi + ui − u − βˆ2 xi

(

)

= βˆ2 − β 2 ( − xi ) + ui − u

(10)

Elevando (10) al cuadrado:

(

)

ei2 =  βˆ2 − β 2 ( − xi ) + ui − u 

(

= ( − xi ) βˆ2 − β 2 2

Sumando (11) para todo i

)

2

2

(

)

+ ( ui − u ) − 2 xi βˆ2 − β 2 ( ui − u ) 2

(11)



ei2 =

∑ (

xi2 βˆ2 − β2

) + ∑ (u − u ) 2

−2

2

i

∑ x ( βˆ i

2

)

− β 2 ( ui − u ) (12)

Aplicando Esperanza a (12) E 



ei2  = E   =

∑ (

)

2 xi2 βˆ2 − β 2  + E   



(

)

∑ (u

i

2 − u )  − 2 E  

∑ x ( βˆ

(



i

2

)∑

2 xi2 E βˆ2 − β 2 + E  ( ui − u )  − 2 E  βˆ2 − β 2 xi ( ui − u )     144 42444 3 1442443 14444 4244444 3 A

2

C

B

E

(∑ e ) = A + B + C 2 i

(13)

Vamos a desarrollar cada uno de los términos por separado:

A=



(

σ2 x ⋅ =σ2 2 xi

) ∑ ∑

x E βˆ2 − β2 = 14243 2 i

2 var( βˆ 2 ) = σ 2

2 i

∑ xi

∑ (u − 2u u + u ) ∑ u − 2∑ u u + ∑ u  ∑ (ui − u )

B= E  = E 

2

 = E  

2 i

 = E   = E 

∑ ∑

2 i

2

i

2

i

 u − 2u u i + nu  = E  ui2 − 2u ⋅ nu + nu 2  {  nu  ui2 − 2nu 2 + nu 2  = E  ui2 − nu 2 



2 i



2



∑u

= E 

2 i

 − nE u 2  =    σ 8 67 E  ui2 



 u  2  i E ui2  − nE     123  n   2   σ



2

=

∑σ

2

)

− β 2 ( ui − u ) 

∑ −n

= σ 2 ( n − 1)

n2

∑σ = ∑σ − n 2

2

nσ 2 = nσ − n 2

      ˆ  C = −2 E  β2 − β 2 xi ( ui − u )  = −2 E  kiui  xiui − u xi   {   3   1424   0    ∑ ki ui  = −2 E  ki ui xi ui  = −2 E ( k1u1 + k2u2 + ... + knun )( x1u1 + x2u2 + ... + xnun ) 

(

)∑

(∑

( ∑ )(∑

(

)∑



)

= −2 k1x1 E  u12  + k2 x2 E u22  + ... + kn xn E un2  + ... + kn xn −1 E [u nu n −1 ] = −2

∑k xσ

2

i i

= − 2σ 2

k x = −2σ ∑ 123

)

2

i i

1

Sustituyendo en (13)

E

(∑ e ) = A + B + C = σ 2 i

2

+ ( n − 1)σ 2 − 2σ 2

= σ 2 (1 + n − 1 − 2) = σ 2 ( n − 2) E

(∑ e ) = σ 2 i

2

(n − 2) (14)

Si definimos que el estimador de σ es: 2

σˆ = 2

∑e

2 i

(15)

( n − 2)

El resultado de (14) nos asegura que estamos definiendo un estimador insesgado de σ 2 , porque:



 ei2  1 1 E σˆ  = E  E  ei2  = σ 2 (n − 2) = σ 2 = 24 3 n −2  n − 2  n − 2 14 2 2



σ ( n − 2)

Entonces (15) es un estimador insesgado de σ . 2

Varianzas estimadas

( )

Sabemos que: var βˆ2 = σ

σˆ

2 βˆ2

Para βˆ1 , var( βˆ1 ) = σ

σˆ

2 βˆ1

2

σ2 = xi2

2 βˆ2

σˆ =

y



∑ ei2

∑e

2 i

2

( n − 2)

, entonces

e ∑ = = = x x ∑ ∑ (n − 2) ∑ x σˆ

2

2 i

∑X n∑ x

2 i 2 i

= σˆ

2

2 i

( n− 2) 2 i

2 i

 X2 1 =σ  +  2 x n   i 2

∑X n∑ x

2 i 2 i



 X2 1 = σˆ  +  2  xi n  2



Teorema de Gauss-Markov Hipótesis: Si se cumplen los siguientes supuestos clásicos: 1. La variable explicativa X está dada (es no estocástica o no aleatoria). 2. Ε ( µi ) = 0 ∀i σ 2

3. Ε ( ui , u j ) = 

0

si i = j   , Homocedasticidad y no autocorrelación si i ≠ j 

4. No hay errores de especificación. TESIS: Los estimadores MICO son de mínima varianza entre los estimadores lineales e insesgados. → MICO, son los mejores estimadores lineales insesgados (MELI).

Demostración: Sabemos que βˆ2 es lineal ( βˆ2 = ∑ kiYi ) e insesgado  E ( βˆ 2 ) = β 2  . σ2 ˆ Además var( β2 ) = ∑ xi2

- Supongamos que existe otro estimador β2* lineal de β2 . Entonces para que sea lineal β2* deberá ser igual a β 2* = ∑ wY i i donde wi es algún ponderador. - Calculemos Ε ( β 2* ) y veamos qué condición debemos exigirle a wi para que β2* sea insesgado E ( β 2* ) = ∑ wi E ( Yi ) =

∑w E(β = β ∑w + β ∑ w X 1

i

2

i

i

1

+ β2 X i + µ i ) = ∑ wi ( β1 + β 2 X i ) =

i

∑w = 0  ∑ w X = ∑ w x 

Para que β2* sea insesgado se debe cumplir 

i

i

i

i i

=1

- Veamos las condiciones que tiene que cumplir wi para que la varianza sea mínima:

var( β 2* ) = var ( ∑ wiYi ) = ∑ wi2 var ( Yi ) = ∑ wi2 gσ 2 = σ 2∑ wi2 124 3 σ2

Sumando y restando

xi al término con sumatoria: ∑ xi2

 x x = σ ∑  wi − i 2 + i 2 ∑ xi ∑ xi  2

2

  x 2  = σ ∑  wi − i 2   ∑ xi 

 x   + i 2   ∑ xi 

2 2      x x x  x = σ ∑   wi − i 2  +  i 2  + 2  wi − i 2   i 2  ∑ xi   ∑ xi   ∑ xi   ∑ xi  2

2

  

2 2  wx   xi  xi  xi2  2 2 i i  = σ ∑  wi − + σ + 2 σ −    ∑  x2  ∑  x2 2  2  ∑ xi2  ∑ i x  ∑ i  ( ) ∑ i   2

 ∑ xi2   ∑ wi xi − xi2  ∑ 144 42444 3

2

 x  = σ ∑  wi − i 2  + σ 2 ∑ xi   2

1

(∑ x ) 2 i

x 2 + 2σ 2 2 ∑ i

1 ∑ xi2

El término entre paréntesis es cero, Ya que para que exista insesgamiento Se requiere que: x iwi =1

∑ 2

 x  σ2 Var ( β ) = σ ∑  wi − i 2  + ∑ xi  ∑ xi2  * 2

2

quiero minimizar esto, pero el segundo sumando

σ2 es un número, es una ∑ xi2

constante; entonces, minimizar Var ( β2* ) es equivalente a minimizar  x ∑  wi − ix 2 ∑ i 

2

  y este cuadrado se minimiza cuando la base es igual a cero, es decir, 

se minimiza cuando: wi −

xi x = 0 o cuando wi = i 2 2 ∑ xi ∑ xi

La condición que minimiza la varianza es que wi = igual a la de MICO, por lo que βˆ 2 = β 2*

xi , que es una condición ∑ xi2

Este teorema asegura que si existe otro estimador ( β2* ) con similares propiedades al que tiene MICO (linealidad e insesgamiento), para que la varianza de β2* sea mínima, este estimador debe ser el estimador MICO. Como consecuencia, MICO es el mejor estimador entre los estimadores lineales e insesgados.

Hasta este punto hemos demostrado que los estimadores MICO tienen propiedades importantes: • Linealidad. • Insesgamiento. • Mínima varianza dentro de la familia de estimadores lineales e insesgados (eficientes entre los estimadores lineales e insesgados).

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.