n x i n y i = 0 ,..., x n u)... exp 1 y 1 y y n u . Demuestre que i=1 Y n

472 Capítulo 9 Propiedades de los estimadores puntuales y métodos de estimación ii Demuestre que para que esta relación sea independiente de p, deb

2 downloads 246 Views 196KB Size

Recommend Stories


RES 0 L U C I 6 N N 1073
626urmrtidad de @f(LQ/WJ ~ ~oItyw 9V'aei

M E N U D E I N V I E R N O Nro 1
M E N U D E I N V I E R N O Nro 1 A L M U E R Z O: Asado a la Parrilla, Chorizo y Morcilla - Ensalada de Zanahoria con Huevo duro. Postre: Ensalada de

Y U N G A
C B D / / F A O / / L A O L A V E R D E / / A M G S / / Y U N G A Nuestra sección B Agua REALIZA LA PRIMERA O LA SEGUN

A Y U N T A M I E N T O A Y U N T A M I E N T O
A Y U N T A M I E N T O D E A Y U N T A M I E N T O SANTA CRUZ DEL RETAMAR D o El e d o) (T SANTA CRUZ DEL RETAMAR (T o l e d o) ORDENANZA F I S C

Story Transcript

472

Capítulo 9

Propiedades de los estimadores puntuales y métodos de estimación

ii Demuestre que para que esta relación sea independiente de p, debemos tener n

n

xi − i=1

n

yi = 0 o

n

xi =

i=1

i=1

yi . i=1

iii De acuerdo con el método de Lehmann y Scheffé, ¿cuál es el estadístico suficiente mínimo para p? ¿Cómo se compara este estadístico suficiente con el estadístico suficiente deducido en el Ejemplo 9.6 usando el criterio de factorización? b Considere la densidad de Weibull estudiada en el Ejemplo 9.7. i Demuestre que L (x1 , x2 , . . . , xn | u) = L ( y1 , y2 , . . . , yn | u)

ii Demuestre que

n i=1

x1 x2 . . . xn y1 y2 . . . yn

exp −

1 u

n

n

xi2 − i=1

yi2

.

i=1

Yi2 es un estadístico suficiente mínimo para u.

*9.67

Consulte el Ejercicio 9.66. Suponga que se toma una muestra de tamaño n de una población normal n n 2 con media m y varianza s2. Demuestre que i=1 Yi , y i=1 Yi conjuntamente forman estadísticos 2 suficientes mínimos para m y s .

*9.68

Suponga que un estadístico U tiene una función de densidad de probabilidad que es positiva en el intervalo a ≤ u ≤ b y suponga que la densidad depende de un parámetro u que puede variar en el intervalo a1 ≤ u ≤ a2. Suponga también que g(u) es continua para u en el intervalo [a, b]. Si E [(g(U) | u] = 0 para toda u en el intervalo [a1, a2] implica que g(u) sea idénticamente cero, entonces se dice que la familia de funciones de densidad {fU (u | u), a1 ≤ u ≤ a2} está completa. (Todos los estadísticos que empleamos en la Sección 9.5 tienen familias completas de funciones de densidad.) Suponga que U es un estadístico suficiente para u, y g1(U) y g2(U) son estimadores insesgados de u. Demuestre que, si la familia de funciones de densidad para U está completa, g1(U) debe ser igual a g2(U), y entonces hay una función única de U que es un estimador insesgado de u. Acoplada con el teorema de Rao–Blackwell, la propiedad de completabilidad de fU (u | u), junto con la suficiencia de U, asegura que hay un estimador insesgado único de varianza mínima (UMVUE) de u.

9.6 Método de momentos En esta sección estudiaremos uno de los métodos más antiguos para obtener estimadores puntuales: el método de momentos. Un método más refinado, el de verosimilitud máxima, es el tema de la Sección 9.7. El método de momentos es un procedimiento muy sencillo para hallar un estimador para uno o más parámetros poblacionales. Recuerde que el k-ésimo momento de una variable aleatoria, tomado alrededor del origen, es m k = E(Y k ).

El correspondiente k-ésimo momento muestral es el promedio mk =

1 n

n

Yik . i=1

El método de momentos está basado en la idea de que los momentos muestrales deben dar buenas estimaciones de los momentos poblacionales correspondientes.

9.6

Método de momentos 473

Es decir, m k debe ser un buen estimador de m k , para k = 1, 2, . . . Entonces, debido a que los momentos poblacionales m 1 , m 2 , . . . , m k son funciones de los parámetros poblacionales, podemos igualar los correspondientes momentos poblacionales y muestrales y despejar los estimadores deseados. En consecuencia, el método de momentos se puede expresar como sigue. Método de momentos Escoja como estimaciones los valores de los parámetros que son soluciones de las ecuaciones m k = m k ,, para k = 1, 2, . . . , t, donde t es el número de parámetros por estimar.

EJEMPLO 9.11

Solución

Una muestra aleatoria de n observaciones, Y1, Y2, . . . , Yn se selecciona de una población en la que Yi, para i = 1, 2, . . . , n, posee una función de densidad de probabilidad uniforme en el intervalo (0, u) donde u es desconocida. Use el método de momentos para estimar el parámetro u. El valor de m 1 para una variable aleatoria uniforme es u m1 = m = . 2 El correspondiente primer momento muestral es 1 n m1 = Yi = Y . n i=1 Igualando la población correspondiente y el momento muestral, obtenemos u m1 = = Y . 2 El estimador que se obtiene mediante el método de momentos para u es la solución de la ecuación anterior. Esto es, uˆ = 2Y . Q

Para las distribuciones que consideramos en este texto, los métodos de la Sección 9.3 se pueden utilizar para demostrar que los momentos muestrales son estimadores consistentes de los momentos poblacionales correspondientes. Debido a que los estimadores obtenidos con el método de momentos obviamente son funciones de los momentos muestrales, suelen ser estimadores consistentes de sus respectivos parámetros. EJEMPLO 9.12

Demuestre que el estimador uˆ = 2Y , encontrado en el Ejemplo 9.11, es un estimador consistente para u.

Solución

En el Ejemplo 9.1, demostramos que uˆ = 2Y es un estimador insesgado para u y que ˆ = u 2 / 3n . Como lím n S q V ( u) ˆ = 0, el Teorema 9.1 implica que uˆ = 2Y es un estimaV ( u) dor consistente para u. Q

474

Capítulo 9

Propiedades de los estimadores puntuales y métodos de estimación

Aun cuando el estimador uˆ obtenido en el Ejemplo 9.11 es consistente, no es necesariamente el mejor estimador para u. De hecho, el criterio de factorización da Y(n) = máx(Y1, Y2, . . . , Yn) como el mejor estadístico suficiente para u. Entonces, de acuerdo con el teorema de Rao–Blackwell, el estimador que se obtenga mediante el método de momentos tendrá varianza más grande que un estimador insesgado basado en Y(n). De hecho, se demostró que este es el caso en el Ejemplo 9.1. EJEMPLO 9.13

Una muestra aleatoria de n observaciones Y1, Y2, . . . , Yn, se selecciona de una población en la que Yi, para i = 1, 2, . . . , n, posee una función de densidad de probabilidad gamma con parámetros a y b (véase la Sección 4.6 para la función de densidad de probabilidad gamma). Encuentre los estimadores por el método de momentos para los parámetros desconocidos a y b.

Solución

Debido a que buscamos estimadores para dos parámetros a y b, debemos igualar dos pares de momentos poblacionales y muestrales. Los primeros dos momentos de la distribución gamma con parámetros a y b son (si es necesario, vea al final de este libro) m 1 = m = ab

m 2 = s2 + m 2 = ab2 + a2 b 2 .

y

Ahora iguale estas cantidades con sus correspondientes momentos muestrales y despeje ˆ . Así, aˆ y b m 1 = ab = m 1 = Y , m 2 = ab2 + a2 b 2 = m 2 =

1 n

n

Yi2 . i=1

ˆ Sustituyendo en la segunda ecuación y despeDe la primera ecuación, obtenemos bˆ = Y / a. ˆ , obtenemos jando a, aˆ =

Y

2

Yi2 / n − Y

2

nY

=

n i=1 (Yi

2

− Y )2

.

Sustituyendo aˆ en la primera ecuación, obtenemos Y bˆ = = aˆ

n i=1 (Yi

− Y )2

nY

.

Q

ˆ y bˆ del Ejemplo 9.13 son consistentes. Los estimadores del método de momentos a n Y converge en probabilidad en E(Yi) = ab y (1/ n) i=1 Yi2 converge en probabilidad en 2 2 2 2 E(Yi ) = ab + a b . Por lo tanto, aˆ =

Y 1 n

n i=1

2

Yi2 − Y

2

es un estimador consistente de

ab2

(ab) 2 = a, + a2 b 2 − (ab) 2

y Y ab bˆ = es un estimador consistente de = b. aˆ a

Ejercicios 475

n n Usando el criterio de factorización podemos demostrar que i=1 Yi y el producto i=1 Yi son estadísticos suficientes para la función de densidad gamma. Como los estimadores del método de momentos aˆ y bˆ no son funciones de estos estadísticos suficientes, podemos hallar más estimadores eficientes para los parámetros a y b. No obstante, es considerablemente más difícil aplicar otros métodos para hallar estimadores de estos parámetros. Para resumir, el método de momentos permite generar estimadores de parámetros desconocidos al igualar los correspondientes momentos muestrales y poblacionales. El método es fácil de emplear y proporciona estimadores consistentes, pero los estimadores obtenidos por este método en ocasiones no son funciones de estadísticos suficientes. En consecuencia, es frecuente que los estimadores del método de momentos no sean eficientes y en muchos casos sean sesgados. Las virtudes básicas de este método son su facilidad de aplicación y que a veces proporciona estimadores con propiedades razonables.

Ejercicios 9.69

Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad f ( y | u) =

(u + 1) y u ,

0 < y < 1 u > −1,

0,

en cualquier otro punto.

Encuentre un estimador para u por el método de momentos. Demuestre que el estimador es consistente. n ¿El estimador es una función del estadístico suficiente − i=1 ln(Yi ) que podemos obtener del criterio de factorización? ¿Qué implicaciones tiene esto? 9.70

Suponga que Y1, Y2, . . . , Yn constituyen una muestra aleatoria de una distribución de Poisson con media l. Encuentre el estimador del método de momentos para l.

9.71

Si Y1, Y2, . . . , Yn denotan una muestra aleatoria de la distribución normal con media conocida m = 0 y varianza desconocida s2, encuentre el estimador de s2 por el método de momentos.

9.72

Si Y1, Y2, . . . , Yn denotan una muestra aleatoria de una distribución normal con media m y varianza s2, encuentre los estimadores de m y s2 por medio del método de momentos.

9.73

Una urna contiene u bolas negras y N − u bolas blancas. Una muestra de n bolas se ha de seleccionar sin restitución. Sea Y el número de bolas negras de la muestra. Demuestre que (N/n)Y es el estimador del método de momentos para u.

9.74

Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad dada por f ( y | u) =

2 u2 0,

(u − y),

0 ≤ y ≤ u, en cualquier otro punto.

a Encuentre un estimador para u usando el método de momentos. b ¿Este estimador es un estadístico suficiente para u? 9.75

Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad dada por f ( y | u) =

[

2u) u−1 ( y )(1 − y) u−1 , u ]2

0,

Encuentre el estimador de u por el método de momentos.

0 ≤ y ≤ 1, en cualquier otro punto.

476

Capítulo 9

Propiedades de los estimadores puntuales y métodos de estimación

9.76

Sean X1, X2, . . . , Xn variables aleatorias de Bernoulli independientes tales que P (Xi =1) = p y P (Xi = 0) = 1 − p para cada i = 1, 2, 3,… Con la variable aleatoria Y denote el número de intentos necesario para obtener el primer éxito, es decir, el valor de i para el cual Xi = 1 ocurre primero. Entonces Y tiene una distribución geométrica con P (Y = y) = (1 − p)y−1p, para y = 1, 2, 3,… Encuentre el estimador del método de momentos para p basado en esta única observación de Y.

9.77

Sean Y1, Y2, . . . , Yn variables aleatorias uniformes independientes y distribuidas idénticamente en el intervalo (0, 3u). Deduzca el estimador del método de momentos para u.

9.78

Sean Y1, Y2, . . . , Yn variables aleatorias independientes y distribuidas idénticamente de una familia de distribución de potencias con parámetros a y u = 3. Entonces, como en el Ejercicio 9.43, si a > 0, f ( y | a) =

ay a−1 / 3a ,

0 ≤ y ≤ 3,

0,

en cualquier otro punto..

Demuestre que E (Y1) = 3a/ (a + 1) y deduzca el estimador del método de momentos para a. *9.79

Sean Y1, Y2, . . . , Yn variables aleatorias independientes y distribuidas idénticamente de una distribución de Pareto con parámetros a y b, donde b es conocida. Entonces, si a > 0, f ( y| a, b) =

aba y −(a+1) ,

y ≥ b,

0,

en cualquier otro punto.

Demuestre que E (Yi) = ab/ (a − 1) si a > 1 y E (Yi) no está definida si 0 < a < 1. Entonces, el estimador del método de momentos para a no está definido.

9.7 Método de máxima verosimilitud En la Sección 9.5 presentamos un método para obtener un estimador insesgado de varianza mínima (MVUE) por un parámetro objetivo: usando el criterio de factorización junto con el teorema de Rao–Blackwell. El método requiere que encontremos alguna función de un estadístico suficiente mínimo que es un estimador insesgado para el parámetro objetivo. Aun cuando tenemos un método para hallar un estadístico suficiente, la determinación de la función del estadístico suficiente mínimo que proporciona un estimador insesgado puede ser en gran medida una cuestión de azar. La Sección 9.6 contiene una exposición del método de momentos. El método de momentos es intuitivo y fácil de aplicar, pero por lo general no lleva a los mejores estimadores. En esta sección presentamos el método de máxima verosimilitud que con frecuencia proporciona estimadores insesgados de varianza mínima (MVUE). Usamos un ejemplo para ilustrar la lógica en la que está basado el método de máxima verosimilitud. Suponga que tenemos una caja que contiene tres pelotas. Sabemos que cada una de las pelotas puede ser roja o blanca, pero no sabemos el número total de cualquiera de los colores. No obstante, podemos muestrear aleatoriamente dos de las pelotas sin restitución. Si nuestra muestra aleatoria contiene dos pelotas rojas, ¿cuál sería una buena estimación del número total de pelotas rojas en la caja? Obviamente, el número de pelotas rojas en la caja debe ser dos o tres (si hubiera cero o una pelota roja en la caja, sería imposible obtener dos pelotas rojas cuando se hace muestreo sin restitución). Si hay dos pelotas rojas y una pelota blanca en la caja, la probabilidad de seleccionar aleatoriamente dos pelotas rojas es 2 2

1 0 3 2

1 = . 3

9.7

Método de máxima verosimilitud 477

Por otra parte, si hay tres pelotas rojas en la caja, la probabilidad de seleccionar aleatoriamente dos pelotas rojas es 3 2 = 1. 3 2 Parece razonable escoger el tres como la estimación del número de pelotas rojas en la caja porque esta estimación maximiza la probabilidad de obtener la muestra observada. Desde luego que es posible que la caja contenga sólo dos pelotas rojas, pero el resultado observado confiere más crédito a que haya tres pelotas rojas en la caja. Este ejemplo ilustra un método para hallar un estimador que puede aplicarse a cualquier situación. La técnica, llamada método de máxima verosimilitud, selecciona como estimaciones los valores de los parámetros que maximizan la verosimilitud (la función de probabilidad conjunta o función de densidad conjunta) de la muestra observada (vea la Definición 9.4). Recuerde que nos referimos a este método de estimación en el Capítulo 3 donde, en los Ejemplos 3.10 y 3.13 y en el Ejercicio 3.101, encontramos las estimaciones de máxima verosimilitud del parámetro p con base en observaciones individuales en variables aleatorias binomiales negativas, binomiales y geométricas, respectivamente. Método de máxima verosimilitud Suponga que la función de verosimilitud depende de k parámetros u1, u2, . . . , uk. Escoja como estimaciones los valores de los parámetros que maximicen la verosimilitud L ( y1 , y2 , . . . , yn | u1 , u 2 , . . . , uk ). Para destacar el hecho de que la función de verosimilitud es una función de los parámetros u1, u2, . . . , uk, a veces expresamos la función de verosimilitud como L(u1, u2, . . . , uk). Es común referirnos a estimadores de máxima verosimilitud como a los MLE, por sus siglas en inglés. Ilustramos el método con un ejemplo. EJEMPLO 9.14

Un experimento binomial consistente en n ensayos resultó en las observaciones y1, y2, . . . , yn, donde yi = 1 si el i-ésimo intento fue un éxito y yi = 0 en cualquier otro punto. Encuentre el MLE de p, la probabilidad de un éxito.

Solución

La verosimilitud de la muestra observada es la probabilidad de observar y1, y2, . . . , yn. En consecuencia, n

L ( p) = L ( y1 , y2 , . . . , yn | p) = p y (1 − p) n−y ,

donde y =

yi . i=1

Ahora deseamos determinar el valor de p que maximice L (p). Si y = 0, L (p) = (1 − p)n y L (p) se maximiza cuando p = 0. Análogamente, si y = n, L ( p) = pn y L ( p) se maximiza cuando p = 1. Si y = 1, 2, . . . , n − 1, entonces L (p)= py (1 − p)1 − y es cero cuando p = 0 y p = 1 y es continua para valores de p entre 0 y 1. Entonces, para y = 1, 2, . . . , n − 1, podemos determinar el valor de p que maximice L (p) al igualar a cero la derivada d L (p)/d p y despejando p. Usted notará que ln[L (p)] es una función creciente en forma monotónica de L (p). En consecuencia, tanto ln[L (p)] como L (p) se maximizan para el mismo valor de p. Como L (p) es un

478

Capítulo 9

Propiedades de los estimadores puntuales y métodos de estimación

producto de funciones de p y hallar la derivada de productos resulta laborioso, es más fácil hallar el valor de p que maximice ln[L (p)]. Tenemos ln[L( p)] = ln p y (1 − p) n−y = y ln p + (n − y) ln(1 − p).

Si y = 1, 2, . . . , n − 1, la derivada de ln[L (p)] con respecto a p, es d ln[L ( p)] =y dp

1 p

+ (n − y)

−1 . 1−p

Para y = 1, 2, . . . , n − 1, el valor de p que maximice (o minimice) ln[L (p)] es la solución de la ecuación n−y y − = 0. pˆ 1 − pˆ Resolviendo, obtenemos la estimación pˆ = y / n . Se puede verificar fácilmente que esta solución se presenta cuando ln[L (p)] [y por tanto L (p)] alcanza un máximo. Debido a que L (p) se maximiza en p = 0 cuando y = 0, en p = 1 cuando y = n y en p = y/n cuando y = 1, 2, . . . , n − 1, cualquiera que sea el valor observado de y, L (p) se maximiza cuando p = y/n. El MLE, pˆ = Y / n, es la fracción de éxitos en el número total de intentos n. Por tanto, el MLE de p es en realidad el estimador intuitivo para p que usamos en todo el Capítulo 8. Q

EJEMPLO 9.15

Sea Y1, Y2, . . . , Yn una muestra aleatoria de una distribución normal con media m y varianza s2. Encuentre los estimadores de máxima verosimilitud (MLE) de m y s2.

Solución

Como Y1, Y2, . . . , Yn son variables aleatorias continuas, L (m, s2) es la densidad conjunta de la muestra. Así, L (m, s 2 ) = f ( y1 , y2 , . . . , yn | m, s 2 ). En este caso, L(m, s 2 ) = f ( y1 , y2 , . . . , yn | m, s 2 ) = f ( y1 | m, s 2 ) × f ( y2 | m, s 2 ) × . . . × f ( yn | m, s 2 ) = =

1 s √2p 1 2ps2

exp

−( y1 − m) 2 2s2

n/ 2

exp

−1 2s2

× . . .×

1 s √2p

exp

−( yn − m) 2 2s2

n

( yi − m) 2 . i=1

[Recuerde que exp(w) es sólo otra forma de escribir ew.] Además, n n 1 ln L(m, s 2 ) = − ln s2 − ln 2p − 2 2 2 2s

n

( yi − m) 2 . i=1

Los MLE de m y s2 son los valores que hacen ln[L (m, s2) un máximo. Evaluando derivadas con respecto a m y s2, obtenemos 1 n ∂{ln[L(m, s 2 )]} = 2 ( yi − m) ∂m s i=1

9.7

Método de máxima verosimilitud 479

1 s2

+

y ∂{ln[L(m, s 2 )]} n =− 2 ∂s 2

1 2s4

n

( yi − m) 2 . i=1

Igualando a cero estas derivadas y resolviendo simultáneamente, obtenemos de la primera ecuación 1 s ˆ2

n

n

( yi − m) ˆ = 0, o

yi − n mˆ = 0,

y

m ˆ =

i=1

i=1

1 n

n

yi = y. i=1

ˆ 2 , tenemos ˆ en la segunda ecuación y despejando s Sustituyendo y por m −

n 1 + 4 s ˆ2 s ˆ

n

( yi − y) 2 = 0, i=1

o

ˆ2 = s

1 n

n

( yi − y) 2 . i=1

n 2 2 ˆ 2 = n1 Entonces, Y y s i=1 (Yi − Y ) son los MLE de m y s , respectivamente. Observe que 2 ˆ no está insesgada para s2, se puede ajustar fácilmente Y es insesgada para m. Aun cuando s 2 al estimador insesgado S (vea el Ejemplo 8.1). Q

EJEMPLO 9.16

Solución

Sea Y1, Y2, . . . , Yn una muestra aleatoria de observaciones de una distribución uniforme con función de densidad de probabilidad f (yi | u) = 1/u, para 0 ≤ yi ≤ u e i = 1, 2, . . . , n. Encuentre el MLE de u. En este caso, la verosimilitud está dada por L(u) = f ( y1 , y2 , . . . , yn | u) = f ( y1 | u) × f ( y2 | u) × . . . × f ( yn | u) 1 1 1 1 × ×. . . × = n , si 0 ≤ yi ≤ u, i = 1, 2, . . . , n, u u u u = 0, en cualquier otro punto.

Obviamente, L(u) no está maximizado cuando L(u) = 0. Usted notará que 1/ un es una función de u que decrece en forma monotónica. Por tanto, en ninguna parte del intervalo 0 < u < q es d[1/un]/du igual a cero. No obstante, 1/un aumenta cuando u disminuye y 1/un se maximiza al seleccionar u tan pequeña como sea posible, sujeto a la restricción de que todos los valores de yi estén entre 0 y u. El valor más pequeño de u que satisface esta restricción es la máxima observación del conjunto y1, y2, . . . , yn. Esto es, uˆ = Y(n) = máx(Y1 , Y2 , . . . , Yn ) es el MLE para u. Este MLE para u no es un estimador insesgado de u, pero se puede ajustar para ser insesgado, como se muestra en el Ejemplo 9.1. Q

Hemos visto que los estadísticos suficientes que mejor resumen los datos tienen propiedades deseables y con frecuencia se pueden usar para determinar un estimador insesgado de varianza mínima (MVUE) para parámetros de interés. Si U es cualquier estadístico suficiente para la estimación de un parámetro u, incluyendo el estadístico suficiente obtenido del uso óptimo del criterio de factorización, el MLE es siempre alguna función de U. Esto es, el MLE depende de las observaciones muestrales sólo mediante el valor de un estadístico suficiente.

480

Capítulo 9

Propiedades de los estimadores puntuales y métodos de estimación

Para demostrar esto, sólo necesitamos observar que si U es un estadístico suficiente para u, el criterio de factorización (Teorema 9.4) implica que la verosimilitud puede ser factorizada como L(u) = L( y1 , y2 , . . . , yn | u) = g(u, u) h( y1 , y2 , . . . , yn ), donde g (u, u) es una función de sólo u y u y h (y1, y2, . . . , yn) no depende de u. Por tanto, se deduce que ln[L(u) ] = ln[g (u, u) ] + ln[h ( y1 , y2 , . . . , yn )].

Observe que ln[h (y1, y2, . . . , yn)] no depende de u y por tanto maximizar ln[L (u)] con respecto a u es equivalente a maximizar ln[g (u, u)] con respecto a u. Como ln[g (u, u)] depende de los datos sólo mediante el valor del estadístico suficiente U, el MLE para u es siempre alguna función de U. En consecuencia, si un MLE para un parámetro se puede hallar y luego ajustar para ser insesgado, el estimador resultante es con frecuencia un MVUE del parámetro en cuestión. Los MLE tienen algunas propiedades adicionales que hacen que este método de estimación sea particularmente atractivo. En el Ejemplo 9.9 consideramos la estimación de u2, una función del parámetro u. Funciones de otros parámetros también pueden ser de interés. Por ejemplo, la varianza de una variable aleatoria binomial es np (1 − p), una función del parámetro p. Si Y tiene una distribución de Poisson con media l, se deduce que P(Y = 0) = e−l; podemos desear calcular esta función de l. En general, si u es el parámetro asociado con una distribución, en ocasiones estamos interesados en calcular alguna función de u, por ejemplo t(u), en lugar de u misma. En el Ejercicio 9.94 usted demostrará que si t(u) es una función biunívoca de u y si uˆ es el MLE para u, entonces el MLE de t(u) está dado por ˆ t (u) = t ( u).

Este resultado, a veces conocido como la propiedad de invarianza de los MLE, también se cumple para cualquier función de un parámetro de interés (no sólo funciones biunívocas). Véanse más detalles en la obra de Casella y Berger (2002). EJEMPLO 9.17

En el Ejemplo 9.14, encontramos que el estimador de máxima verosimilitud (MLE) de una proporción binomial p está dado por pˆ = Y/ n . ¿Cuál es el MLE para la varianza de Y?

Solución

La varianza de una variable aleatoria binomial Y está dada por V (Y) = np (1 − p). Como V (Y) es una función del parámetro binomial p, por ejemplo, V(Y) = t(p) con t(p) = np (1 − p), se deduce que el MLE de V(Y) está dado por V (Y ) = t ( p) = t ( pˆ ) = n

Y n

1−

Y n

.

Este estimador no está insesgado, pero, usando el resultado del Ejercicio 9.65, podemos fácilmente ajustarlo para hacerlo insesgado. En realidad, n

Y n

1−

Y n

n n −1

=

n2 n −1

Y n

1−

Y n

es el estimador insesgado único de varianza mínima (UMVUE) para t(p) = np(1 − p).

Q

Ejercicios 481

En la siguiente sección (opcional), resumimos algunas de las propiedades útiles y convenientes de los MLE con muestras grandes.

Ejercicios 9.80

Suponga que Y1, Y2, . . . , Yn denotan una muestra aleatoria de la distribución de Poisson con media l. a b c d

Encuentre el MLE lˆ para l. ˆ Encuentre el valor esperado y la varianza de l. Demuestre que el estimador del inciso a es consistente para l. ¿Cuál es el MLE para P(Y = 0) = e–l?

9.81

Suponga que Y1, Y2, . . . , Yn denotan una muestra aleatoria de una población distribuida exponencialmente con media u. Encuentre el MLE de la varianza poblacional u2. [Sugerencia: recuerde el Ejemplo 9.9.]

9.82

Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad dada por 1 r r y r −1 e−y /u , u

f ( y | u) = 0,

u > 0, y > 0, en cualquier otro punto,

donde r es una constante positiva conocida. a Encuentre un estadístico suficiente para u. b Encuentre el MLE de u. c ¿El estimador del inciso b es un MVUE para u? 9.83

Suponga que Y1, Y2, . . . , Yn constituyen una muestra aleatoria de una distribución uniforme con función de densidad de probabilidad 1 , 2u + 1 0,

f ( y | u) =

0 ≤ y ≤ 2u + 1, en cualquier otro punto.

a Obtenga el MLE de u. b Obtenga el MLE para la varianza de la distribución subyacente. 9.84

Cierto tipo de componente electrónico tiene una duración Y (en horas) con función de densidad de probabilidad dada por 1 u2

f ( y | u) = 0,

ye−y/u ,

y > 0, en cualquier otro punto.

Esto es, Y tiene una distribución gamma con parámetros a = 2 y u. Con uˆ denote el MLE de u. Suponga que tres de tales componentes, probados independientemente, tuvieron duraciones de 120, 130 y 128 horas. a Encuentre el MLE de u. ˆ y V ( u). ˆ b Encuentre E( u) c Suponga que u en realidad es igual a 130. Proporcione un límite aproximado que pudiera esperarse para el error de estimación. d ¿Cuál es el MLE para la varianza de Y?

482

Capítulo 9

Propiedades de los estimadores puntuales y métodos de estimación

9.85

Sean Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad dada por 1 a ua

f ( y | a, u) =

y a−1 e−y/u ,

0,

y > 0, en cualquier otro punto,

donde a > 0 es conocida. a b c d e

Encuentre el MLE uˆ de u. ˆ Encuentre el valor esperado y la varianza de u. Demuestre que uˆ es consistente para u. ¿Cuál es el mejor (mínimo) estadístico suficiente para u en este problema? Suponga que n = 5 y a = 2. Use el mínimo estadístico suficiente para construir un intervalo de confianza de 90% para u. [Sugerencia: transforme en una distribución x2.]

9.86

Suponga que X1, X2, . . . , Xm, que representan la producción por acre para la variedad A de maíz, constituyen una muestra aleatoria de una distribución normal con media m1 y varianza s2. También, Y1, Y2, . . . , Yn, que representan la producción para la variedad B de maíz, constituyen una muestra aleatoria de una distribución normal con media m2 y varianza s2. Si las X y las Y son independientes, encuentre el MLE para la varianza común s2. Suponga que m1 y m2 son desconocidas.

9.87

Una muestra aleatoria de 100 votantes seleccionados de una población grande reveló que 30 están a favor del candidato A, 38 a favor del candidato B y 32 a favor del candidato C. Encuentre los MLE para las proporciones de votantes en la población que están a favor de los candidatos A, B y C, respectivamente. Calcule la diferencia entre las fracciones que están a favor de A y B y ponga un límite de desviación estándar de 2 en el error de estimación.

9.88

Sea Y1, Y2, . . . , Yn una muestra aleatoria de la función de densidad de probabilidad f ( y |u) =

(u + 1) y u ,

0 < y < 1, u > −1,

0,

en cualquier otro punto.

Encuentre el MLE para u. Compare su respuesta con el estimador del método de momentos hallado en el Ejercicio 9.69. 9.89

Se sabe que la probabilidad p de obtener una cara al lanzar al aire una moneda desbalanceada es 1/ 4 o 3/ 4. La moneda es lanzada dos veces al aire y se observa un valor para Y, el número de caras. Para cada valor posible de Y, ¿cuál de los dos valores para p (1/4 o 3/ 4) maximiza la probabilidad de que Y = y? Dependiendo del valor de y observado realmente, ¿cuál es el MLE de p?

9.90

Veinticinco hombres que forman parte de una muestra aleatoria de 100 hombres están a favor de una controvertida propuesta. De una muestra aleatoria independiente de 100 mujeres, un total de 30 estaban a favor de la propuesta. Suponga que pM es la verdadera proporción subyacente de hombres que están a favor de la propuesta y que pW es la verdadera proporción subyacente de mujeres que están a favor de la propuesta. Si en realidad es cierto que pW = pM = p, encuentre el MLE de la proporción común p.

*9.91

Encuentre el MLE de u con base en una muestra aleatoria de tamaño n de una distribución uniforme en el intervalo (0, 2u).

*9.92

Sea Y1, Y2, . . . , Yn una muestra aleatoria de una población con función de densidad 3y 2 , 0 ≤ y ≤ u, f ( y | u) = u3 0, en cualquier otro punto. En el Ejercicio 9.52 se demostró que Y(n) = máx(Y1, Y2, . . . , Yn) es suficiente para u. a Encuentre el MLE para u. [Sugerencia: vea el Ejemplo 9.16.] b Encuentre una función del MLE en el inciso a que sea una cantidad pivote. [Sugerencia: vea el Ejercicio 9.63.] c Use la cantidad pivote del inciso b para determinar un intervalo de confianza de 100(1 − a)% para u.

9.8 Algunas propiedades de los estimadores de máxima verosimilitud con muestras grandes 483

*9.93

Sea Y1, Y2, . . . , Yn una muestra aleatoria de una población con función de densidad 2u 2 , u < y < q, | f ( y u) = y3 0, en cualquier otro punto. En el ejercicio 9.53 se demostró que Y(1) = mín(Y1, Y2, . . . , Yn) es suficiente para u. a Encuentre el MLE para u. [Sugerencia: véase el ejemplo 9.16.] b Encuentre una función del MLE obtenido en el inciso a que sea una cantidad pivote. c Utilice la cantidad pivote obtenida en el inciso b para encontrar un intervalo de confianza de 100 ( 1− a)% para u.

*9.94

Suponga que uˆ es el MLE para un parámetro u. Sea t(u) una función de u que posee una inversa única ˆ es el MLE de t(u). [es decir, si b = t(u), entonces u = t−1(b)]. Demuestre que t ( u)

*9.95

Una muestra aleatoria de n piezas se selecciona de entre un número grande de piezas producidas por cierta línea de producción en un día. Encuentre el MLE de la relación R, la proporción de piezas defectuosas dividida entre la proporción de piezas buenas.

9.96

Considere una muestra aleatoria de tamaño n de una población normal con media m y varianza s2, pero desconocida. Deduzca el MLE de s.

9.97

La función de masa de probabilidad geométrica está dada por | p ( y p) = p (1 − p) y−1 ,

y = 1, 2, 3, . . .

Una muestra aleatoria de tamaño n se toma de una población con una distribución geométrica. a Encuentre el estimador del método de momentos para p. b Encuentre el estimador de máxima verosimilitud (MLE) para p.

9.8 Algunas propiedades de los estimadores de máxima verosimilitud con muestras grandes (opcional) Los estimadores de máxima verosimilitud también tienen propiedades interesantes cuando se trabaja con muestras grandes. Suponga que t(u) es una función derivable de u. En la Sección 9.7 afirmamos por la propiedad de invarianza que si uˆ es el MLE de u, entonces el MLE de t(u) ˆ . En algunas condiciones de regularidad que se cumplen para las distribuestá dado por t ( u) ˆ es un estimador consistente para t (u). Además, para tamaños ciones que consideraremos, t ( u) muestrales grandes, ˆ − t (u) t ( u) Z= ∂t (u) 2 ∂ 2 ln f (Y | u) nE − ∂u ∂u 2 tiene aproximadamente una distribución normal estándar. En esta expresión, la cantidad f (Y | u) del denominador es la función de densidad correspondiente a la distribución continua de interés, evaluada en el valor aleatorio Y. En el caso discreto, el resultado análogo se cumple con la función de probabilidad evaluada en el valor aleatorio Y, p (Y | u) se sustituye por la densidad f (Y | u). Si deseamos un intervalo de confianza para t (u), podemos usar a Z como la cantidad pivote. Si continuamos como en la Sección 8.6, obtenemos el siguiente intervalo de

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.