Story Transcript
Cap´ıtulo 5 Propiedades en una muestra aleatoria 5.1.
Conceptos b´ asicos sobre muestras aleatorias
Definici´ on 5.1.1 X1 , · · · , Xn son llamadas una muestra aleatoria de taman ˜o n de una poblaci´on f (x) si son variables aleatorias mutuamente independientes y la funci´on de probabilidad o densidad marginal de cada Xi es f (x). Alternativamente, X1 , · · · , Xn son llamadas variables aleatorias independientes e identicamente distribuidas con funci´on de probabilidad o densidad f (x). Si la funci´on de probabilidad o densidad es miembro de una familia param´etrica f (x|θ), entonces la funci´on de probabilidad o densidad conjunta es: f (x1 , · · · , xn |θ) =
n Y
f (xi |θ)
(5.1.1)
i=1
Ejemplo 5.1.1 Sea X1 , · · · , Xn una muestra aleatoria de una poblaci´on E(β) que corresponde al tiempo de funcionamiento (en a˜ nos) de n circuitos id´enticos sometidos a prueba. La funci´on de densidad conjunta de la muestra es: f (x1 , · · · , xn |β) =
n Y i=1
f (xi |β) =
n Y
1 1 −xi /β e = n e−(x1 +···+xn )/β β i=1 β
66
CAP´ITULO 5. PROPIEDADES EN UNA MUESTRA ALEATORIA
67
La probabilidad que todos los circuitos funcionen al menos dos a˜ nos es: ˆ ∞ 1 −(x1 +···+xn )/β ··· Pr(X1 > 2, · · · , Xn > 2) = e dx1 · · · dxn βn 2 2 ˆ ∞ ˆ ∞ 1 −(x2 +···+xn )/β −2/β ··· = e e dx2 · · · dxn n−1 β 2 2 = (e−2/β )n = e−2n/β ˆ ∞
Usando independencia: Pr(X1 > 2, · · · , Xn > 2) = Pr(X1 > 2) · · · Pr(Xn > 2) = (e−2/β )n = e−2n/β
5.2.
Sumas de variables aleatorias a partir de una muestra aleatoria
Definici´ on 5.2.1 Sea X1 , · · · , Xn una muestra aleatoria de tama˜ no n de una poblaci´on y sea T (X1 , · · · , Xn ) una funci´on cuyo dominio incluye el espacio muestral de (X1 , · · · , Xn ), entonces la variable aleatoria Y = T (X1 , · · · , Xn ) es llamada una estad´ıstica cuya distribuci´on es llamada la distribuci´on de muestreo de Y . Definici´ on 5.2.2 La media muestral es el promedio aritm´etico de los valores en la muestra aleatoria. Usualmente se denota por: X=
n X 1 + · · · + Xn 1X = Xi n n i=1
Definici´ on 5.2.3 La varianza muestral es la estad´ıstica definida por: n 1 X S = (Xi − X)2 n − 1 i=1 2
La desviaci´on est´andar muestral es la estad´ıstica definida por S =
√ S2 .
CAP´ITULO 5. PROPIEDADES EN UNA MUESTRA ALEATORIA
68
Teorema 5.2.1 Sean x1 , · · · , xn n´ umeros cualesquiera y x¯ = (x1 + · · · + xn )/n, entonces: a. m´ın
Pn
i=1 (xi
b. (n − 1)s2 =
− a)2 =
Pn
− x¯)2
Pn
− x¯)2 =
Pn
i=1 (xi
i=1 (xi
i=1
¯2 x2i − nx
Teorema 5.2.2 Sea X1 , · · · , Xn una muestra aleatoria de una poblaci´on con media µ y varianza σ 2 < ∞, entonces: a. E[X] = µ b. Var(X) =
σ2 n
c. E[S 2 ] = σ 2 Teorema 5.2.3 Sea X1 , · · · , Xn una muestra aleatoria de una poblaci´on con funci´on generatriz de momentos MX (t), entonces la funci´on generatriz de momentos de la media muestral es: MX (t) = [MX (t/n)]n Ejemplo 5.2.1 Sea X1 , · · · , Xn una muestra aleatoria de una poblaci´on N (µ, σ 2 ). Hallar la distribuci´on de X. Ejemplo 5.2.2 Sea X1 , · · · , Xn una muestra aleatoria de una poblaci´on G(α, β). Hallar la distribuci´on de X.
5.3.
Muestreo desde la distribuci´ on Normal
5.3.1.
Propiedades de la media y variancia muestral
Teorema 5.3.1 Sea X1 , · · · , Xn una muestra aleatoria de la distribuci´on P 1 Pn 2 N (µ, σ 2 ) y sean X = n1 ni=1 Xi y S 2 = n−1 i=1 (Xi − X) . Entonces: a. X y S 2 son variables aleatorias independientes. 2
b. X ∼ N (µ, σn ). c.
(n−1)S 2 σ2
∼ χ2n−1 .
CAP´ITULO 5. PROPIEDADES EN UNA MUESTRA ALEATORIA
69
Lema 5.3.1 Sea χ2p una variable aleatoria con distribuci´on chi-cuadrado con p grados de libertad. a. Si Z ∼ N (0, 1) entonces Z 2 ∼ χ21 . b. Si Xi ∼ χ2pi son independientes, entonces X1 + · · · + Xn ∼ χ2p1 +···+pn .
5.3.2.
Distribuciones derivadas: t de Student y F
Definici´ on 5.3.1 Sea X1 , · · · , Xn es una muestra aleatoria de una distribuX−µ √ tiene distribuci´ ci´on N (µ, σ 2 ). La cantidad S/ on t-student con n − 1 grados n de libertad. Equivalentemente, una variable aleatoria T tiene distribuci´on t de student con p grados de libertad, y se denota por T ∼ tp , si tiene la siguiente funci´on de densidad: Γ( p+1 ) 1 2 fT (t) = , p 1/2 Γ( 2 ) (pπ) (1 + t2 /p)(p+1)/2
−∞ < t < ∞
(5.3.1)
Si p = 1 entonces 5.3.1 se convierte en la distribuci´on Cauchy, lo cual ocurre cuando el tama˜ no de muestra es 2. Si Tp es una variable aleatoria con distribuci´on tp entonces: E[Tp ] = 0 si p > 1 p si p > 2 Var(Tp ) = p−2
(5.3.2)
Definici´ on 5.3.2 Sea X1 , · · · , Xn una muestra aleatoria de una poblaci´on 2 N (µX , σX ) y sea Y1 , · · · Ym una muestra aleatoria de una poblaci´on indepen2 2 diente N (µY , σY2 ). La variable aleatoria F = (SX /σX )/(SY2 /σY2 ) tiene distribuci´on F con n − 1 y m − 1 grados de libertad. Equivalentemente, la variable aleatoria F tiene distribuci´on F con p y q grados de libertad, si su funci´on de densidad es: Γ( p+q ) fF (x) = p 2 q Γ( 2 )Γ( 2 )
p q
!p/2
x(p/2)−1 , [1 + (p/q)x](p+q)/2
0 0: l´ım Pr (|Xn − X| ≥ ) = 0 o
n→∞
l´ım Pr (|Xn − X| < ) = 1
n→∞
Las variables aleatorias X1 , X2 , · · · en la secuencia no son necesariamente independientes e identicamente distribuidas como en una muestra aleatoria. Frecuentemente se tiene que la secuencia de variables aleatorias corresponde a medias muestrales y que la variable aleatoria l´ımite es constante. El resultado m´as famoso es el siguiente. Teorema 5.5.1 (Ley d´ ebil de los grandes n´ umeros) Sean X1 , X2 , · · · variables aleatorias independientes e identicamente distribuidas con E[Xi ] = P µ y Var(Xi ) = σ 2 < ∞. Si se define X n = n1 ni=1 Xi entonces, para todo > 0:
l´ım Pr X n − µ < = 1
n→∞
es decir, X n converge en probabilidad hacia µ. Teorema 5.5.2 Si X1 , X2 , · · · converge en probabilidad hacia la variable aleatoria X y h es una funci´on continua, entonces h(X1 ), h(X2 ), · · · converge en probabilidad hacia h(X).
5.5.2.
Convergencia casi segura
Definici´ on 5.5.2 Una secuencia de variables aleatorias, X1 , X2 , · · · converge de manera casi segura hacia la variable aleatoria X, si para todo > 0:
Pr
l´ım |Xn − X| < = 1 n→∞
Ejemplo 5.5.1 Sea el espacio muestral S = [0, 1] con distribuci´on de probabilidad uniforme. Se definen las variables aleatorias Xn (s) = s + sn y X(s) = s. Para todo s ∈ [0, 1), sn → 0 conforme n → ∞ y Xn (s) → X(s) = s. Sin embargo Xn (1) = 2 para todo n, es decir Xn (1) no converge a X(1) = 1. La
CAP´ITULO 5. PROPIEDADES EN UNA MUESTRA ALEATORIA
74
convergencia ocurre en el conjunto [0, 1) y Pr([0, 1)) = 1, luego Xn converge de forma casi segura hacia X . Teorema 5.5.3 (Ley fuerte de los grandes n´ umeros) Sean X1 , X2 , · · · variables aleatorias independientes e identicamente distribuidas con E[Xi ] = P µ y Var (Xi ) = σ 2 < ∞ y se define X n = (1/n) ni=1 Xi . Entonces, para todo > 0:
Pr
l´ım
n→∞
X n
− µ
0:
Pr X(n) − 1 ≥ = Pr X(n) ≥ 1 + + Pr X(n) ≤ 1 −
= Pr X(n) ≤ 1 −
= Pr (X1 ≤ 1 − , · · · , Xn ≤ 1 − ) = (1 − )n luego X(n) converge en probabilidad hacia 1 ya que (1 − )n → 0 cuando n → ∞. Adem´as, si se toma = t/n se tiene:
Pr X(n) ≤ 1 − t/n = (1 − t/n)n → e−t lo cual es equivalente a:
Pr n(1 − X(n) ) ≤ t → 1 − e−t es decir, la variable aleatoria n(1 − X(n) ) converge en distribuci´on a la variable aleatoria E (1).
CAP´ITULO 5. PROPIEDADES EN UNA MUESTRA ALEATORIA
75
Teorema 5.5.4 (Teorema central del l´ımite) Sean X1 , X2 , · · · variables aleatorias independientes e identicamente distribuidas cuyas funciones generatrices de momentos existen. Sea E[Xi ] = µ y Var (Xi ) = σ 2 > 0. Se 1 Pn on de distribuci´on acumulada de define X n = n i=1 Xi y sea Gn (x) la funci´ √ n(X n − µ)/σ. Entonces para −∞ < x < ∞: ˆ x 1 2 √ e−y /2 dy l´ım Gn (x) = n→∞ 2π −∞ √ esto es, n(X n − µ)/σ tiene distribuci´on l´ımite normal est´andar. Prueba: Se define Yi = (Xi − µ)/σ tal que: √ n 1 X n(X − µ) W = =√ Yi σ n i=1 Luego:
h √ in MW (t) = MY (t/ n)
√ Se expande MY (t/ n) en una serie de potencias de Taylor alrededor de 0. Entonces: √ ∞ X √ (t/ n)k dk (k) (k) MY (t/ n) = MY (0) donde MY (0) = k MY (t) k! dt t=0 k=0 (0)
(1)
(2)
Se sabe que MY = 1, MY = 0 y MY = 1, ya que por construcci´on la media y varianza de Y son 0 y 1 respectivamente. Entonces: √ √ √ (t/ n)2 + RY (t/ n) MY (t/ n) = 1 + 2 donde RY es el residuo en la expansi´on de Taylor. Una aplicaci´on del teorema 7.4.1 de Taylor muestra que, para t 6= 0, se tiene: √ √ RY (t/ n) √ 2 = 0 entonces l´ım nRY (t/ n) = 0 l´ım n→∞ (t/ n) n→∞ Luego: " # √ h √ in √ n (t/ n)2 l´ım MY (t/ n) = l´ım 1 + + RY (t/ n) n→∞ n→∞ 2 " !#n √ 1 t2 = l´ım 1 + + nRY (t/ n) n→∞ n 2
CAP´ITULO 5. PROPIEDADES EN UNA MUESTRA ALEATORIA
76
y usando el lema 3.4.1 se tiene: h √ in 2 = et /2 l´ ım M Y (t/ n) n→∞
que es la funci´on generatriz de momentos de la distribuci´on normal est´andar. Usando R podemos obtener n´ umeros aleatorios de la distribuci´on exponencial y generar con ellos la distribuci´on de la media muestral. x > + >
0
20
40
60
80
8
10
12
14
CAP´ITULO 5. PROPIEDADES EN UNA MUESTRA ALEATORIA
77
Ejemplo 5.5.3 El n´ umero de infracciones de estacionamiento aplicadas en una ciudad en un d´ıa cualquiera tiene distribuci´on de Poisson con media igual a 50 infracciones. ¿Cu´al es la probabilidad que el n´ umero total de estacionamiento cometidas en los pr´oximos 40 d´ıas sea mayor a 2045? Suponga independencia de ser necesario.