Story Transcript
1
Variables aleatorias independientes
El concepto de independencia es sumamente importante en teor´ıa de probabilidad y su negaci´on, la dependencia, es un importante objeto de estudio actualmente en diversas ´areas de la investigaci´on. Para conceptualizar la independencia de variables aleatorias, imitaremos la idea de la independencia de conjuntos. Recordemos que dado un espacio de probabilidad (Ω, F, P) dos eventos A, B ∈ F con P [B] > 0 son independientes si y s´olo si P A B = P [A] Esta definici´on, completamente intuitiva, se extiende a conjuntos de probabilidad cero, d´andonos por resultado que los conjuntos A, B ∈ F son independientes si y s´olo si P [A ∩ B] = P [A] P [B]
(1)
¿C´omo extender esta idea a variables aleatorias? Sabemos, por definici´on de variable aleatoria que para cualesquiera conjuntos C, D ∈ B(R)1 tenemos {ω : X(ω) ∈ C} ∈ F
{ω : Y (ω) ∈ D} ∈ F
La clase de conjuntos σ(X) = {ω : X(ω) ∈ C; C ∈ B(R)} es toda la informaci´on disponible sobre la variable aleatoria X (obs´ervese que C var´ıa sobre B(R)), es decir, son todos aqu´ellos eventos del espacio muestral relacionados con la variable aleatoria X. Es por esto que resulta intuitivo definir independencia de variables aleatorias en t´erminos de estas clases de conjuntos. Definici´ on 1.1. Dos variables aleatorias X, Y son independientes si y s´olo si para cualesquiera A ∈ σ(X) y B ∈ σ(Y ) los eventos A y B son independientes. Equivalentemente, las variables aleatorias X, Y son independientes si y s´olo si para cualesquiera C, D ∈ B(R) tenemos P [X ∈ C, Y ∈ D] = P [X ∈ C] P [X ∈ D] De la misma manera que en el caso univariado, es deseable tener una caracterizaci´on de la independencia en t´erminos de las funciones de distribuci´on y de densidad. Esto se logra gracias a que los conjuntos de la forma n Y (−∞, xi ] i=1 1
B(R) representa a los conjuntos Borelianos, todos aqu´ellos conjuntos C ⊆ R para los cu´ales deseamos calcular P [X ∈ C].
1
son suficientes para explicar las cantidades P [X ∈ C, Y ∈ D] ,
C, D ∈ B(R)
como se vio en la secci´on ?? sobre la Funci´on de distribuci´on multivariada. Con esto, tenemos una definici´on alternativa para la independencia de dos variables aleatorias mucho m´as manejable. Definici´ on 1.2. Dos variables aleatorias X, Y con funci´on de distribuci´on conjunta F (x, y) y marginales FX (x) y FY (y) respectivamente son independientes si y s´olo si para cualesquiera dos valores x, y ∈ R se tiene F (x, y) = FX (x)FY (y) (2) Es importante recalcar que esta definici´on es independiente del car´acter discreto o continuo (o ninguno de ambos) de las variables aleatorias X, Y , por lo cual es una definici´on un tanto general todav´ıa. Concentr´emonos en cada caso y analicemos la relaci´on de la ecuaci´on (2) con las funciones de densidad.
1.1
Caso discreto
Cuando las variables aleatorias X, Y son discretas el an´alisis es muy simple. Denotemos por p(x, y) a la funci´on de densidad conjunta del vector (X, Y ) y por pX (x), pY (y) a las densidades marginales de cada variable. Partiendo directamente de la definici´on conjuntista de independencia observamos que si X y Y son independientes, entonces para cualesquiera x ∈ Ran(X), y ∈ Ran(Y ), p(x, y) =P [X = x, Y = y] = P [X ∈ {x}, Y ∈ {y}] =P [X ∈ {x}] P [Y ∈ {y}] = P [X = x] P [Y = y] = pX (x)pY (y)
(3)
Es decir, la independencia implica la factorizaci´on p(x, y) = pX (x)pY (y) para cualesquiera valores x ∈ Ran(X), y ∈ Ran(Y ). Por otro lado, si suponemos que esta factorizaci´on es cierta, entonces para cualesquiera conjuntos C, D tenemos XX XX P [X ∈ C, Y ∈ D] = p(x, y) = pX (x)pY (y) x∈C y∈D
=
X x∈C
pX (x)
x∈C y∈D
X
(4)
pY (y) = P [X ∈ C] P [Y ∈ D]
y∈D
En conclusi´on hemos demostrado la siguiente Proposici´on. Proposici´ on 1.1. Sean X, Y variables aleatorias discretas con funci´on de densidad conjunta p(x, y) y funciones de densidad marginales pX (x), pY (y). Entonces, X es independiente de Y si y s´ olo si ∀x ∈ Ran(X), y ∈ Ran(Y ), 2
p(x, y) = pX (x)pY (y)
Ejemplo 1.1 Supongamos que el n´ umero de personas que llegan al and´en del tren entre las 5:00 am y las 5:15 am para abordar el primer tren de la ma˜ nana sigue una distribuci´on de Poisson con par´ametro λ > 0. Cada individuo que llega a abordar este tren es hombre con probabilidad p ∈ (0, 1) y mujer con probabilidad 1 − p independientemente de los dem´as que han llegado y llegar´an. Sean H el n´ umero de hombres que abordan el primer tren y M el n´ umero de mujeres que lo abordan. ¿Cu´al es la distribuci´on conjunta de (H, M )? ¿Son independientes? Soluci´on: Para encontrar la funci´on de densidad conjunta, tomemos m, n ∈ N cualesquiera, entonces ∞ X P [H = n, M = m] = P H = n, M = m H + M = j P [H + M = j] j=0
(5)
= P H = n, M = m H + M = n + m P [H + M = n + m] Para comprender esta ecuaci´on obs´ervese que la primera igualdad es la f´ormula de la probabilidad total aplicada al evento {H = n, M = m} usando la partici´on de Ω formada por los conjuntos {H + M = j}j∈N . La segunda igualdad se sigue de que para todo j 6= n + m P H = n, M = m H + M = j = 0 Ahora, H + M es el n´ umero total de pasajeros del tren y por lo tanto sigue una distribuci´on de Poisson con par´ametro λ > 0 por hip´otesis. La otra hip´otesis del enunciado nos dice que sabiendo que han llegado n + m personas, cada una es hombre (´exito) con probabilidad p ∈ (0, 1) por lo cu´al el n´ umero total de hombres sigue una distribuci´on Binomial con par´ametros (n + m, p). Cabe destacar que esta distribuci´on Binomial para H est´a condicionada a que el n´ umero total de arribos es n + m. Como consecuencia n + m P H = n, M = m H + M = n + m = pn (1 − p)m n Sustituyendo esto en la f´ormula (5) obtenemos (n + m)! n e−pλ λn e−(1−p)λ λm n+m n e−λ λn+m = p (1 − p)m P [H = n, M = m] = p (1 − p)m (n + m)! n!m! (n + m)! n −pλ n −(1−p)λ m e (pλ) e ((1 − p)λ) = n! m! Esto demuestra que H y M son variables aleatorias independientes con distribuciones Poisson de par´ametros pλ y (1 − p)λ respectivamente. 3
Este resultado es muy intuitivo pues si pensamos que el n´ umero total de personas es Poisson λ, entonces el n´ umero promedio de personas que llegan al and´en es λ. Como cada uno es hombre o mujer independientemente de los dem´as y la proporci´on de hombres es p y la de mujeres es 1 − p, esperamos que el n´ umero de hombres que llegan al and´en sea, en promedio, pλ y el de mujeres (1 − p)λ. El hecho de que la distribuci´on sea Poisson se puede intuir pensando que los arribos de hombres siguen el mismo patr´on que los arribos globales. Esta manera de resolver el ejemplo es muy informativa, pues nos dice que H, M son independientes y nos da de inmediato sus densidades. No obstante, puede parecer un “truco” el escribir λ = pλ + (1 − p)λ en la exponencial. De no hacerlo as´ı obtenemos la densidad conjunta como e−λ (pλ)n ((1 − p)λ)m n!m! La buena noticia es que esta expresi´on es suficiente para obtener la independencia de las variables H, M . La raz´on de que esto sea as´ı se expresa en la siguiente Proposici´on. p(n, m) =
Proposici´ on 1.2. Sean X, Y variables aleatorias discretas con funci´on de densidad conjunta p(x, y). Las variables X, Y son independientes si y s´olo si existen g(x), h(y) tales que para cada x ∈ Ran(X), y ∈ Ran(Y ) se tiene p(x, y) = g(x)h(y) Demostraci´on. Supongamos primero que X, Y son independientes. En este caso basta tomar g(x) = pX (x) y h(y) = pY (y) como se ha demostrado al incio de esta secci´on. Supongamos ahora que existen g(x), h(y) para las cu´ales p(x, y) = g(x)h(y), entonces XX X X 1= p(x, y) = g(x) h(y) x
y
x
y
por lo cu´al existen X
g(x) = C1 ,
x
X
h(y) = C2 , y adem´as C1 C2 = 1
y
Calculando la densidad marginal de X obtenemos X X pX (x) = p(x, y) = g(x)h(y) = C2 g(x) y
y
An´alogamente pY (y) = C1 h(y) Esto implica que p(x, y) = g(x)h(y) = C1 C2 g(x)h(y) = pX (x)pY (y) es decir X y Y son independientes. 4
Observaci´ on 1.1. En caso que se pueda factorizar la densidad conjunta p(x, y) cada una de las funciones involucradas en la factorizaci´on es un m´ ultiplo de la densidad marginal. En el ejemplo 1.1 las funciones son ((1 − p)λ)m (pλ)n h(m) = g(n) = e−λ n! m! de modo que nuestras constantes C1 y C2 son C1 = e−λ(1−p) ,
C2 = eλ(1−p)
5