Story Transcript
Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. on Tema 5. Series temporales Introducci´ y números índice.
Descripción de variables y datos socioeconómicos 1
al Tema 9
Tema 5. Probabilidad. Tema 6. Variables aleatorias unidimensionales. Tema 7. Modelos probabilísticos discretos. Tema 8. Modelos probabilísticos continuos. Tema 9. Variables aleatorias multidimensionales.
Tema Tema Tema Tema
5 6 7 8
Tema 9
Modelización de la incertidumbre en las variables socieconómicas
W Introducci´ on a la Probabilidad Variables aleatorias unidimensionales: • Definici´ on y propiedades • Ejemplos. W Variables aleatorias multidimensionales : • Definici´ on y propiedades • Ejemplos.
⇑ Estudiar situaciones m´as realistas Introducci´on a la Estad´ıstica
Andr´es M. Alonso
2
Tema 9. Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Distribuci´ on normal multivariante. Lecturas recomendadas: Cap´ıtulo 6 del libro de Pe˜ na (2005) y las secciones 3.7, 4.4 y 5.4 de Newbold (2001). Introducci´on a la Estad´ıstica
Andr´es M. Alonso
3
Ejemplo 1. Se lanzan tres monedas distintas con probabilidades de cara de 0,5, 0,4 y 0,3 respectivamente. Sean X el n´ umero de caras (c) en las primeras dos monedas e Y el n´ umero de cruces (x) en las u ´ltimas dos lanzadas. Los posibles resultados del experimento, sus probabilidades y los valores de las variables X e Y son los siguientes. Resultado Prob. X Y {c, c, c} 0,06 2 0 {c, c, x} 0,14 2 1 {c, x, c} 0,09 1 1 {c, x, x} 0,21 1 2 {x, c, c} 0,06 1 0 {x, c, x} 0,14 1 1 {x, x, c} 0,09 0 1 {x, x, x} 0,21 0 2 Hacemos una tabla de doble entrada mostrando la distribuci´ on conjunta de las dos variables. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
4
Distribuci´ on conjunta de X e Y Definici´ on 1. Para dos variables discretas X e Y , la distribuci´ on conjunta de X e Y es el conjunto de probabilidades Pr(X = x, Y = y) para todos los posibles valores de x e y. Ejemplo 1. Y 0 1 2 0 0,00 0,09 0,21 1 0,06 0,23 0,21 2 0,06 0,14 0,00
X
I Observamos que XX x
Introducci´on a la Estad´ıstica
Pr(X = x, Y = y) = 1.
y
Andr´es M. Alonso
5
Distribuciones marginales de X e Y Definici´ on 2. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribuci´ on marginal de X es X Pr(X = x) = Pr(X = x, Y = y), y
y la distribuci´ on marginal de Y es X Pr(Y = y) = Pr(X = x, Y = y). x
Ejemplo 1.
X
0 0 0,00 1 0,06 2 0,06 0,12
La distribuci´ on marginal de X es
Y 1 0,09 0,23 0,14 0,46
2 0,21 0,21 0,00 0,42
0,3 0,5 0,2 1,0
0,3 0,5 Pr(X = x) = 0,2 0
si si si si
x=0 x=1 x=2 no
Ejercicio: Distribuci´on marginal de Y .
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
6
Distribuci´ on condicionada Definici´ on 3. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribuci´ on condicionada de X dado Y = y es Pr(X = x, Y = y) , Pr(X = x|Y = y) = Pr(Y = y) y la distribuci´ on condicionada de Y dado X = x es Pr(X = x, Y = y) Pr(Y = y|X = x) = , Pr(X = x) Ejemplo 1. La distribuci´ on condicionada de Y 0,3 0,7 P (Y = y|X = 2) = 0
dado X = 2 es si y = 0 si y = 1 si no
Ejercicio: Distribuci´ on condicionada de X dado Y = 0.
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
7
Independencia Definici´ on 4. Se dicen que dos variables (discretas) X independientes si
e Y
son
Pr(X = x, Y = y) = Pr(X = x) Pr(Y = y) para todos los valores de x e y. I Esta definici´ on equivale a decir que Pr(X = x|Y = y) = Pr(X = x) o Pr(Y = y|X = x) = Pr(Y = y), para todos los valores de x e y. Ejemplo 1. X e Y no son independientes pues, por ejemplo: Pr(X = 0, Y = 0) = 0,00 6= 0,30 × 0,12 = Pr(X = 0) Pr(Y = 0). Introducci´on a la Estad´ıstica
Andr´es M. Alonso
8
Vector de esperanzas Definici´ on 5. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza de (X, Y )0 es X X X x µ=E = Pr(X = x, Y = y). Y y x
y
P P P P x Pr(X = x, Y = y) x Pr(X = x, Y = y) X = Px P y E = Px Py Y x y y Pr(X = x, Y = y) yy x Pr(X = x, Y = y) P x Pr(X = x) E[X] x P = = . y Pr(X = x) E[Y ] y I La esperanza de un vector, (X, Y )0, es el vector de las esperanzas de sus componentes. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
9
Esperanza de g(X, Y ) I La esperanza de una funci´ on de la variable o vector aleatorio, (X, Y )0, que tiene distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y es: XX E[g(X, Y )] = g(x, y) Pr(X = x, Y = y). x
y
Ejemplo 2. Con los datos del Ejemplo 1, Y 0 1 0 0,00 0,09 X 1 0,06 0,23 2 0,06 0,14 0,12 0,46
calcule E[XY ]. 2 0,21 0,21 0,00 0,42
0,3 0,5 0,2 1,0
Entonces, E[XY ] = (0 × 0) × 0,00 + (0 × 1) × 0,09 + · · · + (2 × 2) × 0,00 = 0,93. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
10
Covarianza Definici´ on 6. Para dos variables X e Y , la covarianza entre X e Y es Cov(X, Y ) = E[(X − E[X])(Y − E[Y ])]
I A menudo, se escribe σXY para representar la covarianza. I En la pr´actica, normalmente, se eval´ ua la covarianza a trav´es de otra f´ ormula equivalente: Teorema 1. Cov[X, Y ] = E[XY ] − E[X]E[Y ] I Cov(X, Y ) = E[(Y − E[Y ])(X − E[X])] = Cov(Y, X).
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
11
Matriz de varianzas y covarianzas Definici´ on 7. Para dos variables X e Y , la matriz de varianzas y covari anzas entre X e Y es V (X) Cov(X, Y ) S= . Cov(Y, X) V (Y ) Ejemplo 3. Volvemos al Ejemplo 1. Tenemos: E[X] = 0 × 0,3 + 1 × 0,5 + 2 × 0,2 = 0,9 E[Y ] = 0 × 0,12 + 1 × 0,46 + 2 × 0,52 = 1,5 2 E X = 02 × 0,3 + 12 × 0,5 + 22 × 0,2 = 1,3 V [X] = 1,3 − 0,92 = 0,49 2 E Y = 02 × 0,12 + 12 × 0,46 + 22 × 0,52 = 2,54 V [Y ] = 2,54 − 0,932 = 1,6751 E[XY ] = 0 × 0 × 0,00 + 0 × 1 × 0,09 + . . . + 2 × 2 × 0 = 0,93 Cov[X, Y ] = 0,93 − 0,9 × 1,5 = −0,42 Introducci´on a la Estad´ıstica
µ y S? ¿µ Andr´es M. Alonso
12
Suma y diferencia de variables aleatorias Proposici´ on 1. Sean X e Y dos variables con distribuci´ on conjunta Pr(X = x, Y = y), y sea Z = X + Y , entonces: i) E[Z] = E[X + Y ] = E[X] + E[Y ]. ii) V (Z) = V (X) + V (Y ) + 2Cov(X, Y ). Demostraci´ on XX E[Z] = (x + y) Pr(X = x, Y = y) x
=
y
XX x
x Pr(X = x, Y = y) +
y
XX x
y Pr(X = x, Y = y)
y
X X X X = x Pr(X = x, Y = y) + y Pr(X = x, Y = y) x
=
X x
Introducci´on a la Estad´ıstica
y
x Pr(X = x) +
y
X
x
y Pr(Y = y) = E[X] + E[Y ].
y
Andr´es M. Alonso
13
Suma y diferencia de variables aleatorias
2
2
V (Z) = E[Z ] − E[Z] =
XX x
=
(x + y)2 Pr(X = x, Y = y) − (E[X] + E[Y ])2
y
2 2 2 (x + 2xy + y ) Pr(X = x, Y = y) − (E[X] + E[Y ]) y
P P x
= E[X 2] + 2E[XY ] + E[Y 2] − (E[X]2 + 2E[X]E[Y ] + E[Y ]2) = V (X) + 2Cov(X, Y ) + V (Y ).
I An´alogamente se prueba que Proposici´ on 2. Sean X e Y dos variables con distribuci´ on conjunta Pr(X = x, Y = y), y sea Z = X − Y , entonces: i) E[Z] = E[X + Y ] = E[X] − E[Y ]. ii) V (Z) = V (X) + V (Y ) − 2Cov(X, Y ). Introducci´on a la Estad´ıstica
Andr´es M. Alonso
14
Correlaci´ on Definici´ on 8. La correlaci´ on entre X e Y es Cov[X, Y ] ρXY = Corr[X, Y ] = DT [X]DT [Y ] Definici´ on 9. Para dos variables X e Y , la matriz de correlaciones entre X e Y es 1 Corr(X, Y ) R= . Corr(Y, X) 1 Ejemplo 4. Tenemos (ver Ejemplo 3) DT [X] = 0,7 DT [Y ] = 1,294 Cov[X, Y ] = −0,42 −0,42 Corr[X, Y ] = ≈ −0,464. 0,7 × 1,294 Hay una relaci´ on negativa entre las dos variables. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
15
Propiedades de la correlaci´ on 1. −1 ≤ ρXY ≤ 1 2. La correlaci´ on es igual a 1 si y s´ olo si existe una relaci´ on lineal positiva entre X e Y , es decir Y = α + βX, donde β > 0. 3. La correlaci´ on es −1 si y s´ olo si existe una relaci´ on lineal negativa Y = α − βX
donde β < 0.
4. Si X e Y son independientes, ρXY = 0. I El rec´ıproco del u ´ltimo resultado no es cierto: existen variables incorreladas pero dependientes. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
16
Esperanza condicionada Definici´ on 10. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza condicionada de X dado Y = y es X E[X|Y = y] = x Pr(X = x|Y = y), x
y la esperanza condicionada de Y dado X = x es: X E[Y |X = x] = y Pr(Y = y|X = x). y
Ejemplo 5. Volvemos al Ejemplo 1. La media condicionada de Y dado X = 2 es E[Y |X = 2] = 0,3 × 0 + 0,7 × 1 = 0,7.
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
17
Ley de las esperanzas iteradas Proposici´ on 3. E[E[X|Y ]] = E[X]. Demostraci´ on Primero, debemos notar que E[X|Y P ] es una v.a. que depende de Y , por tanto se aplica el resultado E[g(Y )] = y g(y) Pr(Y = y): ! E[E[X|Y = y]] =
X X y
=
x
XX y
x Pr(X = x|Y = y) Pr(Y = y)
x Pr(X = x, Y = y)
x
X X X = x Pr(X = x, Y = y) = x Pr(X = x) = E[X]. x
y
x
I An´alogamente, E[Y ] = E[E[Y |X]]. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
18
Tema 9. Variables aleatorias multidimensionales
Variables aleatorias multidimensionales. Distribuciones condicionales.
conjuntas,
marginales
y
V.A. Discretas
Independencia. Media y matriz de varianzas y covarianzas.
V.A. Continuas
Media condicionada. Distribuci´ on normal multivariante.
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
19
Generalizaci´ on para variables continuas Definici´ on 11. Para dos variables aleatorias cualesquiera, se define la funci´ on de distribuci´ on conjunta por F (x, y) = P (X ≤ x, Y ≤ y) y en el caso de v.a. continuas se define la funci´ on de densidad conjunta por ∂2 f (x, y) = F (x, y). ∂x∂y I Se tiene que
Z
x
Z
y
f (x, y) dx dy −∞
= F (x, y).
−∞
I Se calculan la distribuciones marginales, condicionadas, media, covarianza, etc. de manera similar al c´alculo para variables discretas sustituyendo integrales por las sumas donde sea necesario. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
20
Ejemplo 6. Verificar que la siguiente funci´ on bivariante es una densidad f (x, y) = 6xy 2,
0 < x < 1, 0 < y < 1,
En primer lugar observamos que f (x, y) ≥ 0 y en segundo lugar, debemos comprobar que la densidad integra a 1. Z
1Z 1
2
6xy dxdy 0
Z =
0
0
Z = 0
Introducci´on a la Estad´ıstica
1
1
3 1
y 6x 3
dx 0
2 1
1 x 6x dx = 2 3 2
= 1. 0
Andr´es M. Alonso
21
Densidades marginales La densidad marginal de X es f (x) =
R
f (x, y) dy
La densidad marginal de X es f (x) =
R
f (x, y) dy
Ejemplo 6. Tenemos 3 1 y 2 f (x) = 6xy dy = 6x 3 0 0 = 2x para 0 < x < 1 Z
1
Igualmente, la densidad marginal de Y es Z
1
f (y) = 0
= 3y 2
Introducci´on a la Estad´ıstica
2 1 x 6xy 2 dx = 6 y 2 2 0 para 0 < y < 1
Andr´es M. Alonso
22
Independencia Definici´ on 12. Se dicen que dos variables X e Y son independientes si F (x, y) = F (x)F (y), para todos los valores de x e y. I Para v.a. continuas independientes tenemos, equivalentemente, que f (x, y) = f (x)f (y) para todos los valores de x e y. Ejemplo 6. Observamos que f (x, y) = 6xy 2 = 2x × 3y 2 = f (x)f (y) Entonces, X e Y son independientes. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
23
Independencia y correlaci´ on Proposici´ on 4. Si X y Y son v.a. independientes, entonces Cov(X, Y ) = Corr(X, Y ) = 0. El resultado rec´ıproco no es cierto Ejemplo 7. Sea X una v.a. distribuida N (0, 1), e Y = X 2, entonces: E[X] = 0 E[Y ] = E[X 2] = 1 E[XY ] = E[X 3] = 0
por ser una distribuci´ on sim´etrica
Cov(X, Y ) = E[XY ] − E[X]E[Y ] = 0. Y, sin embargo, X e Y son claramente dependientes. Introducci´on a la Estad´ıstica
Andr´es M. Alonso
24
Tema 9. Variables aleatorias multidimensionales
Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia.
X
Media y matriz de varianzas y covarianzas. Media condicionada. Distribuci´ on normal multivariante.
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
25
Distribuci´ on normal multivariante Definici´ on 13. Una variable aleatoria multivariante X = (X1, X2, . . . , Xp)0 sigue una distribuci´ on normal multivariante si tiene como funci´ on de densidad a 1 1 0 −1 x) = x x − µ) , exp − f (x (x − µ ) Σ (x p/2 1/2 Σ| 2 (2π) |Σ donde µ = (µ1, µ2, . . . , µp)0, y
σ12
σ21 Σ= .. σp1
σ12 · · · σ22 · · · .. ... σp2 · · ·
σ1p σ2p .. . σ 2p
µ, Σ ). I Si X tiene una distribuci´ on normal multivariante, se escribe X ∼ N (µ
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
26
Propiedades de la distribuci´ on normal multivariante 1. La funci´ on de densidad es sim´etrica alrededor de µ . X ] = µ. 2. La media del vector aleatorio X es µ , i.e., E [X 3. La matriz de varianzas y covarianzas del vector aleatorio X es Σ , i.e., X − µ)(X X − µ)0] = Σ . E [(X 4. Cualquier subconjunto de h variables univariantes del vector x , con h < p, sigue una distribuci´ on normal h-dimensional. En particular, las distribuciones marginales son normales univariantes. 5. Si definimos un vector Y = AY , donde A es una matriz de constantes reales de dimensi´ on k ×p, entonces Y sigue una distribuci´ on normal k-dimensional.
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
27
Propiedades de la distribuci´ on normal multivariante I Podemos completar la propiedad anterior con los siguientes resultados validos para vectores aleatorios cualesquiera: X] = µ y Sea X un vector aleatorio p-dimensional tal que E [X X − µ )(X X − µ )0] = Σ . Sea Y = AX , donde A es una matriz de E [(X constantes reales de dimensi´ on k × p entonces: Y ] = Aµ . E [Y Y − Aµ )(Y Y − Aµ )0] = AΣA 0. E [(Y I Re-escribimos la propiedad 5 como: 5. Si definimos un vector Y = AX , donde A es una matriz de constantes reales de dimensi´ on k ×p, entonces Y sigue una distribuci´ on normal k-dimensional, Aµ , AΣA 0). Nk (A
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
28
El siguiente gr´afico muestra la funci´ on de densidad conjunta de una distribuci´ on normal bivariante est´andar, con media µ = (0, 0)T y matriz de varianzas y covarianzas Σ = I.
0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 3 2
3
1
2 0
1 0
−1
−1
−2
−2 −3
Introducci´on a la Estad´ıstica
−3
Andr´es M. Alonso
29
Independencia y correlaci´ on bajo normalidad Proposici´ on 5. Si (X, Y ) es un vector aleatorio normal, y X e Y son incorrelados (Cov(X,Y) = 0) entonces X e Y son independientes. I Recordar que Independientes ⇒ Correlaci´ on = 0 Independientes : Correlaci´ on = 0 Independientes ⇐
Correlaci´ on = 0 + Normalidad
0 Ejemplo 8. Sea (X, Y ) un vector normal bivariante de media µ = (4, 6) y 2 1 2X−Y matriz de varianza y covarianzas Σ = . Sean Z = X+Y y T = 3 3 . 1 5 Compruebe que Z y T son independientes.
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
30
Ejemplo 9. (Junio/2002 modificado) Las calificaciones obtenidas en dos pruebas distintas A y B por los alumnos presentados a la Selectividad, son (¿in?)dependientes y siguen las distribuciones normales: NA(µ = 62; σ = 20), NB (µ = 52; σ = 10). La covarianza entre ellas es 100. La prueba se considera superada con 50 puntos. Calcular: (a) La probabilidad de que un alumno en la prueba A haya obtenido una puntuaci´ on menor que 40. X (b) La probabilidad que haya superado la prueba B. X (c) Si para el acceso a una Universidad se necesita que la media aritm´etica de las dos notas anteriores sea mayor que 70, ¿cu´al es la probabilidad de que un alumno escogido al azar pueda acceder a dicha Universidad? Sea X la nota en la prueba A e Y la nota en la prueba B. Sea T = X+Y 2 . Introducci´on a la Estad´ıstica
Andr´es M. Alonso
31
¿Qu´e sabemos? X 62 400 100 ∼N ; . Y 52 100 100 y T
X 62 400 100 0,5 = [0,5 0,5] ∼ N [0,5 0,5] ; [0,5 0,5] Y 52 100 100 0,5 √ ∼ N 57; 175 .
Por tanto,
M − 57 70 − 57 √ > √ 175 175 ≈ Pr(Z > 0,98) = Pr(Z < −0,98) = 0,1635.
Pr(M > 70) = Pr
Introducci´on a la Estad´ıstica
Andr´es M. Alonso
32
Recapitulaci´ on
Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada.
W Extensi´ on del concepto de variable aleatoria y su caracterizaci´ on.
Distribuci´ on normal multivariante.
W Extensi´ on multivariante de la distribuci´ on normal
Introducci´on a la Estad´ıstica
Andr´es M. Alonso