Introducción al Tema 9

Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. on Tema 5. Series temporales Introducc

9 downloads 154 Views 326KB Size

Recommend Stories


TEMA 9. MEMORIAS SEMICONDUCTORAS
TEMA 9. MEMORIAS SEMICONDUCTORAS http://www.tech-faq.com/wp-content/uploads/images/integrated-circuit-layout.jpg IEEE 125 Aniversary: http://www.fli

Tema 9 Cuerpos geométricos
Tema 9 Cuerpos geométricos 9.1 Prismas PÁGINA 196 ACTIVIDADES 1. Dí de que tipo es cada uno de los siguientes prismas: a) Prisma recto triangular. Es

Tema 9: SOLICITACIONES COMBINADAS
Tema 9: Solicitaciones Combinadas Tema 9: SOLICITACIONES COMBINADAS z Vz T N x Mz My L Vy y Prof.: Jaime Santo Domingo Santillana E.P.S.-Zamora

Story Transcript

Tema 2. Análisis de datos univariantes. Tema 3. Análisis de datos bivariantes. Tema 4. Correlación y regresión. on Tema 5. Series temporales Introducci´ y números índice.

Descripción de variables y datos socioeconómicos 1

al Tema 9

Tema 5. Probabilidad. Tema 6. Variables aleatorias unidimensionales. Tema 7. Modelos probabilísticos discretos. Tema 8. Modelos probabilísticos continuos. Tema 9. Variables aleatorias multidimensionales.

Tema Tema Tema Tema

5 6 7 8

Tema 9

Modelización de la incertidumbre en las variables socieconómicas

W Introducci´ on a la Probabilidad Variables aleatorias unidimensionales: • Definici´ on y propiedades • Ejemplos. W Variables aleatorias multidimensionales : • Definici´ on y propiedades • Ejemplos.

⇑ Estudiar situaciones m´as realistas Introducci´on a la Estad´ıstica

Andr´es M. Alonso

2

Tema 9. Variables aleatorias multidimensionales Los contenidos a desarrollar en este tema son los siguientes: Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada. Distribuci´ on normal multivariante. Lecturas recomendadas: Cap´ıtulo 6 del libro de Pe˜ na (2005) y las secciones 3.7, 4.4 y 5.4 de Newbold (2001). Introducci´on a la Estad´ıstica

Andr´es M. Alonso

3

Ejemplo 1. Se lanzan tres monedas distintas con probabilidades de cara de 0,5, 0,4 y 0,3 respectivamente. Sean X el n´ umero de caras (c) en las primeras dos monedas e Y el n´ umero de cruces (x) en las u ´ltimas dos lanzadas. Los posibles resultados del experimento, sus probabilidades y los valores de las variables X e Y son los siguientes. Resultado Prob. X Y {c, c, c} 0,06 2 0 {c, c, x} 0,14 2 1 {c, x, c} 0,09 1 1 {c, x, x} 0,21 1 2 {x, c, c} 0,06 1 0 {x, c, x} 0,14 1 1 {x, x, c} 0,09 0 1 {x, x, x} 0,21 0 2 Hacemos una tabla de doble entrada mostrando la distribuci´ on conjunta de las dos variables. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

4

Distribuci´ on conjunta de X e Y Definici´ on 1. Para dos variables discretas X e Y , la distribuci´ on conjunta de X e Y es el conjunto de probabilidades Pr(X = x, Y = y) para todos los posibles valores de x e y. Ejemplo 1. Y 0 1 2 0 0,00 0,09 0,21 1 0,06 0,23 0,21 2 0,06 0,14 0,00

X

I Observamos que XX x

Introducci´on a la Estad´ıstica

Pr(X = x, Y = y) = 1.

y

Andr´es M. Alonso

5

Distribuciones marginales de X e Y Definici´ on 2. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribuci´ on marginal de X es X Pr(X = x) = Pr(X = x, Y = y), y

y la distribuci´ on marginal de Y es X Pr(Y = y) = Pr(X = x, Y = y). x

Ejemplo 1.

X

0 0 0,00 1 0,06 2 0,06 0,12

La distribuci´ on marginal de X es

Y 1 0,09 0,23 0,14 0,46

2 0,21 0,21 0,00 0,42

0,3 0,5 0,2 1,0

 0,3    0,5 Pr(X = x) = 0,2    0

si si si si

x=0 x=1 x=2 no

Ejercicio: Distribuci´on marginal de Y .

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

6

Distribuci´ on condicionada Definici´ on 3. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la distribuci´ on condicionada de X dado Y = y es Pr(X = x, Y = y) , Pr(X = x|Y = y) = Pr(Y = y) y la distribuci´ on condicionada de Y dado X = x es Pr(X = x, Y = y) Pr(Y = y|X = x) = , Pr(X = x) Ejemplo 1. La distribuci´ on condicionada de Y   0,3 0,7 P (Y = y|X = 2) =  0

dado X = 2 es si y = 0 si y = 1 si no

Ejercicio: Distribuci´ on condicionada de X dado Y = 0.

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

7

Independencia Definici´ on 4. Se dicen que dos variables (discretas) X independientes si

e Y

son

Pr(X = x, Y = y) = Pr(X = x) Pr(Y = y) para todos los valores de x e y. I Esta definici´ on equivale a decir que Pr(X = x|Y = y) = Pr(X = x) o Pr(Y = y|X = x) = Pr(Y = y), para todos los valores de x e y. Ejemplo 1. X e Y no son independientes pues, por ejemplo: Pr(X = 0, Y = 0) = 0,00 6= 0,30 × 0,12 = Pr(X = 0) Pr(Y = 0). Introducci´on a la Estad´ıstica

Andr´es M. Alonso

8

Vector de esperanzas Definici´ on 5. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza de (X, Y )0 es   X X   X x µ=E = Pr(X = x, Y = y). Y y x

y

  P P  P P  x Pr(X = x, Y = y) x Pr(X = x, Y = y) X = Px P y E = Px Py Y x y y Pr(X = x, Y = y) yy x Pr(X = x, Y = y) P    x Pr(X = x) E[X] x P = = . y Pr(X = x) E[Y ] y I La esperanza de un vector, (X, Y )0, es el vector de las esperanzas de sus componentes. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

9

Esperanza de g(X, Y ) I La esperanza de una funci´ on de la variable o vector aleatorio, (X, Y )0, que tiene distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y es: XX E[g(X, Y )] = g(x, y) Pr(X = x, Y = y). x

y

Ejemplo 2. Con los datos del Ejemplo 1, Y 0 1 0 0,00 0,09 X 1 0,06 0,23 2 0,06 0,14 0,12 0,46

calcule E[XY ]. 2 0,21 0,21 0,00 0,42

0,3 0,5 0,2 1,0

Entonces, E[XY ] = (0 × 0) × 0,00 + (0 × 1) × 0,09 + · · · + (2 × 2) × 0,00 = 0,93. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

10

Covarianza Definici´ on 6. Para dos variables X e Y , la covarianza entre X e Y es Cov(X, Y ) = E[(X − E[X])(Y − E[Y ])]

I A menudo, se escribe σXY para representar la covarianza. I En la pr´actica, normalmente, se eval´ ua la covarianza a trav´es de otra f´ ormula equivalente: Teorema 1. Cov[X, Y ] = E[XY ] − E[X]E[Y ] I Cov(X, Y ) = E[(Y − E[Y ])(X − E[X])] = Cov(Y, X).

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

11

Matriz de varianzas y covarianzas Definici´ on 7. Para dos variables X e Y , la matriz de varianzas y covari  anzas entre X e Y es V (X) Cov(X, Y ) S= . Cov(Y, X) V (Y ) Ejemplo 3. Volvemos al Ejemplo 1. Tenemos: E[X] = 0 × 0,3 + 1 × 0,5 + 2 × 0,2 = 0,9 E[Y ] = 0 × 0,12 + 1 × 0,46 + 2 × 0,52 = 1,5  2 E X = 02 × 0,3 + 12 × 0,5 + 22 × 0,2 = 1,3 V [X] = 1,3 − 0,92 = 0,49  2 E Y = 02 × 0,12 + 12 × 0,46 + 22 × 0,52 = 2,54 V [Y ] = 2,54 − 0,932 = 1,6751 E[XY ] = 0 × 0 × 0,00 + 0 × 1 × 0,09 + . . . + 2 × 2 × 0 = 0,93 Cov[X, Y ] = 0,93 − 0,9 × 1,5 = −0,42 Introducci´on a la Estad´ıstica

µ y S? ¿µ Andr´es M. Alonso

12

Suma y diferencia de variables aleatorias Proposici´ on 1. Sean X e Y dos variables con distribuci´ on conjunta Pr(X = x, Y = y), y sea Z = X + Y , entonces: i) E[Z] = E[X + Y ] = E[X] + E[Y ]. ii) V (Z) = V (X) + V (Y ) + 2Cov(X, Y ). Demostraci´ on XX E[Z] = (x + y) Pr(X = x, Y = y) x

=

y

XX x

x Pr(X = x, Y = y) +

y

XX x

y Pr(X = x, Y = y)

y

X X X X = x Pr(X = x, Y = y) + y Pr(X = x, Y = y) x

=

X x

Introducci´on a la Estad´ıstica

y

x Pr(X = x) +

y

X

x

y Pr(Y = y) = E[X] + E[Y ].

y

Andr´es M. Alonso

13

Suma y diferencia de variables aleatorias

2

2

V (Z) = E[Z ] − E[Z] =

XX x

=

(x + y)2 Pr(X = x, Y = y) − (E[X] + E[Y ])2

y

2 2 2 (x + 2xy + y ) Pr(X = x, Y = y) − (E[X] + E[Y ]) y

P P x

= E[X 2] + 2E[XY ] + E[Y 2] − (E[X]2 + 2E[X]E[Y ] + E[Y ]2) = V (X) + 2Cov(X, Y ) + V (Y ).

I An´alogamente se prueba que Proposici´ on 2. Sean X e Y dos variables con distribuci´ on conjunta Pr(X = x, Y = y), y sea Z = X − Y , entonces: i) E[Z] = E[X + Y ] = E[X] − E[Y ]. ii) V (Z) = V (X) + V (Y ) − 2Cov(X, Y ). Introducci´on a la Estad´ıstica

Andr´es M. Alonso

14

Correlaci´ on Definici´ on 8. La correlaci´ on entre X e Y es Cov[X, Y ] ρXY = Corr[X, Y ] = DT [X]DT [Y ] Definici´ on 9. Para dos variables X e Y , la matriz de correlaciones entre   X e Y es 1 Corr(X, Y ) R= . Corr(Y, X) 1 Ejemplo 4. Tenemos (ver Ejemplo 3) DT [X] = 0,7 DT [Y ] = 1,294 Cov[X, Y ] = −0,42 −0,42 Corr[X, Y ] = ≈ −0,464. 0,7 × 1,294 Hay una relaci´ on negativa entre las dos variables. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

15

Propiedades de la correlaci´ on 1. −1 ≤ ρXY ≤ 1 2. La correlaci´ on es igual a 1 si y s´ olo si existe una relaci´ on lineal positiva entre X e Y , es decir Y = α + βX, donde β > 0. 3. La correlaci´ on es −1 si y s´ olo si existe una relaci´ on lineal negativa Y = α − βX

donde β < 0.

4. Si X e Y son independientes, ρXY = 0. I El rec´ıproco del u ´ltimo resultado no es cierto: existen variables incorreladas pero dependientes. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

16

Esperanza condicionada Definici´ on 10. Para dos variables discretas X e Y con distribuci´ on conjunta Pr(X = x, Y = y) para todos los posibles valores de x e y, la esperanza condicionada de X dado Y = y es X E[X|Y = y] = x Pr(X = x|Y = y), x

y la esperanza condicionada de Y dado X = x es: X E[Y |X = x] = y Pr(Y = y|X = x). y

Ejemplo 5. Volvemos al Ejemplo 1. La media condicionada de Y dado X = 2 es E[Y |X = 2] = 0,3 × 0 + 0,7 × 1 = 0,7.

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

17

Ley de las esperanzas iteradas Proposici´ on 3. E[E[X|Y ]] = E[X]. Demostraci´ on Primero, debemos notar que E[X|Y P ] es una v.a. que depende de Y , por tanto se aplica el resultado E[g(Y )] = y g(y) Pr(Y = y): ! E[E[X|Y = y]] =

X X y

=

x

XX y

x Pr(X = x|Y = y) Pr(Y = y)

x Pr(X = x, Y = y)

x

X X X = x Pr(X = x, Y = y) = x Pr(X = x) = E[X]. x

y

x

I An´alogamente, E[Y ] = E[E[Y |X]]. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

18

Tema 9. Variables aleatorias multidimensionales

Variables aleatorias multidimensionales. Distribuciones condicionales.

conjuntas,

marginales

y

V.A. Discretas

Independencia. Media y matriz de varianzas y covarianzas.

V.A. Continuas

Media condicionada. Distribuci´ on normal multivariante.

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

19

Generalizaci´ on para variables continuas Definici´ on 11. Para dos variables aleatorias cualesquiera, se define la funci´ on de distribuci´ on conjunta por F (x, y) = P (X ≤ x, Y ≤ y) y en el caso de v.a. continuas se define la funci´ on de densidad conjunta por ∂2 f (x, y) = F (x, y). ∂x∂y I Se tiene que

Z

x

Z

y

f (x, y) dx dy −∞

= F (x, y).

−∞

I Se calculan la distribuciones marginales, condicionadas, media, covarianza, etc. de manera similar al c´alculo para variables discretas sustituyendo integrales por las sumas donde sea necesario. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

20

Ejemplo 6. Verificar que la siguiente funci´ on bivariante es una densidad f (x, y) = 6xy 2,

0 < x < 1, 0 < y < 1,

En primer lugar observamos que f (x, y) ≥ 0 y en segundo lugar, debemos comprobar que la densidad integra a 1. Z

1Z 1

2

6xy dxdy 0

Z =

0

0

Z = 0

Introducci´on a la Estad´ıstica

1

1



 3 1

y 6x 3

dx 0



 2 1

1 x 6x dx = 2 3 2

= 1. 0

Andr´es M. Alonso

21

Densidades marginales La densidad marginal de X es f (x) =

R

f (x, y) dy

La densidad marginal de X es f (x) =

R

f (x, y) dy

Ejemplo 6. Tenemos   3 1 y 2 f (x) = 6xy dy = 6x 3 0 0 = 2x para 0 < x < 1 Z

1

Igualmente, la densidad marginal de Y es Z

1

f (y) = 0

= 3y 2

Introducci´on a la Estad´ıstica

 2 1 x 6xy 2 dx = 6 y 2 2 0 para 0 < y < 1

Andr´es M. Alonso

22

Independencia Definici´ on 12. Se dicen que dos variables X e Y son independientes si F (x, y) = F (x)F (y), para todos los valores de x e y. I Para v.a. continuas independientes tenemos, equivalentemente, que f (x, y) = f (x)f (y) para todos los valores de x e y. Ejemplo 6. Observamos que f (x, y) = 6xy 2 = 2x × 3y 2 = f (x)f (y) Entonces, X e Y son independientes. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

23

Independencia y correlaci´ on Proposici´ on 4. Si X y Y son v.a. independientes, entonces Cov(X, Y ) = Corr(X, Y ) = 0. El resultado rec´ıproco no es cierto Ejemplo 7. Sea X una v.a. distribuida N (0, 1), e Y = X 2, entonces: E[X] = 0 E[Y ] = E[X 2] = 1 E[XY ] = E[X 3] = 0

por ser una distribuci´ on sim´etrica

Cov(X, Y ) = E[XY ] − E[X]E[Y ] = 0. Y, sin embargo, X e Y son claramente dependientes. Introducci´on a la Estad´ıstica

Andr´es M. Alonso

24

Tema 9. Variables aleatorias multidimensionales

Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia.

X

Media y matriz de varianzas y covarianzas. Media condicionada. Distribuci´ on normal multivariante.

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

25

Distribuci´ on normal multivariante Definici´ on 13. Una variable aleatoria multivariante X = (X1, X2, . . . , Xp)0 sigue una distribuci´ on normal multivariante si tiene como funci´ on de densidad a   1 1 0 −1 x) = x x − µ) , exp − f (x (x − µ ) Σ (x p/2 1/2 Σ| 2 (2π) |Σ donde µ = (µ1, µ2, . . . , µp)0, y 

σ12

 σ21 Σ=  .. σp1

σ12 · · · σ22 · · · .. ... σp2 · · ·



σ1p σ2p  ..  . σ 2p

µ, Σ ). I Si X tiene una distribuci´ on normal multivariante, se escribe X ∼ N (µ

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

26

Propiedades de la distribuci´ on normal multivariante 1. La funci´ on de densidad es sim´etrica alrededor de µ . X ] = µ. 2. La media del vector aleatorio X es µ , i.e., E [X 3. La matriz de varianzas y covarianzas del vector aleatorio X es Σ , i.e., X − µ)(X X − µ)0] = Σ . E [(X 4. Cualquier subconjunto de h variables univariantes del vector x , con h < p, sigue una distribuci´ on normal h-dimensional. En particular, las distribuciones marginales son normales univariantes. 5. Si definimos un vector Y = AY , donde A es una matriz de constantes reales de dimensi´ on k ×p, entonces Y sigue una distribuci´ on normal k-dimensional.

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

27

Propiedades de la distribuci´ on normal multivariante I Podemos completar la propiedad anterior con los siguientes resultados validos para vectores aleatorios cualesquiera: X] = µ y Sea X un vector aleatorio p-dimensional tal que E [X X − µ )(X X − µ )0] = Σ . Sea Y = AX , donde A es una matriz de E [(X constantes reales de dimensi´ on k × p entonces: Y ] = Aµ .  E [Y Y − Aµ )(Y Y − Aµ )0] = AΣA 0.  E [(Y I Re-escribimos la propiedad 5 como: 5. Si definimos un vector Y = AX , donde A es una matriz de constantes reales de dimensi´ on k ×p, entonces Y sigue una distribuci´ on normal k-dimensional, Aµ , AΣA 0). Nk (A

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

28

El siguiente gr´afico muestra la funci´ on de densidad conjunta de una distribuci´ on normal bivariante est´andar, con media µ = (0, 0)T y matriz de varianzas y covarianzas Σ = I.

0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 0 3 2

3

1

2 0

1 0

−1

−1

−2

−2 −3

Introducci´on a la Estad´ıstica

−3

Andr´es M. Alonso

29

Independencia y correlaci´ on bajo normalidad Proposici´ on 5. Si (X, Y ) es un vector aleatorio normal, y X e Y son incorrelados (Cov(X,Y) = 0) entonces X e Y son independientes. I Recordar que Independientes ⇒ Correlaci´ on = 0 Independientes : Correlaci´ on = 0 Independientes ⇐

Correlaci´ on = 0 + Normalidad

0 Ejemplo 8. Sea (X, Y ) un vector normal bivariante de media µ = (4, 6) y   2 1 2X−Y matriz de varianza y covarianzas Σ = . Sean Z = X+Y y T = 3 3 . 1 5 Compruebe que Z y T son independientes.

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

30

Ejemplo 9. (Junio/2002 modificado) Las calificaciones obtenidas en dos pruebas distintas A y B por los alumnos presentados a la Selectividad, son (¿in?)dependientes y siguen las distribuciones normales: NA(µ = 62; σ = 20), NB (µ = 52; σ = 10). La covarianza entre ellas es 100. La prueba se considera superada con 50 puntos. Calcular: (a) La probabilidad de que un alumno en la prueba A haya obtenido una puntuaci´ on menor que 40. X (b) La probabilidad que haya superado la prueba B. X (c) Si para el acceso a una Universidad se necesita que la media aritm´etica de las dos notas anteriores sea mayor que 70, ¿cu´al es la probabilidad de que un alumno escogido al azar pueda acceder a dicha Universidad?  Sea X la nota en la prueba A e Y la nota en la prueba B.  Sea T = X+Y 2 . Introducci´on a la Estad´ıstica

Andr´es M. Alonso

31

¿Qu´e sabemos?       X 62 400 100 ∼N ; . Y 52 100 100 y T

         X 62 400 100 0,5 = [0,5 0,5] ∼ N [0,5 0,5] ; [0,5 0,5] Y 52 100 100 0,5   √ ∼ N 57; 175 .

Por tanto, 



M − 57 70 − 57 √ > √ 175 175 ≈ Pr(Z > 0,98) = Pr(Z < −0,98) = 0,1635.

Pr(M > 70) = Pr

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

32

Recapitulaci´ on

Tema 9. Variables aleatorias multidimensionales Variables aleatorias multidimensionales. Distribuciones conjuntas, marginales y condicionales. Independencia. Media y matriz de varianzas y covarianzas. Media condicionada.

W Extensi´ on del concepto de variable aleatoria y su caracterizaci´ on.

Distribuci´ on normal multivariante.

W Extensi´ on multivariante de la distribuci´ on normal

Introducci´on a la Estad´ıstica

Andr´es M. Alonso

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.