Story Transcript
06 – Variables aleatorias conjuntas
Contenido ●
●
●
Diego Andrés Alvarez Marín Profesor Asistente Universidad Nacional de Colombia Sede Manizales
Variables aleatorias conjuntas Funciones de masa de probabilidad conjunta, marginal, condicional, independencia Funciones de densidad de probabilidad marginal, condicional, independencia
●
FMP multinomial, FDP normal multivariada
●
Funciones de distribución acumulada conjuntas
●
Covarianza, correlación
●
Introducción a la teoría de cópulas
conjunta,
1
Objetivo
2
Variables aleatorias conjuntas
Conocer el concepto de variable aleatoria conjunta y analizar el comportamiento probabilista conjunto e individualmente de las variables a través de su FMP/FDP e indentificar relaciones de dependencia entre dichas variables.
Espacio muestral En muchos casos es necesario estudiar dos o más características de un experimento
Ω = {11,12,13,14,15,16 21,22,23,24,25,26 31,32,33,34,35,36 41,42,43,44,45,46 51,52,53,54,55,56 61,62,63,64,65,66}
X1 = Resultado del lanzamiento X2 = La suma de los resultados del lanzamiento 3
4
Variables aleatorias conjuntas Espacio muestral
Función de masa de probabilidad conjunta
Ω = {11,12,13,14,15,16 21,22,23,24,25,26 31,32,33,34,35,36 41,42,43,44,45,46 51,52,53,54,55,56 61,62,63,64,65,66}
X1 = Resultado del lanzamiento
X2 = La suma de los resultados del lanzamiento 5
Función de masa de probabilidad conjunta
x2\x1
1
2
3
4
5
6
2
1/36
0
0
0
0
0
3
1/36 1/36
0
0
0
0
4
1/36 1/36 1/36
0
0
0
5
1/36 1/36 1/36 1/36
0
0
6
1/36 1/36 1/36 1/36 1/36
7
1/36 1/36 1/36 1/36 1/36 1/36
8
0
9
0
0
10
0
0
0
11
0
0
0
0
12
0
0
0
0
0
1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 0
1/36 6
Propiedades de la función de masa de probabilidad conjunta bidimensional
7
8
Propiedades de la función de masa de probabilidad conjunta
Ejemplo 1: FMP conjunta
9
Graficando FMP conjuntas en MATLAB ● ●
10
Función de masa de probabilidades marginal
stem3 hist3
11
x2\x1
1
2
3
4
5
6
pX2(x2)
2
1/36
0
0
0
0
0
1/36
3
1/36 1/36
0
0
0
0
2/36
4
1/36 1/36 1/36
0
0
0
3/36
5
1/36 1/36 1/36 1/36
0
0
4/36
6
1/36 1/36 1/36 1/36 1/36
0
5/36
7
1/36 1/36 1/36 1/36 1/36 1/36
8
0
1/36 1/36 1/36 1/36 1/36
9
0
0
10
0
0
0
11
0
0
0
0
12
0
0
0
0
1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 0
1/36
pX1(x1) 6/36 6/36 6/36 6/36 6/36 6/36
6/36 5/36 4/36 3/36 2/36 1/36 12
1
Función de masa de probabilidades marginal Si en un experimento aleatorio se define más de una variable aleatoria, entonces es importante distinguir entre la FMP conjunta de X y de Y y la FMP de cada una de las variables por separado.
Propiedades de la FMP marginal La FMP marginal es una FMP común y corriente, por lo tanto cumple las siguientes propiedades:
En general, la FMP marginal de X puede hallase a partir de la FMP conjunta así:
13
Función de masa de probabilidades marginal
15
14
Ejemplo: FMP marginal
16
Definición general de FMP marginal
Solución con MATLAB ●
sum(p,1)
●
sum(p,2)
●
sum(p,3)
17
18
Ejemplo: FMP marginal
Solución con MATLAB ●
19
sum(sum(sum(p, 1), 2), 3)
20
FMP condicional
FMP condicional
Cuando en un experimento aleatorio se definen dos o más variables aleatorias, el conocimiento de una puede cambiar las probabilidades que se asocian con los valores de la otra. En el ejemplo del dado, cuando se sabe que X=6, se tiene que la suma de ambos dados tiene que ser un número entre 7 y 12. Recuerde que la definición de probabilidad condicional para los eventos A y B es P(B|A) = P(A∩B)/P(B). Esta definición puede aplicarse a los eventos A y B definidos como X=x y Y=y 21 respectivamente.
Propiedades de la FMP condicional
23
22
Ejemplo FMP condicional
24
FDP condicional
Ejemplo: FMP condicional
25
Media y varianza condicional
26
Media y varianza condicional
Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x, el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. Por lo tanto, si se sabe que X=x0, el valor pronosticado para Y estará dado por la media condicional de Y dado X=x0 27
28
Ejemplo media y varianza condicional
Independencia ●
●
En algunos experimentos aleatorios, el conocimiento de valores de X no cambia ninguna de las probabilidades asociadas con los valores de Y. Considere por ejemplo las variables aleatorias X y Y que denotan respectivamente el fy del acero y la velocidad del viento que afectan una estructura.
29
Independencia
30
Independencia
31
32
Independencia
Ejemplo independencia de FMPs
33
FMP categórica
34
Ejemplo FMP categórica
35
36
FMP categórica
Ejemplo FMP categórica
37
FMP multinomial
38
FMP multinomial
39
40
FMP multinomial
Ejemplo FMP multinomial
41
42
FMP multinomial
FMP multinomial en MATLAB ●
43
mnpdf
44
Propiedades de la FMP multinomial ●
Función de densidad de probabilidades conjunta
http://en.wikipedia.org/wiki/Multinomial_distribut ion
45
Propiedades de la FDP conjunta bivariada
46
Propiedades de la FDP conjunta
47
48
Ejemplo FDP conjunta
Ejemplo FDP conjunta
49
Función de densidad de probabilidades marginal
50
Ejemplo: FDP marginal Suponiendo que la alimentación de los atletas que practican determinado deporte, esta dada por la función
Donde X representa la cantidad de proteínas y Y la cantidad de minerales que debe consumir un atleta. Determinar las funciones marginales de probabilidad 51
52
Definición general de FDP marginal
Ejemplo: FDP marginal
53
Ejemplo FDP marginal
54
FDP condicional
55
56
Propiedades de la FDP condicional
Ejemplo FDP condicional
57
FDP condicional
58
Media y varianza condicional Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x, el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. Por lo tanto, si se sabe que X=x0, el valor pronosticado para Y estará dado por la media condicional de Y dado X=x0 59
60
Media y varianza condicional
Ejemplo media y varianza condicional
61
62
63
64
Independencia
Independencia
65
Independencia
66
Ejemplo independencia de FDPs
67
68
69
70
Función de distribución acumulada conjunta
71
72
Propiedades de las FDAs conjuntas
Relación entre las FDAs y FDPs conjuntas En el caso continuo, la densidad de probabilidad fXY(x,y) se obtiene derivando la función de probabilidad con respecto a sus argumentos:
73
El teorema de Bayes
74
Valor esperado
75
76
77
78
79
80
81
82
83
84
x
85
La mediana en varias dimensiones: el punto central (centerpoint)
86
Momentos para FDPs bivariadas
La mediana se puede generalizar a datos en dos o más dimensiones. Dado un conjunto de puntos, cualquier hiperplano que contiene el punto central, divide a los puntos en dos partes aproximadamente iguales: la parte más pequeña debe tener a lo más 100/(d+1) por ciento de los puntos. Al igual que la media, el punto central no necesita ser uno de los puntos. Ver http://en.wikipedia.org/wiki/Centerpoint_(geometry) 87
88
Valor esperado e independencia
Covarianza La covarianza es una medida de como dos variables aleatorias cambian juntas.
Se cumple que:
89
Dado un conjunto de números, la covarianza se puede estimar como:
Otra manera de calcular la covarianza es
El cálculo a través de esta fórmula es mucho más rápido, ya que no se tiene que restar las medias de todos los datos.
NOTA: en ocasiones se utiliza como denominador . En este caso se suele denominar la cuasi-covarianza.
Ejemplo covarianza ● ●
●
Ejemplo 2 covarianza
FALTA PONER MUCHOS DATOS Y HACER GRAFICO. INTERPRETAR EL SIGNO DE LA COVARIANZA Conclusión: La covarianza es positiva si existe una relación (lineal) creciente y negativa si existe una relación decreciente.
Notas sobre la covarianza La covarianza es una medida de la variabilidad conjunta de dos variables aleatorias X e Y. De esta forma, la covarianza es una medida de asociación entre los valores de X y de Y y sus respectivas dispersiones. Si por ejemplo, se tiene una alta probabilidad de que valores positivos de X se encuentren asociados con valores positivos de Y, la covarianza será positiva. Por otro lado, si exite una alta probabilidad de que valores postivos de X se encuentren asociados con valores negativos de Y o viceversa, la covarianza será negativa.
Matriz de covarianza Si los elementos del vector columna Son variables aleatorias, cada una con varianza finita, entonces, la matriz de covarianza Σ es la matriz cuyo elemento es la covarianza Donde es el valor esperado de el elemento i del vector X
Matriz de covarianza
Ejemplo matriz de covarianza
Es decir,
En otras palabras,
Covarianza en MATLAB ●
La matriz de covarianza se calcula con el comando cov
Covarianza en MS EXCEL En MS EXCEL se calcula con el comando COVAR
●
●
●
●
La covarianza es una medida de la asociación lineal entre las variables aleatorias Si la relación entre las variables aleatorias no es lineal, la covarianza podría ser no sensible a la relación
●
●
Si cov(X,Y) > 0 hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y. Si cov(X,Y) = 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas; en este caso se dice que las variables son no correlacionadas. Si cov(X,Y) < 0 hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.
Sus dimensiones son: dimensión de X por dimensión de Y
Covarianza e independencia Si X y Y son variables aleatorias independientes,
Lo contrario no es en general verdadero.
Propiedades de la covarianza ●
Si X, Y, W y V son variables aleatorias reales y a, b, c y d son constantes, entonces:
●
●
Para secuencias y de variables aleatorias, se tiene que:
Para una secuencia de variables aleatorias, y constantes se tiene que para su combinación lineal:
106
Propiedades de la matriz de covarianza
107
Coeficiente de correlación ●
●
●
La correlación indica la fuerza y dirección de una relación lineal entre dos variables aleatorias. Esto se debe contrastar con el uso coloquial en el lenguaje, que denota cualquier relación, no necesariamente lineal.
●
Existen varios coeficientes que miden el grado de correlación: Pearson, Spearman, Kendall. ●
Coeficiente de correlación de Pearson
Observe que la correlación refleja la cantidad de ruido y dirección de una relación lineal (arriba), pero no la pendiente (medio) ni tampoco relaciones no lineales (abajo). Nota: la figura en el centro tiene una correlación 0 porque var(Y)=0 (Y es constante)
Coeficiente de correlación: motivación Si por ejemplo las unidades de la variable X son centimetros y las unidades de la variable Y son gramos, entonces las unidades de la covarianza son cm×g y si cambiamos la escala de las variables, cambia la covarianza. Esto hace que el valor de la covarianza sea difícil de interpretar. Una medida normalizada es la correlación.
Nota: a pesar de su nombre, fue introducida por Francis Galton en 1880
Propiedades de la correlación ●
●
●
EJEMPLO COEF CORREL
Si dos variables aleatorias X y Y son independientes, entonces su correlación es 0. Lo contrario no siempre es verdad. El coeficiente de correlación es una cantidad adimensional que toma un valor entre -1 y 1. Si no existe una relación lineal entre las variables, el coeficiente de correlación es aproximadamente cero.
Correlación en MATLAB
Correlación en MS EXCEL ●
PEARSON Devuelve el coeficiente de correlación producto o momento r de Pearson, r, un índice adimensional acotado entre -1,0 y 1,0 que refleja el grado de dependencia lineal entre dos conjuntos de datos.
Correlación en MS EXCEL
Correlación en MS EXCEL ● ●
COEFICIENTE.R2 Devuelve el cuadrado del coeficiente de correlación de momento del producto Pearson mediante los puntos de datos de X y Y. El valor R cuadrado puede interpretarse como la proporción de la varianza de Y que puede atribuirse a la varianza de X.
COEF.DE.CORREL: devuelve el coeficiente de correlación entre dos rangos de celdas definidos por los argumentos matriz1 y matriz2.
Observe que ambas funciones retornan los mismos valores
●
●
Dada la FPD mostrada, calcule la correlación y el coeficiente de variación de las variables aleatorias X y Y:
El problema será solucionado en MAXIMA
Cum hoc ergo propter hoc ("juntamente con esto, luego a consecuencia de esto")
●
La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad ●
http://xkcd.com/552/
Se ha observado que en los últimos 300 años el número de piratas ha decrecido, sin embargo, ha habido un incremento en el calentamiento global. Conclusión (errónea): el calentamiento global es causado por la disminución de piratas.
●
●
●
Una investigación científica concluye que la gente que usa cannabis (A) tiene un mayor riesgo de desarrollar una enfermedad psiquiátrica. (B) Esta correlación es a veces empleada para apoyar la teoría de que el uso de cannabis causa una enfermedad psiquiátrica (A es la causa de B). A pesar de que esto podría ser verdad, no podemos automáticamente percibir una relación causa-efecto de un estudio que sólo ha mostrado que aquellos que usan cannabis son más propensos a tener enfermedades psiquiátricas. De este mismo estudio se puede concluir que –
tener una predisposición a una enfermedad psiquiátrica causa el uso de cannabis (B causa A), o
–
que un tercer factor (por ejemplo, la pobreza) es la verdadera causa de haber encontrado un gran número de gente (comparado con el público en general) que usa cannabis y sufre un desorden mental.
Asumir que A causa B es tentador, pero se necesita otra investigación científica que pueda aislar extrañas variables cuando la actual sólo ha determinado una correlación estadística.
Los niños que duermen con la luz encendida son más propensos a desarrollar miopía en la edad adulta. Ésta fue la conclusión de un estudio del centro médico de la Universidad de Pensilvania, publicada el 13 de mayo de 1999 en la revista Nature, y que tuvo gran repercusión en la prensa de la época. Sin embargo, un posterior estudio de la Universidad Estatal de Ohio no encontró ningún enlace entre el hecho de que niños durmiendo con la luz encendida y el desarrollo de miopía, pero sí que encontró una fuerte relación entre la miopía parental y el desarrollo en los niños de este defecto, y también observó que los padres miopes tenían una mayor tendencia a dejar las luces encendidas en las habitaciones de sus hijos
FPD normal multivariada
FDP normal bivariada
FDP normal bivariada. Influencia del parámetro ρXY
FDA normal bivariada
EJEMPLO FDP NORMAL ●
Insertar los programas de MATLAB con los que se hicieron los gráficos anteriores.
EJEMPLO 2
●
FALTA
●
USAR MATLAB MVNPDF y MVNCDF
Notas con respecto a la FDP normal multivariada
COPULAS
Teorema de Sklar
Una cópula es una FDA multivariada, Tal que todas sus funciones de distribución marginal son uniformes en el intervalo [0,1].
Funciones relaciones con cópulas en MATLAB
EJEMPLO
●
copulacdf
●
http://en.wikipedia.org/wiki/Joint_probability_distributio
●
copulapdf
●
http://en.wikipedia.org/wiki/Marginal_distribution
●
copularnd
●
http://en.wikipedia.org/wiki/Conditional_distribution
●
copulastat
●
●
copulaparam
●
copulademo