Variable Estadística Bidimensional

Capítulo 2 Variable Estadística Bidimensional 2.1 Distribución de Frecuencias Bidimensional Sea una población de n individuos donde estudiamos, sim

11 downloads 44 Views 119KB Size

Story Transcript

Capítulo 2

Variable Estadística Bidimensional 2.1

Distribución de Frecuencias Bidimensional

Sea una población de n individuos donde estudiamos, simultáneamente, dos variables X e Y . Sean x1 , x2 , . . . , xk las modalidades de X e y1 , y2, . . . , yp las modalidades de Y . La distribución de frecuencias bidimensional de estas dos variables se presenta mediante una tabla de doble entrada

X\Y

y1

y2

...

yj

...

yp

ni.

x1

n11

n12

...

n1j

...

n1p

n1.

x2 .. .

n21 .. .

n22 .. .

...

n2j .. .

...

n2p .. .

n2. .. .

xi .. .

ni1 .. .

ni2 .. .

...

...

...

nij .. .

...

nip .. .

ni. .. .

xk

nk1

nk2

...

nkj

...

nkp

nk.

n.j

n.1

n.2

...

n.j

...

n.p

n

...

1

...

2

Variable Estadística Bidimensional

2.1.1

Frecuencias Absolutas

Se define la frecuencia absoluta correspondiente a la pareja de valores (xi , yj ) como nij = número de individuos que presenta la modalidad xi de X e yj de Y para i = 1, . . . , k, j = 1, . . . , p. Claramente, se verifica que n=

p k X X

nij

i=1 j=1

2.1.2

Frecuencias Relativas

Se define la frecuencia relativa correspondiente a la pareja de valores (xi , yj ) como fij =

proporción de individuos que presenta nij = n la modalidad xi de X e yj de Y

para i = 1, . . . , k, j = 1, . . . , p. Claramente, se verifica que 1=

p k X X

fij

i=1 j=1

2.2

Distribuciones Marginales

Las distribuciones marginales corresponden al estudio, por separado, de cada una de las dos variables que componen una variable estadística bidimensional. Cada distribución marginal será, por tanto, una distribución unidimensional y, consecuentemente, se le podrá aplicar cualquiera de los resultados estudiados en el Capítulo 2.

2.2.1

Distribución Marginal de X

Es la distribución de todas las observaciones de X independientemente de las de Y . Se obtiene sumando, para cada xi , las frecuencias correspondientes a todos los valores de

3

Distribuciones Marginales

Y , es decir X

ni.

fi.

x1

n1.

f1.

x2 .. .

n2. .. .

f2. .. .

xi .. .

ni. .. .

fi. .. .

xk

nk.

fk.

n

1

donde, para cada i = 1, . . . , k, ni. =

p X

nij = ni1 + ni2 + . . . + nip

j=1

se denomina Frecuencia Marginal Absoluta de xi , y p

ni. X = fi. = fij n j=1 se denomina Frecuencia Marginal Relativa de xi . Se verifica que k X

ni. = n,

i=1

k X

fi. = 1.

i=1

• Media Marginal de X x ¯=

k X i=1

fi. xi =

k 1 X ni. xi n i=1

• Varianza Marginal de X V ar (X) =

k X i=1

¯)2 = fi. (xi − x

k X i=1

¯2 fi. x2i − x

4

Variable Estadística Bidimensional

2.2.2

Distribución Marginal de Y

Es la distribución de todas las observaciones de Y independientemente de las de X, se obtiene sumando, para cada yj , las frecuencias correspondientes a todos los valores de X, es decir Y

n.j

f.j

y1

n.1

f.1

y2 .. .

n.2 .. .

f.2 .. .

yj .. .

n.j .. .

f.j .. .

yp

n.p

f.p

n

1

donde, para cada j = 1, . . . , p, n.j =

k X

nij = n1j + n2j + . . . + nkj

i=1

se denomina Frecuencia Marginal Absoluta de yj , y k X n.j = fij f.j = n i=1

se denomina Frecuencia Marginal Relativa de yj . Se verifica que

p X

n.j = n,

j=1

y¯ =

p X

j=1

V ar (Y ) =

f.j = 1.

j=1

• Media Marginal de Y

• Varianza Marginal de Y

p X

p X

j=1

f.j yj =

p 1 X n.j yj n j=1

f.j (yj − y¯)2 =

p X

j=1

f.j yj2 − y¯2

5

Distribuciones Condicionadas

2.3

Distribuciones Condicionadas

Las distribuciones condicionadas corresponden al estudio de una variable cuando la otra toma presenta, exactamente, un valor concreto. Cada distribución condicionada será, por tanto, una distribución unidimensional y, consecuentemente, se le podrá aplicar cualquiera de los resultados estudiados en el Capítulo 2.

2.3.1

Distribución Condicionada de X a Y = yj

Para cada j = 1, . . . , p fijo, la distribución de X condicionada a Y = yj es la distribución de la variable X restringida a los individuos que presentan modalidad yj de Y , es decir X/Y = yj

nji (j fijo)

fij = nji /n.j

x1

nj1 = n1j

f1j = nj1 /n.j

x2 .. .

nj2 = n2j .. .

f2j = nj2 /n.j .. .

xi .. .

nji = nij .. .

fij = nji /n.j .. .

xk

njk = nkj

fkj = njk /n.j

n.j

1

Observemos que existen p distribuciones condicionadas de X a Y (una para cada valor de Y ). • Media de X condicionada a Y = yj x ¯j =

k X

fij xi =

i=1

k 1 X nij xi n.j i=1

• Varianza de X condicionada a Y = yj V arj (X) =

k X i=1

¯j )2 = fij (xi − x

k X i=1

¯2j fij x2i − x

6

Variable Estadística Bidimensional

2.3.2

Distribución condicionada de Y a X = xi

Para cada i = 1, . . . , k fijo, la distribución de Y condicionada a X = xi es la distribución de la variable Y restringida a los individuos que presentan modalidad xi de X, es decir Y /X = xi

nij (i fijo)

fji = nij /ni.

y1

ni1 = ni1

f1i = ni1 /ni.

y2 .. .

ni2 = ni2 .. .

f2i = ni2 /ni. .. .

yj .. .

nij = nij .. .

fji = nij /ni. .. .

yp

nip = nip

fpi = nip /ni.

ni.

1

Observemos que existen k distribuciones condicionadas de Y a X (una para cada valor de X). • Media de Y condicionada a X = xi y¯i =

p X

j=1

fji yj

p 1 X = nij yj ni. j=1

• Varianza de Y condicionada a X = xi V ari (Y ) = Pp

i 2 j=1 fj yj

− y¯i2

Pp

i j=1 fj (yj

− y¯i )2 =

Se verifican las siguientes relaciones fij = fji · fi. = fij · f.j (la demostración queda propuesta). Observemos que sólo hemos considerado las distribuciones condicionadas de una variable cuando la otra presenta un valor fijado. Este estudio se puede generalizar al caso en que se condiciona, no a un único valor de la variable, sino a todo un conjunto de valores.

7

Independencia Estadística de Variables

2.4

Independencia Estadística de Variables

• Diremos que X es estadísticamente independiente de Y (o, simplemente, inde-

pendiente de Y ) si todas las distribuciones condicionadas X/Y = yj son iguales entre sí, para cualquier yj al que se condicione, es decir, X es independiente de Y

⇔ fij no depende de j

⇔ fi1 = fi2 = . . . = fip

En tal caso, las distribuciones condicionadas X/Y = yj coinciden con la marginal de X, es decir X es independiente de Y ⇔

fij

= fi.

para

½

i = 1, . . . , k j = 1, . . . , p

• Diremos que Y es estadísticamente independiente de X (o, simplemente, inde-

pendiente de X) si todas las distribuciones condicionadas Y /X = xi son iguales entre sí, para cualquier xi al que se condicione, es decir, Y es independiente de X ⇔ fji no depende de i

⇔ fj1 = fj2 = . . . = fjk

En tal caso, las distribuciones condicionadas Y /X = xi coinciden con la marginal de Y , es decir Y es independiente de X ⇔

fji

= f.j

para

½

i = 1, . . . , k j = 1, . . . , p

• Se puede demostrar que la independencia es recíproca, esto es, X es independiente de Y ⇔ Y es independiente de X Esto permite hablar de variables independientes entre sí (diremos, simplemente, que X e Y son independientes). • De las definiciones anteriores se deduce que X es independiente de Y ⇔ nij =

ni. · n.j ⇔ fij = fi. · f.j n

8

Variable Estadística Bidimensional

2.5

Dependencia Funcional de Variables

Cuando dos variables no son estadísticamente independientes, se dice que son estadísticamente dependientes. La dependencia estadística más fuerte es la llamada Dependencia Funcional. • Se dice que X depende funcionalmente de Y si a cada modalidad yj de Y corresponde una única modalidad de X (en cada columna de la tabla bidimensional hay un término, y sólo uno, diferente de cero). • Se dice que Y depende funcionalmente de X si a cada modalidad xi de X corre-

sponde una única modalidad de Y (en cada fila de la tabla bidimensional hay un término, y sólo uno, diferente de cero).

• En general, la dependencia funcional no es recíproca, como muestra el siguiente ejemplo:

2.6

X\Y

y1

y2

y3

y4

x1

4

0

7

0

x2

0

6

0

0

x3

0

0

0

9

  X depende funcionalmente de Y =⇒  Y NO depende funcionalmente de X

Covarianza

Se trata de una característica numérica conjunta bidimensional que indica el sentido en que crecen o decrecen las variables por término medio. Concretamente, si la covarianza es positiva, las dos variables varían en el mismo sentido (las dos crecen o las dos decrecen) y, si es negativa, las variables varían en sentido opuesto (una crece cuando la otra decrece y viceversa). La covarianza de dos variables, X e Y , se define como Cov (X, Y ) = σXY

p k X X

p

k X 1X ¯) (yj − y¯) = ¯y¯ = fij (xi − x nij xi yj − x n i=1 j=1 i=1 j=1

Se dice que X e Y son incorreladas si su covarianza es nula, esto es X e Y son incorreladas ⇔ Cov (X, Y ) = 0

Representaciones Gráficas

9

Se tiene la siguiente relación INDEPENDENCIA =⇒ 6⇐= INCORRELACIÓN es decir, si dos variables son independientes, entonces son incorreladas (demuéstrese), pero si las variables son incorreladas, no se puede afirmar nada sobre su dependencia o independencia estadística.

2.7

Representaciones Gráficas Como las distribuciones condicionadas y marginales son unidimensionales, todos

los gráficos estudiados en el Capítulo 1 son aplicables a dichas distribuciones. En las distribuciones bidimensionales se suelen emplear los siguientes gráficos:

2.7.1

Diagrama de Dispersión o Nube de Puntos

Consiste en representar los pares de puntos (xi , yj ) en el plano junto con su correspondiente frecuencia absoluta conjunta nij .

2.7.2

Estereograma o Histograma Tridimensional

Se trata de un gráfico en tres dimensiones donde un eje corresponde a la variable X, otro a la variable Y y el tercero a las frecuencia absoluta conjunta. Si las variables son discretas, el estereograma estará compuesto por barras (diagrama de barras tridimensional); si las variables son continuas, el estereograma estará formado por paralelepípedos (histograma tridimensional) cuyos respectivos volúmenes son proporcionales a las correspondientes frecuencias absolutas conjuntas.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.