Unidad III Variables Aleatorias Unidimensionales

Unidad III Variables Aleatorias Unidimensionales 3.1. EL CONCEPTO DE VARIABLE ALEATORIA En el capítulo anterior se examinaron los conceptos básicos de

1 downloads 162 Views 154KB Size

Story Transcript

Unidad III Variables Aleatorias Unidimensionales 3.1. EL CONCEPTO DE VARIABLE ALEATORIA En el capítulo anterior se examinaron los conceptos básicos de probabilidad con respecto a eventos que se encuentran en un espacio muestral. Los experimentos conciben de modo que los resultados del espacio muestral son cualitativos o cuantitativos. Ejemplos de resultados cualitativos: a) el lanzamiento de una moneda arroja “cara” o “sello”, b) un producto manufacturado puede ser “defectuoso” o “no defectuoso”, c) una persona puede preferir el perfume A o B. Puede ser útil la cuantificación de los resultados cualitativos de un espacio muestral y, mediante el empleo de medidas numéricas, estudiar su comportamiento aleatorio. El concepto de variable aleatoria proporciona un medio para relacionar cualquier resultado con una medida cuantitativa. Una variable aleatoria es una función de valor real cuyo dominio es un espacio muestral. Ejemplo 1: Supongamos el lanzamiento de una moneda, los estados posibles son “cara” o “sello”; su espacio muestral Ω = {“cara” , “sello”}. Sea X(sello) = 0, y X(cara) = 1, de esta manera transformamos los dos resultados posibles del espacio muestral en puntos sobre la recta de los reales. Por P(X = 0) se entenderá la probabilidad de que la variable aleatoria X tome el valor 0; de manera equivalente, la probabilidad de que caiga sello cuando se lance la moneda. Ejemplo 2: Consideremos el lanzamiento de dos dados equilibrados, el espacio muestral contiene 36 resultado posibles, tal como se muestra en la tabla. Sea la variable aleatoria X la suma de los valores de los dos dados. La tabla siguiente muestra el espacio muestral, el valor de la variable aleatoria y su probabilidad: Espacio muestral (1, 1) (1, 2), (2, 1) (1, 3), (2, 2), (3, 1) (1, 4), (2, 3), (3, 2), (4, 1) (1, 5), (2, 4), (3, 3), (4, 2), (5, 1) (1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1) (2, 6), (3, 5), (4, 4), (5, 3), (6, 2) (3, 6), (4, 5), (5, 4), (6, 3) (4, 6), (5, 5), (6, 4) (5, 6), (6, 5) (6, 6)

Variable aleatoria X 2 3 4 5 6 7 8 9 10 11 12

La naturaleza probabilística de la variable aleatoria X, suma de caras de dos dados, puede observarse al graficar cada valor de X con su respectiva probabilidad

Frecuencia 1 2 3 4 5 6 5 4 3 2 1

Distribución de Probabilidades para X (suma de caras de dos dados)

1/6

0,18 0,16

5/36

5/36

0,14

Probabilidad

Las variables aleatorias se representan mediante mayúsculas, ejemplos X, Y y Z. Los valores numéricos reales que puede asumir una variable aleatoria se representarán mediante minúsculas, ejemplos, x, y y z. Se puede decir “la probabilidad de que X tome el valor x”, y se denota como P(X = x) o p(x).

Probabilidad 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

1/9

0,12 0,10

1/9

1/12

0,08

1/12

1/18

1/18

0,06 0,04

1/36

1/36

0,02 0,00 2

3

4

5

6

7

8

9

10

11

12

x

En el ejemplo del lanzamiento de la moneda, la variable aleatoria X sólo tiene 2 valores posibles; es sencillo determinar las probabilidades de esos valores (P(X = 1) = ½. A una variable aleatoria con esas características se le llama discreta.

Se dice que una variable aleatoria X es discreta si puede tomar sólo un número finito, o infinito numerable, de valores posibles x. En este caso, ¾ P(X = x) = p(x) ≥ 0. ¾ ∑ x P(X = x) = 1, siendo la sumatoria con respecto a todos los valores posibles de x A la función p(x) se le llama función de probabilidad de X.

3.2.

Distribución de Probabilidad de variables aleatorias discretas. La función de distribución acumulativa de la variable aleatoria X es la probabilidad de que X sea menor o igual a un valor específico de x, y está dada por: F(x) = P(X ≤ x) = ∑ p(xi) ≥ 0 x i≤ x

El termino más general Distribución de Probabilidad, se refiere a la colección de valores de la variable aleatoria, a la función de probabilidad, y también a la existencia de la función de distribución acumulada de X, F(x). Por lo tanto, en el caso discreto, una variable aleatoria X está caracterizada por la función de probabilidad p(x), la cual determina la probabilidad puntual de que X = x, y por la función distribución acumulativa F(x), la que representa la suma de las probabilidades puntuales hasta el valor x de X inclusive. Ejemplo 3: Consideremos de nuevo el lanzamiento de dos dados. Si X es la variable aleatoria que representa la suma de las dos caras, la función de probabilidad de X es

p(x) =

6 - |7 – x| 36 0

x = 2, 3, ....., 12 para cualquier otro valor.

Esta función permite determinar las probabilidades para los valores de X, que se resumen en la tabla del ejemplo 2. Además, puede evaluarse la función de distribución acumulativa de X de la siguiente forma: F( 1) = P(X ≤ 1) = 0 F( 2) = P(X ≤ 2) = 1/36 F( 3) = P(X ≤ 3) = 3/36 F( 4) = P(X ≤ 4) = 6/36 ............... F(11) = P(X ≤ 11) = 35/36 F(12) = P(X ≤ 12) = 1

Además, P(X > 7) = 1 – P(X ≤ 7) = 1 – F(7) = 15/36 P( 5 ≤ X ≤ 9) = P(X ≤ 9) – P(X ≤ 4) = F(9) – F(4) = 24/36

En general, la función de distribución acumulativa F(X) de una variable aleatoria discreta es una función no decreciente de los valores de X, de tal manera que:

1. 0 ≤ F(x) ≤ 1, para cualquier x 2. F( xi ) ≥ F( xj ), si xi ≥ xj 3. P(X > x) = 1 – F(x) Además puede establecerse que para variables aleatorias de valor entero se tiene: 4. P(X = x) = F(x) – F(x – 1) 5. P(xi ≤ X ≤ xj ) = F( xi ) – F( xi – 1)

3.3.

Distribución de Probabilidad de variables aleatorias continuas.

En el caso discreto, se asignan probabilidades positivas a todos los valores puntuales de la variable aleatoria, pero la suma de todas ellas es uno aún a pesar de que el conjunto sea infinito numerable; para el caso continuo, lo anterior no es posible, la probabilidad de que una variable aleatoria continua X tome un valor específico x es cero. La distribución de probabilidad de una variable aleatoria continua X está caracterizada por una función f(x) que recibe el nombre de función de densidad de probabilidad. Como la probabilidad de que X tome un valor específico es cero, la función permite determinar la probabilidad de un intervalo a ≤ X ≤ b. Se dice que una variable aleatoria X es continua si puede tomar un número infinito de valores posibles asociados con intervalos de números reales, y hay una función f(x), llamada la función de densidad de probabilidad, tal que: ¾ f(x) ≥ 0, para todo x ∞ ¾ ∫ f(x) dx = 1 -∞ b ¾ P(a ≤ X ≤ b) = ∫ f(x) dx a

f(x)

a

b

x

La probabilidad P(a ≤ X ≤ b) representa el área bajo f(x) en el intervalo [a, b], y el área total bajo f(x) es uno. Al igual que en el caso discreto, la función de distribución acumulativa de una variable aleatoria continua X es la probabilidad de que X tome un valor menor o igual a algún a específico. Esto es, a

P( X ≤ a) = F(a) = ∫ f(x) dx -∝

f(x)

a

x

Dado que para cualquier variable aleatoria continua X, P(X = x) = 0, entonces P(X ≤ x) = P( X < x ) = F(x) Ejemplo 4: la variable aleatoria X representa el intervalo de tiempo entre dos llegadas consecutivas a una tienda y su función de densidad de probabilidad está dada por: k e– x/2

x>0

f(x) = 0

para cualquier otro valor

Determine k, ¿Cuál es la probabilidad de que el tiempo esté entre 2 y 6 minutos?. ¿Cuál es la probabilidad de que transcurran menos de 8 minutos?, ¿Cuál es la probabilidad de que transcurran mas de 8 minutos?. Ejemplo 5: la variable aleatoria que representa la proporción de accidentes automovilísticos fatales tiene la siguiente función de densidad: 42x(1 – x)5 f(x) = 0

0≤ x ≤ 1

para cualquier otro valor

¿Cuál es la probabilidad de que no más del 25% de los accidentes automovilísticos sean fatales?. En otras palabras, ¿cuál es P(X ≤ 0.25) ?

3.4.

Valor esperado de una variable aleatoria.

La probabilidad la podemos interpretar como la frecuencia relativa a largo plazo de que suceda un evento, la distribución de probabilidades entonces es la frecuencia relativa a largo plazo de los resultados numéricos asociados con un experimento. En relación con lo anterior, podemos considerar el valor promedio de una variable aleatoria después de un número grande de experimentos como su valor esperado. El valor esperado ( o esperanza) de una variable aleatoria es un concepto muy importante en el estudio de las distribuciones de probabilidades. Este término tiene sus orígenes en los juegos de azar, debido a que los apostadores deseaban saber cuál era su esperanza de ganar repetidamente un juego, en este sentido, el valor esperado representa la cantidad de dinero promedio que el jugador está dispuesto a ganar o perder después de un número grande de apuestas.

Ejemplo 6: supóngase que se tiene una moneda normal y el jugador tiene tres oportunidades para que al lanzarla aparezca una “cara”. El juego termina en el momento en el que cae una “cara” o después de tres intentos, lo que suceda primero. Si en el primero, segundo o tercer lanzamiento aparece “cara” el jugador recibe $2, $4, y $8 respectivamente. Si no cae “cara” en ninguno de los tres lanzamientos, pierde $20. Sea X la variable aleatoria que representa la cantidad que se gana o se pierde cada vez que se juega. Después de un número grande de juegos se espera ganar $2 en uno de dos juegos, $4 en cualesquiera de cuatro juegos, $8 en uno de cada 8 juegos, y se espera perder $20 una vez cada 8 juegos. El valor esperado, o la cantidad promedio que se ganaría en cada juego después de un numero grande de intentos, se determina multiplicando cada cantidad que se gana/pierde por su respectiva probabilidad y sumando los resultados. De acuerdo con esto, la esperanza de ganar es $2 * (1/2) + $4 * (1/4) + $8 * (1/8) + (-$20)*(1/8) = $0.50 por juego. El valor esperado de una variable aleatoria X es el promedio o valor medio de X, está dado por: ¾ E [X] = ∑ x p(x)

y

si x es discreta ∞ si x es continua

¾ E[X] = ∫ x f(x) dx -∞ en donde p(x) y f(x) son las funciones de probabilidad y de densidad de probabilidad, respectivamente. Ejemplo 7: sea la variable aleatoria X, definida en el ejemplo 2 (la suma en el lanzamiento de dos dados), compruebe que E[X] = 7. Ejemplo 8: para el ejemplo 5, determinar el valor esperado de la proporción de accidentes fatales. En general, el valor esperado de una función g(x) de la variable aleatoria X, está dado por: ¾ E [g(X)] = ∑ g(x) p(x) ∞ ¾ E[g(X)] = ∫ g(x) f(x) dx -∞

si x es discreta si x es continua

Ejemplo 9: suponga que el tiempo necesario para reparar una pieza de equipo, en un proceso de manufactura, es una variable aleatoria cuya función de densidad de probabilidad es:

1/5 e – x/5

x>0

f(x) = 0

para cualquier otro valor

si la pérdida de dinero es igual al cuadrado del número de horas necesario para llevar a cabo la reparación, se debe determinar el valor esperado de las pérdidas por reparación. En este caso es necesario calcular el valor esperado de una función que se encuentra relacionada con la variable aleatoria (el tiempo de reparación). Esta función es: g(x) = x2,

La esperanza de una variable aleatoria X no es una función de X sino un número fijo y una propiedad de la distribución de probabilidad de X. Por otra parte, el valor esperado puede no existir dependiendo de si la correspondiente suma o integral no converge en un valor finito. Ejemplo 10: Un inversionista dispone de $100.000 para una inversión de un año. El inversionista está considerando dos opciones: colocar el dinero en el mercado de valores, lo que le garantiza una ganancia anual fija del 15% y un plan de inversión cuya ganancia anual puede considerarse como una variable aleatoria cuyos valores dependen de las condiciones económicas que prevalezcan. Basándose en la historia pasada del segundo plan, un analista muy confiable ha determinado los posibles valores de la ganancia y calculado sus probabilidades, de acuerdo a la tabla. Ganancia (%) 30 25 20 15 10 5

Probabilidad 0.20 0.20 0.30 0.15 0.10 0.05

Con base en la ganancia esperada, ¿cuál de los dos planes debe seleccionarse?. Propiedades. ¾ E[c] = c, donde c es una constante. ¾ E[aX + b] = aE[X] + b, donde a, b constantes. ¾ E[g(X) + h(X)] = E[g(X)] + E[h(X)]

3.5.

Momentos de una variable aleatoria.

Los momentos de una variable aleatoria X, son los valores esperados de ciertas funciones de X. Estos forman una colección de medidas descriptivas que pueden emplearse para caracterizar la distribución de probabilidad de X y especificarlas si todos los momentos de X son conocidos. Los momentos pueden definirse alrededor de cualquier punto de referencia, pero generalmente se definen alrededor del cero o del valor esperado de X. Sea X una variable aleatoria. El r-ésimo momento de X alrededor del cero se define por: ¾ µ ’ r = E [X r] = ∑ x x r p(x) si x es discreta ∞ ¾ µ ’ r = E [X r] = ∫ x r f(x) dx si x es continua -∞

El primer momento alrededor de cero es la media o valor esperado de la variable aleatoria X y se denota por µ ; de esta manera se tiene que µ = µ ’ 1 = E [X]. Sea X una variable aleatoria. El r-ésimo momento central o momento alrededor de la media de X, se define por: ¾ µ r = E [X – µ ] r = ∑ x (x – µ ) r p(x) si X es discreta ∞ ¾ µ r = E [X – µ ] r = ∫ (x – µ ) r f(x) dx si X es continua -∞

Veamos que ocurre con los primeros momentos centrales de cualquier variable aleatoria:

µ 0 = E [X – µ ] 0 = E[1] = 1 µ 1 = E [X – µ ] 1 = E[X] – µ = 0 µ 2 = E [X – µ ] 2 = Var[X] = µ ’2 – µ 2 = σ

2

que corresponde a la Varianza de la variable aleatoria. Tal como se muestra, se puede calcular como el segundo momento alrededor del origen menos el cuadrado de la media. Tal como hemos visto, la varianza mide el grado de dispersión de la distribución, esto es, si la mayor parte del área por debajo de la curva de distribución se encuentra cercana a la media, la varianza es pequeña; si la mayor parte del área se encuentra muy dispersa alrededor de la media, la varianza será grande. Sabemos que la raíz cuadrada positiva de la varianza recibe el nombre de desviación estándar σ , y también permite medir el grado de dispersión de los datos, además está expresado en la misma escala de los datos originales. Otra medida que permite comparar loa dispersión relativa de dos distribuciones de probabilidad es el coeficiente de variación, que está definido por: CV = σ /µ Este coeficiente expresa la magnitud de la dispersión de una variable aleatoria con respecto a su valor esperado, el CV es una medida estandarizada de la variación con respecto a la media, especialmente útil para comparar dos distribuciones de probabilidad cuando la escala de medición difiere de manera apreciable entre éstas. Ejemplo 11: Supongamos las variables aleatorias X e Y, que tienen los siguientes parámetros: E(X) = 120, Var(X) = 36; E(Y) = 40, Var(Y) = 16 A pesar de que la dispersión de X es más grande que la de Y en un sentido absoluto (Var(X) = 120 > Var(Y) = 16); la dispersión relativa de X es menor que la dispersión relativa de Y, puesto que CVX = 0.05 < CVX = 0.10. De la misma manera podemos analizar los momentos centrales de orden superior de una variable aleatoria. El tercer momento central µ 3 = E [X – µ ] 3 está relacionado con la asimetría de la distribución de probabilidad de X. A partir del desarrollo del binomio, podemos encontrar que el término de la asimetría es: µ 3 = µ ’ 3 – 3 µ µ ’2 + 2 µ 3 entonces, si µ 3 < 0, se dice que la distribución es asimétrica negativa, si µ 3 > 0, se dice que la distribución es asimétrica positiva, y si µ 3 = 0, la distribución es simétrica. Este estadígrafo presenta dos problemas: a) permite analizar la distribuciones unimodales; b) depende de las unidades en las que se mide la variable3/2aleatoria X, en este caso se recomienda utilizar el tercer momento estandarizado, α 3 = µ 3 /(µ 2) que recibe el nombre de coeficiente de asimetría.

α

3

> 0 Asimetría positiva α

3

< 0 Asimetría positiva

α

3

= 0 Simétrica

El cuarto momento central µ 4 = E [X – µ ] 4 = µ ’ 4 – 4 µ µ ’3 + 6µ 2µ ’ 2 – 3 µ 4 es una medida de que tan puntiaguda es la distribución de probabilidad y recibe el nombre de curtosis. Al igual que en el caso del tercer momento es preferible utilizar la estandarización: α 4 = µ 4 /µ 22 si α 4 > 3, la distribución de probabilidad presenta un máximo relativamente alto y recibe el nombre de leptocúrtica; si α 4 < 3, la distribución es relativamente plana y recibe el nombre de platicúrtic,; y si α 4 = 3, la distribución no presenta un máximo ni muy alto ni muy plano y recibe el nombre de mesocúrtica.

α 4 > 3 leptocúrtica mesocúrtica

α

4

α

< 3 platicúrtica

4

=

3

el valor de 3 se utiliza como una referencia debido a que en la práctica la curtosis estandarizada de una distribución de probabilidad se compara con la de una distribución normal, cuyo valor es tres. Ejemplo 12. Dos vendedores de seguro de vida, A y B, visitan de 8 a 12 clientes potenciales por semana, respectivamente. Sean X e Y dos variables aleatorias que representan el número de seguros vendidos por A y B, como resultado de las visitas. Basándose en una gran cantidad de información pasada, las probabilidades para los valores de X e Y son: x 0 1 2 3 4 5 6 7 p(x) 0.02 0.09 0.21 0.28 0.23 0.12 0.04 0.01

8 0

y 0 1 2 3 4 5 6 7 p(y) 0.06 0.21 0.28 0.24 0.13 0.05 0.02 0.01

8 0

9 0

10 0

11 0

12 0

Comparar y contrastar las distribuciones de probabilidades de X e Y utilizando los estadígrafos que sean necesarios. Ejemplo 13. Considérese las variables aleatorias X e Y, cuyas funciones de densidad de probabilidad son: 1/30 f(x) = 0

80 ≤ x ≤ 110 para cualquier otro valor

y 1/10.000 e (-y/10.000)

y>0

f(y) = 0

para cualquier otro valor

Determinar y comparar las distribuciones a partir de la media, varianza y los momentos estandarizados tercero y cuarto de X e Y.

Otros estadígrafos. Para cualquier variable aleatoria X, se define a la mediana x0.5 de X por: P(X < x0.5) ≤ ½ y P(X < x0.5) ≥ ½ si X es discreta P(X ≤ x0.5) = ½

si X es continua

Para cualquier variable aleatoria X, se define a la moda xm de X como el valor xm de X que maximiza la función de probabilidad (si X es discreta), o la función de densidad de probabilidad si X es continua

Para cualquier variable aleatoria X, se define el valor quantil xq de orden q, de X (0 < q < 1), por: P(X < xq ) ≤ q y P(X < xq ) ≥ q si X es discreta P(X ≤ xq ) = q

si X es continua

La Desviación media de una variable aleatoria X es el valor esperado de la diferencia absoluta entre X y su media, y está dado por: E | X – µ | = ∑ | x – µ | p(x) si X es discreta x ∞ E | X – µ | = ∫ | x – µ | f(x) dx si X es continua -∞

3.6.

Funciones Generadoras de Momentos. Un método alternativo para determinar los momentos de una variable aleatoria dada su distribución de probabilidad, es encontrar la esperanza de cierta función conocida como función generadora de momentos. Sea X una variable aleatoria. El valor esperado de e tX recibe el nombre de función generadora de momentos, y se denota por mx(t), si el valor esperado existe para cualquier valor de t en algún intervalo -c < t < c, en donde c es un número positivo. En otras palabras. m x(t) = E[ e tX ] = ∑ x e tx p(x) si X es discreta ∞ m x(t) = E[ e tX ] = ∫ e tx f(x) dx si X es continua -∞ mx(t) es una función solamente de t. Si t = 0, entonces mx(0) = E(e 0) = 1. Si la función generadora de momentos existe, puede demostrarse que es única y que determina por completo la distribución de probabilidad de X. En otras palabras, si dos variables aleatorias tienen la misma función generadora de momentos, entonces tienen la misma distribución de probabilidades. Si la función generadora de momentos existe para -c < t < c, entonces existen las derivadas de ésta de todas las ordenes para t = 0, y esto asegura que mx(t) generará todos los momentos de X alrededor del origen.

Sea X una variable aleatoria. El valor esperado de e t(X – µ ) recibe el nombre de función generadora de momentos central y se denota por m x-µ (t), si el valor esperado existe para cualquier valor de t en algún intervalo -c < t < c, en donde c es un número positivo. m x-µ (t) = E[ e t(X – µ ) ] = ∑ x e t(x – µ ) p(x) si X es discreta ∞ m x–µ (t) = E[ e t(X – µ ) ] = ∫ e t(x – µ ) f(x) dx si X es continua -∞ Ejemplo 14. Sea X una variable aleatoria, cuyas función de densidad de probabilidad es:

f(x) =

1/θ e –x/θ

x>0

0 para cualquier otro valor en donde θ es un número mayor que cero. Determinar la función generadora de momentos de X. Ejemplo 15. Sea X una variables aleatoria discreta, con función de probabilidad: ∝ -λ x x = 0, 1, 2, .... p(x) = e λ

x! ∑ x=0 en donde λ es un número mayor que cero. Determinar la función generadora de momentos de X.

3.7.

Desigualdad de Tchebyshev.

Se han estimado promedios y varianzas para diversas distribuciones de probabilidades, y hemos visto que ambas cantidades proporcionan alguna información útil acerca del centro y dispersión de la masa de probabilidad. Ahora, si solo se conocen estos valores, ¿se puede decir algo acerca de las probabilidades para diversos intervalos?. Si la distribución tiene una forma razonablemente simétrica, podemos decir que ≅ 68% de las observaciones están ± 1 desviación estándar de la media (µ– σ , µ+ σ ), y ≅ 95% de las observaciones están ± 2 desviación estándar de la media (µ – 2σ , µ + 2σ ). Si la distribución no es tan simétrica, estos resultados no son muy buenos y puede dar una mala aproximación; en estos casos, y en general, podemos aplicar la Desiguald de Tchebyshev que relaciona a µ, σ y las probabilidades. Teorema de Tchebyshev. Sea X una variable aleatoria cuya media es µ y su varianza σ 2. Entonces para toda k positiva P(| X – µ | < k σ ) ≥ 1 –

1 2

k

Ejemplo 16. La producción diaria de motores eléctricos en una fábrica es 120 de promedio con una desviación estándar de 10. a) ¿qué fracción de días serán de un nivel de producción entre 100 y 140?. b) Calcular el intervalo más corto que con certeza contenga por lo menos el 90% de los niveles de producción diaria. Ejemplo 17. el costo diario por usar determinada herramienta tiene una media de $13, y una varianza de 41. ¿con que frecuencia el costo será mayor que 30?

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.