Descriptiva y Probabilidad

Estad´ıstica Descriptiva y Probabilidad (Teor´ıa y problemas) 3a Edici´on Autores I. Espejo Miranda F. Fern´andez Palac´ın M. A. L´opez S´anchez M. Mu

12 downloads 112 Views 417KB Size

Recommend Stories


1. ESTADISTICA DESCRIPTIVA Y FUNDAMENTOS DE PROBABILIDAD
1. ESTADISTICA DESCRIPTIVA Y FUNDAMENTOS DE PROBABILIDAD 1.1. Notación De Sumatoria Consideremos las siguientes sumas: Para 1.2. Datos No agrupados

Probabilidad
Ejercicios probabilidad

PROBABILIDAD
Capítulo 3 PROBABILIDAD 3.1.1 – 3.1.3 Si bien la definición de probabilidad es simple, calcular las probabilidades de un evento determinado puede s

Story Transcript

Estad´ıstica Descriptiva y Probabilidad (Teor´ıa y problemas) 3a Edici´on Autores I. Espejo Miranda F. Fern´andez Palac´ın M. A. L´opez S´anchez M. Mu˜ noz M´arquez A. M. Rodr´ıguez Ch´ıa A. S´anchez Navas C. Valero Franco

c Copyright °2006 Universidad de C´ adiz. Se concede permiso para copiar, distribuir y/o modificar este documento bajo los t´ erminos de la Licencia de Documentaci´ on Libre de GNU, Versi´ on 1.2 o cualquier otra versi´ on posterior publicada por la Free Software Foundation. Una traducci´ on de la licencia est´ a incluida en la secci´ on titulada “Licencia de Documentaci´ on Libre de GNU”.

c Copyright °2006 Universidad de C´ adiz. Permission is granted to copy, distribute and/or modify this document under the terms of the GNU Free Documentation License, Version 1.2 or any later version published by the Free Software Foundation. A copy of the license is included in the section entitled “GNU Free Documentation License”.

Edita: Servicio de Publicaciones de la Universidad de C´ adiz C/ Dr. Mara˜ n´ on, 3 11002 C´ adiz http://www.uca.es/publicaciones

ISBN: 978-84-9828-058-6 Dep´osito legal:

Estad´ ıstica Descriptiva y Probabilidad. Teor´ ıa y Problemas (Revisi´ on: Febrero 2006) I. Espejo Miranda, F. Fern´ andez Palac´ın, M. A. L´ opez S´ anchez, M. Mu˜ noz M´ arquez, A. M. Rodr´ıguez Ch´ıa, A. S´ anchez Navas, C Valero Franco c °2006 Servicio de Publicaciones de la Universidad de C´ adiz. Documento bajo Licencia de Documentaci´ on Libre de GNU (Versi´ on 1.2 o posterior). http://www.uca.es/teloydisren

Cap´ıtulo 6 Algunos modelos probabil´ısticos

La identificaci´on del patr´on probabil´ıstico por el cual se rige un determinado experimento aleatorio facilita enormemente su estudio. En efecto, cuando se desea estudiar una determinada situaci´on real, el reconocimiento de un modelo probabil´ıstico en dicha situaci´on supone una abstracci´on matem´atica que permite el uso tanto de herramientas matem´aticas como estad´ısticas para obtener su completa caracterizaci´on. De esta forma, a lo largo de este cap´ıtulo se realizar´a un estudio pormenorizado de los modelos probabil´ısticos m´as importantes, de forma que permitan identificarse cuando se presenten en un determinado experimento aleatorio. Se comienza estudiando modelos discretos y continuos en el caso unidimensional para posteriormente pasar a estudiar algunos modelos en el caso bidimensional. 1.

Distribuci´ on uniforme discreta

El primer modelo probabil´ıstico que se estudia es el uniforme discreto, que consiste en distribuir a partes iguales la masa de probabilidad entre un n´ umero finito de valores. Sea X una variable aleatoria uniforme discreta, que toma los valores x1 , . . . , xn . La funci´on de cuant´ıa viene dada por la siguiente ex-

186 Cap´ıtulo 6. Algunos modelos probabil´ısticos presi´on P (X = xi ) =

1 n

Suponiendo que x1 ≤ x2 ≤ . . . ≤ dada por  0     1     n2 n F (x) =     ...     1 Por otro lado, se tiene que E[X] =

i = 1, . . . , n.

xn , su funci´on de distribuci´on viene si x < x1 si x1 ≤ x < x2 si x2 ≤ x < x3 .. . si xn ≤ x. n

n

i=1

i=1

1X 2 1X xi y que, E[X 2 ] = xi . n n

El ejemplo cl´asico de una uniforme discreta es el experimento de observar los resultados posibles al lanzar un dado “honesto”. 2.

Experimento de Bernouilli

La realizaci´on de pruebas repetidas e independientes constituyen un experimento de Bernouilli cuando cada una de ellas tiene dos posibles resultados E y F , con probabilidades de ocurrencia, invariantes a lo largo de todo el proceso, p y q, respectivamente. Obviamente se verifica que tanto p como q son estrictamente mayores que cero y adem´as p + q = 1. Los dos posibles resultados suelen identificarse a menudo como ´exito y fracaso, y la v.a. que se asocia al experimento toma los valores 1 para el ´exito y 0 para el fracaso. 2.1.

Distribuci´ on binomial

La distribuci´on de probabilidad por la cual se rige el n´ umero de ´exitos al realizar n pruebas Bernouilli independientes y con probabilidades de ´exito iguales, se le denomina distribuci´on binomial. Ejemplo 6.1

El n´ umero de caras en 15 lanzamientos de una moneda sigue una distribuci´on binomial.

6.2 Experimento de Bernouilli 187 Se consideran n variables aleatorias Bernouilli independientes, Xi con i = 1, . . . , n, tal que, Xi = 1 si en el experimento Bernouilli se ha obtenido Pn ´exito y Xi = 0 en caso contrario. Obs´ervese que si se define X = i=1 Xi , se est´a contando el n´ umero de ´exitos en n experimentos Bernouilli independientes. Por tanto, una v.a. con distribuci´on binomial puede expresarse como suma de variables aleatorias independientes Bernouilli. Para calcular la distribuci´on de probabilidad de la variable binomial, se considera la ejecuci´on n veces del experimento Bernouilli en el que han aparecido k ´exitos y n − k fracasos, –por ejemplo en la secuencia EE . . . EF F . . . F –, la probabilidad de este suceso viene dada por pk q n−k . Sin embargo, no es esa la u ´nica forma de obtener k ´exitos, pues hay que considerar todas las ordenaciones de los elementos E y F , lo que da un total de: µ ¶ n! n k,n−k Pn = = . k!(n − k)! k La probabilidad de obtener k ´exitos en n pruebas es, por tanto: µ ¶ n k n−k P (X = k) = p q k = 0, 1, 2, . . . , n. k Observe que se trata de una verdadera distribuci´on de probabilidad, pues: n µ ¶ X n k n−k p q = (p + q)n = 1n = 1. k k=0

De hecho, esta expresi´on justifica el nombre de la distribuci´on, pues lo anterior no es sino el desarrollo del binomio (p + q)n . A la distribuci´on se le suele notar por B(n, p), es decir por su letra o letras iniciales y los par´ametros que la caracterizan. De igual forma se procede en el resto de los casos. Es f´acil comprobar que: E[X] = np,

V [X] = npq,

MX (t) = (pet + q)n .

Para el caso particular de que n sea igual a 1 se obtiene la distribuci´on de Bernouilli, B(p).

188 Cap´ıtulo 6. Algunos modelos probabil´ısticos Propiedad 6.1 Si X1 , . . . , Xk son variables aleatorias independientes k k X X tal que Xi ∼ B(ni , p) con i = 1, . . . , k, se tiene que Xi ∼ B( ni , p). i=1

Ejemplo 6.2

i=1

De una poblaci´on de animales, se sabe que el 60 % son machos. Si se extrae un conjunto de 10 animales, ¿cu´al es la probabilidad de que en ese conjunto haya 7 hembras? Sea X = “N´ umero de hembras en un conjunto de 10 animales”, se ve claramente que X ∼ B(10, 00 4) (figura 6.1). La probabilidad de que haya 7 hembras es: µ ¶ 10 0 7 0 3 P (X = 7) = 0 4 0 6 = 00 04. 7 0.3

6 r

0.2

r

r

0.1 r

r r r

r

r r r -

0 1 2 3 4 5 6 7 8 9 10

Figura 6.1: Binomial B(10, 00 4)

2.2.

Distribuci´ on geom´ etrica

Una variable aleatoria X definida como el n´ umero de fracasos antes de obtener el primer ´exito en sucesivas realizaciones de experimentos Bernouilli independientes y con id´enticas probabilidades de ´exito, se dir´a que sigue una distribuci´on geom´etrica. Dicha variable toma los valores k = 0, 1, 2, . . ., con probabilidad: P (X = k) = pq k .

6.2 Experimento de Bernouilli 189 Sus caracter´ısticas son: E[X] =

q p

V [X] =

q p2

MX (t) =

p . (1 − qet )

Propiedad 6.2 Sea X ∼ Ge(p), para cualesquiera n y m se verifica que P (X > m + n/X > m) = P (X ≥ n). Rec´ıprocamente, si X es una variable aleatoria que toma valores no negativos y se cumple que P (X > m + n/X > m) = P (X ≥ n) para todo m y n, entonces se tiene que X se distribuye seg´ un una distribuci´ on geom´etrica. Esta propiedad se conoce como de p´erdida de memoria. Ejemplo 6.3

Para la misma poblaci´on del ejemplo 6.2, se extraen animales hasta obtener la primera hembra, ¿cu´al es la probabilidad de extraer 5 machos antes que la primera hembra? Si se considera como ´exito extraer una hembra y se define la variable X como: “N´ umero de machos antes de obtener la primera hembra”, se tiene una distribuci´on geom´etrica, es decir, X ∼ Ge(00 4). La probabilidad que se pide es: P (X = 5) = 00 65 · 00 4 = 00 36.

2.3.

Distribuci´ on binomial negativa

Una v.a. X definida como el n´ umero de fracasos antes del r-´esimo ´exito en sucesivas realizaciones de un experimento Bernouilli indepen-

190 Cap´ıtulo 6. Algunos modelos probabil´ısticos dientes con igual probabilidad, se dir´a que sigue una distribuci´on binomial negativa. La distribuci´on geom´etrica es un caso particular de binomial negativa cuando r = 1. La v.a. X toma los valores k = 0, 1, 2, . . ., con probabilidad: µ ¶ k+r−1 r k P (X = k) = p q . k Sus principales rasgos son: E[X] =

rq , p

V [X] =

rq . p2

Propiedad 6.3 Sean X1 , . . . , Xr variables aleatorias independientes e id´enticamente distribuidas seg´ un una distribuci´ on geom´etrica de par´ ar X metro p. Se tiene que Xi sigue una distribuci´ on binomial negativa de par´ ametros r y p.

i=1

Propiedad 6.4 Sean X1 , . . . , Xk variables aleatorias independientes e id´enticamente distribuidas seg´ un una binomial negativa de par´ ametros ri k X y p con i = 1, . . . , k. Se tiene que Xi sigue una distribuci´ on binomial i=1

negativa de par´ ametros r y p, siendo r =

k X

ri .

i=1

Ejemplo 6.4

Siguiendo con la poblaci´on del ejemplo 6.2, ¿cu´al es la probabilidad de extraer 5 hembras antes del tercer macho? En este caso, el ´exito se define como “extraer un macho”, por lo que p = P (´exito) = 00 6 y X =“N´ umero de hembras antes de obtener el tercer macho”. Entonces X ∼ BN (3, 00 6). La probabilidad pedida es: µ ¶ 5+3−1 0 3 0 5 P (X = 5) = 0 6 · 0 4 = 00 18. 5

6.3 Distribuci´on hipergeom´etrica 191 3.

Distribuci´ on hipergeom´ etrica

Dada una urna compuesta por N1 bolas blancas y N2 negras, de la que se extraen n bolas sin reemplazamiento, ¿cu´al es la probabilidad de que haya r bolas blancas y n−r bolas negras entre las n bolas extra´ıdas? Utilizando n´ umeros combinatorios, esta probabilidad vale: ¡N1 ¢¡ N2 ¢

n−r ¡rN1 +N ¢ . 2 n

En esta situaci´on, la distribuci´on de la v.a. definida como n´ umero de bolas blancas (r) en una extracci´on de n bolas de una urna se le denomina distribuci´on hipergeom´etrica. Dicha variable toma los valores r = 0, 1, . . . , m´ın{n, N1 } con probabilidad: ¡N1 ¢¡ N2 ¢

n−r P (X = r) = ¡rN1 +N ¢ . 2 n

Sus principales caracter´ısticas son: nN1 , E[X] = N1 + N2

µ V [X] = n

N1 + N2 − n N1 + N2 − 1



N1 N2 . (N1 + N2 )2

Se hace notar que la diferencia que existe entre un experimento con distribuci´on binomial y uno con distribuci´on hipergeom´etrica radica, en que en la primera, la extracci´on de las bolas se producen con reemplazamiento y en la segunda, sin reemplazamiento. Por ello, cuando N1 1 converge a un valor p, la distribuci´on y N2 tiende a infinito y N1N+N 2 hipergeom´etrica se aproxima a una distribuci´on binomial B(n, p), con 1 p = N1N+N ; ya que en este caso la probabilidad de extraer una bola con 2 o sin reemplazamiento es pr´acticamente la misma. Ejemplo 6.5

De una urna que contiene seis bolas negras y nueve bolas rojas se extraen cinco bolas, ¿cu´al es la probabilidad de obtener tres bolas rojas? Sea X = “N´ umero de bolas rojas al extraer cinco

192 Cap´ıtulo 6. Algunos modelos probabil´ısticos bolas de la urna”. La probabilidad pedida es: ¡6¢¡9¢ P (X = 3) = 2¡15¢3 = 00 4196. 5

Ejemplo 6.6

Si el experimento del ejemplo anterior se repite tres veces, reintegrando las bolas extra´ıdas y a˜ nadiendo el mismo n´ umero de bolas negras y rojas obtenidas, ¿cu´al es la probabilidad de obtener una secuencia de una, dos y tres bolas rojas? Sea Xi = “N´ umero de bolas rojas extra´ıdas en la extracci´on i-´esima”. La probabilidad pedida es: P (X1 = 1) · P (X2 = 2/X1 = 1)· P (X3 = 3/(X1 = 1, X2 = 2)) = =

4.

(64)(91) (10 )(10) (13)(12) · 3 20 2 · 2 25 3 = 00 0051. 15 (5) (5) (5)

Proceso de Poisson

Se considera una determinada eventualidad que se produce en un soporte continuo (tiempo, l´ınea, ´area, espacio,. . . ), de forma independiente y con una cierta estabilidad para una unidad de soporte prefijada. Como ejemplos se pueden considerar el n´ umero de coches que pasan por un sem´aforo en un periodo de tiempo, el n´ umero de defectos por metro cuadrado de una pieza de tela, el n´ umero de hormigas de una cierta especie en un metro c´ ubico de tierra, etc. Las tres condiciones en negrita caracterizan al denominado proceso de Poisson, y su v.a. est´a definida por el n´ umero de eventos que se producen en una regi´on de tama˜ no fijo. 4.1.

Distribuci´ on de Poisson

La distribuci´on de Poisson se obtiene como l´ımite de la binomial cuando el n´ umero de veces que se realiza el experimento, n, tiende a infinito, la probabilidad de ´exito, p, tiende a cero y el n´ umero medio de

6.4 Proceso de Poisson 193 ´exitos, np, se estabiliza alrededor de un n´ umero, λ, que ser´a la media y el valor que caracterizar´a a la distribuci´on. Calculando dicho l´ımite se obtiene: λk −λ P (X = k) = e k = 0, 1, 2, . . . k! La distribuci´on, que se denota P (λ), aparece, hist´oricamente, al considerar el n´ umero de llamadas telef´onicas realizadas por unidad de tiempo a un mismo tel´efono, siendo λ el n´ umero medio de llamadas. Adem´as, se puede observar que en la distribuci´on Poisson la mayor parte de la masa de probabilidad queda repartida entre un n´ umero relativamente peque˜ no de valores, siendo posible que tome otros valores pero con una probabilidad bastante peque˜ na. Por ello, a la distribuci´on Poisson se le llama distribuci´on de los sucesos raros. Sus principales caracter´ısticas son: E[X] = λ,

V [X] = λ,

t

MX (t) = e−λ(1−e ) .

Todo lo anterior est´a referido a una unidad de soporte de tama˜ no 1, si se quiere generalizar a cualquier regi´on de tama˜ no t la funci´on de cuant´ıa es: k −λt (λt) . Pt (X = k) = e k! Ejemplo 6.7

El n´ umero medio de veh´ıculos por minuto que llegan a una gasolinera es igual a 2. ¿Cu´al es la probabilidad de que en un minuto lleguen 5 veh´ıculos?, ¿y la de que en 5 minutos no llegue ninguno? Se trata de una distribuci´on de Poisson, para la que se conoce el n´ umero medio, que es igual al par´ametro λ, por lo tanto X ∼ P (2) (figura 6.2). La primera probabilidad pedida es: P (X = 5) =

25 −2 e = 00 036. 5!

Para calcular la otra probabilidad, hay que hacer un cambio de par´ametro pues la longitud del intervalo cambia.

194 Cap´ıtulo 6. Algunos modelos probabil´ısticos Si en un minuto el n´ umero medio de veh´ıculos es 2, en cinco minutos ser´a 10. Por lo tanto se tiene Y ∼ P (10). P (Y = 0) =

0.3

100 −10 e = 00 000045. 0!

6 r r

0.2

r r

0.1

r r

r r r r-

0 1 2 3 4 5 6 7 8 9

Figura 6.2: Poisson P (2)

4.2.

Distribuci´ on exponencial

A partir de un proceso de Poisson, la distribuci´on de una v.a. X definida como el tiempo transcurrido entre la ocurrencia de dos eventos consecutivos, se denomina exponencial y se denota por Exp(λ). Observe que se ha dado un salto cualitativo, puesto que la variable definida es continua, tomando valores en el intervalo [0, +∞). Se verifica que: P (X > t) = P (cero eventos en (0, t)) = e−λt . y por tanto: F (t) = P (X ≤ t) = 1 − e−λt . derivando se obtiene la funci´on de densidad de X (figura 6.3): dF (t) = λe−λt . dt Los par´ametros de la distribuci´on son: f (t) =

E[X] =

1 , λ

V [X] =

1 , λ2

γ1 = 2,

γ2 = 9.

6.5 Distribuci´on uniforme continua 195 Ejemplo 6.8

Con los datos del ejemplo 6.7 y suponiendo que acaba de llegar un veh´ıculo, calcule la probabilidad de que transcurran m´as de 5 minutos hasta que aparezca el siguiente. El tiempo que transcurre desde que pasa un veh´ıculo hasta el siguiente sigue una distribuci´on exponencial de par´ametro igual a 2. La probabilidad pedida es: P (X > 5) = 1 − P (X ≤ 5) = 1 − (1 − e−2·5 ) = 00 000045. Observe que se llega al mismo resultado utilizando la distribuci´on de Poisson que la exponencial, considerando que el suceso “transcurren m´as de 5 minutos en pasar alg´ un veh´ıculo” para la exponencial es el suceso “no pasa ning´ un veh´ıculo en cinco minutos” para la Poisson. 6

0.9 0.6 0.3 -

1 2 5 9 Figura 6.3: Distribuci´on exponencial 5.

Distribuci´ on uniforme continua

A continuaci´on se estudia la distribuci´on uniforme continua como la extensi´on natural de la distribuci´on uniforme discreta, es decir, aquella que toma con igual probabilidad valores dentro de dos conjuntos cualesquiera de igual amplitud e incluidos en el intervalo de valores posibles de la variable.

196 Cap´ıtulo 6. Algunos modelos probabil´ısticos La variable X sigue una distribuci´on uniforme o rectangular en el intervalo (a, b), U (a, b), cuando su funci´on de densidad viene dada de la siguiente forma: ( 1 si a ≤ x ≤ b b−a f (x) = 0 en el resto. Su representaci´on gr´afica justifica el nombre de rectangular (figura 6.4). f(x) 6 1 b−a

-

a

X b Figura 6.4: Distribuci´on uniforme. Sus caracter´ısticas m´as importantes son: E[X] = Ejemplo 6.9

a+b , 2

V [X] =

(b − a)2 , 12

MX (t) =

etb − eta . t(b − a)

Un autob´ us pasa por cierta parada cada 15 minutos. ¿Cu´al es la probabilidad de que un se˜ nor que llega en un momento dado tenga que esperar el autob´ us m´as de cinco minutos? Si se define X=“Tiempo de espera”, entonces X ∼ U (0, 15). Se calcular´a en primer lugar la funci´on de distribuci´on  si x < 0  0 x si 0 ≤ x ≤ 15 F (x) =  15 1 si x > 15. La probabilidad pedida viene dada por: P (X > 5) = 1 − P (X ≤ 5) = 1 −

5 = 00 67. 15

6.6 Distribuci´on normal 197 6.

Distribuci´ on normal

En este ep´ıgrafe se estudia la distribuci´on m´as importante del c´alculo de probabilidades y de la estad´ıstica, usualmente tambi´en denominada distribuci´on de Gauss o de Laplace. La importancia de esta distribuci´on radica en varias razones: en primer lugar, como se ver´ a posteriormente a trav´es del teorema central del l´ımite, la distribuci´on normal es la distribuci´on l´ımite de una amplia gama de sucesiones de variables aleatorias independientes. En segundo lugar, la gran mayor´ıa de las variables aleatorias que se estudian en experimentos f´ısicos son aproximadas por una distribuci´on normal. En tercer lugar, se ha observado que los errores aleatorios en los resultados de medida se distribuyen, de forma general, seg´ un una distribuci´on normal. Finalmente, hay que destacar el car´acter reproductivo de sus par´ametros que facilita el manejo de este tipo de distribuciones. Se dice que una variable X sigue una distribuci´on normal si su funci´on de densidad es: (x−µ)2 1 f (x) = √ e− 2σ2 2πσ

− ∞ ≤ x ≤ +∞.

La distribuci´on est´a caracterizada por los par´ametros µ y σ, cuyo significado se trata m´as adelante, siendo σ necesariamente positivo. Se hace referencia a esta distribuci´on como N (µ, σ). Su representaci´ on gr´afica viene dada por la figura 6.5. f(x) 6

µ

-

X Figura 6.5: Distribuci´on N (µ, σ)

198 Cap´ıtulo 6. Algunos modelos probabil´ısticos Propiedad 6.5 Sean Xi ∼ N (µi , σi ) con  i = 1, . . v . , n variables aleato u n n n X X uX rias independientes entonces Xi ∼ N  µi , t σ 2 . i

i=1

6.1.

i=1

i=1

Distribuci´ on N (0, 1)

Para facilitar c´alculos, se realiza el estudio de la distribuci´on N (0, 1) y mediante un cambio de variable se generalizar´a para la N (µ, σ). La funci´on de densidad de la N (0, 1) es: x2 1 f (x) = √ e− 2 2π

− ∞ ≤ x ≤ +∞.

A continuaci´on se realiza el estudio de dicha funci´on.

1. Campo de existencia. Toda la recta real para x, con f (x) > 0. 2. Simetr´ıas. Es sim´etrica respecto al eje OY , ya que f (x) = f (−x). 3. As´ıntotas. y = 0 es una as´ıntota horizontal. 4. Cortes con los ejes. S´olo tiene un punto de corte en (0, √12π ). 5. M´aximos y m´ınimos. El punto de corte anterior es el u ´nico m´aximo de la distribuci´on. 1

6. Puntos de inflexi´on. Tiene dos en (−1, √12π e− 2 ) y (1, √12π e

−1 2

).

Con todo lo anterior la curva tiene la forma de la figura 6.6. Las caracter´ısticas de la distribuci´on son: E[X] = 0,

V [X] = 1,

γ1 = 0,

γ2 = 3.

Los valores de la distribuci´on N (0, 1) est´an tabulados y son f´acilmente calculables.

6.6 Distribuci´on normal 199

√1 2π 1

(−1,

− 2 e √ 2π

)s

s6 −1

s(1, e√ 2 ) 2π

¾

-

0 Figura 6.6: Distribuci´on N (0, 1) A partir de ahora, si una variable sigue una distribuci´on N (0, 1) se denotar´a por la letra Z. As´ı, si X sigue una N (µ, σ) se verifica que: X −µ y X = σZ + µ. σ Con lo que se puede comprobar f´acilmente que: Z=

E[X] = µ,

V [X] = σ 2 .

Ejemplo 6.10 El contenido de un tipo de bombonas de gas se distribuye normalmente con media 23 kg y desviaci´on t´ıpica 0’25 kg. ¿Cu´al es la probabilidad de que una bombona tenga m´as de 23’5 Kg? La probabilidad pedida es: P (X > 230 5) = 1 − P (X ≤ 230 5). Para calcular esta probabilidad hay que tipificar la variable y hacer uso de la tabla N (0, 1). ¶ µ 230 5 − µ X −µ ≤ P (X ≤ 230 5) = P σ σ ¶ µ 0 23 5 − 23 = P Z≤ 00 25 = P (Z ≤ 2) = 00 977. Por lo tanto: P (X > 230 5) = 1 − 00 977 = 00 023.

200 Cap´ıtulo 6. Algunos modelos probabil´ısticos 6.2.

Distribuciones truncadas

A veces la variable no toma todos los valores de la recta real, imagine que s´olo puede tomar valores positivos. Se supone que X no est´a definida fuera del intervalo [a, b], entonces la funci´on de densidad de la variable truncada en dicho intervalo que se puede denominar f[a,b] viene dada, en funci´on de una variable general, por:  f (x)   F (b) − F (a) f[a,b] (x) =   0

si

x ∈ [a, b]

si

x 6∈ [a, b].

La caracterizaci´on anterior vale para cualquier tipo de distribuci´on. 7.

Relaci´ on entre binomial, Poisson y normal

A veces el c´alculo para obtener la probabilidad de una variable binomial es muy dificultoso, esto suele ocurrir cuando n es muy grande. En tales casos, y bajo ciertas condiciones, es posible aproximar la distribuci´on binomial por la normal o la Poisson, esta u ´ltima tambi´en es susceptible de ser aproximada por la normal. Las siguientes propiedades resumen las relaciones existentes entre tales distribuciones.

Propiedad 6.6 Si la probabilidad p de ´exito de una variable B(n, p) tiende a cero, mientras que el n´ umero de pruebas tiende a infinito, de forma que µ = np permanece constante, la distribuci´ on binomial se puede aproximar por una distribuci´ on de Poisson con media µ. En la pr´ actica es suficiente con que n sea mayor que 100 y p menor o igual a 0’05.

Propiedad 6.7 Si X sigue una B(n, p), siendo n grande y p no demaX − np se aproxima a una distribuci´ on siado peque˜ no, entonces Z = √ npq N (0, 1) a medida que n tiende a infinito. La aproximaci´ on es bastante buena siempre que: np > 5

si

p ≤ 00 5

´ o

nq > 5

si

p > 00 5

6.8 Teorema central del l´ımite 201 Hay ocasiones en que es m´as conveniente operar con la proporci´on de ´exitos obtenidos en n pruebas Bernouilli que con el n´ umero de ´exitos. Puesto que se verifica: X −p X − np = nq . √ pq npq n

Podemos afirmar lo siguiente:

Propiedad 6.8 En las condiciones de la propiedad anterior µ r ¶ X pq . ∼ N p; n n Propiedad 6.9 Si X sigue una distribuci´ on de Poisson de par´ ametro λ suficientemente grande, entonces es posible aproximarla por una distribuci´ on N (λ, λ1/2 ). En la pr´ actica se exige a λ que sea mayor que 5.

El gr´afico de la figura 6.7 resume los resultados anteriores.

Binomial

λ = np

-

Poisson

n > 100, p ≤ 00 05

¡

@

0 @ p≤05 np > 5 @ µ = np @ √ p > 00 5 σ = npq @ @ nq > 5 @ @ R

¡

¡µ = λ λ>5 ¡ √ ¡σ= λ ¡ ¡ ª

¡

Normal Figura 6.7: Relaci´on entre binomial, Poisson y normal. 8.

Teorema central del l´ımite

Las aproximaciones que se han expuesto son casos particulares del denominado teorema central del l´ımite. Este teorema dice que si

202 Cap´ıtulo 6. Algunos modelos probabil´ısticos X1 , X2 , . . . , Xn son variables aleatorias independientes con medias µi , desviaciones t´ıpicas σi y distribuciones cualesquiera, no necesariamente la misma para todas las variables, entonces si se define Y = X1 + X2 + ... + Xn , cuando n tiende a infinito, la distribuci´on de la variable: Y −

n X

µi

i=1

v u n uX t σi 2 i=1

tiende a una distribuci´on N (0, 1). 9.

Distribuci´ on gamma Para p > 0 se define la funci´on Γ(p) como Z +∞ Γ(p) = xp−1 e−x d x. 0

Esta funci´on verifica las siguientes propiedades: - Γ(1) = 1. - Γ(p) = (p − 1)Γ(p − 1) con p > 1. ¡ ¢ √ - Γ 12 = π. Se dice que una variable aleatoria, X, tiene una distribuci´on gamma de par´ametros a y p, tal que, a > 0 y p > 0, X ∼ Γ(a; p), si tiene como funci´on de densidad  

ap −ax p−1 e x si x > 0 f (x) = Γ(p)  0 si x ≤ 0. µ ¶−p t Se verifica que MX (t) = 1 − , de donde se deduce que, E[X] = a p(p + 1) p y que E[X 2 ] = , por tanto, V [X] = 2 . 2 a a

p a

6.10 Distribuci´on beta 203 Destaca como caso particular de este tipo de distribuci´on la Γ(λ, 1) que es la distribuci´on Exp(λ). La distribuci´on Γ(λ, n) se utiliza para calcular la distribuci´on del tiempo transcurrido entre las ocurrencias k y k + n de un proceso de Poisson de media λ. Propiedad 6.10 Sean X1 , . . . , Xn un conjunto de variables aleatorias independientes, tal que, Xi ∼ Γ(a, pi ) con i = 1, . . . , n, se tiene que n n X X Xi ∼ Γ(a, pi ). i=1

i=1

Propiedad 6.11 Sean X1 , . . . , Xn un conjunto de variables aleatorias independientes, tal que, Xi ∼ Exp(λ) con i = 1, . . . , n, se tiene que n X Xi ∼ Γ(λ, n). i=1

Propiedad 6.12 Sea X ∼ Γ(a, p) entonces cX ∼ Γ

³a c

´ ,p .

Ejemplo 6.11 Sea X ∼ Γ(2, 2), el calculo de la funci´on de distribuci´on y P (X ≥ 5) se hace: Z F (x) = 0

x

Z x ¯x 1 2 −2x −2x ¯ e−2x d x 2 e x d x = −2xe ¯ + 2 Γ(2) 0 0 = 1 − (1 + 2x)e−2x .

Con lo cual, F (5) = 1 − 11e−20 . 10.

Distribuci´ on beta Para a > 0 y b > 0 se define la funci´on beta, como; Z β(a, b) = 0

1

xa−1 (1 − x)b−1 d x,

204 Cap´ıtulo 6. Algunos modelos probabil´ısticos y se verifica la siguiente relaci´on β(a, b) =

Γ(a)Γ(b) . Γ(a + b)

Se dice que una variable aleatoria, X, sigue una distribuci´on beta de par´ametros a > 0 y b > 0, y se denota por X ∼ β(a, b), si su funci´on de densidad viene dada por la expresi´on:  a−1  x (1 − x)b−1 si 0 < x < 1 f (x) = β(a, b)  0 caso contrario. Se tiene que la funci´on generatriz de momentos es MX (t) =

∞ X j=0

tj Γ(a + j)Γ(a + b) , Γ(j + 1) Γ(a + b + j)Γ(a)

Γ(a + k)Γ(a + b) , por tanto se tiene Γ(a)Γ(a + b + k) a ab que E[X] = , V [X] = . a+b (a + b)2 (a + b + 1) de donde se deduce que E[X k ] =

Ejemplo 6.12 Sea X una v.a. con distribuci´on β(4, 2), el c´alculo de E[X], V [X] y P (0 < X ≤ 00 7) es:

E[X] =

2 4 = 6 3

y

V [X] =

8 . ·7

62

Adem´as, Z

00 5

1 3 (x − x4 ) d x 20 0 1 x4 x5 ¯¯00 5 = ( − )¯ 20 4 5 0 = 00 00132.

P (0 < X ≤ 00 7) =

11.

Distribuci´ on de Cauchy

Se dice que una variable aleatoria X sigue una distribuci´on de Cauchy de par´ametros µ y θ, y se denota por X ∼ C(µ, θ), si su funci´on

6.11 Distribuci´on de Cauchy 205 de densidad viene dada por la siguiente expresi´on: f (x) =

µ 1 π µ2 + (x − θ)2

− ∞ < x < ∞,

µ > 0.

X −θ verifica µ Y ∼ C(1, 0), es decir, Y tiene como funci´on de densidad La

variable

aleatoria

f (y) =

Y

1 π(1 + x2 )

=

que

− ∞ < x < ∞.

La distribuci´on Cauchy es utilizada en teor´ıa de estad´ısticos ordenados y como distribuci´on a priori de leyes de probabilidad en modelos bayesianos. Modela tambi´en las duraciones de actividades sobre las que no existe suficiente informaci´on en el an´alisis de m´etodos Pert de secuenciaci´on de actividades. Propiedad 6.13 Sea X ∼ C(µ, θ), se tiene que E[X k ] no existe para k ≥ 1 y que existe para k < 1. Propiedad 6.14 Sea X ∼ C(µ1 , θ1 ) e Y ∼ C(µ2 , θ2 ) independientes, entonces X + Y ∼ C(µ1 , +µ2 , θ1 + θ2 ). Propiedad 6.15 Se tiene que X ∼ C(1, 0) si y s´ olo si

1 X

∼ C(1, 0).

Ejemplo 6.13 Un ejercicio de orientaci´ on para una persona ciega consiste en hacerla andar en l´ınea recta entre dos paredes paralelas que distan un kil´ometro. El grado de desorientaci´on D es la distancia entre el lugar m´as cercano desde el punto de partida a la segunda pared y el punto en el que la persona ciega alcanz´o la segunda pared. Suponiendo que el ´angulo θ que forma la primera pared y la direcci´on escogida por esa persona sigue una distribuci´on uniforme

206 Cap´ıtulo 6. Algunos modelos probabil´ısticos en − π2 y π2 . Obtenga la distribuci´on del grado de desorientaci´on. Para calcular el grado de desorientaci´ on v´ease que D = tan(θ) y que fθ (θ) = 1θ para θ ∈ (− π2 , π2 ). A partir de aqu´ı se calcula la funci´on de distribuci´on de D: FD (d) = P (D ≤ d) = P (tan(θ) ≤ d) = P (θ ≤ arctan(d)) π arctan(d) + 2. = π Con lo cual la funci´on de densidad es: fD (d) =

1 1 π 1 + d2

−∞≤d≤∞

Se trata de una distribuci´on Cauchy de par´ametros 1 y 0. 12.

Distribuciones derivadas de la normal

12.1. Distribuci´ on lognormal Dada una variable aleatoria X ∼ N (µ, σ), se dice que la variable aleatoria Y = eX sigue una distribuci´on lognormal. La funci´on de densidad de dicha distribuci´on es: f (y) =

1 2 1 √ e− 2σ2 (Ln(y)−µ) , yσ 2π

Se tiene que E[Y ] = eµ+

σ2 2

2

y > 0. 2

y V [Y ] = e2µ+σ (eσ − 1).

La distribuci´on lognormal es el resultado de un n´ umero elevado de causas independientes con efectos positivos que se componen de manera multiplicativa y donde cada una de estas causas tienen un efecto despreciable frente al global. Esto se debe a que la aditividad de los efectos conduce a una ley normal, en el caso de la ley lognormal, lo hace la proporcionalidad de los efectos.

6.12 Distribuciones derivadas de la normal 207 En el campo industrial, la ley lognormal, puede recibir justificaciones te´oricas como las caracter´ısticas de un material (resistencia, dureza, etc.) que puede resultar de la combinaci´ on multiplicativa de factores elementales. Tambi´en en el campo econ´omico la ley lognormal se encuentra con frecuencia (distribuci´on de salarios, ventas, etc.). Ejemplo 6.14 Se estudia la proporci´on de rentistas por encima de 18.000e anuales para un sector econ´omico cuya distribuci´on salarial medida en miles de euros sigue un modelo logaritmo normal con par´ametros µ = 2 y σ = 10 2. Se define la variable aleatoria Y

= {renta en dicho sector econ´omico}.

Puesto que Y sigue una distribuci´on lognormal, se puede considerar una variable X ∼ N (µ, σ), tal que, Y = eX , por tanto; X 0 P (Y ≥ 18) = P (e ³ ≥ 18) 0= P (X ´ ≥ 2 89) 2 89−2 = P X−µ σ ≥ 10 2

= P (Z ≥ 00 74) = 1 − P (Z ≤ 00 74) = 1 − 00 7704 = 00 2296. 12.2. Distribuci´ on χ2 Se dice que una variable aleatoria X sigue una distribuci´on χ2 con n grados de libertad, se denota por χ2n , si su funci´on de densidad es

f (x) =

n x 1 x 2 −1 e− 2 , n 2 Γ( 2 ) n 2

x ≥ 0.

¡ ¢ Se observa que la distribuci´on χ2n es una distribuci´on Γ 21 , n2 , de donde se deduce que esta distribuci´on es reproductiva en su par´ametro y que n E[X] = n, V [X] = 2n y MX (t) = (1 − 2t)− 2 .

208 Cap´ıtulo 6. Algunos modelos probabil´ısticos Propiedad 6.16 Sean X1 , . . . , Xn variables aleatorias independientes e n X id´enticamente distribuidas seg´ un una N (0, 1), se tiene que Xi2 ∼ χ2n . i=1

Ejemplo 6.15 Sea V , la velocidad (cm/seg) de un objeto que tiene una masa de 1 Kg., una variable aleatoria 2 con distribuci´on N (0, 25). Si K = mV2 representa la energ´ıa cin´etica del objeto y se necesita saber la probabilidad de que K < 400. Puesto que m = 1, se tiene que; ³ 2 ´ P (K < 400) = P mV2 < 400 ´ ³ 2 V = P 625 < 400·2 625 ´ ³ 2 V = P 625 < 10 28 = P (χ21 < 10 28) = 00 725. 12.3. Distribuci´ on t de Student Sean X e Y dos variables aleatorias independientes distribuidas seg´ un una distribuci´on N (0, 1) y χ2n , respectivamente.La variable aleatoria X T =q , Y n

sigue una distribuci´on t-Student con n grados de libertad que se denota por tn . La funci´on de densidad de esta distribuci´on es Γ( n+1 ) x2 n+1 f (x) = √ 2 n (1 + )− 2 , −∞ < x < ∞. n nπΓ( 2 ) Se verifica que E[X] = 0 y V [X] =

n para n > 2. n−2

Propiedad 6.17 La distribuci´ on t de Student es sim´etrica con respecto al origen.

6.12 Distribuciones derivadas de la normal 209 12.4. Distribuci´ on F de Snedecor Sean X e Y dos variables aleatorias independientes distribuidas seg´ un una χ2 con n y m grados de libertad respectivamente. La variable aleatoria F =

X n Y m

,

sigue una distribuci´on F de Snedecor con n y m grados de libertad que se denota por Fn,m . La funci´on de densidad de esta distribuci´on viene dada por m

n

m 2 n 2 Γ( n+m n+m 2 ) m x 2 −1 (n + mx)− 2 , f (x) = n )Γ( ) Γ( m 2 2

x ≥ 0.

³ n ´k Γ(k + m )Γ( n − k) 2 2 para n > 2k, por n m Γ( m )Γ( 2 2) n2 (2m + 2n − 4) n con n > 2 y que V [X] = con tanto, E[X] = n−2 m(n − 2)2 (n − 4) n > 4. Se tiene que E[X k ] =

Propiedad 6.18 Si X ∼ Fn,m entonces

1 X

∼ Fm,n .

Propiedad 6.19 Si X ∼ tn entonces X 2 ∼ F1,n . Ejemplo 6.16 Las calificaciones de los alumnos en dos asignaturas A y B se distribuyen normalmente con id´entica dispersi´on σ 2 . Se ha observado una muestra aleatoria simple de 51 alumnos presentados al examen de la asignatura A y otra, independiente de la anterior, de 19 alumnos presentados al examen de B. ¿Cu´al ser´a la probabilidad de que la varianza observada en la primera muestra sea al menos el doble de la correspondiente a la segunda?

210 Cap´ıtulo 6. Algunos modelos probabil´ısticos 2 y S 2 las varianzas muestrales de las caSean SA B lificaciones correspondientes a las asignaturas A y 2 y S 2 son variables aleatorias B. Puesto que SA B independientes tales que

51 y que 19

2 SA ∼ χ250 σ2

2 SB ∼ χ218 . σ2

Por tanto, 2 51 · 18 · SA 2 ∼ F50,18 . 50 · 19 · SB

De este modo, µ 2 ¶ µ ¶ 2 SA 51 · 18 · SA 0 P ≥ 2 = P ≥ 0 48 2 2 SB 50 · 19 · SB = P (F50,18 ≥ 00 48) = 00 9787. 13.

Distribuci´ on de Laplace

Se dice que una variable aleatoria X sigue una distribuci´on de Laplace de par´ametros λ y µ, La(λ, µ), si su funci´on de densidad es f (x) =

λ −λ|x−µ| e , 2

−∞ < x < ∞,

λ > 0 y − ∞ < µ < ∞.

La funci´on generatriz de momentos de esta distribuci´on tiene la expresi´on 1 MX (t) = (1 − λ2 t2 )−1 eµt , con t < , λ 2 de donde se deduce que E[X] = µ y V [X] = 2 . λ La distribuci´on Laplace es una alternativa a la normal para medir los errores de la media.

6.14 Distribuci´on log´ıstica 211 14.

Distribuci´ on log´ıstica

Se dice que una variable aleatoria X sigue una distribuci´on log´ıstica de par´ametros a y b, Lo(a, b), si su funci´on de densidad es f (x) =

be−(a+bx) ; (1 + e−(a+bx) )2

−∞ < x < ∞, b > 0,

siendo su funci´on de distribuci´on F (x) =

1 1+

e−(a+bx)

.

Este tipo de distribuciones son usuales en los fen´omenos que estudian el crecimiento temporal, como por ejemplo los de origen demogr´afico. 15.

Distribuci´ on de Pareto

Se dice que una variable aleatoria X sigue una distribuci´on de Pareto de par´ametros α y β, P (α, β), si su funci´on de densidad viene dada por la expresi´on ( f (x) =

Se tiene que E[X] =

βαβ xβ+1

0

si x ≥ α y α, β ≥ 0 en caso contrario.

αβ α2 β y que V [X] = . β−1 (β − 2)(β − 1)2

Pareto introdujo esta distribuci´on para describir unidades econ´omicas seg´ un la extensi´on (salarios, rentas, empresas seg´ un ventas, . . . ). Ejemplo 6.17 Las rentas salariales anuales en cierto sector econ´omico (X, en miles de euros) es una magnitud aleatoria distribuida seg´ un un modelo de Pareto con salario m´ınimo 9 y β = 20 4. Se desea conocer el salario esperado en el sector y la proporci´on de asalariados que percibe m´as de 18.000e/a˜ no.

212 Cap´ıtulo 6. Algunos modelos probabil´ısticos Puesto que X sigue una distribuci´on Pareto se tiene que el salario esperado viene dado por E[X] =

α·β 9 · 20 4 = 0 = 150 43. 1−β 14

La proporci´on de asalariados que perciben m´as de 18.000e es P (X > 18) = 1 − P (X ≤ 18) Z 18 0 0 2 4 · 92 4 = 1− dx 30 4 h 9 0 x 0 i18 = 1 − −92 4 x−2 4 9 h ³ ´i 04 0 0 2 −2 = 1 − −9 18 4 − 9−2 4 = 1 − 00 81 = 00 19. 16.

Algunos modelos multidimensionales

16.1. Distribuci´ on multinomial La distribuci´on multinomial es una generalizaci´on de la binomial, en la que el experimento que la genera arroja k > 2 resultados distintos en cada realizaci´on –la binomial es una distribuci´on dicot´omica–, donde las probabilidades de cada uno de los resultados permanece constante a lo largo de todo el proceso. La distribuci´on multinomial se obtiene al realizar, de forma independiente, n pruebas individuales y contar el n´ umero de veces que aparece cada resultado. Si se llama Ai al i-´esimo resultado, siendo P (Ai ) = pi y Xi al n´ umero de veces que se obtiene Ai en las n pruebas, Xi ser´a la componente i-´esima de la variable k-dimensional X. La distribuci´on de probabilidades de la variable multinomial es: P (X1 = n1 , X2 = n2 , . . . , Xk = nk ) =

n! pn1 1 pn2 2 . . . pnk k , n1 !n2 ! . . . nk !

donde n1 + n2 + . . . + nk = n. Ejemplo 6.18 Se lanza un dado 5 veces. Determine la probabilidad de obtener un uno, dos doses y dos cuatros. Sea Ai = {Obtener i puntos en el dado}.

6.16 Algunos modelos multidimensionales 213 La probabilidad que se pide es: P (X1 = 1, X2 = 2, X3 = 0, X4 = 2, X5 = 0, X6 = 0) = 1! 2! 0!5!2! 0! 0! · 16 · 612 · 612 = 00 0038. 16.2. Distribuci´ on uniforme bidimensional Tambi´en se puede generalizar la distribuci´on uniforme al caso de m´as de una dimensi´on, se trata el caso n = 2, pudiendo comprobar el lector que la generalizaci´on para cualquier otra dimensi´on no entra˜ na la menor dificultad. Se dice que una variable bidimensional X = (X1 , X2 ) sigue una distribuci´on uniforme si su funci´on de densidad viene dada por la expresi´on: ( 1 si x1 ∈ (a, b), x2 ∈ (c, d) (b − a)(d − c) f (x1 , x2 ) = 0 en el resto. Ejemplo 6.19 Dos amigos se citan entre las nueve y las diez de la noche, acordando no esperarse m´as de 10 minutos, ¿cu´al es la probabilidad de que se encuentren? Se sabe que el tiempo de espera para cada uno se distribuye seg´ un una U (0, 60), por lo tanto la distribuci´on conjunta viene dado por: ( 1 si 0 ≤ x ≤ 60 y 0 ≤ y ≤ 60 60 · 60 f (x, y) = 0 en otro caso. Para que se encuentren los amigos debe ocurrir que |X − Y | ≤ 10. Por lo tanto: P (|X − Y | ≤ 10) = P (−10 ≤ X − Y ≤ 10) = P (Y − 10 ≤ X ≤ Y + 10) Z 10 Z y+10 1 = dxdy 3600 0 Z 0Z 50 y+10 1 + dxdy 3600 Z1060 Zy−10 60 1 11 + dxdy = . 36 50 y−10 3600

214 Cap´ıtulo 6. Algunos modelos probabil´ısticos 16.3. Distribuci´ on normal multidimensional Se dice que una variable n-dimensional X = (X1 , X2 , . . . , Xn ) sigue una distribuci´on normal si su funci´on de densidad es: f (X) =

1 1 2

|M | (2π)

1

n 2

e− 2 (X−¯µ)M

−1 (X−¯ µ)t

.

Donde M es la matriz de covarianzas y µ ¯ el vector de medias. La funci´on de densidad de la distribuci´on para el caso de una variable bidimensional, que es la u ´nica que se puede representar, tiene forma de hongo con as´ıntotas en cualquier direcci´on del plano x1 x2 . Adem´as, al cortar la superficie de densidad con cualquier plano perpendicular al x1 x2 se obtienen curvas con forma de campana. M´as formalmente se verifican las siguientes propiedades: 1. Para una variable normal n-dimensional, cualquier subconjunto de r < n variables tiene conjuntamente distribuci´on normal. 2. Si las variables X1 , X2 , · · · , Xn est´an incorreladas, entonces son independientes. 3. Cualquier combinaci´on lineal de variables normales es normal. As´ı, si Y = XA, donde A es una matriz de m filas y n columnas, entonces Y es normal con media µ ¯X A y matriz de covarianzas At MX A. Ejemplo 6.20 Sea (X, Y ) una v.a. normal, cuya funci´on de densidad viene dada por: f (x, y) =

1 −(y2 +2x2 −2xy) 2 e 2π

∀(x, y) ∈ R2 .

Calcule el vector de medias y la matriz de covarianzas. Igualando t´erminos con la distribuci´on te´orica, se tiene:

6.17 Ejercicios 215 |M | = 1 −1 (X−¯ µ)t

− (X−¯µ)M 2

= −y

2 +2x2 −2xy

2

Por lo tanto: µ M −1 =

µ ¯ = (0, 0)

2 −1 −1 1



Con lo que: µ M=

17.

1 1 1 2



Ejercicios

17.1. Ejercicio resuelto 6.1 La resistencia de una muestra de un determinado material viene dado por una variable aleatoria, X, con funci´on de densidad   f (x) =



x 2x+1 8

0

si 0 ≤ x < 1 si 1 ≤ x ≤ 2 en el resto.

a) Calcule su funci´on de distribuci´on. b) Calcule P (00 5 ≤ X ≤ 10 5). c) Una muestra de material se encuentra en estado ideal de resistencia si ´esta se encuentra entre 00 5 y 10 5. Si se consideran 10 muestras de materiales, ¿cu´al es la probabilidad de que al menos el 70 % de ellos tenga resistencia ideal? d) ¿Cu´al ser´a el n´ umero medio de materiales con resistencia no ideal que se tendr´a que escoger hasta encontrar uno con resistencia ideal? e) ¿Cu´al es la probabilidad de que se necesiten 10 muestras para obtener tres de resistencia ideal?

216 Cap´ıtulo 6. Algunos modelos probabil´ısticos Soluci´ on: a) Usando la definici´on de funci´on de distribuci´on se obtiene que Z

x

F (x) =

f (x) d x = 0 si x < 0, Z x x2 si 0 ≤ x < 1, F (x) = f (x) d x = xdx = 2 −∞ 0 Z x Z 1 Z x 2x + 1 1 x2 + x ¯¯x F (x) = f (x) d x = xdx + = + ¯ 8 2 8 1 −∞ 0 1 2 1 x +x−2 = + si 1 ≤ x < 2, 2 8 F (x) = 1 si x ≥ 2, −∞ Z x

Es decir, la funci´on de distribuci´on viene dada por  0 si x < 0    x2 si 0≤x

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.