Story Transcript
M. Iniesta Universidad de Murcia
PROBABILIDAD Tema 2.3: Variables aleatorias continuas
Objetivos
Distinguir entre variables aleatorias discretas y continuas. Dominar el uso de las funciones asociadas a una variable aleatoria continua. Conocer el signicado y saber calcular la esperanza y la varianza de una variable aleatoria continua. Conocer y aplicar los modelos continuos más conocidos. 1.
Función de Distribución de una variable aleatoria continua
Una función X:Ω→R
es una variable aleatoria si para todo subconjunto B ⊆ R se tiene X −1 (B) ∈ S , es decir, si X −1 (B) es un suceso sea cual sea el conjunto B ⊆ R. El conjunto X(Ω) = X se le llamará espacio muestral de la variable aleatoria X , es el conjunto de todos los valores posibles de X y en este caso será un intervalo de la recta real o incluso podría ser toda la recta real. Denimos la Función de Distribución de una variable aleatoria continua X de la misma forma a como hemos denido esta función para variables aleatorias discretas, es decir la función real de variable real F : R → [0, 1] x∈R
F (x) := P (X −1 (−∞, x]) = P ({e ∈ Ω : X(e) ≤ x}) = P (X ≤ x)
salvo que en este caso esta función es siempre una función continua. 1.1.
Propiedades de la Función de Distribución de una variable aleatoria continua
Las más importantes son: 1. Es siempre no decreciente. 2. Tiene dos asíntotas horizontales: l´ımx→−∞ F (x) = 0 y l´ımx→∞ F (x) = 1. 3. Es siempre continua tanto por la derecha como por la izquierda en todos los puntos. Página: 1
M. Iniesta Universidad de Murcia
4. P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b) = P (a ≤ X ≤ b) = F (b) − F (a), ∀a, b ∈ R. Las propiedades 3 y 4 anteriores signican que P (X = x) = 0 para todo x, por lo que pueden haber sucesos que contengan puntos muestrales y haya que asignarle probabilidad cero; al igual que habrán sucesos que no sean el suceso seguro y haya que asignarles probabilidad uno. Si A 6= ∅ es un suceso con P (A) = 0 decimos que A es un suceso casi imposible. Si A 6= Ω es un suceso con P (A) = 1 decimos que A es un suceso casi seguro. En una variable continua, por tanto, todos los sucesos X = x son casi imposibles.
Ejemplo 1.1 Imaginemos que se construye una varilla y el proceso de fabricación está
sometido a errores, de forma que la longitud resultante es el valor de la variable aleatoria X con espacio muestral X = (l − ε, l + ε). Si suponemos equiprobabilidad, asignamos al intervalo (l − ε, x] una probabilidad que sea proporcional a su amplitud, es decir, denimos si x < l − ε; 0, (x−l+ε) F (x) = , si l − ε ≤ x < l + ε; 2ε 1, si x ≥ l + ε. cuya representación gráca es la siguiente:
1.2.
Actividades
1. Estudiar si las siguientes funciones pueden ser funciones de distribución, y representarlas grácamente:
a ) F (x) = 0 si x ≤ 0, F (x) = x2 si x ∈ (0, 1) y F (x) = 1 si x ≥ 1 b ) F (x) = 0 si x < 0 y F (x) = 1 − e−x si x ≥ 0
Página: 2
M. Iniesta Universidad de Murcia
2.
Función de Densidad
Si X es continua no cabe hablar de probabilidades puntuales, puesto que éstas son nulas. En este caso los sucesos no triviales van a ser subintervalos del espacio muestral y a ellos habrá que asignar probabilidad. la Función de Densidad es la función f : R → R+
denida mediante:
dF (x) dx
f (x) =
que permite asignar probabilidades a los intervalos de R puesto que se tiene Z
x
F (x) =
f (t)dt −∞
y de las propiedades de la función de distribución se derivan las siguientes propiedades de la función de densidad: 1.
R +∞ −∞
f (x)dx = 1
2. P (a < X ≤ b) = P (a ≤ X < b) = P (a < X < b) = P (a ≤ X ≤ b) =
Rb a
f (x)dx
Estas propiedades podemos visualizarlas en la siguiente gura: la propiedad 1 se traduce en que el área que encierra toda la curva ha de ser igual a 1; mientras que la propiedad 2 se traduce en que el área limitada entre la curva y las rectas x = a y x = b es P (a ≤ X ≤ b).
Ejemplo 2.1 La función de densidad de la variable aleatoria del ejemplo (1.1) es f (x) = 2.1.
1/2ε, si x ∈ (l − ε, l + ε); 0, en el resto.
Actividades
Estudiar si las funciones siguientes pueden ser funciones de densidad, y en su caso, calcular sus funciones de distribución: 1. f (x) = x2 si x ∈ (0, 2) y f (x) = 0 en el resto Página: 3
M. Iniesta Universidad de Murcia
2. f (x) = k(3x + 1) si x ∈ (1, 3) y f (x) = 0 en el resto 3. f (x) = k(x2 + 2x + 0.5) si x ∈ (0, 2) y f (x) = 0 en el resto 4. f (x) = kx−3 si x > 1 y f (x) = 0 en el resto 5. (*) f (x) = x si 0 < x < 1, f (x) = 2 − x si 1 < x < 2 y f (x) = 0 en el resto 3.
Esperanza y Varianza de una variable aleatoria continua
Con estos parámetros, que denimos a continuación, pretendemos describir una variable aleatoria respecto a sus características de centralización y dispersión. 3.1.
Esperanza Matemática o Media Teórica
La Esperanza o Media Teórica de una v.a. E(X) indica un valor teórico al que tendería el valor medio de n realizaciones de X , cuando n tiende a innito. Si X es continua Z ∞ E(X) =
xf (x)dx −∞
Ejemplo 3.1 Le esperanza de la variable del ejemplo (1.1) vale l+ε
Z
x
E(X) = l−ε
1 dx = l 2ε
que signica que el valor medio de las longitudes de un gran número de varillas es aproximadamente l. Si X es continua se cumplen las mismas propiedades que en el caso de ser X discreta. Éstas son las siguientes: 1. Si C es una constante E(C) = C 2. E(CX) = CE(X) 3. Si C y D son constantes y X e Y son v.a. E(CX + DY ) = CE(X) + DE(Y ) 4. Si X e Y son independientes, se tiene E(X.Y ) = E(X)E(Y ). 3.2.
Varianza y Desviación Típica
Si denotamos E(X) mediante µ y V (X) mediante σ 2 , denimos V (X) = σ 2 = E((X − µ)2 ) = E(X 2 ) − µ2
Su cálculo se realiza mediante la siguiente expresión: 2
Z
∞ 2
2
Z
∞
x f (x)dx − µ =
V (X) = σ = −∞
Z x f (x)dx − (
∞
2
−∞
xf (x)dx)2
−∞
donde f (x) indica la función de densidad de la variable X . Página: 4
M. Iniesta Universidad de Murcia
Ejemplo 3.2 La varianza de la variable del ejemplo (1.1) es Z
2
l+ε
V (X) = σ = l−ε
x2
ε2 1 dx − l2 = 2ε 3
mientras que su desviación típica es ε D(X) = √ 3
Tanto si es discreta como continua, las propiedades de la varianza más importantes son: 1. Si C es una constante V (C) = 0 2. V (CX) = C 2 V (X) 3. Si C y D son constantes y X e Y son v.a. e independientes, V (CX + DY ) = C 2 V (X) + D2 V (Y )
4. Si E(X) = µ y D(X) = σ , la variable Z = 3.3.
X−µ σ
cumple E(Z) = 0 y V (Z) = 1.
Actividades
1. Calcular la esperanza y la varianza en los casos en donde sea posible de las actividades de las secciones anteriores. 2. Supongamos que un elemento electrónico tiene una duración X cuya función de densidad es f (x) = e−x si x > 0 y f (x) = 0 en el resto. Supongamos que el coste de fabricación un elemento es de 2¿. El fabricante lo vende por 5¿, pero garantiza el reembolso total si X < 0.9. ¾Cuál es la utilidad neta esperada por el fabricante por cada artículo?. 4.
Desigualdad de Tchebychev
Cuando de una variable aleatoria se dispone su función de distribución o su función de probabilidad (caso discreto) o su función de densidad (caso continuo), es posible calcular la probabilidad asociada a cualquier suceso relativo a dicha variable. Cuando no se conoce la distribución de probabilidad, o bien sí la conocemos pero su manejo resulta bastante complejo, sin embargo sí conocemos su esperanza y su varianza, es posible encontrar intervalos de valores de la variable, centrados en su esperanza, que con alta probabilidad contendrá el valor de la variable cuando ésta sea observada. La Desigualdad de Tchebychev dice si X es una v.a. con E(X) = µ y D(X) = σ nitas y k > 0 es un número cualquiera P (|X − µ| ≥ kσ) ≤
1 k2
o equivalentemente: P (X ∈ (µ − kσ, µ + kσ)) ≥ 1 −
1 k2
Página: 5
M. Iniesta Universidad de Murcia
Ejemplo 4.1 Supongamos que sabemos que la variable X =altura de los varones mayores de 20 años tiene E(X) = µ = 175cm y D(X) = σ = 7.5cm. Aunque no sepamos la distribución de probabilidad de X , si tomamos k = 2, la desigualdad anterior dice que P (X ∈ (160, 190)) ≥ 0.75
es decir, eso signica que con esos parámetros, al menos el 75 % de la población tiene altura entre los límites (160, 190). 4.1.
Actividades
A, B y C disparan cada uno 20 disparos a un blanco. La probabilidad de que cada tiro alcance el blanco es 0.4 para A, 0.3 para B y 0.1 para C. Los disparos son independientes entre sí. Sea X el número de blancos alcanzados. 1. Expresar X como suma de v.a. independientes y calcular su media y su varianza. Atención: Se trata en esta actividad una variable aleatoria discreta. 2. Utilizar la desigualdad de Tchebychev para obtener un intervalo que contenga el número total de blancos con una probabilidad mínima de 8/9. 5.
Modelos de probabilidad continuos
5.1.
El modelo Exponencial
El modelo Exponencial de parámetro λ está íntimamente relacionado con el modelo discreto de Poisson de mismo parámetro λ. Si la variable X ∼ P(λ) signica X =número de veces que ocurre A por unidad de tiempo (día, mes, año,...)
con λ número medio de veces que ocurre A en dicha unidad de tiempo, la variable T =Tiempo, en la unidad de tiempo considerada, que transcurre hasta que ocurre A, o
bien el tiempo que transcurre desde la última vez que ha ocurrido A hasta la siguiente vez sigue un modelo exponencial de parámetro λ con función de distribución dada por F (t) =
1 − e−λt , si t > 0; 0, en el resto.
y función de densidad dada por f (t) =
λe−λt , si t > 0; 0, en el resto.
Los momentos más importantes del modelo exponencial son: Página: 6
M. Iniesta Universidad de Murcia
E(T ) =
1 λ
V (T ) =
1 λ2
(Tiempo medio hasta que ocurre A)
Aunque el modelo exponencial se utiliza mucho en variables que indican tiempo de vida (en sistemas de la naturaleza) o tiempo de funcionamiento (en sistemas electrónicos), sin embargo la unidad en la que se mide la variable exponencial T no tiene por qué ser necesariamente de tiempo y puede ser una unidad en cualquier dimensión continua. Por ejemplo, si la variable de Poisson mide el número de fallos por metro lineal de cierto tipo de cable, podríamos asociar a esta variable discreta una variable continua que indicara el espacio en metros, desde el último error detectado hasta el siguiente. Si T es una variable aleatoria cuya distribución de probabilidad es como la del modelo exponencial, lo indicaremos poniendo T ∼ E(λ)
Uno de los inconvenientes del modelo exponencial para ser aplicado a la abilidad de sistemas electrónicos es la propiedad de Carencia de Memoria, que se indica poniendo P (T > t + h|T > t) = P (T > h)
es decir, los sistemas cuya distribución del tiempo de vida es exponencial no sufren desgaste con el uso, porque, supuesto que el sistema ya ha funcionado correctamente t unidades de tiempo, la probabilidad de que funcione al menos h unidades más es la misma de que un sistema funcione al menos h unidades de tiempo.
5.1.1. Actividades 1. Demostrar la propiedad de carencia de memoria del modelo exponencial. 5.2.
El modelo de Erlang
En las mismas hipótesis que el modelo Exponencial, supongamos ahora que r ∈ N con r > 1 y sea T =espacio que transcurre hasta que sucede A r veces
donde dicho espacio hay que entenderlo en términos de cualquier magnitud continua: tiempo, longitud, volumen,.... Entonces, la variable T sigue un modelo de Erlang de parámetros r y λ =número medio de ocurrencias del suceso A en un intervalo unidad (de tiempo, longitud, volumen, o la magnitud que corresponda) y su función de densidad está dada por: f (t) =
λr tr−1 e−λt , (r−1)!
0,
si t > 0; en el resto.
Los momentos más importantes son E(T ) =
r λ
(Tiempo medio hasta que ocurre A r veces) Página: 7
M. Iniesta Universidad de Murcia
V (T ) =
r λ2
Si T es una variable aleatoria cuya distribución de probabilidad es como la del modelo de Erlang, lo indicaremos poniendo T ∼ Erlang(r, λ) 5.3.
Modelo Uniforme
Una variable aleatoria continua X tiene distribución uniforme en el intervalo (a, b) si la probabilidad asociada al intervalo (a, x] es proporcional a la amplitud del mismo, es decir, si su función de distribución es: F (x) =
0,
x−a , b−a
1,
si x ≤ a; si x ∈ (a, b); si x ≥ b.
En este caso, la función de densidad es constante en el espacio muestral X = (a, b) y vale: 1 , si x ∈ (a, b); b−a f (x) = 0, si x ∈ / (a, b). Además: E(X) =
a+b 2
V (X) =
(b−a)2 12
Si X es una variable aleatoria cuya distribución de probabilidad es como la del modelo Uniforme en (a, b), lo indicaremos poniendo X ∼ U(a, b) 5.4.
Modelo Normal
La distribución de probabilidad continua más frecuente en experimentos aleatorios, donde se observan magnitudes en poblaciones homogéneas es la Distribución Normal, también llamada Campana de Gauss.
Denición 5.1 Decimos que la variable aleatoria X sigue una distribución Normal con E(X) = µ y D(X) = σ si su función de densidad viene dada por f (x) = √
1 x−µ 2 1 e− 2 ( σ ) ; 2πσ
x∈R
que indicaremos poniendo X ∼ N (µ, σ)
Las propiedades más elocuentes pueden apreciarse en la siguiente gráca. Página: 8
M. Iniesta Universidad de Murcia
y que son: 1. l´ımx→−∞ = l´ımx→∞ = 0 2. f (x) es simétrica respecto a la recta x = µ, es decir, f (µ − x) = f (µ + x), para todo x ∈ R 3. f (x) tiene puntos de inexión en x = µ ± σ 4. Si X ∼ N (µ, σ), la variable Z = X−µ se denomina Normal Tipicada y Z ∼ σ N (0, 1). En este caso se va a tener P (Z ≤ −z) = P (Z ≥ z), para todo z > 0 y si z = 0 dicha probabilidad vale 0.5. 5. Las sumas de variables aleatorias normales independientes son normales. Es decir, Si Xi ∼ N (µi , σi ), i = 1, ...., n, entonces, X = a0 + a1 X1 + .... + an Xn se distribuye normalmente,pes decir, X ∼ N (µ, σ) con µ = E(X) = a0 + a1 µ1 + .... + an µn y σ = D(X) = a21 σ1 + .... + a2n σn . 6. Los intervalos de mayor probabilidad se concentran alrededor de la media µ. Concretamente, si X sigue una distribución normal de media µ y desviación típica σ , que lo indicaremos poniendo X ∼ N (µ, σ)
se tiene: P (µ − σ < X < µ + σ) = 0.6827 P (µ − 2σ < X < µ + 2σ) = 0.9545 P (µ − 3σ < X < µ + 3σ) = 0.9973
tal y como se muestra en la siguiente gura.
Página: 9
M. Iniesta Universidad de Murcia
Otra razón sobre la importancia de la distribución normal es que el Teorema Central del Límite establece que todas las variables que puedan expresarse como combinaciones lineales de un número sucientemente grande de variables tienen distribución aproximadamente normal. 5.5.
Manejo de la tabla de la distribución normal
Dada la imposibilidad de poder calcular manualmente valores de la función de distribución del modelo Normal, tablas como la que se incluye a continuación nos ayudan a calcular probabilidades normales, junto con las propiedades vistas anteriormente, principalmente las de simetría. Las siguientes grácas muestran algunos ejemplos:
5.5.1. Actividades 1. Si X ∼ N (4.5, 2.3), calcula P (X < 5), P (2 < X < 7). 2. Si X es la del apartado anterior, calcula en cada caso el valor de a:
a ) P (X < a) = 0.70 b ) P (X > a) = 0.85 c ) P (|X − 4.5| ≤ a) = 0.95 6.
Aproximaciones
El Teorema Fundamental del Límite es un resultado de suma utilidad en la aproximación de probabilidades. Básicamente dice que en condiciones muy generales, las sumas de variables independientes e idénticamente distribuidas tienen distribución aproximadamente normal, cuando el número de sumandos es grande; es decir, si llamamos Sn = X1 + ... + Xn , con E(Xi ) = µ y D(Xi ) = σ , entonces si n es grande Z=
Sn − nµ √ ∼aprox. N (0, 1) nσ
Página: 10
M. Iniesta Universidad de Murcia
En particular, si Sn ∼ B(n, p), entonces puede ser expresada como suma de n variables de Bernoulli independientes, es decir, Sn = X1 + ... + Xn con Xi ∼ B(p), por lo tanto Sn − np ∼aprox. N (0, 1) Z=p np(1 − p)
o también
Sn
Z = qn
−p
p(1−p) n
∼aprox. N (0, 1)
Página: 11