1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS DEFINICIÓN DE CONJUNTO NOTACIÓN EJEMPLOS

TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIÓN DE CONJUNTO. 1.1.2 NOTACIÓN. 1.1.3 EJEMPLOS

0 downloads 75 Views 1MB Size

Recommend Stories


NOCIONES BÁSICAS DE CONJUNTOS NUMÉRICOS
Filial Chiclayo NOCIONES BÁSICAS DE CONJUNTOS NUMÉRICOS Conjunto de los Números Cardinales (IN0): 1. Definición Es el conjunto de los Naturales, inc

Nociones generales sobre cerámica
Universidad de Puerto Rico Escuela Secundaria Área de Bellas Artes Prof. Lourdes Sánchez Nociones generales sobre cerámica La cerámica es el arte de

TEMA 1 : NOCIONES GENERALES SOBRE MUESTREO ESTADÍSTICO
1 TEMA 1 : NOCIONES GENERALES SOBRE MUESTREO ESTADÍSTICO * Objetivo del Muestreo Estadístico: estudio de los métodos para la obtención de subconjuntos

NOCIONES ELEMENTALES DE LOS CASOS Y DE LAS DECLINACIONES LATINAS
NOCIONES ELEMENTALES DE LOS CASOS Y DE LAS DECLINACIONES LATINAS CASOS Y FUNCIONES: Casos Nominativo Vocativo Acusativo Genitivo Dativo Funciones Suj

Story Transcript

TABLA DE CONTENIDOS

1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIÓN DE CONJUNTO. 1.1.2 NOTACIÓN. 1.1.3 EJEMPLOS. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.6 EJEMPLO 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS 1.2 MODELOS PROBABILÍSTICOS 1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO 1.2.3 CONCEPTO DE PROBABILIDAD 1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILISDAD 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD 1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD 1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI 1.2.8 PROBABILIDAD MARGINAL 1.2.9 PROBABILIDAD CONDICIONAL 1.2.10 TEOREMA DE BAYES 1.2.11 PROBLEMAS 2. VARIABLES ALEATORIAS 2.1 VARIABLE ALEATORIA DISCRETA 2.2 FUNCIONES DE DOS O MÁS VARIABLES DISCRETAS 2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS 2.4 FUNCIÓN DE DENSIDAD CONDICIONAL 2.5 VARIABLE ALEATORIA CONTINUA

2.6

FUNCIÓN

DE

DENSIDAD

PARA

VARIABLE

CONTINUA

PLURIDIMENSIONAL 2.7 ESPERANZA MATEMÁTICA 2.8 MOMENTOS CON RESPECTO AL ORIGEN 2.9 MOMENTOS DE ORDEN

RESPECTO A UNA CONSTANTE

2.10 MOMENTOS DE ORDEN CON RESPECTO A LA MEDIA 2.11 VARIANZA DE UNA FUNCIÓN DE PROBABILIDAD 2.12 FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.2 TEOREMA 2.13 FUNCIÓN CARACTERÍSTICA 2.14 EJERCICIOS 3. DISTRIBUCIONES PROBABILÍSTICAS 3.1

PRINCIPALES

DISTRIBUCIONES

DE

PROBABILIDAD

PARA

VARIABLE DISCRETA 3.1.1 DISTRIBUCIÓN BINOMIAL 3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA 3.1.3 DISTRIBUCIÓN DE POISSON 3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS 3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR 3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1) 3.2.3 DISTRIBUCIÓN NORMAL CON MEDIA m y VARIANZA s2: h(m,s2) 3.2.4 DISTRIBUCIÓN JI DOS CON UN GRADO DE LIBERTAD: X 2 (1) 3.2.5 DISTRIBUCIÓN JI DOS CON n GRADO DE LIBERTAD X 2 (n) 3.2.6 DISTRIBUCIÓN t DE ESTUDENT 3.2.7 DISTRIBUCION F DE SNEDECOR 3.2.8 TEOREMA CENTRAL DEL LÍMITE 3.2.9 TEOREMA DE MOIVRE 3.2.10 EJERCICIOS BIBLIOGRAFIA

1 NOCIONES ELEMENTALES DE PROBABILIDAD

1.1 NOCIONES SOBRE CONJUNTOS

1.1.1 DEFINICIÓN DE CONJUNTO. Un conjunto no es más que una colección de objetos, elementos o miembros. 1.1.2 NOTACIÓN. Por convencionalismo se tiene, mientras no se diga lo contrario, los conjuntos, los denotaremos con letras mayúsculas y los elementos con letras minúsculas. 1.1.3 EJEMPLOS.

1.1.3.1 Sea A un conjunto compuesto por los elementos: a, b, c y d. Es decir, A = {a, b, c, d }, donde podemos asegurar que a “pertenece a” A y se escribe

a ∈ A; b ∈ A; c ∈ A; d ∈ A; (a, b )∈ A; (b, c, d )∈ A; etc. 1.1.3.2 Cuando un elemento o un grupo de elementos “no pertenece a” un conjunto, lo denotamos así: ∉ . Remitiéndonos al ejemplo 1.1.3.1 tenemos que la pareja (h, k ) ∉ A. 1.1.3.3 Dados los conjuntos A y B los cuales tienen como elementos : 1, 3, 5, 7, 9 y 1, 7, 9; respectivamente, entonces decimos que el conjunto B “es subconjunto de” A.

1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. En muchos casos restringimos la teoría de conjuntos en términos de subconjuntos, ya que los relacionamos con respecto a otro conjunto o espacio que los contiene, esto es, conjunto Universal y lo denotamos con la letra U.

Cuando un conjunto no tiene elementos, se denomina conjunto vacío y lo representamos con la letra φ , (FI).

1.1.4.1

Ejemplo de conjunto vacío:

El conjunto de todos los números reales X tales que X2 = -1, es decir,

{X / X

2

}

= -1 = φ , ya que no existen cuadrados de números reales que sean

iguales a –1.

1.1.4.2

Ejemplo de conjunto Universal:

Si lanzamos un dado, el conjunto de todos los posibles resultados es el universo o Espacio Universal: {1, 2 , 3, 4 , 5, 6}

1.1.5 OPERACIONES ENTRE CONJUNTOS

1.1.5.1

UNIÓN. Se define como el conjunto de todos los elementos, que pertenecen a A o a B, o tanto a A como a B, (siendo A y B previamente definidos).

A “Unión” B, esto es ( A ∪ B ) .

1.1.5.2

INTERSECCIÓN. Es el conjunto de elementos que pertenecen simultáneamente a A y a B, (A y B previamente definidos), y se escribe A ∩ B.

Cuando A ∩ B = φ , decimos que A y B son conjuntos disjuntos o “Distintos”.

1.1.5.3

DIFERENCIA. Son todos los elementos que de A que no pertenecen a B, esto es, A – B.

1.1.5.4

COMPLEMENTO. Si B C A, entonces, A – B se denomina el complemento de B relativo a A y se escribe: B´ A o B A o B C A. . Si A = U, nos referimos a U – B, sencillamente como el complemento de B´ o B o B C . El

B:

complemento

de

(A

∪ B)

se

escribe

( A ∪ B )´ o ( A ∪ B ) o ( A ∪ B )C. 1.1.6 Ejemplo:

A = {0, 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9} B = {a, 1, e, 3, i, 5, o, 7 , u, 9} C = {2 , 4 , 6 , 8} D = {a,u} Hallar: A ∪ B; B ∪ D; A - B; C ´ A. Entonces:

A ∪ B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9} ∪ {a, 1, e, 3, i, 5, o, 7 , u, 9} A ∪ B = {0 , 1, 2 , 3, 4 , 5, 6 , 7 , 8, 9 , a, e, i, o, u} B ∪ D, vemos claramente que, D ⊂ B. Luego, B ∪ D = B. Ahora, A - B = {0 , 2 , 4 , 6 , 8} y por último C ´ A = C ´ A = {0 , 1, 3, 5, 7 , 9}

1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS

1.1.7.1

Sean

A,

B,

C,

tres

conjuntos

cualesquiera,

tal

que

si

A ⊂ B y B ⊂ C ⇒ A ⊂ C. 1.1.7.2

A ∪ B = B ∪ A: Ley conmutativa de la unión.

1.1.7.3

A ∪ (B ∪ C ) = ( A ∪ B ) ∪ C = A ∪ B ∪ C: Ley asociativa de la

unión 1.1.7.4

A ∩ B: Ley conmutativa de la intersección = B ∩ A

1.1.7.5

A ∩ (B ∩ C ) = ( A ∩ B ) ∩ C = A ∩ B ∩ C: Ley asociativa de la

intersección. 1.1.7.6

A ∩ (B ∪ C ) = ( A ∩ B ) ∪ ( A ∩ C )

1.1.7.7

A ∪ (B ∩ C ) = ( A ∪ B ) ∩ ( A ∪ C )

1.1.7.8

A - B = A ∩ B´

1.1.7.9

Si A ⊂ B ⇒ A´ ⊃ B´ o B´ ⊂ A´

1.1.7.10

A ∪ φ = A y A ∩φ = φ

1.1.7.11

A ∪ U = U y A ∩ U = A

1.1.7.12

(A

∪ B ) = A´ ∩ B´ : Se conoce como la primera Ley de Morgan

1.1.7.13

(A

∩ B ) = A´ ∪ B´ : Segunda Ley de Morgan

´

´

(

)

1.1.7.14 Para cualquier par de conjuntos A y B ⇒ A = ( A ∩ B ) ∪ A ∩ B´ .

1.2 CÁLCULO DE PROBABILIDADES

El cálculo de probabilidades es la teoría matemática que sirve de modelo, para la descripción y análisis de los fenómenos estadísticos o aleatorios.

Por fenómenos o experimentos aleatorios, entendemos que son aquellos cuyos resultados están establecidos pero no se pueden predecir con exactitud A priori1, o sea que en situaciones idénticas pueden presentar resultados diferentes; además los fenómenos pueden ocurrir repetidamente en forma indefinida.

1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS

1.2.1.1

Multiplicidad de la ocurrencia

1.2.1.2

Variabilidad, ya que pueden presentar resultados distintos en cada experimento.

1.2.1.3

Aleatoriedad, porque no pueden predecir

1.2.1.4

Ley del Azar, si una cierta experiencia se repite n veces y anotamos el número n(A) de veces que ocurre una característica determinada, se

1

Palabra del latín que significa “que viene antes”, o sea, antes de la prueba.

observa la frecuencia

n(A) , tiende a estabilizarse, esto es, se aproxima n

a un valor fijo. Haremos énfasis en la última característica o propiedad de los fenómenos aleatorios, conocida también como “Estabilidad de las frecuencias” o “Principio de la regularidad estadística”.

Todo fenómeno exige la evidencia de alguna regularidad, el cálculo de probabilidades se basa en la regularidad estadística que caracteriza a los fenómenos aleatorios.

Los fenómenos aleatorios se caracterizan por la imposibilidad de predecir resultados individuales, sin embargo, si consideramos un número de pruebas repetidas o simultáneas, la situación cambia, y a pesar de la irregularidad de los resultados individuales o aislados, los resultados promedios o globales muestran una sorprendente regularidad.

Para explicar este principio de la regularidad, tomemos un ejemplo clásico citado por numerosos autores de temas estadísticos: “Supongamos el lanzamiento de una moneda perfecta, donde representamos por n el número de lanzamientos de la moneda y sea, A: El resultado consistente en caer cara, entonces n(A) será la frecuencia absoluta o número de veces de caer cara dentro del experimento, luego la frecuencia relativa será h(a) =

n(A) . La experiencia indica que para grandes n

valores de n, esta frecuencia relativa tiende a estabilizarse alrededor de un valor más o menos constante. Si observamos la figura No. 1, vemos claramente que la frecuencia h(A) fluctúa ampliamente para pequeños valores de n, pero al aumentar n, las oscilaciones se hacen cada vez menos intensas y para grandes valores de n el gráfico parece indicar la tendencia de h(A) a alcanzar un valor límite o ideal,

muy próximo a 0.5. Ver figura No. 1.

Figura No. 1

1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO

Fundamentalmente el análisis combinatorio se ocupa tanto de los diversos modos de ordenar los elementos de un conjunto, como del estudio de las agrupaciones que se pueden formar con dichos elementos, así pues, por análisis combinatorio podemos afirmar que es la parte de la matemática en que se estudian las agrupaciones que pueden formarse con elementos dados, (objetos. Números, ...), teniendo en cuenta el número de elementos que entran en cada grupo y el orden en que están colocados, prescindiendo del valor numérico de los elementos, si lo tuvieren.

En el análisis combinatorio podemos considerar: Las variaciones, permutaciones, combinaciones y el principio fundamental de cuenta.

1.2.2.1

VARIACIONES2. Se denomina variación, de los elementos de un

conjunto, una disposición ordenada de los mismos. Si hay n elementos en el conjunto, el número de variaciones dependerá del número de objetos m que se deseen tomar y ordenar.

2

Algunos autores las llaman ordenaciones, otros las consideran como un caso especial de las permutaciones.

Las variaciones de n elementos tomados en grupo de “m en m” se denotan por:

Vmn ó Vn:m ó nVm ó Vn m . Antes de definir el número de variaciones, aclaremos la noción de factorial de un número, primero que todo dicho número debe definirse como el elemento de los números enteros positivos sin incluir el cero, así pues, el factorial de n y se escribe n! Se define como: n! = n(n-1) (n-2) ... x3x2x1 y decimos que 0! = 1, por definición.

Luego el número de variaciones está dado por la expresión:

Vmn =

n! (n-m)!

donde n representa el total de elementos del conjunto y m: el

número de elementos que desean ordenar.

1.2.2.2

EJERCICIO. Hay 15 candidatos para ocupar los cargos de presidente, vicepresidente, secretario, tesorero, fiscal, de una asociación gremial. De cuántas maneras diferentes se pueden ocupar estos cargos?

Tenemos que el primer cargo, o sea, el cargo del presidente puede ser ocupado por cualquiera de los 15 candidatos, es decir, hay 15 maneras diferentes de ocupar dicho cargo. Ahora, una vez ocupado el cargo de presidente, nos quedan14 candidatos disponibles para ocupar el segundo cargo, digamos el de vicepresidente, una vez ocupado dicho cargo, el siguiente se puede ocupar de 13 maneras y así sucesivamente; tal como lo indicamos a continuación:

Pr esidente Vicepresidente Secretario Tesorero Fiscal x x x x , 15 14 13 12 11

luego, el número

total de maneras diferentes para integrarse dicha junta es: 15 x 14 x 13 x 12 x 11 = 360.360 . n = 15: número de candidatos, m = 5: Personas a ocupar los cargos.

V515 =

15! 15 x14 x13 x12 x11 10! = 10! ( 15-5 )!

= 360.360

1.2.2.3

VARIACIONES CON REPETICIÓN

Si suponemos que cada uno de los m elementos, puede figurar cualquier número de veces en una misma variación, obtenemos las variaciones con repetición, cuyo número lo podemos calcular auxiliándonos con la fórmula:

V R mn =

n

m

Así en el caso del ejercicio 1.2.2.2, el presidente una vez nombrado, participa en la elección de vicepresidente y a su vez éste en la del presidente, tesorero, secretario y fiscal a así sucesivamente; es decir: P Vp x 15 15

S T F x x 15 15 15

x

V R515 = ( 15 )5 = 759.375

1.2.2.4

PERMUTACIONES.

Las variaciones, de orden m de n elementos

cuando m es igual a

n, decimos entonces que son permutaciones. El

número de permutaciones diferentes está dado por la expresión:

P

n m

= n! .

Ahora, en el caso que entre los n elementos, existan h iguales entre sí; ( h < n), el número de permutaciones está dado por la expresión:

P

h n

=

n! h!

Pero puede presentarse el caso en que dentro de los n haya más de una clase de elementos iguales entre sí, es decir, existan h1, iguales entre sí, h2 iguales entre sí, …………., h t

por la expresión:

iguales entre sí; entonces el número de permutaciones está dado

P

h1 ,h2 ,.........ht n

=

n! , donde : h1 + h2 + ... + ht = n h1 ! h2 ! ... ht !

Cuando los elementos no se suponen ubicados en una línea recta, sino en un circulo, se dice que la permutación es circular, esto es, no hay primero ni último elemento; lo que implica tener que “fijarse” uno, como punto de referencia. El número de permutaciones circulares está dado por: c P n = PCn = (n – 1)!.

A manera de ejemplos ilustremos un poco los conceptos de permutaciones ya dados:

-

El número de permutaciones diferentes que se pueden formar con la palabra SACO es: P4 = 4! ; en dicha palabra no se encuentran letras iguales.

-

Veamos ahora con la palabra CHALECO, en este caso hay dos elementos iguales entre sí, luego el número de permutaciones está dado por:

P -

2 7

=

7! 2!

= 2.520 .

Dadas las siguientes letras: T, S, S, V, V, T, T, S; cuántas permutaciones diferentes podemos hallar?

Observamos que para n = 8 elementos hay h1 = “número de tes” = 3; h2 = número de eses = 3 y h3 = número de uves = 2; entonces el número de permutaciones estará dado por:

-

3 ,3 ,2

P8

=

8! 3! 3! 2!

= 560

Si tenemos 5 estudiantes sentados alrededor de una mesa redonda, de cuántas maneras de pueden permutar?

En este caso de distribución circular de los elementos, debemos primero que todo, fijar un elemento de referencia; así, llamemos los estudiantes con las letras A, B,

C, D, E; si fijamos el estudiante C, solamente quedan para intercambiarse los estudiantes A, B, D, E; si fijamos el estudiante A, pueden intercambiarse B, C, D, E y así sucesivamente. Observamos pues que de los 5 estudiantes sólo quedan 4 para

permutarse.

P C5

= 4! = 24 .

1.2.2.5

Luego

el

número

de

permutaciones

está

dado

por:

COMBINACIONES

Las combinaciones de orden m de n objetos: a1, a2, ...... an; son los grupos de m objetos que se pueden formar entre los n, de modo que dos cualesquiera difieran en algún objeto.

A diferencia de las variaciones, en las combinaciones, no importa el orden de sucesión de los elementos.

El número de combinaciones está dado por la fórmula: n

Cm

=

( nm )

=

n! m! (n - m)!



1 ≤ m ≤ n

Un ejemplo ilustrativo para la anterior definición puede ser: Cuántas

ternas

diferentes podemos extraer de las letras A, E, I, O, U?

En este caso consideramos que la terna (A, E, I) = (E, A, I) = (E, I, A) = (I, E, A) = (I, A, E) = (A, I, E), ya que no nos interesa el orden de colocación de los elementos dentro de la terna, solo nos interesan todas aquellas ternas que difieran al menos en un elemento.

Luego el número de ternas diferentes está dado por:

5

C3

=

5! 3! 2!

= 10

1.2.2.6

PRINCIPIO FUNDAMENTAL DE CUENTA

α , α , α , - - - - - α ; son n acciones distintas que se pueden realizar de

Si

1

2

n

3

γ , γ , - - - γ maneras respectivamente, entonces el número total de maneras 1

n

2

como se pueden efectuar α , α , α , - - - - - α 1

γ

1

×

γ

2

×

γ

3

×

2

3

n

en sucesión, viene dado por:

- - - γ : Maneras. n

Ahora, si el número de maneras como se pueden efectuar cada una de las

α i Acciones, (i = 1, ......, n), es idéntico, es decir; γ1

=

entonces

estará

γ

×

γ

×

el

γ

×

número

total

de

maneras

γ

2

=

γ

3

=

---

dado

=

γ ; n

por:

- - - × γ = γn

_____ n veces ____

En general, en todo experimento, si hay n pruebas, cada una de las cuales pueden dar γ resultados independientes, el total de resultados diferentes será γ h . Así por ejemplo: Al lanzar un dado una vez, el número de resultados posibles es 6, o sea,

γ 1 = 61 = 6 . Si lanzamos el dado dos veces, n = 2 ⇒ hay γ 2 = 6 2 = 36 resultados posibles; si se lanza el dado tres veces, n = 3 ⇒ γ 3 = 6 3

resultados

posibles.

1.2.3 CONCEPTO DE PROBABILIDAD

Podemos decir entonces, basados en la experiencia que podemos asociar la frecuencia h(A) con un número p(A), para cada suceso A dentro del experimento, de tal manera que p(A) = h(A) cuando n → ∞ ; diremos entonces que p(A), es la

probabilidad del suceso A. La probabilidad de un suceso suele llamarse también frecuencia teórica o verdadera.

El objeto de la teoría de probabilidades es proporcionar un modelo matemático adecuado a la descripción e interpretación de los experimentos aleatorios.

Veamos ahora, las definiciones de algunos de los elementos sobre los cuales se asienta la teoría de probabilidades.

1.2.3.1

ESPACIO MUESTRAL

Es el conjunto o totalidad de resultados posibles dentro de un experimento aleatorio; lo llamaremos S.

El espacio muestral

S

puede ser discreto y continuo. Es discreto cuando

contiene un número finito de puntos o un número infinito numerable3 de puntos. Así por ejemplo, en el lanzamiento de un dado, una vez, el espacio muestral S es = {1, 2, 3, 4, 5, 6}, que es un espacio con número finito de puntos. Ahora si el experimento consiste en lanzar una moneda legal, hasta que aparezca el primer sello, el espacio muestral es: S = {1, 2, 3, ...... }; Ya que el resultado deseado puede ocurrir en la primera, segunda, tercera, . . . , tirada. El espacio muestral S es continuo si contiene un número infinito no numerable de puntos. Así por ejemplo, un experimento aleatorio consiste en observar la resistencia a la tensión de ciertas vigas, bajo las mismas condiciones; el resultado puede ser cualquier número positivo por consiguiente el espacio muestral es continuo.

3

Se llama “numerable” el conjunto infinito cuyos elementos se pueden numerar, es decir, poner en concordancia con cada elemento un número entero de modo que a distintos elementos les correspondan números diferentes. Un conjunto infinito cuyos elementos no se pueden llevar a la correspondencia biunívoca con los números enteros se llama “No numerable”.

1.2.3.2

SUCESO

Es el conjunto de resultados favorables o deseados en un experimento dado. Por ejemplo, un experimento aleatorio, consiste en lanzar dos dados y una moneda. Uno de los sucesos puede ser; A = suma de puntos menor que 4 para los dados y sello para la moneda, luego, A = {(1, 1, s); (1, 2, s); (2, 1, s)} como puede verse, el suceso A no es más que un subconjunto del espacio muestral S.

Muchos autores suelen llamar los sucesos aleatorios como eventos. Cuando los elementos de un suceso coinciden con los elementos del espacio muestral decimos que es “suceso seguro”; cuando los sucesos están formados por un solo punto del espacio muestral se denominan “sucesos elementales”; y cuando el conjunto de posibles resultados es el vacío decimos que el suceso de llama “suceso imposible”.

1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILIDAD

Partiendo de las características observadas en simples experiencias, podemos construir un modelo abstracto que nos traduzca y generalice, para aplicarlas en situaciones más complicadas. Es decir, establecemos en forma axiomática el cálculo de probabilidades. Llamaremos P (A) a la probabilidad del suceso A en el experimento aleatorio, dentro del espacio muestral S. P(A) es una función de conjunto que satisface los tres axiomas siguientes:

1. P(A) ≥ 0 2. P(S) = 1

Para cualqeuier suceso A ∈ S

3. P(A,UA2UA3U .........) = P(A1 ) + P(A2 ) + ....., si A1 , A2 , A3 ..........

es

una

sucesión de sucesos mutuamente excluyentes o incompatibles, es decir, si

Ai ∩ A j = φ

para i ≠ j .

1.2.5 TEOREMAS

FUNDAMENTALES

DEDUCIBLES

DE

LA

TEORÍA

AXIOMÁTICA DE LA PROBABILIDAD 1.2.5.1 Si P(A) es la probabilidad de un suceso A, la probabilidad del suceso contrario

a

A es igual a UNO menos la probabilidad de A, es decir,

P(A´ ) = 1 - P(A)

Demostración: Si

A ∪ A´ = S y A ∩ A' = φ ,

o

sea,

⇒ P(A ∪ A' ) = P (S), por axioma tercero. P (A ∪ A' ) = P(A) + P(A' )

P(S) = 1.



y

por

son

mutuamente

excluyentes,

∴ segundo

axioma

tenemos

que

P(A ∪ A' ) = P(A) + P(A' ) = 1 .

Luego: P(A’) = 1 – P(A).

1.2.5.2

La probabilidad de un suceso lógicamente imposible es cero; o sea,

P(φ ) = 0 . Demostración:

φ = S' ⇒ P(φ) = P(S') y por el teorema 1.2.5.1, sabemos que:

P(S') = 1 - P(S), pero P(S) = 1 ⇒ P(S') = P(φ) = 1 - 1 = 0 Luego: P (φ ) = 0. 1.2.5.3 0 ≤ P(A) ≤ 1 Cualquiera que sea el suceso A Demostración:

P (A) ≥ 0 por axioma primero

Luego debemos probar que P(A) ≤ 1, por teorema 1.2.1, vemos que P(A) = 1 – P (A’); pero P (A') ≥ 0 , por axioma primero ⇒ P(A) ≤ 1 luego 0 ≤ P(A) ≤ 1.

1.2.5.3

Si A1 ⊂ A2 ⇒ P(A1 ) ≤ P(A2 )

Demostración:

[

]

Si A1 ⊂ A2 ⇒ A1 ∪ A1' ∩ A2 = A2 Tal como se puede apreciar en el siguiente diagrama:

A1c ∩ A2

[ ] P [A ∪ (A ∩ A )] = P (A

∴ A1 ∩ A1' ∩ A2 = φ 1

' 1

2

2

) ⇒ P(A1 ) + P(A1' ∩ A2 ) = P(A2 ), como

P(A1 ) ≥ 0 y P(A1' ∩ A2 ) ≥ 0 ,

Luego podemos concluir que: P(A1 ) ≤ P(A2 ).

1.2.5.4

Para

cualquier

par

de

sucesos

A1

P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) - P(A1 ∩ A2 ) .

y

A2

se

tiene

que

Demostración: Ayudémonos a través del siguiente gráfico:

Observando el diagrama, podemos ver claramente que:

(

) (

)

A1 ∪ A2 = (A1 ∩ A2' ) ∪ A1 ∩ A2 ∪ A2 ∩ A1' , por consiguiente :

(

P ( A1 ∪ A2 ) = P A1 ∩

A2'

)+ P (A

1

(

∩ A2 ) + P A2 ∩

A1'

1

)

Ahora; de modo similar vemos que: A1 = (A1 ∩ A2 ) ∪ (A1 ∩ A2' ) y que

(A1 ∩ A2 ) ∩ (A1 ∩ A2' ) = φ ⇒ P(A1 ) = P(A1 ∩ A2 ) + P(A1 ∩ A2' )



P(A1 ∩

A2'

2

) = P(A1 ) - P(A1 ∩ A2 ),

Por otra parte; A2 = (A1 ∩ A2 ) ∪ (A2 ∩ A1' ) y (A1 ∩ A2 ) ∩ (A2 ∩ A1' ) = φ ⇒ P (A2 ) = P (A1 ∩ A2 ) + P (A2 ∩ A1' ) ⇒

P (A2 ∩ A1' ) = P (A2 ) - P(A1 A2 )

3

Ahora, remplazando: (2) y (3) en (1) se tienen que. P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) - P(A1 ∩ A2 ), SI A1 ∩ A2 = φ



P(A1 ∪ A2 ) = P(A1 ) + P(A2 )

1.2.6

TEORÍA CLÁSICA DE LA PROBABILIDAD4

En ciertos problemas, con espacio muestral discreto y número finito de puntos, (los juegos de azar por ejemplo), es realista suponer que la probabilidad asignada

4

También se conoce como teoría A priori de la probabilidad o regla de Laplace

a cada punto del espacio muestral es

1 . Podemos entonces de esta manera n

hallar la probabilidad P(A) para un subconjunto A del espacio muestral, con n(A) puntos, cada uno con probabilidad

P(A) =

1 : n

n(A) 1 1 1 + + ---- + = n n n n ____n(A) veces ____

Se puede comprobar que para un espacio muestral discreto con n puntos, la función P es función de probabilidad si cumple con los axiomas anotados anteriormente:

Probabilidad para cada punto =

1 n

≥ 0

Probabilidad para un subconjunto A ∈ S

Es P (A) =

n(A) ≥ 0 n

∴ n es el total de puntos en S.

Así por ejemplo, sea el experimento lanzar un dado una vez. El espacio muestral S = {1, 2, 3, 4, 5, 6} donde cada punto, (o resultado), de S tiene igual oportunidad, es decir, P(1) = P(2) = P(3) = ...... = P(6) =

1 6

Ahora, definamos el suceso A = número obtenido menor que 3 ⇒ A =

{X / X

< 3} ⇒

A = {1, 2}

Luego, n(A) = número de veces favorables al suceso A = 2, n(A): frecuencia de A, y n es el total de resultados posibles del experimento ⇒ n = 6.

P (A) =

n(A) 2 1 = = n 6 3

1.2.7

TEORÍA FRECUENCIAL O A POSTERIORI

Es aquella que consiste en encontrar el valor de probabilidad, después de repetirse el experimento un número considerable de veces. Por ejemplo; la probabilidad que tiene un jugador “A” de ganar cierto juego es P(A) = 3/5 y la probabilidad de perderlo es P(A’) = 2/5; estas probabilidades son a posteriori, puesto que se conocieron después de “observar” el juego de “A” repetidas veces.

Tanto la teoría clásica como la frecuencial presentan serias dificultades, la primera en cuanto a la “Ambigüedad”, de que parte siempre de espacios muestrales finitos y resultados equiprobables, pero cuando los resultados posibles generan un espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de que un número natural sea impar, dicha teoría nos deja en nada; mientras que, la segunda teoría presenta el inconveniente en cuanto a “Repetirse el experimento un número considerable de veces”; de ahí la importancia que toma la teoría axiomática de la probabilidad, evitándonos los tropiezos o limitaciones de las teorías clásica y frecuencial.

1.2.8

PROBABILIDAD MARGINAL

Supongamos que el espacio muestral S, discreto formado por un número n finito de puntos, cada uno con igual probabilidad

1 . n

Ahora, hagamos una partición del espacio muestral S en m1 subconjuntos mutuamente excluyentes: A1, A2,A3,......, Am1 Hagamos otra partición de S en m2 subconjuntos mutuamente excluyentes, así. B1, B2,B3,......, Bm2

Entonces los n puntos de S pueden clasificarse de la siguiente manera, utilizando la tabla de doble entrada:

B1

B2

B3

...

Bj

...

Bm2

A1

n11

n12

n13

...

n1j

...

n1m2

A2

n21

n22

n23

...

n2j

...

n2m2

A3

n31

n32

n33

...

n3j

...

n3m2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Ai

ni1

ni2

ni3

...

nij

...

nim2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Am1

nm11

nm12

nm13

...

nm1j

...

nm1m2

La tabla indica, por ejemplo, que: el resultado n12 tiene a la vez el atributo A1 y el atributo B2; n11: número de veces en que ocurren simultáneamente los atributos A1 y B1 respectivamente; y en general nij, es el número de veces en que ocurren simultáneamente los atributos Ai y Bj. Luego la probabilidad de que sucedan Ai y Bj simultáneamente será: P (Ai , B j ) =

nij n

Pero si nos interesa solamente obtener la probabilidad del suceso Ai, sin interesarnos la clasificación B, tendremos:

ni1 + ni2 + ni3 + - - - + nim2 n m2 n m2 ij P ( Ai ) = ∑ = ∑ P Ai B j j =1 n j =1 P ( Ai ) =

(

)

O bien, si nos interesa únicamente hallar la probabilidad del suceso Bj, estará dada por:

( )

m1

P Bj = ∑

i =1

nij n

=

m1

∑ P(Ai B j )

i =1

Donde P(Ai) y P(Bj) reciben el nombre de “probabilidad marginal” de A

y

B

respectivamente. Aquí escogemos únicamente dos criterios de clasificación A y B; pero es obvio que la idea de probabilidad marginal, se pueda generalizar a más de dos criterios de clasificación.

1.2.9

PROBABILIDAD CONDICIONAL

Vamos a definir un tipo especial de probabilidades, que se denominan probabilidades condicionales o relativas. La probabilidad del suceso “A” condicionada por el suceso “B”, o probabilidad de “A” habiendo ocurrido B, es por definición:

P( A B ) =

P( A ∩ B ) = P (B )

Pr obabilidad que A y B ocurran simultáneamente Pr obabilidad m arg inal de B

Aunque esta idea es completamente general; podemos describir esta probabilidad condicional utilizando el caso particular de espacio muestral discreto con número finito de puntos, e igual probabilidad para cada punto. Utilizando la partición del espacio muestral y la tabla de doble entrada que formamos para escribir la probabilidad marginal, tenemos.

Imaginémonos que se examina el resultado de un experimento aleatorio para un atributo pero no para el otro. Deseamos hallar la probabilidad de que el otro atributo tenga un valor determinado.

Supongamos que una vez realizado el experimento se observa que tiene el atributo B3, deseamos hallar la probabilidad de que tenga además el atributo A2.

El total de resultados de B3 es: n13 + n23 + n22 + . . . + ni 3 =

m1

∑n

i=1

i3

y de estos los

resultados favorables a A2 son: n23, de esta manera, la probabilidad de A2 cuando se sabe que ha ocurrido B3 es:

P ( A2 B3 ) =

n 23 m1

∑n i =1

i3

Si dividimos el numerador y el denominador de la expresión por n, se tiene:

P ( A2 B3 )

n23 = m1 n ni 3 ∑ i =1 n

En general:

P (Ai B j ) =



P(Ai ∩ B j ) P(B j )

P( A2 B3 ) =

P( A2 B3 ) P(B3 )

; es decir,

La probabilidad de Ai dado Bj, es igual a la probabilidad de que ocurran Ai y Bj simultáneamente sobre la probabilidad marginal de Bj. También se tiene que: P (B j Ai ) =

P (Ai ∩ B j ) P ( Ai )

Ahora, utilizando el criterio de probabilidad condicional, podemos definir el carácter de dependencia e independencia de sucesos. Si A y B son sucesos dependientes, P(AB) P(B) P(AB) P (B A) = P(A) P( A B ) =



P(A,B) = P(B)

. P( A B )



P(A,B) = P(A)

. P (B A)

La ocurrencia de A afecta la ocurrencia de B o viceversa, ya que A ∩ B ≠ φ. Si A y B son sucesos independientes P(A/B) = P(A) : El suceso A, no depende de la ocurrencia de B. P(B/A) = P(B) : El suceso B, no depende de la ocurrencia de A.

Para sucesos independientes se tiene que: P(AB) = P(A) P(B).

1.2.10

TEOREMA DE BAYES

Consideremos el caso de n sucesos A1, A2, . . . . . . , An; mutuamente excluyentes, de tal manera que:

A1 ∩ A2 ∩ A3 . . . . . ∩ Ai ∩ A j . . . . . ∩ An = φ Y sea un conjunto H definido de tal manera que: H = ( A1 ∩ H ) ∪ ( A2 ∩ H ) ∪ . . . ∪ ( An ∩ H )



[( Ai ∩ H ) ∩ (A j ∩ H )] = φ con

i≠ j

P(H) = P ( A1 ∩ H ) + P( A2 ∩ H ) + . . . + P( An ∩ H )

Si deseamos encontrar, por ejemplo, P(A1/H) se tiene: P ( A1 H ) = P (H )

P ( A1 H ) =

P ( A1 H ) P( A1 H ) + P ( A2 H ) + . . . + P ( An H )

Pero si no conocemos: P(A1H); P(A2H) ...... P(AnH) y conocemos P(H/A1); P(H/A2); …… P(H/An) ⇒ podemos expresar de la siguiente manera: P(A1H) = P(A1) P(H/A1) P(A2H) = P(A2) P(H/A2) .

.

.

.

.

.

.

.

.

P(AnH) = P(An) P(H/An)

Entonces:

P ( A1 H ) =

P(A1 ) P(H A1 )

P(A1 ) P(H A1 ) + P(A2 ) P(H A2 ) + . . . + P(An ) P(H An )

Dicha expresión es la que conocemos como “Teorema de Bayes”.

1.2.11.1 PROBLEMAS

Un joyero posee tres cofres para guardar joyas: en uno guarda los artículos de oro, en otro los de plata y en el tercero el cobre. Tiene 30 artículos de oro, los cuales son 10 relojes y 20 anillos; 40 artículos de plata: 10 anillos y 30 relojes; y 10 artículos de cobre, así: 5 anillos y 5 relojes.

Si el joyero elige un cofre al azar y extrae un artículo, también al azar, que resulta ser un anillo. Cuál es la probabilidad de que sea de oro?

Solución:

Sea: O: Representa artículos de oro C: Representa artículos de cobre P: Representa artículos de plata A: Representa los anillo R: Representa los relojes

Lo que el problema nos pregunta, es lo siguiente: P(Sea de oro/ (dado que)Resultó anillo?)= P(O/A) = ?

Como el joyero escoge las urnas o cofres al azar y como son 3, cada uno tiene igual oportunidad de ser seleccionado, es decir, P(O) = P(C) =P(P) = 1/3. Además el problema nos proporciona la siguiente información, así:

P( A O ) = P (R O ) P( A P )

20 2 5 1 = ; P( A C ) = = 30 3 10 2 10 1 5 1 = = ; P (R C ) = = 30 3 10 2 10 1 30 3 = = ; P (R P ) = = 40 4 40 4

Entonces, por el teorema de Bayes:

P (O ) . P ( A O ) P (O ) P( A O ) + P (C ) P ( A C ) + P(P ) P( A P )

P(O A) = P (O A) =

(1 3) . (2 3) (1 3) (2 3) + (1 3) (1 2) + (1 3) (1 4)

P (O A) =

8 17

1.2.11.2 Una caja con 1.000 tornillos contiene: 50 con defecto de tipo A 32 con defecto del tipo B 18 con defecto del tipo C 7 con defecto del tipo A y del tipo B 5 con defecto del tipo A y del tipo C 4 con defecto del tipo B y del tipo C 2 con defecto del tipo A, del tipo B y del tipo C

Si extrae un tornillo al azar, calcular: 1. La probabilidad de que el tornillo tenga un defecto del tipo A o del tipo b o de ambos. Solución: Como se puede ver los sucesos son compatibles, es decir:

A∩ B ≠ φ ; A∩C ≠ φ ; A∩ B ∩C ≠ φ Lo que se nos pregunta no es más que la probabilidad de la unión de los sucesos A y B:

P ( A ∪ B ) = P(A) + P(B) - P( A ∩ B ) P( A ∪ B ) =

50 32 7 3 + = 1000 1000 1000 40

2. Hallar la probabilidad de que, tenga al menos uno de los 3 tipos de defectos. Solución: Que tenga al menos uno implica que se presente uno solo o 2 o los 3 defectos; luego nos piden hallar:

P( A ∪ B ∪ C ) = P(A) + P(B) + P(C) - P(AB) - P(AC) - P(BC) + P(ABC) P( A ∪ B ∪ C ) =

50 32 18 7 5 4 2 + + − + 1000 1000 1000 1000 1000 1000 1000 43 P( A ∪ B ∪ C ) = 500

3. Hallar la probabilidad de que el tornillo esté libre de los tres defectos.

Solución: Sea D el suceso de tener al menos uno de los tres defectos; O sea D = A ∪ B ∪ C; entonces D’, será el suceso no tener defectos de ningún tipo.

P(D') = 1 - P(D) = 1 - P( A ∪ B ∪ C ) ∴ P(D') = 1 -

43 457 = 500 500

1.2.11.3 Sean A y B dos sucesos tales que A ∩ B ≠ φ Probar que:

P[(A ∩ B' ) ∪ (B ∩ A' ) ] = P(A) + P(B) - 2P(A ∩ B) PRUEBA: Ayudémonos a través del siguiente diagrama de Venn:

∴ ( A ∩ B' ) ∩ (A ∩ B) ∩ (B ∩ A' ) = ϕ

P[( A ∩ B' ) ∪ (B ∩ A' )] = P ( A ∩ B' ) + P (B ∩ A' )

â

y P[( A ∩ B' ) ∪ ( A ∩ B ) ∪ (B ∩ A' )] = P ( A ∩ B' ) + P ( A ∩ B ) + P(B ∩ A' ) Pero

( A ∩ B' )

∪ ( A ∩ B ) ∪ (B ∩ A' ) = ( A ∪ B )

ä

ã

Luego igualando ã y ä, tenemos: P ( A ∪ B ) = P(A) + P(B) - P(A ∩ B) = P(AB') + P(AB) + P(BA') P(AB') + P(BA') = P(A) + P(B) - P(AB) - P(AB)

P (( AB' ) ∪ (BA' )) = P(A) + P(B) - 2 P(AB)

1.2.11.4 En un naipe de 40 cartas se hace una extracción de 5 cartas y resultan 2 espadas. Cuál es la probabilidad de que una de ellas sea el as? Cuál es la probabilidad de que una sea el as y la otra el rey?

SOLUCIÓN:

Sea A el suceso “extraer dos espadas en una muestra de 5 cartas”. Sea el suceso B, “extraer el as de espadas en la muestra de 5 cartas”. Luego, la probabilidad que nos piden es: P(B/A)

∴ P (B A) =

P(AB) P(A)

El suceso (AB) es entonces, extraer 2 espadas y una de ellas es el as de espadas, en la muestra de 5 cartas; luego:

P(AB) =

(11 ) (19 ) (303 ) . (405 )

(11 ) : En las 10 cartas espadas, hay 1 as y ese es el que tomamos. (19 ) : Una vez considerado el as de espadas, la segunda carta de espadas, la podemos tomar de las 9 restantes.

(303 ) : Las otras 3 cartas que hacen parte de la muestra de 5, las tomamos lógicamente de las 30 restantes, y

(405 ) : Es el número total, de posibles muestras de tamaño 5, que podemos extraer de la población de 40 cartas.

Analizando en forma análoga, tenemos:

P(A) =

(102 )(303 ) (405 )

Luego: P(B/A) =

(11 ) (19 ) (303 ) (102 ) (303 )

=

(19 ) (102 )

=

1 5

Para responder la segunda parte del ejercicio; definamos el suceso “A” de idéntica forma como en el caso anterior y definamos que “B” sea el suceso “Extraer as de espadas y rey de espadas en una muestra de 5 cartas”, tenemos: El suceso (A ∩ B) : “Extraer dos espadas, una el rey y otra el AS” en una muestra de 5 cartas. Pero vemos que (A ∩ B) = B. Luego:

P(B/A) =

P(A ∩ B) P(B) = P(A) P(A)

P(B/A) =

(11 )(11 )(303 ) (405 ) (102 )(303 ) (405 )

P(B/A) =

1 10 2

( )

=

1 45

1.2.11.5 Se han adquirido 3.000 botellas de vino a $8 cada una; 2.000 a $9 cada una y 1.000 a $10 cada una. Se extrae una botella al azar y se vende a $9,50. Cuál es la probabilidad de ganar; $1,50? 0,50?; de perder $0,50?

SOLUCIÓN:

Para ganar $1,50 es necesario extraer una botella de $8. Sea “A” el suceso que indique tal extracción. Luego, P(A) =

n(A) 3.000 1 = = n 6.000 2

Para ganar $0,50 es necesario extraer una botella de $9; llamemos “B” a este suceso, tenemos:

P(B) =

2.000 1 n(B) = = 6.000 3 n

Ahora, para perder $0,50, es necesario extraer una botella de $10; llamemos “C”, este suceso; luego

P(C) =

n(C) 1.000 1 = = n 6.000 6

1.2.11.6 Se tienen 3 libros de matemáticas, 4 de física y 6 de química. Si se colocan en un estante al azar: Cuál es la probabilidad de que los de química queden todos juntos?

SOLUCIÓN

Sea “A” el suceso que representa “Libros de química siempre juntos”; luego. P(A) =

n(A) Casos favorables al suceso = n Total de casos posibles

∴ n = 13! , ya que hay un total de 13 libros para permutar; y el número de permutaciones favorables al suceso “A”, n(A) = 8! 6! = P8 x P6 puesto que se consideran 3 diferentes libros de matemáticas, 4 de física y 1 (un)solo bloque de química, o sea, 8 elementos, (3M + 4F + 1Q), que puede ocupar cualquier lugar;

además los 6 libros de química pueden cambiar de lugar entre ellos, sin dejar de permanecer unidos; luego tenemos:

P(A) =

8! 6! 2 = 13! 429

Cuál es la probabilidad de que en cada extremo quede un libro de física y en el centro un libro de química? Sea “A” el suceso “un libro de física en cada extremo y un libro de química en el centro”

P(A) =

n(A) n

Uno de los extremos se puede ocupar de 4 maneras, el otro de 3 maneras y la posición central de 6 maneras, quedan 10 libros para los 10 restantes puestos, que se pueden llenar de 10! = P10 maneras. Luego; n(A) = 4 x 3 x 6 x 10!

∴ P(A) =

y

n = 13!

4 x 3 x 6 x 10! 6 = 13! 143

1.2.11.7 Un empleado que trabaja en cierta factoría debe elegir dos caminos para llegar a su casa, uno de ellos es a través de un túnel y el otro a través de un puente. La ruta a elegir se hace al azar, siendo 1/3 la probabilidad que tiene de elegir el túnel y 2/3 la de escoger el puente. Si elige el túnel llega a su casa a las 6 p.m., el 75% de las veces, mientras que si escoge el puente llega a las 6 p.m., el 70% de las veces.

Cierto día llega a casa a las 6 p.m. y al preguntarle su esposa qué camino eligió él responde, que el puente. Cuál es la probabilidad de que haya respondido la verdad?

Sea “A” el suceso de elegir el túnel

⇒ P(A) = 1/3

Sea “B” el suceso de elegir el puente ⇒ P(B) = 2/3 Sea “C” el suceso de llegar a la casa a las 6 p.m.

La probabilidad pedida es, entonces: P(B/C) Además, el problema nos da la siguiente información: P(C/A) = 0 ,75 ; P(C/B) = 0 ,70 P(B ∩ C) P(B) P(C/B) = P(C) P(B) P(C/B) + P(A) P(C/A) (2 3) (0,70) ⇒ P(B/C) = = 0 ,65 (2 3) (0,70) + (1 3) (0,75) ⇒ P(B/C) =

1.2.11.8 Se extraen naipes con reemplazamiento5 de una baraja de 40 cartas, (Naipe español), hasta que aparezca el primer as. Cuál es la probabilidad de que el número de extracciones hubiese sido 5?

SOLUCIÓN:

Para que la quinta extracción se obtenga el primer as, en las cuatro extracciones anteriores, no debe aparecer ningún as; por consiguiente, la probabilidad es: 4

⎛ 36 ⎞ ⎛ 4 ⎞ P(o) = ⎜ ⎟ . ⎜ ⎟ = 0,066 ⎝ 40 ⎠ ⎝ 40 ⎠ = P(No aparezca en la primera extracción) x P(No aparezca en la segunda) x ...... x P(No aparezca en la cuarta) x P(Aparezca en la quinta extracción).

Si las extracciones fueran sin reemplazamiento, tendríamos:

P(o) =

5

36 35 34 33 4 x x x x = 0,073 40 39 38 37 36

Quiere decir que todo elemento que fue extraído una vez observado, regresa a su población de origen, y vuelve a tener oportunidades de salir, en este caso de muestreo la población permanece constante.

1.2.11.9 Una urna contiene 25 piezas, de las cuales 10 son defectuosas. Se toman dos piezas al azar, de la urna. Cuál es la probabilidad de que ambas piezas sean buenas? Qué ambas sean defectuosas? Que una sea buena y la otra defectuosa?

SOLUCIÓN:

Empecemos por responder la primera pregunta así: Sea “A1”, suceso “Pieza seleccionada es buena, en la primera extracción”. Sea “A2” suceso “Pieza seleccionada es buena, en la segunda extracción”.

Luego, la probabilidad se reduce a:

P(A1 ∩ A2 ) = P(A1 ) P(A2 /A1 ) =

15 14 7 . = 25 24 20

También podemos responder esta pregunta, haciendo uso del análisis combinatorio; así:

Sea H: El suceso extraer dos piezas buenas ⇒ P(H) =

n(H) n

∴ n(H) = C 152 : De la población de piezas buenas tomamos las 2 y los casos posibles o muestras posibles de tamaño 2 de toda la población está dado por:

n = C 25 2 15 ) ( 15! 13! 2! 7 ⇒ P(H) = 2 = = 25 ( 2 ) 25! 23! 2! 20

Ahora, entremos a resolver la segunda pregunta formulada en el problema; y seguidamente la última:

Sea “G”: Las 2 piezas resultan ser defectuosas” Sea “R” el suceso “Una resulta ser buena y la otra defectuosa” Sea “H”, las dos piezas seleccionada son buenas”

∴ Podemos afirmar que: H ∪ G ∪ R = S ∴ H ∩G ∩ R = φ Luego, P(H ∪ G ∪ R) = P(S) 1 = P(H) + P(S) + P(R)

Ya sabemos que P(H) = 7/20 Entonces hallemos P(G) y P(R)

n(G) P(G) = = n

P(R) =

(102 ) = (252 )

3 y 20

n(R) ; Aquí debemos considerar que la primera sea mala y la segunda n

buena es la primera consideración; y la segunda consideración, que la primera sea buena y la segunda sea mala; así:

P(R) =

10 15 15 10 1 x + x = 25 24 25 24 2

VERIFICACIÓN:

1 = P(H) + P(S) + P(R) 1 = 7 / 20 + 3 / 20 + 1/ 2

1 = 1, Verdadero!

1.2.11.10 Los dígitos 0, 1, 2, ---, 9 se acomodan en un orden aleatorio.

Encuentre la probabilidad de que los dígitos 3 y 4 sean vecinos.

SOLUCIÓN:

Ilustremos el problema de la siguiente forma:

34xxxxxxxx

Sea el suceso de A

x34xxxxxxx

“Los dígitos 3 y 4 sean vecinos”

xxxxxxxx34

Luego:

43xxxxxxxx

P(A) =

n(A) n

x43xxxxxxx . .

∴ n(A) = V19 × 2! = 18

.

n = V 2 = 90

10

xxxxxxxx43

Luego, P(A) =

18 1 = 90 5

O también.

P( 3 y 4 sean vecinos) = P( 3 y 4 ) + P( 4 y3 ) = 9

1 1 1 1 2 1 x +9 x = = 10 9 10 9 10 5

1.2.11.11 Se lanza una moneda "Honesta" 15 veces y se registra su resultado l cabo de cada tirada. Determínese la probabilidad de que ocurra "al meno na cara", al final e los 15 lanzamientos. SOLUCIÓN: Sea "A" el suceso obtener al menos una cara \ sabemos que el número de resultados posibles de un experimento aleatorio está dado por: Kn \ K es el número del evento simple, en este caso, los resultados de lanzar una moneda una vez son

2: cara o sello y "n" representa el número de veces en que se repite el evento simple n=15. Ahora

Como cada ocurrencia de evento simple tiene la misma probabilidad de ocurrir y sus resultados son independientes, es decir,

O sea:

Lo que significa que prácticamente tenemos la seguridad de observar por lo menos una cara. 1.2.11.12 Una urna contiene "n" bolas azules y "m" bolas rojas. Si de la urna tomamos una muestra aleatoria de "K" bolas ¿Cuál es la probabilidad de que al sacar una bola sea Azul? SOLUCIÓN: n+m = Total de Bolas K = Total de bolas en la extracción

la bola azul la mantenemos "fija" en en el lugar (k+1) se obtienen VKn + m −1 casos favorables para cada bola azul, luego los casos favorables para todas las bolas azules está dado por n × VKn + m −1 y los casos posibles están dados por: VKn++1m ⇒ La probabilidad pedida = P (• ) =

n × VKn + m −1 n = . n+m VKn + m

1.2.11.13 Del ejercicio anterior [1.2.11.12], al extraer la muestra aleatoria de K bolas; nos preguntamos: 1.2.11.13.1 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo se hace "Con remplazamiento"? 6 SOLUCIÓN: K − P veces ⎯⎯ ⎯⎯⎯ ⎯→ Donde la probabilidad de RRR......R

P veces ⎯⎯ ⎯⎯ ⎯→ Un suceso de la forma AAA........A

P

⎛ n ⎞ ⎛ n ⎞ ese suceso, está dada por: ⎜ ⎟ ⎟ ⎜ ⎝n +m⎠ ⎝n +m⎠

K −P

, pero para la ocurrencia de P

K⎛ n ⎞ ⎛ n ⎞ todos los posibles sucesos, esta dado por P (•) = ⎜ ⎟ ⎟ ⎜ P ⎝n +m⎠ ⎝n +m⎠

K −P

1.2.11.13.2 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo se hace "Sin remplazamiento"? 7 SOLUCIÓN: En este caso el valor de probabilidad varia de una extracción a otra; así: Para una ocurrencia posible, ⇒ la probabilidad será:

6 7

Con remplazamiento" ; Se hace la extracción y regresa a la población. "Sin remplazamiento" ; Se hace la extracción y no regresa a la población.

n n −1 n − ( p − 1) m m −1 m − (K − p − 1) = ⋅ ⋅ ⋅ ... ⋅ ⋅ ... ⋅ ⋅ n + m n + m −1 n + m − ( p − 1) n + m − p n + m − ( p + 1) n + m − (K − 1) (n + m − K )! n! m! n+m−K ⋅ ( n − p )! (m − (K − p ))! ( n − p )! (m − K + p )! n−p = = (n + m )! (n + m )! n+m n ! m! n (n + m − K )! Ahora teniendo en cuenta todas las ocurrencias posibles

⎛K ⎞ ⇒ P (•) = ⎜⎜ ⎟⎟ ⋅ ⎝P ⎠

n+m−K n−p n+m n

1.2.11.14 ¿Cuál es el número mínimo de veces que es preciso lanzar dos dados para que la probabilidad de sacar un seis doble sea mayor que la de no sacarlo? SOLUCIÓN: La probabilidad de obtener el resultado (6,6) = 1/6 * 1/6 = 1/36 La probabilidad de no obtener un (6,6)= 1- 1/36 = 35/36 ∴ si se lanza el dado "n" veces, la probabilidad de que no salga un seis doble es : (35/36)n luego la probabilidad de que salga al menos una vez será 1-(35/36)n , de donde, n > log2 /(log36- log35)

1.2.11.15

Un mecanismo eléctrico que contiene, cuatro interruptores, solo

funciona cuando todos ellos estan cerrados. El funcionamiento de los interruptores es independiente en cada uno de ellos, tanto en lo que se refiere al cierre o la apertura, y para cada uno de ellos, la probabilidad de que no funcione es 0,1. ¿Cuál es la probabilidad de que no funcione el mecanismo en conjunto? SOLUCIÓN:

Sea "

" el suceso que nos indica que el mecanismo "Falle"

Sea "

" el suceso que nos indica que el mecanismo "No Falle"

Sea

: Los sucesos que indican que el interruptor J esté cerrado . \ J= 1,2,3,4.

Sea

: Los sucesos complementarios, es decir que el interruptor J esté abierto.

∴ J= 1,2,3,4

y así calcularíamos para los interruptores J= 2,3,4 ⇒ El mecanismo funciona si y solo si: S1 ∩ S2 ∩ S3 ∩ S4

Es decir que funcione el interruptor 1 "Y" el interruptor 2 "Y" el interruptor 3 "Y" el interruptor 4; Luego P(Mecanismo funcione) =

= P(S1 ∩ S2 ∩ S3 ∩ S4 )

Como los SJ son independientes = P(S1) P(S2 ) P(S3) P(S4 ) = 0.9 * 0.9 * 0.9 * 0.9 = (0.9)4 = 0.6561 Entonces P(F) = 1 - 0.6561 = 0.3439 ⇒ También se puede resolver el problema definiendo a

El mecanismo no funciona siempre que uno de los interruptores este abierto.

:

2. VARIABLES ALEATORIAS Tomemos un espacio muestral S, con función de probabilidad P(A) definida para un suceso A; si “X” es una función de valores reales definida en S, (o sea que cada punto del espacio muestral se le hace corresponder un punto del eje X), se dice que X es una variable aleatoria unidimensional. En general, si cada punto de S, se hace corresponder con un punto, (X1, X2, --- Xn) del espacio n-dimensional, se

tiene una variable aleatoria pluridimensional. Por ejemplo: Sea el experimento aleatorio lanzar una moneda dos veces. El espacio muestral S = {(c,s); (s,c); (c,c); (s,s)} consta de 4 puntos. Sea “X” la variable aleatoria que nos representa el

número de sellos. Dicha variable puede tomar los siguientes 4 valores, correspondientes a los 4 puntos de S: 1, 1, 0, 2.

Estando la función de probabilidad completamente definida para el espacio muestral S, como P(A) =

n(A) ; podemos escribir, por ejemplo: n

P(x = 0 ) =

1 , para designar la probabilidad de que el número de sellos sea cero; 4

P(x = 1 ) =

1 : Probabilidad de obtener un sello y 2

P(x = 2 ) =

1 : Probabilidad de obtener dos sellos. 4

Veamos otra forma, de tratar el experimento anterior, así: Sea “X” la variable aleatoria que representa el número de sellos y sea “Y” la variable aleatoria que representa el número de caras. La variable aleatoria bidimensional transformará los puntos de S en puntos del plano X Y. Luego a:

(c,c) corresponde x = 2, y = 0, o sea, (2,0) (c,s) corresponde x = 1, y = 1, o sea, (1, 1) (s,c) corresponde x = 1, y = 1, o sea, (1, 1) (s,s) corresponde x = 0, y = 2, o sea, (0, 2)

Entonces, P[(2 , 0 )] =

1 1 ; P[( 1, 1 )] = y así sucesivamente 4 2

2.1 VARIABLE ALEATORIA DISCRETA

En general, es aquella variable aleatoria con un número finito o infinito numerable de puntos. En el caso de que la variable sea unidimensional, con valores posibles X1, X2, ......, Xn; y con probabilidades: f(x1), f(x2), f(x3), ...... - f(xn) , para cada uno de dichos valores, el conjunto cuyos

elementos son los pares ordenados, ((x, f(x)), es llamado función de densidad, o función de cuantía o función de probabilidad de la variable aleatoria X. Para cualquier subconjunto “A” de los puntos X1, X2, ......, Xn; tenemos entonces que: P(A) =

∑ f(x)

X ∈A

∴ P(A) representa la suma de f(x) para aquellos valores de X que pertenecen a A; luego P(A) es llamada FUNCIÓN DE DISTRIBUCIÓN para el suceso A.

-

Veamos el siguiente ejemplo:

Supongamos que un experimento aleatorio consiste en lanzar dos dados y registrar el número posible de puntos. Cada resultado puede asociarse con el valor de una variable aleatoria X; por lo tanto, “X” toma los valores: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12. Calculemos ahora f(x), o sea, la probabilidad de que aparezcan “X” puntos.

Sabemos que el espacio muestral consta de 36 puntos, (1,1), (1,2), . . ., (1,6); (2,1). (2,2) . . ., (2,6); (3,1), (3,2), . . ., (3,6); (4,1). (4,2) . . ., (4,6); (5,1), (5,2), . . ., (5,6); (6,1). (6,2) . . ., (6,6). El número de casos en que pueden caer X puntos es: X–1 :

X = 2, 3, 4, 5, 6, 7

para

13 – X : para

X = 8, 9, 10, 11, 12

f(x) =

Luego

f(x) =

y

X-1 n(x) = ∴ X = 2 , 3, 4 , 5 , 6 , 7 36 n 13 - X para X = 8, 9 , 10 , 11, 12 36

f(x) = 0 para X ∉ ( 2, 3,. . . . ., 12 ) Puesto que:

7

X-1

X =2

36



+

12

13 - X

X =8

36



= 1

y f(x) ≥ 0

Para todo X, definido del experimento tratado. Una vez conocida f(x) podemos hallar las diversas funciones de distribución relativas a X. Denominemos

Fx (x) = P[x ≤ x ] como función de distribución

acumulativa de la variable aleatoria X, así: Fx (x) = P[x ≤ x ] =

∑ f(x)

X ≤x

Por ejemplo:

P(x ≤ 4 ) = F( 4 ) = Pr obabilidad de obtener 4 puntos o menos 4

P(x ≤ 4 ) = FX ( 4 ) = ∑ x=2

x-1 1 = 36 6

P( 6 ≤ x ≤ 8 ) = Pr obabilidad de otener un puntaje comprendido entre 6 y 8 inclusive

P( 6 ≤ x ≤ 8 ) = P( 6 ≤ x ≤ 7 ) + P(x = 8 ) =

7

∑ x =6

x - 1 13 - X + , x = 8 36 36

Las condiciones que debe cumplir f(x) para ser función de densidad de una variable aleatoria discreta unidimensional, son: 1. Si el dominio de la función es X1, X2, . . . Xn ⇒ f(x) ≥ 0

2.

∀x

∑ f(xi) = 1

Hallemos

también,

(Remitiéndonos

al

ejercicio

anterior),

la

probabilidad

condicional de que el número de puntos sea menor que 3, cuando se sabe que dicho número es menor que 8.

Sea “A” el suceso “Número de puntos menor que 3” Sea “B” el suceso “Número de puntos menor que 8” Deseamos hallar:

P(A/B) =

P(A ∩ B) P(B)

El suceso A = {X / x = 2} El suceso B = {X / x = 2, 3, 4, 5, 6, 7}

(A ∩ B)

Luego el suceso

P(A ∩ B) = Por otra parte,

= {X x = 2}

x-1 ;x = 2 36

P(B) =

⇒ P(A ∩ B) =

21 x-1 = 36 x = 2 36 7



1 36

Concluimos entonces que, P(A/B) = P(X < 3 / X < 8)

=

1 36 1 x = 36 21 21

2.2 FUNCIONES DE DOS O MAS VARIABLES DISCRETAS

En general, las funciones de densidad de variable discreta pluridimensional, tiene las mismas propiedades de las funciones similares de una variable. Podemos decir entonces que una función f(x1, x2, ...... , xn) es una función de densidad de “n” variables reales si y solo sí: 1. f ( x1 , x 2 , . . . . ., x n ) ≥ 0 2.

∑ ∑ x x 1

...

2

f ( x , x , . . . ., x n ) ∑ x 1

2

= 1

n

Las funciones de densidad conjunta o de dos variables aleatorias discretas, se representan entonces de esta misma manera.

-

Tomemos como ejemplo, el lanzamiento de dos dados.

Sea “X” la variable aleatoria de tipo discreto, que nos representa el número de puntos del dado α y “Y” la variable aleatoria discreta que nos representa el número de puntos del dado β X = 1, 2, 3, 4, 5, 6 Y = 1, 2, 3, 4, 5, 6

∴ f(x, y) =

1 : Probabilidad de obtener “X” puntos en el dado α y “Y” 36

puntos en el dado β .

Probemos que f(x, y) si es función de probabilidad:

1.

f(x, y) =

1 36



f(x, y)

>

0

y

2.

6

6

y =1

y =1

1

∑ ∑ 36

= 1

Luego f(x, y) si es función de probabilidad. Q Veamos ahora otro ejemplo:

Una urna contiene 6 bolas blancas, 5 bolas negras y 4 bolas azules. Si se extraen 4 bolas, hallar la función de densidad conjunta del número de bolas negras y azules.

SOLUCIÓN: Sea “X” la variable aleatoria que representa el número de bolas azules en la muestra. Sea “Y” la variable aleatoria que representa el número de bolas negras en la muestra. El recorrido conjunto de las variables X e Y

y su función de Probabilidad

Conjunta está dado por :

0 ≤ X + Y ≤ 4 f(x, y) =

(4x ) (5y ) (4 - 6(x+ y) ) (154 )

De igual manera podemos hallar la función de distribución correspondiente a una situación deseada, así por ejemplo,

Hallemos,

F( 2 , 1 ) = P(X ≤ 2, Y ≤ 1 )

∴ F( 2, 1 ) =

= f( 0, 0 ) + f( 0, 1 ) + f( 1, 0 ) + f( 1, 1 ) + f( 2, 0 ) + f( 2, 1 )

1

2

y =0

x =0

∑ ∑ f(x, y)

2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS

Al hablar de función de densidad conjunta podemos definir la función de densidad marginal de X o de Y. Llamemos entonces f1(x) la función de densidad marginal para X y f2(y) la función de densidad marginal para Y.

En el caso del ejemplo de las bolas negras y azules, tenemos:

(4x ) (5y ) (4 - (x6 + y) ) (154 )

f(x, y) =

Para: X = 1, 2, ---- 4 Y = 1, 2, ---- 5 f(x, y) = 0

si X ∉ ( 1, 2 , ---, 4 ) Y ∉ ( 1, 2 , ---, 5 )

f1(x) =

4 -x

∑ f(x,y) y =0

∴ f1 (x) =

= f(x, 0 ) + f(x, 1 ) + f(x, 2 ) + f(x, 3 ) + - - - - + f(x, 4-x)

(4x ) (5y ) (4 - 6(x+ y) ) ∑ (154 ) 4 -x

y =0

Observamos que la función de densidad marginal de X, la calculamos utilizando el recorrido de la otra variable, con el fin de que la conjunta nos quede en términos de una sola variable.

Ahora:

f 2 (y) =

4 -y

∑ f(x, y) x =0

2.4 FUNCIÓN DE DENSIDAD CONDICIONAL

Si tenemos una función de densidad de variable discreta pluridimensional en general, podemos hallar la función de densidad condicional que deseemos; para el caso de función de densidad conjunta f(x, y), se tendrán dos funciones de densidad condicional, así:

1. G(xy) = P(x/y) =

f(x, y) f 2 (y)

2. H(xy) = P(y/x) =

f(x, y) f 1 (x)

Si nos remitimos de nuevo al ejemplo de la distribución de las bolas negras y azules; tenemos:

g(x,y)

=

(4x ) (5x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ (154 ) (5y ) ⎛⎜⎜⎝ ∑ ⎞⎟⎟⎠ (4x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ (154 ) 4− y

x =0

g(x,y) =

(4x ) ⎛⎜⎝ 4−(x6+ y) ⎞⎟⎠ 15 ( 4) ⎛ ⎞ 4 ⎛ 6 ⎞⎟ ⎜⎜ ∑ ⎟⎟ ( x ) ⎜ − + 4 (x y) ⎝ ⎠ ⎝ ⎠ 4− y

x =0

2.5 VARIABLE ALEATORIA CONTINUA

Es la que puede tomar cualquier valor dentro del intervalo que se considere; es decir, es aquella que toma un número infinito de valores. El concepto de función de densidad f(x), difiere en este caso al de variable discreta, ya que, aquí no es lógico hallar la probabilidad en un punto sino en un intervalo. Ya habíamos visto que P(X ≤ x) = Fx (x) para − ∞ < X < ∞ diremos que Fx(x) es la función de distribución, (acumulativa), para la variable continua; podemos desde luego hallar la probabilidad en cualquier intervalo; encontremos:

P ( a < X ≤ b) Sea A el suceso :

{X / X

≤ a}

Sea B el suceso :

{X / X

≤ b}

Sea C el suceso :

{X / a < X

≤ b}

∴ Los sucesos A y C son mutuamente excluyentes, ya que A ∩ C = φ ; luego P ( A ∪ C ) = P( A) + P(C ) ; Además A ∪ C = B ⇒ P( B) = P( A) + P(C ) ∴ P ( X ≤ b) = P ( X ≤ a ) + P ( a < X ≤ b ) ∴ P ( a < X ≤ b ) = P ( X ≤ b) − P ( X ≤ a ) P (a < X ≤ b) = Fx (b) − Fx (a ) Ahora siendo F continua en X = b Se puede probar que P(x=b)=0, esto implica que para variables continuas, se tienen que: P (a < X ≤ b) = P (a < X < b) = P (a ≤ X < b) = P (a ≤ X ≤ b) = Fx (b) − Fx (a )

Partiendo de la función de distribución podemos obtener la función de densidad, así:

P ( x ≤ X ≤ x + ∆x) = Fx ( x + ∆x) − Fx ( x)

Dividiendo por ∆x : P

( x ≤ X ≤ x + ∆x) Fx ( x + ∆x) − Fx ( x) = ∆x ∆x

Pasando al límite cuando ∆x → 0 Lim ∆x → 0

P

( x ≤ X ≤ x + ∆x) d . = Fx ( x) = f x ( x) ∆x dx

O sea, que la primera derivada de la función de distribución es la función de densidad, (En el caso, claro está, de variables aleatorias continuas). O también vale afirmar que: x

Fx ( x) = P( x ≤ X ) =

∫ f (u)du

−∞

Para un intervalo a ≤ X ≤ b) se tiene que b

P (a ≤ X ≤ b) = ∫ f ( x)dx a

Las propiedades que debe cumplir fx(x) Para que sea función de densidad de variable aleatoria, son:

1. 2.

Dominio de fx(x), tal que X es real f x ( x) ≥ 0∀x ∈ (− ∞, ∞ ) ∞

3.

∫f

x

( x)dx = 1

−∞

Veamos el siguiente ejemplo ilustrativo, a la situación que acabamos que ver: La variable aleatoria X tiene como función de densidad:

f x ( x) = 2 x

Si 0 < X < 1

f x ( x) = 0

Si X ∉ (0,1)

Hallar:

1. P(X < 1 2 ) =

12

0

12

−∞

−∞

0

∫ f(x)dx = ∫ 0dx + ∫ 2xdx

P(X < 1 2 ) = 1 4 = Fx ( 1 2 ) 1/2

3

∫ 2xdx = 16

2. P(1/4 < X < 1/2) =

1/4

x

3. Fx (x) = P(X ≤ x) =

∫ f(u)du

−∞

Fx (x) =

0

x

−∞ x

0

∫ 0du + ∫ f(u)du

Fx (x) = ∫ 2udu = X 2 0

x

]0 = X 2

Luego Fx (x) = X 2 ∴ x ∈ (0,1) Fx (x) = 0 2.6 FUNCIÓN

∴ x ∉ (0,1)

DE

DENSIDAD

PARA

VARIABLE

CONTINUA

PLURIDIMENSIONAL

En el caso de variable continua pluridimensional, la función de densidad

f(x1 , x2 ,..., xn ) debe ser 1. f(x1 , x2 ,..., xn ) ≥ 0 ∀ X i ; i = 1,2,...., n 2. X 1 : Real; X 2 : Real;...; X n : Real ∞

3.



∫ ∫

−∞ −∞



....... ∫ f(x1 x2 ...x n )dx1 dx2 ...dx n = 1 −∞

2.7 ESPERANZA MATEMÁTICA La esperanza matemática, valor esperado o media de la variable aleatoria X se define como: n

E(x) = ∑ xi f(xi ) para variable discreta con dominio, X1, X2 . . ., Xn y función de i =1

densidad f(xi). Para variable continua la esperanza matemática se define como: ∞

E ( x) =

∫ Xf

x

( x)dx ; siendo f(x) la función de densidad.

−∞

En estructura, E(x) es similar a al media aritmética común, X , obtenida de los valores X1, X2, . . . ., Xn ; que observamos en una muestra, con frecuencias relativas h1, h2, . . . , hn respectivamente , así : X =

n

∑ X i hi i =1



hi =

ni ; en donde si el n

tamaño de la muestra n es muy grande ⇒ hi ≈ f(xi ) (según lo que se afirmó en la teoría frecuencial de la probabilidad). TEÓRICAMENTE E(x) significa el valor central de la distribución de probabilidad. La esperanza matemática tiene las siguientes propiedades principales: 1. E(x) al igual que la media, es un número que depende de todos los valores de la serie y de sus respectivas probabilidades, ya que todos ellos entran en su cálculo. 2. Si X e Y son variables aleatorias, entonces : E (X + Y) = E(X) + E(Y)

3. Si “A” es una constante y X una variable, ⇒ E(Ax) = A E(x) 4. Se X e Y son variables aleatorias independientes ⇒ E(X.Y) = E(X) E(Y)

5. Si X1, X2, ......., Xe son variables aleatorias ⇒ E ( X 1 + X 2 + ..... + X e ) = E ( X 1 ) + E ( X 2 ) + .... + E ( X e )

6. Si X1, X2, ......., Xt son variables aleatorias independientes E ( X 1 + X 2 + ..... + X t ) = E ( X 1 ) E ( X 2 ) * .... * E ( X t )

7. La esperanza matemática es un valor que oscila en el intervalo (Mínimo Xi; máximo Xi), en donde, tiende a situarse en el centro, para así considerarse representativa de los valores de la serie de datos. “ X”

8. Si

es

variable

aleatoria

y

“a”

una

constante,



E ( x + a) = E ( x) + a 9. X variable aleatoria y , “a” y “b” constantes, ⇒ E (ax + b) = aE ( x) + b

2.8 MOMENTOS CON RESPECTO AL ORIGEN Los momentos con respecto al origen de una variable aleatoria X, son los valores esperados de X γ .

Para variables aleatorias de tipo discreto. X1, X2, ...., Xn se define el momento de orden γ con respecto al origen, como: n

E ( X ) = ∑ ( xi) γ f ( xi) γ

i =1

En variables continuas, es:

E( X γ ) =



∫X

γ

f ( x)dx

−∞

2.9 Momentos de orden γ respecto a una constante -

En variables discretas; n

E((x − a) ) = ∑ (xi − a)γ . f(xi ) ∴ a, es una constante γ

i =1

-

Para variables continuas, se tiene:



γ

E (( x − a ) ) =

∫ ( x − a)

γ

f ( x)dx

−∞

2.10

Momentos de orden respecto a la media µ = E (x)

Llamaremos, pues, de ahora en adelante, la media de la distribución de la variable o media poblacional con la letra griega

µ.

Luego el momento de orden γ respecto a µ , en variables discretas, es: n

E((x − µ)γ ) = ∑ (xi − µ)γ .f(xi ) i =1

En variables continuas, es: γ

E (( x − µ ) ) =



∫ (x − µ)

γ

. f ( x)dx

−∞

El momento de orden uno o primer momento, con respecto a µ es igual a cero , o sea : E [( x − µ )] = 0; ya que E ( x − µ ) = E ( x) − µ = µ − µ = 0 .

2.11

Varianza de una función de probabilidad

Si X es una variable aleatoria discreta, donde X = x1, x2, ...., xn con media E ( x) = µ ; la Varianza de X, a la cual llamaremos Var(x), se define como el momento de orden dos, con respecto a µ ; es decir, 2

Var(x) = σ x = E((x − µ)2 ) n

= ∑ (xi − µ)2 f(xi ) i =1

Ahora, en el caso de variable continua, se tiene que: ∞

VAR( x) =

∫ (x − µ)

2

f ( x)dx

−∞

Además, podemos probar que

Var ( x) = τ x

= E ( x) 2 − µ 2 para variables aleatorias discretas o continuas.

2

Veamos por ejemplo, si X es una variable aleatoria continua, con función de densidad f(x): ∞

∫ (x − µ)

⇒ VAR ( x) =

2

. f ( x)dx

−∞



2 ∫ X f ( x)dx − 2

VAR ( x) =

−∞



∫ Xµd ( x)dx +

−∞



∫µ

2

f ( x)dx

−∞



∫X

Pero

2

f ( x)dx = E ( x 2 )

−∞ ∞



−∞

−∞

∴ − 2 ∫ Xµ f ( x)dx = −2µ ∫ X f ( x)dx = −2 µE ( x) = −2µ .µ = −2 µ 2 : Luego: VAR ( x) = E ( x 2 ) − 2 µ 2 + µ 2 VAR ( x) = E ( x 2 ) − µ 2

2.12

FUNCIÓN GENERATRIZ DE MOMENTOS

Se llamará función generatriz de momentos (f.g.m.), a la expresión: Mx(t) = E (etx), cuando este valor esperado existe para –b < t < b; donde b es

número real positivo. Para el caso de variables discretas se tiene que: M x (t ) = E (e tx ) = ∑ e tx . f ( x) ∴ f ( x) exista

Y para variables continuas, así: ∞

M x (t ) = E (e ) = ∫ e tx . f ( x).dx tx

−∞

2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS

La importancia de la función generadora de momentos, radica en el hecho de que ella es única y determina completamente la distribución de una variable aleatoria, esto es, si dos variables aleatorias tienen una misma función Generatriz de momentos, deben tener igual distribución.

La demostración de esta propiedad omitida en estos apuntes, se basa en la unidad que existe entre la f.g.m. y la función de distribución. La existencia de la función generatriz de momentos para –b 5) = ∫ ⎜ x − ⎟dx 25 25 ⎠ 5⎝ 16 = 25

= 1 − P( x ≤ 5)

O también;

4 ⎞ ⎛ 2 = 1 − ∫ ⎜ x − ⎟dx 25 25 ⎠ 2⎝ 16 = 25 5

2.14.6 Si fx(x) = 4K (x3-1) para 1 < x < 10 , es una función que determina el tiempo de ocurrencia de un experimento. Hallar el valor de K, para el cual f(x) es función de probabilidad. Para que f(x) sea función de densidad de variable aleatoria continua, es necesario: 1. Dominio de X, sea real 2. f ( x ) ≥ 0

∀x



3.

∫ f ( x)dx = 1

-∞

Según las 2 primera condiciones, implica que el valor de K debe ser positivo para que f (x) ≥ 0





1

10

−∞

−∞

1

∫ f(x)dx = ∫ 0dx + ∫ 4K(x



⎤ ⎡ x4 = 4K ⎢ − X ⎥ = 1 ⎦ ⎣4 1 K= 9963

3



− 1)dx + ∫ 0dx = 1 10

3. DISTRIBUCIONES PROBABILÍSTICAS

3.1

Principales distribuciones de probabilidad para variable discreta.

3.1.1 Distribución Binomial

Este modelo de probabilidad de refiere en general, a aquellos experimentos que consisten en un número de pruebas independientes, en la cual se llamará “p” la probabilidad de éxito de cada prueba y “q=1-p”, la probabilidad de fracaso. Para que un experimento se pueda calificar como Binomial8 debe presentar las 4 propiedades siguientes:

1. Debe haber un número finito de pruebas. 2. Cada prueba debe tener como resultado un “éxito” o un “fracaso”. 3. Todas las pruebas deben tener idénticas probabilidades de “éxito”. 4. Debe haber independencia entre cada una de las pruebas.

Veamos ahora una serie de ejemplos en donde se cumple y en donde no se cumple, cada una de las propiedades anteriores. 1. Se lanza una moneda 5 veces; n=5 Luego se cumple la primera propiedad. -

Se lanza una moneda hasta que aparezca cara. No hay un número finito de pruebas, luego aquí no se cumple la primera propiedad.

2. Al tirar una moneda aparecerá siempre cara o sello cada una con probabilidad 1/2 ; una de ellas se puede considerar “Éxito” según el caso y la otra “Fracaso”. Cumple la segunda propiedad. 8

Es decir, su experimentación se da a través del muestreo con reemplazamiento o en el muestreo sin Reemplazamiento que provenga de Poblaciones muy grandes y tamaños de muestra relativamente grandes.

-

Supongamos que en una jaula haya 3 ratones: Uno blanco, uno gris y otro negro. Si se considera “Éxito” extraer ratón blanco y “Fracaso” extraer ratón gris; qué se podrá decir entonces si la extracción fuera ratón negro? Luego en este caso no se cumple la segunda propiedad.

3. Al extraer una carta con reemplazamiento 4 veces de una baraja ordinaria, la probabilidad de extraer un as es:

4 1 = 40 10

y permanece constante.

Cumple la tercera propiedad. Si la extracción se hace sin reemplazamiento, la probabilidad de éxito varía de una prueba a otra; luego no se cumple la tercera propiedad. 4. Citando la situación anterior, se puede adaptar aquí, ya que al hacer extracciones con reemplazamiento los sucesos son independientes y si se hacen sin reemplazamiento serían dependientes. Q Ahora, para analizar completamente la distribución Binomial y sus características, empecemos por definir la distribución de Bernoulli: Un ensayo de Bernoulli, es aquel experimento en el cual solo hay dos resultados que nos interesan: El suceso A y el suceso A’. Así por ejemplo, -

Al lanzar 1 moneda ⇒ A: caer cara ⇒ A’ = caer sello

-

Al lanzar 1 dado ⇒ A: número obtenido es par ⇒ A’ : número obtenido es impar.

-

Al elegir una persona al azar, en una ciudad C ⇒ A : la persona elegida nació en C ⇒ A’ : la persona elegida no nació en C. Luego tenemos que A ∩ A' = φ ... A ∪ A' = S A un ensayo de Bernoulli, le hacemos corresponder una variable aleatoria X, así: ⎧1 : Si se presenta el suceso A X =⎨ ⎩0 : Si se presenta el suceso A'

Entonces la P(x=1)= p: Probabilidad de éxito P(x=0)= q:

y

Probabilidad de fracaso

Sea X la variable aleatoria que se distribuye como un ensayo de Bernoulli, donde su función de densidad fx(x), está dada por : f x ( x) = P ( X = x) = p x .q 1− x ; x = 0,1 para x ∉ {0, 1}

f x ( x) = 0

Podemos decir también que un Ensayo de Bernoulli se conoce con el nombre de Binomial con parámetros (1, p) y podemos escribir b(1, p). CARACTERÍSTICAS DE LA BINOMIAL (1, p ) ;

3.1.1.1

1. ESPERANZA. Sea x~ b(1, p) 10 1

⇒ E ( x) = ∑ X . f x ( x) x =0 1

= ∑ X . p x .q 1− x x =0

= 0+ p = p ⇒ E ( x) = µ = p

2. VARIANZA. Var ( x ) =

σ x = E( x 2 ) − (E (x )) 2

1

∴ E(x ) = ∑ X 2 .f(x) 2

x =0

= 0 2 .f x (0) + 12 .f x (1) = f x (1) = p Luego : ∴

2

σx = p − p 2 σ x = pq

2

= p(1 − p)

3. FUNCIÓN GENERATRIZ DE MOMENTOS Por definición es:

9

Notación abreviada ~ : Interpretémoslo como, “se distribuye”

10

2

b(1, p)9

1

M x (t ) = E (e ) = ∑ e . f x ( x) tx

tx

x =0

t .0

t

= e . f x + e . f x (1) t

M x (t ) = q + p e

4. FUNCIÓN CARACTERÍSTICA

ϕ X (θ ) = E (eiθx ) = ∑ eiθx . f x ( x) 1

x =0

(iθ ).0

=e



. f x (0) + e . f x (1)

ϕ X (θ ) = q + p eiθ 3.1.1.2

DISTRIBUCIÓN BINOMIAL (n, p) :

b(n, p)11

No es más que n ensayos de Bernoulli con una misma probabilidad de éxito p.

Sean X1, X2, X3, ...... , Xn; Variables aleatorias independientes, todas binomiales (1, p); es decir:

X 1 ~ b(1, p ) ⇒ f x1 (x1 ) = p x1 ⋅ q 1− x1 X 2 ~ b(1, p ) ⇒ f x2 (x2 ) = p x2 ⋅ q 1− x2 ..... ...... X n ~ b(1, p ) ⇒ f xn (xn ) = p xn ⋅ q 1− xn La variable aleatoria, X = X1+ X2+ X3+...... + Xn, se dice que se distribuye Binomial (n, p) : b(n, p)

Por ejemplo, sean Xi, (i=1, 2, …, 5), binomiales (1, p) 11

Notación abreviada

X = X1+ X2+ X3+ X4+ X5, es una Binomial (5, p); donde X representa el número total

de éxitos, en 5 ensayos de Bernoulli. -

Veamos otro ejemplo ilustrativo; sea el experimento aleatorio lanzar una moneda 10 veces, entonces definimos:

Sea : X1 : número de caras en el primer lanzamiento. X2 : número de caras en el segundo lanzamiento. .

.

.

.

.

.

X10 : número de caras en el décimo lanzamiento.

Luego: X = X1+X2 + --- + X10

∴X

: Representa el número de caras que pueden ocurrir en los 10

lanzamientos. Los posibles valores de X = {0, 1, 2, ......, 10} Y p = 0.5 (Probabilidad de caer cara) ⇒

X ~ b (10, 0.5)

3.1.1.3

CARACTERÍSTICAS DE LA b(n, p)

1. ESPERANZA Sea X = X1+X2+ ...... + Xn

∴ Cada Xi ~ b(1,p) ⇒ E(X) = E(x1+x2+ --- +xn) = E(x1)+ E(x2)+ --- +E(xn)

Luego :

= p+ p + ...+p n veces

E ( X ) = n. p = µ : Media de la distribución b(n, p)

2. VARIANZA. Sea X ~ b(n, p) ∴ X = X1+X2+ ...... + Xn ∴ Cada Xi ~ b(1, p) ;

luego:

Var(X) = Var(X1+X2+ --- +Xn) = Var(X1) + Var(X2)+ --- + Var(Xn) = pq + pq + ... + pq n veces

σx 2

Var(x) = npq =

3. FUNCIÓN GENERATRIZ DE MOMENTOS: M X (t) ∴ X = X1 + X 2 + − − − + X n

y cada Xi ~ b (1, p)

( ) ] = E [e = E [e . e ... e ] = E (e ).E (e )...E (e ) tx

⇒ M x (t ) = E e

t ( x1 + x2 +... xn ) tx1

tx2

tx1

txn

tx2

txn

= M x1 (t ).M x2 (t )...M xn (t )

( ) (q + p e )...(q + p e ) = (q + p e ) (t ) = (q + p e ) t

= q + pe

t



t

t n

Mx

t n

4. FUNCIÓN CARACTERÍSTICA: Sea X ~ b(n, p)

ϕ

( ) = (q + p e ) iθx

x

(θ ) = E e

iθ n

La hallamos en forma similar a Mx(t), o también basta con hacer t = i θ en Mx(t)

ϕ

para así obtener

x

(θ ) .

5. Hallemos, el valor de la función de probabilidad, (Modelo), de la distribución Binomial (n, p). Encontremos fx(x) por medio de la función característica , así:

Sabemos que, Además,

ϕ

x

ϕ

( )= ∑e

x

(

Resaltemos que,

(a + b )

n

x =0

f x ( x)

)

= ∑e



iθx

iθ n

(θ ) = q + p e

[(q + p e )]

Luego,

n

iθx

(θ ) = E e

n

iθx

f x ( x)

x =0

n

n

1

( )

= ∑ nx a n − x ⋅ b x , fórmula del binomio de Newton, que x =0

asociaremos de la forma siguiente :

(q + p e )

iθ n

n

=∑ x =0

(q + p e )

= ∑ nx



1

=



∑ ( nx )e

iθ n

n

x =0

n

x =0

( )

( )

n q n − x ⋅ p iθ x e

( )e

iθx

x

⋅ q n− x ⋅ p x

2

2

iθx

n

⋅ q n − x p x = ∑ e ⋅ f x ( x) iθx

x =0

Luego para cada X ⇒ f x ( x) = ⎛⎜ n ⎞⎟ p x ⋅ q n − x ⎝x⎠ f x ( x) = 0

con X : 0,1,2,..., n Para X en otra parte

Probemos que fx(x) es función de probabilidad: Es obvio que fx(x) ≥ 0.

∑ ( nx )p n

Ahora resta, saber si

x

⋅ q n− x = 1

x =0



∑ ( nx )p n

x

⋅ q n − x = (q + p ) : Por binomio de newton n

x =0

= (1) n = 1

3.1.1.4

PROBLEMA

Si la probabilidad de acertar en un blanco es 1/5 y se hacen 10 disparos en forma independiente. Cuál es la probabilidad de acertar por lo menos 2 veces. Encuéntrese también, la probabilidad de acertar en el blanco al menos 2 veces, si suponemos que se acertó por lo menos 1 vez?

SOLUCIÓN p=1/5 : Probabilidad de acertar en el blanco o probabilidad de éxito. q=4/5 : Probabilidad de no acertar o sea probabilidad de fracaso. n=10: El experimento es claramente Binomial.

∴ X ~b (10, 1/5) X : Variable aleatoria que representa el número de veces de dar en el blanco, X = 0, 1, 2, ---, 10

Sea A suceso: “Acertar por lo menos 2 veces” ⇒ A’ : “Acertar a lo sumo una vez”



P(A' ) = P(X = 0) + P(X = 1) = f x (0) + f x (1)

( )( ) (45 ) + (101 )(51 ) (45 )

1 = 10 0 5 = 0.36

0

1

10

9

Luego la probabilidad pedida es: P(A) = 1 – P(A’) = 1 - 0.36 P(A) = 0.64

Contestemos ahora la segunda pregunta, para ello definamos:

Sea

B : Suceso de acertar por lo menos 1 vez B’ : Suceso de fallar exactamente 10 veces

∴ B = {X / X = 1, 2, 3, ..., 10}

B’ = {X / X = 0}

Sabemos pues que X ~ b(10, 1/5)

( )( ) (45 )

1 X ~ fx(x) = 10 x 5

Luego,

x

10 − x

; X : 0,1,2,...10

P(B) = P( x ≥ 1) = 1 − P( x < 1) = 1 − P ( x = 0) = 1 − P ( B ' ) ⎛4⎞ = 1 − f x ( 0) = 1 − ⎜ ⎟ ⎝5⎠ P(B) = 1 – 0.10 = 0.90 P(B) = 0.90

10

Nos piden hallar, la probabilidad de acertar por lo menos 2 veces, (o sea P(A)), dado que se acertó por lo menos 1 vez, (P(B)); es decir, P ( A / B ) = P( A / B) =

P( A ∩ B) ⇒ P( B)

P ( A) 0.64 = = 0.71 P ( B ) 0.90

3.1.2

DISTRIBUCIÓN HIPERGEOMÉTRICA

La distribución Hipergeométrica considera el caso en el cual una población finita se divide en dos grupos, uno de los cuales se considera “éxitos” y el otro “Fracasos”. Por consiguiente si se toma sin reemplazamiento una muestra de “n” elementos y se desea hallar la probabilidad de obtener “X” éxitos, tenemos: N = Tamaño de la población Np = Número de éxitos en la población Nq = Número de fracasos en la población



Np + Nq = N

X = Variable aleatoria que nos representa el número de éxitos en la muestra n = Tamaño de la muestra n – x = Número de fracasos en la muestra, utilizando las definiciones dadas,

podemos hallar la función de densidad para una variable aleatoria X que se distribuya Hipergeométricamente, así: fx(x) = P(X=x); donde el suceso, (X=x), (o sea, suceso de éxitos en la muestra), se

puede dar de:

⎛⎜ Np ⎞⎟⎛⎜ Nq ⎞⎟ ∴ ⎝ x ⎠⎝ n-x ⎠

x ≤ Np

Ahora el número total de muestras posibles de tamaño n que podemos extraer de

( )

la población de N elementos es: nN ⎛⎜ Np ⎞⎟ ⋅ ⎛⎜ Nq ⎞⎟ x ⎠ ⎝ n− x ⎠ f x ( x) = ⎝ N n

( )

Luego,

Para X = 0, 1, . . . , n ó

X = 0, 1, ..., Np

3.1.2.1



x ≤ n ≤ Np

Sí x ≤ Np ó n > Np

CARACTERÍSTICAS DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA

1. ESPERANZA: E(X): Para deducirla podemos emplear el mismo criterio que utilizamos en la distribución Binomial (n, p), en donde, consideremos la variable hipergeométrica X como una suma de n variables: X= X1+X2+ ... + Xn ;

Pero, aquí hay que tener presente que cada Xi es dependiente, pero, ya que, la propiedad aditiva de la esperanza no nos exige el carácter de independencia o dependencia, no tenemos problema aplicarla aquí.

Entonces,

E(X) = E(x1+x2+ ... + xn) E(X) = E(x1) + E(x2) + ... + E(xn)

∴ Cada E ( Xi ) = E ( x) =

Np = P: N

Np Np Np + + ... + N N N n veces

E( X ) = n ⋅

Np = nP N

Proporción de éxito en la población,

2. VARIANZA: Var(x)=

2

σx :

En este caso, ya no podemos deducir la Varianza

en forma similar a como lo hicimos en la Binomial (n, p), ya que ella no es aditiva para variables dependientes, pero sin necesidad de entrar aquí en exposiciones de rigurosidad matemática, simplemente, podemos afirmar que la Varianza de esta distribución, es: ⎛ N −n⎞ ⎛ Np ⎞⎛ Nq ⎞ Var ( x) = ⎜ ⎟× n⋅⎜ ⎟⎜ ⎟ ⎝ N −1 ⎠ ⎝ N ⎠⎝ N ⎠ N −n Var ( x) = ⋅n⋅ P ⋅Q N −1

∴ Q : Proporción de fracasos en la población, y

N −n ; se denomina N −1

factor de corrección, para el muestreo sin reemplazamiento. En caso de que la población finita N sea muy grande, ( N → ∞) , Entonces

3.1.2.2

N −n →1 N −1

PROBLEMA

Se quiere comprar un lote de 25 lámparas. Se eligen 5 de ellas al azar y se examinan de modo que si menos de 2 fallan, el lote es aceptado, de lo contrario será rechazado. Cuál es la probabilidad de que el lote sea rechazado si contiene un total de 4 lámparas defectuosas?

SOLUCIÓN : Sea X : Variable aleatoria que representa el número de lámparas defectuosas en la muestra.

El experimento que se realiza aquí es sin reemplazamiento en una población finita, en donde hay dos clases excluyentes de lámparas, unas defectuosas, (que llamamos éxitos), y otras no defectuosas, ( que llamamos fracasos). N = 25 : Total lámparas en la población

Entonces,

Nq = 21 : Total lámparas no defectuosas en la población Np = 4 : Total lámparas defectuosas en la población n = 5 : Tamaño de la muestra aleatoria sin reemplazamiento.

Ahora, X : Puede tomar los valores;

X = 0, 1, 2, 3, y 4

⇒ X ≤Np ∧ n > Np

∴ X ~ Hipergeométricamente; con: 4 )( 21 ) ( x 5− x f ( x) = ∴ X :,1,2,3,4 x

C

25

5

La probabilidad de que el lote sea rechazado, es por lo tanto;

P ( X ≥ 2) = 1 – P(X 20) = 1 − P ( X ≤ 20) 20

= 1− ∑

X =0

e

−10

⋅ 10 X

X!

= 1 − 0.99841 (tablas )

= 0.00159; es decir, que prácticamente el número de llamadas por minuto,

no sobrepasan la capacidad máxima del cuadro telefónico.

2. Una compañía de seguros, halla que el 0.005% de la población, fallece cada año en cierto tipo de accidente. Cuál es la probabilidad de que la compañía tenga que pagar a más de 3 de sus 10.000 asegurados, contra tales accidentes, en un año dado?

Sea

p : Probabilidad de fallecer una persona en un año ∴ p = 0.00005

Sea

X : Variable aleatoria que representa el número de personas que fallecen

en un año dado.

n = 10.000 número de asegurados o tamaño de la muestra. Este problema posee la característica de ser Binomial

X ~ b(10.000, 0.00005)

)

(

x 10.000 − x ⇒ f x ( x) = 10.000 x (0.00005) (0.99995)

Cosa que por aquí resultaría muy laborioso, pero basta observar que p es muy pequeño, ( p → 0), y n es muy grande, (n → ∞); luego podemos resolver el problema aproximándolo a la distribución de Poisson;



µ = n ⋅ p ⇒ µ = 10.000 ⋅ 0.00005 = 0 .5 X~Poisson con µ = 0.5

f x ( x) =



(0.5) X e−0.5 X!

Luego, se pregunta:

P ( X > 3) = 1 − P ( X ≤ 3) = 1 − Fx (3), µ = 0.5

µ = 0 .5

µ = 0.5

= 1-0.99825 = 0.00175

(Valor hallado en tablas)

Quiere decir, que el riesgo que tiene la compañía aseguradora es casi nulo, o prácticamente ninguno.

3.2

PRINCIPALES DISTRIBUCIONES CONTINUAS

3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR

Esta distribución surge, por ejemplo, en el estudio del redondeo de errores cuando las observaciones se registran con cierta precisión. Así por ejemplo, si las observaciones sobre la temperatura diaria se registran redondeadas al grado más próximo, podrá suponerse que la diferencia en grados entre la temperatura real y la registrada es un número que oscila entre –0.5 y 0.5 y que el error se distribuye uniformemente a lo largo de este intervalo.

-

Deduzcamos la función de densidad de esta distribución:

Sean a y b dos números reales, tales que a0

La distribución de la χ 2 ( n ) esta dada por: ∞

f x 2 ( n ) ( x) =



n

1

n n 0 2 2 Γ( )

−1

.µ 2 .e



µ 2d

µ

2

3.2.5.1 Momentos de la χ 2 ( n ) : ya vimos que la f. g. m de la χ 2 ( n ) es: Μ x 2 ( n ) (t ) = (1 − 2t )



n 2

a n

n

− −1 − −1 n Μ x 2 ( n ) (t ) = − (−2)(1 − 2t ) 2 = n(1 − 2t ) 2 2

n 2

Μ x 2 ( n ) (t ) = 2n( + 1)(1 − 2t )

n − −2 2

= n(n + 2)(1 − 2t )

n − −2 2

∴ Μ x 2 ( n ) (t = 0) = n =∝1 : es el momento de orden 1 con respecto Al origen ∴ ∝1 = µ ∴ Μ x 2 ( n ) (t = 0) = n = (n + 2) =∝ 2 es el momento de orden 2 con respecto al origen ∝ 2 = Ε( χ 2 )

luego la varianza de la χ 2 ( n ) es:

ν 2χ

2

(n)

=∝ 2 −(∝1 ) 2 = n(n + 2) − n 2 = 2n

a ν 2 χ 2 ( n ) = 2n

vemos así que en la variable aleatoria χ 2 ( n ) , la media de µ coincide con el numero de grados de libertad y la varianza es dos veces este numero. DISTRIBUCION t DE ESTUDENT

Sean: X , X 1 , X 2 X 3 ...... Xn variables aleatorias independiente todas las normales

(0,ν ) ; se define la variable aleatoria t con n. g. l , Así:

Χ

t(n) =

1 2 (x 1 + x 2 2 + .......x 2 n ) n

encontremos la función de densidad de la t( n ) , pero antes, definamos la variable , Υ así :

Y=

Χ 1 2 (x (1) + x 2 (2) + .......x 2 (n) ) ⇒ t(n) = Υ n

como Χµη (0,ν ) ; su función de densidad es: 1 x2

− . 2 1 f x ( x) = e 2ν ν 2π

La variable aleatoria Υ , se puede expresar de la siguiente forma

Υ=

x 2 (n) σ 2 x 2 (1) x 2 (2) x 2 (3) ( + 2 + 2 + ............... + 2 ) n σ2 σ σ σ

Pero como cada xi es normal (0, σ) ; entonces

xi , entonces es normal (0,1) a σ

⎡ x 2 (1) x 2 (2) x 2 (3) x 2 (n) ⎤ , , .......... ..... , ηχ 2 ( n ) ; luego; + + ⎢ 2 2 2 2 ⎥ σ σ σ ⎦ ⎣ σ

σ2 2 Y= ⋅ x(n) n ⎤ ⎡ σ2 2 χ (n) ≤ y ⎥ ⎥⎦ ⎢⎣ n

∴ FY (y) = Ρ[Υ ≤ y ] = Ρ ⎢

⎡σ 2 2 ⎤ n ⎡ ⎤ = Ρ⎢ χ ( n ) ≤ y 2 ⎥ = Ρ⎢χ 2( n ) ≤ 2 y 2 ⎥ σ ⎣ ⎦ ⎣ n ⎦

Fχ 2 ( (n)

n 2 y ) σ2

sabemos que F χ 2

a FY (y) =

(n)

n 22

n Γ( ) 2 n

1 n . 2 2 Γ(

n

1

n ) 2

⋅ ∫σ

2

y2

0

∫0σ

2

n −1 µ2

y2

⋅e

n −1 µ2



⋅e



µ 2



µ 2 dµ

La función de densidad de Υ será, por tanto: n

n

µ

d 2 y 2 2 −1 − 2 f Y (y) = F´Y (y) = n µ .e dµ dy ∫0 . n 2 2 Γ( ) 2 1

=

1

.(

n

n ν 2 τ( ) 2 n . 2

2

n −1 2 2

y )

.e

1 n − . 2 y2 2ν

.

2n

ν2

.y

n

n 2( ) 2 − n y 2 2 2 e. 2σ y n −1 f Y (y) = n σ 2 Γ( ) 2 Ahora la función de densidad conjunta ( ( Χ, Υ ) , está dada por f x , y ( x. y ) = f x ( x). f y ( y ) n

f x, y (x.y) =

= K.y

n −1

.e



1 e σ 2π 1 ny 2 + x 2 2 ν2

1 x2 − 2 2σ

n

2

− 2y n 2( ) 2 .e 2σ y.n −1 . 2 n σ n Γ( ) 2

; − ∞ < x < ∞;0 < y < ∞

n

∴K =

n 2( ) 2 2

n σ n +1 2π Γ( ) 2

Llamemos Ft ( n ) ( z ) a la función de distribución de la v.a t

⎡x ⎤ Ft ( n ) ( z ) = Ρ t( n ) ≤ Z = Ρ ⎢ ≤ Z ⎥ = ∫ ⎣y ⎦ e

[

]

∫ f ( x, y)dxdy

la región C es aquel recinto de la distribución conjunta en donde donde x ≤ yz ) ∴ − ∞ < z < ∞ veamos la gráfica

a Ftn ( z ) = K



z. y

0

y n −1.e

1 ny 2 + x 2 − . 2 ν2

Hagamos el siguiente cambio en las variables:

∂x x = µ ⋅ v⎫ ∂µ ⎬ ⇒ J = ∂y y=v ⎭ ∂µ

∂x ∂v v = ∂y 0 ∂v

⇒ v = v; ya que v = y ; y ≥ o

µ =v 1

x ≤ Z ; (o sea, y

⇒ dxdy = vdu.dv

∴ Los limites son:

Para V, igual que para Y:(0,∞) x con v fijo, x → −∞ ⇒ µ → −∞ v z. y ⎧ ⎪µ = ∴ x = z.y ⇒ ⎨ v ⎪⎩= z

Para µ =

Ft(n) (z) = K ∫

∞ z

0

⎧ = K∫ ⎨ −∞ ⎩ z



∫0 V

∫−∞V n

.e

n −1

.e

1 nV 2 + µ.V 2 − . 2 σ2

1 n+ µ2 − . 2 ⋅v 2 2 σ

.V.dµV.d

⎫ dV ⎬.dµ ⎭

La integral “entre llaves” es una eureliana de segundo orden, donde : 2p-1 =n

n+1 n + µ2 ⇒Ρ= ∧a= 2 2σ 2 ∞

⇒ ∫ V n .e

1 n+ µ2 − . 2 ⋅v 2 2 σ

0

n +1 ) 2 Ft ( n ) ( z ) = n nπ τ ( ) 2

τ(



n+1 ) z dµ 2 .dv = .∫ 2 n +1 − ∞ n+ µ µ2 2 2( ) (1 + ) 2σ 2 n Γ(

du

z

−∞

(1 +

µ2 n

)

n +1 2

Esta función de distribución de la “t” con n, n.gl . Su función de densidad, será entonces:

n +1 ) 1 2 ;−∞ < x < ∞ . f t ( n ) ( x) = 2 n +1 n nπ τ ( ) (1 + x ) 2 2 n

τ(

3.2.7 DISTRIBUCCION F DE SNEDECOR: Sean χ1, χ 2,........... χ m ; y1 , y2,.......... yn ; (m+n) variables aleatorias independientes normales (0,ν ); se define la variable aleatoria F de snedecor con (m,n) g , l como:

1 2 ( χ1 + χ 22 + .............. + χ m2 ) Χ m F= ⇒F= 1 2 Υ ( y1 + y22 + .............. + yn2 ) n

1 2 1 ( χ1 + χ 22 + .............. + χ m2 ) ∧ ( y12 + y22 + .............. + yn2 ) m n

∴Χ =

Para determinar la función de densidad F, encontremos antes las distribuciones de Χ eΥ . a Función de distribución de Χ

sea: Χ =

x ⎤ ν 2 ⎡ x1 2 ( ) + ........... + (( m ) 2 ⎥ ⎢ m⎣ ν ν ⎦

Como cada x1ηµ (0,ν ) ; los a Χ1=

ν2 m

xi

ν

ηµ (0,1)

χ (2m ) ∴

⎡ν 2 ⎤ m ⎤ m ⎡ a Fx ( x) = Ρ[Χ ≤ x ] = Ρ ⎢ χ (2m ) ≤ x ⎥ = Ρ ⎢ χ (2m ) ≤ x ⎥ = F x 2 ( m ) ( .x) ν ν m ⎣ ⎦ ⎣ ⎦

=

1 m 22

m τ( ) 2



m

ν2

0

x

µ

m 1 −1 − µ 2 .e 2 .du

m

1 m

−1 − 2 x m m ⇒ f x (x) = F´ x (x) = m .( 2 x) 2 .e 2 σ . 2 σ σ m 2 2 Γ( ) 2

1

m

m m m ( )2 −1 − 2 x 2 ⇒ f x (x) = .χ 2 .e 2σ Para 0 < x < ∞ m m σ Γ( ) 2 en forma similar obtenemos a f y ( y ) ∴

n

n n n ( )2 −1 − 2 .y 2 2σ 2 f y (y) = .y .e ; para 0 < y < ∞ n n σ Γ( ) 2 por la independencia entre x , y ; su densidad conjunta es: f ( x , y ) = f x ( x). f y ( y ) para 0 < x, y < ∞

⇒ f (x, y) = K.X m

1 m n −1 −1 − 2 ((mx + ny)) 2 y 2 .e 2σ n

m n ( ) 2 .( ) 2 2 2 ∴K = m n m + n. ν τ ( ).τ ( ) 2 2

ahora la función de distribución F es: ⎡Χ ⎤ F( F ) ( z ) = Ρ[F ≤ z ] = Ρ ⎢ ≤ z ⎥ = ⎣Υ ⎦

∫ ∫ f ( x, y)dxdy R

∴ R es la región en donde Χ ≤ yz ; como especificamos en la siguiente gráfica:

F( F ) ( z ) = K

Z

∫ ∫ 0

zy

0

χ

m −1 2

1 n ( mx + ny ) −1 − 2 σ 2 2 . y .e dydy

hacemos las variables, así x = µ .v y=v

vµ ⎫ = v a j = V =V ⎬ ⇒J= 0,1 ⎭

a dxdy = Vdudv

Encontremos los limites: Para V, son los mismos para y ⇒ V ∈ (0, ∞) x , para x = 0 → µ = 0 V Para x = zy → µ = z

Para µ =; µ =

F( F ) ( z ) = K

z

= K∫ µ 0

Z



0

0

∫ ∫

( µ .V )

m −1 2

n

−1

.V 2 .e

m+ n mµ + n m ⎡ .V ∞ 2 −1 − −1 2 2 ⎢ V .e 2ν ⎢0







1 2ν 2

( mµV + nV )

VdVdµ

⎤ ⎥ dµ ⎥ ⎦

la integral entre llaves es una Euleriana de primer orden, así P −1 =

m +1 m.µ + n −1∧ a = 2 2

m + n) τ( ⎧ ⎫ 2 Luego: ⎨ ⎬ = = m+n + µ m n ⎩ ⎭ 2 ( ) 2ν 2 ( ⎧ ⎫ ⎨ ⎬=2 ⎩ ⎭

m + n) 2

ν

− m+n τ( )( µ .m + n) 2

m+n

m+n 2

Entonces la función de distribución de la F de snedecor es: m

n

m

n

m+n m n m+n ( ) 2 .( ) 2 .2 2 .2 2 .σ m + µ Γ( ) z m −1(mµ + n)− 2 2 2 FF (z) = 2 dµ ∫0 µ 2 m n Γ( )Γ ( ) 2 2

Simplificando la constante y derivado la integral con respecto a z, y cambiando z por x, la función de densidad de la F con (m , n) g , l , será en definitiva:

f (x) =

m n 2 m .n 2

m+n m+2 ) m −1 − 2 2 χ (mx + n) 2 y x > 0 m n Γ( )ΓΓ ) 2 2 Γ(

Volvamos a la definición de la V , a F (m, n) :

∴ F(m, n) =

1 m 2 ∑ xi m 1 n

1 yi2 ∑ n 1



1 F(m,n)

=

1 n 2 ∑ yi n 1 1 m 2 ∑ Xi m 1

= F(n, m)

Esto significa que el inverso de una F con (m, n) g , l es una F con (n, m) g , l . En el manejo de tablas es muy útil esta propiedad, ya que: ⎡ 1 1⎤ 1⎤ ⎡ Ρ f ( m, n ) ≤ x = Ρ ⎢ ≥ ⎥ = Ρ ⎢ f ( n, m ) ≥ ⎥ x⎦ ⎣ ⎣⎢ f ( m , n ) x ⎥⎦

[

]

3.2.8 TEOREMA CENTRAL DEL LIMITE (De Lindeberg y levy) sea

{xi } = {x1 , x2 , x3 .......}

una sucesión de variables aleatorias independeintes e

igualmente distribuidas con medias µ y varianzas σ 2 finitas. A partir de esta sucesión podemos definir otra así





{y n } = ⎪⎨ S n − Ε(S n ) ⎪⎬ ⎪⎩

σ sn

⎪⎭

con S n = x1 + x2 + ................ + xn

entonces la suceción normal (0,1)

{yn } converge en distribución a una variable aleatoria Z

Esta forma es aplicable en aquellos casos en los cuales debamos encontrar probabilidaes relativas a la suma de n variables aleatorias con n grande sí S n = x1 + x2 + ................ + xn y las distribuidas , (n grande), entonces:

xi

a

S n aproxima η {E ( S n );

so independientes e igualmente

σ sn }

3.2.9 TEOREMA DE MOIVRE : Sea

{xn } = {x1 , x2 , x3 .......xn...........} una sucesión de

(n,p);

entonces la sucesión,





⎪⎩

n. p.q ⎪⎭

v.a. independientes binomiales

{yn } = ⎪⎨ χ n − n. p ⎪⎬ , converge en distribucion a una

variable aleatoria zµη ( 0,1). Este teorema, es un caso partucular del T.C.L14 En efecto, ∀n a χ n = B1 + B2 + ..........Bn con independientes entre si

cada Bin b (1 , p) ∴ las bi son

⇒ np = Ε(xn ); n.p.q = σ xn

⇒ y(n)

xn − E(xn ) σ xn

las y( n ) cumplen con las hipótesis del T.L.C al igual que en el teorema de moivre es aplicable para binomiales (n, p , con “n” grande: Si X η b (n,p) con n grande a

14

Léase T.C.L. como teorema central de limite.

S n aproxima η (n.p; n. p.q )

3.2.10 Ejercicios

Ilustremos las aplicaciones de estos teoremas, con algunos ejemplos: 1. Sea x la media de una muestra aleatoria tamaño n= 100 de la distribución χ 502 encontrar, en forma aproximada el valor de P(49 < x < 51). Solucion : x =

1 2 ( x1 + ..........xn ) cada xi N χ 50 e independientes n

η ( µ ,ν ) ; por T.L.C

a ( x1 + ..........x100

donde µ = 100E ( xi ) = 100 x 50 = 5000 ∴ x1 + x 2 + .......... + x100 ∼ η a xµ (

(5000,100)

5000 100 ; ) 100 100

a x µ (50,1) a Ρ(49 < x < 51) = Ρ(

49 − 50 51 − 50 11.8 ) = 0 Es casi imposible que la venta en 182 dias supere los 6370 articulos 5. una persona acostumbra participar en un juego en las cuales sus probabilidades de ganar y perder son iguales. Siempre que gana una partida recibe $ 5 y siempre que pierde paga # 5. Un día se dirige al sitio de juego con la intension de jugar 400 partidas. ¿Que cantidad de dinero debe llevar si quiere tener probabilidad de 0.95, de hacer frente a sus posibles perdidas? Solución Sea Χ i la V.A que indica la perdida en la partida i - ésima? a Χ = x1 + x2 + ........ + x400 es la perdida total en las 400 partidas Ρ( xi = 5) =

a Ε( xi2 ) = 52

1 2



Ρ( xi = −5) =

1 1 50 + ( −5) 2 = = 25 2 2 2

1 2

al menos una

⇒ σ xi2 = 25 − 0 = 25 = 5 2 luego, Ε( x) = 400 E ( xi ) = 0

σ x2 = 400σ xi2 = 400.5 2 = 10.000 ⇒ Χ ∼ η (0;100) ; por T.C.L Sea K las cantidad que debe llevar, de modo que Ρ( x ≤ k ) = 0.95 a Ρ( x ≤

a

k ) = 0.95 100

k = 1.645 a k = 164.50 100

a debe llevar $ 164.50

6. Demuestre que si x1 , x 2 ,........, x n son V.A independiente e igualmente distribuidas f x ( x) = 2 x para 0 ≤ x ≤ 1 ; entonces: n ⎡ − +k Ρ ⎢ x1 , x2 ......... + xn ≤ e 2 ⎣⎢

n

⎤ ⎥ = F ( 2k ); con f ( x) ⎦⎥

funcion de distribucion η (0,1). Suponga n grande. Solucion: n ⎡ − +k Ρ ⎢[x1 ........x n ] ≤ e 2 ⎢⎣

n

⎤ n ⎡ ⎤ ⎥ = Ρ ⎢l nx1 + l nx2 + .........l nxn ≤ − + k n ⎥ 2 ⎣ ⎦ ⎥⎦

sea Χ 1 = l nx1 + l nx2 + .........l nxn las variables l nx son igualmente distribuidas e independientes: i

Ε( Ln xi ) =

1

∫l 0

n x.2 xdx

1 = − ; resolviendo por parte 2

2

∴ Ε(Ln xi ) =

⇒ σ l2xi =

1

∫0 ( l n x)

.2xdx =

1 2

1 1 2 1 1 − ( − )2 = − = 2 2 4 4 4 1 2

luego: Ε( x) = n(− ) = −

σ x2 =

2

n 2

n n n ; luego x ∼ η (- ; ) 2 2 4

n a Ρ( X ≤ − + k n ) = Ρ( Z ≤ 2



= Ρ( Z ≤ 2k ) = F (2k ) . l.q.qd .

n n +k n + 2 2) n 2

BIBLIOGRAFIA BERENSON , Mark y LEVINE David. 1987 “ Estadística para Administración y Economía”.Interamericana.

BLANCO, Castañeda Liliana. 2004. "Probabilidad". Unibiblos. Universidad Nacional de Colombia.

FELLER , William.1985. “ Introducción a la Teoría de Probabilidades y sus Aplicaciones”. Limusa. Méjico,

KENETT,

Ron;

SHELEMYAHU,

Zacks.

2000.

”Estadística

Industrial

Moderna”.International Thomson Editores.Méjico.

LOPES, Paulo Alfonso.1999 ”Probabilidad y Estadística”. Prentice-Hall. Bogotá MASON ,Robert y LIND , Douglas.1995. “ Estadística para Administración y Economía”. Alfaomega , Méjico

MENDENHALL, William; SINCICH, Ferry.1997 .”Probabilidad y Estadística para Ingeniería y Ciencias”.Prentice-Hall Hispanoamericana.Méjico.

MOOD , Alexander y GRAYBILL , Franklin. 1980. “ Introducción a la Teoría de la Estadística”. Aguilar. Madrid

MUÑOZ, Quevedo José María, 2002. "Introducción a la teoría de Conjuntos". Cuarta Edición. Panamericana, formas e impresos S.A.

P. L. MEYER. 1992. “ Probabilidad y Aplicaciones Estadísticas”.Adisson Wesley Iberoamericana.

SCHEAFFER, Richard L. ; McCLAVE, James T. 1993 “Probabilidad y Estadística para Ingeniería”.Grupo Editorial Iberoamericana.Méjico.

WALPOLE , R.E. y MEYER , R.H. 1990. “ Probabilidad y Estadística para Ingenieros”.Interamericana. Méjico,

YA LUN CHOU. “ Análisis Estadístico”. Interamericana. Méjico,1985.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.