CAPÍTULO 6. DEFINICIONES DE PROBABILIDAD Definición clásica

Teoría elemental de probabilidad CAPÍTULO 6 DEFINICIONES DE PROBABILIDAD Definición clásica S u p ó n g a s e que un evento E puede suceder de h mane

26 downloads 58 Views 2MB Size

Recommend Stories


Probabilidad
Ejercicios probabilidad

PROBABILIDAD
Capítulo 3 PROBABILIDAD 3.1.1 – 3.1.3 Si bien la definición de probabilidad es simple, calcular las probabilidades de un evento determinado puede s

Story Transcript

Teoría elemental de probabilidad

CAPÍTULO 6 DEFINICIONES DE PROBABILIDAD Definición clásica S u p ó n g a s e que un evento E puede suceder de h maneras, de un total de n posibles formas igualmente probables. Entonces, la probabilidad de ocurrencia de dicho evento (llamado éxito) se denota por p =

Pr{E}=n

L a probabilidad de no ocurrencia del evento (llamado/racaso) se denota por q = Pr {noE}=?-^-

= 1 — - = 1 -p=

1 - Pr{£}

Por lo tanto, p + q - l o P r { £ } + Pr{no £ } = 1. E l evento "no £ " en ocasiones se denota por E,E o ~E. EJEMPLO 1

Sea ¿sel evento en que al lanzar un dado una vez se obtenga un 3 o un 4. Existen seis formas en que el dado puede caer, siendo éstas las caras 1,2, 3,4, 5 o 6; si el dado es bueno (es decir, no está cargado), se supone que las 6 caras tienen la misma probabilidad de ocurrir. Puesto que E puede ocurrir en dos de estas maneras, entonces p = Pr{£} = 1 = 3. La probabilidad de no obtener un 3 o un 4 (es decir, obtener 1, 2, 5 o 6) es q = Pr{£) = 1 - i = f. O b s é r v e s e que la probabilidad de un evento es un n ú m e r o entre 0 y 1. Si el evento no llega a suceder, su probabilidad es 0. Si debe ocurrir (es decir, si su ocurrencia es una certeza), su probabilidad es 1. Si p es la probabilidad de que un evento ocurra, las probabilidades a favor de su ocurrencia son p : q (léase "p a q"); las probabilidades en contra de su ocurrencia son q : p. Así. las probabilidades en contra de la ocurrencia de un 3 o un 4 en un solo lanzamiento de un dado bueno son q : p = § : 3 = 2 : 1 (es decir, de 2 a 1).

Definición como frecuencia relativa L a definición clásica de probabilidad cuenta con la desventaja de que el t é r m i n o " p a t a t a te posible" es vago. De hecho, ya que el t é r m i n o parece s i n ó n i m o de "igualnme f ble", la definición es circular debido a que la probabilidad se está definiendo.

. :

_ _2 t



"ecr/a elemental

de

probabilidad

te, con sus propios t é r m i n o s . Por esto, algunas personas han propuesto una definición es dística de probabilidad. Para ellos, la probabilidad estimada o probabilidad empírica de evento es la frecuencia relativa de ocurrencia del evento cuando el n ú m e r o de observac: nes es muy grande. L a probabilidad es el límite de la frecuencia relativa, conforme el núrr ro de observaciones crece en forma indefinida. EJEMPLO 2

Si l OOO lanzamientos de una moneda dan como resultado 529 caras, entonces la frecuencia relati de caras es de 529/1 000 = 0.529. Si en otros 1 000 lanzamientos resultan 493 caras, tenemos que frecuencia relativa de los 2 000 lanzamientos totales es de (529 + 493)/2 000 = 0.511. De acuerdo c la definición estadística, si se continuara de esta manera, se acercaría cada vez más a un número q representa la probabilidad de obtener una cara en un solo lanzamiento de la moneda. De los resultad presentados hasta ahora, éste debe ser 0.5, con un solo dígito. Para obtener más dígitos habrá q realizar más observaciones. L a definición estadística, aunque útil en la práctica, implica dificultades desde el pun de vista m a t e m á t i c o , ya que q u i z á no exista un n ú m e r o límite real. Por esto, la moder teoría de la probabilidad es axiomática; es decir, la teoría deja el concepto de probabilid; sin definir, de la misma manera en que punto y línea no tienen una definición en geometri

"••^

PROBABILIDAD CONDICIONAL: EVENTOS INDEPENDIENTES Y DEPENDIENTES Si E¡ y E son dos eventos, la probabilidad de que E ocurra, dado que ¿s, haya ocurrido. I denota por Pr{E \E ) o P r { £ d a d o £ , } , y se denomina probabilidad condicional de í puesto que E¡ ha ocurrido. 2

2

2

x

2

Si la ocurrencia o no ocurrencia de £", no afecta la probabilidad de ocurrencia de £ entonces Pr[E lE¡} = Pr{E }. Por ello se dice que E y E son eventos independientes; e caso contrarío, son eventos dependientes. 2

2

x

2

Si se denota mediante E E al evento en el cual "ambos, E y E , ocurren", llamado e ocasiones evento compuesto, entonces X

2

]

2

PT{E E }=PT{E }PT{E \E } ¡

2

¡

2

(j

¡

En particular, Pv{E\E ]

= Pr{£,} Pr{£ }

2

para eventos independientes

2

Para tres eventos E ,E y x

(2

E¡:

2

P r { £ , £ £ } = Pr{£-,} P r { £ l £ , } P r { £ l £ : £ } 2

3

2

3

i

(J

2

Esta es la probabilidad de ocurrencia de E E y £ , y es igual a (la probabilidad de £ , ) X (1 probabilidad de E , dado queis, ha ocurrido) 3 (la probabilidad de E^njado que £ , y E hai ocurrido). En particular, t!

2

3

2

2

P T { E ¡ E E } = Pi{E¡} 2

Pr{E }

}

En general, si £ „ E , £ ,..., 2

respectivas p¡, p ,p ,..., 2

3

Pr{£ }

2

3

para eventos independientes

3

(4

E„ son n eventos independientes, con sus probabilidade:

p , luego la probabilidad de ocurrencia de E¡ y E y E y • • • E e: n

2

}

n

P\PiPi-P„EJEMPLO 3

Sean E y EJ los eventos "cara en el quinto lanzamiento" y "cara en el sexto lanzamiento" de uní moneda, respectivamente. Entonces E yE son eventos independientes; por lo tanto, la probabilidac de obtener caras en el quinto y sexto lanzamientos es (suponiendo que la moneda no está cargada) ]

t

2

P r { £ , £ - } = P r { £ , } Pr{E } 2

2

= Q

Q

= I

Distribuciones

de probabilidad



1

29

EJEMPLO 4

Si la probabilidad de que A esté vivo dentro de 20 años es de 0.7 y la probabilidad de que B esté vivo dentro de 20 años es de 0.5, entonces la probabilidad de que ambos estén vivos dentro de 20 años es (0.7)(0.5) = 0.35.

EJEMPLO 5

Supóngase que una caja contiene 3 bolas blancas y 2 bolas negras. Sea Z?, el evento "la primera bola extraída es negra" y el evento E "la segunda bola extraída es negra"; considere que las bolas extraídas no se regresan a la caja. Aquí, E¡ y E son eventos independientes. La probabilidad de que la primera bola extraída sea negra es Pr{£,} = 2/(3 + 2) = §. La probabilidad de que la segunda bola extraída sea negra, dado que la primera bola fue negra, es Pr{£y¿s,} = 1/ (3 + 1) = \. Por lo tanto, la probabilidad de que las dos bolas extraídas sean negras es: 2

2

P r { £ , £ } = P r { £ , } Pr{E \E,} 2

= 1 •I =

2

±

EVENTOS MUTUAMENTE EXCLUYENTES Se dice que dos o m á s eventos son mutuamente excluyentes si la ocurrencia de uno de ellos excluye la ocurrencia de los otros. A s í , si £ , y E son eventos mutuamente excluyentes, entonces ~Pr{E E } - 0. 2

X

2

Si E¡ + E denota el evento "ocurre £ , o E o ambos", luego 2

2

Pr{£- + £ } = P r { £ } + P r { £ } - P r { £ £ } 1

2

1

2

1

(5)

2

En particular, Prfi?! + E ) - Pr{2?,} + P r { £ } 2

para eventos mutuamente excluyentes

2

(6)

Como e x t e n s i ó n de esto, si E E ,..., E son n eventos mutuamente excluyentes con las respectivas probabilidades de o c u r r e n c i a p , p , . . . , p , entonces la probabilidad de ocurrencia de E¡ o E o • • • E es p , + p + • • • + p , u

2

n

{

2

n

2

2

n

n

E l resultado (5) t a m b i é n puede generalizarse a tres o m á s eventos mutuamente excluyentes ( v é a s e el problema 6.38). EJEMPLO 6

Si £ , es el evento "extraer un as de una baraja" y E es el evento "extraer un rey", entonces Pr{£,} = 5^ = ¿ y Pr{E ) = A = fs- La probabilidad de extraer un as o un rey en un solo evento es 2

2

Pr{2-, + E } = P r { £ , } + P r { £ } = 1 + 1 2

=

2

1

dado que un as y un rey no pueden obtenerse en una sola extracción; por lo tanto, son eventos mutuamente excluyentes. EJEMPLO

7

Si E¡ es el evento "extraer un as" de una baraja y E es el evento "extraer una espada", entonces £ , y E no son mutuamente excluyentes, puesto que se puede obtener el as de espadas. Por consiguiente, la probabilidad de extraer un as o una espada o ambas es 2

2

Pr{£! + E } = Pr{£,} + Pr{£ } 2

_4_

Vr{E E }

2

x

2

52

13 _ J _ +

52

52

:

16 52

_4_ ;

13

DISTRIBUCIONES DE PROBABILIDAD Discretas Si una variable X llega a tomar un conjunto discreto de valores X . XX . con tivas p r o b a b i l i d a d e s p , p , . . . , p , donde/?,+ p + • • • + p - 1, se dice que se ha distribución de probabilidad discreta para X. L a función p{X). que tiene los tivos: p , , p p p a r a X = Jf„ X ,..., X , se denomina como la función t

x

2

K

2

K

2

2

K

K

K



~eona elemental

de

probabilidad

función de frecuencia de X. Debido a que X puede tomar ciertos valores con probabilidades dadas, con frecuencia se le llama variable aleatoria discreta. Una variable aleatoria también se conoce como variable azarosa o variable estocástica. EJEMPLO 8

Sea que se lance un par de dados y que X denote la suma de los puntos obtenidos, entonces la distribución de probabilidad es igual a la que se presenta en la tabla 6-1. Por ejemplo, la probabilidad de obtener la suma 5 es ^ = 5; así, en 900 lanzamientos de los dados, se esperaría que en 100 de ellos la suma fuera 5. N ó t e s e que esto es a n á l o g o a una distribución de frecuencias relativas, donde las probabilidades reemplazan a las frecuencias relativas. Por l o tanto, se puede considerar a las distribuciones de probabilidad como formas teóricas o ideales del límite de distribuciones de frecuencia relativa cuando el n ú m e r o de observaciones realizadas es muy grande. Por esto, se p e n s a r í a que las distribuciones de probabilidad son distribuciones de poblaciones, mientras que las distribuciones de frecuencia relativa son distribuciones de muestras obtenidas de dicha p o b l a c i ó n . T a b l a 6-1

X

2

3

4

5

6

7

8

9

10

11

12

P(X)

1/36

2/36

3/36

4/36

5/36

6/36

5/36

4/36

3/36

2/36

1/36

L a distribución de probabilidad puede representarse gráficamente dibujando p(X) contra X, igual que en las distribuciones de frecuencia relativa ( v é a s e el problema 6.11). Por medio de la a c u m u l a c i ó n de probabilidades, se obtienen distribuciones de probabilidad acumulada, que son a n á l o g a s a las distribuciones de frecuencia relativa acumulada. L a función asociada con esta distribución se denomina función de distribución.

Continuas Las ideas anteriores llegan a extenderse al caso en el que la variable X puede tomar un conjunto continuo de valores. E l p o l í g o n o de frecuencia relativa de una muestra se convierte, en el caso teórico o límite de una población, en una curva continua (como la de la figura 6-1), cuya e c u a c i ó n es Y = p(X). E l área total bajo esta curva, y sobre el eje X, es igual a 1, en tanto que el área baj o la curva entre las líneas X = a y X = b (sombreada en la figura 6-1) da la probabilidad de que X esté entre a y b, que puede denotarse P r { a < X < b}.

F I G U R A 6-1

P(X)

a

b

Se llama a p(X) una función de densidad de probabilidad o, de forma breve, función de densidad; cuando dicha función está dada, se dice que se ha definido una distribución de probabilidad continua para X. Entonces, la variable X se denomina variable aleatoria continua. Igual que en el caso discreto, es posible definir las distribuciones de probabilidad acumulada y las funciones de distribución asociadas.

Análisis combinatorio

• • •



131

ESPERANZA MATEMÁTICA Si p es la probabilidad de que una persona reciba una suma de dinero S, entonces la esperanza matemática (o simplemente la esperanza) se define como pS.

EJEMPLO 9

Si la probabilidad de que un hombre gane un premio de $10 es 5, su esperanza es de s($10) = $2. El concepto de esperanza es fácil de extender. Si X denota una variable aleatoria discreta que puede tomar los valores X ,X ,...,X con sus respectivas probabilidadesP\,p ,---,p i donde p + p + • • • +p = 1, la esperanza matemática de X (o simplemente la esperanza de X), denotada por E(X), se define como l

x

2

2

K

2

K

K

K

E{X)

= X Pl

x

+p2X -H • • • + p X 2

K

K

=

PjXj

=

(7)

M

Si las probabilidades p¡ de tal esperanza se reemplazan con las frecuencias relativas^/ /V, donde Y.fp la esperanza se reduce a(Y.fX)/N, que es la media aritmética X de una muestra de t a m a ñ o N, en la cual X X ,...,X aparecen con estas frecuencias relativas. Conforme N se hace m á s y m á s grande, las frecuencias relativas/¡/N se aproximan a las probabilidades Pj. Por l o tanto, esto conduce a interpretar que E(X) representa la media de la población de donde se obtuvo la muestra. Si llama m a la media de la muestra, puede denotar la media poblacional con la letra griega correspondiente fi (mu). U

2

K

T a m b i é n es posible definir la esperanza para variables aleatorias continuas, aunque esta definición requiere el empleo del cálculo.

RELACIÓN ENTRE POBLACIÓN, MEDIA MUESTRAL Y VARIANZA Si se selecciona aleatoriamente una muestra de t a m a ñ o /V de una p o b l a c i ó n (es decir, se asume que todas las muestras son igualmente probables), entonces es posible mostrar que el

valor esperado de la media muestral m es la media poblacional ¡X. Sin embargo, no se concluye que el valor esperado para cualquier cantidad calculada, a partir de una muestra, sea la cantidad poblacional correspondiente. Por ejemplo, el valor esperado de la varianza muestral, como se ha definido, no es la varianza poblacional, sino (N - \)IN veces dicha varianza. Por esta r a z ó n algunos estadísticos prefieren definir la varianza muestral como la varianza multiplicada por N(N - 1).

ANÁLISIS COMBINATORIO Para obtener probabilidades de eventos complejos, frecuentemente la e n u m e r a c i ó n de casos es difícil, tediosa o ambas. Para facilitar el trabajo se utilizan principios b á s i c o s estudiados en un tema llamado análisis combinatorio.

Principio fundamental Si un evento puede ocurrir en cualquiera de rc, maneras y si, cuando esto ha ocurrido, c*re evento llega a ocurrir en cualquiera de n maneras, entonces el n ú m e r o de maneras em ambos eventos sucederían en el orden especificado es n n . 2

x

EJEMPLO

10

2

Si existen 3 candidatos para gobernador y 5 para alcalde, los dos cargos pueden ocapaaeár: maneras.

,.Z

:



~ e : - a e e m e n t a ! de

probabilidad

Factorial de n E l factorial de n, denotado por n\, se define como n\ =n(n-

l)(n-2) ••• 1

(5)

Por lo tanto, 5! = 5 • 4 • 3 • 2 • 1 = 120 y 4!3! = (4 • 3 • 2 • 1)(3 • 2 • 1) = 144. Es conveniente definir 0! = 1.

Permutaciones Una p e r m u t a c i ó n de n objetos diferentes, tomados de r a la vez, es una ordenación de r objetos tomados de entre n objetos dados, con especial a t e n c i ó n prestada al orden de la elección. E l n ú m e r o de permutaciones de n objetos, tomando r a la vez, se denota por P , P(n,r) o P , y está dada por n

r

nr

P

n

r

= n(n-\)(n-2)---{n-r+\)=j^-^

(9)

En particular, el n ú m e r o de permutaciones de n objetos, tomados n a la vez, es "„P = n{nE J E M P L O 11

l ) ( n - 2 ) - - - l = n!

El número de permutaciones de las letras a,byc, ba, ac, ca, be y cb.

tomando dos a la vez, es P = 3-2 = 6. Éstas son ab, }

2

E l n ú m e r o de permutaciones de n objetos, que consisten de grupos en los que n¡ son iguales, n son iguales, • • • es 2

— ¡ — ; — «

E J E M P L O 12

1

! «

2

-

donde n = n + n H x

(70)

2

••

El número de permutaciones de letras en la palabra "estadísticas" es 12! 1!3!2!2!1!2!1!

= 9 979 200

dado que tiene una letra "e", 3 letras "s", 2 letras "t", 2 letras "a", una letra "d", 2 letras " i " y una letra "c".

COMBINACIONES Una c o m b i n a c i ó n de n objetos diferentes, tomando r a la vez, es una selección de r objetos de los n objetos, sin prestar atención al orden de elección. E l n ú m e r o de combinaciones de n objetos, tomando r a la vez, se denota con el s í m b o l o ©

0 n\

EJEMPLO 13

. n(n - 1) • • • (n - r + 1)

n\

(11)

r\(n - r)\

El número de combinaciones de las letras a, b y c, tomando dos a la vez, es '3\ 2J

3-2 2!

3

Éstas son ab, ac y be. Observe que ab es la misma combinación que ba, pero no la misma permutación.

Relación

de Id probabilidad

con la teoría de conjuntos



133

APROXIMACION DE STIRLING PARA n! Cuando n es grande, una evaluación directa de n! es poco práctica. E n tal caso, se utiliza f ó r m u l a aproximada desarrollada por James Stirling: n

(12)

n

n\ PS \Í2min

e~

donde e = 2.71828 • • • es la base natural de logaritmos (véase el problema 6.31).

RELACION DE LA PROBABILIDAD CON LA TEORÍA DE CONJUNTOS En la teoría de probabilidad moderna se piensa en todos los resultados posibles de un experimento, juego, etcétera, como puntos en un espacio (que pueden ser de una, dos, tres, etcétera, dimensiones), llamado espacio muestral S. Si S contiene sólo un n ú m e r o finito de puntos, entonces a cada punto se le llega a asociar un n ú m e r o no negativo, denominado probabilidad, tal que la suma de todos los n ú m e r o s correspondientes a todos los puntos en S sea 1. U n evento es un conjunto (o colección) de puntos en S, como E¡ y E en la figura 6-2; esta figura es un diagrama de Euler o un diagrama de Venn. 2

FIGURA 6-2

El evento E + E es el conjunto de puntos que se encuentran ya sea en E o en E , o en ambos, mientras que el evento E E es el conjunto de puntos comunes a E y a E . A s í , la probabilidad de un evento como E es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E . De forma similar, la probabilidad de E + E , simbolizada por Pr{E + E ] , es la suma de las probabilidades asociadas con todos los puntos contenidos en el conjunto E + E . Si E y E no comparten puntos en c o m ú n (es decir, los eventos son mutuamente excluyentes), entonces P r ^ + E ] = Pr{E ] + Pr{E }. Si hay puntos comunes, entonces P r { £ , + E ] = Pr{¿s,} + Pr{E } - PT{E E }. X

2

X

X

2

2

x

2

X

X

X

X

2

2

X

2

X

2

2

2

2

X

X

2

2

E l conjunto E + E se denota como E U E y se denomina la unión de dos conjuntos. El conjunto E E se denota por E (~1 E y se denomina la intersección de los dos conjuntos. Se puede extender a m á s de dos conjuntos; así, en lugar de E + E + £ y E E E , se pueden usar las notaciones E U E U E¿ y E (1 E D E , respectivamente. X

X

2

X

2

X

2

2

X

X

2

X

2

2

3

X

2

}

3

El s í m b o l o (letra griega phi) se utiliza para indicar un conjunto sin puntos llamado conjunto vacío. L a probabilidad asociada con un evento correspondiente a este conjunte a cero (es decir, Pr{

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.