COMBINATORIA Y PROBABILIDAD

COMBINATORIA Y PROBABILIDAD Esp. HENRY CARRASCAL C. Lic. Matemáticas y Física Esp. Informática Educativa Esp. Práctica Docente Universitaria Magíster

11 downloads 182 Views 541KB Size

Recommend Stories


EJERCICIOS Y PROBLEMAS DE COMBINATORIA
EJERCICIOS Y PROBLEMAS DE COMBINATORIA En estas hojas se presenta una colección variada de ejercicios y problemas de combinatoria. Los ejercicios está

EJERCICIOS Y PROBLEMAS DE COMBINATORIA
EJERCICIOS Y PROBLEMAS DE COMBINATORIA En estas hojas se presenta una colección variada de ejercicios y problemas de combinatoria. Los ejercicios está

Story Transcript

COMBINATORIA Y PROBABILIDAD

Esp. HENRY CARRASCAL C. Lic. Matemáticas y Física Esp. Informática Educativa Esp. Práctica Docente Universitaria Magíster en Práctica Pedagógica

INSTITUCIÓN EDUCATIVA RAFAEL CONTRERAS NAVARRO ASIGNATURA: GEOMETRÍA Y ESTADÍSTICA - GRADO: NOVENO OCAÑA 2015

1. SUCESOS Y PROBABILIDAD 1.1 EXPERIMENTOS 1.1.1 Experimento determinista. Si al realizar un experimento en unas determinadas condiciones varias veces se obtiene el mismo resultado, se dice que el experimento es determinista. Podemos decir que en los experimentos deterministas se puede predecir el resultado. En este caso están las leyes de la física. Ejemplos: Si calentamos agua, esta ebullirá a 100ºC. Si se deja caer un objeto desde una altura, éste tardará el mismo tiempo en llegar al suelo. 1.1.2 Experimento aleatorio. Cuando en similares condiciones experimentales se obtienen distintos resultados se dice que el experimento es aleatorio. Los juegos de azar son casos de experimentos aleatorios. Ejemplos: Lanzamiento de una moneda. Lanzamiento de un dado. Extracción de una carta en una baraja. 1.1.3 Experimento compuesto. Dado un experimento aleatorio diremos que está compuesto si está formado por varios experimentos simples. Ejemplos: Lanzamiento de un dado y una moneda. Extracción de una bola de una urna y lanzamiento de una moneda. Extracción de una carta en una baraja y lanzamiento de un dado. 1.1.4 Espacio muestral Llamaremos espacio muestral (Ω) de un experimento aleatorio al conjunto de todos los posibles resultados de ese experimento. Consideremos el experimento aleatorio de lanzar un dado Ω = {1, 2, 3, 4, 5, 6} 1.2 SUCESOS 1.2.1 Suceso elemental. Llamamos suceso elemental a cualquiera de los posibles resultados simples del experimento aleatorio. Sea el experimento “lanzar un dado” los sucesos elementales son: {1}, {2}, {3}, {4}, {5}, {6}. 1.2.2 Suceso. Se llama suceso a cualquier subconjunto del espacio muestral. Diremos que un suceso A, ocurre si el resultado del experimento es uno de los sucesos elementales que pertenecen al conjunto A. Ejemplos: Consideremos el experimento “lanzar un dado”. Sea el suceso A=”salir número par” A ocurre cuando al lanzar el dado se obtiene 2, 4 o 6. Lanzamos dos monedas simultáneamente Ω = {CC, CX, XC, XX} Sea el suceso B = “salir al menos una cruz” B se cumplirá en los siguientes casos CX, XC, XX. Dentro de los sucesos cabe destacar: - Suceso seguro, el que ocurre siempre, es el propio espacio muestral Ω. - Suceso imposible, no ocurre nunca, se nota por Ø. - Suceso elemental, suceso indivisible.

Cualquier suceso se puede descomponer como la unión de sucesos elementales. Al conjunto de todos los sucesos de un experimento se le llama espacio de sucesos. Este conjunto se denota por P(Ω), partes del espacio muestral y tiene 2n elementos, siendo n el número de sucesos elementales. En el caso del lanzamiento de un dado, hay posibles 26 sucesos, es decir, 64. 1.2.3 Suceso complementario. Dado un suceso cualquiera A, se llama suceso complementario al formado por todos aquellos sucesos elementales que no están en A y se nota por Ac. Ejemplos: Si en el experimento "lanzar un dado" se define el suceso A = "salir un múltiplo de tres" A= {3, 6}, entonces, Ac = {1, 2, 4, 5}. De la definición de suceso complementario se deduce inmediatamente que: - A U Ac = Ω - A ∩ Ac = Ø 1.2.4 Sucesos incompatibles. Son aquellos que no se pueden verificar simultáneamente. Cuando pueden verificarse ambos a la vez se llaman compatibles. Si A y B son incompatibles, entonces A ∩ B= Ø Si A y B son compatibles, entonces A ∩ B ≠ Ø Sea el experimento aleatorio consistente en introducir 10 bolas numeradas del 1 al 10 en una urna y extraer una de ellas. Ejemplos: Definimos los sucesos: A = “salir un número par" B = {1, 3, 9} C = "salir un múltiplo de tres" Los sucesos A y B son in compatibles pues para ninguna bola que saquemos se puede dar que salga par y que sea 1, 3 o 9. En cambio los sucesos A y C son compatibles pues si la bola extraída es 6, será par y múltiplo de tres. También son compatibles A y B pues tanto 3 como 9 son múltiplos de tres y pertenecen a B. 1.3 PROBABILIDADES Cuando se realiza un experimento aleatorio desconocemos el resultado que se va a obtener, sería conveniente tener una medida que nos permitiese intuir qué resultado es más posible, esta medida va a ser la probabilidad, que nos dará una idea inicial de lo que puede ocurrir en un experimento. Imaginemos que tenemos un dado en el que en lugar de los número del 1 al 6, hay 5 caras con un 1 y otra con un 2, nuestro espacio muestral Ω = {1, 2} intuitivamente notamos que al lanzarse el dado lo más probable es que salga un 1. Con la probabilidad cuantificaremos esa idea intuitiva. 1.3.1 Definición según la Frecuencia Relativa. Dado un experimento aleatorio, sea A un suceso, llamaremos frecuencia absoluta de A, F(A), al número de veces que se repite cuando el experimento se realiza n veces. Así mismo llamaremos frecuencia relativa de A, f(A), al cociente entre el número de veces que sucede A y el total de experimentos realizados. Ejemplos: Sea el experimento consistente en lanzar dos monedas al aire, definimos el suceso A = "salga alguna cruz". Si repetimos el experimento 100 y A ocurre 74, la frecuencia relativa de A es 0,74. Si aumentamos el número de experimentos esa frecuencia relativa tenderá a estabilizarse en un valor, a ese número llamaremos probabilidad de A.

Se define la probabilidad de un suceso A, a través de la frecuencia relativa, como 𝑷(𝑨) = 𝐥𝐢𝐦 𝒇(𝑨). 𝒏→∞

Cuando se realiza un experimento aleatorio desconocemos el resultado que se va a obtener, sería conveniente tener una medida que nos permitiese intuir qué resultado es más posible, esta medida va a ser la probabilidad, que nos dará una idea inicial de lo que puede ocurrir en un experimento. Imaginemos que tenemos un dado en el que en lugar de los número del 1 al 6, hay 5 caras con un 1 y otra con un 2, nuestro espacio muestral Ω = {1, 2} intuitivamente notamos que al lanzarse el dado lo más probable es que salga un 1. Con la probabilidad cuantificaremos esa idea intuitiva. 1.3.2 Definición clásica de Probabilidad o de Laplace. Si la todos los sucesos elementales de un espacio muestral son equiprobables (tienen la misma posibilidad de ocurrir). La probabilidad de un suceso A, es el cociente entre el número de casos favorables al suceso y el número de casos posibles: 𝑷(𝑨) =

𝑵ú𝒎𝒆𝒓𝒐 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒑𝒓𝒐𝒃𝒂𝒃𝒍𝒆𝒔 𝑵ú𝒎𝒆𝒓𝒐 𝒅𝒆 𝒄𝒂𝒔𝒐𝒔 𝒑𝒐𝒔𝒊𝒃𝒍𝒆𝒔

Cuando se realiza un experimento aleatorio desconocemos el resultado que se va a obtener, sería conveniente tener una medida que nos permitiese intuir qué resultado es más posible, esta medida va a ser la probabilidad, que nos dará una idea inicial de lo que puede ocurrir en un experimento. Imaginemos que tenemos un dado en el que en lugar de los número del 1 al 6, hay 5 caras con un 1 y otra con un 2, nuestro espacio muestral Ω = {1, 2} intuitivamente notamos que al lanzarse el dado lo más probable es que salga un 1. Con la probabilidad cuantificaremos esa idea intuitiva. 1.3.3 Definición axiomática de probabilidad. Si llamamos S al conjunto de todos los posibles sucesos asociados a un espacio muestral, definimos axiomáticamente la probabilidad como una función que asocia a cada suceso A un número real, , que será su probabilidad. 𝑃: 𝑆 → , cumpliéndose las siguientes condiciones: Ax.1 La probabilidad de un suceso cualquiera es positiva o nula P(A) ≥ 0 Ax.2 La probabilidad del suceso seguro es 1 P(Ω) = 1 Ax.3 Dados dos sucesos A y B y tales que A ∩ B = Ø, es decir, son incompatibles, entonces: P(A U B)=P(A) + P(B) De la definición axiomática de probabilidad se tienen las siguientes consecuencias:

1.3.4 Probabilidad condicionada. Supongamos que en el colegio se realiza la estadística de alumnos aprobados y suspendidos. La estadística se realiza por sexo, el resultado figura en la siguiente tabla: Alumno (H) 50 50

Aprobado (A) Suspendido (Ac)

Alumna (M) 60 40 100

1

100

1

La probabilidad de que se elija de entre el grupo un alumno es 𝑃(𝐻) = = y una alumna 𝑃(𝐻) = = . Hemos 200 2 200 2 elegido de entre todo el alumnado un alumno en el primer caso y una alumna en el segundo, pero podemos restringir la búsqueda ¿Cuál será la probabilidad de elegir un alumno de entre los aprobados? ¿Y una alumna? Ahora vamos a calcular una probabilidad con una condición, que el alumno esté aprobado. Probabilidad de H dado que está aprobado 𝑃(𝐻/𝐴) = Probabilidad de M dado que está aprobada 𝑃(𝐻/𝑀) =

50 110 60 110

= =

5 11 6 11

Estas probabilidades pueden obtenerse también de la forma siguiente: 𝑃(𝐻 ∩ 𝐴) 50/200 5 = = 𝑃(𝐴) 110/200 11 𝑃(𝑀 ∩ 𝐴) 60/200 6 𝑃(𝑀/𝐴) = = = 𝑃(𝐴) 110/200 11 𝑃(𝐻/𝐴) =

Llamaremos probabilidad condicionada del suceso A respecto del suceso B, y lo notamos por 𝑃(𝐴/𝐵), al cociente 𝑃(𝐴∩𝐵 𝑃(𝐴/𝐵) = 𝑃(𝐵)

De aquí se deduce: 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∗ 𝑃(𝐵/𝐴) 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐵) ∗ 𝑃(𝐴/𝐵) 1.3.5 Sucesos dependientes e independientes. Dados dos sucesos A y B, si la probabilidad de B condicionada a A coincide con la probabilidad de B, P(B/A)=P(B), se dice que A y B son sucesos independientes. En caso contrario los sucesos se llaman dependientes. Teniendo en cuenta la definición de probabilidad condicionada y la de sucesos independientes se tiene: 𝑃(𝐵/𝐴) = 𝑃(𝐵) 𝑃(𝐴∩𝐵) 𝑃(𝐵/𝐴) = 𝑃(𝐴)

𝑃(𝐵) =

𝑃(𝐴∩𝐵) 𝑃(𝐴)

𝑃(𝐴) ∗ 𝑃(𝐵) = 𝑃(𝐴 ∩ 𝐵)

Esta es otra forma en la que se define la independencia de sucesos 𝑃(𝐴 ∩ 𝐵) = 𝑃(𝐴) ∗ 𝑃(𝐵) 1.3.6 Teorema de Probabilidad Total. Sean los sucesos A1, A2, A3,…, AK, una partición del espacio muestral, es decir, son incompatibles dos a dos.

Es decir, Ai ∩ Aj = Ø, y, A1 U A2 U A3 U… U AK = Ω y sea B un suceso cualquiera entonces: 𝑘

𝑃(𝐵) = ∑ 𝑃(𝐵/𝐴𝑖 ) ∗ 𝑃(𝐴𝑖 ) 𝑖=1

Comprobemos que la afirmación es cierta: 𝑃(𝐵) = 𝑃(𝐵 ∩ Ω) = 𝑃(𝐵 ∩ (𝐴1 ∪ 𝐴2 ∪ … ∪ 𝐴𝑘 )) = 𝑃((𝐵 ∩ 𝐴1 ) ∪ (𝐵 ∩ 𝐴2 ) ∪ … ∪ (𝐵 ∩ 𝐴𝑘 )) Como Ai ∩ Aj = Ø, entonces: (B ∩ Ai) ∩ (B ∩ Aj) = ∅, y por tanto: 𝑃((𝐵 ∩ 𝐴1 ) ∪ (𝐵 ∩ 𝐴2 ) ∪ … ∪ (𝐵 ∩ 𝐴𝑘 )) = 𝑃(𝐵 ∩ 𝐴1 ) + 𝑃(𝐵 ∩ 𝐴2 ) + ⋯ + 𝑃(𝐵 ∩ 𝐴𝑘 ) Por la definición de probabilidad condicionada sabemos que: 𝑃(𝐵 ∩ 𝐴𝑖 ) = 𝑃(𝐵/𝐴𝐼 ) ∗ 𝑃(𝐴𝑖 ) De donde se obtiene la conclusión deseada: 𝑃(𝐵) = 𝑃(𝐵/𝐴1 ) ∗ 𝑃(𝐴1 ) + 𝑃(𝐵/𝐴2 ) ∗ 𝑃(𝐴2 ) + ⋯ + 𝑃(𝐵/𝐴𝑘 ) ∗ 𝑃(𝐴𝑘 ) Para calcular P(B) es de gran ayuda la representación de un diagrama de árbol como se muestra en el ejemplo. Ejemplos: Tenemos tres urnas. La primera contiene cuatro bolas blancas y 2 negras, la segunda 3 blancas y 3 negras, y, la tercera 3 blancas y 6 negras. Se elige una urna al azar (se supone que la elección de urnas es equiprobable) y se extrae una bola. Calcula la probabilidad de la bola extraída sea una negra.

1.3.7 Teorema de Bayes. Sean 𝐴1 , 𝐴2 , … , 𝐴𝑘 un sistema complejo de sucesos, es decir, incompatibles dos a dos. Ai ∩ Aj = Ø y 𝐴1 ∪ 𝐴2 ∪ … ∪ 𝐴𝑘 = Ω y P(Ai)>0. Sea B un suceso cualquiera con P(B)>0. Se tiene entonces que: 𝑃(𝐴𝑖 /𝐵) =

𝑃(𝐵/𝐴𝑖 ) ∗ 𝑃(𝐴𝑖 ) 𝑘 ∑𝑖=1 𝑃(𝐵/𝐴𝑖 ) ∗ 𝑃(𝐴𝑖 )

Donde: P(Ai) se denomina probabilidad a priori, es la probabilidad de A i, antes de modificarse por la información que aporta B. P(B/Ai) se denomina verosimilitudes. P(Ai/B) son las probabilidades a posteriori, es la probabilidad de A i una vez que usamos la información que aporta B. Ejemplos: Suponga que un grupo de excursionistas está realizando una ruta por el parque de San Francisco, en un momento dado se encuentran con tres posibles caminos, a los que llamaremos A, B y C. La posibilidad de que tomen

cualquier camino es la misma. Se sabe que la probabilidad de que realicen la ruta sin perderse si toman el camino A es 0.7, si toman el B 0.8 y el C 0.9. Si se sabe que han acabado la ruta y no se han perdido ¿Cuál es la probabilidad de que hayan tomado el camino B? En el ejercicio, inicialmente hay unas probabilidades de tomar cada camino y de perderse o no, en función del camino que tomemos. Luego recibimos una nueva información, sabemos que no se han perdido. Esta nueva información modificará esas probabilidades.

2. EVALUACIÓN

3. EJERCICIOS

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.