1. ESTADISTICA DESCRIPTIVA Y FUNDAMENTOS DE PROBABILIDAD

1. ESTADISTICA DESCRIPTIVA Y FUNDAMENTOS DE PROBABILIDAD 1.1. Notación De Sumatoria Consideremos las siguientes sumas: Para 1.2. Datos No agrupados

2 downloads 544 Views 289KB Size

Recommend Stories


PROBABILIDAD Y ESTADÍSTICA. Sesión 1
PROBABILIDAD Y ESTADÍSTICA Sesión 1 1. ESTADÍSTICA DESCRIPTIVA 1.1 Notación sumatoria 1.2 Datos no agrupados 1.2.1. Medidas de tendencia central y d

ESTADISTICA 1 CONTEO
ESTADISTICA 1 CONTEO PRINCIPIO DE ENUMERACION PERMUTACIONES Y COMBINACIONES PRINCIPIO DE ENUMERACION Si un suceso puede ocurrir de m maneras diferent

1.- ESTADÍSTICA DESCRIPTIVA
1.- ESTADÍSTICA DESCRIPTIVA II. El pensamiento estadístico será un dia tan necesario para el ciudadano como la capacidad de leer o escribir. H.G. We

1 Fundamentos y objetivos
1 Fundamentos y objetivos H. Thom “La ciencia médica nos enseña a conocer las dos tendencias de la naturaleza: la tendencia a aceptar elementos y la

TEMA 1. ESTADÍSTICA DESCRIPTIVA
TEMA 1. ESTADÍSTICA DESCRIPTIVA 1.1 Introducción: conceptos básicos 1.2 Tablas estadísticas y representaciones gráficas 1.3 Características de variabl

Story Transcript

1. ESTADISTICA DESCRIPTIVA Y FUNDAMENTOS DE PROBABILIDAD 1.1. Notación De Sumatoria Consideremos las siguientes sumas:

Para

1.2. Datos No agrupados 1.2.1. Medidas de Tendencia Central y de posición Medidas de tendencia central: Son indicadores estadísticos que muestran hacia que valor (o valores) se agrupan los datos. Esta primera parte la dedicaremos a analizar tres medidas de tendencia central:  La media aritmética  La moda  La mediana En el suplemento de este capitulo incluiremos otras medidas de tendencia central.

Media aritmética (µ o X ): Es el valor resultante que se obtiene al dividir la sumatoria de un conjunto de datos sobre el número total de datos. Solo es aplicable para el tratamiento de datos cuantitativos.

Hay que entender que existen dos formas distintas de trabajar con los datos tanto poblacionales como muéstrales: sin agruparlos o agrupándolos en tablas de frecuencias. Esta apreciación nos sugiere dos formas de representar la media aritmética.

Media aritmética para datos no agrupados Podemos diferenciar la fórmula del promedio simple para datos poblaciones y muéstrales : N

∑ ∝ =

n

X



i

i=1

N

Población

X=

X i

i=1

n

Muestra

Observe que la variación de ambas fórmulas radica en el tamaño de los datos (N identifica el tamaño de la población, mientras que n el de la muestra).

1.2.2.

Medidas de dispersión

La dispersión de un conjunto de observaciones se refiere a la variedad que muestran éstas. Mide la cantidad total de variabilidad presente en el conjunto de datos. Para valores iguales NO hay dispersión. Las más frecuentes son: amplitud, varianmcia o varianza y el coeficiente de variación. a.

Amplitud: (R): Es la diferencia entre el valor más pequeño (xs) y el más grande (xl) en un conjunto de observaciones.

Las ventajas son: ii. iii. b.

Simplicidad del cálculo mm. Pobre por solo tomar dos datos

La Varianza: Es una medida de la dispersión de los datos alrededor de una media.

Cálculo: se resta la media de cada uno de los valores individuales, las diferencias se elevan al cuadrado y después se suman entre sí. Luego esta suma se divide entre el tamaño de la muestra menos 1, obteniéndose así la Varianza. En notación compacta es: c.

Varianza poblacional: se simboliza por

b.

Varianza de la muestra: se simboliza por

c.

Poblacional

La varianza representa unidades al cuadrado, por lo que no es una medida adecuada de dispersión si se pretende expresar este concepto en término de las unidades originales. Entonces la desviación estándar es igual a la raíz cuadrada de la varianza.

Desventajas: No funciona bien cuando se quiere comparar la dispersión de dos conjuntos de datos. Las dos variables involucradas tienen medidas en diferentes unidades. Ejemplo: 2. 3.

Colesterol: Mgr/l00 ml suero V.S peso litros. Niños diferentes edades: Kl – libras

Una medida de la varianza relativa NO absoluta es el coeficiente dee variación:

La desviación estándar se presenta como un porcentaje de la media. Ventajas: Es independiente de la unidad de medición.

1.3. Datos Agrupados 1.3.1. Tabla de frecuencias INTERVALO

FRECUENCIA

MEDIA DE CLASE

MIFI

FRECUENCIA ACUMULADA

10—19

5

14.5

72.5

5

20—29

19

24.5

465.5

24

30—39

10

34.5

345.0

34

40—49

13

44.5

578.5

47

50—59

4

54.5

218.0

5!

60—69

4

64.5

258.0

55

70—79

3

74.5

149.0

57

TOTAL

57

1.3.2.

2086.5

Medidas de tendencia Central

Muchas veces no se tiene acceso a los datos originales, pero sí la distribución de frecuencia. Cuando los datos se agrupan, las observaciones individuales pierden su identidad. Es posible determinar el número de observaciones que caen dentro de varios intervalos de clase, pero los valores reales no se pueden determinar. Hacer suposiciones respecto a los valores cuando se calcula una medida descriptiva a partir de datos agrupados. La Media: Suposición, todos los valores que caen dentro (le mm intervalo tic clase específico se localizan en:

1.

Punto medio del intervalo:

2. Se multiplica el punto medio por la frecuencia correspondiente, se suman esos productos y se divide entre la suma de frecuencia.

INTERVALO

FRECUENCIA

MEDIA DE CLASE

MIFI

FRECUENCIA ACUMULADA

10—19

5

14.5

72.5

5

20—29

19

24.5

465.5

24

30—39

10

34.5

345.0

34

40—49

13

44.5

578.5

47

50—59

4

54.5

218.0

5!

60—69

4

64.5

258.0

55

70—79

3

74.5

149.0

57

TOTAL

57

2086.5

Mediana: Suposición: los datos están distribuidos uniformememite a través del intervalo.

Donde: Li = límite inferior real dcl intervalo que contiene la mediana Vi = límite superior real del intervalo que contiene a la mediana , N = número total de observaciones j = número de observaciones que faltan para alcanzar a la mediana, después de que el límite inferior del intervalo que contiene a la mediana ha sitio alcanzado. fi = frecuencia del intervalo que contiene a la mediana

1.3.3.

Medidas de dispersión

Cálculo de la desviación típica para datos agrupados en clases y agrupados por frecuencias Método largo: Se aplica la siguiente fórmula

S=

∑ fx

2



donde x = x m − x y f es la frecuencia absoluta de cada intervalo. Método abreviado o corto: La fórmula a utilizar es:

S=I

∑ fd

2



 ∑ fd   −     

2

donde: I: amplitud de la clase D: distancia en clases desde cada una en concreto a la clase que contiene a la media supuesta A. La desviación típica se define como la raíz cuadrada de la media de los cuadrados de las desviaciones con respecto a la media de la distribución. Es decir,

∑ (x − x )

2

S=



Veamos ahora cómo se calcula la desviación media en el caso de datos agrupados en intervalos.

DM =

∑ n ⋅x i



RANGO, AMPLITUD TOTAL O RECORRIDO

El rango se suele definir como la diferencia entre los dos valores extremos que toma la variable. Es la medida de dispersión más sencilla y también, por tanto, la que proporciona menos información. Además, esta información puede ser errónea, pues el hecho de que no influyan más de dos valores del total de la serie puede provocar una deformación de la realidad. Comparemos, por ejemplo, estas dos series:

Serie 1: 1 5 7 7

8

9

9 10 17

Serie 2: 2 4 6 8 10 12 14 16 18

Ambas series tienen rango 16, pero están desigualmente agrupadas, pues mientras la primera tiene una mayor concentración en el centro, la segunda se distribuye uniformemente a lo largo de todo el recorrido.

El uso de esta medida de dispersión, será pues, bastante restringido.

1.4. Conjunto y técnicas de conteo El desarrollo de la teoría de la probabilidad ha aumentado el alcance de las aplicaciones de la estadística. Muchos conjuntos de datos se pueden aproximar, con gran exactitud, utilizando determinadas distribuciones probabilísticas; los resultados de éstas se pueden utilizar para analizar datos estadísticos. La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadístico. TEORÍAS DE CONTEO

Permutaciones y combinaciones: Contar el número de eventos que cumplen con algún conjunto de condiciones. Sirven para calcular la probabilidad de un evento cuando el número de eventos posibles es muy grande. Factoriales: Dado un número entero positivo n el producto de todos los enteros desde n hasta 1 se llama factorial de n y se denota como n!. Ejemplo: 5! = 5 * 4 * 3 * 2 * 1 en notación: n! = n * (n-1) * (n-2) * ... 1 por definición 0! = 1 otra notación: 5! = 5 * 4! n! = n (n-l) Los factoriales sc usan para saber el número de formas en que se pueden organizar los objetos. Ejemplo: cuatro envases con medio de cultivo y en cada uno de ellos se incuba un organismo diferente. ¿En cuantas formas se pueden acomodar en una incubadora? 4! =4 3 * 2 * 1 = 24 maneras Para saber cuales son las formas de colocarlos se realiza un diagrama de árbol

A continuación se presentan alguna técnicas que serán útiles.         

Principio multiplicativo Principio aditivo Permutaciones Permutaciones con repetición Pruebas ordenadas Combinaciones Particiones ordenadas Diagrama de árbol Problemas propuestos

1.5. Espacio muestral y eventos EL ESPACIO MUESTRAL ES UN CONJUNTO FORMADO POR TODOS LOS POSIBLES RESULTADOS DE UN EXPERIMENTO ALEATORIO. A cada elemento del espacio muestral se conoce como punto muestral (elemento o miembro del espacio muestral). Notación. El espacio muestral de un experimento se denota por medio de la letra S. En algunas referencias se usa la letra griega mayúscula omega, Ω, para representar el espacio muestral.

1.6. Axiomas y Teoremas Para el cálculo de probabilidades hay que tomar en cuenta los Axiomas Teoremas que a continuación se enumeran. 1) a probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno. 0 ≤ p(A) ≥ 1 2) a probabilidad de que ocurra el espacio muestral δ debe de ser 1. p δ) = 1 3) i A y B son eventos mutuamente excluyentes, entonces la p(A∪B) = p(A) + p(B) Generalizando: Si se tienen n eventos mutuamente excluyentes o exclusivos A1, A2, A3,.....An, entonces; p(A1∪A2∪.........∪An) = p(A1) + p(A2) + .......+ p(An) TEOREMAS TEOREMA 1. Si φ es un evento nulo o vacío, entonces la probabilidad de que ocurra φ debe ser cero.

p(φ)=0 DEMOSTRACIÓN: Si sumamos a φun evento A cualquiera, como φ y A son dos eventos mutuamente excluyentes, entonces p(Aφ∪)=p(A) +p(φ)=p(A). LQQD TEOREMA 2. La probabilidad del complemento de A, Ac debe ser, p(Ac)= 1 – p(A) DEMOSTRACIÓN: Si el espacio muestral δ, se divide en dos eventos mutuamente exclusivos, A y Ac luego δ=A∪Ac, por tanto p(δ)=p(A) + p(Ac) y como en el axioma dos se afirma que p(δ)=1, por tanto, p(Ac)= 1 - p(A) .LQQD TEOREMA 3. Si un evento A ⊂ B, entonces la p(A) ≤ p(B). DEMOSTRACIÓN: Si separamos el evento B en dos eventos mutuamente excluyentes, A y B \ A (B menos A), por tanto, B=A∪(B \ A) y p(B)=p(A) +p(B \ A), luego entonces si p(B \ A)≥0 entonces se cumple que p(A)≤p(B). LQQD TEOREMA 4. La p( A \ B )= p(A) – p(A∩B) DEMOSTRACIÓN: Si A y B son dos eventos cualquiera, entonces el evento A se puede separar en dos eventos mutuamente excluyentes, (A \ B) y A∩B, por tanto, A=(A \ B)∪(A∩B), luego p(A)=p(A \ B) + p(A∩B), entonces, p(A \ B) = p(A) – p(A∩B). LQQD TEOREMA 5. Para dos eventos A y B, p(A∪B)=p(A) + p(B) – p(A∩B). DEMOSTRACIÓN: Si A∪B = (A \ B) ∪ B, donde (A \ B) y B son eventos mutuamente excluyentes, por lo que p(A ∪ B) = p(A \ B) + p(B) y del teorema anterior tomamos que p(A \ B) = p(A) – p(A∩B), por tanto, p(A∪B) = p(A) + p(B) – p(A∩B). LQQD

1.7. Espacio infinito equiprobable Sea δ un espacio muestral que contiene n elementos, δ = {a1, a2, a3,....,an}, si a cada uno de los elementos de δ le asignamos una probabilidad igual de ocurrencia, pi = 1/n por tener n elementos δ, entonces estamos transformando este espacio muestral en un espacio finito equiprobable, el que debe cumplir con las siguientes condiciones: 1.

Las probabilidades asociadas a cada uno de los elementos del espacio muestral deben ser mayores o iguales a cero, pi ≥ 0.

2.

La sumatoria de las probabilidades asociadas a cada elemento del espacio muestral debe de ser igual a 1. Σ pi = 1 En caso de que no se cumpla con las condiciones anteriores, entonces no se trata de un espacio finito equiprobable. Solo en el caso de espacios finitos equiprobables, si deseamos determinar la probabilidad de que ocurra un evento A cualquiera, entonces; p(A) = r*1/n = r/n p(A) = maneras de ocurrir el evento A/ Número de elementos del espacio muestral r = maneras de que ocurra el evento A 1/n = probabilidad asociada a cada uno de los elementos del espacio muestral n = número de elementos del espacio muestral ESPACIOS FINITOS DE PROBABILIDAD. Sea δ el espacio muestral, que contiene n elementos {a1, a2, a3,.....,an}, si a cada uno de los elementos de δ le asignamos una probabilidad pi ≥ 0, entonces estamos transformando este espacio muestral en un espacio finito de probabilidad; el que debe cumplir con las siguientes características: 1) Las probabilidades asociadas a cada uno de los elementos de δ deben ser mayores o iguales a cero, pi≥0. 2) La sumatoria de las probabilidades asociadas a cada uno de los elementos de δ debe de ser igual a 1. Σpi = 1 En caso de que no se cumpla con las características antes mencionadas, entonces no se trata de un espacio finito de probabilidad.

1.8. Probabilidad condicional e independencia Sea δ un espacio muestral en donde se ha definido un evento E, donde p(E)>0, si deseamos determinar la probabilidad de que ocurra un evento A (el que también es definido en el mismo espacio muestral), dado que E ya ocurrió, entonces deseamos determinar una probabilidad de tipo condicional, la que se determina como se muestra; p( A | E ) =

p( A ∩ E ) p( E )

Donde: p(AE) = probabilidad de que ocurra A dado que E ya ocurrió p(A∩E) = probabilidad de que ocurra A y E a un mismo tiempo p(E) = probabilidad de que ocurra E Luego; P( A ∩ E ) =

P( E ) =

Ι A ∩ EΙ Ιδ Ι

ΙEΙ Ι δΙ

Por tanto: P( A | E ) =

Ι A ∩ EΙ Ι EΙ

Donde: A∩E= número de elementos comunes a los eventos A y E E= número de elementos del evento E

Luego entonces podemos usar cualquiera de las dos fórmulas para calcular la probabilidad condicional de A dado que E ya ocurrió. Sucesos independientes INDEPENDENCIA Dos sucesos son independientes si y sólo si p(A P B) = p(A) p(B). Si dos sucesos son independientes

y del mismo modo p(B|A) = p(B). Esta propiedad coincide más con la idea intuitiva de independencia y algunos textos la dan como definición. Hay que notar, sin embargo, que ambas definiciones no son estrictamente equivalentes.

1.1. Teorema de bayes Ya que nos hemos referido a él en diferentes apartados de nuestro libro, veamos que el famoso teorema de Bayes, enunciado por Thomas Bayes, en la teoría de la probabilidad, es el resultado que da la distribución de probabilidad condicional de una variable aleatoria A dada B en términos de la distribución de probabilidad condicional de la variable B dada A y la distribución de probabilidad marginal de sólo A. Sea {A1,A2,...,Ai,...,An} un conjunto de sucesos incompatibles cuya unión es el conjunto total y tales que la probabilidad de cada uno de ellos es distinta de cero. Sea B un suceso cualquiera del que se conocen las probabilidades condicionales P(B|Ai). Entonces, la probabilidad P(Ai|B) viene dada por la expresión: donde: P(Ai) son las probabilidades a priori. P(B|Ai) es la probabilidad de B en la hipótesis Ai. P(Ai|B) son las probabilidades a posteriori. i = 1, ..., n.∀Esto se cumple Una explicación más detallada del concepto sería la siguiente. Sean los sucesos elementales y mutuamente excluyentes: A1, A2, ..., An tales que constituyen un sistema completo de sucesos cuya unión es el espacio muestral E, esto es, tales que: An = E∪ ... ∪ A2 ∪A1 j≠ si i ∅ Aj = ∩Ai Se suponen conocidas las probabilidades P(Ai) -que se acostumbran a denominar “probabilidades a priori”- así como las probabilidades condicionadas P(B/Ai), llamadas “verosimilitudes”, donde B es un suceso cualquiera que se sabe realizado. El problema que resuelve el teorema de Bayes o teorema sobre la probabilidad de causas es obtener las probabilidades a posteriori, esto es, las P(Ai/B). Se tiene, evidentemente:

B) = P(Ai) • P(B/Ai) = P(B) • P(Ai/B)∩P(Ai de donde: Pero, por otra parte: An)∩ (B∪X∪A2) ∩ (B∪A1) ∩ An) = (B∪ ... ∪ A2 ∪(A1 ∩E = B∩B = B y debido a la incompatibilidad, se cumplirá que: An) =∩A2) + ... + P(B∩A1) + P(B∩P(B) = P(B = P(A1) • P(B/A1) + P(A2) • P(B/A2) + X + P(An) • P(B/An) Resultando, en definitiva, la expresión general: Sea, como ejemplo de aplicación, el siguiente ejercicio. Una vez realizadas las pruebas pertinentes se observa que un sistema psicológico (individuo) afectado de dislalia posee un promedio diario de expresión verbal del 50% por la mañana (8h. – 14h.), 30% por la tarde (14h. – 20h.) y 20% por la noche (20h. – 24h.). Los porcentajes de palabras defectuosamente pronunciadas son, respectivamente, del 3%, 4% y 5%. ¿Cuál es la probabilidad de producir una palabra defectuosa según cada fase del día? Solución: P(D/M) = 0’03→P(M) = 0’50 P(D/T) = 0’04→P(T) = 0’30 P(D/N) = 0’05→P(N) = 0’20 Así pues, la probabilidad de emitir una palabra defectuosa por la mañana, será: Del mismo modo, por la tarde, se tendrá: Por último, por la noche, se tendrá: que también podría haberse obtenido, lógicamente, por la aplicación individualizada de la fórmula correspondiente. Digamos, en definitiva, que el teorema de Bayes resulta válido en todas las aplicaciones de la teoría de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de la estadística tradicional sólo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmación empírica mientras que los llamados “estadísticos bayesianos” permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cómo debemos modificar nuestras probabilidades subjetivas cuando recibimos información adicional de un experimento. La

estadística bayesiana está demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y permite revisar esas estimaciones en función de la evidencia, lo que está abriendo nuevas formas de hacer conocimiento. Como observación, se tiene que: y su demostración resulta trivial.

Bibliografía Devore, J.L. (2000). Probabilidad y Estadística para Ingeniería y Ciencias, Quinta Edición, Thomson Learning. Mendenhall, W. (1998). Estadística para Administradores, Segunda Edición, Grupo Editorial Iberoamérica. Montgomery, D.C. y Runger G.C. (1996). Probabilidad y Estadística Aplicadas a la Ingeniería, Primera Edición, Mc Graw Hill. Sheaffer, R. L. y McClave, J.T. (1990). Probabilidad y Estadística para Ingeniería, Primera Edición, Grupo Editorial Iberoamérica. Spiegel, M.R. (1970). Estadística, Primera Edición, Serie Schaum, Mc Graw Hill. Walpole, R. E., Myers, R.H., y Myers, S.L. (1998). Probabilidad y Estadística para Ingenieros, Sexta Edición, Prentice Hall. Weimer, R.C. (1996). Estadística, Segunda Edición, CECSA.

ACTIVIDADES COMPLEMENTARIAS. 1.-Para un hijo de una mujer portadora de Duchenne, el sexo y la enfermedad ¿son independientes? Según vimos en el el espacio muestral es Ω = {xX, xY, XX, XY} Definimos los sucesos A = {varón} = {xY, XY}; B = {enfermo} = {xY} A ∩ B = {xY} por lo tanto p(A) = 0,5; p(B) = 0,25; p(A ∩ B) = 0,25 ≠ p(A) p(B)

2.- Se lanza al aire una moneda normal (una moneda perfectamente equilibrada) tres veces, determine la probabilidad de que: a. Aparezcan puros sellos, b. Aparezcan dos águilas, c. Aparezcan por lo menos dos águilas. 3.- El profesor de la materia de estadística desea conocer el promedio de las notas finales de los 10 alumnos de la clase. Las notas de los alumnos son: 3,2 3,0

3,1 3,5

2,4 3,8

4,0 4,2

3,5 4,0

¿Cuál es el promedio de notas de los alumnos de la clase? 4.- En una competencia de ciclismo participan A, B y C, A tiene el doble de posibilidades de ganar que B y B el doble que C, a. Determine la probabilidad de que gane B, b. Determine la probabilidad de que gane A o B.

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.