Estadística. Antonio Jara Sánchez-Caro. 24 de enero de 2003

Estadística Antonio Jara Sánchez-Caro 24 de enero de 2003 Índice general 1. Estadística Descriptiva 1.1. 1.2. 1.3. 1.4. 1.5. 1.6. 1.7. 1.8. 1

2 downloads 70 Views 217KB Size

Recommend Stories


LEY 795 DE 2003 (enero 14) Diario Oficial No de 15 de enero de 2003
LEY 795 DE 2003 (enero 14) Diario Oficial No. 45.064 de 15 de enero de 2003 Por la cual se ajustan algunas normas del Estatuto Orgánico del Sistema Fi

DEL 8 AL 24 DE ENERO DE
e en line a C on om lin pr ee a n DEL 8 AL 24 DE ENERO DE 2016 Deco tu ho ra gar CON L OS M EJOR ES PREC TEXT IOS IL HO DECO GAR - CO LCHO RAC

PERIODO ENERO A JUNIO DE 2003
GEOS GEOS, 2003, Vol. 23, No. 1, p. 37-41 PROCESAMIENTO DE D ATOS Y SISMICID AD REGISTRAD A POR RESNOM DURANTE EL DA SISMICIDAD REGISTRADA PERIODO EN

Story Transcript

Estadística Antonio Jara Sánchez-Caro 24 de enero de 2003

Índice general

1. Estadística Descriptiva

1.1. 1.2. 1.3. 1.4.

1.5.

1.6.

1.7.

1.8.

1.9.

1.10.

6

Introducción. . . . . . . . . . . . . . . . . . . . . Variables Estadísticas. . . . . . . . . . . . . . . . . Variables Cuantitativas Discretas y Contínuas. . . . Frecuencias. . . . . . . . . . . . . . . . . . . . . . 1.4.1. Frecuencia Absoluta ni  . . . . . . . . . . 1.4.2. Frecuencia Relativa f i  . . . . . . . . . . . 1.4.3. Frecuencia Absoluta Acumulada Ni  . . . . 1.4.4. Frecuencia Relativa Acumulada Fi  . . . . Distribución de Frecuencias. . . . . . . . . . . . . 1.5.1. Distribuciones no agrupadas. . . . . . . . . 1.5.2. Distribuciones agrupadas. . . . . . . . . . Amplitud del Intervalo y Marca de Clase. . . . . . 1.6.1. Amplitud del Intervalo ci  . . . . . . . . . 1.6.2. Marca de Clase xi  . . . . . . . . . . . . . Representaciones Gráficas. . . . . . . . . . . . . . 1.7.1. Diagrama de Barras. . . . . . . . . . . . . 1.7.2. Diagrama de Frecuencias Acumuladas. . . 1.7.3. Histograma de Frecuencias. . . . . . . . . 1.7.4. Polígono de Frecuencias Absolutas. . . . . 1.7.5. Polígono de Frecuencias Acumuladas. . . . Medidas de Posición. . . . . . . . . . . . . . . . . 1.8.1. Media Aritmética x  . . . . . . . . . . . . 1.8.2. Mediana Me  . . . . . . . . . . . . . . . . 1.8.3. Moda (Mo ). . . . . . . . . . . . . . . . . . 1.8.4. Cuantiles CN  . . . . . . . . . . . . . . . . Medidas de Dispersión. . . . . . . . . . . . . . . . 1.9.1. Recorrido o Rango. . . . . . . . . . . . . . 1.9.2. Recorrido Intercuantílico. . . . . . . . . . 1.9.3. Varianza  Sx2  . . . . . . . . . . . . . . . . 1.9.4. Desviación Típica Sx  . . . . . . . . . . . . 1.9.5. Coeficiente de Variación de Pearson CV  . 1.9.6. Variable Tipificada zi  . . . . . . . . . . . Momentos de la Distribución. . . . . . . . . . . . .

2

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

6 6 7 7 7 7 8 8 8 8 8 9 9 9 9 9 9 9 10 10 10 10 11 13 13 15 15 15 15 16 16 16 17

1.10.1. Momentos respecto al origen. . . . . . . . . . . . . . . . . . . . . . . 1.10.2. Momentos respecto a la media. . . . . . . . . . . . . . . . . . . . . . . 2. Variables Estadísticas Bidimensionales

20

2.1. 2.2. 2.3. 2.4. 2.5. 2.6. 2.7.

Introducción. . . . . . . . . . . . . . . . . . Distribuciones Conjuntas. . . . . . . . . . . . Representaciones Gráficas. . . . . . . . . . . Distribuciones Marginales. . . . . . . . . . . Distribuciones Condicionadas. . . . . . . . . Independencia Estadística. . . . . . . . . . . Momentos de una distribución bidimensional. 2.7.1. Momentos con respecto al origen. . . 2.7.2. Momentos con respecto a la media. . 2.8. Regresión Lineal. . . . . . . . . . . . . . . . 2.9. Coeficiente de Correlación Lineal. . . . . . . 2.10. Coeficiente de Determinación. . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

20 20 20 21 21 21 22 22 22 23 23 24

Fenómenos Deterministas y Aleatorios. . . . . . Espacio Muestral. . . . . . . . . . . . . . . . . . Sucesos y Tipos de Sucesos. . . . . . . . . . . . Operaciones con sucesos. . . . . . . . . . . . . . 3.4.1. Unión de sucesos (A  B). . . . . . . . . 3.4.2. Intersección de sucesos (A  B). . . . . . 3.4.3. Leyes de De Morgan. . . . . . . . . . . . Definición Axiomática de la Probabilidad. . . . . Otras definiciones de probabilidad. . . . . . . . . 3.6.1. Definición frecuencial de la probabilidad. 3.6.2. Definición de Laplace. . . . . . . . . . . Probabilidad Condicionada. . . . . . . . . . . . . Sucesos Independientes. . . . . . . . . . . . . . Probabilidad de la intersección de sucesos. . . . . Probabilidad “a priori” y “a posteriori”. . . . . . Probabilidad Total. . . . . . . . . . . . . . . . . Teorema de Bayes. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

26 26 26 27 27 27 27 28 29 29 29 30 30 31 32 32 32

3. Teoría de la Probabilidad

3.1. 3.2. 3.3. 3.4.

3.5. 3.6.

3.7. 3.8. 3.9. 3.10. 3.11. 3.12.

18 18

26

4. Variable Aleatoria Discreta

35

4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1. Concepto de una variable aleatoria . . . . . . . . . . . . . 4.1.2. Función de distribución de una variable aleatoria . . . . . 4.1.3. Clasificación de una variable aleatoria discreta y contínua 4.1.3.1. Variables aleatorias discretas . . . . . . . . . . 4.1.3.2. Variables aleatorias contínuas . . . . . . . . . . 4.2. Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . .

3

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

35 35 35 35 36 36 36

4.2.1. Función de masa de una variable aleatoria discreta . . . . . . . . . . . 4.2.1.1. Representación gráfica de la función de masa . . . . . . . . . 4.2.2. Distribución de probabilidad . . . . . . . . . . . . . . . . . . . . . . . 4.2.2.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3. Función de distribución de una variable aleatoria discreta . . . . . . . 4.2.3.1. Representación gráfica de la función de distribución . . . . . 4.2.3.2. Cálculo de probabilidades a partir de la función de distribución 4.2.4. Momentos con respecto al origen (α r ) . . . . . . . . . . . . . . . . . . 4.2.4.1. Esperanza matemática. Propiedades . . . . . . . . . . . . . . 4.2.5. Momentos respecto a la esperanza . . . . . . . . . . . . . . . . . . . . 4.2.5.1. Varianza. Propiedades . . . . . . . . . . . . . . . . . . . . . 4.2.5.2. Desviación Típica . . . . . . . . . . . . . . . . . . . . . . . 4.2.6. Función característica. Propiedades . . . . . . . . . . . . . . . . . . . 4.2.7. Algunas distribuciones discretas . . . . . . . . . . . . . . . . . . . . . 4.2.7.1. Distribución de Bernoulli B p  . . . . . . . . . . . . . . . . 4.2.7.2. Distribución Binomial B n  p  . . . . . . . . . . . . . . . . . 4.2.7.3. Distribución de Poisson P λ  . . . . . . . . . . . . . . . . .

4

36 36 36 37 37 37 38 38 39 41 41 41 41 41 41 42 42

Índice de figuras

1.1. Diagrama de barras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Diagrama de frecuencias acumuladas. . . . . . . . . . . . . . . . . . . . . . .

9 10

2.1. Nube de puntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

21

4.1. Representación de la función de masa . . . . . . . . . . . . . . . . . . . . . . 4.2. Representación de la función de distribución . . . . . . . . . . . . . . . . . . .

36 38

5

1 Estadística Descriptiva

1.1. Introducción. Existen dos formas de interpretar el término "estadística": Se entiende por estadística, cualquier colección de datos numéricos clasificados según un criterio. 1 Es

la ciencia que utiliza los números para el estudio de las leyes que dependen del azar. Tratando de descubrir mediante el razonamiento inductivo la causa general a la que obedece el modelo particularmente analizado.

En la vida cotidiana el hombre protagoniza dos tipos de fenómenos: Deterministas: aquellos que dadas las mismas condiciones se obtienen los mismos resultados. Aleatorios: aquellos que dadas las mismas condiciones se obtienen distintos resultados (lanzar un dado). Se suele decir que están regidos por la ley del azar. La estadística descriptiva trata de la descripción numérica de conjuntos, siendo particularmente útil cuando el número de elementos del conjunto es elevado. No pretende sacar conclusiones del conjunto, solo pretende describirlo.

1.2. Variables Estadísticas. Estudiaremos dos tipos de variables: Variables cualitativas: No toman valores númericos y describen cualidades. Se representan con las primeras letras del abecedario en mayúsculas. Ej: A, color de pelo. Variables cuantitativas: Toman valores numéricos y se utilizan si el carácter que queremos valorar es susceptible a la medida. Se representan con las ultimas letras del abecedario en mayúsculas. Ej: X (altura), Y (peso). 1 Es

la definición académico-científica

6

1.3. Variables Cuantitativas Discretas y Contínuas. Hay dos tipos de variables cuantitativas: Variables discretas: Pueden tomar valores que estarán siempre asociados a números enteros. Variables contínuas: Dados dos valores cualesquiera, la variable puede tomar cualquier valor intermedio entre los dos2 .

1.4. Frecuencias. 1.4.1. Frecuencia Absoluta  ni  .

Es el número de veces que se repite un valor de una variable. La suma de frecuencia absolutas es igual al número de individuos del grupo: n

∑ ni

N

i 1

1.4.2. Frecuencia Relativa  f i  .

Es la razón entre la frecuencia absoluta y el número de elementos que tenemos en el conjunto. fi

ni N

Notas: 0

∑ni

fi

1

1 fi

1

Ejemplo: xi 0 1 2 3 4 2 Normalmente

ni 1 19 11 2 3

fi 1/36 19/36 11/36 2/36 3/36

están asociadas a números reales.

7

Ni 1 20 31 33 36

Fi 1/36 20/36 31/36 33/36 1

1.4.3. Frecuencia Absoluta Acumulada  Ni  .

Es la suma de las frecuencias absolutas hasta un valor determinado (i). 1.4.4. Frecuencia Relativa Acumulada  Fi  .

Es la suma de las frecuencias relativas hasta un determinado valor (i).

1.5. Distribución de Frecuencias. Es el conjunto de todos los valores que ha tomado la variable estadística acompañados de sus correspondientes frecuencias. Según cómo estén agrupados los datos tendremos dos tipos de distribuciones: 1.5.1. Distribuciones no agrupadas.

Una vez recogida la información, esta se dispone asociando a cada valor de la variable sus correspondientes frecuencias. Se representan en una tabla como la que sigue: xi x1 x2 .. .

ni n1 n2 .. .

fi f1 f2 .. .

Ni N1 N2 .. .

Fi F1 F2 .. .

xn

nn N

fn 1

Nn

Fn

1.5.2. Distribuciones agrupadas.

Los datos se agrupan en intervalos cuando el número de valores que ha tomado la variable estadística es lo sufucientemente grande. Se agrupan para optimizar el tratamiento de la información. El número de intervalos está, generalmente, entre 4 y 15, no siendo nunca superior al 10 % de los datos. Una regla muy utilizada para elegir el número de intervalos es tomar el entero más próximo a n, siendo n el número de datos. Se representa en una tabla como la siguiente: Li L0 L1

Li  1 L1 L2

ni n1 n2 .. .

fi f1 f2 .. .

Ni N1 N2 .. .

Fi F1 F2 .. .

Ln

nn

fn

Nn N

Fn 1

.. . Ln 

1

Nota: Los intervalos son cerrados por la derecha y abiertos por la izquierda

8

 

.

1.6. Amplitud del Intervalo y Marca de Clase. 1.6.1. Amplitud del Intervalo  ci  .

Es la diferencia entre el valor superior e inferior de un intervalo. ci

Li 

1 

Li

1.6.2. Marca de Clase  xi  .

Hace referencia al punto medio del intervalo. Se utiliza para calcular la media de la distribución. xi

Li 

1 

Li

2

1.7. Representaciones Gráficas. 1.7.1. Diagrama de Barras.

Se utiliza para variables discretas y en general para distribuciones no agrupadas. Ver figura 1.1. ni

xi

Figura 1.1: Diagrama de barras.

1.7.2. Diagrama de Frecuencias Acumuladas.

Se representan las frecuencias acumuladas en el eje de ordenadas (y) y los valores que toma la variable en el eje de abscisas (x). Ver figura 1.2 1.7.3. Histograma de Frecuencias.

Se utiliza para datos agrupados y se construye levantando sobre cada intervalo un rectángulo de área proporcional a la frecuencia absoluta (n i ) correspondiente a ese intervalo. Dependiendo si los intervalos son o no uniformes se procederá de la siguiente forma:

9

ni

L1

L2

L3

L4

Li

L5

Figura 1.2: Diagrama de frecuencias acumuladas. Intervalos uniformes (igual amplitud): en este caso las alturas de los rectángulos serán igual a las frecuencias absolutas, ya que al ser las bases de los rectángulos iguales, las áreas solo dependerán de las alturas, y por tanto de la frecuencia absoluta. Intervalos no uniformes (distinta amplitud): tendremos que calcular las distintas alturas, ya que las bases de los rectángulos son diferentes. El cálculo de la altura lo haremos calculando la densidad de frecuencia (d i ). di

ni ci

1.7.4. Polígono de Frecuencias Absolutas.

También dependerá de si los datos están o no agrupados. Datos no agrupados: el polígono se construye uniendo los puntos más altos del diagrama de barras. Datos agrupados: en este caso se construye calculando primeramente la marca de clase de cada intervalo, luego unimos los puntos obtenidos con el primer valor del intervalo inicial y el último del intervalo final. 1.7.5. Polígono de Frecuencias Acumuladas.

El gráfico será siempre ascendente por el hecho de ser frecuencias acumuladas. Se utilizará para distribuciones agrupadas.

1.8. Medidas de Posición. 1.8.1. Media Aritmética  x  .

x

∑ni 1 xi ni N

Propiedades:

10

La suma de las desviaciones de los valores de la variable con respecto a la media es siempre nula. n



xi  x  n i

0

i 1

Si a todos los valores de la variable les sumamos una constante, es decir, les hacemos un cambio de origen, la media queda también sumada por esa constante. Si a todos los valores de la variable les multiplicamos por una constante, es decir, les hacemos un cambio de escala, la media también queda multiplicada por esa constante. 1.8.2. Mediana  Me  .

Es el valor de la distribución que deja a ambos lados el mismo número de observaciones. Para calcularla hay que ordenar las observaciones de menor a mayor. Es decir, la mediana es el valor que ocupa el lugar central si el número de observaciones es impar. Si el número de datos es par, podrá decirse que existen dos valores medianos y, en tal caso se calcula la media de los valores medianos. Ej:  1  2  3  4  5  Me 3 Ej:  1  2  3  4  5  6  Me 3  2 4 3  5 La mediana puede definirse también como el valor que tiene una distribución acumulada igual a N2 . Para calcularla distinguiremos de nuevo si los datos están o no agrupados: Datos no agrupados: 

Los datos no se repiten (frecuencias unitarias): se hace como en los ejemplos anteriores. 

Los datos se repiten: tenemos que seguir los siguientes pasos: 1. 2.

Calcular las frecuencias absolutas acumuladas (Ni ). Calcular el número de observaciones que tiene la muestra dividido entre 2 ( N2 ). Si N2 Ni  Me xi  2xi 1 Si N2  Ni  Me valor de la variable cuya Ni sea la inmediatamente superior a N2

Ejemplo: xi 0 1 2 3

ni 2 3 4 1 14 10

x

Me



1 2 2

Ni 2 5 9 10 1 4

1  5 (porque

N 2

Ni 

10 2

11

5)

Ejemplo: ni 2 4 3 1

xi 0 1 2 3

14 10

x

N 2

Ni 2 6 9 10 1 4

5, no coincide con ningún Ni  por tanto Me

1

Datos agrupados: tenemos que seguir los siguientes pasos: 1.

Calcular las frecuencias absolutas acumuladas (Ni ).

2.

Calcular el número de observaciones que tiene la muestra dividido entre 2 ( N2 ). Si N2 Ni  Me Li  1 Si N2  Ni  El intervalo3 donde aparezca la Ni inmediatamente superior a N2 es el que contiene a la mediana, que calcularemos mediante la siguiente fórmula: Me

Li 

Ejemplo: Li  1

2-4 4-6 6-8 8 - 10 10 - 12

Li

N 2

75 2

Me

Ni 4 14 54 74 75

ci 2 2 2 2 2

37  5

37  5  14 40 2

6

ni 4 10 40 20 1

7  175

Ejemplo: Li

N 2

Me 3 Se

Li  2-4 4-6 6-8

1

10 2

5





ni 2 3 5

Ni 2 5 10

ci 2 2 2

6

le conoce como “intervalo mediano”

12

N 2 

Ni  ni

1

ci

1.8.3. Moda (Mo ).

Es el valor que más se repite en la distribución, el que tiene mayor frecuencia absoluta (n i ). Para calcularla dependemos de nuevo de si los datos están o no agrupados: Datos no agrupados: la moda se corresponde con el valor con mayor n i . Ejemplo: ni 5 4 Mo 6 2

xi 2 3 4 7

4

Datos agrupados: en este caso distinguiremos entre intervalos de igual o distinta amplitud. Puede existir más de un valor modal. 

Intervalos con igual amplitud: se pueden utilizar diferentes métodos para seleccionar el valor modal: 1. 2. 3. 4. 5. 

M o Li  1 M o Li M o xi La distancia de la moda a los intervalos contiguos es inversamente proporcional a las frecuencias de dichos intervalos: M o Li  1  ni  n1 i  n1 i 1 ci La distancia de la moda a los intervalos contiguos es directamente proporcional a las frecuencias de dichos intervalos: M o Li  1   ni  ni  n1i    ni  n1i  ni 1  ci

Intervalos con distinta amplitud: es lo mismo pero con la densidad de frecuencia (di ).

Nota: Li 

1

es el extremo inferior del intervalo.

1.8.4. Cuantiles  CN  .

Son valores de la distribución que la dividen en partes iguales. Dependiendo en cuántas partes dividan a la distribución reciben varios nombres, cuartiles (4), deciles (10), percentiles (100). A continuación estudiaremos cómo calcular los cuantiles: Tomaremos dos variables (r y k) que representarán: r - el cuantil que queremos calcular, por ejemplo si queremos calcular el cuartil 3, r 3. k- el números de cuantiles, es decir, si son cuartiles serán 4, deciles 10, etc.. Tendremos que distinguir tambien si los datos están o no agrupados: Datos no agrupados: Si kr N

Ni 

Cuantil

Si kr N



Ni 

Cuantil

xi  xi  2

1

valor de la Ni inmediatamente superior a kr N

13

Datos agrupados: Si kr N

Ni 

Cuantil

Extremo superior del intervalo

Si kr N



Ni 

Cuantil

Li 

r k N

Ni  ni

1

ci

Ejemplo: Calcular el primer y el tercer cuartil (C1 y C3 ) de la siguiente distribución: ni 2 3 10 16 5 5

xi 0 1 2 3 4 6

Ni 2 5 15 31 36 41

Para calcular el primer cuartil tomamos r 1 y k 4, por tanto tenemos: Cogemos el valor de Ni inmediatamente superior que es 15 y por tanto C1

Para calcular el tercer cuartil tomamos r 3 y k 4, por tanto tenemos: Cogemos el valor de Ni inmediatamente superior que es 31 y por tanto C3

r kN

1 4 41

2. r kN

3.

3 4 41

10  25.

30  75.

Ejemplo: Calcular el primer y el tercer cuartil (C1 y C3 ) de la siguiente distribución: Li Li  1 20 - 25 25 - 30 30 - 35 35 - 40 40 - 45 45 - 50 50 - 55 55 - 60

ni 5 9 14 20 26 18 7 11

Para calcular el primer cuartil tomamos r 27  25 Calculamos

N 2

Ni 5 14 28 48 74 92 99 110

1yk

4, por tanto tenemos: kr N

1 4 110

55

r

N N

Como kr N no coincide con ningún Ni tenemos que aplicar la fórmula: Li  k ni i  1 ci donde Li es el extremo inferior del intervalo en el que Ni es inmediatamente superior a N2 . Por tanto: Li 

r k N

Ni  ni

1

ci

30 

27  25  14 5 14

34  82

Para calcular el tercer cuartil tomamos r 3 y k 4, por tanto tenemos: kr N

Calculamos

N 2

55

14

3 4 110

82  5

Como kr N no coincide con ningún Ni tenemos que proceder de la misma forma que antes: r k N

Li 

Ni  ni

1

ci

82  5  74 18 5

30 

47  36

1.9. Medidas de Dispersión. 1.9.1. Recorrido o Rango.

Será la diferencia entre el valor máximo y mínimo de la distribución. D xM

xm 

1.9.2. Recorrido Intercuantílico.

Será la diferencia entre el mayor y el menor cuantil. Por ejemplo, para los cuartiles sería R I C3  C1 1.9.3. Varianza Sx2 ! .

Es una medida de dispersión de los valores de la variable con respecto a la media.

Sx2

∑ni"



xi  x  2 n i

N ∑ni" 1 x2i ni x2  N 1

∑ni"



1

x2i  x2  2xi x  ni N

∑ni

Sx2

1

xi  x  2 ni N

∑ni" 1 x2i ni N 

x2 N N

2x ∑i"

n



1 xi n i N

∑ni" 1 x2i ni N 

x2  2x2

Propiedades: Sx2 #

0

Si a todos los valores de la variable les sumamos una constante, es decir, hacemos un cambio de origen, la varianza no se ve afectada. x i x; xi$ xi  k

Sx2%

∑ni

1

xi$  x$  2 ni N

Si a todos los valores de la variable les multiplicamos por una constante, la varianza queda afectada por la constante, concretamente, multiplicada por la constante al cuadrado. Sx2%

k2 Sx2

Nota: Las unidades de la varianza serán las mismas que las de la variable elevadas al cuadrado.

15

1.9.4. Desviación Típica  Sx  .

Sx

&('

Sx2

∑ni

*)

1

xi  x  2 ni N

Propiedades: Sx

0 #

Si a todos los valores de la variable les sumamos una constante, es decir, hacemos un n x%  x% 2 n cambio de origen, la desviación típica no se ve afectada. S x% ∑i" 1 Ni  i Si a todos los valores de la variable les multiplicamos por una constante, la desvación típica queda afectada por la constante, concretamente, multiplicada por la constante. S x%+

kSx 1.9.5. Coeficiente de Variación de Pearson  CV  .

Es el resultado de la razón entre la desviación típica y la media aritmética. CV

Sx x

Servirá para averiguar cuál es la dispersión relativa de una variable. Es adimensional, y por tanto, servirá para comparar la dispersión de dos o más distribuciones con diferentes unidades de medida. No se puede utilizar si el valor de la media es nulo. 1.9.6. Variable Tipificada  zi  .

Se denota como zi y se obtiene de la siguiente forma: zi

xi  x Sx

Propiedades: z 0 Sz2 Sz



1 1

16

Consideremos una variable estadísitica cuya media aritmética es 70, y cuya desviación típica es 10, sea el valor de la variable en la observación i-ésima igual a 90. Calcular el valor tipificado e interpretar su significado.

Problema

zi

xi  x Sx

90  70 10

2

El valor de la variable está dos veces la desviación típica por encima de la media. Calcular ahora para una observación i-ésima igual a 60. zi$

60  70 10

1

,

El valor de la variable está una vez la desviación típica por debajo de la media.

Un estudiante obtiene en matemáticas una nota de 8.5, siendo 7.8 la nota media de la asignatura y con una desviación típica de 1.3. En estadística la nota media es de 6.3 y la desviación típica 1.65, el estudiante obtiene una nota de 7.2. Calcula:

Problema

¿En qué asignatura obtiene la mejor puntuación relativa? zM

zE

8 5  7 8 1 3

7 2  6 3 1  65

0  538

0  545

Por tanto, la mayor puntuación relativa la obtiene en estadística. ¿En cuál de las dos asignaturas presenta la nota una mayor dispersión relativa? CVM

CVE



SM xM SE xE



1 3 7 8 1  65 6 3

0  167



0  262

La mayor dispersión se obtiene también en estadística.

1.10. Momentos de la Distribución. Son unos valores que caracterizan la distribución. Distinguiremos dos tipos:

17

1.10.1. Momentos respecto al origen.

Al momento de orden r respecto al origen lo llamaremos α r y lo calcularemos según la siguiente fórmula: αr

∑ni 1 xri ni N

Casos particulares: Si r 0 

α0

∑ni" 1 x0i ni N

∑ni" 1 ni N

Si r 1 

α1

∑ni" 1 x1i ni N

x

Si r 2 

α2

∑ni" 1 x2i ni N

1

1.10.2. Momentos respecto a la media.

Al momento de orden s respecto a la media lo llamaremos m s y, lo calcularemos según la siguiente fórmula: ms

∑ni

1

xi  x  s ni N

Casos particulares: Si s 0 

m0

Si s 1 

m1



m2

Si s 2 



∑ni"

1

∑ni"

1

∑ni"

1





xi  x  1 n i N

xi  x  2 n i N

∑ni" 1 ni N

xi  x  0 n i N

N N

1

40

Sx2

Nota: Cómo expresar la varianza en función de los momentos. Sx2

∑ni

1

xi  x  2 ni N

∑ni 1 x2i ni N 

x2

a2  a21

Problema Un fabricante de tubos de televisión dispone de dos tipos de tubos, A y B. Los tubos tienen una duración media de 1495 h. y 1875 h. respectivamente. Las desviaciones típicas son 280 para A y 310 para B. Determinar qué tubo presenta mayor dispersión absoluta y cuál presente mayor dispersión relativa.

A 1495 y SA 4 Por

280

la primera propiedad de la media.

18

B 1875 y SB 310 Podemos decir directamente que el tipo B presenta mayor dispersión absoluta, ya que la desviación típica es una medida de dispersión. Para ver la dispersión relativa debemos calcular el Coeficiente de Variación de Pearson (CV ): CVA

SA A

280 1495

0  187

CVB

SB B

310 1875

0  165

Por tanto, será el tubo A el que presente mayor dispersión relativa.

19

2 Variables Estadísticas Bidimensionales

2.1. Introducción. En el tema anterior hemos visto como estudiar una característica de un determinado conjunto. En este tema trataremos la idea de poder estudiar a la vez dos características de ese conjunto, que podrán ser cualitativas o cuantitativas.

2.2. Distribuciones Conjuntas. Por el hecho de trabajar con dos características tendremos que utilizar dos variables. Hay que tener en cuenta que las frecuencias serán también bidimensionales. Para representar los valores de las variables utilizaremos la Tabla de Doble Entrada o Tabla de Distribución Conjunta1 . Las frecuencias absolutas las representaremos con dos subíndices de la siguiente forma: x\y x1 x2 .. .

y1 n11 n21 .. .

y2 n12 n22 .. .

xi .. .

ni1 .. .

ni2 .. .

xh n/ j

nh1 n 1

nh2 n 2

-.-.-.-.-.-.-

-.-.-

-.-.-.-.-

yj n1 j n2 j .. . ni j .. . nh j n/ j

-.-.-.-.-.-.-

-.-.-

-.-.-.-.-

yk n1k n2k .. .

ni / n1 / n2 / .. .

nik .. .

ni / .. .

nhk n/ k

nh / N

Donde i corresponde a la variable x, y j a la variable y. Nota: ∑hi 1 ∑kj 1 ni j N

2.3. Representaciones Gráficas. La más utilizada el la Nube de Puntos. En caso de tener los datos agrupados, representaremos las marcas de clase en el eje de abscisas. Ver figura 2.1. 1 Si

utilizamos variables cualitativas se la denomina Tabla de Contingencia.

20

Figura 2.1: Nube de puntos.

2.4. Distribuciones Marginales. Puede ser interesante estudiar por separado las características del grupo, para ellos existen las distribuciones marginales. Como ya hemos visto en la tabla de doble entrada tenemos dos tipos. Distribución marginal de la y: ni / Distribución marginal de la y: n / j

2.5. Distribuciones Condicionadas. Son distribuciones en las cuales una variable está condicionada a un determinado valor de la otra variable. xi 0 y y j ni 0 y y j xi 0 x xi n j 0 x xi y1 n1i x1 n1 j y2 n2i x2 n2 j n ji ... y j .... ... xi .... ni j yk nki xh nh j Frecuencia relativa condicionada:

Por ejemplo: f i 0

2

fi 0

j

ni j n1 j

ni2 n2 2

y f j0

i

ni j ni 1

2.6. Independencia Estadística. Se dice que dos variables son estadísticamente independientes cuando su frecuencia relativa n conjunta  Ni j  es igual al producto de las frecuencias relativas marginales. ni j N fi 0

j

ni j n1 j

ni j N n1 j N

n1 j ni 1 N 4 N n1 j

N

ni / N

ni 1 N

21

3

n/ j N

f j0

i

ni j ni 1



ni j N ni 1 N

n1 j ni 1 N 4 N ni 1

N

n1 j N

2.7. Momentos de una distribución bidimensional. 2.7.1. Momentos con respecto al origen.

El momento de orden r,s con respecto al origen de una variable bidimensional será: αrs

h

k

ni j

∑ ∑ xri ysj N

i 1 j 1

Casos Particulares: α10

∑hi 1 ∑kj

1 0 ni j 1 xi y j N

∑hi 1 ∑kj

ni j 1 xi N

α01

∑hi 1 ∑kj

0 1 ni j 1 xi y j N

∑hi 1 ∑kj

ni j 1 yj N

α20

∑hi 1 ∑kj

2 0 ni j 1 xi y j N

∑hi 1 ∑kj

2 ni j 1 xi N

∑hi 1 x2i ∑kj

α02

∑hi 1 ∑kj

0 2 ni j 1 xi y j N

∑hi 1 ∑kj

2 ni j 1 yj N

∑kj

∑hi 1 xi ∑kj

n1 ∑hi 1 xi Ni

h ni j 1 y j ∑i 1 N

∑kj

ni j 1 N

n1 j 1 yj N

∑kj

x

ni j 1 N

n1 ∑hi 1 x2i Ni

2 h ni j 1 y j ∑i 1 N

∑kj

y

2 n1 j 1 yj N

2.7.2. Momentos con respecto a la media. h

mrs

k

∑∑

xi  x 

r

yj

y 

s ni j

i 1 j 1

N

Casos Particulares: m10

∑hi 1 ∑kj

1

xi  x 

1

yj 

y

0 ni j N

∑hi 1 ∑kj

1

xi  x 

ni j N

m01

∑hi 1 ∑kj

1

xi  x 

0

yj 

y

1 ni j N

∑hi 1 ∑kj

1

yi  y 

1 ni j N

m11

∑hi 1 ∑kj

1

xi  x 

1

yj 

y

1 ni j N

∑hi

1

xi  x  ∑kj

m20

∑hi 1 ∑kj

1

xi  x 

2

yj 

y

0 ni j N

∑hi

1

xi  x 

m02

∑hi 1 ∑kj

1

xi  x 

0

yj 

y

2 ni j N

∑kj

h 1 ∑i 1

2 ni 1 N

1

y j  y

∑hi

∑hi

y j  y

xi  x 

1

ni j N

1

yj

y 

3S

ni 1 N

2

n1 j N

0

0

xy

4 S2 x 2 ni j N

∑kj

1

y j  y

2 n1 j N

5 S2 y

Momentos con respecto a la media expresados en función de los momentos con respecto al origen: 2 Por

la primera propiedad de la media denomina covarianza 4 Será la varianza de x 5 Será la varianza de y 3 Se

22

m20

∑hi

α20 

1 2 x 

xi  x 

2 ni 1 N

2xx α20 

m11 ∑hi 1 ∑kj

1 xi n xy ∑hi 1 ∑kj 1 Ni j



∑hi



x2

1

x2i  x2  2xi x  α20 

1

n1 ∑hi 1 x2i Ni 

n1 ∑hi 1 x2 Ni

n1 ∑hi 1 2xi x Ni 

ni j ni j h k 1 xi y j N  y ∑i 1 ∑ j 1 xi N n1 y ∑hi 1 xi nNi 1  x ∑kj 1 y j Nj  x  y

∑hi 1 ∑kj

y j  y

α11  α10 α01  α10 α01  α10 α01





α210

1 ni j N

ni j k h ∑i 1 ∑ j 1 xi y j N

x

ni 1 N





x ∑hi 1 ∑kj

ni j 1 yj N 

α11  α10 α01

2.8. Regresión Lineal. En esta sección estudiaremos la dependencia que tienen las dos variables (x e y) y la forma en la que se relacionan. Podemos estudiar la regresión de dos maneras: 1.

Regresión: consiste en analizar la forma de las dependencias entre las dos variables.

2.

Relación: consiste en analizar el grado de dependencia de las dos variables.

Nos centraremos en la regresión. El objetivo es buscar una función (y f x  ) que relacione las dos variables. Esta función deberá aproximar a una recta la representación de la nube de puntos. Para ello utilizaremos un método matemático que es la aproximación por mínimos cuadrados, obteniendo dos rectas: Sxy Sx2

Recta de regresión de y sobre x: y ax  b, donde a

Recta de regresión de x sobre y: x a $ y  b$ , donde a$

Sxy x Sx2

yb y

Sxy Sy2

y b$

x

Sxy y Sy2

2.9. Coeficiente de Correlación Lineal. Determina el grado y el sentido de la dependencia lineal que existe entre las variables. R

Sxy Sx Sy

El rango de valores es:  1 R 1 El signo dependerá de la covarianza (S xy ). Casos Extremos:

Si R 1, existe correlación lineal total directa 6 entre las variables. Si R 0, no existe correlación entre las variables. Si R 5 1, existe correlación lineal total inversa 7 entre las variables. 6S

xy

7S

6

xy

8

0 0 7

7

si aumenta x, aumenta y. si aumenta x, disminuye y.

23

2.10. Coeficiente de Determinación. Mide la capacidad explicativa del modelo que hemos creado. R Ejemplo: Si R2

Problema

2

2 Sxy Sx2 Sy2

0  9, significa que explico el 90 % de la y en el caso y ax  b.

De la siguiente tabla de doble entrada, calcula:

La distribución marginal de la variable y (n / j ). La distribución de la variable x condicionada a que la variable y tome el valor 3. El momento m20 El coeficiente de determinación. x\y 5 10 15 n/ j

1 1 2 3 6

2 2 1 2 5

y 1 2 Distribución marginal de la variable y: 3 4 x 5 Distribución marginal de la variable x: 10 15

3 1 3 1 5

4 3 2 2 7

ni / 7 8 8 23

n/ j 6 5 5 7 23 ni / 7 8 8 23

x9 y 3 5 Distribución de la variable x condicionada a que la variable y tome el valor 3: 10 15 m20

Sx2

∑hi

x2i ni 1 1 N 

x2

120  65  10  222

24

16  20

ni / 9 y 3 1 3 1 5

m02 m11

y2 n 1 j



Sy2 ∑kj 1 jN Sxy ∑hi 1 ∑kj



1

y2 7  96  2  562 1  4 n xi  x  1 y j  y  1 Ni j α11  α10 α01 R2

2 Sxy Sx2 Sy2

0  9 2 16  20 1  4 

3

25



0  036

25  22  10  22 3

2  56 5 0  9

3 Teoría de la Probabilidad

3.1. Fenómenos Deterministas y Aleatorios. Un fenómeno es un experimento, como pueda ser el lanzar un dado. Existen dos tipos de fenómenos: Deterministas: cuando al realizar un experimento en las mismas condiciones, siempre obtenemos el mismo resultado. Aleatorios: cuando al realizar un experimento en las mismas condiciones, nunca podremos predecir el resultado.

3.2. Espacio Muestral. Lo denotaremos como E.1 Es el conjunto formado por los posibles resultados de un fenómeno aleatorio. Ejemplo

Para el lanzamiento de una moneda al aire: E

Ejemplo

Para el lanzamiento de un dado: E

Ejemplo

Para el lanzamiento de dos monedas al aire: E







cara  cruz 

1 2 3 4 5 6 

cara  cara  

cruz  cruz  

cara  cruz 

3.3. Sucesos y Tipos de Sucesos. Un suceso es un subconjunto del espacio muestral. Para denotarlos usaremos letras mayúsculas. Ejemplo

Para el E

A salir 2

B salir par





2 

C salir impar

1 En

1 2 3 4 5 6 :

2 4 6 

1 3 5

algunos textos se denota como Ω.

26



cruz  cara  

Existen seis tipos de sucesos: 1.

Suceso Elemental: Aquel que está formado por un solo elemento del espacio muestral.

2.

Suceso Compuesto: Aquel que está formado por varios elementos del espacio muestral.

3.

Suceso Imposible: Aquel cuyos elementos son el conjunto vacío, por tanto se denota como φ. Ej: Para E  1  2  3  4  5  6  , F salir 7 φ.

4.

Suceso Seguro: es el que se va a presentar siempre, por tanto, es el suceso que está compuesto por los elementos del espacio muestral.

5.

Suceso Contrario o Complementario: Sea A un suceso, definimos su complementario (A) como aquel suceso que está formado por los sucesos elementales que no pertenecen a A. Ej: Para E  1  2  3  4  5  6  , A salir par  2  4  6  , A  1  3  5  salir impar.

6.

Sucesos Condicionados: Sean A y B dos sucesos, se llama suceso de A condicionado a B (A 9 B ) si se presenta A una vez que se haya presentado B. Ej: B salir par  2  4  6  A salir 2  2  .

7.

Sucesos Incompatibles: Sean A y B dos sucesos, se dice que son incompatibles si A  B

φ. En caso contrario se dice que son compatibles.

8.

Sucesos Independientes: Sean A y B dos sucesos, se dice que son independientes si P A  B : P A  P B  . En caso contrario se dice que son dependientes.

3.4. Operaciones con sucesos. 3.4.1. Unión de sucesos (A ; B).

Dados dos sucesos A y B su unión estará formada por los sucesos elementales que pertenecen a A ó a B ó a ambos. Propiedad: A  A E 3.4.2. Intersección de sucesos (A < B).

Dados dos sucesos A y B su intersección estará formada por los sucesos elementales que pertenecen a A y a B simultáneamente. Propiedad: A  A φ 3.4.3. Leyes de De Morgan.

Hay dos: A B A B A B A B

27

3.5. Definición Axiomática de la Probabilidad. La probabilidad es una medida de la incertidumbre asociada a los fenómenos o los experimentos que dependen del azar. Existen distintas definiciones de la probabilidad; nos centramos en la definición axiomática de Kolmogorov: La probabilidad es una función que se asigna a un número real llamado probabilidad (P A  ). Axiomas:

La probabilidad de un suceso es siempre mayor o igual a cero. P A #

0

La probabilidad de un suceso seguro es siempre la unidad. P E = 1 Sean A1  A2 .>?>?>? An sucesos incompatibles2 donde Ai  A j

φ, para todo i 

j.

P A1  A2 @>.>.>. An : P A1 A P A2 AB-.-.- P An  C

n

n

Ai D

P

∑ P Ai 

i 1

i 1

Consecuencias de los axiomas:

P A : 1  P A  P A  A E P A F P A  (por el tercer axioma), P E G

P A D 1  P A 

1 (por el primer axioma) H

P E D 0 0

P A

P A #



1

0 (por el primer axioma); E

Sean A y B dos sucesos compatibles A  B =

A  B A

P A  B = P  A  B 

A  BA 

A  B

A  A; P E I 1 P A J P A ; P A = 1 si A φ

H

P A  B K P A A P B F P A  B 

A  B  sucesos incompatibles, por tanto, 

A  B MLN P A  B J P A  BJ P A  B F

P B O P A  B J P A F P A  B A P A  B P P A J P B F P A  B 

Sean A, B y C sucesos compatibles

H

P A  B  C I

P A A P B A P C F P A  B F P A  C O P B  C A P A  B  C  2A

y B son sucesos incompatibles si A Q B R φ, en caso contrario serán compatibles.

28

3.6. Otras definiciones de probabilidad. 3.6.1. Definición frecuencial de la probabilidad.

Sea A un suceso cualquiera. Definimos frecuencia relativa de ese suceso como el cociente del número de veces que aparece dicho suceso entre el número de veces que se realiza el experimento. fr A :

no de veces que aparece el suceso no de veces que se realiza el experimento

Ejemplo: Sea A un suceso consistente en lanzar una moneda y que salga “cara”. fr A :

no

no de veces que sale cara de veces que se lanza la moneda

La frecuencia relativa de un suceso tiende a estabilizarse en torno a un valor, a medida que el número de veces que se realiza el experimento crece indefinidamente. A ese valor se le llama probabilidad frecuencial del suceso: P A :

l´ım no de veces que se realiza el experimento S



fr A 

Tiene dos inconvenientes: 1.

El número de veces que hay que repetir el experimento es muy elevado.

2.

No es fiable; el resultado obtenido es aproximado.

3.6.2. Definición de Laplace.

Sea A un suceso. Se define la probabilidad como el cociente entre el número de casos favorables y el número de casos posibles. P A :

Ejemplo: Lanzo un dado. E  1 2 3 4 5 6 A salir par  2  4  6  luego, P A :

no de casos favorables no de casos posibles

3 6

1 2

Ejemplo: lanzo dos veces una moneda. E  cara  cara   cara  cruz   cruz  cara  B salir la primera cara P B : 24 12 

29

cruz  cruz  

3.7. Probabilidad Condicionada. Dados dos sucesos A y B, la probabilidad de A condicionada a B se define como P A 9 B  y será: P A 9 B :

P A  B si P B  P B

P B 9 A :

P A  B si P A  P A





0

0

3.8. Sucesos Independientes. Sean A y B dos sucesos, diremos que son independientes si P A   B K P A  P B   Si dos sucesos son independientes P A 9 B T PPA BU B  P AP  BP B  , por tanto, P A  B T

P A 9 B  P B : P A  P B  P A1  A2  -.-.-  An : P A1  P A2 J-.-.- P An 

Problema

Tengo una urna con 5 bolas blancas y 4 bolas rojas.

Si se extraen dos bolas con reemplazamiento, determinar la probabilidad de que la primera sea blanca y la segunda roja. P B :

5 9

0  556

P R :

4 9

0  444

Si se extraen tres bolas con reemplazamiento, determinar la probabilidad de que la primera sea blanca, la segunda roja y la tercera blanca. P B :

5 9

0  556

P R :

4 9

0  444

P B :

5 9

0  556

30

Si se extraen dos bolas sin reemplazamiento, determinar la probabilidad de que la primera sea blanca y la segunda roja. P B :

5 9

0  556

4 8

P R :

0 5

Si se extraen tres bolas sin reemplazamiento, determinar la probabilidad de que la primera sea blanca, la segunda roja y la tercera blanca. P B :

5 9

4 8

P R :

P B :

0  556

4 7



0 5

0  571

3.9. Probabilidad de la intersección de sucesos. Distinguiremos si los sucesos son independientes o dependientes. Sucesos dependientes. Sean A y B dos sucesos dependientes. Se verifica que la probablidad de su intersección es la probabilidad de A condicionada a B por la probabilidad de B e igual a la probabilidad de B concionada a A por la probabilidad de A. P A  B = P A 9 B  P B : P B 9 A  P A  Sucesos independientes. Sean A y B dos sucesos independientes. La probabilidad de su intersección será la probabilidad de A por la probabilidad de B. P A  B K P A  P B 

31

3.10. Probabilidad “a priori” y “a posteriori”. Suponemos que tenemos un suceso H, llamaremos probabilidad a priori a la probabilidad que se le asigna individualmente al suceso H. Es decir, la probabilidad de que salga H. Supongamos que partimos de cierta información (X), la probabilidad a posteriori es la probabilidad de H condicionada a la información que tenemos (X). P H 9 X =

P H  X P X

P X 9 H =

P H  X P H P X9 H P H P X

P H  X =

3.11. Probabilidad Total. Sean H1  H2 .>?>?>? Hn incompatibles. Hi  H j

φ para todo i 

j. Sea A otro suceso,

n

P A :

∑P A

Hi  P Hi  9

i 1

3.12. Teorema de Bayes. Supongamos que tenemos H sucesos incompatibles (H1  H2 .>?>?>? Hn  cuya unión será E > Sea un suceso cualquiera. El teorema de Bayes dice: P A 9 Hi  P Hi  P A

P Hi 9 A D

P A 9 Hi :

P Hi  A  P Hi 

H

P Hi  A = P A 9 Hi  P Hi 

El volumen de producción diario en tres plantas diferentes de una fábrica es de 500 unidades en la primera, 1000 unidades en la segunda y 2000 unidades en la tercera. Sabiendo que el porcentaje de unidades defectuosas producidas en las tres plantas es del 1 %, 0,8 % y 2 % respectivamente, determinar la probabilidad de que:

Problema.

1.

Extraida una unidad al azar resulte NO defectuosa. Llamaremos: A producción de la primera planta

32

H

P A :

500 3500

0  143

B producción de la segunda planta C producción de la primera planta

H

H

P B K

P C D

1000 3500 2000 3500

0  286

0  571

D pieza defectuosa P D V P D 9 A  P A W P D 9 B  P B W P D 9 C  P C V 0  01P A X 0  008P B X 0  02P C V

0  0153 P D : 1  0  15 0  985 2.

Habiendo sido extraida una unidad defectuosa, haya sido producida en la primera planta. o

P A 9 D :

P D9 A P A P D

0  01 0  143 3 0  015

0  095

Una compañía dedicada al transporte público explota tres líneas periféricas de una gran ciudad, se observa que el 60 % de los autobuses cubren el servicio de la primera linea, el 30 % cubren el servicio de la segunda linea, y el 10 % cubren el servicio de la tercera línea. Se sabe que la probabilidad de que diariamente un autobús se averíe es del 2 % en la primera línea, del 4 % en la segunda y del 1 % en la tercera. Determinar: Problema.

1.

La probabilidad de que en un día un autobús sufra una avería Llamamos: θ1

Que sea de la primera línea

θ2

Que sea de la segunda línea

θ3

Que sea de la tercera línea

A Que se averíe P A V P A 9 θ1  P θ1 W P A 9 θ2  P θ2 W P A 9 θ3  P θ3 V

2.

2 4 1 0 6  0 3  0  1 0  025 100 100 100

Sabiendo que un autobús ha sufrido una avería en un día determinado, ¿Cuál es la probabilidad de que preste servicio en la primera línea? P θ1 9 A :

3 aplicamos

P A 9 θ1  P A

el punto 3.11

33

0  02 0  6 3 0  025

0  48

Problema.

1.

Demostrar:

P A 9 B A P A9 B D 1 siendo P B ZY 0 Suponemos que A y B son sucesos independientes y por tanto P A  B I P A  P B  P A  B K P A  P B  

P A 9 B :

P A U B  P B





P A  P B P B

P A

P A 9 B [ P A  P A J P A: P A A 1  P A K 1 2.

P A  B 9 C = P A 9 C J P B 9 C O P A  B 9 C  siendo P C \Y 0 P A  B K P A A P B  

P A 9 B :

P A U B  P B 

P A  B 9 C F



P AU  BU C P C

P ] A ^  B  U C_ P C





P ] AU C  ^ BU C P C



_

P A 9 C A P B 9 C F P A  B 9 C 

34

P AU C 



P BU  C P C 



P AU BU C



P A U C  P C





P B U C  P C 

4 Variable Aleatoria Discreta

4.1. Introducción 4.1.1. Concepto de una variable aleatoria

Una variable aleatoria la representamos por ξ y es una función que va desde el espacio muestral hasta el conjunto de los números reales. De tal forma que a cada suceso elemental le asigna una imagen. ξ: E 

a`

4.1.2. Función de distribución de una variable aleatoria

Es una función que va desde los números reales hasta el intervalo [0,1], de modo que para cualquier x la función de distribución lo que indica es la probabilidad de que la variable aleatoria tome valores menores o iguales al número que me dan. F:` x





0  1L

F x b P ξ

x

Que será la probabilidad acumulada hasta el valor x. Propiedades

l´ımx Sc

∝F

x [ 1

l´ımx Sd

∝F

x [ 0

Es una función monótona creciente, sea x 1 y x2 tal que x1 Es una función contínua por la derecha, l´ım h S

0

e

x2 H

F x1 Ze F x2 

F x  h D F x  h Y

0

4.1.3. Clasificación de una variable aleatoria discreta y contínua

Las variables aleatorias se clasifican en variables aleatorias discretas y variables aleatorias contínuas.

35

4.1.3.1.

Variables aleatorias discretas

Son aquellas que toman valores aislados. Como por ejemplo, el lanzamiento de una moneda, puede tomar dos valores: cara o cruz. 4.1.3.2.

Variables aleatorias contínuas

Son aquellas que pueden tomar cualquier valor dentro de un intervalo dado. Por ejemplo la temperatura.

4.2. Variables aleatorias discretas 4.2.1. Función de masa de una variable aleatoria discreta

También se conoce como Función de Cuantía. Es una función definida en el conjunto de los números reales y cuyas imágenes pertenecen al intervalo cerrado [0,1], donde a cada valor del conjunto de números reales se le asocia la probabilidad inducida cuando la variable aleatoria toma el valor x i . F: xi 4.2.1.1.



` 



0  1L

F xi D P ξ xi 

Representación gráfica de la función de masa

x1

x2

...

xn

Figura 4.1: Representación de la función de masa Se representa mediante un diagrama de barras, se omite el eje de ordenadas, sobre el cual se ponen los valores que toma la variable, levantando una barra sobre cada valor de la variable cuya altura es la probabilidad de que la variable tome ese valor. Véase figura 4.1. La suma de las alturas de todas las barras tiene que ser 1. 4.2.2. Distribución de probabilidad

Es una tabla que nos proporciona la información de todos los posibles valores que toma la variable aleatoria acompañada de sus correspondientes probabilidades.

36

ξ xi P ξ xi  4.2.2.1.

x1

x2

ξ x1

xn

-.-.-

ξ x2

ξ xn

-.-.-

Ejemplo

Para el lanzamiento de una moneda la tabla sería: ξ xi P ξ xi 

0

1

1 2

1 2

4.2.3. Función de distribución de una variable aleatoria discreta

F:` x 



F x [ P ξ



0  1L

x [



∑P ξ

xi 

i

Ejemplo 3

F x3 D

∑P

ξ xi : P ξ x1 A P ξ x2 A P ξ x3 :

∑F

xi 

i

i 1

La diferencia entre la función de distribución y la de masa es que para la primera es la probabilidad acumulada y para la de masa es la probabilidad en el punto. 4.2.3.1.

Representación gráfica de la función de distribución

Suponemos que la variable solo toma dos valores diferentes (x 1 y x2 ). Para dibujarla nos basamos en el diagrama de barras. Vamos a considerar diferentes tramos: Considero un valor x

x1 para el cual F x D P ξ e

El siguiente que considero será x1 El tercer tramo será x



x e



x D 0

x2 para el que F x D P ξ x [ P ξ x1 

x2 para el que F x [ P ξ x D P ξ x1 A P ξ x2 D 1 #

hji

F x b gf

0 x e x1 P ξ x1  x1 x P ξ x1 A P ξ x2 : 1 x # x2 e

x2

Una función de distribución de una variable aleatoria discreta debe quedar como en la figura 4.2, siendo escalonada (“da saltos” en los puntos donde se concentra la probabilidad). El incremento que experimenta la función en cada salto es igual a la probabilidad correspondiente a ese valor (P ξ xi  ).

37

F(x)

x1

x

x2

Figura 4.2: Representación de la función de distribución 4.2.3.2.

Cálculo de probabilidades a partir de la función de distribución

Sea F x  la función de distribución de una variable aleatoria discreta y sean a y b dos números reales cualesquiera tales que a e b, entonces se verifica que 1 : 1.

Pa e

ξ

b : F b F F a 

2.

Pa e

ξ e

b : F b F F a F P ξ b 

3.

Pa

ξ

b : F b F F a A P ξ a 

4.

P a ξ e b D F b F F a O P ξ b A P ξ a 

4.2.4. Momentos con respecto al origen (αr )

Definimos momento de orden r con respecto al origen αr

∑ xri P ξ

xi 

i

Casos particulares: 2 Para

r 0, αo

∑i P ξ xi : ∑i P ξ xi [ 1

Para r 1  recibe el nombre de esperanza matemática, valor esperado o valor probable. Se puede representar como: α1

E  ξLJ M

∑ xi P ξ

i

1 Ya 2 La

que F k b lR P k ξ m b l , es decir, todos los puntos anteriores y el punto b. suma de todas las probabilidades es 1.

38

xi 

4.2.4.1.

Esperanza matemática. Propiedades

La esperanza de una constante es igual a la constante E  C LA C Si C es constante, P ξ C : 1 La esperanza de una constante por una variable aleatoria es igual a la constante por la esperanza de la variable aleatoria. E  C ξLP C E  ξL (definición previa a la demostración) Sea ξ una variable aleatoria discreta y sea g  ξL una función de la misma, entonces se verifica que:

∑ g xi

E  g ξ MLA



P ξ xi 

i

E  C ξLA ∑i C xi P ξ xi D C ∑i P ξ xi D C E  ξL La esperanza de una suma o resta de variables aleatorias es igual a la suma o resta de las esperanzas. E  ξ1 n ξ2 LA E  ξ1 Lon E  ξ2 L Ejemplo

Lanzamos un dado una vez y consideramos la variable aleatoria ξ puntuación obtenida,

determinar: 1.

La distribución de probabilidad y su representación gráfica. ξ xi P ξ xi  1/6

2

3

4

5

6

1 6

1 6

1 6

1 6

1 6

1 6

1/6

1

2.

1

2

1/6

3

1/6

4

La función de distribución y su representación gráfica. x e

1H

F x D P ξ

x D 0

39

1/6

5

1/6

6

1

x e

2H

F x b P ξ

x D P ξ 1 D

2

x e

3H

F x b P ξ

x D P ξ 1 A P ξ 2 [

3

x e

4H

F x b P ξ

x D P ξ 1 A P ξ 2 A P ξ 3 :

4 1 6 



x 1 6 

e

5 1 6 



F x G

H

1 6





x G



1 6

1 I P ξ

1 6 

1 6

2 6

2 I P ξ

1 6

1 6 

1 6 

3 K P ξ

3 6

4 p

4 6

4 x e 5 H F x = P ξ x = P ξ 1 q P ξ 2 q P ξ 3 q P ξ 4 q P ξ

5 D 16  16  16  16  16 56 5 x e 6 H F x = P ξ x = P ξ 1 q P ξ 2 q P ξ 3 q P ξ 4 q P ξ

5 A P ξ 6 D 16  16  16  16  16  16 66 6/6

5/6

4/6

3/6

2/6

1/6

1

3.

2

3

4

5

6

La puntuación esperada (esperanza de la variable). E  ξLA

∑ xi P ξ

xi D 1

i

1 6 

2

1 1 1 1 1 3  4  5  6  6 6 6 6 6

3 5

Problema3

En un grupo de 50 alumnos el número de estudiantes que resuelve los problemas propuestos en clase un día cualquiera es una variable aleatoria con la siguiente probabilidad: P ξ x Fr

kx x 1  2 .>?>?>? 20 5k x 21  22 .>?>?>? 50

Calcula: El valor de k para que la función anterior sea efectivamente una ley de probabilidad. Tiene que cumplir que ∑50 i 1 P ξ xi : 1 50 ∑20 i 1 k xi  ∑i 21 5k 1 1 1 H k 360 0  0028 H

50 k ∑20 i 1 xi  5k ∑i 21 1

1 H

210 k  5k 30

1 H

360 k

La probabilidad de que un día resuelvan los problemas propuestos más de 20 alumnos ( Y 20). (Ver fotocopias de problemas). Cuál es la probabilidad de que lo resuelvan como mucho 5. Y la de que lo resuelvan más de 15 y menos de 25. (Ver fotocopias de problemas). 3 de

examen

40

Se lanza una moneda tres veces y se considera la variable aleatoria ξ al número de caras obtenidas, se pide: (Ver fotocopias de problemas). Problema4

Distribución de probabilidad de la variable aleatoria. Número de caras esperado. Varianza y función característica. Probabilidad de que salga cara la primera vez si se sabe que la variable aleatoria toma el valor 2 (ξ 2). Esperanza y varianza a partir de la función característica. 4.2.5. Momentos respecto a la esperanza 4.2.5.1.

Varianza. Propiedades

4.2.5.2.

Desviación Típica

4.2.6. Función característica. Propiedades 4.2.7. Algunas distribuciones discretas 4.2.7.1.

Distribución de Bernoulli B p 

Se usa para representar fenómenos en los que sólamente se pueden dar dos sucesos incompatibles. ξ 1 P ξ 1 [ p ξ 0 P ξ 0 [ q Función de masa

Representa la probabilidad en los puntos. f x [ P ξ x D

Esperanza

E ξ : p

E ξ : 1 p  0 q

p

V ξ D α2  α21 p  p2 Como 1  p q  V ξ : p q

Varianza 4 de

p 1  p

examen

41

h i f

p x 1 q x 0 0 resto

Función Característica

0 D

ϕξ t \ E s eit

ξt

∑ j eit j P ξ



ei t 1 P ξ

x j Z



1 V ei t 0 P ξ

ei t

p q ϕξ ei t p  q

4.2.7.2.

Distribución Binomial B n  p 

Seguirá una distribución binomial si el resultado de sumar n variables independientes entre sí donde cada una se distribuye como una Bernoulli de parámetro p. ξ u B n  p ξ ∑ni 1 ξi independientes ξ ξ1  ξ2 B-.-.-. ξn En definitiva, una distribución binomial puede ser considerada como una distribución de Bernoulli que se repite n veces. Representa la probabilidad en los puntos.

Función de masa

f x b P ξ x D

Esperanza

E ξ :

n x r

V ξ E V  ξ1  ξ2 &-.-.-x ξn Lb

V ξn D p q  p q z-.-.-. p q n p q V ξ : n p q Función Característica z-.-.-|

ϕξ

4.2.7.3.

x

x 0  1  2 .>?>? n resto

E ξ I E  ξ1  ξ2 v-.-.-M ξn LN E ξ1 q E ξ2 qv-.-.-M E ξn F

np (por ser independientes)

Varianza

e i t ξ2

px qn  0

ϕξ t I E s ei t

ξt

E s ei t



ξ1  ξ2 K{ { {  ξn  t



ei t

p  p v-.-.-w p n p

V ξ1 = V ξ2 =y-.-.-x



ξ1  ξ2 I{ { {  ξn 

ei t

ξ1 

e i t ξn

ei t p  q 

n

Distribución de Poisson P λ 

Sólo dependerá de un parámetro λ que será siempre positivo. Mediante esta distribución se representa el número de veces que se presenta un fenómeno en un intervalo de tiempo o en una región del espacio. Función de masa

Representa la probabilidad en los puntos. f x [ P ξ x D ~}

Esperanza

E ξ : λ

42

e

λ

x!

0

λx

x# 0 resto

Varianza

V ξ : λ

Función Característica

ϕ ξ eλ



ei

t 

1

En un laboratorio se comprobó que la utilización de un producto mejoraba el 80 % de las reacciones químicas de cierto tipo. Si se utiliza dicho producto en 8 reacciones de ese tipo, calcular: Problema

La probabilidad de que mejoren 5. La probabilidad de que mejoren al menos 3. El número de reacciones que se espera que mejoren. ξi

1

P ξ 1 D 0  8 si mejora

ξi

0

P ξ 0 D 0  2 si no mejora

Se trata de una distribución de Bernoulli B p  donde p 0  8 Como son dos sucesos independientes, ξ ∑8i 1 ξi ξ u B 8  0  8 P ξ 5 D

P ξ 0 D

P ξ 1 D

P ξ 2 D

8! 0! 8! 8! 1! 7! 8! 2! 6!

0  80 0  28 0  81 0  27 0  82 0  26

Pξ #

8! 0  85 0  23 5! 3!

0  15

0  28 =



3 D 1  P ξ 0 F P ξ 1 O P ξ 2 D 0  998

Suponiendo que la probabilidad del nacimiento de un chico es probabilidad de que un una familia con cinco niños: Problema

al menos uno sea niño de obtener 1 ó 2 niñas todos sean niños

43

1 2,

determinar la

Nos encontramos con una distribución binomial. P ξ 1 D 0  8 si mejora ξi 1 ξi 0 P ξ 0 D 0  2 si no mejora ξ ∑5i 1 ξi ξ u B 5  0  5 P P P P

ξ

ξ

ξ

ξ

0 D

3 D

4 D

5 D

Pξ #

1 D 1  P ξ 0 D

P ξ 4 J P ξ 3 :

P ξ 5 D

El número de automóviles que llega a una gasolinera es de 210 por hora. Si dicha estación de servicio puede atender un máximo de 10 automóviles por minuto, determinar la probabilidad de que en un minuto dado lleguen más de los que se pueden atender. Nos encontramos con una Poisson, ello lo podemos deducir viendo que nos encontramos ante una variable discreta que es coche. Además las distribuciones de Poisson hacen referencia a intervalos de tiempo como es el caso. λ 210 60 3  5 P λ : P 3  5  P ξ 10  P ξ 0 V P ξ 1 V P ξ 2 V P ξ 3 V P ξ 4 V P ξ 5 V P ξ

6 J P ξ 7 A P ξ 8 A P ξ 9 J P ξ 10 [

P ξ 0 D

P ξ 1 D

P ξ 2 D

P ξ 3 D

P ξ 4 D

P ξ 5 D

P ξ 6 D

P ξ 7 D

P ξ 8 D

P ξ 9 D

P ξ 10 D

Problema

Pξ Y

10 D 1  P ξ 10 [€ 0  02

44

Aún estando sometidas a control diario los componentes electrónicos suministrados por una importante empresa, se estima que la probabilidad de que en un día sean vendidos r r artículos defectuosos es 32  13  si r 0  1  2  3 .>?>?> determinar la probabilidad de que en un día sean vendidos: Problema

Dos o más defectuosos. Pξ

2 D 1  P ξ 1 O P ξ 0 D 1  #

2 1 3 3 

1 D

1 9

0  111

5 artículos defectuosos. P ξ 5 D

2 1 5 3 3

0  0027

Tres o menos artículos defectuosos. Pξ

3 D P ξ 0 J P ξ 1 A P ξ 2 A P ξ 3 D

2 3

1

1 3 

1 9 

1 27 [

Problema Con el fin de estimar la posible ausencia de alumnos en horas clase en la asignatura de Estadística se analiza el número de dñias soleados en una semana lectiva (5 días) de primavera. Para ello se han examinado los datos meteorológicos de 1000 semanas primaverales del último siglo obteniendo la siguiente tabla:

días soleados Frecuencia (semanas

0 38

1 144

2 342

3 287

4 164

5 25

p

2  47 5

Se pide ajustar una distribución binomial a los datos anteriores. BINOMIAL ξ u B 5  p  x

0 4 38  1 4 44  2 4 342  3 4 287  4 4 164  5 4 25 1000

2  47 E  ξLJ n p H

0  494

Se ha observado un telar durante cierto tiempo anotando el número de roturas por cada 10000 pasadas de lanzadera y se ha obtenido lo siguiente:

Problema

no de roturas Frecuencia

0 40

1 48

2 39

3 16

4 5

5 1

6 1

Ajustar una ley de Poisson y calcular las probabilidades del número de roturas. P ξ 0 D 0  254 P ξ 1 D 0  348 P ξ 2 D 0  238 P ξ 3 D 0  108 P ξ 4 D 0  037 P ξ 5 D 0  010 P ξ 6 D 0  0023

45

En una determinada zona geogafica se pretende introducir un nuevo producto del que es razonable esperar sea demandado por el 0,4 % de los habitantes de dicha zona. Determinar la probabilidad de que consultados 1000 de estos dicho producto sea demandado por: Problema

tres o más. cinco o menos ξi 1 P ξ 1 D 0  004 si se demanda el producto ξi 0 P ξ 0 D 0  996 si no se demanda el producto ξ u B n  p I B 1000  0  004  es binomial porque se da para 1000, es decir, se repite 1000 veces, por ello n 1000. P ξ # 3 D 1  P ξ 0 O P ξ 1 F P ξ 2 D 0  7619 P ξ 5 [ P ξ 0 A P ξ 1 A P ξ 2 A P ξ 3 J P ξ 4 A P ξ 5 [ 0  7852 x n x P ξ x D nx  0  004x 0  996n  x x!  nn! x  ! 0  004x 0  996n  x 0!1000! 1000! 0  004 0  996 Como nos encontramos en el caso de que prácticamente n ∞ y p 0 aproximamos con una Poisson en la que λ n p 1000 0  004 4  por tanto: 3  λ x P ξ x D e x! λ calculamos ahora las probabilidades para cada uno de los casos que nos interesan.  4 0 P ξ 0 D e 0!4 0  0183  4 1 P ξ 1 D e 1!4 0  0773  4 2 P ξ 2 D e 2!4 0  1465  4 3 P ξ 3 D e 3!4 0  1954  4 4 P ξ 4 D e 4!4 0  1954

Si nos encontramos ante una distribución binomial en la que n con una Poisson P λ  en la que λ n p

∞y p

0 aproximamos

En una población los individuos con renta superior a 12000 EUR es de 0.005 %, determinar la probabilidad de que entre 5000 individuos consultados haya dos con ese nivel de renta.

Problema

P ξ 1 D 0  005 si la renta es mayor a 12000 EUR. ξi 1 ξi 0 P ξ 0 D 0  996 si la renta es menor a 12000 EUR. ξ u B n  p F B 5000  0  005  es binomial porque se hace un muestreo entre 5000, es decir, se repite 5000 veces, por ello n 5000. Como nos encontramos en el caso de que prácticamente n ∞ y p 0 aproximamos con una Poisson en la que λ n p 5000 0  005 0  25  por tanto: 3

46

Problema

0  252 2!

0  25

e

P ξ 2 D



0  02433

Dada una variable ξ cuya distribución de probabilidad viene dada por: q 3  2 x! 4  x  !

P ξ x K}

x 0 1 2 3 4 resto

0

Determinar: La función de distribución de la variable. P ξ 3 ; P 1

ξ

2  5 ; P ξ



2  5

F x D P ξ

∑Pξ

x D



xi 

xi  x

P P P P P

ξ

ξ

ξ

ξ

ξ

3 2 3 2 3 2 3 2 3 2

0 D

1 D

2 D

3 D

4 D

1 0! 4! 1 1! 3! 1 2! 2! 1 3! 1! 1 4! 0!







3 48 3 12 3 8 3 12 3 48

ξ x P ξ x

T0

T1 0

T0: x e T1: 0 T2: 1 T3: 2 T4: 3 T5: x #

0

xe xe xe xe 2

H

H

F x b

1 H F 2 H F 3 H F 4 H F F x b

0 x D P x D P x D P x D P P ξ

ξ

ξ

ξ

ξ

0 A

0

1

2

3

4

3 48

3 12

3 8

3 12

3 48

T2

T3

1

2

3 0 D 48 0 A P ξ

0 A P ξ

0 A P ξ

P ξ 1 A

47

T4 3

T5 4

1 [ 15 48 1 A P ξ 2 D 33 48 1 A P ξ 2 J P ξ 3 D 45 48 P ξ 2 J P ξ 3 A P ξ 4 D 1

F 2  5 [ P ξ 0 A P ξ 1 A P ξ 2 [

F 1 b P ξ 0 J P ξ 1 D 15 48 P ξ 3 D

P1

ξ

33 48

3 1 2 3! 1!

3 12

2  5 D F 2  5 F F 1 J P ξ 1 D



33 48 

15 48

2  5 D P ξ 0 A P ξ 1 A P ξ 2 D

48



3 12 33 48

6 48

Índice alfabético Amplitud del Intervalo, 9

Nube de Puntos, 20

Bayes, 32

Polígono de Frecuencias, 10 Probabilidad a posteriori, 32 Probabilidad a priori, 32 probabilidad acumulada, 35

Coeficiente de Correlación Lineal, 23 Coeficiente de Determinación, 24 Coeficiente de Variación de Pearson, 16 covarianza, 22 Cuantiles, 13

Recorrido, 15 Recorrido Intercuantílico, 15 Regresión, 23 Relación, 23

Desviación Típica, 16 Diagrama de Barras, 9 Diagrama de Frecuencias Acumuladas, 9 Distribuciones Condicionadas, 21 Distribuciones Marginales, 21

suceso, 26 Tabla de Contingencia, 20 Tabla de Doble Entrada, 20

Espacio Muestral, 26 esperanza matemática, 38 estadística, 6 Estadística Descriptiva, 6

Unión, 27 variable aleatoria, 35 Variable Tipificada, 16 Variables contínuas, 7, 36 variables cualitativas, 6 variables cuantitativas, 6 Variables discretas, 7, 36 Variables Estadísticas Bidimensionales, 20 Varianza, 15, 18, 22

fenómeno, 26 Frecuencia Absoluta, 7 Frecuencia Relativa, 7 frecuencia relativa, 29 Función de Cuantía, 36 Función de distribución, 35, 37 Función de Masa, 36 Histograma, 9 Intersección, 27 Leyes de De Morgan, 27 Marca de Clase, 9 Media, 10 Mediana, 11 Moda, 13 Momentos, 17, 22, 38

49

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.