INTERPRETACIÓN DE LA REGRESIÓN. Interpretación de la regresión

INTERPRETACIÓN DE LA REGRESIÓN Este gráfico muestra el salario por hora de 570 individuos. 1 Interpretación de la regresión . regresión Salario-Est

1 downloads 96 Views 1MB Size

Recommend Stories


LA lmagen DE LA MUJER EN LA POESiA DE JOSEMARTI
LA lMAGEN DE LA MUJER EN LA POESiA DE JOSEMARTI Helena Usandizaga Universitat Autonoma de Barcelona Dos patrias tengo yo: Cuba y la noche. (,0 son un

DOCTRINA DE LA BIBLIA LA DOCTRINA DE LA IGLESIA
DOCTRINA DE LA BIBLIA SEGUNDA EDICIÓN LA DOCTRINA DE LA IGLESIA La doctrina de la iglesia, igual que todas las demás doctrinas de la Biblia, se manif

La Visión de la Epilepsia a Través de la Historia
Bol Clin Hosp Infant Edo Son 2015; 32(2); 87-101 La Visión de la Epilepsia a Través de la Historia. Ana Silvia Figueroa-Duarte* Oscar A. Campbell-Ar

Story Transcript

INTERPRETACIÓN DE LA REGRESIÓN

Este gráfico muestra el salario por hora de 570 individuos. 1

Interpretación de la regresión

. regresión Salario-Estudios Source | SS df MS ---------+-----------------------------Model | 3977.38016 1 3977.38016 Residual | 34419.6569 568 60.5979875 ---------+-----------------------------Total | 38397.0371 569 67.4816117

Number of obs F( 1, 568) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

570 65.64 0.0000 0.1036 0.1020 7.7845

-----------------------------------------------------------------------------SALARIO | Coef. Std. Err. t P>|t| [95% Conf. Interval] ---------+-------------------------------------------------------------------S | 1.073055 .1324501 8.102 0.000 .8129028 1.333206 _cons | -1.391004 1.820305 -0.764 0.445 -4.966354 2.184347 ------------------------------------------------------------------------------

Esta es una salida de ordenador de un programa econométrico típico. 2

Interpretación de la regresión

^

Salario

= - 1.391 + 1.073S

¿Qué significan los coeficientes? 3

Interpretación de la regresión

$11.49 $1.07 Un año $10.41

¿Qué mide la pendiente? 4

Interpretación de la regresión

^

Salario

= - 1.391 + 1.073S

¿Qué significa el término constante? 5

Interpretación de la regresión

^

Salario = - 1.391 + 1.073S

6

Interpretación de la regresión

Ajuste cuadrático 7

BONDAD DE AJUSTE

Tres resultados relevantes:

8

Bondad de ajuste

Tres resultados relevantes:

9

Bondad de ajuste

Tres resultados relevantes:

10

Bondad de ajuste

Tres resultados relevantes:

Demostrad que es igual a 0 11

Bondad de ajuste

Para analizar la bondad del ajuste, descomponemos el valor observado en el valor ajustado y el residuo.

12

Bondad de ajuste

SCT = SCE + SCR R

2

2 2 ei ! SCE ! (Yˆi - Y ) = = = 1SCT ! (Yi - Y ) 2 ! (Yi - Y )2

13

Bondad de ajuste

Otro criterio de bondad de ajuste es la correlacion entre el valor observado y ajustado de la variable Y.

14

ESTIMADORES DE LOS COEFICIENTES DE REGRESIÓN: VARIABLES ALEATORIAS

Los estimadores de los coeficientes de regresión son un tipo particular de variable aleatoria: recordar la definición de un estimador. Para analizarlo, visualizaremos 15 cómo se obtienen los estimadores en el caso de una regresión simple

Estimadores de los Coeficientes de Regresión: variables aleatorias

Por tanto, hemos descompuesto b2 en dos componentes: el verdadero valor del parámetro, !2, y el término de error.

16

Estimadores de los Coeficientes de Regresión: variables aleatorias

Construir un modelo donde Y se determina por X, el valor de los parametros y u Elegir los datos, X

Elegir Elegir una parámetros distribución para u Modelo Generar los valores de Y

Un experimento Monte Carlo es un ejercicio de laboratorio, basado en la utilización de ordenadores, cuyo objetivo es evaluar las propiedades de un estimador en situaciones 17 controladas.

Estimadores de los Coeficientes de Regresión: variables aleatorias

Construir un modelo donde Y se determina por X, el valor de los parametros y u Elegir los datos, X

Elegir parámetros

Elegir una distribución para u

Modelo Generar valores de Y Estimador Estimación El experimento empieza eligiendo los valores de X, los parámetros y la distribución de la perturbación. A partir de aquí se genera el valor de Y. Una vez que tengo (X,Y), aplica el 18 método de MCO y se obtiene una estimación. Este proceso se repite varias veces.

Estimadores de los Coeficientes de Regresión: variables aleatorias

Construir un modelo donde Y se determina por X, el valor de los parametros y u Elegir los datos, X

Elegir parámetros

Elegir una distribución para u

Y = !1 + !2X + u

X= 1, 2, ... , 20

!1 = 2.0 !2 = 0.5

u es i.i.d. N (0,1)

Modelo

Y = 2.0 + 0.5X + u

Generar valores de Y

Generar valores de Y

Estimador

b2 = Cov(X, Y)/Var(X);

Estimación

Estimar el valor de los parámetros

Se regresará Y sobre X usando MCO y, a partir de los estimadores b1 y b2 , se obtendrán estimaciones para los verdaderos valores de !1 y !2. 19

Estimadores de los Coeficientes de Regresión: variables aleatorias

Observad lo que es el componente no estocástico. 20

Estimadores de los Coeficientes de Regresión: variables aleatorias Y = 2.0 + 0.5X + u X 1 2 3 4 5 6 7 8 9 10

2.0+0.5X

u

Y

X

2.5 3.0 3.5 4.0 4.5 5.0 5.5 6.0 6.5 7.0

-0.59 -0.24 -0.83 0.03 -0.38 -2.19 1.03 0.24 2.53 -0.13

1.91 2.76 2.67 4.03 4.12 2.81 6.53 6.24 9.03 6.87

11 12 13 14 15 16 17 18 19 20

2.0+0.5X 7.5 8.0 8.5 9.0 9.5 10.0 10.5 11.0 11.5 12.0

u

Y

1.59 -0.92 -0.71 -0.25 1.69 0.15 0.02 -0.11 -0.91 1.42

9.09 7.08 7.79 8.75 11.19 10.15 10.52 10.89 10.59 13.42

A partir de aquí obtenemos el valor de la variable dependiente. 21

Estimadores de los Coeficientes de Regresión: variables aleatorias

Observad que gráficamente las observaciones ya no están en la recta determinista. 22

Estimadores de los Coeficientes de Regresión: variables aleatorias

De donde obtenemos la recta de regresión. 23

Estimadores de los Coeficientes de Regresión: variables aleatorias

Para comparar, podemos graficar la parte no estocástica verdadera, que es la que surge de la definición del modelo. !2 (tiene como verdadero valor 0.50) y ha sido sobreestimado 24 mientras que !1 (con un valor verdadero de 2.00) ha sido subestimada.

Estimadores de los Coeficientes de Regresión: variables aleatorias

El experimento Monte Carlo consiste en repetir el anterior proceso un número elevado de veces, estimar los parámetros y ver cómo se comportan. Vamos a repetirlo. La verdadera 25 recta es la que se observa en el gráfico, que está dada por la definición del experimento.

Estimadores de los Coeficientes de Regresión: variables aleatorias

A los valores no estocásticos les sumamos un término de perturbación y obtenemos los datos que observamos en la realidad. 26

Estimadores de los Coeficientes de Regresión: variables aleatorias

Nuevamente, ajustamos por MCO y obtenemos la recta de regresión, que nunca coincidirá con la verdadera. 27

Estimadores de los Coeficientes de Regresión: variables aleatorias

replicación

b1

b2

1

1.63

0.54

2

2.52

0.48

3

2.13

0.45

4 5

2.14 1.71

0.50 0.56

6

1.81

0.51

7

1.72

0.56

8

3.18

0.41

9

1.26

0.58

10

1.94

0.52

Esta tabla resume los valores de las estimaciones si repetimos 10 veces el mismo experimento. 28

Estimadores de los Coeficientes de Regresión: variables aleatorias

10 replicaciones Observad el histograma para b2 29

Estimadores de los Coeficientes de Regresión: variables aleatorias

1-10

11-20

21-30

31-40

41-50

0.54

0.49

0.54

0.52

0.49

0.48

0.54

0.46

0.47

0.50

0.45

0.49

0.45

0.54

0.48

0.50 0.56

0.54 0.54

0.50 0.41

0.53 0.51

0.44 0.53

0.51

0.52

0.53

0.51

0.48

0.56

0.49

0.53

0.47

0.47

0.41

0.53

0.47

0.55

0.50

0.58

0.60

0.51

0.51

0.53

0.52

0.48

0.47

0.58

0.51

En el caso de 50 replicaciones, estas serían las estimaciones de !2 . 30

Estimadores de los Coeficientes de Regresión: variables aleatorias

50 replicaciones El histograma ahora sería. 31

Estimadores de los Coeficientes de Regresión: variables aleatorias

100 replicaciones La linea roja muestra la distribución límite, la que se obtendría si hiciéramos muchísimas replicaciones del experimento. Observad que la distribución es simétrica en el verdadero 32 valor del parámetro, confirmando que el estimador es insesgado.

LAS CONDICIONES DE GAUSS-MARKOV Y LA INSESGADEZ DE LOS ESTIMADORES

Regresión simple: Y = !1 + !2X + u Condiciones de Gauss-Markov 1.

E(ui) = 0 Suponga

E(ui) = µu

0.

Definimos

v = u - µu, entonces u = v + µu

Entonces

Y= !1 + !2X + v + µu = (!1 +µu) + !2X + v

donde

E(v) = E(u - µu) = E(u) - E(µu) = 0

Esta condición está relacionada con la perturbación, u. Este supuesto sostiene que el valor esperado de la perturbación es cero, por lo que, en media, no afecta al valor de la variable dependiente: no tiene una tendencia sistemática en ninguna dirección (positiva o negativa). Nótese que el término constante normalmente recoge cualquier tendencia de Y no tomada 33 en cuenta por las variables explicativas.

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Condiciones de Gauss-Markov 2.

La varianza poblacional de ui es la misma para todo i

La segunda condición es que los valores del término de perturbación en las diferentes observaciones son extraídos de una distribución con varianza constante: Homocedasticidad. 34

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Condiciones de Gauss-Markov 3. La covarianza poblacional entre ui y uj es igual a 0, i distinto de j

La tercera condición sostiene que el valor del término de perturbación para una observación no podrá co-variar con ninguna de las otras observaciones: las ui se distribuyen independientemente: Incorrelación.

35

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Condiciones de Gauss-Markov 4.

X no estocástico

Esta condición final puede verse en dos versiones: la fuerte, que supone que las variables explicativas son no estocásticas. La débil: son aleatorias pero se distribuyen de forma independiente al término de perturbación.

Utilizaremos el supuesto fuerte pues facilita el análisis de la propiedad de los estimadores.

36

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Condiciones de Gauss-Markov 4.

X no estocástica

Este ejemplo, de muestra estratificada, es un caso de variables no estocásticas. S n 8 10 9 30 10 50 11 70 12 430 13 100 , etc Suponga que del censo nacional se sabe que el 1% de la población tiene S = 8, el 3% tiene 37 S = 9, el 5% tiene 10, el 7% S = 11, el 43% S = 12 etc.

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Supuesto de Normalidad 5. u tiene una distribución normal.

Además de las condiciones de Gauss-Markov, generalmente se supone que la perturbación tiene distribución normal. Este supuesto permite derivar, de forma sencilla, la distribución de los estadísticos. Justificación: Teorema Central del Límite.

38

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Insesgadez

Por lo tanto, llegamos a que el estimador se descompone en el verdadero valor del parámetro y un término de error que depende de la covarianza entre las variables explicativas y el término de perturbación.

39

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Insesgadez

EJERCICIO: Demostrar que E(Cov(X,u))=0. Para ello, utilizar la definición de covarianzas

40

Las condiciones de Gauss-Markov y la insesgadez de los estimadores

Regresión simple: Y = !1 + !2X + u Insesgadez

EJERCICIO Demostrar que el estimador b1 es insesgado con respecto a !1.

41

ANÁLISIS DE LA PRECISIÓN DE LA REGRESIÓN

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores densidad de b2

!2

b2

Hemos visto que los estimadores b1 y b2 son variables aleatorias que generan estimaciones puntuales de !1 y !2. Sabemos, además, que dichos estimadores son insesgados: la media de la densidad del estimador coincide con el verdadero valor del parámetro, como se 42 observa en el gráfico.

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores densidad de b2 desviación típica de b2

b2

!2

La desviación típica de un estimador mide la precisión del mismo: “lo cerca que estoy del verdadero valor del parámetro”, si interpreto la desviación típica como una distancia. Dada esta interpretación, la desviación típica permite realizar contrastes relacionados con 43 posibles valores del verdadero valor del parámetro.

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores

Varianza poblacional de b1 = " b21 =

" u2 ' X2 $ + &1 # n % Var ( X ) "

" u2 Varianza poblacional de b2 = " = n Var ( X ) 2 b2

Inversamente con n 44

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores

Varianza poblacional

2 $ " u2 ' X b1 = " = &1 + # n % Var ( X ) " 2 b1

" u2 b2 = " = n Var ( X )

Varianza poblacional

2 b2

Proporcional a la varianza de la perturbación

45

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores Y

Y

X

X

Y = 3.0 + 0.8X Observar cómo cambia el ajuste cuando cambia la varianza de las observaciones de la variable dependiente. La gráfica punteada es la verdadera recta de regresión, Y = 3.0 + 0.8X. 46

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores 2 $ " u2 ' X Varianza poblacional de b1 = " = &1 + # n % Var ( X ) " 2 b1

" u2 Varianza poblacional de b2 = " = n Var ( X ) 2 b2

Inversamente proporcional a la varianza de X 47

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores Y

Y

X

X

Y = 3.0 + 0.8X

48

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Varianza de los estimadores

También podemos estimar las desviaciones típicas de los estimadores (las denotamos por s.e. , del inglés standard error) 49

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X = u Varianza de los estimadores . reg EARNINGS S Source | SS df MS ---------+-----------------------------Model | 3977.38016 1 3977.38016 Residual | 34419.6569 568 60.5979875 ---------+-----------------------------Total | 38397.0371 569 67.4816117

Number of obs F( 1, 568) Prob > F R-squared Adj R-squared Root MSE

= = = = = =

570 65.64 0.0000 0.1036 0.1020 7.7845

-----------------------------------------------------------------------------EARNINGS | Coef. Std. Err. t P>|t| [95% Conf. Interval] ---------+-------------------------------------------------------------------S | 1.073055 .1324501 8.102 0.000 .8129028 1.333206 _cons | -1.391004 1.820305 -0.764 0.445 -4.966354 2.184347 ------------------------------------------------------------------------------

50

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Eficiencia densidad de b2

OLS Otros estimadores insesgados

b2

!2

El teorema de Gauss-Markov establece que si el modelo está bien especificado, los estimadores de MCO son los de menor varianza dentro de todos los estimadores insesgados

51

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Eficiencia Y Yn

Yn - Y1

Y1

Xn - X1

X1

Xn

X

52

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X`+ u Eficiencia

Investigaremos las propiedades de este estimador EJERCICIO: calcular la media y la varianza de este estimador

53

Análisis de la precisión de la regresión

Modelo de regresión simple: Y = !1 + !2X + u Eficiencia

Se demuestra que la varianza del estimador MCO es menor que la del estimador alternativo. EJERCICIO: realizar dicha demostración 54

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.