Varianza y covarianza armónica

Varianza y covarianza armónica Francisco Parra Rodriguez Doctor en Ciencias Económicas. UNED. Series temporales estacionarias. Sea x(t ) un conjunto

8 downloads 30 Views 1MB Size

Recommend Stories


ANÁLISIS DE LA VARIANZA
-1- T1 x11 ! x1n1 T2 x21 ! x2n2 … Tr … xr1 " ! … x rnr INTRODUCCIÓN AL ANÁLISIS DE LA VARIANZA José Luis Vicente Villardón Departamento de Estadí

1. Análisis de la Varianza
1. Análisis de la Varianza Curso 2011-2012 Estadística 1.1 Dos tratamientos Comparación de dos tratamientos A 51,3 39,4 26,3 39,0 48,1 34,2 69,8 31

Análisis de Varianza no paramétricos
Capítulo VII Análisis de Varianza no paramétricos Anova de Kruskal-Wallis Anova de Friedman Anova de Q de Cochran Introducción Las técnicas de anális

6.3. Estimadores Insesgados de Varianza Uniformemente Mínima
6.3. ESTIMADORES INSESGADOS DE VARIANZA UNIFORMEMENTE M´INIMA 6.3. Carlos Erwin Rodr´ıguez Estimadores Insesgados de Varianza Uniformemente M´ınima

Estimadores robustos de autocorrelación espacial basados en la varianza muestral
Vol. 17, 1, 3–17 (2001) Revista Internacional de M´ etodos Num´ ericos para C´ alculo y Dise˜ no en Ingenier´ıa Estimadores robustos de autocorrelac

Story Transcript

Varianza y covarianza armónica Francisco Parra Rodriguez Doctor en Ciencias Económicas. UNED.

Series temporales estacionarias. Sea x(t ) un conjunto de observaciones de una variable aleatoria x , en distintos momentos del tiempo. Consideramos x(t ) como una realización de un proceso estocástico ergódico, ya que solo disponemos de una realización del proceso estocástico que ha generado la serie de datos, dada la imposibilidad de observar distintas realizaciones de x(t ) a lo largo de un periodo de tiempo. Un proceso estocástico es estacionario en sentido estricto, cuando para todo n > 0

la

función

de

distribución

conjunta

de

F ( xt +1 , xt + 2 ,..., xt + n ) = F ( xt +1+ k , xt + 2+ k ,..., xt + n + k ); ∀k . Es decir, la función de distribución conjunta es independiente de t, invariante ante traslaciones de tiempo. En un sentido amplio, para que un proceso sea estacionario es suficiente que su esperanza y su función de autocovarianza sea independiente de t. Es decir, E ( xt ) = E ( xt + k ); ∀k . Si un proceso es estacionario en media, entonces µˆ =

1 n ∑ xi es un estimador n i =1

insesgado y consistente de E ( xt ) . Si un proceso es estacionario en covarianza, se cumple la siguiente igualdad γ (t ,τ ) = E ({x(t ) − E[x(t )]}⋅ {x(t + τ ) − E [x(t + τ )]}) = γ (τ ) , lo que significa que la función de autocovarianza no depende de t, γ (τ ) = γ (−τ ) , y el estimador

de γ (τ ) viene dado por C ( K ) = estimaría a partir de C (0) =

1 n−k ∑ ( xt − µˆ )( xt + k − µˆ ) . La varianza, γ (0) , se n t =1

1 n ∑ ( xt − µˆ )( xt − µˆ ) . n t =1

Ejemplo 1 Generamos una serie aleatoria de 100 datos, con media 0 y desviación tipica 1, que representamos en la figura nº1.

Tabla nº1 100 datos generados aleatoriamente t 1 2 3 4 5 6 7 8 9 10 11

x(t) -0,30023216 -1,27768317 0,24425731 1,27647354 1,19835022 1,7331331 -2,18358764 -0,23418124 1,09502253 -1,08670065 -0,69020416

t 26 27 28 29 30 31 32 33 34 35 36

x(t) -0,5132074 1,97221198 0,86567297 2,37565473 -0,65490667 1,66145583 -1,61239768 0,53894837 0,90219146 1,91891559 -0,08451707

t 51 52 53 54 55 56 57 58 59 60 61

x(t) t x(t) -2,57758074 76 1,11118879 1,44767 77 -1,20117875 -1,27976364 78 -1,55889211 -0,65357995 79 0,7113249 0,75771368 80 0,63840616 0,46671175 81 2,20568836 0,87460876 82 1,44375463 0,59574177 83 1,3039039 -1,37184998 84 0,11296038 -1,11573854 85 0,00195087 0,69399448 86 0,45370143

12 13 14 15 16 17 18 19 20 21 22 23 24 25

-1,69043233 -1,84691089 -0,9776295 -0,77350705 -2,11793122 -0,56792487 -0,40404757 0,13485305 -0,36549295 -0,32699063 -0,37024051 1,34264155 -0,08528446 -0,18615765

37 38 39 40 41 42 43 44 45 46 47 48 49 50

-0,52379505 0,67513838 -0,38132384 0,75761136 -1,44418664 -0,84723752 -1,52157099 -0,36287702 -0,03247919 0,02811703 -0,32271601 2,19450158 -1,74248271 -0,73647698

62 63 64 65 66 67 68 69 70 71 72 73 74 75

0,32263642 87 -0,93983772 88 -0,24094788 89 0,13153567 90 0,55779765 91 0,138715 92 -0,91096126 93 1,88484591 94 0,48719812 95 0,07223889 96 0,82984116 97 0,86200771 98 -0,63653147 99 -0,92319169 100

-0,02551474 -1,05467507 -1,77480615 0,82833139 0,4442245 0,61790615 0,21347319 -1,02693093 1,23819518 -0,31121317 -0,83992177 -0,8211282 -0,42899273 -0,45336151

Se comprueba que se trata de una serie estacionaria en media, ya que cualquier promedio que calculemos con dichos datos dará un resultado cercano a cero: promedio t=1 a t=25 promedio t=30 a t=50 promedio t=40 a t=80 promedio t=50 a t=100

-0,338416294 -0,075718466 -0,118431073 0,011082193

Dado que la media es cero, el estimador de la función de autocovarianza será C(K ) =

1 n− k ∑ ( xt )( xt + k ) n t =1

Que calculado para diferentes valores de k, ofrece los siguientes resultados: K 1 2 3 4 5 6 7 8 8 10 11 12

C(K) 0,104229 0,14519783 -0,05630359 0,14891627 -0,01897189 -0,02496519 -0,15232997 -0,02821422 0,05472689 0,10613953 -0,00643896 -0,02514981

Como se puede apreciar el valor de C(K) es independiente de K, tanto en su valor como en su signo. De esta forma que el proceso aleatorio que ha generado nuestros datos es estacionario. Si generamos a partir de estos datos una serie del tipo Yt = 0,5 + Yt −1 + u t

Yt=0,5+Yt-1+ut 50 40 30 20 10 0 1 -10

7

13 19 25 31 37 43 49 55 61 67 73 79 85 91 97

Obtenemos una serie que

no es estacionaria, ya que los promedios que

obtenemos son diferentes promedio t=1 a t=25 promedio t=30 a t=50 promedio t=40 a t=80 promedio t=50 a t=100

2,09588358 16,3471842 23,4497493 32,0157185

Y una función C ( K ) =

1 n−k ∑ ( xt − µˆ )( xt + k − µˆ ) dependiente del tiempo: n n−1

Análisis espectral La idea básica del análisis espectral es que todo proceso estocástico estacionario admite una descomposición única de su varianza, en la aportación que a la misma realizan armónicos de diferentes frecuencias. Un armónico de frecuencia ω es una función de la forma: aω cos(ω ⋅ t ) + bω sin(ω ⋅ t ) 1

1

La expresión

aω cos(ω ⋅ t ) + bω sin(ω ⋅ t ) da lugar a una función periódica de periodo 2π

ω

En el análisis armónico, las series temporales no son consideradas funciones continuas como tal, sino que se obtienen a partir de una suma de n ciclos con una amplitud y un periodo determinado, o lo que es lo mismo n de diferentes armónicos: n

x(t ) = ∑ a i cos(ω i ⋅ t ) + bi sin(ω i ⋅ t ) ; 0 < ω1 < ω 2 < ... < ω n ≤ π (1) i =1

Siendo a i y bi variables aleatorias con2 E (a i ) = E (bi ) = 0 σ 2 ; si i = j E (a i a j ) = E (bi b j ) =   0; si i ≠ j E (a i b j ) = 0 ∀i, j En este tipo de procesos la función de autocovarianza γ (τ ) se obtiene: n

γ (τ ) = ∑ σ i2 cos(ω i ⋅ τ ) i =1

En donde σ i es la varianza del armónico i-esimo, de manera que en n

γ (0) = ∑ σ i2 se muestra que la varianza total del proceso es la suma de las i =1

varianzas de cada armónico.

2

La estacionariedad de este proceso aleatorio puede seguirse en Contreras, D y Escolano J (1984): http://www.ine.es/revistas/estaespa/104_6.pdf

Series de Fourier3 Una serie de Fourier es una serie infinita que converge puntualmente a una función continua y periódica. ∞

f (t ) = 1 a 0 + ∑ a n cos(n ⋅ ω 0 t ) + bn sin(n ⋅ ω o t ) 2 n =1

Donde ω 0 =

2π se denomina frecuencia fundamental; a n y bn se denominan T

coeficientes de Fourier. Los coeficientes de una serie de fourier pueden calcularse gracias a la ortogonalidad de las funciones seno y coseno. Una

manera

alternativa

de

presentar

una

la

serie

de

Fourier



es f (t ) = C 0 + ∑ C n cos(nω 0 t − θ n ) n =1

Siendo, C o =

a0

2

b , Cn = an2 + bn2 y θ n = arctan n  an

  

Ya que cada par de términos: a n cos(nω 0 t ) + bn sen(nω o t )

se pueden expresar como:

  an bn an2 + bn2  cos(nω0t ) + sen(nω0t )   a 2 + b2  an2 + bn2  n n  haciendo

3

Se puede seguir en "Series de Fourier, Transformadas de Fourier y Aplicaciones",Genaro González, disponible en www.dmae.upm.es/WebpersonalBartolo/VariableCompleja/VCParteI/9_Series_de_Fourier.ppt

 an = cos θ n  2 2 a + b  n n   bn = senθ n  a2 + b2  n n y

 bn    an 

θ n = arctan

la suma puede expresarse solo en función del coseno: C n [cos θ n cos(nω 0 t ) + senθ n sen(nω 0 t )] = C n cos(nω 0 t − θ n )

Ortogonalidad Se dice que las funciones del conjunto { f k (t )} son ortogonales en el intervalo a < t < b si dos funciones cualesquiera f m (t ) , f n (t ) de dicho conjunto cumplen: b

∫ a

0 f m(t)f n(t)dt =  rn

para m ≠ n para m = n

Las funciones sen t y cos t son ortogonales en el intervalo − p < t < p , ya que: π

∫ sent cos tdt =

−π

Las

sen 2t 2

π

=0 −π

funciones

del

{1, cos(ω o t ), cos(2ω o t ), cos(3ω o t ),..., sin(ω o t ), sin(2ω o t ), sin(3ω o t ),...}, son ortogonales en el intervalo −

T T

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.