Story Transcript
DISTRIBUCIONES EL´IPTICAS MULTIVARIADAS SINGULARES Y NO SINGULARES: TEOR´IA Y APLICACIONES
V´ıctor Leiva S´anchez Departamento de Estad´ıstica Universidad de Valpara´ıso CHILE
Y
Jos´e A. D´ıaz Garc´ıa Departamento de Estad´ıstica y C´alculo Universidad Aut´onoma Agraria Antonio Narro ´ MEXICO
Pr´ ologo La distribuci´on Normal multivariada ha servido durante mucho tiempo como modelo est´andar para observaciones provenientes de diferentes ´areas, siendo ´esta el objetivo central del an´alisis multivariante cl´asico. Sin embargo, a trav´es de los a˜ nos los estad´ısticos han tratado de extender la teor´ıa de este an´alisis a casos m´as generales y, por lo tanto, con mayor cobertura. ´ Ultimamente se ha planteado una clase de distribuciones cuyos contornos de sus densidades tienen la misma forma el´ıptica de la Normal, pero adem´as contienen distribuciones de colas m´as y menos pesadas que las de ´esta. Esta clase de distribuciones sim´etricas se denomina distribuciones Contornos El´ıpticos o simplemente distribuciones El´ıpticas. En el an´alisis multivariante, la familia de distribuciones El´ıpticas proporciona una alternativa y una generalizaci´on de la distribuci´on Normal, ya que ´esta u ´ltima es un caso particular de tal familia, por lo que da origen a lo que hoy se denomina An´alisis Multivariado Generalizado. La utilizaci´on de distribuciones El´ıpticas en problemas que s´olo han sido resueltos con la distribuci´on Normal, permite generalizar la teor´ıa hasta ahora planteada. Algunos de estos problemas ya han sido resueltos para las distribuciones El´ıpticas no singulares, aunque no as´ı para el caso singular. Espec´ıficamente, cuando se muestrea desde una poblaci´on El´ıptica, el problema de las distribuciones de muestreo tradicionalmente usadas, esto es, las distribuciones chi-cuadrado, t y F, que bajo distribuciones El´ıpticas se denominan distribuciones chi-cuadrado,t y F, ha sido parcialmente resuelto. Quedando abierto el problema desde la perspectiva de las distribuciones El´ıpticas singulares y para las distribuciones t y F doble no centradas generalizadas. Por otra parte, el inter´es puede radicar en la estimaci´on e inferencia 1
2 de los par´ametros de dispersi´on de la poblaci´on en estudio. Bien se sabe que las medidas de dispersi´on se utilizan para evaluar la variabilidad de un conjunto de datos, siendo la desviaci´on est´andar la m´as utilizada; sin embargo, ´esta entrega poca informaci´on del conjunto si es interpretada en forma aislada, s´olo cuando se la relaciona con la media su interpretaci´on tiene mayor sentido. Por esta raz´on el coeficiente de variaci´on, que relaciona a ambas medidas, es sumamente u ´til. Este coeficiente mide la dispersi´on u homogeneidad de un conjunto de datos asociados a una variable aleatoria y es una medida de variabilidad relativa, es decir, es adimensional, pues representa a la desviaci´on est´andar por una unidad de media y resulta de particular inter´es cuando se desea comparar la variabilidad entre grupos cuyas medias y varianzas difieren. Sus aplicaciones son diversas y se lo ha empleado con mucho ´exito en la medici´on de la variabilidad relativa. Por ejemplo, se lo ha utilizado ampliamente para comparar m´etodos de medici´on; en Finanzas, se lo ha usado para medir el riesgo relativo de rentas variables; en Teor´ıa de Inventarios para comparar la variabilidad de dos niveles de almacenamiento y tambi´en se ha aplicado el coeficiente de variaci´on en Ciencias F´ısicas, Biol´ogicas y M´edicas. Dentro del contexto de la Estad´ıstica se pueden encontrar tambi´en aplicaciones del coeficiente de variaci´on en un problema de muestreo, espec´ıficamente en la determinaci´on del tama˜ no de la muestra, al emplear una prueba de hip´otesis para el coeficiente de variaci´on para evaluar la no normalidad de una variable aleatoria positiva, en Modelos Lineales y en Confiabilidad, entre otras. Existen en la actualidad excelentes libros y art´ıculos que recogen las investigaciones hechas hasta la fecha acerca de la distribuciones El´ıpticas, como lo son los libros [1], [32], [31], [39] y [70], y diversas publicaciones, entre las que se encuentran los trabajos [50], [16], [18], [49], [15], [12] y [83], y los trabajos recientes [5] y [54], entre otros. Aunque a partir de 1970 estas distribuciones comenzaron su auge, se registran estudios anteriores, como lo son [72] y [56]. Asimismo, las distribuciones de formas cuadr´aticas y distribuciones asociadas al muestreo, obtenidas a partir de distribuciones El´ıpticas, fueron estudiadas y publicadas en [11], [34], [4] y [78], entre otros.
3 Por otra parte, los primeros resultados distribucionales del CV de una poblaci´on Normal se remontan a los estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi cuatro d´ecadas, en [44] se retoma el tema comparando aproximaciones de percentiles del CV muestral con los resultados hasta ah´ı propuestos. Posteriormente en [6] se plantea un contraste aproximado para probar la homogeneidad de coeficientes de variaci´on. En [7] se encuentra un test basado en el estad´ıstico de raz´on de verosimilitud para contrastar estas mismas hip´otesis. Luego en [63] se propone un nuevo contraste para la igualdad de dos coeficientes de variaci´on, en [30] se generaliza a k muestras, y en [77] se presentan estudios de simulaci´on de estos contrates. Por su parte, en [43] se realiza inferencia para el CV de una distribuci´on Inversa Gaussiana. En [62], y posteriormente en [35], se presentan pruebas de hip´otesis asint´oticas para el coeficiente de variaci´on de una, dos y k muestras, junto con estudios de simulaci´on. En [40] se entregan diversos resultados que permiten probar la igualdad de coeficientes de variaci´on de k muestras provenientes de poblaciones normales basados en la revisi´on de contrastes ya conocidos, como lo son las pruebas de Bennet, de raz´on de verosimilitud, de la t no centrada, de Wald -la que extienden a k muestras y para distintos tama˜ nos de ´estas- y adem´as presentan un nuevo contraste basado en la prueba de Score. En [64] se hace inferencia asint´otica para el CV de una poblaci´on Normal presentando f´ormulas para estad´ısticos de prueba, a trav´es de los cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de los resultados planteados para el CV de una poblaci´on Normal son extendidos en [54] al caso de una poblaci´on El´ıptica. A partir de esto el queda abierta la aplicaci´on de las distribuciones El´ıpticas singulares sobre: las distribuciones chi-cuadrado, t y F generalizadas centradas y no centradas, las distribuciones t y F generalizadas doble no centradas, y sobre la inferencia para el coeficiente de variaci´on de una poblaci´on El´ıptica. Se estudia en este trabajo el problema de singularidad de una distribuci´on El´ıptica, pues la densidad multivariada no existe en todo IRn , tal como se menciona en [32] y [69]; sin embargo, dicha densidad s´ı existe en un subespacio de IRn , tal como se presenta en este trabajo. Se
4 tratan tambi´en aqu´ı problemas asociados con distribuciones empleadas en el muestreo, como lo son la distribuci´on chi-cuadrado generalizada centrada y no centrada, la distribuci´on t generalizada centrada y no centrada y la distribuci´on F generalizada centrada, no centrada y doble no centrada, bajo singularidad y no singularidad de la ley El´ıptica asociada. Finalmente, a trav´es de las distribuciones El´ıpticas, de la distribuci´on t generalizada no centrada y del caso de muestras grandes, se estudia el aspecto distribucional e inferencial del coeficiente de variaci´on poblacional, tanto para el caso de una poblaci´on El´ıptica con estructura dependiente e independiente. Las aportaciones espec´ıficas que se hacen en este trabajo, son: (1) Hallar la densidad de una vector aleatorio El´ıptico singular siguiendo el argumento propuesto en [69, p. 527] y se hallan las distribuciones χ2 , t y F generalizadas asociadas a este vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la distribuci´on El´ıptica afecta los grados de libertad de tales distribuciones. Posteriormente, se utilizan dos distribuciones El´ıpticas singulares espec´ıficas, como lo son la Pearson tipo VII y la de tipo Kotz, hallando as´ı expl´ıcitamente las densidades de estas distribuciones. Finalmente, se tratan dos aplicaciones de la distribuci´on El´ıptica singular. La primera de ellas relacionada con la distribuci´on de los residuos de un modelo lineal El´ıptico y la segunda relacionada con el estad´ıstico t generalizado, basado en una muestra obtenida desde una poblaci´on El´ıptica. (2) Presentar las distribuciones t y F generalizadas, tanto para el caso centrado, no centrado y doble no centrado, y bajo singularidad y no singularidad de la distribuci´on El´ıptica asociada, en cuyo caso la singularidad de la distribuci´on afecta los grados de libertad de las distribuciones t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas centradas, se usa la invarianza de tales distribuciones bajo leyes El´ıpticas con par´ametro de posici´on igual a cero, coincidiendo con las del caso Normal. Para las distribuciones F generalizadas no centrada y doble no centrada, se presentan sus densidades tanto en t´erminos de integrales como de las derivadas de la funci´on generadora de densidades asociada a cada distribuci´on El´ıptica, y por ende de cada distribuci´on F generalizada. En el caso de la distribuciones t generalizadas no
5 centrada y doble no centrada no es posible obtener esta representaci´on, por lo que su densidad s´olo se expresa a trav´es de integrales. Finalmente se ilustran todos estos resultados para dos subfamilias de distribuciones El´ıpticas, como lo son la distribuci´on de Pearson tipo VII y la distribuci´on de tipo Kotz, subfamilias que a su vez contienen como casos particulares a las distribuciones El´ıpticas t y Normal multivarian-tes, respectivamente. En esta ilustraci´on y para el caso de la distribuci´on F generalizada, se observa la evidente simplificaci´on que se produce al usar la densidad en t´erminos de la derivada de la gene-radora de densidades en lugar de la expresi´on integral. Sin embargo, se debe tener presente que la aplicaci´on de este resultado es s´olo posible cuando la generadora de densidades, asociada a la particular distribuci´on El´ıptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre cuando existen los momentos de dicha distribuci´on. Como no todas las distribuciones El´ıpticas disponen de momentos, como por ejemplo la distribuci´on de Cauchy, esto motiva entonces la existencia de las dos expresiones para la densidad. (3) Proponer un coeficiente de variaci´on generalizado, como una medida de varia-bilidad relativa, v´alido para poblaciones cuya distribuci´on carece de primer y segundo momento (los momentos de una distribuci´on El´ıptica pueden verse en [32][p. 67])). Esta medida se puede entender como una generalizaci´on del CV y se define como la ra´ız cuadrada del par´ametro de escala dividido por el par´ametro de posici´on. Se analizan aspectos distribucionales e inferenciales de este CV generalizado bajo dos modelos El´ıpticos, como lo son el modelo dependiente (el vector aleatorio tiene una estructura dependiente con distribuci´on El´ıptica multivariada) y el modelo independiente (cada variable aleatoria del vector es independiente e id´enticamente distribuida El´ıptica univariada). Espec´ıficamente, para ambos modelos (dependiente e independiente) se encuentra el estimador de verosimilitud m´axima (EVM) y, en forma alternativa, se plantea un estimador tipo momentos (EM) para el CV. El EVM queda expresado en t´erminos de las funciones f y φ asocia-das a cada ley El´ıptica, por lo cual en esta secci´on s´olo es posible hallar una expresi´on general para este estimador. Posteriormente se presenta la distribuci´on exacta del inverso del EVM del CV para el modelo dependiente y la distribuci´on asint´otica del EVM y del EM del CV bajo el modelo independiente. A partir de estas distribu-
6 ciones se obtienen intervalos de confianza y pruebas de hip´otesis para el CV. Los resultados obtenidos bajo el modelo dependiente son ilustrados a trav´es de dos subfamilias de distribuciones El´ıpticas, como lo son la distribuci´on de Pearson Tipo VII y la distribuci´on de Tipo Kotz, permitiendo encontrar as´ı expresiones expl´ıcitas para los resultados planteados; particularmente se estudian las distribuciones t-multivariada y de Cauchy (esta u ´ltima distribuci´on carece de momentos), como casos particulares de la subfamilia El´ıptica de Pearson Tipo VII, y la distribuci´on Normal, como caso particular de la subfamilia de Tipo Kotz. Los resultados encontrados bajo el modelo independiente se particularizan para la distribuciones univariadas t con s grados de libertad y Normal, incluyendo adem´as la eficiencia relativa asint´otica (ERA) de los estimadores hallados. Finalmente se entrega una detallada lista de aplicaciones del CV. Este trabajo ha sido estructurado en dos partes y seis cap´ıtulos. La primera parte presenta aspectos introductorios de la distribuciones El´ıpticas y del ´algebra matricia, la cual est´a estructurada en 3 cap´ıtulos. En el primero de ellos se proporcionan los aspectos preliminares, requeridos para solucionar algunos problemas que se resuelven en los cap´ıtulos subsiguientes. En el segundo cap´ıtulo se introducen las distribuciones El´ıpticas y Esf´ericas, en ´el se presentan resultados conocidos de estas distribuciones y sus relaciones con la distribuci´on Normal. En el cap´ıtulo tercero se tratan las distribuciones empleadas habitualmente en el muestreo, en este caso de una poblaci´on El´ıptica, como lo son las distribuciones chi-cuadrado, t y F generalizadas, para los casos centrados y no centrados, basados en resultados ya conocidos. En la segunda parte se presentan los resultados de las 3 aportaciones originales propuestas en este trabajo, sol´o planteadas hasta ahora en art´ıculos. la cual est´a compuesta por los Cap´ıtulos cuatro, cinco y seis de este trabajo. En el cap´ıtulo cuatro se trata la distribuci´on El´ıptica singular, se encuentra su densidad y se presentan dos aplicaciones de ´esta. En el cap´ıtulo cinco se presentan las distribuiciones t y F generalizadas doble no centradas, se halla su densidad bajo singularidad y no singularidad de la ley El´ıptica asociada. En el cap´ıtulo seis se presentan todos los aspectos relacionados con la inferencia del coeficiente de variaci´on de una poblaci´on El´ıptica con estructura dependiente e independiente, as´ı como los aspectos distribucionales de los estimadores del coeficiente de variaci´on planteados. Finalmente, se acompa˜ na a una
7 extensa bibliograf´ıa del tema que fue revisada por el autor.
8
Notaci´ on y Abreviaturas IRn
: Espacio real n-dimensional.
A ∈ IRn×p
: Matriz real de dimension n × p.
A, B, C, . . .
: Matrices constantes.
a, b, c, . . .
: Constantes reales.
X, Y, Z, . . .
: Vectores aleatorios.
X, Y, Z, . . .
: Variables aleatorias.
aij
: El ij-´esimo elemento de la matriz A.
AT
: La transpuesta de A.
In
: Matriz identidad de orden n.
eni
: Vector unitario de orden n.
aj
: j-´esima columna de la matriz A.
a(i)
: i-´esima fila de la matriz A.
|A|
: Determinante de A.
A−1
: Inversa de A.
A−
: Inversa generalizada de A.
Ac
: Inversa condicional de A. 9
10 rk A
: Rango de A.
tr A
: Traza de A.
diag A
: Matriz diagonal.
UT
: Conjunto de matrices triangulares superiores.
LT
: Conjunto de matrices triangulares inferiores.
f (·)
: Funci´on real valorada f .
f 0 (·)
: Derivada de la funci´on f .
f (2k) (·)
: Derivada 2k-´esima de la funci´on f .
A>0
: Matriz definida positiva.
A≥0
: Matriz semi-definida positiva.
A⊗B
: Producto Kronecker de las matrices A y B.
O(p)
: Conjunto de matrices ortogonales ∈ IRp×p .
Vn,n−p
: Variedad de Stiefel ∈ IRn×(n−p) .
Im A
: Imagen de A.
t.c.e.g.
: Transformaci´on de coordenadas esf´ericas generalizadas.
J(X → Y)
: Jacobiano de la transformaci´on de X a Y.
IE(X)
: Valor esperado de X.
V ar(X)
: Varianza de X.
11 ψX (t)
: Funci´on caracter´ıstica de X.
f.c.
: Funci´on Caracter´ıstica. d
X=Y
: X e Y tienen la misma distribuci´on.
Nn (·, ·)
: Distribuci´on Normal multivariada.
ECn (·, ·; ·)
: Distribuci´on El´ıptica en IRn .
Sn (·)
: Distribuci´on Esf´erica en IRn .
Beta(·, ·)
: Distribuci´on Beta.
PnV II (·)
: Distribuci´on de Pearson tipo VII multivariada.
PnII (·)
: Distribuci´on de Pearson tipo II multivariada.
U ni{EkXk = 1} : Distribuci´on Uniforme en la esfera unitaria. tn (·, ·)
: Distribuci´on t-multivariada.
Kn (·, ·)
: Distribuci´on de tipo Kotz en IRn .
Gχ2
: Distribuci´on chi-cuadrado generalizada.
Gt
: Distribuci´on t generalizada.
GF
: Distribuci´on F generalizada.
GF 00
: Distribuci´on F generalizada doble no centrada.
EMV(θ)
: Estimador M´aximo Veros´ımil de θ.
CV
: Coeficiente de Variaci´on.
TRV
: Test de Raz´on de Verosimilitud.
12
Contents I
ASPECTOS INTRODUCTORIOS
17
1 Preliminares
19
1.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19
1.2
Aspectos de Teor´ıa Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
1.2.1
Matrices Ortogonales y Semi-ortogonales . . . . . . . . . . . . . . . . .
20
1.2.2
Determinante de una Matriz . . . . . . . . . . . . . . . . . . . . . . . .
21
1.2.3
Inversi´on de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . .
22
1.2.4
Partici´on de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
1.2.5
Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . .
24
1.2.6
Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . .
25
1.2.7
Formas Cuadr´aticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
1.2.8
Matrices Definidas y Semi-definidas Positivas . . . . . . . . . . . . . . .
27
1.2.9
Proyecciones Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . .
27
1.2.10 Factorizaciones de Matrices . . . . . . . . . . . . . . . . . . . . . . . .
28
1.2.11 Inversa Generalizada de una Matriz . . . . . . . . . . . . . . . . . . . .
31
1.2.12 Producto Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
Evaluaci´on del Jacobiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
1.3.1
34
1.3
La Transformaci´on de Coordenadas Esf´ericas Generalizadas
. . . . . .
2 Distribuciones de Contornos El´ıpticos 2.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
37 37
14
CONTENTS 2.2
Distribuci´on El´ıptica No Singular . . . . . . . . . . . . . . . . . . . . . . . . .
38
2.2.1
Distribuciones El´ıpticas y Esf´ericas . . . . . . . . . . . . . . . . . . . .
38
2.2.2
Representaci´on Estoc´astica . . . . . . . . . . . . . . . . . . . . . . . . .
39
2.2.3
Distribuciones Marginales . . . . . . . . . . . . . . . . . . . . . . . . .
41
2.2.4
Distribuciones Condicionales . . . . . . . . . . . . . . . . . . . . . . . .
41
2.2.5
Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
2.2.6
Caracterizaciones de Normalidad . . . . . . . . . . . . . . . . . . . . .
43
2.2.7
Distribuci´on Invariante . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
2.2.8
Distribuciones El´ıpticas Particulares . . . . . . . . . . . . . . . . . . .
45
3 Distribuci´ on de Formas Cuadr´ aticas 3.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
3.2
Distribuci´on Chi-cuadrado Generalizada . . . . . . . . . . . . . . . . . . . . .
50
3.2.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
3.2.2
Distribuci´on Chi-cuadrado Generalizada Centrada y No Centrada . . .
50
Distribuci´on t Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
3.3.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
3.3.2
Distribuci´on t Generalizada Centrada y No Centrada . . . . . . . . . .
57
Distribuci´on F Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
3.4.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
3.4.2
Distribuci´on F Generalizada Centrada y No Centrada . . . . . . . . . .
63
3.3
3.4
II
49
RESULTADOS
4 Distribuci´ on El´ıptica Singular
69 71
4.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
4.2
Densidad de una distribuci´on El´ıptica Singular . . . . . . . . . . . . . . . . . .
71
4.3
Distribuciones χ2 , t y F Generalizadas . . . . . . . . . . . . . . . . . . . . . .
77
Distribuci´on χ2 Generalizada . . . . . . . . . . . . . . . . . . . . . . .
77
4.3.1
CONTENTS
4.4
15
4.3.2
Distribuci´on t Generalizada . . . . . . . . . . . . . . . . . . . . . . . .
80
4.3.3
Distribuci´on F Generalizada . . . . . . . . . . . . . . . . . . . . . . . .
83
Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
4.4.1
Distribuci´on de los Residuos de un Modelo Lineal El´ıptico . . . . . . .
85
4.4.2
Distribuci´on del Estad´ıstico t Generalizado . . . . . . . . . . . . . . . .
87
5 Distribuciones Gt y GF Doble No Centrada
91
5.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
5.2
Distribuci´on Gt Doble No centrada . . . . . . . . . . . . . . . . . . . . . . . .
93
5.2.1
Distribuci´on Gt No Centrada . . . . . . . . . . . . . . . . . . . . . . .
93
5.2.2
Distribuci´on Gt bajo una Ley de Pearson Tipo VII Singular . . . . . .
95
5.2.3
Distribuci´on Gt bajo una Ley de Tipo Kotz Singular . . . . . . . . . .
97
5.2.4
Distribuci´on Gt Doble No Centrada . . . . . . . . . . . . . . . . . . . .
99
5.3
Distribuci´on GF Doble No Centrada . . . . . . . . . . . . . . . . . . . . . . . 100 5.3.1
Distribuci´on GF No Centrada . . . . . . . . . . . . . . . . . . . . . . . 101
5.3.2
Distribuci´on GF bajo una Ley de Pearson Tipo VII Singular . . . . . . 103
5.3.3
Distribuci´on GF bajo una Ley de Tipo Kotz . . . . . . . . . . . . . . . 106
5.3.4
Distribuci´on GF Doble No Centrada . . . . . . . . . . . . . . . . . . . 109
6 Inferencias para el CV bajo una Ley El´ıptica
113
6.1
Introducci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2
Especificaci´on de los Modelos . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.3
6.4
6.2.1
Modelo El´ıptico con Estructura Dependiente . . . . . . . . . . . . . . . 117
6.2.2
Modelo El´ıptico con Estructura Independiente . . . . . . . . . . . . . . 117
Estimadores del CV de una Poblaci´on El´ıptica . . . . . . . . . . . . . . . . . . 118 6.3.1
Estimadores del CV bajo el Modelo D . . . . . . . . . . . . . . . . . . 118
6.3.2
Estimadores del CV bajo el Modelo I . . . . . . . . . . . . . . . . . . . 120
Distribuciones Asociadas al Estimador del CV . . . . . . . . . . . . . . . . . . 120 6.4.1
Distribuci´on del EVM del CV bajo el Modelo D . . . . . . . . . . . . . 121
16
CONTENTS 6.4.2 6.5
6.6
6.7
Distribuci´on Asint´otica del CV bajo el Modelo I . . . . . . . . . . . . . 121
Intervalos de Confianza para el CV de una poblaci´on El´ıptica . . . . . . . . . . 124 6.5.1
Intervalo de Confianza para el CV bajo el Modelo D . . . . . . . . . . . 124
6.5.2
Intervalo de Confianza para el CV bajo el Modelo I . . . . . . . . . . . 125
Pruebas de Hip´otesis para el CV de una Poblaci´on El´ıptica . . . . . . . . . . . 126 6.6.1
Prueba de Hip´otesis para el CV bajo el Modelo D . . . . . . . . . . . . 126
6.6.2
Prueba de Hip´otesis para el CV bajo el Modelo I . . . . . . . . . . . . 126
Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Part I ASPECTOS INTRODUCTORIOS
17
Chapter 1 Preliminares 1.1
Introducci´ on
Este cap´ıtulo presenta los aspectos preliminares de este trabajo y est´a compuesto por dos secciones; en la primera de ellas se encuentran definiciones y resultados conocidos del ´algebra matricial, como lo son los de: matrices ortogonales y semi-ortogonales, determinante y rango de una matriz, inversi´on y partici´on de matrices, valores y vectores propios de una matriz, formas cuadr´aticas, matrices definidas y semidefinidas positivas, proyecciones ortogonales, factorizaci´on de matrices e inversas generalizadas de un matriz; cada uno de los cuales se hace necesario para el mejor entendimiento de este trabajo, ya se que emplean con bastante frecuencia durante el desarrollo de ´este, pudiendo encontrar mayores detalles de esta ´ secci´on en cualquier libro de Algebra Lineal, como por ejemplo en citeg:76, entre otros. En la segunda secci´on se presenta la evaluaci´on de jacobianos de transformaciones, enfatizando particularmente en la transformaci´on de coordenadas esf´ericas generalizadas, ya que dicha transformaci´on es utilizada ampliamente a lo largo de este trabajo, mayores detalles de esta secci´on pueden hallarse en [32], as´ı como en otros libros de la bibliograf´ıa. Otros aspectos matem´aticos as´ı como de teor´ıa estad´ıstica, utilizados en este trabajo, fueron omitidos en estos preliminares, pudiendo de cualquier forma revisarse en [69] o [65], as´ı como en los antes mencionados y en otros que aparecen en la bibliograf´ıa. 19
20
CHAPTER 1. PRELIMINARES
1.2
Aspectos de Teor´ıa Matricial
Se presentan a continuaci´on los elementos del ´algebra matricial m´as utilizados durante este trabajo, ya descritos anteriormente y que juegan un importante papel en algunas secciones de ´este. Una matriz A ∈ IRn×p es un arreglo rectangular de elementos aij , tal que
a11 . .. A=
. . . a1p . .. . ..
an1 . . . anp
.
(1.1)
Tambi´en se puede escribir A = (aij ), aij ∈ IR. Para la definici´on anterior considere que 1. si n = p, entonces se dice que A es cuadrada de orden p. 2. AT es la transpuesta de A y tiene orden p × n. 3. si AT = A, se dice que A es sim´etrica. 4. si A es cuadrada y todos los elementos que est´an fuera de la diagonal son ceros, entonces A se dice que es una matriz diagonal y se denota por A = diag(aii ). Si para A = (aij ), aij = 0, ∀ j < i, entonces A se dice matriz triangular superior y se denota por A ∈ UT(p); si aij = 0, ∀ j > i, entonces A se dice matriz triangular inferior y se denota por A ∈ LT(p). 5. si todos los elementos de A son ceros, entonces A se denomina matriz nula y se denota por A = 0.
1.2.1
Matrices Ortogonales y Semi-ortogonales
[Conjunto de Matrices Ortogonales] El conjunto de matrices ortogonales, denotado por O(p), es aqu´el que contiene a todas las matrices H ∈ IRp×p , tal que H T H = Ip , esto es, O(p) = {H ∈ IRp×p | H T H = Ip }.
1.2. ASPECTOS DE TEOR´IA MATRICIAL
21
[Matriz Ortogonal] Sea A ∈ IRp×p . Entonces, si A ∈ O(p) se dice que es una matriz ortogonal. [Conjunto de Matrices Semi-ortogonales] El conjunto de matrices semi-ortogonales, tambi´en llamado Variedad de Stiefel y denotado por Vn,p , es aqu´el que contiene a todas las matrices H ∈ IRn×p , tal que H T H = Ip , esto es, Vn,p = {H ∈ IRn×p | H T H = Ip }, es decir, las columnas de H son ortonormales. [Matriz Semi-ortogonal] Sea A ∈ IRn×p . Entonces, si A ∈ Vn,p , se dice que A es una matriz semi-ortogonal.
1.2.2
Determinante de una Matriz
[Determinante] Sea A ∈ IRp×p . Entonces, el determinante de A, denotado por |A|, viene dado por |A| = donde
X
²π a1j1 a2j2 ... apjp ,
(1.2)
π
P π
denota la suma sobre todas las p! permutaciones π = (j1 , ..., jp ) de (1, ..., p) y ²π = 1
´o −1, dependiendo si la permutaci´on es par o impar. Sea A ∈ IRp×p , tal que 1. si ai = 0 ´o a(j) = 0, para alg´ un i o j, entonces |A| = 0. 2. |A| = |AT |. 3. |(a1 . . . ai−1 α · ai ai+1 . . . ap )| = α |A|, α ∈ IR. 4. |α A| = αp |A|, α ∈ IR.. 5. |AB| = |A| · |B|, B ∈ IRp×p . 6. |A1 · . . . · An | = |A1 | · . . . · |An |, Ai ∈ IRp×p , i = 1, ..., n.
22
CHAPTER 1. PRELIMINARES 7. |AAT | = |AT A| ≥ 0.
A C
8.
=
0 B
A
0
D B
= |A| · |B|, donde B ∈ IR
q×q
, C ∈ IRp×q y D ∈ IRq×p .
9. |Ip + BC| = |Iq + CB|, donde B ∈ IRp×q y C ∈ IRq×p . 10. |T | =
p Y
tii , si T = (tij ) ∈ UT(p).
i=1
11. |H| = ±1, si H ∈ O(p).
1.2.3
Inversi´ on de Matrices
[Matriz Inversa] Sea A ∈ IRp×p y |A| 6= 0. Entonces, existe una u ´nica matriz B ∈ IRp×p tal que AB = Ip y B es llamada la inversa de A y se denota por A−1 . Una matriz cuyo determinante es distinto de cero se denomina no singular. . Sea A ∈ IRp×p , tal que 1. AA−1 = A−1 A = Ip . 2. (A−1 )T = (AT )−1 . 3. (AB)−1 = B −1 A−1 , si A y B son matrices no singulares. 4. |A−1 | = |A|−1 . 5. A−1 = AT , si A ∈ O(p). 6. Si A = diag(aii ), con aii 6= 0, ∀ i = 1, ..., p, entonces A−1 = diag(a−1 ii ), ∀ i = 1, ..., p. 7. Si A ∈ UT(p), entonces A−1 ∈ UT(p) y sus elementos en la diagonal son a−1 ii , ∀ i = 1, ..., p.
1.2. ASPECTOS DE TEOR´IA MATRICIAL
1.2.4
23
Partici´ on de Matrices
Una matriz no singular A ∈ IRp×p se dice que est´a particionada en submatrices si, para i, j = 1, 2, A puede escribirse de la forma
A11 A12 A= , A21 A22
(1.3)
donde A11 ∈ IRm×q , A12 ∈ IRm×(p−q) , A21 ∈ IR(n−m)×q y A22 ∈ IR(n−m)×p−q . Sean A, B y C matrices de ´ordenes adecuados y particionadas apropiadamente. Entonces,
A11 + B11
1. A + B =
A12 + B12
A21 + B21 A22 + B22
y
A11 C11 + A12 C21 A11 C12 + A12 C22
2. AC =
A21 C11 + A22 C21 A21 C12 + A22 + C22
.
3. Sea A ∈ IRp×p una matriz no singular, tal que B = A−1 . Particione A y B de manera similar y de la misma forma que antes, esto es,
A11
A=
A12
A21 A22
B11
y B=
B12
B21 B22
,
donde A11 , B11 ∈ IRq×q y A22 , B22 ∈ IR(p−q)×(p−q) , con A11 y A22 no singulares. Denote ahora A11.2 = A11 − A12 A−1 22 A21
y A22.1 = A22 − A21 A−1 11 A12 .
Entonces, B11 = A−1 11.2
−1 , B12 = −A−1 11 A12 A22.1 ,
−1 B21 = −A−1 22 A21 A11.2
, B12 = A−1 22.1 ,
−1 −1 −1 , B12 = −A11.2 A12 A−1 B11 = A−1 22 , 11 + A11 A12 A22.1 A21 A11 −1 B21 = −A−1 22.1 A21 A11
−1 −1 −1 y B22 = A−1 22 + A22 A21 A11.2 A12 A22 .
(1.4)
24
CHAPTER 1. PRELIMINARES 4. Sea A ∈ IRp×p particionada como en (2.3) y A11.2 y A22.1 como en (2.4). As´ı, (a) si |A22 | 6= 0, entonces |A| = |A22 | |A11.2 |. (b) si |A11 | 6= 0, entonces |A| = |A11 | |A22.1 |. (c) si |A11 | 6= 0, entonces |A11 | |A22.1 | = |A22 | |A11.2 |. 5. Sean A ∈ IRp×p y B ∈ IRq×q matrices no singulares, C ∈ IRp×q y D ∈ IRq×p . As´ı, (A + CBD)−1 = A−1 − A−1 CB(B + BDA−1 CB)−1 BDA−1 .
(1.5)
6. Si X ∈ IRn×p , entonces X X= T
1.2.5
XT1 X1 . . . XT1 Xp .. .. ... . . XTp X1
... XTp Xp
n X = X(i) XT(i) . i=1
(1.6)
Rango de una Matriz
[Rango de una Matriz] Sea A ∈ IRn×p una matriz distinta de la matriz nula. Entonces, si r de las columnas o filas de A son linealmente independientes, A tiene rango r ≤ min(p, n), denot´andolo por rk A = r. Sea A ∈ IRn×p , tal que 1. rk 0 = 0 2. rk A = p, si A es una matriz cuadrada y no singular. 3. rk A = rk AT = rk AAT = rk AT A. 4. rk(AB) ≤ min(rk A, rk B), B ∈ IRp×m . 5. rk(A + C) ≤ (rk A + rk C), C ∈ IRn×p . 6. rk(ABC) = rk B, si A y C son matrices cuadradas no singulares de ´ordenes adecuados. 7. si AB = 0, con B ∈ IRp×m , entonces rk B ≤ (p − rk A).
1.2. ASPECTOS DE TEOR´IA MATRICIAL
1.2.6
25
Valores y Vectores Propios
[Valor Propio] Sea A ∈ IRp×p . Entonces, los valores propios de A est´an dados por las ra´ıces de la ecuaci´on caracter´ıstica en λ, asociados al polinomio caracter´ıstico |A − λI|, dadas por |A − λI| = 0.
(1.7)
Para el polinomio caracter´ıstico considere que 1. Dado que ´este es de orden p, entonces tiene exactamente p ra´ıces. 2. Las ra´ıces del polinomio caracter´ıstico no son necesariamente distintas, es decir, pueden tener una multiplicidad mayor que 1. 3. Las ra´ıces del polinomio caracter´ıstico pueden ser reales, complejas o ambas. 4. Si λ1 es una ra´ız del polinomio caracter´ıstico, entonces |A−λ1 Ip | = 0, es decir, (A−λ1 Ip ) es singular y λ1 es un valor propio de A. [Vector Propio] Sean A ∈ IRp×p y X ∈ IRp . Entonces, los vectores propios de A est´an dados por la soluci´on del sistema de ecuaciones en X, dado por (A − λI) X = 0,
(1.8)
al reemplazar cada valor propio λ en dicho sistema, es decir, para cada valor propio λ existe un vector propio X. Sea A ∈ IRp×p , tal que 1. si A tiene valores propios λ de multiplicidad r, entonces existen r vectores propios ortogonales correspondientes a λ. 2. si A = AT , entonces todos sus valores propios son reales, digamos λ1 , λ2 , ..., λp , con λ1 ≥ λ2 ≥ · · · ≥ λp . Entonces, los valores propios de A est´an en la diagonal de una matriz D, esto es, D = diag(λi ), i = 1, ..., p.
26
CHAPTER 1. PRELIMINARES 3. los vectores propios, correspondientes a distintos valores propios de una matriz sim´etrica, son ortogonales. 4. si B = P AP −1 , donde A, B y P son matrices cuadradas y P es no singular, entonces A y B tienen los mismos valores propios. 5. los valores propios de A y de AT son los mismos. 6. los valores propios no nulos de AB y de BA son los mismos. En particular, los valores propios no nulos de AAT y AT A son los mismos. 7. si A = diag(aii ), i = 1, ..., p, entonces a11 , ..., app son los valores propios de A y los vectores eT1 , eT2 , ..., eTp son, respectivamente, sus vectores propios asociados, donde eTi ∈ IRp es un vector que tiene s´olo un uno en la posici´on i-´esima y el resto son ceros, esto es, eTi = (0 . . . 0 1 0 . . . 0). 8. si los valores propios de A son λ1 , λ2 ,..., λp , entonces los valores propios de A−1 son λ−1 1 , λ2−1 ,..., λ−1 p . 9. si A ∈ O(p), entonces todos los valores propios tienen valor absoluto igual a 1.
10. si A ∈ UT(p) (o LT(p)), entonces los valores propios de A son a11 , ..., app (los elementos de la diagonal). 11. si A tiene valores propios λ1 , λ2 ,..., λp , entonces (A − k Ip ) tiene valores propios λ1 − k, λ2 − k, ... , λp − k.
1.2.7
Formas Cuadr´ aticas
[Forma Cuadr´atica] Sea X ∈ IRp , tal que f (x1 , ..., xp ) = f (X) es una funci´on real valorada, esto es, xi ∈ IR, ∀ i = 1, ..., p. Entonces, se dice que f (X) es una forma cuadr´atica si f (x1 , ..., xp ) =
p X n X
aij xi xj = XT A X,
i=1 j=1
1.2. ASPECTOS DE TEOR´IA MATRICIAL
27
donde A ∈ IRp×p es llamada la matriz de la forma cuadr´atica. La matriz de una forma cuadr´atica siempre se puede escoger sim´etrica. Sean X, Y ∈ IRp y A, B y C ∈ IRp×p . Entonces, cuando es necesario hacer un cambio de variables de xi a yi , i = 1, ..., p, a trav´es del conjunto de ecuaciones lineales Y = C −1 X, donde C es una matriz no singular, la forma cuadr´atica XT A X se puede expresar como XT A X = YT C T A C Y = YT (C T AC) Y = YT B Y, donde B =T A C, de modo que A y B son congruentes.
1.2.8
Matrices Definidas y Semi-definidas Positivas
[Matriz Definida Positiva] Sea A ∈ IRp×p . Entonces, A se dice definida positiva si 1. A = AT y 2. XT AX > 0, ∀ X ∈ IRn y X 6= 0. [Matriz Semidefinida Positiva] Sea A ∈ IRp×p . Entonces, A se dice semidefinida positiva si 1. A = AT , 2. XT AX ≥ 0, ∀ X ∈ IRn y 3. XT AX = 0, para al menos un X ∈ IRn y X 6= 0. [Matriz Definida No Negativa] Una matriz se dice definida no negativa si y s´olo si, es definida positiva o semi-definida positiva.
1.2.9
Proyecciones Ortogonales
[Matriz Idempotente] Una matriz A se dice idempotente si A2 = A. [Traza] Sea A ∈ IRp×p . Entonces, la traza de A se define como la suma de los elementos de la diagonal, esto es, tr A =
p X i=1
aii .
28
CHAPTER 1. PRELIMINARES
[Matriz de una Proyecci´on Ortogonal] Una matriz A se dice que es la matriz de una proyecci´on ortogonal si 1. A = AT y 2. A2 = A, esto es, si es sim´etrica e idempotente. En lo posterior, para referirse a la matriz de una proyecci´on ortogonal se dir´a simplemente proyecci´on ortogonal, pues la proyecci´on ortogonal es la aplicaci´on lineal de dicha matriz y su relaci´on es biun´ıvoca. Sea A una proyecci´on ortogonal. Entonces, 1. (Ip − A) es tambi´en una proyecci´on ortogonal. 2. tr A = rk A. 3. sus valores propios son 0 ´o 1.
1.2.10
Factorizaciones de Matrices
Sea A ∈ IRp×p . As´ı, 1. si A tiene valores propios reales, entonces A = H T HT ,
(1.9)
donde H ∈ O(p) y T ∈ UT(p), cuyos elementos de la diagonal son los valores propios de A. 2. si A = AT , con valores propios λ1 , λ2 ,..., λp , entonces A = H T D H,
(1.10)
1.2. ASPECTOS DE TEOR´IA MATRICIAL
29
donde H ∈ O(p) y D = diag(λi ), i = 1, 2, ..., p. Si H T = (h1 ... hp ), entonces hi es un vector propio de A asociado al valor propio λi , i = 1, 2, ..., p. Frecuentemente, se asume que λ1 ≥ λ2 ≥ · · · ≥ λp . Adem´as, si λ1 , λ2 , ..., λp son distintos, la representaci´on (2.10) es u ´nica, salvo cambios de signo en cada elemento de la primera fila de H. As´ı, se puede reescribir (2.10) de la forma A=
p X
λi hi hTi ,
(1.11)
i=1
la cual es llamada ”descomposici´on espectral” de A. 1
1
1
1
3. si A > 0 (≥ 0), entonces existe A 2 > 0 (≥ 0), tal que A = A 2 A 2 . As´ı, A 2 puede descomponerse de la forma A1/2 = H T D1/2 H,
(1.12)
donde A1/2 es llamada ”ra´ız cuadrada sim´etrica”, H y D est´an definidas como en (2.10) ³√ ´ 1 y D 2 = diag λi . 4. si A ∈ IRp×p y el rk A = r ≤ p, entonces (a) existe una matrix B ∈ IRp×r de rango r, tal que A = B BT .
(1.13)
(b) existe una matriz no singular C ∈ IRp×p , tal que
Ir 0 T A=C C . 0 0
(1.14)
(c) existe una matriz T ∈ UT(p), tal que A = T T T.
(1.15)
Cuando los elementos de la diagonal de T son no negativos, la descomposici´on (2.15) se denomina ”descomposici´on de Cholesky”. Dicha descomposici´on es u ´nica si A > 0.
30
CHAPTER 1. PRELIMINARES 5. si A ∈ IRn×p (n ≥ p), entonces A puede descomponerse de la forma A = U B,
(1.16)
donde U ∈ Vn,p y B ∈ IRp×p y B ≥ 0. Si el rk B = p, entonces B > 0. Otra forma de representar A es
Ip
A=U
0
B,
(1.17)
donde ahora U ∈ O(p) y B est´a definida como en (2.16). 6. si A ∈ IRn×p y B ∈ IRn×q , tal que p ≤ q, entonces AT A = B T B si y s´olo si, existe una matriz H ∈ Vp,q , tal que A H = B. 7. Si A ∈ IRn×p (n ≥ p), entonces A = U D V,
(1.18)
donde U ∈ Vn,p , V ∈ O(p), D = diag(λi ), i = 1, ..., p y λ21 , ..., λ2p , son los valores propios de AT A. Otra representaci´on de A ser´ıa A = H (D 0)T V,
(1.19)
donde H ∈ O(n), V y D son las mismas que en (2.18) y 0T ∈ IR(n−p)×p . La descomposici´on dada en (2.18) o en (2.19) es llamada ”descomposici´on en valores singulares”. 8. Si A1 , ..., Ak son matrices sim´etricas tal que, Ai Aj = 0, para i 6= j, i, j = 1, ..., k, entonces existe H ∈ O(p) tal que, H T Ai H = Di , siendo Di una matriz diagonal, i = 1, ..., k. 9. Si A, B ∈ IRn×n , con A > 0 y B = B T , entonces existe una matriz no singular H ∈ IRn×n tal que, A = H HT
y B = H D HT ,
(1.20)
donde D = diag(λi ) y λ1 ,...,λn son los valores propios de A−1 B. Si B > 0 y λ1 ,...,λn son todos distintos, H es u ´nica, salvo cambios de signo en cada elemento de la primera fila de H.
1.2. ASPECTOS DE TEOR´IA MATRICIAL
1.2.11
31
Inversa Generalizada de una Matriz
[Matriz Inversa Generalizada] Sea A ∈ IRn×p . Entonces, existe una matriz B ∈ IRp×n que cumple con 1. ABA = A, 2. BAB = B, 3. (AB)T = AB y 4. (BA)T = BA, tal que B es llamada la matriz inversa generalizada (o de Moore-Penrose) de A, se denota por −
B = A y se usa la terminolog´ıa g-inversa para referirse a ella. . Sea A ∈ IRn×p . As´ı, −
1. toda matriz A tiene asociada una u ´nica matriz A
que satisface las condiciones de la
Definici´on 2.28, esto es, cada matriz tiene asociada una u ´nica g-inversa. −
2. si rk A = n, entonces A = AT (AT A)−1 . −
3. si rk A = p, entonces A = (AT A)−1 A. −
4. si rk A = n = p, entonces A = A−1 . −
−
−
−
−
5. si rk A = r, entonces, rk A = rk A = rk A A = rk AA = rk AA A = rk AAA . − −
6. (A ) = A. −
7. si A es sim´etrica, entonces A tambi´en lo es. −
−
−
8. A = (AT A) AT = AT (AAT ) . −
−
−
9. (AT A) = A (A )T . −
−
10. (AT ) = (A )T .
32
CHAPTER 1. PRELIMINARES −
11. si A = P QT , con P ∈ IRn×r , Q ∈ IRr×m y rk A = rk P = rk Q = r, entonces A −
=
−
(Q )T P . −
12. si A es una proyecci´on ortogonal, entonces A = A. 13. si AT = A, entonces A = H T DH (como en (2.10)), donde H ∈ O(p) y D = diag(λi ), i = 1, ..., n. Sea −
λ−1
; si λ 6= 0
0
; si λ = 0
λ = −
.
−
Entonces, A = H T diag(λi )H. −
−
14. AA y A A son proyecciones ortogonales. [Matriz Inversa Condicional] Sea A ∈ IRn×p . Entonces, existe una matriz B ∈ IRp×n que cumple con ABA = A,
(1.21)
tal que, B se denomina matriz inversa condicional de A o c-inversa de A y se denota por c
B=A . Sea A ∈ IRn×p . As´ı, c
1. toda matriz A tiene asociada una matriz A , pero no es u ´nica. c
2. rk A ≥ rk A = r. c
c
3. AA y A A son matrices idempotentes. c
c
4. si rk A = r, entonces rk A A = rk A A = r c
5. A A = Ip si y s´olo si, el rango de A es p, esto es, el rango de A es igual al n´ umero de sus columnas. c
6. A A = In si y s´olo si, el rango de A es n, esto es, el rango de A es igual al n´ umero de sus filas. c
c
7. (AT ) = (A )T .
´ DEL JACOBIANO 1.3. EVALUACION
1.2.12
33
Producto Kronecker
[Producto Kronecker] Considere las matrices A = (aij ) ∈ IRn×p y B ∈ IRm×q . El producto Kronecker de dos matrices, es la matriz de orden (nm × pq) definida por
a11 B a21 B AB = .. .
a12 B · · · a1p B a22 B · · · a2p B = (aij B). .. .. ... . .
an1 B an2 B · · · anp B Sean A, B, C y D matrices de ´ordenes adecuados y sean α, β ∈ IR. Tal que, 1. ABC = (AB)C = A(BC). 2. (A + B)(C + D) = AC + BC + AD + BD. 3. (AB)(CD) = ACBD. 4. αA = α A = A α = Aα. 5. (AB)T = AT B T . 6. (AB)−1 = A−1 B −1 . −
−
−
7. (AB) = A B . 8. si A ∈ IRn×n , con valores propios λ1 , . . . , λn y B ∈ IRm×m , con valores propios δ1 , . . . , δm , entonces los nm valores propios de (AB) est´an dados por λi δj , i = 1, ...n, j = 1, ..., m.
1.3
Evaluaci´ on del Jacobiano
Para calcular la funci´on de distribuci´on multivariante de algunos estad´ısticos, en muchas ocasiones se hace necesario hacer cambios de variables con integraci´on m´ ultiple; en este caso se usa con frecuencia el jacobiano de la transformaci´on.
34
CHAPTER 1. PRELIMINARES
Considere la integral m´ ultiple sobre un conjunto C ∈ IRn Z
g(x1 , ..., xn ) dx1 · · · dxn .
(1.1)
C
Sea entonces XT = (x1 . . . xn ) una transformaci´on uno-a-uno a nuevas variables YT = (y1 . . . yn ) a trav´es de la relaci´on yi =fi (x1 , ..., xn ); i = 1, ..., n, donde las {fi }’s son continuamente diferenciables. Esta relaci´on se denota por Y = f (X) y X = f −1 (Y). El determi∂XT nante de , se denota por ∂YT ¯ ¯ ¯ ∂(x . . . x ) ¯ 1 n ¯ ¯ J = J(X → Y) = ¯ ¯ ¯ ∂(y1 . . . yn ) ¯ y se denomina Jacobiano de la transformaci´ on de X a Y y |J| es su valor absoluto. Ahora (3.1) puede expresarse como Z
g(f −1 (Y)) |J(X → Y)| dY,
(1.2)
T
donde T ≡ {Y | Y = f (X), X ∈ C}. Sea J(·) el jacobiano de una transformaci´on. As´ı, 1. J(X → Y) = (J(Y → X))−1 . 2. si Y = f (X) y z = g(Y), entonces J(X → z) = J(X → Y) · J(Y → z)
(1.3)
3. Si dX = A dY, entonces J(X → Y) es |A| y |J| es el valor absoluto.
1.3.1
La Transformaci´ on de Coordenadas Esf´ ericas Generalizadas
Sean
xj
= r
xn−1 = r xn
= r
j−i Y
k=1 Ãn−2 Y k=1 Ãn−2 Y k=1
sen φk cos φj ; 1 ≤ j ≤ n − 2, !
sen φk
cos θ
; 0 ≤ φk ≤ π, 1 ≤ k ≤ n − 2,
sen θ
; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞.
!
sen φk
´ DEL JACOBIANO 1.3. EVALUACION
35
Entonces, el Jacobiano de la transformaci´on de XT = (x1 ... xn ) a YT = (r, φ1 , ..., φn−2 , θ) viene dado por J(x1 , ..., xn → r, φ1 , ..., φn−2 , θ) = r
n−1
Ãn−2 Y
!
sen
n−k−1
φk .
(1.4)
k=1
Demostraci´ on. Sea x2n
=r
2
Ãn−2 Y
! 2
sen2 θ,
sen φk
(1.5)
k=1
de modo que x2n+1
+
x2n
=r
2
Ãn−2 Y
! 2
sen φk
2
cos θ + r
k=1
2
Ãn−2 Y
! 2
2
sen φk
sen θ = r
2
Ãn−2 Y
k=1
! 2
sen φk .
(1.6)
k=1
Haga ahora n = 3 y luego por inducci´on se generaliza para n. As´ı, x22 + ... + x2n = x2 + x3 = r2
à 1 Y
!
sen2 φk = r2 sen2 φ1 ,
(1.7)
k=1
con lo cual
n X i=1
x2i =
n X
x2i + x21 = r2 sen2 φ1 + r2 cos2 φ1 = r2 .
(1.8)
i=2
De esta manera J(x1 , ..., xn → r, φ1 , ..., φn−2 , θ) = J(xn → θ) · J(xn−1 → φn−2 ) · . . . · J(x2 → φ1 ) · J(x1 → r). Entonces, derivando parcialmente (3.5), (3.6), (3.7) y (3.8), se tiene que ∂xn 1 2 = r ∂θ xn
Ãn−2 Y
!
sen2 φk
sen θ cos θ,
k=1
Ã
n−2 Y ∂xn−1 1 = r2 sen2 φk ∂φn−2 xn−1 k=1 .. . 1 2 ∂x2 = r sen φ1 cos φ1 , ∂φ1 x2 ∂x1 r = . ∂r x1
!
cos φn−2 , sen φn−2
36
CHAPTER 1. PRELIMINARES
De modo que, si X0 = (x1 . . . xn ) e Y0 = (r φ1 . . . φn−2 θ), entonces J(X → Y) = r2 xn
Ãn−2 Y
! 2
sen φk
k=1
r2 sen θ cos θ · xn−1
Ãn−2 Y
! 2
sen φk
k=1
cos φn−2 r2 r · sen φ1 cos φ1 · . sen φn−2 x2 x1
As´ı, finalmente, J (x1 . . . xn ) → (r φ1 . . . φn−2 θ)) = r
n−1
Ãn−2 Y
!
sen
n−k−1
φk .
k=1
Los cos φk se cancelan en forma sucesiva con un t´ermino igual que le precede en el numerador. El exponente (n − k − 1) se observa como se va generalizando ya en el segundo t´ermino del producto.
Chapter 2 Distribuciones de Contornos El´ıpticos 2.1
Introducci´ on
En el u ´ltimo tiempo se ha planteado una clase de distribuciones cuyos contornos de sus densidades tienen la misma forma el´ıptica de la distribuci´on Normal, pero adem´as contienen distribuciones de colas m´as y menos pesadas que las de ´esta. Dicha clase de distribuciones se denomina de Contornos El´ıpticos o simplemente distribuciones El´ıpticas. Las distribuciones El´ıpticas han sido estudiada por diversos autores, entre los que se encuentran los trabajos [50], [18], [49] y [12], y los m´as recientes [5] y [54], entre otros. Aunque a partir de 1970 estas distribuciones comenzaron su auge, se registran estudios anteriores, como lo son [72] y [56]. La mayor´ıa de estos trabajos, salvo los m´as recientes, son recopilados en los libros [1], [32], [31], [39] y [70], quienes entregan un adecuado tratamiento del tema. A pesar de los diversos trabajos que se han presentado hasta ahora, a´ un no se encuentran tratados diversos problemas que hasta ahora s´olo han sido abordados con la distribuci´on Normal, entre ellos la densidad de una distribuci´on El´ıptica singular, la distribuci´on F Generalizada doble no centrada y la inferencia para el coeficiente de variaci´on, entre otros. 37
CHAPTER 2. DISTRIBUCIONES DE CONTORNOS EL´IPTICOS
38
2.2 2.2.1
Distribuci´ on El´ıptica No Singular Distribuciones El´ıpticas y Esf´ ericas
Para fijar ideas, considere un vector aleatorio n-dimensional X. Ahora bien, si X ∈ IRn es un vector aleatorio con par´ametro de posici´on µ ∈ IRn , matriz de escala Σ ∈ IRn×n y con rk Σ = r ≤ n, entonces la distribuci´on de X se dice singular o no singular, dependiendo si r < n o si r = n, respectivamente. [Distribuci´on El´ıptica] Sea X ∈ IRn . Entonces, X pertenece a la familia de distribuciones El´ıpticas de par´ametros µ, Σ y φ si y s´olo si su funci´on caracter´ıstica es ψX (t) = exp(itT µ) φ(tT Σt)
(2.1)
y se denota por X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y φ : IRn → IR. Observe que la funci´on caracter´ıstica existe aun cuando Σ sea semidefinida positiva, es decir, cuando rk Σ = r < n, en cuyo caso la distribuci´on El´ıptica obtenida es llamada distribuci´on El´ıptica singular, la cual se tratar´a con detalle m´as adelante. Sea X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, la densidad de X es 1
gX (X) = |Σ|− 2 f [(X − µ)T Σ−1 (X − µ)],
(2.2)
siendo f (u), con u ≥ 0, una funci´on real y que se denomina generadora de densidades. En este caso, se usa la notaci´on X ∼ ECn (µ, Σ; f ). As´ı, la condici´on necesaria para que la densidad de X exista con respecto a la medida de Lebesgue en IRn es que rk Σ = r = n, esto es, que Σ > 0, con lo cual la distribuci´on de X es no singular. Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, X puede representarse de la forma X = µ + AT Y, de modo que Y = (AT )−1 (X − µ),
´ EL´IPTICA NO SINGULAR 2.2. DISTRIBUCION
39
con Σ = AT A, A ∈ IRn×n . [Distribuci´on Esf´erica] Sea X ∼ ECn (µ, Σ; φ) con µ ∈ IRn , Σ ∈ IRn×n . Entonces, si µ = 0 y Σ = In , se dice que X se distribuye Esf´erica y se denota por X ∼ Sn (φ), esto es, Sn (φ) ≡ ECn (0, In ; φ) o Sn (f ) ≡ ECn (0, In ; f ). Sea X ∼ Sn (φ). Entonces, d
1. X = H X, ∀ H ∈ O(n). 2. ψX (t) = φ(tT t) = φ(ktk2 ), φ(u), u ≥ 0, dado como en (5.1). 3. la densidad de X puede expresarse como gX (X) = f (XT X), f (u), u ≥ 0, dado como (5.2). d
4. para XT = (X1 X2 . . . Xn ) ∼ Sn (φ), aT X = X1 ; ∀ a ∈ IRn y kak = 1. En una distribuci´on Esf´erica, para n = 1 se tienen todas las distribuciones sim´etricas en IR.
2.2.2
Representaci´ on Estoc´ astica
Sea U (n) un vector aleatorio uniformemente distribuido en la esfera unitaria en IRn , esto es, U (n) ∼ Un {X ∈ IRn kXk = 1} y que se denota por U (n) ∼ Un {EkXk=1 }, U (n) se distribuye de acuerdo a una ley Esf´erica. Sea X ∼ Sn (f ). Entonces, X admite la representaci´on estoc´astica d
X = R U (n) ,
(2.3)
donde R ≥ 0 tiene funci´on de distribuci´on GR (·) y es independiente de U (n) ∼ Un {EkXk=1 }. La distribuci´on de R es algunas veces llamada distribuci´on Radial. d
Sea X = R U (n) ∼ Sn (f ) y IP (X = 0) = 0. Entonces, d
kXk = R y
X d (n) =U , kXk
(2.4)
CHAPTER 2. DISTRIBUCIONES DE CONTORNOS EL´IPTICOS
40 de modo que
X = R U (n) = kXk ·
X . kXk
donde R ∼ GR (·) y U (n) ∼ Un {EkXk=1 } son independientes. Sea U (n) ∼ Un {EkXk=1 }. Entonces, IE(U (n) ) = 0 y Var(U(n) ) =
1 In . n
(2.5)
Sean U (n) ∼ Un {EkXk=1 } y R ∼ GR (·) independientes. Entonces, si IE(R) < ∞, IE(X) = IE(R) · IE(U (n) ) = 0.
(2.6)
Sean U (n) ∼ Un {EkXk=1 } y R ∼ GR (·), independientes. Entonces, si IE(R2 ) < ∞, V ar(X) = IE(R2 ) · V ar(U (n) ) = IE(R2 ) ·
1 In . n
(2.7)
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, X admite la representaci´on estoc´astica d
X = µ + R AT U (n) ,
(2.8)
donde la variable aleatoria R ≥ 0 es independiente de U (n) y A ∈ IRn×n es tal que Σ = AT A. d
Sea X = µ + R AT U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0, R ≥ 0 independiente de U (n) , A ∈ IRn×n y Σ = AT A. Entonces, d
Q(X) = (X − µ)T Σ−1 (X − µ) = R2 ,
(2.9)
donde R est´a dad en (5.3). Sea X no degenerada. As´ı, 1. si X ∼ ECn (µ, Σ; f ) y X ∼ ECn (µ0 , Σ0 ; f0 ), con µ, µ0 ∈ IRn y Σ, Σ0 ∈ IRn×n , entonces existe una constante real c0 > 0, tal que µ = µ0 ,
c0 Σ = Σ 0
y f0 (·) = f (c−1 0 ).
(2.10)
´ EL´IPTICA NO SINGULAR 2.2. DISTRIBUCION d
41
d
2. si X = µ + R AT U (r) = µ0 + R0 AT U (r0 ) , donde r ≥ r0 , entonces existe una constante c0 > 0, tal que µ = µ0 ,
d
−1/2
c0 AT A = AT A y R0 = c0
R br0 /2,(r−r0 )/2 ,
(2.11)
donde br0 /2,(r−r0 )/2 ≥ 0 es independiente de R y b2r0 /2,(r−r0 )/2 ∼ Beta(r0 /2, (r − r0 )/2), si r > r0 y br0 /2,(r−r0 )/2 ≡ 1 si r = r0 . En lo posterior se usar´a indistintamente la notaci´on X ∼ ECn (µ, Σ; f ) o X ∼ ECn (µ, Σ; φ), seg´ un convenga, lo mismo ocurrir´a con las distribuciones Esf´ericas.
2.2.3
Distribuciones Marginales
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0, B ∈ IRn×m y γ ∈ IRm . Entonces, Z = γ + BT X ∼ ECn (BT µ + γ, BT Σ B; f ).
(2.12)
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn ,Σ ∈ IRn×n , Σ > 0 y considere la partici´on de X, µ y Σ dada por
X1 µ1 Σ11 Σ12 X= , µ = , Σ = X2 µ2 Σ21 Σ22
(2.13)
donde X1 , µ1 ∈ IRm y Σ11 ∈ IRm×m . Entonces, X1 ∼ ECm (µ1 , Σ11 ; f ) y X2 ∼ EC(n−m) (µ2 , Σ22 ; f ).
2.2.4
Distribuciones Condicionales ³
Sea X = XT1 XT2
´T
, donde X ∈ IRn , X1 ∈ IRm y X2 ∈ IRn−m . Se est´a interesado en la
distribuci´on condicional de X1 dado X2 = x0 . d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, la distribuci´on condicional de X1 dado X2 = x0 viene dada por (X1 / X2 = x0 ) ∼ ECm (0, I; fm ),
(2.14)
CHAPTER 2. DISTRIBUCIONES DE CONTORNOS EL´IPTICOS
42
cuya representaci´on estoc´astica es d
³
(X1 / X2 = x0 ) = R kx0 k2
´
U (m) ,
(2.15)
donde R(·) y U (m) son independientes y ´
³
d
³
´
1
R kx0 k2 = (R2 − kx0 k)2 ) 2 / X2 = x0 .
(2.16)
d
Sea X = µ + RAT U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y considere la misma partici´on de X, µ y Σ dada en (5.13). Entonces, d
(X1 / X2 = x0 ) = µ1.2 + Rq(x0 ) AT11.2 U (n) ∼ ECm (µ1.2 , Σ11.2 , f ),
(2.17)
donde µ1.2 = µ1 + Σ12 Σ−1 22 (x0 − µ2 ), Σ11.2 = Σ11 − Σ12 Σ−1 22 Σ21 , q(x0 ) = (x0 − µ2 )T Σ−1 22 (x0 − µ2 ) y Σ11.2 = AT11.2 A11.2 . Adem´as, para todo a ≥ 0, Ra2 es independiente de U (m) y admite la representaci´on estoc´astica d
³
1
´
Rq(x0 ) = (R2 − q(x0 )) 2 / X2 = x0 .
2.2.5
(2.18)
Momentos
Si X ∼ Nn (µ, Σ), con µ ∈ IRn y Σ ∈ IRn×n , se sabe que IE(X) = µ y V ar(X) = Σ. En el caso de las distribuciones El´ıpticas no siempre existen estos momentos (por ejemplo la distribuci´on de Cauchy). d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y R independiente de U (n) . Entonces, si IE(R) < ∞ y IE(R2 ) < ∞, el primer y segundo momento de X existen.
´ EL´IPTICA NO SINGULAR 2.2. DISTRIBUCION
43
d
Sea X = R U (n) ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y R independiente de U (n) , IE(R) y IE(R2 ) < ∞. Entonces, IE(R2 ) IE(X) = µ y V ar(X) = · Σ. rk Σ
Como se vio en el Teorema 5.62, en una distribuci´on El´ıptica la matriz de covarianzas, Σ0 , es proporcional al par´ametro Σ de su distribuci´on y en general no es igual a ´este. Sean X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0, una distribuci´on no degenerada y Mk el k-´esimo momento de X. Entonces, 1. M1 (X) = µ. 2. M2 (X) = µµT − 2φ0 (0)Σ
y
V ar(X) = −2φ0 (0)Σ.
3. M3 (X) = µµT µ − 2φ0 (0)[µΣ + Σµ + vec(Σ)µT ], si ellos existen, donde es el producto Kronecker de dos matrices definido anteriormente. Cuando la matriz de covarianzas Σ0 de X ∼ ECn (µ, Σ; φ) existe, al considerar Σ como Σ0 s´olo se tiene un caso particular; la igualdad se cumple si se elige φ de manera que −2φ(0) = 1, esto es, cuando X ∼ Nn (µ, Σ).
2.2.6
Caracterizaciones de Normalidad
La distribuci´on Normal pertenece a la clase de distribuciones El´ıpticas. A continuaci´on se presentan ciertas propiedades de esta distribuci´on, las que no pueden extenderse a otras distribuciones El´ıpticas, caracterizando as´ı a la distribuci´on Normal. Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ > 0. Entonces, X tiene una distribuci´on Normal si y s´olo si Q(X) = (X − µ)T Σ−1 (X − µ) ∼ χ2 (n). El resultado anterior de debe a que la relaci´on entre f y F es uno-a-uno. Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn y Σ ∈ IRn×n y Σ > 0. Entonces, cualquier distribuci´on marginal es Normal si y s´olo si, X se distribuye normalmente.
CHAPTER 2. DISTRIBUCIONES DE CONTORNOS EL´IPTICOS
44
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n y Σ = diag(σii ), i = 1, ..., n. Entonces, las siguientes proposiciones son equivalentes 1. X se distribuye normalmente. 2. las componentes de X son independientes. 3. Xi y Xj (1 ≤ i < j ≤ n) son independientes. Sea X = (XT1 XT2 )T ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y X1 ∈ IRm . Entonces, X1 / X2 = x0 se distribuye normalmente con probabilidad 1 si y s´olo si X se distribuye normalmente.
2.2.7
Distribuci´ on Invariante
Un aspecto importante de las distribuciones Esf´ericas es el siguiente. Cuando se est´a interesados en hallar sus distribuciones t o F asociadas, se observa que ´estas son invariantes bajo cualquiera de ellas. As´ı, haciendo uso de la representaci´on estoc´astica que admiten las distribuciones Esf´ericas, se muestra que las distribuciones de los estad´ısticos T y F son independientes de la variable aleatoria R, lo cual las hace invariantes. As´ı, si X = (X1 · · · Xn )T , con X ∈ IRn , entonces n X ¯ = 1 Xi = 1 1T X, X n i=1 n
y S=
n X
¯ 2 = XT DX, (Xi − X)
(2.19)
i=1
de modo que 2 Sn−1 =
donde D = In −
S n−1
S , n
y Sn2 =
(2.20)
1 T 11 y 1 = (1 . . . 1)T ∈ IRn . n
Algunos estad´ısticos muy u ´tiles en an´alisis univariado son T =
√
n
¯ X Sn−1
←→
T =
√
n−1
¯ X Sn
(2.21)
y F =
k XC1 X , r XC2 X
(2.22)
´ EL´IPTICA NO SINGULAR 2.2. DISTRIBUCION
45
donde C1 y C2 con proyecciones ortogonales, tales que rk C1 = r y rk C2 = k y C1 C2 = 0. Por otro lado, se sabe que T ∼ t(n − 1) y F ∼ F (r, k), cuando X ∼ Nn (0, In ). Se desea demostrar que este resultado es invariante cuando X ∼ Sn (f ). En efecto, considere la funci´on real-valorada h(·) definida por h(X) =
√
n
µ
1 T 1 X n
¶1
1 XT DX n−1
.
2
Entonces, d
T = h(X) = h(R U (n) ) =
√
n
µ
1 T 1 R U (n) n 1 R2 U T n−1
(n) D
¶1
U (n)
=
2
√
n
µ
1 T (n) 1 U n 1 UT n−1
(n) D
¶1
U (n)
,
2
(2.23)
cuya distribuci´on es independiente de R, de modo que lo anterior es v´alido para toda la clase de distribuciones Esf´ericas, es decir, la distribuci´on t centrada generalizada es invariante bajo distribuciones Esf´ericas, coincidiendo por tanto con la distribuci´on t centrada tradicional. An´alogamente, F ∼ F (r, k) para toda distribuci´on Esf´erica, con lo cual la distribuci´on F centrada generalizada es tambi´en invariante bajo leyes Esf´ericas. En general entonces, se puede plantear el siguiente teorema. Sea X ∼ Sn (f ). Entonces, la distribuci´on del estad´ıstico t(X) es invariante bajo leyes Esf´ericas si t(αX) = t(X), ∀ α > 0.
2.2.8
Distribuciones El´ıpticas Particulares
A continuaci´on se dan ejemplos de algunas distribuciones El´ıpticas y Esf´ericas.
(2.24)
CHAPTER 2. DISTRIBUCIONES DE CONTORNOS EL´IPTICOS
46
[Distribuci´on t-multivariada] Una distribuci´on Esf´erica particular es la distribuci´on tmultivariada. As´ı, si X ∼ tn (0, In ; ν), entonces su densidad viene dada por Γ
gX (X) =
Γ
³
ν+n 2
³ ´ n 2
´
à n
(πν) 2
XT X 1+ ν
!− ν+p 2
,
esto es, dicha densidad puede expresarse como gX (x) = f (XT X), donde T
f (X X) =
³
Γ
Γ
³ ´ n 2
es decir,
ν+n 2
´
Ã
(π ν)
n 2
µ
u f (u) = 1 + ν
XT X 1+ ν
!− ν+p 2
,
¶− ν+p 2
,
con lo cual se observa que la distribuci´on t-multivariada pertenece a la clase Esf´erica de distribuciones. [Distribuci´on de tipo Kotz] Para r, s > 0 y 2m + n > 2, la densidad de X es gX (u) = f (u) = s π
−n 2
r
2m+n−2 2s
Γ
³
³ ´
n 2 ´ tm−1 2m+n−2 2s
Γ
exp(−r us ),
(2.25)
la que pertenece a la familia de distribuciones. Particularmente, la distribuci´on Normal multivariada es un caso especial cuando m = 1, s = 1 y r = 1/2. [Distribuci´on de Pearson tipo VII] Si X ∼ PnV III (m, s), con m > n/2 y s > 0, entonces su densidad es −n 2
gX (u) = f (u) = (s π)
µ
Γ(m)
³
Γ m−
n 2
´
u 1+ s
¶m
,
m>
n , s > 0, 2
(2.26)
la que forma parte de distribuciones El´ıpticas. A su vez, esta familia incluye a la distribuci´on t-multivariada. Recuerde que si X ∼ Nn (0, Σ), Σ > 0 e Y ∼ χ2 (m), X e Y independientes. √ Entonces, la distribuci´on de T = ( m X)/Y se denomina distribuci´on t-multivariada (Johnson and Kotz [47]) y es un caso especial de (5.25) cuando m = (n + s)/2. Cuando m = 1, la correspondiente distribuci´on se llama distribuci´on de Cauchy multivariada.
´ EL´IPTICA NO SINGULAR 2.2. DISTRIBUCION
47
[Distribuci´on Uniforme en la Esfera Unitaria en IRn ] Sea X ∼ Un {EkXk=1 }. Considere la densidad ³ ´ Γ n2 n π2
n X
; si
i=1
pX (X) =
0
x2i ≤ 1 .
; en otro caso
d
Se sabe que HX = X, ∀ H ∈ O(n) y que la distribuci´on Uniforme en la esfera unitaria pertenece a la clase de distribuciones El´ıpticas en IRn . Entonces, X puede representarse d
estoc´asticamente como X = R U (n) . As´ı, la densidad de R = kXk es
gR (r) =
´ ³ n n+2 2Γ 2π 2 ³ ´ n r n−1 = n r n−1 n Γ 2 π2
; si 0 ≤ r ≤ 1 .
0
; en otro caso
[Distribuci´on de Laplace o Bessel generalizada] Si X tiene una distribuci´on de Laplace generalizada, entonces tiene densidad n 2
µ
gX (u) = f (u) = 2a+n−1 π β n Γ a +
n 2
¶
1 2
a
1 2
u u Ka , β β
n a > − , β > 0, 2
(2.27)
donde Ka (·) denota a la funci´on de Bessel modificada de tercer tipo, es decir Ka (z) = e Ia (z) =
π (I−a (z) − Ia (z)) , 2 sen(aπ)
∞ X
1 k=0 k! Γ(k + a + 1)
| arg z| < π, a = 0, ±1, ±2, ...
µ ¶a+2k
z 2
,
|z| < ∞, | arg z| < π,
la cual pertenece a la familia de distribuciones El´ıpticas. [Distribuciones El´ıpticas n-variantes] Tabla 1 Densidades o funciones caracter´ısticas de las distribuciones El´ıpticas que se mencionan.
CHAPTER 2. DISTRIBUCIONES DE CONTORNOS EL´IPTICOS
48 Ley El´ıptica
f (u), con u = XT X o φ(v), con v = tT t
Kotz
f (u) = c um−1 exp(−rus ); r, s > 0, 2m + n > 2.
Normal multivariada
f (u) = c exp(− 12 u).
Pearson tipo VII (P V II )
f (u) = c 1 +
t-multivariada
f (u) = c 1 +
Cauchy
f (u) = c 1 +
Pearson tipo II (P II )
f (u) = c (1 − u)−m , m > 0.
Log´ıstica
f (u) = c exp(−u) (1 − exp(−u))−2 .
³
´−m
, s > 0, m > n2 .
h
³ ´i− ν+n
h
³ ´i− ν+1
Z∞
Mezcla de Normales
u s
f (u) = c 0
u s
2
u s
2
µ
u v exp − 2v n 2
, s, ν > 0. , s, ν > 0.
¶
dF (v), F = F D.
α
Leyes Estables
φ(u) = exp(r u 2 ), 0 < α ≤ 2, r < 0.
Uniforme multivariada
φ(u) =
0 F1
³
n ; − u4 2
´
.
Donde c > 0 es una constante de normalizaci´on que var´ıa dependiendo de cada distribuci´on, algunas de las cuales ya se han planteado expl´ıcitamente en los ejemplos anteriores. d
[Distribuci´on de R2 ] Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , Σ ∈ IRn×n , Σ > 0 y X = R U (n) , d
donde R = kXk y es independiente de U (n) ∼ Un {EkXk=1 }. Entonces, haciendo uso del Corolario 5.53 se tiene que 1. si R2 ∼ χ2 (n), esto es equivalente a decir que X ∼ Nn (0, In ). 2. si R2 ∼ n−1 Fν,n , esto es equivalente a decir que X ∼ tn (0, In ; ν). 3. si R2 ∼ Beta( n2 , ν + 1), esto es equivalente a decir que X ∼ PnII (0, In ; ν).
Chapter 3 Distribuci´ on de Formas Cuadr´ aticas
3.1
Introducci´ on
La distribuci´on de formas cuadr´aticas y lineales, y expresiones relacionas, obtenidas a partir de distribuciones El´ıpticas, fueron estudiadas y publicadas en [11], [34] y [4], entre otros, y posteriormente presentadas en los libros de [1] y [39], entre otros. Estas distribuciones corresponden a las distribuciones χ2 , t y F obtenidas bajo distribuciones El´ıpticas. Las distribuciones t y F obtenidas a partir de distribuciones El´ıpticas se denominan distribuciones t y F generalizadas. Sin embargo, si el par´ametro de posici´on ν de la ley El´ıptica es igual a cero, entonces las distribuciones t y F generalizadas coinciden con las distribuciones t y F obtenidas bajo normalidad, esto es, estas distribuciones son invariantes bajo leyes El´ıpticas cuando ν = 0 (vea [32, p.67]). Por otro lado, las distribuciones t y F generalizadas no centradas dependen de la ley El´ıptica particular bajo la cual fueron obtenidas. Asimismo, las distribuciones t y F generalizadas doble no centradas, an´alogas a las del caso Normal, dependen tambi´en de la ley El´ıptica asociada. 49
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
50
3.2 3.2.1
Distribuci´ on Chi-cuadrado Generalizada Introducci´ on
Recuerde que si X ∼ Nn (0, In ), entonces U = XT X ∼ χ2 (n) y tiene densidad gU (u) =
1 n 2
2 Γ
1 2
n
³ ´ u 2 −1 exp(− u); n 2
u ≥ 0.
(3.1)
An´alogamente, si X ∼ Nn (µ, In ), con µ ∈ IRn , µ 6= 0, entonces U = XT X ∼ χ2 (n, δ), con δ = (1/2)µT µ, cuya densidad es 1
n
+k−1 ∞ k exp(− u) X δ exp(−δ) u 2 2´ ; ³ gU (u) = n k=0
k!
2 2 +k Γ
n 2
+k
u > 0,
(3.2)
es decir, una suma ponderada infinita de densidades χ2 (n + 2k) centradas, cuyos factores de ponderaci´on vienen dados por una ley de Poisson de par´ametro δ = (1/2)µT µ. Esta u ´ltima llamada distribuci´on chi-cuadrado no centrada con par´ametro de no centralidad dado por δ = (1/2)µT µ. De la misma forma, si X ∼ Nn (µ, Σ), con µ ∈ IRn , µ 6= 0, Σ ∈ IRn×n y Σ > 0, entonces U = XT Σ−1 X ∼ χ2 (n, δ), con δ = (1/2)µT Σ−1 µ, cuya densidad es la misma que en el caso anterior haciendo la correspondiente adaptaci´on en el par´ametro de no centralidad.
3.2.2
Distribuci´ on Chi-cuadrado Generalizada Centrada y No Centrada
A continuaci´on se presenta la distribuci´on chi-cuadrado generalizada no centrada antes que su distribuci´on centrada equivalente, ya que esta u ´ltima es s´olo un caso particular de la no centrada, obteniendo ambas distribuciones bajo no singularidad de la ley El´ıptica asociada. [Distribuci´on Gχ2 no centrada] Sea X ∼ ECn (µ, In ; f ), con µ ∈ IRn y µ 6= 0. Entonces, U = XT X ∼ Gχ2 (n, δ; f ), con δ = (1/2)µT µ y tiene densidad dada por gU (u) =
π Γ
³
n−1 2
n−1 2
n
Zπ
´ u 2 −1
f (u − 2γ u(1/2) cos φ + γ 2 ) senn−2 φ1 dφ1 ; 0
u > 0,
(3.3)
´ CHI-CUADRADO GENERALIZADA 3.2. DISTRIBUCION
51
donde γ 2 = µT µ = 2δ. Demostraci´ on. Sean X ∼ ECn (µ, In ; f ), con µ ∈ IRn , µ 6= 0 e Y = H X ∼ ECn (ν, In ; f ), con H ∈ O(n); ν = (kµk 0 . . . 0)T y kµk =
q
(µT µ) =
qP n
i=1
µ2i . Note que
kYk = kH Xk = (XT H T HX)(1/2) = (XT X)(1/2) = kXk. De esta manera, como gY (Y) = f ((Y − ν)T (Y − ν)) donde
T
y1 − kµk y 2 T (Y − ν) (Y − ν) = . ..
y1 − |µk y2 , . ..
yn
yn se obtiene que (Y − ν)T (Y − ν) = (y1 − kµk)2 +
n X
yi2
i=2
= y12 − 2y1 kµk + kµk2 +
n X
yi2
i=2
=
n X
yi2 + kµk2 − 2y1 kµk.
i=1
As´ı, gY (Y) = f
à n X
!
yi2
2
+ kµk − 2y1 kµk .
i=1
Considere la t.c.e.g. y el cambio de variables Y1
= r cos φ1
= r
Yj Yn−1 Yn ∞ X k=0
= r = r
j−i Y
k=1 Ãn−2 Y k=1 Ãn−2 Y
sen φk cos φj ; 1 ≤ j ≤ n − 2 !
sen φk
cos θ
; 0 ≤ φk ≤ π, 1 ≤ k ≤ n − 2
sen θ
; 0 ≤ θ ≤ 2π, 0 ≤ r < ∞
!
sen φk
k=1
Yi2 = kY k2 = r2 = U
,
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
52
de modo que el Jacobiano de la transformaci´on de Y = (Y1 . . . Yn )T a Z = (r φ1 . . . φn−2 θ)T viene dado por J = J ((Y1 . . . Yn ) → (r φ1 . . . φn−2 θ)) = r
Ãn−2 Y
n−1
! n−k−1
sen
φk .
k=1
De este modo gZ (r, φ1 , . . . , φn−2 , θ) = gY (z) · |J| ³
2
´
2
= f r + kµk − 2r cos φ1 kµk r
n−1
Ãn−2 Y
!
sen
n−k−1
φk .
k=1
Obtenga ahora la densidad de r = kXk = kYk Zπ
gr (r) =
Zπ Z2π
···
gZ (r, φ1 , . . . , φn−2 , θ) dθ dφ1 · · · dφn−2
0
0
0
rn−1 2π π
=
³
Γ
n−1 2
2 rn−1 π
=
Γ
³
n−1 −1 2
n−1 2
´
f r2 + kµk2 − 2r kµk cos φ1
´
senn−2 φ1 dφ1
0
n−1 2
´
Zπ ³
Zπ ³
f r2 + γ 2 − 2r γ cos φ1
´
senn−2 φ1 dφ1 ,
0
donde γ 2 = kµk2 . Considere ahora el cambio de variables u = r2 −→ r =
√
u,
cuyo jacobiano es J=
dr 1 = √ , du 2 u
de modo que √ gU (u) = gr ( u) |J| √ 1 = gr ( u) √ 2 u = =
2 (u(1/2) )n−1 π Γ π Γ
³
n−1 2
n−1 2
³
n−1 2 n
´
n−1 2
Zπ
´ u 2 −1
µ
³
1 2 u(1/2)
¶ Zπ
³
´
f u − 2 γ u(1/2) cos φ1 + γ 2 senn−2 φ1 dφ1 0
´
f u − 2 γ u(1/2) cos φ1 + γ 2 senn−2 φ1 dφ1 ; 0
u > 0,
´ CHI-CUADRADO GENERALIZADA 3.2. DISTRIBUCION
53
con γ 2 = µT µ = kµk2 = 2δ. Por tanto U = XT X = kXk2 = r2 ∼ Gχ2 (n, δ), donde δ = (1/2)µT µ = kµk2 es el par´ametro de no centralidad de la distribuci´on. [Distribuci´on Gχ2 centrada] Sea X ∼ Sn (f ). Entonces, U = XT X ∼ Gχ2 (n; f ) y su densidad es
n
π2
gU (u) =
Γ
n
³ ´ u 2 −1 f (u);
u > 0.
n 2
(3.4)
Demostraci´ on. Considere el Teorema 2.79 y reemplace en la expresi´on (3.2.3) γ = kµk = 0, de modo que µ = 0 (caso centrado). Entonces, gU (u) = = =
π
³
Γ
π
³
Γ
π Γ
³
n−1 2
n−1 2 n−1 2
n−1 2 n−1 2
´ u
n −1 2
Zπ
f (u) senn−2 φ1 dφ1 0
´ u
n −1 2
Zπ
senn−2 φ dφ
f (u) 0
n
n−1 2
´ u 2 −1 f (u) In .
La integral In es v´alida para toda distribuci´on El´ıptica y en particular para la distribuci´on Normal y en ese caso
µ
¶
u 1 − , f (u) = n exp 2 (2π) 2 obteniendo gU (u) = =
π Γ
³
n−1 2
n−1 2
´ u
1 n
1
22 π2 Γ
³
n −1 2
n−1 2
Ahora bien, como gU (u) es densidad entonces Z∞
1 =
gU (u) du 0
µ
u 1 − n exp 2 (2π) 2
´ u
n −1 2
µ
u exp − 2
¶
In ¶
In .
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
54
Z∞
=
1 n
0
1
22 π2 Γ n
1
n−1 2
µ ¶ n u ´ u 2 −1 exp − In du
2
Z∞
1
= In
³
22 π2 Γ
³
n−1 2
u
´
n −1 2
0
µ
u exp − 2
¶
du.
Usando ahora la funci´on Gamma se tiene Z∞
u
n −1 2
0
µ
u exp − 2
¶
du =
y por tanto 1
In =
³
Γ
³ ´
1 n ( )2 2
n−1 2 ³ ´ n Γ 2
π2 Γ
n 2
n 2
=2 Γ
µ ¶
n 2
´
As´ı, finalmente n
gU (u) =
π2 Γ
³ ´ u n 2
n−1 2
f (u);
u>0
y U = YT Y ∼ Gχ2 (n).
Note que la densidad dada en el Teorema 2.79 est´a expresada en t´erminos de una integral. En Teng, Fang y Deng [80] puede verse como esta densidad es expresada en t´erminos de las derivadas de la funci´on f , usando expansi´on en serie de Taylor de dicha funci´on. A continuci´on se da la demostraci´on de ese resultado. [Densidad Gχ2 no centrada en funci´on de las derivadas de f ] Sea U ∼ Gχ2 (n, δ; f ), 1 δ = µT µ y f expandible en serie de Taylor en IR. Entonces, una forma alternativa de 2 expresar la densidad de U es gU (u) =
n
∞ X
γ 2k π 2
k=0
n 2
k! Γ
³
+k
n
´ u 2 +k−1 f (2k) (u + γ 2 );
donde γ 2 = 2δ = µ0 µ y f (2k) (·) es la 2k-´esima derivada de f (·).
u > 0,
(3.5)
´ CHI-CUADRADO GENERALIZADA 3.2. DISTRIBUCION
55
Demostraci´ on. Sea U ∼ Gχ2 (n, δ; f ), con δ = (1/2)µT µ. Entonces su densidad viene dada por gU (u) =
π Γ
³
n−1 2
n−1 2
´ u
Zπ
n −1 2
f (u + γ 2 − 2u(1/2) γ cos φ) senn−2 φ dφ. 0
Considere el cambio de variable y = u(1/2) −→ u = y 2 , cuyo jacobiano es dy = 2y, du
J= tal que gU (y) = =
2π Γ
³
n−1 2
2π Γ
³
Zπ
n−1 2
´ y n−1
f (y 2 + γ 2 − 2 y γ cos φ) senn−2 φ dφ 0
n−1 2
n−1 2
´ y n−1 In ;
u > 0, γ 2 = 2δ.
Considere el desarrollo en serie de Taylor en IR dado por f (v) =
∞ X al l=0
l!
vl ,
procediendo an´alogamente a Anderson y Fang [1, p´ag. 85], se obtiene Zπ
f (y 2 + γ 2 − 2y γ cos φ) senn−2 φ dφ
In = 0
=
Zπ "X ∞ al 0
=
l=0
π ∞ X al Z l=0
√
=
l!
l!
# 2
l
(y + γ − 2y γ cos φ)
senn−2 φ dφ
(y 2 + γ 2 − 2y γ cos φ)l senn−2 φ dφ
0
µ
2
π n−1 Γ 2 2
¶ X ∞ k=0
γ 2k
³
k! Γ k +
n 2
´ y 2k f (2k) (y 2 + γ 2 )
(3.6)
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
56 con lo cual gU (y) = = =
2π Γ
³
n−1 2
2π Γ
³
∞ X k=0
n−1 2
´ y n−1 In √
n−1 2
n−1 2
´ y n−1
γ
2k
³
π
n 2
k! Γ k +
µ
π n−1 Γ 2 2 n 2
¶ X ∞ k=0
γ 2k
³
k! Γ k +
´ y n+2k−1 f (2k) (y 2 + γ 2 ),
n 2
´ y 2k f (2k) (y 2 + γ 2 )
u > 0,
donde γ 2 = µT µ = 2δ y f (2k) (·) es la 2k-´esima derivada de f (·) respecto de u. La expresi´on (2.17) s´olo es posible cuando la funci´on generadora de densidades, f , es expandible en serie de Taylor, lo cual ocurre cuando existen los momentos de dicha distribuci´on. Por tanto, este uso est´a limitado para aquellas distribuiones El´ıpticas que posean momentos (por ejemplo, esta representaci´on no es posible para la distribuci´on de Cauchy). Este hecho justifica la existencia de las dos expresiones para la densidad.
3.3 3.3.1
Distribuci´ on t Generalizada Introducci´ on
La distribuci´on t generalizada (Gt) juega un papel similar a la distribuci´on t bajo la teor´ıa de inferencia Normal. Como se ha mencionado, la distribuci´on Gt es la distribuci´on de T =s
X1 XT2 X2 n
=
√
X1 nq , XT2 X2
cuando X = (X1 XT2 )T tiene una distribuci´on El´ıptica. La notaci´on ECn+1 (µ, Σ; f ) sigue siendo v´alida, tanto bajo singularidad como no singularidad de la distribuci´on, tal como se menciona anteriormente. Recuerde que si X = (X1 XT2 )T ∼ Nn+1 (0, In+1 ), con X1 ∈ IR y X2 ∈ IRn , entonces T =
√
X1
nq
XT2 X2
∼ t(n)
´ T GENERALIZADA 3.3. DISTRIBUCION y tiene densidad n
gT (t) =
³
57
´
n+1 2 ³ ´ π (1/2) Γ n2
n2 Γ
(n + t2 )−
n+1 2
;
t ∈ IR.
(3.7)
An´alogamente, si X = (X1 XT2 )T ∼ Nn+1 (µ, In+1 ), con X1 ∈ IR y X2 ∈ IRn ; µT = [µ1 0], µ1 ∈ IR y µ1 6= 0, entonces T =
√
X1
nq
XT2 X2
con δ = µ1 y su densidad es gT (t) =
Γ
³ ´ n 2
n
Ã
n 2
(n + t2 )
³ ´ k ! ∞ n+k+1 Γ δ k 2 2 tk X δ 2 2
exp −
n+1 2
∼ t(n, δ),
2
k
k=0
k!(n + t2 ) 2
;
t ∈ IR.
(3.8)
Esta u ´ltima llamada distribuci´on t no centrada con par´ametro de no centralidad dado por δ = µ1 . De la misma forma, si X = (X1 XT2 )T ∼ Nn+1 (µ, Σ), con X1 ∈ IR y X2 ∈ IRn ; µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0; Σ ∈ IRn×n y dada por
Σ=
σ12 0
0 , Σn
Σn ∈ IRn×n y Σn > 0, entonces T =
√
X1 nq ∼ t(n, δ), XT2 Σ−1 X2
con δ = µ1 /σ1 .
3.3.2
Distribuci´ on t Generalizada Centrada y No Centrada
Haciendo uso de la invarianza de la distribuci´on Gt bajo leyes Esf´ericas se presenta el siguiente resultado, a continuaci´on de ´el se plantea la distribuci´on t generalizada no centrada bajo no singularidad de la ley El´ıptica. [Distribuci´on Gt centrada] Sea X = (X1 XT2 )T ∼ Sn+1 (f ), con X1 ∈ IR y X2 ∈ IRn . Entonces, T =
√
X1
nq
XT2 X2
∼ Gt(n; f ),
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
58
la cual coincide con la del caso de una distribuci´on Normal, esto es, Gt(n; f ) ≡ t(n), ∀f . [Distribuci´on Gt no centrada] Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces, T =
√
X1
nq
∼ Gt(n, δ; f ),
XT2 X2
con δ = µ1 y su funci´on de densidad viene dada por n
gT (t) =
2(nπ) 2 Γ
2 − n+1 2
Z∞
f (y 2 − 2δ1 y + δ 2 ) y n dy;
³ ´ (n + t ) n 2
t ∈ IR
(3.9)
0
donde δ es par´ametro de no centralidad y δ1 =
tδ . (n + t2 )(1/2)
Demostraci´ on. Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0]T , µ1 ∈ IR y µ1 6= 0. Entonces su densidad es gX (X) = f ((X − µ)T (X − µ)) donde
T
x 1 − µ1 x 2 T (X − µ) (X − µ) = . ..
xn+1 As´ı, gX (X) = f
Ãn+1 X
x 1 − µ1 n+1 X x2 = (x1 − µ1 )2 + x2i , .. i=2 .
xn+1 !
x2i + (x1 − µ1 )2 = h
i=2
Ãn+1 X
!
x2i = h(u),
i=2
esto es, la densidad anterior es funci´on de
n+1 X
x2i , de modo que es posible aplicar el Lema
i=2
2.4.5 (vea [32], p´ag. 53) que para nuestro caso particular se reduce a lo siguiente y teniendo q
presente que kX2 k =
XT2 X2 = R y U = R2 , tal que dU = 2R dR.
I(n) =
Z∞ Ãn+1 X
h
0
i=2
!
x2i
n Y
dxk
k=1
´ T GENERALIZADA 3.3. DISTRIBUCION Z∞
n
π2
=
Γ
n 2
Γ Γ
n 2
Γ
n
f (u + (x1 − µ1 )2 ) u 2 −1 du 0
Z∞
n 2
n 2
n
f (r2 + (x1 − µ1 )2 ) r2( 2 −1) (2r dr)
³ ´
2π
=
0
Z∞
n 2
³ ´
π
=
n
h(u) u 2 −1 du
³ ´
π
=
59
0
Z∞
n 2
f (r2 + (x1 − µ1 )2 ) rn−1 dr
³ ´ n 2
0
Sea l(·) Borel medible tal que, IE(l(X1 , R)) < ∞ y recuerde que T =
√
X1 R
n
−→
R=
√
n
X1 , T
cuyo jacobiano es J=
dX1 √ 1 = n . dT R
Entonces IE(T ) = IE(l(X1 , R)) Z∞ Z∞
n
= = =
2π 2 Γ
n 2
2π Γ
−∞ 0 Z∞ Z∞
n 2
Ã√
³ ´ n 2
2π Γ
l(x1 , r) rn−1 f (r2 + (x1 − µ1 )2 ) dr dx1
³ ´
−∞ 0 Z∞ Z∞
n 2
tr
³ ´
= √ = √ = √
n 2
2π nΓ 2π nΓ 2π nΓ
n 2
n 2
−∞ 0 Z∞ Z∞
tr f r + − µ1 n(1/2) "
µ
2
−∞ 0 Z∞ Z∞
Ã
dr
r √ dt n
dr dt
tr f
!
2
Ã
!
¶2 #
t2 r 2 2t r tr f r + − (1/2) µ1 + µ21 n n n
−∞ 0
¶2 #
Ã
n
³ ´ n 2
µ
2
tr − µ1 tr f r + n(1/2)
³ ´ n 2
rn−1 f (r2 + (x1 − µ1 )2 ) dr dx1
n
³ ´
n 2
!
"
n−1
−∞ 0 Z∞ Z∞ n 2
n x1 r
(t2 + n) r2 2t r µ1 − (1/2) + µ21 n n
dr dt
!
dr dt
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
60
As´ı, al hacer el cambio de variable Ã
y=
t2 + n n
cuyo jacobiano es dr J= = dy
Ã
!(1/2)
r,
t2 + n n
!−(1/2)
y reemplazando adecuadamente lo anterior y δ = µ1 , δ1 = (tδ)/(n + t2 )(1/2) en (3.3), se obtiene finalmente que gT (t) = √ = √
nΓ 2π nΓ
Ã
Z∞
n
2π 2
n
r f
³ ´ n 2
n 2
0
Ã
³ ´ n 2
!− n Z∞ 2
t2 + n n
=
Γ
2
y f y − 2δ1 y + δ
2 − n+1 2
dr 2
´
à !−(1/2) 2 t + n dy
n
Z∞
f (y 2 − 2δ1 y + δ 2 ) y n dy;
³ ´ (n + t ) n 2
³
n
!
0
n
2(nπ) 2
(t2 + n) r2 2t r δ − (1/2) + δ 2 n n
t ∈ IR
0
donde δ = µ1 el par´ametro de no centralidad de la distribuci´on Gt no centrada con (n − 1) g.l. y δ1 = (tδ)/(n + t2 )(1/2) . Sea T ∼ Gt(n, δ; f ). Entonces, si δ = 0 la densidad de una distribuci´on t generalizada no centrada coincide con la densidad de una distribuci´on t centrada. Demostraci´ on Sea T ∼ Gt(n, δ; f ). Entonces, su densidad es n
gT (t) =
2(nπ) 2 Γ
2 − n+1 2
Z∞
f (y 2 − 2δ1 y + δ 2 ) y n dy,
³ ´ (n + t ) n 2
0
si δ = 0 (caso centrado), se obtiene n
gT (t) = =
2(nπ) 2 Γ
Z∞
f (y 2 ) y n dy
³ ´ (n + t ) n 2
2(nπ) Γ
2 − n+1 2
(3.10)
0 n 2
³ ´ (n + t2 )− n 2
n+1 2
I(n).
(3.11)
La integral I(n) es v´alida para toda distribuci´on El´ıptica y en particular para la distribuci´on Normal, en cuyo caso f (u) =
µ
1 (2π)
n+1 2
exp −
u 2
¶
´ T GENERALIZADA 3.3. DISTRIBUCION
61
y as´ı se tiene Z∞
I(n) =
y 0
n
Ã
1 (2π)
n+1 2
!
y2 exp − 2
dy =
(2π)
Ã
Z∞
1
y
n+1 2
n
0
y2 exp − 2
Considere ahora el cambio de variable x = y 2 −→ y =
√
x,
cuyo jacobiano es J=
dy 1 =− √ dx 2 x
1 √ , 2 x
y |J| =
con lo cual I(n) = = = =
(2π)
y
n+1 2
y2 exp − 2
n
0
Z∞
1 (2π)
Ã
Z∞
1
x
n+1 2
µ
x exp − 2
n 2
0
Z∞
1
x
n+1 2
2 (2π) 1
0
n+1 +1 2
n+1 2
2³ ´π n+1 Γ 2 = n+1 . 2π 2
n+1 −1 2
µ
!
dy
¶
1 √ dx 2 x
µ
¶
x exp − dx 2
n+1 Γ 2
¶
2
n+1 2
Finalmente gT (t) =
2(n π) Γ n
=
n 2
³ ´ n 2
³
(n + t2 ) ´
n+1 2 ³ ´ (1/2) π Γ n2
n2 Γ
− n+1 2
(n + t2 )−
Γ
³
2π n+1 2
´
n+1 2 n 1 +2 2
!
dy,
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
62
3.4 3.4.1
Distribuci´ on F Generalizada Introducci´ on
La distribuci´on F generalizada (GF), al igual que la distribuci´on Gt, juega un papel similar a la distribuci´on F bajo la teor´ıa de Normal. Como ya se mencion´o, la distribuci´on GF es la distribuci´on de
XT1 X1 n XT1 X1 V = Tm = , X2 X2 m XT2 X2 n cuando X = (XT1 XT2 )T tiene una distribuci´on El´ıptica. La notaci´on ECm+n (µ, Σ; f ) sigue siendo v´alida, tanto bajo singularidad como no singularidad de la distribuci´on. Recuerde que si X = (XT1 XT2 )T ∼ Nm+n (0, Im+n ), con X1 ∈ IRm y X2 ∈ IRn , entonces V = y su densidad es gV (v) =
Γ
Γ
³
n XT1 X1 ∼ F (m, n) m XT2 X2
m+n 2
³ ´ m 2
Γ
´
m
n
m
m 2 n 2 v 2 −1
³ ´ n 2
(m + nv)
m+n 2
;
v > 0.
(3.12)
An´alogamente, si X = (XT1 XT2 )T ∼ Nm+n (µ, Im+n ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 0]T , µ1 ∈ IRm y µ1 6= 0, entonces n XT1 X1 ∼ F (m, n; δ), V = m XT2 X2 con δ = (1/2)µT1 µ1 y cuya densidad viene dada por ³ ´ m n m m+n+2k ∞ m 2 +k n 2 v 2 +k−1 X exp(−δ) δ k Γ 2 ³ ´ ³ ´ gV (v) = m+n+2k ; k=0
k!
Γ
m 2
+k Γ
n 2
(n + mv)
v > 0,
(3.13)
2
es decir, una suma ponderada infinita (cuyos factores de ponderaci´on vienen dados por una ley de Poisson de par´ametro δ = (1/2)µT1 µ1 ) de densidades F (m + 2k, n) centradas. Esta distribuci´on es llamada F no centrada con m g.l. en el numerador, n g.l. en el denominador y par´ametro de no centralidad δ = (1/2)µT1 µ1 .
´ F GENERALIZADA 3.4. DISTRIBUCION
63
Asimismo, si X = (XT1 XT2 )T ∼ Nm+n (µ, Im+n ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 µ2 ]T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0, entonces V =
n XT1 X1 ∼ F (m, n; δ1 , δ2 ), m XT2 X2
con δ1 = (1/2)µT1 µ1 y δ2 = (1/2)µT2 µ2 y tiene densidad ³ ´ m n m m+n ∞ X ∞ Γ + k + k m 2 +k1 n 2 +k2 v 2 +k1 −1 X 1 2 exp(−δ1 − δ2 ) δ1 δ2 2 ´ ³ ´ ³ gV (v) = m+n+2k1 +2k2 ; v > 0. k1 =0 k2 =0
k1 !k2 !
Γ
m 2
+ k1 Γ
n 2
+ k2 (mv + n)
2
Esta u ´ltima es llamada la distribuci´on F doble no centrada con m g.l. en el numerador, n g.l. en el denominador y par´ametros de doble no centralidad δ1 = (1/2)µT1 µ1 y δ2 = (1/2)µT2 µ2 . Por u ´ltimo, se tiene una mayor generalizaci´on si X = (XT1 XT2 )T ∼ Nm+n (µ, Σ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 µ2 ]T , µ1 ∈ IRn y µ1 6= 0, µ2 ∈ IRm y µ2 6= 0; Σ ∈ IR(m+n)×(m+n) , dada por
Σ11
Σ=
0
0 Σ22
,
con Σ11 ∈ IRm , Σ11 > 0, Σ22 ∈ IRm , Σ22 > 0, entonces n XT1 Σ−1 11 X1 V = ∼ F (m, n; δ1 , δ2 ), T m X2 Σ−1 22 X2 −1 T donde δ1 = (1/2)µT1 Σ−1 11 µ1 y δ2 = (1/2)µ2 Σ22 µ2 .
3.4.2
Distribuci´ on F Generalizada Centrada y No Centrada
De la misma forma que en el caso de la distribuci´on Gt, se usa la invarianza de la distribuci´on GF bajo leyes Esf´ericas para obtener el siguiente resultado. Posteriormente se plantea la distribuci´on GF no centrada bajo no singularidad de la ley El´ıptica. [Distribuci´on GF centrada] Sea X = (XT1 XT2 )T ∼ Sm+n (f ), con X1 ∈ IRm y X2 ∈ IRn . Entonces, V =
n XT1 X1 ∼ GF(m, n; f ), m XT2 X2
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
64
la cual coincide con la del caso de una distribuci´on Normal, esto es, GF(n, m; f ) ≡ F (m, n), ∀f .
Se presenta ahora la distribuci´on GF no centrada como caso particular de la distribuci´on GF doble no centrada, la que se presenta m´as adelante. [Distribuci´on GF no centrada] Sea XT = (X1 X2 ) ∼ ECm+n (µ, Im+n ; f ), con X1 ∈ IRm h
i
V =
n XT1 X1 ∼ GF(m, m; δ; f ), m XT2 X2
y X2 ∈ IRn ; µ ∈ IRm+n , µT = µT1 0 , µ1 ∈ IRm y µ1 6= 0. Entonces,
con δ = (1/2)µT1 µ1 y su funci´on de densidad viene dada por 2π
µ
n+m−1 2
m m ³ ´ ³ ´ gV (v) = v m−1 n n n Γ Γ 2 π ∞ Z Z
¶ m−2 µ
m 1+ v n
2
2
¶− m+n 2
senm−2 θ y m+n−1 f (y 2 − 2γ ∗ y cos θ + γ 2 ) dθ dy, v > 0, 0
0
(3.14) µ
donde γ ∗ =
mv n + mv
¶(1/2)
γ y γ 2 = 2δ.
Demostraci´ on. Considere la densidad de una distribuci´on F generalizada doble no centrada gV (v) =
³
2π
µ
n+m −1 2
Γ m−1 2 Zπ Zπ Z∞
´
Γ
³
n−1 2
´
m m v n n
¶ m−2 µ
m v 1+ n
2
¶− m+n 2
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y γ1∗ cos θ + γ12 0 0
0
−2 y γ2∗ cos θ + γ22 ) dy dθ dφ µ
donde γ1∗ =
mv n + mv
¶(1/2)
µ
γ y γ2∗ =
n mv
¶(1/2) µ
1+
n mv
¶−(1/2)
.
Haciendo γ2 = 0, se obtiene gV (v) =
³
2π
n+m −1 2
m−1 2 Zπ Zπ Z∞
Γ
´
Γ
³
n−1 2
µ
´
m m v n n
¶ m−2 µ 2
1+
m v n
¶− m+n 2
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ dφ 0 0
0
´ F GENERALIZADA 3.4. DISTRIBUCION µ
n+m −1 2
m m ³ ´ ³ ´ v = m−1 n−1 n n Γ Γ 2π 2
65
¶ m−2 µ
m 1+ v n
2
2
¶− m+n 2
π Z n−2 sen φ dφ 0
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ 0
2π
0
µ
n+m −1 2
m m ´ ³ ´ ³ = v Γ m−1 Γ n−1 n n 2
¶ m−2 µ
m 1+ v n
2
2
³ ´ ¶− m+n π (1/2) Γ n−1 2 2 ³ ´
Γ
n 2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ 0
=
Γ
³
2π
m−1 2
´
Γ
0
µ
n+m−1 2
m m v n n
³ ´ n 2
¶ m−2 µ 2
m 1+ v n
¶− m+n 2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2y γ ∗ cos θ + γ 2 ) dy dθ 0
µ
0
¶
m v (1/2) donde γ = γ. n + mv Sea V ∼ GF(m, n, δ; f ). Entonces, si δ = 0 la densidad de una distribuci´on F generalizada ∗
no centrada coincide con la densidad de una distribuci´on F centrada. Demostraci´ on Considere la densidad de una distribuci´on F generalizada no centrada gV (v) =
³
2π
m−1 2 Zπ Z∞
Γ
µ
n+m−1 2
´
Γ
³ ´ n 2
m m v n n
¶ m−2 µ 2
m v n
1+
¶− m+n 2
senm−2 θ y m+n−1 f (y 2 − 2γ ∗ y cos θ + γ 2 ) dθ dy, v > 0, 0
µ
donde γ ∗ =
mv n + mv
0
¶(1/2)
γ y γ 2 = 2δ.
Haciendo δ = 0 (caso centrado) se obtiene gV (v) =
Γ
³
2π
µ
n+m−1 2
m−1 2
´
Γ
³ ´ n 2
m m v n n
¶ m−2 µ 2
1+
m v n
¶− m+n 2
(3.15)
Zπ Z∞
senm−2 θy m+n−1 f (y 2 ) dθ dy (3.16) 0
=
Γ
³
2π
µ
n+m−1 2
m−1 2
´
Γ
³ ´ n 2
m m v n n
¶ m−2 µ 2
1+
m v n
0
¶− m+n 2
(3.17)
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
66
∞ π Z Z m−2 m+n−1 2 sen θ dθ y f (y ) dy (3.18) 0
2π
µ
n+m−1 2
m m ³ ´ ³ ´ = v Γ m−1 Γ n n n 2
Γ
³
m+n 2
=
Γ
Γ
³
µ
³ ´ m 2
Γ
m 1+ v n
¶ m−2 µ
m 1+ v n
2
2
m+n 2
µ
2
´
m m ³ ´ ³ ´ = v m n n n Γ Γ 2
¶
m−2 2
´
m
n
n 2
π
1 2
³
0
Γ m−1 2 ³ ´ m Γ 2
´
Γ
³
m+n 2
2π
´
(3.19)
m+n 2
¶− m+n 2
(3.20)
m
m 2 n 2 v 2 −1
³ ´
¶
− m+n 2
(m + nv)
m+n 2
;
v > 0.
(3.21)
Note que la densidad dada en el Teorema 4.88 est´a expresada a trav´es de una integral, en [33] se puede ver como esta densidad es expresada, usando desarrollo en serie de Taylor, en t´erminos de las derivadas de la funci´on f . A continuaci´on de da expl´ıcitamente la demostraci´on. [Densidad GF no centrada en funci´on de las derivadas de f ] Sea V ∼ GF (n, m, δ; f ), 1 con δ = µT1 µ1 y f expandible en serie de Taylor en IR. Entonces una forma alternativa de 2 expresar la densidad de V viene dada por m+n 2
m gV (v) = ³ n ´ n Γ 2π
2
µ
m v n
¶ m−2 µ 2
m 1+ v n
¶− m+n
∞ X
2
Z∞
γ 2k
k! Γ
k=0
³
n 2
y m+n+k−1 f (2k) (y + γ 2 ) dy,
´
+k
0
(3.22)
donde δ = (1/2)γ 2 = (1/2)µT µ y f (2k) (·) es la 2k-´esima derivada de f (·). Demostraci´ on. Sea V ∼ GF(m, n, δ; f ). Entonces su densidad es 2π
µ
n+m −1 2
m m ³ ´ ³ ´ gV (v) = v m−1 n n n Γ Γ 2 π ∞ Z Z
¶ m−2 µ 2
2
m 1+ v n
¶−(1/2)(m+n)
senm−2 θ y m+n−1 f (y 2 − 2γ1 y cos θ + γ 2 ) dθ dy,
= 0
0
µ
donde δ = (1/2)γ 2 = (1/2)µT µ y γ 1 =
mv n + mv
¶(1/2)
γ.
v > 0,
v > 0,
´ F GENERALIZADA 3.4. DISTRIBUCION
67 Z∞
y m+n−1 T (y) dy,
gV (v) = c(m, n; v) 0
donde 2π
µ
n+m −1 2
m m c(m, n; v) = ³ m−1 ´ ³ n ´ v n n Γ Γ 2
de modo que
¶ m−2 µ
m v 1+ n
2
2
¶−(1/2)(m+n)
,
Zπ
senm−2 θ f (y 2 − 2γ1 y cos θ + γ 2 ) dθ,
T (y) = 0
puede expresarse tal como en el Teorema 3.3 de la forma µ
T (y) = π (1/2) Γ
m−1 2
¶ X ∞ k=0
γ 2k
³
k! Γ k +
n 2
´ y k f (2k) (u + γ 2 ).
As´ı, finalmente, gV (u) =
Γ
³
2π
m+n 1 −2 2
m−1 2
´
Γ
³ ´ n 2
m n
µ
m v n
¶ m−2 µ
y
m+n−1
π
(1/2)
0
=
2π Γ
n 2
³ ´
m n
m 1+ v n
µ
Z∞
m+n 2
2
µ
m v n
m−1 Γ 2
¶ m−2 µ
∞ X k=0
2
1+
m v n
k! Γ k +
¶ X ∞ k=0
2
(3.23) γ 2k
³
k! Γ k +
n 2
´ y k f (2k) (u + γ 2 ) (3.24) dy
¶− m+n 2
(3.25)
Z∞
γ 2k
³
¶− m+n
n 2
y m+n+k−1 f (2k) (y + γ 2 ) dy;
´ 0
donde δ = (1/2)γ 2 = (1/2)µT µ y f (2k) (·) es la 2k-´esima derivada de f (·).
u > 0,(3.26)
68
´ DE FORMAS CUADRATICAS ´ CHAPTER 3. DISTRIBUCION
Part II RESULTADOS
69
Chapter 4 Distribuci´ on El´ıptica Singular 4.1
Introducci´ on
En este cap´ıtulo se encuentra la densidad de una vector aleatorio El´ıptico singular siguiendo el argumento propuesto en Rao [69, p. 527] y se hallan las distribuciones χ2 , t y F generalizadas asociadas a este vector aleatorio, en cuyo caso, y tal como se demuestra, la singularidad de la distribuci´on El´ıptica afecta los grados de libertad de tales distribuciones. Posteriormente, se utilizan dos distribuciones El´ıpticas singulares espec´ıficas, como lo son la Pearson tipo VII y la de tipo Kotz, hallando as´ı expl´ıcitamente las densidades de estas distribuciones. Finalmente, se tratan dos aplicaciones de la distribuci´on El´ıptica singular. La primera de ellas relacionada con la distribuci´on de los residuos de un modelo lineal El´ıptico y la segunda relacionada con el estad´ıstico t generalizado, basado en una muestra obtenida desde una poblaci´on El´ıptica.
4.2
Densidad de una distribuci´ on El´ıptica Singular
Tal como se mencion´o anteriormente, si X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n y Σ ≥ 0, es decir, rk Σ = r < n, entonces X tiene una distribuci´on El´ıptica singular. A continuaci´on se halla expl´ıcitamente la densidad de X de forma an´aloga al caso de una distribuci´on Normal singular, tal como en [69, p. 527] y [25]. 71
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
72
Sea X ∼ ECn (µ, Σ; φ), con µ ∈ IRn , Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Entonces, la funci´on de densidad de X viene dada por à r ! Y −1 2
λi
−
f [(X − µ)T Σ (X − µ)]
(4.1)
i=1
y N T X = N T µ,
con probabilidad 1,
(4.2)
−
r
lo cual se denotar´a por X ∼ ECn (µ, Σ; f ), donde Σ es un inverso generalizado sim´etrico de Σ, los λi son los valores propios no nulos de Σ y N ∈ Vn,(n−r) ≡ {N ∈ IRn×(n−r) /N T N = I(n−r) }, la variedad de Stiefel, tal que N T Σ = 0. Demostraci´ on: Dado que Σ = ΣT , entonces existe Q ∈ O(n), tal que
Dr 0 0 Σ = Q Q . 0 0
(4.3)
Considere ahora la partici´on Q = (B N ), con B ∈ IRn×r y N ∈ IRn×(n−r) y observe que
T B
T T B ΣB B Σ N
NT
N T ΣB N T Σ N
QT Σ Q =
Σ (B N ) =
Dr 0
=
0
y sea la transformaci´on
T T W B B X Y= = X = , Z NT N X
de modo que, por Fang y Zhang [32, p. 66], E(Z) = E(N T X) = N T µ y Cov(Z) = N T Cov(X) N = N T c0 Σ N = c0 N T Σ N = 0, donde c0 = −2φ(0), esto es, 0 Z ∼ EC(n−r) (N T µ, 0; f ),
0
(4.4)
´ EL´IPTICA SINGULAR 4.2. DENSIDAD DE UNA DISTRIBUCION
73
es decir, N T (X − µ) = 0,
con probabilidad 1.
(4.5)
Adem´as, nuevamente por Fang y Zhang [32, p. 66] E(W) = B T µ y V ar(W) = c0 B T Σ B, esto es, W ∼ ECr (B T µ, B T Σ B; f ), donde f (·) es la densidad restringida s´olo al rango de Σ, con lo cual la densidad de W es ¯ ¯−1/2 ¯ T ¯ ¯B Σ B ¯ f [(B T X − B T µ)T (B T ΣB)−1 (B T X − B T µ)].
(4.6)
As´ı, la funci´on de densidad conjunta de (W, Z) o la de X, est´a definida por (7) y (8). Alternativamente, observe que 1. |B T Σ B| = |Dr | =
r Y
λi , donde Dr es una matriz diagonal, cuyos elementos de su
i=1
diagonal son los λi , los valores propios no nulos de Σ. 2. Como
Dr 0
Σ = Q
0
0
T Q ,
entonces −
Σ
= Q
Dr−1 0
0 0
T Q = (B N )
Dr−1 0
0 B
T
0
T
N
−1 T = B Dr B .
De esta manera, por (2.6) −
Σ = B (B T Σ B)−1 B T ,
(4.7)
con lo cual se obtiene que (B T X − B T µ)T (B T Σ B)−1 (B T X − B T µ) = (X − µ)T B (B T Σ B)−1 B T (X − µ) −
= (X − µ)T Σ (X − µ).
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
74
As´ı, finalmente, la densidad de X est´a dada por à r ! Y −1/2
λi
−
f [(X − µ)T Σ (X − µ)]
(4.8)
i=1
y N (XT − µ) = 0, con probabilidad 1.
(4.9)
lo cual se interpreta como la densidad (2.8) sobre el hiperplano (2.9). Formalmente, la densidad de X existe con respecto a la medida de Hausdorff. As´ı, utilizando la notaci´on de Billingsley [8], W tiene densidad con respecto a la medida de Lebesgue definida sobre el conjunto A, digamos λr (A), donde A est´a definido por (2.9) y Z tiene densidad con respecto a la medida de conteo C{Z}, en donde el soporte s´olo contiene al punto Z = N 0 µ. Lo observadoanteriormente se de forma m´as clara en el siguiente ejemplo. ilustrar´ a X1 1 1 2 Sea X = ∼ EC21 µ = , Σ = ; f , donde rk Σ = 1; de modo que X2 1 2 4 X tiene una distribuci´on El´ıptica singular. Los valores propios de Σ son λ1 = 5 y λ2 = 0 y sus vectores propios asociados son de la forma (b 2b)T y (−2a a)T , respectivamente, con a, b ∈ IR. Luego, como los vectores propios no son u ´nicos, la densidad singular que se halla tampoco lo es. As´ı, si se consideran los vectores propios normalizados de B y N , se obtiene que √ √ 1/ 5 2/ 5 T Q = (B N ) = √ √ es ortogonal. Finalmente, la densidad de X = (X1 X2 ) viene 2/ 5 4/ 5 √ dada por (1/ 5 f [(1/25)(x21 − 6x1 + 4x1 x2 − 12x2 + 9)] y −2x1 + x2 + 1 = 0, con probabilidad 1; lo que se interpreta como la densidad de X con dominio en la recta L : −2x1 + x2 + 1 = 0. A continuaci´on se presentan 5 gr´aficos, dos de los cuales permiten ilustrar m´as claramente el ejemplo antes planteado (Gr´aficos 1 y 2), as´ı como el caso de degenerancia (Gr´aficos 3 y 4) y el no singular (Gr´afico 5). 1. En los Gr´aficos 1 y 2 se representan las densidades de una distribuci´on El´ıptica singular en IR2 de rango 1. Se ve c´omo dicha densidad, aunque no existe en todo el espacio, s´ı existe enuno de dimensi´on menor. Se muestran dos densidades particulares sobre sus
´ EL´IPTICA SINGULAR 4.2. DENSIDAD DE UNA DISTRIBUCION
75
respectivos planos; sin embargo, lo importante de este resultado es que, aun cuando la densidad no es u ´nica, la probabilidad de un evento se calcula a partir de cualquier representaci´on de esta densidad y coincide cualquiera sea ella. 15cm6cmd:/aapoyovl/seminary/eliptica/graf1y2.bmp 2. En los Gr´aficos 3 y 4 se representan las densidades de una distribuci´on El´ıptica singular en IR2 de rango 0. Se ve c´omo dicha densidad, aunque no existe en todo el espacio, en este caso est´a acumulada en un u ´nico punto, que es la intersecci´on de los planos, cuya representaci´on, de manera an´aloga al caso anterior, tampoco es u ´nica. 3. En el Gr´afico 5 se representa la densidad de una distribuci´on El´ıptica no singular en IR2 . Se ve c´omo dicha densidad ocupa todo el espacio.
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
76
15cm6cmd:/aapoyovl/seminary/eliptica/graf3y4.bmp 10cm6cmd:/aapoyovl/seminary/eliptica/gra
Dos distribuciones El´ıpticas espec´ıficas son la distribuci´on de Pearson tipo VII y la de tipo Kotz, las que a su vez contienen a las distribuciones t-multivariada, cuando m = (r + s)/2, y Normal multivariada, cuando m = 1, s = 1/2 y t = 1, respectivamente. As´ı, por Gupta y Varga [39] y el Teorema 2.91, se presentan a continuaci´on ambas distribuciones para el caso de un distribuci´on El´ıptica singular. Sea X ∼ ECnr (µ, Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. As´ı, si su densidad viene dada por à r ! Y −1 2
λi
i=1
−
−m
(X − µ)T Σ (X − µ) ´ 1 + ³ r s (πs) 2 Γ m − 2r Γ(m)
y N T (X − µ) = 0,
con probabilidad 1,
entonces X tiene una distribuci´on de Pearson tipo VII singular de rango r con par´ametros −
m > r/2 y s > 0, donde Σ es un inverso generalizado sim´etrico de Σ, los λi son los valores propios no nulos de Σ y N ∈ Vn,(n−r) , tal que N T Σ = 0. Sea X ∼ ECnr (µ,Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. As´ı, si su densidad viene dada por ³ ´ " 2m+r−2 Ã r ! µ ¸t ! Γ 2r Y −1/2 t s 2t − − m−1 ³ ´ (X − µ)T Σ [(X − µ)] λi exp −s (X − µ)T Σ (X − µ) r i=1
π2 Γ
2m+r−2 2t
y N T (X − µ) = 0,
con probabilidad 1,
entonces X tiene una distribuci´on de Tipo Kotz singular de rango r y par´ametros m, t y s, −
con 2m + r > 2, t > 0, s > 0, donde Σ es un inverso generalizado sim´etrico de Σ, los λi son los valores propios no nulos de Σ y N ∈ Vn,(n−r) , tal que N T Σ = 0.
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS
4.3
77
Distribuciones χ2, t y F Generalizadas
Las distribuciones χ2 , t y F generalizadas, centradas y no centradas, han sido ampliamente estudiadas para el caso de una distribuci´on El´ıptica no singular, incluyendo casos de El´ıpticas particulares, en los libros [1] y [32]. A pesar de ello, el uso de la densidad de una distribuci´on El´ıptica singular no ha sido a´ un estudiado. Esta singularidad de la ley El´ıptica afecta los grados de libertad de la distribuci´on. Particularmente, si el rango de Σ es r < n, entonces la distribuci´on χ2 asociada tiene r grados de libertad, una situaci´on an´aloga ocurre con las distribuciones t y F generalizadas.
4.3.1
Distribuci´ on χ2 Generalizada
Sea X ∼ ECn (µ, Σ; f ), con µ ∈ IRn , µ 6= 0, Σ ∈ IRn×n , Σ > 0 y rk Σ = r = n. Entonces, U = XT Σ−1 X tiene una distribuci´on Gχ2 no centrada, denotado por U ∼ Gχ2 (n, δ; f ) cuya densidad es gU (u) =
π Γ
³
n−1 2
n−1 2
´ u
n −1 2
Zπ
1
f (u − 2γ u 2 cos φ + γ 2 ) senn−2 φ1 dφ1 ;
u > 0,
(4.10)
0
donde γ 2 = µT Σ−1 µ = 2δ (vea [32, p. 82]). Una forma alternativa de expresar la densidad de U , si f es expandible en serie de Taylor en IR, es gU (u) =
n
∞ X
γ 2k π 2
k=0
n 2
k! Γ
³
n
+k
´ u 2 +k−1 f (2k) (u + γ 2 );
u > 0,
(4.11)
donde γ 2 = 2δ = µT µ y f (2k) (·) es la 2k-´esima derivada de f (·) (vea [80]). As´ı, bajo singularidad de la distribuci´on El´ıptica, obtenemos el siguiente resultado. Sea X ∼ ECnr (µ, Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , Σ ≥ 0 y rk Σ = r < n. Entonces, −
U = XT Σ X ∼ Gχ2 (r, δ; f ), −
con δ = (1/2)µT Σ µ.
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
78
Demostraci´ on. Sean X ∼ ECnr (µ, Σ; f ), con µ ∈ IRn , µ 6= 0; Σ ∈ IRn×n , rk Σ = r < n, −
Σ = QT Q y Q ∈ IRr×n una factorizaci´on de rango completo e Y = Q X. Entonces, −
Y ∼ ECr (ν, Ir ; f ), con ν = Q µ; luego kYk2 ∼ Gχ2 (r, δ; f ), con −
−
−
δ = (1/2)µT Q Q µ = (1/2)µT Σ µ. −
El resultado es inmediato, ya que kYk2 = XT Σ X. . Sea X con distribuci´on de Pearson tipo VII singular de rango r. Entonces, U = −
XT Σ X ∼ Gχ2 (r, δ; f ) tiene densidad gU (u) =
r ∞ sm− 2 Γ(m) X
³
Γ m−
r 2
(m)2k
´
k! Γ
k=0
³
r 2
r
+k
´ γ 2k u 2 +k−1 (s + u + γ 2 )−2k−m ;
u > 0,
(4.12)
−
donde γ 2 = 2δ = µT Σ µ. Demostraci´ on. Usando la densidad de una distribuci´on Gχ2 expresada en t´erminos de las −
derivadas de la funci´on f , dada anteriormente, obtenemos que si U = XT Σ X ∼ Gχ2 (r, δ; f ), entonces gU (u) =
r
∞ X
γ 2k π 2
k=0
r 2
k! Γ
³
r
+k
´ u 2 +k−1 f (2k) (u + γ 2 );
u > 0,
−
donde γ 2 = 2δ = µT Σ µ y f (2k) es la 2k-´esima derivada de f . En nuestro caso particular ·
Γ(m)
u ³ ´ 1+ f (u) = r r s (π s) 2 Γ m − 2
¸−m
y por tanto f (2k) (u) =
Γ(m) ³
r 2
π Γ m−
r 2
´ sm−r/2 (m)2k (s + u)−m−2k ,
donde (m)2k = m(m − 1)(m − 2) · . . . · (m − 2k + 1). As´ı, r
gU (u) =
r
∞ sm− 2 Γ(m) X (m)2k γ 2k u 2 +k−1 (s + u + γ 2 )−m−2k
³
Γ m−
r 2
´
k=0
k! Γ
³
r 2
+k
´
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS
79 −
. Sea X con distribuci´on de tipo Kotz singular de rango r. Entonces, U = XT Σ X ∼ Gχ2 (r, δ; f ) tiene densidad ts
gU (u) =
2m+r−2 2t
Γ
³
³ ´ r 2
2m+r−2 2t ∞ X ∞ 2k X
Γ
´
r
(−s)2(k+1) (t(z + 2k) + q − 1)2k u 2 +k−1 (u + γ 2 )t(z+2k)+m−1−2k
γ
k! (k + 2k)! Γ
k=0 z=0
³
r 2
+k
´
,
(4.13) −
donde u > 0 y γ 2 = 2δ = µT Σ µ. Demostraci´ on. De manera an´aloga al Corolario 3.97, si X tiene distribuci´on de tipo Kotz singular de rango r, entonces f (u) =
ts
2m+r−2 2t
³ ´
r 2 ³ ´ Γ 2m+r−2 2t
r
π2
Γ
³
´
um−1 exp −s ut ;
2m > r − 2, t, s > 0.
El resultado se sigue observando que f (u) =
ts
2m+r−2 2t
r
π2 Γ
³
³ ´
r ∞ X 2 ´ 2m+r−2 l=0 2t
Γ
(−r)l utl+m−1 , l!
con lo cual la derivada 2k-´esima de f es f
(2k)
ts
(u) =
r
π2
2m+r−2 2t
³ ´
r ∞ X (−s)2(k+1) 2 ³ ´ Γ 2m+r−2 z=l−2k=0 2t
Γ
(t(z + 2k) + q − 1)2k ut(z+2k)+m−1−2k . (k + 2k)!
As´ı, finalmente, gU (u) =
ts
2m+r−2 2t
³
Γ
³ ´ r 2
2m+r−2 2t ∞ ∞ X X 2k
Γ
γ
´
r
(−s)2(k+1) (t(z + 2k) + q − 1)2k u 2 +k−1 (u + γ 2 )t(z+2k)+m−1−2k k! (k + 2k)! Γ
k=0 z=0 −
con u > 0 y γ 2 = 2δ = µT Σ µ.
³
r 2
+k
´
,
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
80
4.3.2
Distribuci´ on t Generalizada
Sea X = (X1 XT2 )T ∼ ECn+1 (µ, In+1 ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0 ]T , q
µ1 ∈ IR y µ1 6= 0. Entonces, T = (X1 / (XT2 X2 )/n tiene una distribuci´on t generalizada no centrada, denotado por T ∼ Gt(n, δ; f ), con δ = µ1 y su funci´on de densidad es n
gT (t) =
2(nπ) 2 Γ
2 − n+1 2
Z∞
f (y 2 − 2δ1 y + δ 2 ) y n dy;
³ ´ (n + t ) n 2
t ∈ IR,
(4.14)
0 1
donde δ es el par´ametro de no centralidad y δ1 = (tδ)/((n + t2 ) 2 ) (vea [32, p. 85]). Sea T ∼ Gt(n, δ; f ). Entonces, si δ = 0, la distribuci´on t generalizada no centrada coincide con la distribuci´on t centrada cl´asica (vea [32, p. 63]). Se presenta ahora la distribuci´on Gt no centrada bajo singularidad de la distribuci´on El´ıptica asociada, esto es, cuando X ∼ ECnr (µ, Σ; f ), donde r < n es el rango de Σ. Esta singularidad de la ley El´ıptica afecta los grados de libertad de la distribuci´on de T , de forma similar al caso de la distribuci´on Gχ2 dada anteriormente. (r+1)
Sea X = (X1 XT2 )T ∼ EC(n+1) (µ, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn+1 , µ = [µ1 0]T
2 0 σ1 (n+1)×(n+1) y µ1 ∈ IR, µ1 6= 0; Σ = , Σn ∈ IRn×n y rk Σn = r < n. Entonces, ∈ IR 0 Σn
T =
√
X1
rq
−
XT2 Σ X2
∼ Gt(r, δ; f ),
con δ = µ1 /σ1 . (r+1)
Demostraci´ on. Sea X = (X1 XT2 ) ∼ EC(n+1) (µ, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; µ ∈ IRn ,
T
µ = [µ1 0]
y µ1 ∈ IR, µ1 = 6 0; Σ =
σ12 0
0 Σn
(n+1)×(n+1) ∈ IR .
Factorice Σn = Q QT , tal que Q ∈ IRn×r , con rk Q = r < n, de modo que
Y=
σ1−1 0
σ1−1 −
X1 Y1 0 . = − ·X = Y2 Q X2 Q
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS
81
Entonces, X = (Y1 Y2T )T ∼ EC(r+1) (ν, Ir+1 ; f ), con Y1 ∈ IR y Y2 ∈ IRr ; ν ∈ IRr+1 ,
ν=
σ1−1
σ1−1
0
0
Q
−
·µ=
0
0 µ1 µ1 /σ1 = ; − · 0 0 Q
luego T =
√
Y1
rq
Y2T Y2
=
√
√ X1 X1 q ∼ Gt(r, δ; f ), rq − = r − T − T (Q X2 ) (Q X2 ) X2 Σn X2
con δ = µ1 /σ1 . Sea X = (X1 XT2 ) con distribuci´on de Pearson tipo VII singular de rango (r+1). Entonces, T =
√
X1
rq
−
XT2 Σ X2
∼ Gt(r, δ; f ),
tiene densidad r
gT (t) =
r 2 Γ(m)
r 2
s Γ
³ ´ r 2
³
Γ m−
r 2
´ (r + t2 )−
r+1 2
∞ (−m) (−2 δ )k (s + δ 2 ) X k 1
r−2m−k+1 2
)Γ
³
r+k+1 2
´
Γ
³
2m+k−r−1 2
k! sk Γ (m + k)
k=0
´
,
(4.15)
donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 . Demostraci´ on. Sea X con distribuci´on de Pearson tipo VII singular de rango (r + 1) de par´ametros m > (r + 1)/2 y s > 0. Entonces ·
Γ(m)
f (u) =
r
³
(πs) 2 Γ m −
r 2
´
u 1+ s
¸−m
.
As´ı, si T ∼ Gt(r, δ; f ) r
gT (t) =
2 r 2 Γ(m) r 2
³
s Γ m−
r 2
´
Γ
2 − r+1 2
Z∞ "
³ ´ (r + t ) r 2
0
y 2 − 2δ1 y + δ 2 1+ s
#−m
y r dy,
con δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 . Entonces, usando el desarrollo en serie dado en [1, p. 85], se tiene que "
y 2 − 2δ1 y + δ 2 1+ s
#−m
=
∞ X (−m)k k=0
k!
Ã
−2 δ1 y s
!k Ã
y2 + δ2 1+ s
!−k−m
,
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
82 con lo cual r
2 r 2 Γ(m)
gT (t) =
³
r 2
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2
r+1 2
∞ X (−m)k (−2 δ1 )k
k!
k=0
Z∞ Ã 0
sk
y2 1+ s + δ2
(s + δ 2 )
!−k−m Ã
r−k −m 2
y2 s + δ2
! r+k 2
dy.
Considere ahora el cambio de variable q
y2 u= s + δ2 cuyo jacobiano es
=⇒
y=
u (s + δ 2 ),
¯ ¯ ¯ dy ¯ (s + δ 2 )1/2 ¯ ¯ J = ¯¯ ¯¯ = , du 2 u1/2
de donde, finalmente r
r 2 Γ(m)
gT (t) =
³
r 2
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2
r+1 2
∞ (−m) (−2 δ )k (s + δ 2 ) X k 1
r−k+1 −m 2
Γ
³
r+k+1 2
´
Γ
³
2m−r+k−1 2
´
k! sk Γ(k + m)
k=0
. Sea X = (X1 XT2 ) con distribuci´on de tipo Kotz singular de rango r, con m = 2 y s = 1. Entonces, T =
√
X1 rq ∼ Gt(r, δ; f ) − XT2 Σ X2
tiene densidad gT (t) =
r
r
(r +
r+1 t2 )− 2
4r 2 −1 s 2 +1
Γ
³ ´
∞ X k=0
r 2
exp(−s δ 2 ) "
#
r + 2k + 1 −sk (r + 2k) Γ(r + 2k) (r + 2k + 2)(r + 2k + 1) − 2δ + δ2 , 1 r+2k+1 2 k! (2s δ1 ) (2s δ1 ) 2s δ1 (4.16)
donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 .
4.3. DISTRIBUCIONES χ2 , T Y F GENERALIZADAS
83
Demostraci´ on. Sea X con distribuci´on de Tipo Kotz Singular de rango r de par´ametros m, t y s, y 2m + r > 2, t > 0, s > 0. Entonces f (u) =
ts
2m+r−2 2t
r
π2 Γ
³
³ ´
r 2 ´ 2m+r−2 2t
Γ
´
³
um−1 exp −s ut ;
2m > r − 2, t, s > 0.
r
r
Considere el caso en que m = 2 y t = 1, con lo cual f (u) = ((2 s 2 +1 )/r) π 2 u exp(−s u), lo que conduce a r
2(rπ) 2
gT (t) =
Γ
³ ´ (r + t2 )− r 2
Z∞ 0
r+1 2
r
2 s 2 +1 2 (y − 2δ1 y + δ 2 ) exp(−s (y 2 − 2δ1 y + δ 2 )) y r dy. r r π2
Usando ahora desarrollo en serie y la funci´on Gamma, se obtiene finalmente que r
gT (t) =
r
4r 2 −1 s 2 +1
Γ
³ ´ r 2
(r + t2 )
r+1 2
exp(−s δ 2 ) "
∞ X −sk (r + 2k) Γ(r + 2k) k=0
k! (2s δ1 )r+2k+1
#
(r + 2k + 2)(r + 2k + 1) r + 2k + 1 − 2δ + δ2 , 1 (2s δ1 )2 2 s δ1
con δ = µ1 y δ1 = (tδ)/((r + t2 )1/2 ).
4.3.3
Distribuci´ on F Generalizada
Sea X = (XT1 XT2 ) ∼ EC(m+n) (µ, Im+n ; f ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n , µ = [µ1 0]T , µ1 ∈ IRm y µ1 6= 0. Entonces, V = (n/m)((XT1 X1 )/(XT2 X2 )) tiene una distribuci´on F generalizada no centrada, denotado por F ∼ GF(m, n, δ; f ), cuya densidad es m+n−1 2
m gV (v) = ³ m−1 ´ ³ n ´ n Γ Γ 2π 2
2
µ
m v n
¶ m−2 µ 2
m 1+ v n
¶− m+n 2
Zπ Zπ
senm−2 θ y m+n−1 f (y 2 − 2δ1 y cos θ + δ 2 ) dθ dy; 0
0
donde δ 2 = µT µ y δ1 = (m v/(n + mv))2 δ, tal como en [32, p. 86].
u > 0, (4.17)
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
84
Una forma alternativa de expresar la densidad de V , si f es expandible en serie de Taylor en IR, es en t´erminos de las derivadas de la funci´on f , quedando representada de la siguiente manera: 2π
m+n−1 2
m gV (v) = ³ m−1 ´ ³ n ´ n Γ Γ 2
µ
2
m v n
¶ m−2 µ
m 1+ v n
2
∞ X k=0
¶− m+n
Z∞
γ 2k
k! Γ
³
n 2
2
+k
y m+n+k−1 f (2k) (y + γ 2 ) dy,
´
v > 0,
0
(4.18)
donde δ = (1/2)γ 2 = (1/2)µT µ y f (2k) (·) es la 2k-´esima derivada de f (·), tal como puede verse en [33]. (r +r )
1 2 Sea X = (XT1 XT2 )T ∼ EC(m+n) (µ, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ; µ ∈ IRm+n ,
h
iT
Σ11 0 (m+n)×(m+n) µ = µT1 0 , µ1 ∈ IRm , µ1 6= 0; Σ = , Σ11 ∈ IRm×m y ∈ IR 0 Σ22 n×n rk Σ11 = r1 < m, Σ22 ∈ IR y rk Σ22 = r2 < n. Entonces, −
r2 XT1 Σ11 X1 ∼ GF(r1 , r2 ; δ; f ), V = r1 XT Σ− X2 2 22 −
con δ = (1/2)µT1 Σ11 µ1 . (r +r )
1 2 Demostraci´ on. Sea X = (XT1 XT2 ) ∼ EC(m+n) (µ, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ;
h
iT
Σ11
µ = µT1 0 , µ1 ∈ IRm y µ1 6= 0; Σ = rk Σ11 = r1 < m, Σ22 ∈ IR
n×n
y rk Σ22 −
Q1 Y=hX= 0
0
∈ IR(m+n)×(m+n) , Σ11 ∈ IRm×m y
Σ22 = r2 < n. Considere, adem´as, la descomposici´on
Σ11 = Q1 QT1 y Σ22 = Q2 QT2 , de modo que
0
−
0 X1 Q1 X1 Y1 . = = − − Y2 Q2 X2 Q2 X2 h
iT
Entonces, Y = (Y1T Y2T ) ∼ EC(r1 +r2 ) (ν, Ir1 +r2 ; f ), con Y1 ∈ IRr1 y Y2 ∈ IRr2 ; ν = ν1T 0 , −
ν1 ∈ IRr1 y ν1 = Q1 µ1 6= 0; luego −
r2 Y1 Y1 r2 XT1 Σ11 X1 V = = ∼ GF(r1 , r2 ; δ; f ), r1 Y2T Y2 r1 XT Σ− X2 2 22
4.4. APLICACIONES
85 −
−
con δ = (1/2)(ν1T ν1 ) = (1/2)(µT1 Σ11 µ1 ) y Σii , i = 1, 2 es un inverso generalizado sim´etrico. Sea V ∼ GF(m, n; δ; f ). Entonces, si δ = 0, V tiene una distribuci´on F generalizada centrada, la cual coincide con distribuci´on F centrada cl´asica (vea [32, p. 63]). La distribuci´on GF no centrada, obtenida bajo singularidad de la distribuci´on El´ıptica asociada, esto es, cuando X ∼ ECnr (µ, Σ; f ), es afectada en los grados de libertad de la distribuci´on de V , al igual que en el caso de las distribuciones χ2 y t, dadas anteriormente. Cuando
−
r2 XT1 Σ11 X1 ∼ GF(r1 , r2 ; δ; f ), V = r1 XT Σ− X2 2 22 −
con δ = (1/2)(µT1 Σ11 µ1 ), y X tiene una distribuci´on de Pearson tipo VII singular de rango (r1 + r2 ) o una distribuci´on de tipo Kotz singular de rango (r1 + r2 ), la forma expl´ıcita de la densidad de X se encuentra desarrollada en [33].
4.4
Aplicaciones
En esta secci´on se aplica la distribuci´on El´ıptica singular a la distribuci´on de los residuos de un modelo lineal El´ıptico y a la distribuci´on del estad´ıstico t generalizado, basado en un muestra obtenida desde una poblaci´on El´ıptica, .
4.4.1
Distribuci´ on de los Residuos de un Modelo Lineal El´ıptico
Considere el modelo lineal de rango completo Y = Xβ + ², donde ², Y ∈ IRn , X ∈ IRn×p , β ∈ IRp e Y ∼ ECn (Xβ, σ 2 In ; f ), cuyos residuos est´an dados por −
ˆ = (I − XX )Y. e=Y−X
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
86
De esta manera, e tiene una distribui´on El´ıptica singular, m´as a´ un, −
e ∼ ECn(n−p) (0, σ 2 (I − XX ); f ), donde σ02 = c0 σ 2 , c0 = −2φ0 (0), φ(·) est´a dado en (2.2.1) y σ 2 es el par´ametro de escala de la distribuci´on de e. Lo anterior debido a que −
−
rk(distribuci´on) = rk(Cov(e)) = rk(Cov((I − XX )Y)) = rk(σ02 (I − XX )) = n − p, Asimismo, − −
− − 1 1 1 (I − XX ) e = 2 YT (I − XX )Y = 2 ||(I − XX )Y||2 = 2 (YT Y − βˆT XYT ) = eT e, e 2 σ σ σ σ T
donde eT e ∼ Gχ2 (n − p; f ). σ2 De la expresi´on anterior, ahora note que la suma de cuadrados debido al modelo, YT Xβˆ es tal que −
−
−
−
YT Xβˆ = YT XX Y = YT (XX )T (XX )Y = ||XX Y||2 , con −
−
XX Y ∼ ECnp (Xβ, σ 2 XX ; f ), pues −
−
E(XX Y) = XX Xβ = Xβ, −
−
−
Cov(XX Y) = XX σ02 I(XX )T = σ02 XX
−
y −
−
rk[Cov(XX Y)] = rk(XX ) = rk(X) = p, por lo tanto
− − (XX )(XX ) YT Xβˆ (Y XX ) Y = ∼ Gχ2 (p, δ; f ), 2 2 σ σ T
−
4.4. APLICACIONES
87
donde δ es el par´ametro de no centralidad de la distribuci´on Gχ2 y viene dado por δ = ||Xβ||2 /(2σ 2 ). Observe que la expresi´on para U dada en (11) es una acntidad pivotal para σ 2 , esto es, el par´ametro de escala de la distribuci´on del vector de residuos. De etsa forma, es posible establecer una expresi´on expl´ıcita para el intervalo de confianza de par´ametro antes mencionado a partir de la cantidad pivotal y de los Corolarios ? y ? al reemplazar el par´ametro de no centralidad δ por cero. Los resultados obtenidos se presentan en la Tabla 2. Tabla 2 Formas expl´ıcitas de los Intervalos de Confianza del 100(1 − α)% el par´ametro de escala de la distribuci´on del vector de residuos para las distribuciones El´ıpticas que se especifican. Ley El´ıptica
Distribuci´ on de U =
Pearson VII
s(n − p) U= Y 2m − n + p
eT e σ2
IC100(1−α)% (σ 2 )
Tipo Kotz
U = Y 1/t Y ∼ Γ(s, 2m+n−p−2 ) 2t
Normal
Ã
U = (n − p)Y Y ∼ F(n − p, s)
U ∼ χ2 (n − p)
eT e/(n − p) eT e/(n − p) , F1− α2 (n − p, s) F α2 (n − p, s)
!
eT e
eT e
, (Γ1− α2 (s, 2m+n−p−2 ))1/t (Γ α2 (s, 2m+n−p−2 ))1/t 2t 2t
eT e eT e , χ21− α (n − p) χ2α (n − p) 2
4.4.2
2m−n+p T s(n−p) e e
eT e
, F1− α2 (n − p, 2m − n + p) F α2 (n − p, 2m − n + p)
Y ∼ F(n − p, 2m − n + p) t-multivariada
2m−n+p s(n−p)
2
Distribuci´ on del Estad´ıstico t Generalizado
A continuaci´on se hallar´a la distribuci´on del estad´ıstico t generalizado, basado en una muestra obtenida desde una poblaci´on El´ıptica, la que involucra a la distribuci´on El´ıptica singular, Fang y Zhang [32, p. 63]. Sea X ∼ ECn (ν, σ 2 In ; f ), con ν = µ 1n , ν ∈ IRn , µ ∈ IR, 1n ∈ IRn , σ02 = c0 σ 2 ,
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
88
c0 = −2φ0 (0) y φ dado en (2.2.1). Entonces, T = ¯= donde X
n X
Xi /n y S 2 =
i=1
¯ √ X n ∼ Gt(n − 1, δ; f ), S
(4.19)
n X
¯ 2 /(n − 1) y δ = µ/σ es el par´ametro de no centralidad (Xi − X)
i=1
de la distribuci´on Gt no centrada con (n − 1) g.l. Demostraci´ on. Para aplicar el Teorema 3.99 defina Y=AX=
1 1n T nσ 1 D σ
X=
1 1n T X nσ 1 DX σ
Y1 = ,
Y2
con D = (In − (1/n)1n 1n T ) = D2 = DT , de modo que
Y1 µ/σ 1 0 n Y= ∼ EC(n+1) , ; f , Y2 0 0 D esto es, Y tiene una distribuci´on El´ıptica singular; para ver esto observe que E(Y) = E(A X) = A µ 1n =
1 1n T nσ 1 D σ
µ/σ µ 1n = µ σ
D 1n
.
Adem´as, rk(D) = tr(In − (1/n)1n 1n T ) = n − tr((1/n)1n 1n T ) = n − 1. Entonces, observando que D1n = 0, se tiene que E(Y) = (µ/σ 0). Por otro lado, el par´ametro Σ de X, digamos ΣY , es ΣY = A ΣX AT = σ 2 A AT . Ahora, como
A AT
se obtiene que
ΣY =
2 0 1/σ = , 0 (1/σ 2 ) D
1/n 0
0 1 0 = . 0 D ΣY2
4.4. APLICACIONES
89 −
−
Finalmente, observe que ΣY = D = D, As´ı, T se puede escribir como 2
T =
√
nv u
Y1
u T − u Y2 ΣY Y2 2 t
(n − 1)
=
√
nv uµ
1 1n T X nσ
¶T ¶ µ u 1 − 1 u D X ΣY DX u 2 σ t σ
=
√
1 T 1n X ¯ √ X n nv = n , u T S uX D X t (n − 1)
(n − 1)
con lo cual, por el Teorema 3.99, se obtiene queT =
√
¯ n X/S ∼ Gt(n−1, δ; f ), donde δ = µ/σ.
90
´ EL´IPTICA SINGULAR CHAPTER 4. DISTRIBUCION
Chapter 5 Distribuciones Gt y GF Doble No Centrada 5.1
Introducci´ on
Las distribuciones t y F obtenidas a partir de distribuciones El´ıpticas se denominan distribuciones t y F generalizadas. Sin embargo, si el par´ametro de posici´on ν de la ley El´ıptica es igual a cero, entonces las distribuciones t y F generalizadas coinciden con las distribuciones t y F obtenidas bajo normalidad, esto es, estas distribuciones son invariantes bajo leyes El´ıpticas cuando ν = 0 (vea [32, p.67]). Por otro lado, las distribuciones t y F generalizadas no centradas dependen de la ley El´ıptica particular bajo la cual fueron obtenidas. Asimismo, las distribuciones t y F generalizadas doble no centradas, an´alogas a las del caso Normal, dependen tambi´en de la ley El´ıptica asociada. La distribuci´on t doble no centrada bajo una distribuci´on Normal ha sido estudiada en [9], mientras que la distribuci´on F doble no centrada ha sido estudiada en [81]. Esta u ´ltima distribuci´on ha sido utilizada para calcular la potencia de la prueba de interacci´on de efectos en el modelo de an´alisis de varianza a dos criterios de clasificaci´on con una observaci´on por celda (vea [10]). Del mismo modo, la distribuci´on F doble no centrada se ha utilizado para 91
92
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
calcular la probabilidad del error de se˜ nales binarias de recepci´on multicanal adaptiva (vea [67]). Por otra parte, estas distribuciones doble no centradas han sido tambi´en aplicadas a problemas de comunicaci´on, en se˜ nales capturadas a trav´es de radar, y en patrones de reconocimiento, donde se involucran operaciones con formas cuadr´aticas basadas en datos normales (vea [82], [48], [75] y [87]).
En este cap´ıtulo se presentan las distribuciones t y F generalizadas, tanto para el caso centrado, no centrado y doble no centrado, y bajo singularidad y no singularidad de la distribuci´on El´ıptica asociada, en cuyo caso la singularidad de la distribuci´on afecta los grados de libertad de las distribuciones t y F generalizadas (vea [25]). Para las distribuciones t y F generalizadas centradas, se usa la invarianza de tales distribuciones bajo leyes El´ıpticas con par´ametro de posici´on igual a cero, coincidiendo con las del caso Normal. Para las distribuciones F generalizadas no centrada y doble no centrada, se presentan sus densidades tanto en t´erminos de integrales como de las derivadas de la funci´on generadora de densidades asociada a cada distribuci´on El´ıptica, y por ende de cada distribuci´on GF. En el caso de la distribuciones t generalizadas no centrada y doble no centrada no es posible obtener esta representaci´on, por lo que su densidad s´olo se expresa a trav´es de integrales. Finalmente se ilustran todos estos resultados para dos subfamilias de distribuciones El´ıpticas, como lo son la distribuci´on de Pearson tipo VII y la distribuci´on de tipo Kotz, subfamilias que a su vez contienen como casos particulares a las distribuciones El´ıpticas t y Normal multivarian-tes, respectivamente. En esta ilustraci´on y para el caso de la distribuci´on GF, se observa la evidente simplificaci´on que se produce al usar la densidad en t´erminos de la derivada de la gene-radora de densidades en lugar de la expresi´on integral. Sin embargo, se debe tener presente que la aplicaci´on de este resultado es s´olo posible cuando la generadora de densidades, asociada a la particular distribuci´on El´ıptica que se haya considerado, sea expandible en serie de Taylor, lo cual ocurre cuando existen los momentos de dicha distribuci´on. Como no todas las distribuciones El´ıpticas disponen de momentos, como por ejemplo la distribuci´on de Cauchy, esto motiva entonces la existencia de las dos expresiones para la densidad.
´ GT DOBLE NO CENTRADA 5.2. DISTRIBUCION
5.2
93
Distribuci´ on Gt Doble No centrada
Tal como se mencion´o, la distribuci´on Gt es la distribuci´on t obtenida bajo una ley El´ıptica. En esta secci´on se presentan las distribuciones Gt centrada, no centrada y doble no centrada, obtenidas bajo una distribuci´on El´ıptica singular y no singular. La distribuci´on Gt juega un papel similar al de la distribuci´on t bajo la teor´ıa de inferencia Normal, y corresponde a la distribuci´on de X1
T =q
(XT2 X2 )/n
√
=
X1 , nq XT2 X2
(5.1)
cuando X = (X1 XT2 )T ∈ IRn+1 sigue una distribuci´on El´ıptica, con X1 ∈ IR y X2 ∈ IRn . As´ı, haciendo uso de la invarianza de la distribuci´on Gt bajo leyes El´ıpticas con par´ametro de posici´on igual a cero (vea [32, p. 67]), esto es, X = (X1 XT2 )T ∼ ECn+1 (0, Σ; f ), con X1 ∈ IR y X2 ∈ IRn , Σ ∈ IRn , Σ > 0, se obtiene que T =
√
X1
nq
XT2 Σ−1 X2
∼ Gt(n; f ),
(5.2)
la cual coincide con la del caso Normal, esto es, Gt(n; f ) ≡ t(n), ∀f .
5.2.1
Distribuci´ on Gt No Centrada
A continuaci´on se presenta la distribuci´on Gt no centrada bajo singularidad y no singularidad de la distribuci´on El´ıptica asociada. h
iT
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ 0T ,
µ ∈ IR y µ 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ =
T =
√
σ
2
0
0 n×n y rk Σn = n. Entonces, , Σn ∈ IR Σn
X1 ∼ Gt(n, δ; f ), nq X XT2 Σ−1 2 n
con par´ametro de no centralidad δ = µ/σ.
(5.3)
94
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA h
iT
Demostraci´ on. Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con ν ∈ IRn , ν = µ 0T , µ ∈ IR
2
σ 0 (n+1)×(n+1) y µ 6= 0, Σ = y rk Σn = n. Considere la descomposici´on Σn = ∈ IR 0 Σn Q QT , de modo que
σ
Y=
−1
0 −1
0
Q
−1
X1 Y1 σ X = −1 = . Q
X2
Y2
Entonces, Y = (Y1 Y2T )T ∼ ECn+1 (η, In+1 ; f ), con Y1 ∈ IR y Y2 ∈ IRn ; η ∈ IRn+1 ,
η=
σ
−1
0 σ ν = −1 Q 0
0
−1
0 µ µ/σ = . −1 Q 0 0
Finalmente, T =
√
Y1
nq
Y2T Y2
=
√
√ X1 X1 µ n q −1 = nq ∼ Gt(n, δ; f ), δ = . −1 −1 σ (Q X2 )T (Q X2 ) XT2 Σn X2
De [32] se sabe que si T ∼ Gt(n, δ; f ), entonces la funci´on de densidad de T es n
gT (t) =
2(nπ) 2 Γ
2 − n+1 2
Z∞
f (y 2 − 2δ1 y + δ 2 ) y n dy;
³ ´ (n + t ) n 2
t ∈ IR,
(5.4)
0
donde δ es el par´ametro de no centralidad y δ1 = (tδ)/(n + t2 )1/2 . De forma an´aloga al caso no singular (Σ > 0), tambi´en es posible obtener la distribuci´on Gt no centrada bajo una distribuci´on El´ıptica singular, esto es, cuando X ∼ ECnr (ν, Σ; f ), donde r < n es el rango de Σ (Σ ≥ 0). Esta singularidad afecta los g.l. de la distribuci´on Gt, tal como se ver´a a continuaci´on.
h
r+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ 0T Sea X = (X1 XT2 )T ∼ ECn+1
2 σ
µ ∈ IR, µ 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ =
T =
√
0
0 Σn
, Σn ∈ IR
X1
nq
− XT2 Σn X2
n×n
∼ Gt(r, δ; f ),
iT
y
y rk Σn = r < n. Entonces,
(5.5)
´ GT DOBLE NO CENTRADA 5.2. DISTRIBUCION
95
−
con par´ametro de no centralidad δ = µ/σ y Σ es un inverso generalizado sim´etrico de Σ. Demostraci´ on. Es an´aloga a la del Teorema 1, reemplazando Q −
−
−1
−
−
por Q , donde Q es un
−
inverso generalizado sim´etrico de Q, con lo cual Σn = Q Q y con rk Σn = r < n. De este modo, la distribuci´on Gt no centrada tiene r g.l. y el mismo par´ametro de no centralidad dado en (6).
5.2.2
Distribuci´ on Gt bajo una Ley de Pearson Tipo VII Singular
A continuaci´on se estudia la distribuci´on Gt bajo una distribuci´on de Pearson tipo VII singular. [Gt bajo una ley de Pearson tipo VII] Sea X = (X1 XT2 )T con distribuci´on de Pearson tipo VII singular de rango r + 1. Entonces, T =
√
X1
nq
−
XT2 Σ X2
∼ Gt(r, δ; f ),
tiene densidad r
gT (t) =
r 2 Γ(m)
r 2
s Γ
³ ´ r 2
³
Γ m−
r 2
´ (r + t2 )−
r+1 2
∞ (−m) (−2 δ )k (s + δ 2 ) X k 1
r−2m−k−1 2
)Γ
³
r+k+1 2
´
k! sk Γ (m + k)
k=0
Γ
³
2m+k−r−1 2
´
,
(5.6) donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 . Demostraci´ on. Sea X con distribuci´on de Pearson singular de rango r + 1 de par´ametros r+1 m> y s > 0. Entonces 2 f (u) =
·
Γ(m) r
³
(πs) 2 Γ m −
r 2
´
1+
u s
¸−m
.
As´ı, como r
gT (t) =
2(rπ) 2 Γ
³ ´ (r + t2 )− r 2
r+1 2
Z∞
f (y 2 − 2δ1 y + δ 2 ) y r dy; 0
t ∈ IR,
96
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA tδ
con δ = µ1 y δ1 =
1
, entonces
(r + t2 ) 2
Z∞
r
gT (t) = =
2(rπ) 2 Γ
2 − r+1 2
³ ´ (r + t ) r 2
2 r Γ(m) ³
r 2
(πs)
0 r 2
s Γ m−
r 2
´
Γ
"
Γ(m) r+k 2
³
Γ m−
2 − r+1 2
Z∞ "
³ ´ (r + t ) r 2
0
r 2
´
y 2 − 2δ1 y + δ 2 1+ s
y 2 − 2δ1 y + δ 2 1+ s
#−m
y r dy
#−m
y r dy,
usando el desarrollo en serie dado en Anderson y Fang [1, p´ag. 85], se tiene "
y 2 − 2δ1 y + δ 2 1+ s
#−m
=
∞ X (−m)k
Ã
k!
k=0
−2 δ1 y s
!k Ã
y2 + δ2 1+ s
!−k−m
,
tal que r
gT (t) =
2 r 2 Γ(m) r 2
³
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2 Z∞ X ∞ 0
k=0
r+1 2
(−m)k k!
Ã
−2 δ1 y s
!k Ã
y2 + δ2 1+ s
!−k−m
y r dy
r
=
2 r 2 Γ(m) r 2
³
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2
!−k−m ∞ Ã ∞ X (−m)k (−2 δ1 )k Z (s + δ 2 ) + y 2
k! sk
k=0
=
r 2
2 r Γ(m) r
³
s2 Γ m −
r 2
r+1 2
´
Γ
³ ´ (r + t2 )− r 2
(s + δ 2 )−(k+m) 0
0
r+1 2
y2 1+ s + δ2
r
=
2 r 2 Γ(m) r 2
³
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2
r+1 2
k! sk
!−k−m Ã
y2 s + δ2
k! sk
k=0
0
y2 1+ s + δ2
q
−→
y=
2
u (s + δ 2 ),
(s + δ 2 )
(s + δ 2 )
!−k−m Ã
Considere ahora el cambio de variable y2 s + δ2
! r+k
∞ X (−m)k (−2 δ1 )k
Z∞ Ã
u=
y r dy
∞ X (−m)k (−2 δ1 )k k=0
Ã
Z∞
s
r+k 2
dy
r−k −m 2
y2 s + δ2
! r+k 2
dy.
´ GT DOBLE NO CENTRADA 5.2. DISTRIBUCION cuyo jacobiano es
97
1
dy (s + δ 2 ) 2 = , J= 1 du 2 2u con lo cual r
gT (t) =
2 r 2 Γ(m) ³
r 2
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2
r+1 2
∞ X (−m)k (−2 δ1 )k
k!
k=0
sk
(s + δ 2 )
Z∞
(1 + u)−k−m u
r+k 2
=
r Γ(m)
³
r 2
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2
r+1 2
1 δ2) 2
(s + 1
du
2 u2
0 r 2
r−k −m 2
∞ X (−m)k (−2 δ1 )k
k!
k=0
Z∞
u
sk
r+k+1 −1 2
(s + δ 2 )
(1 + u)−
r−k+1 −m 2
r+k+1 2m−r+k−1 − 2 2
du
0
=
r 2
r Γ(m)
³
r 2
s Γ m−
r 2
´
Γ
³ ´ (r + t2 )− r 2
r+1 2
∞ (−m) (−2 δ )k (s + δ 2 ) X k 1
Γ
³
n+k+1 2
´
Γ
³
2m−r+k−1 2
´
k! sk Γ(k + m)
k=0
5.2.3
r−k+1 −m 2
Distribuci´ on Gt bajo una Ley de Tipo Kotz Singular
A continuaci´on se estudia la distribuci´on Gt bajo una distribuci´on de tipo Kotz singular. [Gt bajo una ley de tipo Kotz] Sea X = (X1 XT2 )T con distribuci´on de tipo Kotz singular de rango r, con m = 2 y s = 1. Entonces, T =
√
X1
nq
−
XT2 Σ X2
∼ Gt(r, δ; f ),
tiene densidad r
gT (t) =
r
4r 2 −1 s 2 +1
Γ
³ ´ r 2
(r + t2 )−
r+1 2
exp(−s δ 2 )
∞ X −sk (r + 2k) Γ(r + 2k) k=0
k! (2s δ1 )r+2k+1
"
#
r + 2k + 1 (r + 2k + 2)(r + 2k + 1) − 2δ + δ2 , 1 (2s δ1 )2 2s δ1
98
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA (5.7)
donde δ = µ1 y δ1 = (tδ)/(r + t2 )1/2 . Demostraci´ on. Sea X con distribuci´on de Tipo Kotz Singular de rango r de par´ametros m, t y s, y 2m + r > 2, t > 0, s > 0. Entonces ts
f (u) =
2m+r−2 2t
r 2
π Γ
³
³ ´
r 2 ´ 2m+r−2 2t
Γ
³
´
um−1 exp −s ut ;
2m > r − 2, t, s > 0.
Considere el caso en que m = 2 y t = 1, con lo cual r
2 s 2 +1 f (u) = u exp(−s u). r r π2 lo que conduce a r
gT (t) =
2(rπ) 2 Γ
³ ´ (r + t2 )− r 2
Z∞ 0
=
4r
r −1 2
Γ
s
r +1 2
³ ´ r 2
r+1 2
r
2 s 2 +1 2 (y − 2δ1 y + δ 2 ) exp(−s (y 2 − 2δ1 y + δ 2 )) y r dy r r π2
(r + t2 )−
r+1 2
exp(−s δ 2 )
∞ Z y r+2 exp(−s y 2 ) exp(2s δ1 y) dy 0
Z∞
y r+1 exp(−s y 2 ) exp(−2δ1 y) dy
−2δ1 0
Z∞
+δ 2
y r+1 exp(−s y r ) exp(−2s δ1 y) dy . 0
Usando ahora el desarrollo en serie exp(−s y 2 ) =
∞ X (−s y 2 )k k=0
k!
y la funci´on Gamma Z∞
Z∞
y 0
r+2k
y (r+2k+1)−1 exp(2s δ1 y) dy =
exp(2s δ1 y) dy = 0
Γ(r + 2k + 1) , (2 s δ1 y)r+2k+1
´ GT DOBLE NO CENTRADA 5.2. DISTRIBUCION
99
se obtiene finalmente gT (t) =
r
r
(r +
r+1 t2 )− 2
4r 2 −1 s 2 +1
Γ
³ ´ r 2
exp(−s δ 2 )
∞ X −sk (r + 2k) Γ(r + 2k)
"
k! (2s δ1 )r+2k+1
k=0
tδ
con δ = µ1 y δ1 =
1
#
(r + 2k + 2)(r + 2k + 1) r + 2k + 1 − 2δ1 + δ2 , 2 (2s δ1 ) 2 s δ1
.
(r + t2 ) 2
5.2.4
Distribuci´ on Gt Doble No Centrada
A continuaci´on se presenta la distribuci´on Gt doble no centrada bajo singularidad y no singularidad de la distribuci´on El´ıptica asociada y su respectiva densidad.
h
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ µTn
2 σ
µ ∈ IR, µ 6= 0, µn ∈ IRn y µn 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ =
iT
0
0
Σn
, Σn ∈ IR
n×n
,
y
rk Σn = n. Entonces, T =
√
nq
X1 XT2 Σ−1 n X2
∼ Gt(n, δ, γ; f ),
(5.8) −1
con par´ametros de doble no centralidad δ = µ/σ y γ = (1/2) µnT Σn µn . h
Demostraci´ on. Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con ν ∈ IRn , ν = µ µTn
y µ 6= 0, µn ∈ IR
n
2 σ y µn = 6 0; Σ =
0
0 Σn T descomposici´on Σn = Q Q , de modo que
iT
∈ IR
(n+1)×(n+1)
y rk Σn = n. Considere la
−1 −1 0 X1 Y1 σ σ Y= · X = . = −1 −1 Y2 0 Q Q X2
Entonces, Y = (Y1 Y2T )T ∼ ECn+1 (η, In+1 ; f ), con Y1 ∈ IR y Y2 ∈ IRn ; η ∈ IRn+1 ,
η=
σ 0
−1
0 σ ·ν = −1 Q 0
−1
, µ ∈ IR
0 µ µ/σ . = −1 · −1 Q µn Q µn
100
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Finalmente, T =
√
nq
Y1 Y2T Y2
=
√
√ X1 X1 n q −1 = nq ∼ Gt(n, δ, γ; f ), −1 (Q X2 )T (Q X2 ) XT2 Σ−1 X 2 n −1
donde δ = µ/σ y γ = (1/2) µTn Σn µn . De manera similar al caso no singular, es posible obtener la distribuci´on Gt doble no centrada bajo una distribuci´on El´ıptica singular. Esta singularidad afecta los g.l. de la distribuci´on de T , tal como en el caso de las distribuci´on Gχ2 , tal como se ver´a a continuaci´on.
h
Sea X = (X1 XT2 )T ∼ ECn+1 (ν, Σ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRn , ν = µ µTn
2 σ
µ ∈ IR, µ 6= 0, µn ∈ IRn y µn 6= 0; Σ ∈ IR(n+1)×(n+1) , Σ =
iT
0
0 Σn
, Σn ∈ IR
n×n
,
y
rk Σn = r < n. Entonces, T =
√
X1
nq
−
XT2 Σn X2
∼ Gt(r, δ, γ; f ),
(5.9) −
con par´ametros de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σn µn . −1
−
Demostraci´ on. Es an´aloga a la del Teorema 2.113, reemplazando Σn por Σn y considerando que rk Σn = r < n, con lo cual la distribuci´on Gt doble no centrada tiene r g.l. y par´ametros −
de doble no centralidad δ = µ/σ y γ = (1/2) µTn Σn µn .
5.3
Distribuci´ on GF Doble No Centrada
Tal como se mencion´o, la distribuci´on GF es la distribuci´on F obtenida bajo una ley El´ıptica. En esta secci´on se presentan las distribuciones GF centrada, no centrada y doble no centrada, obtenidas bajo una distribuci´on El´ıptica singular y no singular. La distribuci´on GF, al igual que la distribuci´on Gt, juega un papel similar a la distribuci´on F bajo la teor´ıa de inferencia Normal, y corresponde a la distribuci´on de Ã
V =
XT1 X1 m
! ,Ã
XT2 X2 n
!
=
n XT1 X1 , m XT2 X2
(5.10)
´ GF DOBLE NO CENTRADA 5.3. DISTRIBUCION
101
cuando X = (XT1 XT2 )T ∈ IRm+n , con X1 ∈ IRm y X2 ∈ IRn , sigue una distribuci´on El´ıptica. De la misma forma que en el caso de la distribuci´on Gt, se usa la invarianza de la distribuci´on GF bajo leyes El´ıpticas con par´ametros de posici´on igual a cero y de escala igual a la identidad (vea [32, p. 67]), se obtiene que si X = (X1 XT2 )T ∼ ECm+n (0, In+1 ), con X1 ∈ IRm y X2 ∈ IRn , entonces V =
n XT1 X1 ∼ GF(m, n; f ), m XT2 X2
(5.11)
la cual coincide con la del caso de una distribuci´on Normal, esto es, GF(m, s; f ) ≡ F (m, n), ∀f .
5.3.1
Distribuci´ on GF No Centrada
A continuaci´on se presenta la densidad de una distribuci´on GF no centrada bajo singularidad y no singularidad de la distribuci´on El´ıptica asociada. m Sea XT = (X1 X2 ) ∼ ECm+n (ν, Σm+n ; f ), con X1 ∈ IR y X2 ∈IRn ; ν ∈ IRm+n , h iT Σm 0 m×m ν = µT 0T , µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = y , Σm ∈ IR 0 Σn rk Σm = m, Σn ∈ IRn×n y rk Σn = n. Entonces,
V =
n XT1 Σ−1 m X1 ∼ GF(m, n; δ; f ), T m X2 Σ−1 n X2
(5.12)
con par´ametro de no centralidad δ = (1/2) µT Σ−1 m µ. h
iT
Demostraci´ on. Sea XT = (X1 X2 ) ∼ ECm+n (ν, Σ; f ), con ν ∈ IRm+n , ν = µT 0T ,
Σm
µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ =
0
, rk Σm = m, Σn ∈ IR
0 Σn T rk Σn = n. Considere la descomposici´on Σm = P P y Σn = Q QT , de modo que P
Y=HX=
−1
0
0 X1 Q
−1
X2
−1
P X1
=
−1
Q X2
n×n
y
Y1
=
Y2
.
h
iT
Entonces, Y = (Y1T Y2T )T ∼ ECm+n (η, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; η = ζ T 0T , −1
ζ ∈ IRm y ζ = P µ 6= 0.
102
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Finalmente, −1
n Y1T Y1 n XT1 Σm X1 V = = ∼ GF(m, n; δ; f ), m Y2T Y2 m XT2 Σ−1 n X2 −1
con δ = (1/2) ζ T ζ = (1/2) µT Σm µ. De [32, p. 87] se sabe que si V ∼ GF(m, n; δ; f ), entonces su funci´on de densidad es gV (v) =
Γ
³
2π
µ
n+m−1 2
m−1 2
´
Γ
³ ´ n 2
m m v n n
¶ m−2 µ 2
1+
m v n
¶− m+n 2
Zπ Z∞
senm−2 θ y m+n−1 f (y 2 − 2ηy cos θ + γ 2 ) dθ dy, v > 0, 0
0
(5.13) donde δ es el par´ametro de no centralidad, η = ((m v)/(n + mv))1/2 γ y γ 2 = 2δ. Sea V ∼ GF(m, n; δ; f ) y f expandible en serie de Taylor en IR. Entonces, una forma alternativa de expresar la densidad de V es gV (v) =
2π Γ
m+n 2
³ ´ n 2
m n
µ
m v n
¶ m−2 µ 2
m v 1+ n
¶− m+n
∞ X
2
Z∞
γ 2k
k=0
k! Γ
³
n 2
+k
y m+n+k−1 f (2k) (y + γ 2 ) dy,
´
v > 0,
0
(5.14) donde δ es el par´ametro de no centralidad, 2δ = γ 2 y f (2k) (·) es la 2k-´esima derivada de f . Demostraci´ on. Si V ∼ GF(m, n, δ; f ), entonces su densidad est´a dada por (12). Considere ahora 2π
µ
n+m −1 2
m m gV (v) = ³ m−1 ´ ³ n ´ v n n Γ Γ 2
¶ m−2 µ 2
2
m 1+ v n
¶−1/2(m+n) Z∞
y m+n−1 T (y) dy,
0
Zπ
senm−2 θ f (y 2 − 2ηy cos θγ 2 ) dθ puede expresarse de la forma
de modo que T (y) = 0
µ
T (y) = π
1/2
m−1 Γ 2
¶ X ∞ k=0
γ 2k
³
k! Γ k +
n 2
´ y k f (2k) (u + γ 2 ).
´ GF DOBLE NO CENTRADA 5.3. DISTRIBUCION
103
As´ı, finalmente, gV (u) =
m+n 2
m ³ ´ n n Γ
2π
2
µ
m v n
¶ m−2 µ 2
∞ X k=0
m 1+ v n
k! Γ k +
2
Z∞
γ 2k
³
¶− m+n
n 2
y m+n+k−1 f (2k) (y + γ 2 ) dy;
´
u > 0,
0
donde 2γ = δ y f (2k) (·) es la 2k-´esima derivada de f . De forma an´aloga al caso no singular, tambi´en es posible obtener la distribuci´on GF no centrada bajo una distribuci´on El´ıptica singular. Esta singularidad afecta los g.l. de la distribuci´on de V , tal como en el caso de las distribuciones Gχ2 y Gt, tal como se ver´a a continuaci´on. m Sea X = (XT1 XT2 )T ∼ ECm+n (ν, Σm+n ; f ), con X1 ∈ IR y X2 ∈ IRn ; ν ∈ IRm+n , h iT Σm 0 m×m ν = µT 0T , µ ∈ IRm y µ 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = y , Σm ∈ IR 0 Σn rk Σm = r < m, Σn ∈ IRn×n y rk Σn = s < n. Entonces, −
n XT1 Σm X1 ∼ GF(r, s; δ; f ), V = m XT2 Σ− X 2 n
(5.15)
−
con par´ametro de no centralidad δ = (1/2) µT Σm µ. −
−1
−1
−
Demostraci´ on. Es an´aloga a la del Teorema 3.116 reemplazando Σm por Σm y Σn por Σn ; considerando adem´as que rk Σm = r < m y rk Σn = s < n, con lo cual la distribuci´on GF no −
centrada tiene r y s g.l. y par´ametro de no centralidad δ = (1/2) µT Σm µ.
5.3.2
Distribuci´ on GF bajo una Ley de Pearson Tipo VII Singular
A continuaci´on se presenta la distribuci´on GF no centrada bajo singularidad y no singularidad de la distribuci´on El´ıptica asociada. [GF bajo una ley de Pearson tipo VII] Sea X = (XT1 XT2 ) con distribuci´on de Pearson tipo VII singular de rango r1 + r2 . Entonces −
r2 XT1 Σ11 X1 V = ∼ GF(r1 , r2 ; δ; f ), r1 XT Σ− X2 2 22
104
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
tiene densidad 2 Γ(m) sm−
µ
r1 +r2 2
r1 ´ ³ ´ gV (v) = ³ 2 Γ r22 r2 Γ m − r1 +r 2
r1 v r2
¶ r1 −2 µ
r1 1+ v r2
2
¶− r1 +r2 2
∞ X (m)2k γ 2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 ) ³ ´ (s + γ 2 )r1 +r2 −m−k ;
k! Γ
k=0
r2 2
+k
Γ(m + 2k)
v>0 (5.16)
−
donde γ 2 = 2δ = µT1 Σ11 µ1 . Demostraci´ on. Sea X con distribuci´on de Pearson tipo VII singular de rango r1 + r2 y r1 + r2 par´ametros m > y s > 0. Entonces 2 f (u) =
·
Γ(m) (πs)
³
r1 +r2 2
Γ m−
r1 +r2 2
u 1+ s
´
¸−m
y f (2k) (u) =
Γ(m) (π s)
r1 +r2 2
³
Γ m−
Ahora, como
r1 +r2 2
´ sm (m)2k (s + u)−m−2k .
−
r2 XT1 Σ11 X1 V = ∼ GF(r1 , r2 ; δ; f ), r1 XT Σ− X2 2 22 −
con δ = (1/2) µT1 Σ11 µ1 , se puede expresar su densidad como gV (v) =
2π Γ
r1 +r2 2
³
r2 2
´
r1 r2
µ
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2 ∞ X
¶− r1 +r2 2
γ 2k
³
r2 2
Z∞
y r1 +r2 +k−1 f (2k) (y + γ 2 ) dy,
´
k! Γ +k 0 2 T (2k) donde γ = 2δ = µ µ y f (·) es la 2k-´esima derivada de f (·). k=0
v > 0,
En nuestro caso particular 2π
r1 +r2 2
r1 ³ ´ gV (v) = r2 Γ r2 2
µ
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 X ∞ 2
Z∞
y r1 +r2 +k−1 0
k=0
γ 2k
k! Γ
³
r2 2
+k
´
Γ(m) sm (m)2k (π s)
r1 +r2 2
³
Γ m−
r1 +r2 2
´ (s + y + γ 2 )−m−2k dy;
´ GF DOBLE NO CENTRADA 5.3. DISTRIBUCION
=
2π (π s)
r1 +r2 2
r1 +r2 2
Γ(m)
r1 ³ ´ ³ ´ 2 Γ m − r1 +r Γ r22 r2 2
µ
r1 v r2
105
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 X ∞ 2 γ 2k sm (m)2k ´ ³ k=0
k! Γ
r2 2
+k
Z∞
y r1 +r2 +k−1 (s + y + γ 2 )−m−2k dy 0
=
2π (π s)
r1 +r2 2
r1 ³ ´ ³ ´ 2 Γ m − r1 +r Γ r22 r2 2
Z∞ Ã 0
=
r1 +r2 2
Γ(m)
y s + γ2
2π (π s)
r1 +r2 2
r1 +r2 2
µ
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 X ∞ 2 γ 2k sm (m)2k ³ ´ k=0
!r1 +r2 +k−1
à 2 r1 +r2 +k−1
(s + γ )
r1 ³ ´ ³ ´ 2 Γ m − r1 +r Γ r22 r2 2 Γ(m)
Z∞ Ã 2 r1 +r2 −m−k
(s + γ )
0
k! Γ
µ
y s + γ2
r1 v r2
2 −m−2k
(s + γ )
¶ r1 −2 µ 2
r1 1+ v r2
!r1 +r2 +k−1 Ã
y 1+ s + γ2
r2 2
+k
!−m−2k
dy
¶− r1 +r2 X ∞ 2 γ 2k sm (m)2k ³ ´
y 1+ s + γ2
k=0
k! Γ
r2 2
+k
!−(m+2k)
(s + γ 2 )−1 dy,
con v > 0. Considere el cambio de variable u = y/(s + γ 2 )
−→
y = u/(s + γ 2 )−1 , cuyo jacobiano es
J = (s + γ 2 )−1 , con lo cual Z∞ Ã 0
y s + γ2
!r1 +r2 +k−1 Ã
y 1+ s + γ2
!−m−2k
(s + γ 2 )−1 dy = Z∞
u(r1 +r2 +k)−1 (1 + u)−(r1 +r2 +k)−(m+k−r1 −r2 du 0
y de esta manera Z∞ Ã 0
y s + γ2
!r1 +r2 +k−1 Ã
y 1+ s + γ2
!−m−2k
(s + γ 2 )−1 dy = Γ(r1 + r2 + k) Γ(m + k − r1 − r2 ) Γ(m + 2k)
y as´ı finalmente
106
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
gV (v) =
(π s)
r1 +r2 2
r1 +r2 2
r1 ³ ´ ³ ´ r1 +r2 r2 Γ m− 2 Γ 2 r2
2π
Γ(m)
µ
r1 v r2
¶ r1 −2 µ
r1 1+ v r2
2
¶− r1 +r2 2
∞ X Γ(r1 + r2 + k) Γ(m + k − r1 − r2 ) γ 2k sm (m)2k ³ ´ (s + γ 2 )r1 +r2 −m−k ,
2 Γ(m) sm−
r2 2
k! Γ
k=0
µ
r1 +r2 2
r1 ´ ³ ´ = ³ r1 +r2 r2 Γ m− 2 Γ 2 r2
Γ(m + 2k)
+k
r1 v r2
¶ r1 −2 µ
r1 1+ v r2
2
¶− r1 +r2 2
∞ X (m)2k γ 2k Γ(r1 + r2 + k) Γ(m + k − r1 − r2 ) ³ ´ (s + γ 2 )r1 +r2 −m−k ,
k! Γ
k=0
con v > 0.
5.3.3
r2 2
+k
Γ(m + 2k)
Distribuci´ on GF bajo una Ley de Tipo Kotz
A continuaci´on se estudia la distribuci´on GF bajo una distribuci´on de tipo Kotz singular. [GF bajo una ley de tipo Kotz] Sea X con distribuci´on de tipo Kotz singular de rango r1 + r2 . Entonces
−
r2 XT1 Σ11 X1 V = ∼ GF(r1 , r2 ; δ; f ), r1 XT Σ− X2 2
22
tiene densidad gV (v)
2m+r−2 2t
³
´
r1 +r2 2 ³ ´ ³ ´ = r2 2m+r1 +r2 −2 Γ 2 Γ 2t ∞ ∞ X X
2ts
Γ
r1 r2
µ
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 2
(t(z + 2k) + m − 1)2k γ 2(r1 +r2 +t(z+2k)+m−1) (−s)2(k+1) ³
´
k! (z + 2k)! Γ r22 + k Γ(r1 + r2 + k) Γ(k + 1 − r1 − r2 − m − t(z + 2k)) ; Γ(2k + 1 − m − t(z + 2k))
k=0 z=l−2k=0
v > 0, (5.17)
−
donde γ 2 = 2δ = µT1 Σ11 µ1 . Demostraci´ on. Sea X con distribuci´on de tipo Kotz singular de rango r1 + r2 y par´ametros m, t y s, con 2m + r1 + r2 > 2, t > 0, s > 0. Entonces f (u) =
ts r 2
2m+r−2 2t
π Γ
³
³ ´
r 2 ´ 2m+r−2 2t
Γ
³
´
um−1 exp −s ut ;
2m > r − 2, t, s > 0
´ GF DOBLE NO CENTRADA 5.3. DISTRIBUCION
107
y f (2k) (u) =
ts
2m+r−2 2t
r1 +r2 2
π
Γ
³
Γ
³
r1 +r2 2
´ ´
2m+r1 +r2 −2 2t
∞ X
(t(z + 2k) + m − 1)2k ut(z+2k)+m−1−2k . (−s)−2(k+1) (z + 2k)! z=l−2k=0
Ahora, como −
r2 XT1 Σ11 X1 V = ∼ GF(r1 , r2 ; δ; f ), r1 XT Σ− X2 2 22 −
con δ = (1/2) µT1 Σ11 µ1 , se puede expresar su densidad como 2π
r1 +r2 2
r1 ³ ´ gV (v) = r2 r2 Γ
µ
2
r1 v r2
¶ r1 −2 µ 2
r1 v 1+ r2
¶− r1 +r2
∞ X
2
Z∞
γ 2k
k! Γ
k=0
³
r2 2
+k
y r1 +r2 +k−1 f (2k) (y + γ 2 ) dy,
´
v > 0,
0
donde γ 2 = 2δ = µt µ y f (2k) (·) es la 2k-´esima derivada de f (·). En nuestro caso particular 2π
r1 +r2 2
r1 ³ ´ gV (v) = r2 Γ r2
µ
2
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 X ∞ 2
γ 2k
k! Γ
k=0
Z∞
y r1 +r2 +k−1 0
ts π
³
r2 2
+k
2m+r−2 2t
r1 +r2 2
Γ
³
Γ
´
³
r1 +r2 2
´
2m+r1 +r2 −2 2t
´
∞ X
(t(z + 2k) + m − 1)2k (y + γ 2 )t(z+2k)+m−1−2k dy; (−s)−2(k+1) (z + 2k)! z=l−2k=0
=
2m+r−2 2t
³
´
r1 +r2 2 ³ ´ ³ ´ 2m+r1 +r2 −2 r2 Γ 2 Γ 2t
2ts
Γ
∞ X
r1 r2
∞ X
µ
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 2
(t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1) k! (z + 2k)! Γ
k=0 z=l−2k=0
³
´
r2 +k 2 Z∞ r1 +r2 +k−1
y
2m+r−2 2t
=
³
0
´
2 2ts Γ r1 +r 2 ³ ´ ³ ´ Γ r22 Γ 2m+r12t+r2 −2
r1 r2
µ
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 2
(y + γ 2 )t(z+2k)+m−1−2k dy.
108
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA ∞ X
∞ X
(t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1) k! (z + 2k)! Γ
k=0 z=l−2k=0
Z∞ Ã 0
=
2m+r−2 2t
y γ2
³
!r1 +r2 +k−1
∞ X
∞ X
Γ
r2 2
+k
´
γ 2(r1 +r2 +k−1) γ 2(t(z+2k)+m−1−2k) (1 + y)t(z+2k)+m−1−2k dy ´
r1 +r2 2 ³ ´ ³ ´ r2 2m+r1 +r2 −2 Γ 2 Γ 2t
2ts
³
r1 r2
µ
r1 v r2
¶ r1 −2 µ
r1 1+ v r2
2
¶− r1 +r2 2
(t(z + 2k) + m − 1)2k γ 2k (−s)2(k+1) k! (z + 2k)! Γ
k=0 z=l−2k=0
³
r2 2
+k
Z∞ Ã
γ
2(r1 +r2 +t(z+2k)+m−1−k) 0
Considere el cambio de variable u = y/γ 2
´
y γ2
!r1 +r2 +k−1 Ã
y 1+ 2 γ
!t(z+2k)+m−1−2k
γ −2 dy.
y = u γ 2 , cuyo jacobiano es J = γ −2 , con
−→
lo cual Z∞ Ã 0
y γ2
!r1 +r2 +k−1 Ã
y 1+ 2 γ
!t(z+2k)+m−1−2k
γ −2 dy = Z∞
u(r1 +r2 +k)−1 (1 + u)−(r1 +r2 +k)−(k+1−r1 −r2 −m−t(z+2k)) du. 0
Aplicando ahora la funci´on Beta, se tienes Z∞ Ã 0
y γ2
!r1 +r2 +k−1 Ã
y 1+ 2 γ
!t(z+2k)+m−1−2k
γ −2 dy = Γ(r1 + r2 + k) Γ(k + 1 − r1 − r2 − m − t(z + 2k)) . Γ(2k + 1 − m − t(z + 2k))
As´ı, finalmente se obtiene que gV (v)
2m+r−2 2t
³
´
r1 +r2 2 = ³ r ´ ³ 2m+r +r −2 ´ 2 1 2 Γ 2 Γ 2t ∞ ∞ X X
2ts
Γ
r1 r2
µ
r1 v r2
¶ r1 −2 µ 2
r1 1+ v r2
¶− r1 +r2 2
(t(z + 2k) + m − 1)2k γ 2(r1 +r2 +t(z+2k)+m−1) (−s)2(k+1)
k=0 z=l−2k=0
k! (z + 2k)! Γ
³
r2 2
+k
´
Γ(r1 + r2 + k) Γ(k + 1 − r1 − r2 − m − t(z + 2k)) . Γ(2k + 1 − m − t(z + 2k))
´ GF DOBLE NO CENTRADA 5.3. DISTRIBUCION
5.3.4
109
Distribuci´ on GF Doble No Centrada
A continuaci´on se presenta la distribuci´on GF doble no centrada bajo singularidad y no singularidad de la distribuci´on El´ıptica asociada y su respectiva densidad. Sea X = (XT1 XT2 )T ∼ ECm+n (ν, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ; ν ∈ IRm+n , ν = h iT Σm 0 T νm νnT , νm ∈ IRm , νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = , 0 Σn Σm ∈ IRm×m y rk Σm = m, Σn ∈ IRn×n y rk Σn = n. Entonces, −1
n XT1 Σm X1 ∼ GF(m, n; δ, γ; f ), V = m XT2 Σ−1 n X2
(5.18)
−1
−1
T con par´ametros de doble no centralidad δ = (1/2) νm Σm νm y γ = (1/2) νnT Σn νn .
h
T T Demostraci´ on. Sea X = (X1 X2 )T ∼ ECm+n (ν, Σ; f ), con ν ∈ IRm+n , ν = νm νn
iT
,
Σm 0 νm ∈ IRm , νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = , rk Σm = m, 0 Σn Σn ∈ IRn×n y rk Σn = n. Considere la descomposici´on Σm = P PT y Σn = Q QT , de modo que
P
Y=HX=
−1
0
0 X1 Q
−1
X2
−1
P X1
=
−1
Q X2
Y1
=
Y2
. h
Entonces, Y = (Y1T Y2T )T ∼ ECm+n (µ, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; µ = µTm µTn −1
iT
,
−1
µm ∈ IRm , µm = P νm 6= 0, µn ∈ IRn y µn = Q νn 6= 0. Finalmente,
−1
n Y1T Y1 n XT1 Σm X1 V = = ∼ GF(m, n; δ, γ; f ), m Y2T Y2 m XT2 Σ−1 n X2 −1
−1
T Σm νm y γ = (1/2) µTn µn = (1/2) νnT Σn νn . con δ = (1/2) µTm µm = (1/2) νm
Sea V ∼ GF(m, n; δ, γ; f ). Entonces, la densidad de V es 2π
µ
n+m −1 2
m m gV (v) = ³ m−1 ´ ³ n−1 ´ v n n Γ Γ Zπ Zπ Z∞
2
2
¶ m−2 µ 2
m 1+ v n
¶− m+n 2
(5.19)
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y η∗ cos θ + η 2 − 2 y ζ∗ cos θ + ζ 2 ) dy dθ dφ, 0 0
0
110
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
con par´ametros de doble no centralidad δ y γ, donde µ
2
mv η∗ = n + mv
2
η = 2 δ,
ζ = 2 γ,
¶1/2
µ
η
n y ζ∗ = mv
¶1/2 µ
n 1+ mv
¶−1/2
ζ.
Demostraci´ on. Sea X = (XT1 XT2 )T ∼ ECm+n (ν, Im+n ; f ), con X1 ∈ IRm y X2 ∈ IRn ; h
T ν = νm νnT
iT
, νm ∈ IRm , νn ∈ IRn y νm , νn 6= 0. Considere ahora la transformaci´on Y = H X,
con H ∈ O(m + n), de modo que
Y=HX=
H1 0
0 H1 0 X1 H1 X1 Y1 X= = = , H2 0 H2 X2 H2 X2 Y2
esto es, Y1 = H1 X1 , H1 ∈ O(m), tal que kY1 k = kH1 X1 k = (XT1 (HT1 H1 ) X1 )1/2 = kX1 k y Y2 = H2 X2 , H2 ∈ O(n), con kY2 k = kH2 X2 k = (XT2 (HT2 H2 ) X2 )1/2 = kX2 k, de h
manera que Y = (Y1T Y2T )T ∼ ECm+n (µ, Im+n ; f ), con Y1 ∈ IRm y Y2 ∈ IRn ; µ = µTm µTn
iT
,
µm ∈ IRm , µm = [kνm k 0T ]T , µn ∈ IRn y µn = [kνn k 0T ]T . As´ı m n+m X X gY (Y) = f ((Y−µ)T (Y−µ)) = f yi2 + kνm k2 − 2kνm k y1 + yi2 + kνn k2 − 2kνn k ym+1 . i=1
i=m+1
Considere la transformaci´on de coordenadas esf´ericas generalizadas dada por (Y1 . . . Ym ) −→ (r θ1 . . . θm−1 ) = (r θ) y (Ym+1 . . . Ym+n ) −→ (s φ1 . . . φm−1 ) = (r φ), de manera que gr,θ;s,φ ((r θ); (s φ)) = gY (Y) · |J| = f (r12 + δ 2 − 2δ r1 cos θ + r22 + γ 2 − 2γ r cos φ1 ) 1 2 m−2 Y
r1m−1 r2n−1
j=1
senm−j−1 θj
Ãn−2 Y
!
senn−k−1 φk ,
k=1
donde δ = kνm k, γ = kνn k y |J| es le valor absoluto del jacobiano de la transformaci´on. As´ı la densidad de (r1 , r2 ) es gr1 ,r2 (r1 , r2 ) =
Γ
³
4π m−1 2
m+n −1 2
´
Γ
³
n−1 2
´ r1m−1 r2n−1
´ GF DOBLE NO CENTRADA 5.3. DISTRIBUCION
111
Zπ Zπ
f (r12 + δ 2 − 2δ r1 cos θ1 + r12 + γ 2 − 2γ r2 cos φ1 ) senm−2 θ1 senn−2 φ1 dθ1 d φ1 ;
r1 , r2 > 0.
0 0
Aplicando el cambio de variables w = r y v = se obtiene que gV,W (v, w) =
2π
³
m−1 2 Zπ Zπ Ã
Γ
µ
m+n −1 2
´
Γ
³
n−1 2
´
n m+n−1 n w m mv
f w 0 0
¶ n+2 2
¶
µ 2
n r12 , de modo que |J| = (1/2) (n/m)1/2 w v −3/2 , m r22
µ
n n 1+ − 2 w δ cos θ + δ 2 − 2 mv mv
!
¶1/2
w γ cos θ + γ
2
senm−2 θ1 senn−2 φ1 dθ1 dφ1 ; con w, v > 0. De este modo, la densidad de V = µ
n+m −1 2
m n ´ ³ ´ ³ gV (v) = Γ m−1 Γ n−1 n m v 2π 2
Ã
µ
f w2
2
n r12 es m r22
¶ n+2 Zπ Zπ Z∞ 2
senm−2 θ senn−2 φ wm+n−1 0 0
¶
0
µ
n n 1+ − 2 w δ cos θ + δ 2 − 2 mv mv
¶1/2
!
w γ cos θ + γ 2
dw dθ dφ,
donde γi2 = kνi k, i = 1, 2.. Usando ahora el cambio de variables µ
n y =w 1+ mv
¶1/2
µ
−→
n w = 1+ mv
¶−1/2
y cuyo jacobiano es J = (dw/dy) = (1 + n/(m v))1/2 , se obtiene finalmente gV (v) =
³
2π
n+m −1 2
m−1 2 Zπ Zπ Z∞
Γ
´
Γ
³
n−1 2
µ
´
m m v n n
¶ m−2 µ 2
m 1+ v n
¶− m+n 2
senm−2 θ senn−2 φ y m+n−1 f (y 2 − 2y δ∗ cos θ + δ 2 0 0
0
−2 y γ∗ cos θ + γ 2 ) dy dθ dφ µ
donde δ∗ =
mv n + mv
¶1/2
µ
δ y γ∗ =
n mv
¶1/2 µ
1+
n mv
¶−1/2
γ.
Similarmente, se puede obtener la distribuci´on GF doble no centrada bajo una distribuci´on El´ıptica singular, cuya singularidad afecta los g.l. de la distribuci´on de V , tal como en los casos anteriores.
112
CHAPTER 5. DISTRIBUCIONES GT Y GF DOBLE NO CENTRADA
Sea XT = (X1 X2 ) ∼ ECm+n (ν, Σ; f ), con X1 ∈ IRm y X2 ∈ IRn ; ν ∈ IRm+n , ν T = h i Σm 0 T νnT νm , νm ∈ IRm , νm 6= 0, νn ∈ IRn y νn 6= 0; Σ ∈ IR(m+n)×(m+n) , Σ = , 0 Σn Σm ∈ IRm×m y rk Σm = r < m, Σn ∈ IRn×n y rk Σn = s < n. Entonces, −
s XT1 Σm X1 ∼ GF(r, s; δ, γ; f ), V = r XT2 Σ− X 2 n
(5.20)
−
−
T con par´ametros de doble no centralidad δ = (1/2) νm Σm νm y γ = (1/2) νnT Σn νn . −1
−
−
−1
Demostraci´ on. Es an´aloga a la del Teorema 9, reemplazando Σm por Σm y Σn por Σn ; considerando adem´as que rk Σm = r < m y rk Σn = s < n, con lo cual la distribuci´on −
GF no centrada tiene r y s g.l. y par´ametros de no centralidad δ = (1/2) µTm Σm µm y −
γ = (1/2) µTn Σn µn .
Chapter 6 Inferencias para el CV bajo una Ley El´ıptica 6.1
Introducci´ on
Se sabe que las medidas de dispersi´on se utilizan para evaluar la variabilidad de un conjunto de datos, siendo la desviaci´on est´andar la m´as utilizada. Sin embargo, ´esta entrega poca informaci´on de la variabilidad del conjunto si es interpretada en forma aislada, s´olo cuando se la relaciona con la media su interpretaci´on tiene mayor sentido. Por esta raz´on el coeficiente de variaci´on (CV), que relaciona ambas medidas, se emplea habitualmente. Considere una poblaci´on de media µ y desviaci´on est´andar σ. Entonces el CV se define como el cociente entre la desviaci´on est´andar y la media de esta poblaci´on, es decir, γ = σ/µ, con µ 6= 0. El CV mide la dispersi´on u homogeneidad de un conjunto de datos asociados a una variable aleatoria y es una medida de variabilidad relativa, es decir, es adimensional, pues representa a la desviaci´on est´andar por una unidad de media y resulta de particular inter´es cuando se desea comparar la variabilidad entre grupos cuyas medias y varianzas difieren. El CV ha sido utilizado frecuentemente para medir la variabilidad relativa en diversas ´areas y 113
114
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
situaciones. A continuaci´on se presenta una detallada lista de aplicaciones. En experimentos qu´ımicos el CV se ha empleado para evaluar la precisi´on de las mediciones realizadas y para comparar dos m´etodos de medici´on (vea [64]). En Finanzas el CV se usa para medir el riesgo relativo de rentas variables, ya que a inversi´on (vea [63]). En Teor´ıa de Inventarios se ha utilizado el CV para comparar la variabilidad de dos niveles de almacenamiento, evaluando as´ı el riesgo de quedar desabastecidos y por ende incurrir en un costo de oportunidad (vea [64]). El CV tambi´en se ha usado en Ciencias F´ısicas, Biol´ogicas y M´edicas (vea [40]). Espec´ıficamente, en el ´area Biom´edica se ha ocupado el CV en la evaluaci´on de la homogeneidad de muestras ´oseas realizadas por un m´etodo espec´ıfico, ya que para evaluar la efectividad de un tratamiento sobre las propiedades del hueso es deseable obtener muestras que sean homog´eneas (vea [42]). En telecomunicaciones el CV es utilizado para evaluar el ruido de se˜ nales y el inverso del CV es denominado ”raz´on se˜ nal a ruido” (vea [60, p. 78]). Dentro del contexto de la Estad´ıstica se pueden encontrar tambi´en aplicaciones del CV. Concretamente, en un problema de muestreo cuando se desea estimar la media de una poblaci´on, es posible expresar el c´alculo del tama˜ no de la muestra por n = ((Z(1−α/2) γ)/q)2 , donde q(100)% es el porcentaje que se espera que difiera la media de su estimador; note que la expresi´on para calcular n queda en funci´on del CV, γ (vea [68, p. 254]). As´ı, si se asume que la variable es positiva y tiene distribuci´on Normal, entonces la media es aproximadamente igual a tres desviaciones est´andar, con lo cual se puede suponer que γ ≈ 1/3. Otra alternativa es asumir que la desviaci´on est´andar es tan grande como la media y as´ı γ = 1; aunque en estricto rigor se sabe que num´ericamente la desviaci´on est´andar puede ser mayor que la media, una situaci´on as´ı es algo inusual; de hecho en distribuciones de gran variabilidad como la de Poisson, por ejemplo, el CV es igual 1. En este u ´ltimo caso se estar´ıa considerando una situaci´on muy similar al criterio de m´axima varianza que se presenta en el caso de la estimaci´on de una proporci´on, es decir, cuando se desconoce cualquier informaci´on a priori respecto de la variabilidad de la poblaci´on. Por otro lado, en Modelos Lineales y An´alisis de Varianza el CV se emplea habitualmente para evaluar la bondad del ajuste de los datos al modelo. En An´alisis de Confiabilidad se han planteado tambi´en diversos usos del CV, como por ejemplo. En [14] se muestra que si la vida de una
´ 6.1. INTRODUCCION
115
m´aquina tiene distribuci´on Inversa Gaussiana, entonces dado que la m´aquina ha sobrevivido a un tiempo t, la vida media residual exceder´a la vida media original si el CV de esta poblaci´on √ es mayor a 1/ 2. En [13] se demuestra que si la distribuci´on de vida pertenece a la clase-l, entonces el CV es menor o igual a 1, siendo exactamente 1 cuando la funci´on de distribuci´on es exponencial. Asimismo, a pesar del limitado uso de la distribuci´on Normal en Confiabilidad, ´esta ha demostrado ser u ´til modelar datos de vida si µ > 0 y el CV γ = σ/µ es peque˜ no, con particular ´exito en modelaci´on de la vida de filamentos el´ectricos (por ejemplo de ampolletas) y resistencia de nudos de alambres de circuitos integrados (vea [60, pp. 81-82]). De igual forma, el gr´afico del coeficiente de curtosis versus el CV se emplea para detectar la bondad de ajuste de distribuciones de vida (vea [60, p.110]), entre otras aplicaciones. Los primeros resultados distribucionales del CV de una poblaci´on Normal se remontan a los estudios realizados en [59], los cuales son corroborados en [66]. Luego de casi cuatro d´ecadas, en [44] se retoma el tema comparando aproximaciones de percentiles del CV muestral con los resultados hasta ah´ı propuestos. Posteriormente en [6] se plantea un contraste aproximado para probar la homogeneidad de coeficientes de variaci´on. En [7] se encuentra un test basado en el estad´ıstico de raz´on de verosimilitud para contrastar estas mismas hip´otesis. Luego en [63] se propone un nuevo contraste para la igualdad de dos coeficientes de variaci´on, en [30] se generaliza a k muestras, y en [77] se presentan estudios de simulaci´on de estos contrates. Por su parte, en [43] se realiza inferencia para el CV de una distribuci´on Inversa Gaussiana. En [62], y posteriormente en [35], se presentan pruebas de hip´otesis asint´oticas para el coeficiente de variaci´on de una, dos y k muestras, junto con estudios de simulaci´on. En [40] se entregan diversos resultados que permiten probar la igualdad de coeficientes de variaci´on de k muestras provenientes de poblaciones normales basados en la revisi´on de contrastes ya conocidos, como lo son las pruebas de Bennet, de raz´on de verosimilitud, de la t no centrada, de Wald -la que extienden a k muestras y para distintos tama˜ nos de ´estas- y adem´as presentan un nuevo contraste basado en la prueba de Score. En [64] se hace inferencia asint´otica para el CV de una poblaci´on Normal presentando f´ormulas para estad´ısticos de prueba, a trav´es de los cuales es posible evaluar la potencia de los contrastes planteados. Finalmente, algunos de los
116
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
resultados planteados para el CV de una poblaci´on Normal son extendidos en [54] al caso de una poblaci´on El´ıptica.
En este cap´ıtulo se propone un coeficiente de variaci´on generalizado, como una medida de varia-bilidad relativa, v´alido para poblaciones cuya distribuci´on carece de primer y segundo momento (los momentos de una distribuci´on El´ıptica pueden verse en [32][p. 67])). Esta medida se puede entender como una generalizaci´on del CV y se define como la ra´ız cuadrada del par´ametro de escala dividido por el par´ametro de posici´on. Se analizan aspectos distribucionales e inferenciales de este CV generalizado bajo dos modelos El´ıpticos, como lo son el modelo dependiente (el vector aleatorio tiene una estructura dependiente con distribuci´on El´ıptica multivariada) y el modelo independiente (cada variable aleatoria del vector es independiente e id´enticamente distribuida El´ıptica univariada). Espec´ıficamente, para ambos modelos (dependiente e independiente) se encuentra el estimador de verosimilitud m´axima (EVM) y, en forma alternativa, se plantea un estimador tipo momentos (EM) para el CV. El EVM queda expresado en t´erminos de las funciones f y φ asociadas a cada ley El´ıptica, por lo cual en esta secci´on s´olo es posible hallar una expresi´on general para este estimador. Posteriormente se presenta la distribuci´on exacta del inverso del EVM del CV para el modelo dependiente y la distribuci´on asint´otica del EVM y del EM del CV bajo el modelo independiente. A partir de estas distribuciones se obtienen intervalos de confianza y pruebas de hip´otesis para el CV. Los resultados obtenidos bajo el modelo dependiente son ilustrados a trav´es de dos subfamilias de distribuciones El´ıpticas, como lo son la distribuci´on de Pearson Tipo VII y la distribuci´on de Tipo Kotz, permitiendo encontrar as´ı expresiones expl´ıcitas para los resultados planteados; particularmente se estudian las distribuciones t-multivariada y de Cauchy (esta u ´ltima distribuci´on carece de momentos), como casos particulares de la subfamilia El´ıptica de Pearson Tipo VII, y la distribuci´on Normal, como caso particular de la subfamilia de Tipo Kotz. Los resultados encontrados bajo el modelo independiente se particularizan para la distribuciones univariadas t con s grados de libertad (g.l.) y Normal, incluyendo adem´as la eficiencia relativa asint´otica (ERA) de los estimadores hallados.
´ DE LOS MODELOS 6.2. ESPECIFICACION
6.2
117
Especificaci´ on de los Modelos
En la inferencia para el CV de una poblaci´on El´ıptica se analizar´an los modelos El´ıpticos con estructura dependiente e independiente, los que se presentan a continuaci´on.
6.2.1
Modelo El´ıptico con Estructura Dependiente
Denominaremos modelo el´ıptico con estructura dependiente (Modelo D) a un vector aleatorio conjuntamente dependiente con distribuci´on El´ıptica multivariada. Espec´ıficamente, sea X = (X1 X2 . . . Xn )T una muestra de tama˜ no n de una poblaci´on El´ıptica bajo el Modelo D, esto es, X ∼ ECn (ν, Σ; f ). Entonces X tendr´a: 1. Par´ametro de posici´on ν = µ 1n , con ν ∈ IRn , µ ∈ IR y 1n ∈ IRn , donde 1n = (1 1 . . . 1)T . El par´ametro de posici´on coincidir´a con la media cuando exista el primer momento del modelo. 2. Par´ametro de escala Σ = σ 2 In , con Σ ∈ IRn×n y σ 2 > 0. 3. Matriz de covarianzas (si existe) Σ0 , proporcional al par´ametro de escala, definida por Σ0 = c0 Σ = c0 σ 2 In ,
con c0 = −2 φ0 (0), φ dada en (2.2.1) y φ0 es su derivada. (6.1)
6.2.2
Modelo El´ıptico con Estructura Independiente
Denominaremos modelo el´ıptico con estructura independiente (Modelo I) a un vector aleatorio compuesto por variables aleatorias independientes e id´enticamente distribuidas El´ıptica univariada. Concretamente, sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tama˜ no n de una i.i.d.
poblaci´on El´ıptica bajo el Modelo I, esto es, Xi ∼ EC1 (µ, σ 2 ; f ), con i=1,2,...,n. Entonces Xi tendr´a: 1. Par´ametro de posici´on µ ∈ IR y coincidir´a con la media al existir el primer momento del modelo.
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
118
2. Par´ametro de escala σ 2 > 0. 3. Varianza (si existe) σ02 , proporcional a σ 2 y definida por σ02 = c0 σ 2 , con c0 dado en (6.2.1). Para los dos modelos planteados (D e I), la poblaci´on tendr´a coeficiente de variaci´on generalizado definido por γ = σ/µ, esto es, la ra´ız cuadrada del par´ametro de escala sobre el par´ametro de posici´on. De este modo, siempre es posible construir una medida adimensional de variabilidad relativa, existan o no los dos primeros momentos del modelo subyacente. As´ı, en adelante, se trate del CV o de su versi´on generalizada, simplemente se referir´a a ´el como ”coeficiente de variaci´on” (CV), denot´andolo por γ. En lo posterior tambi´en considere lo siguiente. Sean à n ! µ ¶ n √ 1X 1 T 1 X 1 1 2 2 2 Xi − nX = XT I − 1n 1n T X y S = S 2 . X= Xi = X 1n , S = n i=1 n n i=1 n n (6.2)
Adem´as asuma que µ > 0 y que IP (X < 0) es muy peque˜ na (vea [40, Secci´on 2]).
6.3
Estimadores del CV de una Poblaci´ on El´ıptica
En esta secci´on se presentan dos estimadores para el CV basados en una muestra de una poblaci´on El´ıptica bajos los Modelos D e I, restringiendo el an´alisis a la estimaci´on puntual.
6.3.1
Estimadores del CV bajo el Modelo D
Para obtener el EVM del CV de una poblaci´on El´ıptica bajo el Modelo D, se procede de manera an´aloga al caso Normal (vea [36]), s´olo que en este caso se obtiene una expresi´on general que depende de las funciones f y φ asociadas a toda ley El´ıptica, que al especificarse permiten encontrar una expresi´on expl´ıcita para el estimador del CV. Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tama˜ no n y γ el CV.
´ EL´IPTICA 6.3. ESTIMADORES DEL CV DE UNA POBLACION
119
Entonces el EVM de γ bajo el Modelo D es q
γcD =
n λ(f ) S/X,
(6.3)
donde λ(f ) es el m´aximo de la funci´on f ∗ (λ) = λ−n/2 f (1/λ) y que corresponde a una constante que depende de cada ley El´ıptica, f est´a dada en (2.2.2). Demostraci´ on. La funci´on de verosimilitud de una muestra proveniente de una poblaci´on El´ıptica bajo el Modelo D puede expresarse por Ã
L(µ, γ, X) =
!n/2
1 2 µ γ2
Ã
f
!
n (S 2 + (X − µ)2 ) . 2 µ γ2
(6.4)
Al ser f una funci´on mon´otona, entonces L(µ, γ, X) como funci´on de µ alcanza un m´aximo en µ = X (vea [32, p. 129]), con lo cual la verosimilitud se reduce a µ
1 L(X, γ, X) = n S2 ³
¶n/2 Ã
n S2
!n/2
f
2
X γ2 ´
2
Ã
n S2
!
2
X γ2
µ
1 = n S2
Ã
¶n/2
h
n S2
!
2
X γ2
,
esto es, L(X, γ, X) ∝ h (nS 2 )/(X γ 2 ) , donde h(x) = xn/2 f (x), con x = (n S 2 )/(X γ)2 y x ≥ 0. Como f es no decreciente y continua, entonces haciendo uso del Lema 4.1.2 en [32, p. 129] el EVM de γ viene dado por la soluci´on de f 0 (x) + f (x)(n/2x) = 0, y ´esta es q
γcD =
n λ(f ) S/X,
donde λ(f ) es el m´aximo de f ∗ (λ) = λ−n/2 f (1/λ), f est´a dada en (2.2.2) y f 0 es su derivada.
Alternativamente el Teorema 3.124 puede demostrarse haciendo uso de la propiedad de invarianza de los estimadores de verosimilitud m´axima. Para ello considere los EVM de µ y σ (vea [32, pp. 129 y 132]), dados por EVM(µ) = µb = X
y EVM(σ 2 ) = σc2 = n λ(f ) S 2 ,
donde λ(f ) es el m´aximo de f ∗ (λ) = λ−n/2 f (1/λ), con f dada en (2). Entonces el EVM de γ es b =T γcD = Td (θ) = T (θ)
µh
iT ¶ S σb q c 2 = = n λ(f ) . µb σ µb X
Como un estimador alternativo al de verosimilitud m´axima (γcD ) se puede proponer uno de ”tipo momentos” (EM) dado por γfD = S/X, con X y S dados en (4).
120
6.3.2
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
Estimadores del CV bajo el Modelo I
Para obtener el EVM del CV de una poblaci´on El´ıptica bajo el Modelo I, se procede de la misma manera que en el Modelo D, s´olo que en este caso la expresi´on general que se obtiene debe resolverse num´ericamente, tal como se ver´a a continuaci´on. i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tama˜ no n, con Xi ∼ EC1 (µ, σ 2 ; f ) (i=1,2,...,n), y γ el CV. Entonces el EVM de γ bajo el Modelo I es b γcI = σb /µ,
(6.5)
donde µb y σb son los estimadores de verosimilitud m´axima de µ y σ, respectivamente, dados por n 1 X b 2 σc2 = wi (Xi − µ)
n
i=1
Pn
y µb =
wi Xi , i=1 wi
i=1
(6.6)
Pn
b σ b )2 , con wi = −2Wf (Ui ), Wf (Ui ) = f 0 (Ui )/f (Ui ) y Ui = ((Xi − µ)/
i = 1, 2, ..., n, (6.7)
f dada en (2.2.2) y f 0 es su derivada. Demostraci´ on.Es directa al aplicar [2, Secci´on 5.1] y la propiedad de invarianza de los estimadores de verosimilitud m´axima. La expresi´on (6.3.3) no puede resolverse de forma expl´ıcita, pero la soluci´on se puede aproximar num´ericamente. Similarmente al Modelo D, un estimador alternativo al de verosimilitud m´axima bajo el Modelo I es γfI = S/X, con X y S dados en (4).
6.4
Distribuciones Asociadas al Estimador del CV
En esta secci´on se presentan algunos resultados distribucionales asociados a los estimadores propuestos para el CV (γ) de una poblaci´on El´ıptica bajo los Modelos D e I antes planteados.
6.4. DISTRIBUCIONES ASOCIADAS AL ESTIMADOR DEL CV
6.4.1
121
Distribuci´ on del EVM del CV bajo el Modelo D
A continuaci´on se presenta la distribuci´on exacta del inverso del EVM del CV de una poblaci´on El´ıptica bajo el Modelo D, la que est´a relacionada con la distribuci´on t generalizada no centrada. Este resultado es an´alogo al planteado en [40, Secci´on 2.3] para el caso Normal. Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tama˜ no n, η = 1/γ y ηcD el EVM de η bajo el Modelo D. Entonces T =
√
q
n (X/S) = n
con λ(f ) dada en (6.3.1) y δ =
√
λ(f ) ηcD ∼ Gt(n − 1, δ; f ),
(6.8)
n η es el par´ametro de no centralidad de la distribuci´on t
generalizada (Gt) no centrada con (n − 1) g.l. Demostraci´ on. Para X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) considere la transformaci´on
√ √ T (1/ n σ) 1 n µ/σ 1 0 X Y n 1 n Y = AX = , ; f = ∼ EC(n+1) 0 0 D (1/σ) DX Y2 (6.9)
donde A ∈ IR(n+1)×n y D = (In − (1/n)1n 1Tn ) = D2 = DT , con D ∈ IRn×n . Note que Y tiene −
una distribuci´on El´ıptica singular (vea [25]) y ΣY es un inverso generalizado de ΣY2 . As´ı, en 2
base a las representaciones matriciales de X y S dadas en (5.2.2), se obtiene que T =q
Y1 1 n−1
Y2T Σ−Y Y2
=r 1 n−1
2
con lo cual, finalmente T =
√
³
1 σ
√ 1 1T n σ n
X
DX
D
´T
³
1 σ
DX
´ =
√
nq
1 T 1 n n 1 n−1
X
XT D X
=
¯ √ X n , S
q
(6.10)
√ ¯ n (X/S) ∼ Gt(n − 1, δ; f ), donde δ = n µ/σ = µ/ σ 2 /n.
Para los detalles de esta demostraci´on vea [25].
6.4.2
Distribuci´ on Asint´ otica del CV bajo el Modelo I
Otro resultado distribucional interesante tiene relaci´on con el problema de muestras grandes. A continuaci´on se presenta la distribuci´on asint´otica del EVM y del EM del CV de una
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
122
poblaci´on El´ıptica bajo el Modelo I. Este resultado es an´alogo al planteado en [64, Secci´on 2] para una poblaci´on Normal. Note que ahora se requiere de la existencia de los cuatro primeros momentos de la distribuci´on, pues la ley El´ıptica incide sobre esta distribuci´on asint´otica a trav´es del par´ametro de curtosis(κ). i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tama˜ no n, con Xi ∼ EC1 (µ, σ 2 ; f ) (i=1,2,...,n), γ el CV y γcI el EVM de γ bajo el Modelo I. Entonces si n → ∞ √ n (γcI − γ) d Z=v ! −→ N (0, 1), u à 2 u γ 1 tγ 2 + 4 a(f ) 4 b(f ) − 1 donde a(f ) = IE(U Wf2 (U )) y b(f ) = IE(U 2 Wf2 (U )),
U 1/2 ∼ EC1 (0, 1; f ),
(6.11)
(6.12)
d
con U y Wf (U ) dados en (5.3.5), γcI en (5.3.3) y ” −→ ” denota la convergencia en distribuci´on. Demostraci´ on. De [61, Secci´on 3], y como se sabe,
√
µ
n
¶
X − µS 2 − σ 2
d 0 −→ N2 ,
σ2
4 a(f )
0
0
0 ≡ N2 (0, F−1 ) , 4 σ4 4 b(f ) − 1
con a(f ) y b(f ) dadas en (5.4.4). Ahora note que γ = T (θ) = T (µ, σ 2 ) = σ/µ es funci´on de µ y de σ 2 . An´alogamente el EVM de γ, γcI , es funci´on de µb y de σc2 , tal como puede verse en (7). Entonces √
b − T (θ)) = n (T (θ)
√
c2 ) − T (µ, σ 2 )) = b σ n (T (µ,
√
n (σb /µb − σ/µ) =
√
n (γb − γ).
A partir de esto y aplicando el m´etodo-delta (vea [69, pp. 387-388]), se tiene que √
donde
Ã
Ã
!
Ã
∂ T (θ) ∂ T (θ) n (γcI − γ) −→ N 0, F−1 ∂θ ∂θ d
!
Ã
∂ T (θ) ∂ T (θ) F−1 ∂θ ∂θ
Ã
!T
=γ
2
!T ,
!
γ2 1 + . 4 a(f ) 4 b(f ) − 1
6.4. DISTRIBUCIONES ASOCIADAS AL ESTIMADOR DEL CV Finalmente,
√ Z=v u
u tγ 2
Ã
n (γcI − γ)
123
d
γ2 1 + 4 a(f ) 4 b(f ) − 1
! −→ N (0, 1).
i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tama˜ no n, con Xi ∼ EC1 (µ, σ 2 ; f ) (i=1,2,...,n), γ el CV y γe el EM de γ bajo el Modelo I. Entonces si n → ∞ √ n (γfI − γ) d Z=v à ! −→ N (0, 1), u 2 u tc γ 2 4c0 γ + 3κ + 2 0 4
(6.13)
con γfI dada en la Observaci´on 3.129, κ = φ00 (0)/φ0 (0))2 − 1 = k0 /c20 − 1
(6.14)
es el par´ametro de curtosis de X, k0 = 4φ00 (0), φ est´a dada en (2.2.1) y φ00 es su segunda derivada. Demostraci´ on. De [2, Secci´on 4.2], y como se sabe, √
µ
n
¶
X − µS 2 − σ02
0
d
−→ N2
0
,
2 σ0
0
0 (3κ + 2) σ04
≡ N2 (0, V) .
Ahora note que γ = T (θ) = T (µ, σ 2 ) = σ/µ es funci´on de µ y de σ 2 . An´alogamente, el EM de γ, γfI , es funci´on de µe = X y de σf2 = S 2 , tal como puede verse en la Observaci´on 5, con X y S dados en (4). Entonces √
e − T (θ)) = n ((T (θ)
√
n (T (X, S 2 ) − T (µ, σ 2 )) =
√
n (S/X − σ/µ) =
√
n (γfI − γ).
A partir de esto y aplicando el m´etodo-delta (vea [69, pp. 387-388]), se tiene que √
Ã
!
Ã
∂ T (θ) ∂ T (θ) d n (γe − γ) −→ N 0, V ∂θ ∂θ
!T ,
donde Ã
!
Ã
∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) ∂ T (µ, σ 2 ) V ∂µ ∂ σ2 ∂µ ∂ σ2
Ã
!T
= c0 γ
2
!
4c0 γ 2 + 3κ + 2 . 4
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
124 Finalmente,
√ Z=q
n (γfI − γ)
c0 γ 2 ((4c0 γ 2 + 3κ + 2)/4)
d
−→ N (0, 1).
El par´ametro de curtosis κ, dado en (5.4.7), puede estimarse por el m´etodo de los momentos basado en el resultado dado en [58] (en [2, Secci´on 4.5]) y est´a dado por: P
n n (Xi − X)4 e = Pn i=1 κ − 1. 3( i=1 (Xi − X)2 )2
6.5
(6.15)
Intervalos de Confianza para el CV de una poblaci´ on El´ıptica
En esta secci´on se plantean intervalos de confianza del 100(1 − α)% para el CV (γ) de una poblaci´on El´ıptica bajo los modelos D e I antes planteados.
6.5.1
Intervalo de Confianza para el CV bajo el Modelo D
Basados en la distribuci´on del inverso del EVM del CV de una poblaci´on El´ıptica bajo el Modelo D y el estad´ıstico t generado a partir de (11), se presenta a continuaci´on un intervalo de confianza (IC) del 100(1 − α)% para el CV. Sea X = (X1 X2 . . . Xn )T ∼ ECn (µ 1n , σ 2 In ; f ) una muestra de tama˜ no n y γcD el EVM de γ bajo el Modelo D. Entonces un IC aproximado del 100(1 − α)% para γ es )−1 + (γc D
t%
n
q
λ(f )
−1
; (γcD )−1 −
t%
n
q
λ(f )
−1 ,
(6.16)
con λ(f ) dada en (6.3.2) y t% es el percentil (1 − α/2) de la distribuci´on t con (n − 1) g.l. Demostraci´ on. A partir de la expresi´on dada en (5.4.6) y usando la invarianza del estad´ıstico t bajo leyes ECn (0, In ; f ) (vea [32, p. 63]) se obtiene que √ √ √ Y1 − (µ/σ) n n X/σ − n (µ/σ) √ X − µ = t= q 1 = n ∼ t(n − 1). 0 Σ− Y S/σ S Y 2 2 n−1 Y 2
(6.17)
´ EL´IPTICA125 6.5. INTERVALOS DE CONFIANZA PARA EL CV DE UNA POBLACION Ahora observe que t es una cantidad pivotal para γ = σ/µ, con lo cual, al aplicar el m´etodo de la cantidad pivotal, se obtiene que Ã
IP
σ
√ ) t% , donde t% es el percentil (1 − α/2) de la distribuci´on t con (n − 1) g.l.
6.6.2
Prueba de Hip´ otesis para el CV bajo el Modelo I
A partir de la distribuci´on asint´otica del EM del CV de una poblaci´on El´ıptica bajo el Modelo I se plantea a continuaci´on una prueba de hip´otesis para el CV. Este resultado es an´alogo al obtenido en [64, Secci´on 2] para una poblaci´on Normal.
6.7. EJEMPLOS
127 i.i.d.
Sea X = (X1 X2 . . . Xn )T una muestra aleatoria de tama˜ no n, con Xi ∼ EC1 (µ, σ 2 ; f ) (i = 1, 2, ..., n), y γe el EM de γ bajo el Modelo D. Entonces a trav´es del estad´ıstico √
n (γfI − γ) d Z=v ! −→ N (0, 1), Ã u 2 u tc γ 2 4c0 γ + 3κ + 2 0 4
(6.22)
con c0 en (5.2.1), se puede contrastar las hip´otesis dadas en (6.6.1) mediante la siguiente regla de decisi´on: Rechace H0 si |Z| > Z% , donde Z% es el percentil (1 − α/2) de la distribuci´on N (0, 1).
6.7
Ejemplos
A continuaci´on se aplican los resultados obtenidos para el CV bajo el Modelo D a dos subfamilias El´ıpticas, como lo son familia de Tipo Kotz, que contiene a la distribuci´on Normal multivariada, y la familia de Pearson Tipo VII, que contiene a la distribuciones t-multivariada y de Cauchy (para esta u ´ltima distribuci´on no existen sus momentos), permitiendo encontrar ahora expresiones expl´ıcitas. Los resultados obtenidos bajo el Modelo I son ilustrados bas´andose en las distribuciones univariadas Normal y t con s g.l., para s = 5, 30 y 100. Estos resultados se resumen en la Tabla 2 para el Modelo D, y en las Tablas 4 y 5 para el Modelo I.
Tabla 3 Constante λ(f ), EVM(γ), IC(γ) y estad´ıstico t para contrastar las hip´otesis H0 : γ = γ0 versus H1 : γ 6= γ0 , para las distribuciones especificadas bajo el Modelo D.
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
128
∗
donde t% es el percentil (1 − α/2) de la distribuci´on t con (n − 1) g.l.
Similarmente, para el Modelo I se entregan algunos de los resultados obtenidos, adem´as de la eficiencia relativa asint´otica, para γ = 1, de los estimadores de verosimilitud m´axima y de ”tipo momentos” para el CV para las distribuciones univariadas Normal y t con s g.l.
Tabla 4 Constantes κ, c0 , k0 , a(f ), b(f ) y w = −2Wf (u), con Wf (u) dado en (?), para las distribuciones univariadas Normal y t con s g.l. bajo el Modelo I.
Distribuci´on
λ(f )
Pearson VII
2m − n ns
EVM(γ) = γc D
r
2m − n S s X
t(s) − n-variada
1 n
S X
Cauchy
1 n
S X
IC(γ)
· γc ± D
·
t
t% p λ(f )−1 n
X t% ±√ S n
¸−1
µ √
¸−1
n
p X − n λ(f ) γ0−1 S
√
µ n
X − γ0−1 S
¶
∗
µ Tipo Kotz
Normal
2st n + 2m − 2
1 n
¶1/t
p
nλ(f )
S X
·
S X
X t% ±√ S n
· γc D ±
·
¸−1
t% p λ(f )−1 n
t% X ±√ S n
√
¸−1
µ n
µ n
X − γ0−1 S
¶
X p − λ(f ) γ0−1 S
¸−1
µ n
γ −1 X − √0 S n
¶
¶
¶
6.7. EJEMPLOS
129
Distribuci´on
κ
c0
k0
a(f )
b(f )
w
t(s)
2 s−4
s s−2
s2 (s − 2)(s − 4)
s+1 4(s + 3)
3(s + 1) 4(s + 3)
s+1 s+u
Normal
0
1
1
1/4
3/4
1
CHAPTER 6. INFERENCIAS PARA EL CV BAJO UNA LEY EL´IPTICA
130
Tabla 5 EM(γ) = γfI , ERA(γ = 1), IC(γ) y estad´ıstico Z para contrastar las hip´otesis H0 : γ = γ0 versus H1 : γ 6= γ0 para las distribuciones univariadas Normal y t con s g.l. bajo el Modelo I. Distribuci´on
EM(γ)
ERA
t(s)
S X
Var(γbI ) Var(γeI )
t(5)
S X
t(30)
S X
t(100)
S X
Normal
S X
IC100(1−α)% (γ)
"
s S ± Z% X
0.3491
µ
s
µ 0.598 + 1.148
s
Z% S S ± √ nX X
√
S X
S X
µ 0.526 + 1.041
1.0000
¶#
3.333 + 2.778
Z% S S ± √ nX X
0.9796
Var
S X
s
Z% S S ± √ nX X
0.9255
µ
Z
S ± Z% S n X X
s 0.5 +
µ
S X
S X
¶2
¶2
¶2
√ p
γ02
¶2
γ02
γ02
n (S/X − γ0 )
(0.598 + 1.148 γ02 )
√ p
n (S/X − γ0 )
(3.333 + 2.778 γ02 )
√ p
n (S/X − γ0 ) p Var(γeI )
n (S/X − γ0 )
(0.526 + 1.041 γ02 )
√ n (S/X − γ0 ) p γ02 (0.5 + γ02 )
donde Z% es el percentil (1 − α/2) de la distribuci´on Normal est´andar y las varianzas asint´oticas del EVM y del EM de γ para la distribuci´on t con s g.l. son, respectivamente, µ 2 ¶ µ ¶ γ 1 s s s−1 2 2 2 Var(γbI ) = γ (s + 3) + y Var(γeI ) = γ γ + . s+1 2 s s−2 s−2 2(s − 4)
Para obtener expresiones para el EVM de γ bajo el Modelo I, se debe hacer uso de m´etodos num´ericos.
Bibliography [1] Anderson, T. W. and Fang, K-T. (1990). Statistical Inference in Elliptically Contoured and Related Distributions. Allerton Press, Inc. [2] Anderson, T. W. (1993). Nonnormal Multivariate Distributions Inference Based on Elliptically Contoured Distributions. Pag. 1-24. In Rao, R. (1993). Multivariate Analysis: Future Directions. Elsevier Science Publishers B . V. [3] Anderson,T. W., Fang, K-T. and Hsu, H. (1986). Maximun-likelihood Estimators and Likelihood ratio Criteria for Multivariate Elliptically Contoured Distributions. The Canad. J. Statist, 14, 55-59. [4] Anderson,T. W. and Fang, K-T. (1987). Cochran’s Theorem for Elliptically Contoured Distributions. Sankhya, Ser A, 49, 305-315. [5] Arellano, R. Distribucoes Elipticas: Propriedades, Inferencia Aplicacoes a Modelos de Regressao, Tesis Doctoral, Universidad de Sao Paulo: Brasil 1994 (en Portugu´es). [6] Bennett, B. M. (1976). On an Approximate Test for Homogeneity of Coefficients of Variation. Contribution to Applied Statistics, edited by Water John Ziegler, Birhauser Verlag, Bsel and Stuttgart, 169-171. [7] Bennett, B. M. (1977). LR Test for Homogeneity of Coefficients of Variation in Repeated Samples. Sankhya, 39B, 400-405. [8] Billingsley, P. (1979). Probability and Measure. John Wiley & Sons, New York. 131
132
BIBLIOGRAPHY
[9] Bulgren, W. G. and Amos, D. E. A Note on Representation of the Doubly Non-ccentral t Distribution. J. Amer. Statist. Ass., Vol. 63, (September 1968), 1013-19. [10] Bulgren, W. G. (1971). On Representation of the Doubly Non-central F Distribution. J. Amer. Statist. Ass., Vol. 66, No. 333. Theory and Methods Section. [11] Cacoullos, T. and Koutras, M. (1984). Quadratic form in spherical random variables generalized noncentral χ2 -distributions. Naval Res. Logist. Quart., 31, 447-461. [12] Cambanis S., Huang, S., and Simons, G. (1981). On the theory of elliptically contoured distributions. J. of Multivariate Analysis, 11, 365-385. [13] Chaudhuri, G. Coefficient of Variation for the l-Class of Life Distributions, Commun. Statist.: Theory Meth. 1993, 22(9), 2619-2622. [14] Chhikara, R. S.; Folks, J. L. The Inverse Gaussian Distribution as Lifetime Model, Technometrics 1977, 19, 461-468. [15] Chmielewski, M.A. (1980). Invariant Scale Matriz Hypothesis Tests under Elliptical Symmetry. J. of Mult. Analysis, 10, 343-350. [16] Chu, K. C.(1973). Estimation and Decision for Linear Systems with Elliptical Random Process. IEEE Transaction on Automatic Control, 18, 499-505. [17] Cramer, H. (1970). M’todos Matem´aticos en Estad´ıstica. Aguilar Ediciones, Madrid. [18] Dawid, A. P. (1977). Spherical Matrix Distribtutions and a Multivariate Model. J. of the Royal Stat. Soc., Ser. B, 39, 254-261. [19] D´ıaz, G., J. A. y Guti´errez, J. R. (1996). C´ alculo Diferencial Matricial y Momentos de Matrices Aleatorias El´ıpticas. Ed. Universidad de Granada. Granada. [20] D´ıaz, G., J. A. y Leiva, S., V. (1997). Distribuci´on χ2 No Centrada, Obtenida a Partir de una Distribuci´on El´ıptica Singular. Proceedings of the COMPUMAT’97 . Cienfuegos, Cuba.
BIBLIOGRAPHY
133
[21] D´ıaz, G., J. A., Leiva S., V. y Guti´errez, J., R. (1998). Densidad del Coeficiente de Variaci´on Muestral en Poblaciones El´ıpticas. Proceedings of the XXIV Congreso Nacional de Estad´ıstica e I.O.. Almer´ıa, Espa˜ na. [22] D´ıaz, G. J.A. y Leiva, S., V (1999). ”Estimador M´aximo Veros´ımil del Coeficiente de Variaci´on bajo Poblaciones El´ıpticas”. Proceedings of IV Congreso Latinoamericano de Sociedades Estad´ısticas, Mendoza, Argentina. [23] D´ıaz, G. J.A. y Leiva, S., V (1999). ”Distribuci´on e Intervalo de Confianza Asint´otico para el Coeficiente de Variaci´on bajo Poblaciones El´ıpticas”. Proceedings of IV Congreso Latinoamericano de Sociedades Estad´ısticas, Mendoza, Argentina. [24] D´ıaz, G. J.A. , Leiva, S., V y Galea, R., M. (2000a). ”Distribuci´on El´ıptica Singular: Densidad y Aplicaciones”. Informe T´ecnico UV-EST-0002-00. Universidad de Valpara´ıso, Chile. [25] D´ıaz, G. J.A. , Leiva, S., V and Galea, R., M. (2000b). ”Singular Elliptical Distribution: Density and Applicacions”. Submited [26] D´ıaz, G. J.A. , Leiva, S., V y Galea, R., M. (2000c). ”Distribuci´on El´ıptica Singular: Densidad y Aplicaciones”. Proceedings of XXIII Jornadas Nacionales de Estad´ıstica, Valdivia, Chile. [27] D´ıaz, G. J.A. , Leiva, S., V y Galea, R., M. (2000d). ”Inferencia para el Coeficiente de Variaci´on de una Poblaci´on El´ıptica”. Informe T´ecnico UV-EST-0004-00. Universidad de Valpara´ıso, Chile. [28] D´ıaz, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Inference for the Coefficient of Variation of an Elliptic Population”. Submited. [29] D´ıaz, G. J.A. , Leiva, S., V and Galea, R., M. (2001). ”Doubly Non-Central t and F Distribution under Singular and Non-Singular Elliptical Distribution: Density and Applicacions”. In preparation.
134
BIBLIOGRAPHY
[30] Doornbos, R and Dijkstra, J. B. (1983). A Multi Sample Test for the Equality of Coefficients of Variations in Normal Populations. Commun. Statist.: Simul. and Comput., 12, 2, 147-158. [31] Fang, K. T., Kotz, S. and Ng, K. W. (1990). Symetric, Multivariate and Related Distribution. Chapman and Hall. London. [32] Fang, K. T. and Zhang, Y.T. (1990). Generalized Multivariate Analysis. Sciences Press, Beijing. Springer-Verlag, Berlin [33] Fan, J. (1984). Generalized Non-Central t−, F, and T 2 − Distributions. (in Anderson, T. W. and Fang, K-T. (1989). Statistical Inference in Elliptically Contoured and Related Distributions. Allerton Press, Inc.) [34] Fang, K. T. and Wu, Y. (1984). Distribution of Cuadratic Forms and Cochran’s Theorem. Mathematics in Economics, 1, 29-48. [35] Feltz, C. J. and Miller, G. E. (1996). An Asymptotic Test for Equality of Coefficients of Variation in k Populations. Statistics in Medicine, 15, 647-658. [36] Gerig, M. T. and Sen, R. A. (1980). MLE in Two Normal Samples With Equal but Unknow Population Coefficients of Variaton. J. Amer. Statist. Ass. Vol. 75, No. 371, Theory and Methods Section. 704-708 [37] Graybill, F.A. (1976). Theory and Application of the Linear Models. Duxbury Press. California. [38] Graybill, F.A. (1969). Introduction to Matrices with Applications in Statistics. Wadsworth Pub. Company, Inc., Belmont, California. [39] Gupta, A.K. and Varga, T. (1993). Elliptically Contoured Models in Statistics. Kluwer Academic Publishers, Boston.
BIBLIOGRAPHY
135
[40] Gupta, R. C. and Ma, S. (1996). Testing tha Equality of Coefficients of Variation in k Normal Populations. Commun. in Statist.: Theory and Methods. 20, 10, 3351-3363. [41] Guti´errez, J. R., Gonz´alez, C. A. (1996). ”Estad´ıstica Multivariable: Introducci´on al An´alisis Multivariante”. Volumen I. Ediciones Universidad de Granada. [42] Hamer, A. J., Strachan, J. R. Black, M. M., Ibbotson, C. and Elson, R. A. (1995). A New Method of Comparative Bone Strenght Measurement. J. Medical Engineering and Technology, 19, 1, 1-5. [43] Hsieh, H. K. (1990). Inferences on the Coefficient of Variation of an Inverse Gaussian Distribution. Commun. in Statist.: Theory and Methods. 19, 5, 1589-1605. [44] Iglewicz, B. and Myers, R. H. (1970). Comparisons of Approximations to the Percentage Points of Sample Coefficients of Variaton. Technometrics, 12, 1, 166-169. [45] Johnson, M. (1987) Multivariate Statistical Simulation. John Wiley and Sons. New York. [46] Johnson, N.L. and Kotz, S. (1970) Continuos Univariate Distributions. Houghton Miffin Co. Houston. [47] Johnson, N.L. and Kotz, S. (1975) Distributions in Statistics: Continuos Multivariate Distributions. John Wiley. New York. [48] Kailath, T. (1961). Optimum receivers for randomly varying channels. Information Theory, pp. 109- 22 [49] Kariya, T and Eaton, M.L. (1977). Robust Tests for Spherical Symmetry. The Annals of Statistics, 5, 206-215. [50] Kelker, D. (1970). Distribution Theory os Spherical Distributions and a Location Scale Parameter Generalization. Sankhya, Ser. A, 32, 419-430. [51] Larsen, D., H. (1965). Rinehart Mathematical Tables, Formulas and Curves. Holt, Rinehart and Winston. N-Y.
136
BIBLIOGRAPHY
[52] Leiva, S., V., D´ıaz, G., J. A. y Guti´errez, J. R. (1997). Densidad de una Distribuci´on El´ıptica Singular. Actas del XXIII Congreso Nacional de Estad´ıstica e I.O., Valencia, Espa˜ na, 46.9-46.10. [53] Leiva, S. V. (1998). Distribuciones El´ıpticas y Distribuci´on de Formas Cuadr´aticas Asociadas. Universidad de Granada. Trabajo de Investigaci´on. [54] Leiva, S., V. (1999). ”Inferencias sobre el Coeficiente de Variaci´on bajo Poblaciones El´ıpticas”. Tesis Doctoral, Universidad de Granada, Espa˜ na. [55] Lehmann, E. L. (1991). Testing Statistical Hypothesis. Wadsworth y Brooks/Cole. California. [56] Lord, R. D. (1954). The Use of Hankel Transform in Statistics. I. General Theory and Examples. Biometrika, 41, 44-45 [57] Madow, W. G. (1948). On a Source of Downward Bias in the Analysis of Variance and Covariance. Annals of Mathematical Statistics, 19, 351-359. [58] Mardia. K. V. Measures of Multivariate Skewness and Kurtosis with Applications, Biometrika 1970, 57, 519-530. [59] McKay, A. T. (1932). Distribution of the Coefficient of Variation and the Extended t distribution. J. Royal Stat. Soc., 95, 695-698. [60] Meeker, W.Q.; Escobar, L.A. Statistical Methods for Reliability Data, John Wiley & Sons Inc., New York 1998. [61] Mitchell, A, F. S. Statistical Manifold of Univariate Elliptic Distributions, International Statistical Review 1988, 56, 1, 1-16. [62] Miller, G. E. (1991). Asymptotic Test Statistics for Coefficients of Variation. Commun. in Statist.: Theory and Methods. 20, 10, 3351-3363.
BIBLIOGRAPHY
137
[63] Miller, E. C. and Karson, M. J. (1977). Testing Equality de Two Coefficients of Variation. Amer. Stat. Asoc.: Proceeding of the Business and Economics Section, Part I, 278-283. [64] Miller, G. E. and Feltz, C. J. (1997). Asymptotic Inference for Coefficients of Variation. Commun. in Statist.: Theory and Methods. 26, 3, 715-726. [65] Muirhead, R. J. (1982). Aspects of Multivariate Statistical Theory. J. Wiley, N.Y. [66] Pearson, E. S. (1932). Comparison de A. T. McKays Approximation with Experimentals Sampling Results. Journal of the Royal Statistical Society, 95, 703-704. [67] Price, R. (1962). Error Probabilities for Adaptive Multichannel Reception of Binary Signals. IRE Transc. On Information Theory, It-8, 387-389. [68] Raj, D. Sampling Theory, McGraw Hill: Bombay, New Delhi 1968. [69] Rao, C.R. (1965). Linear Statistical Inference and its Applications. Wiley, New York. [70] Rao, C. R. Multivariate Analysis: Future Directions, Elsevier Science Publishers B. V. 1993. [71] Rao, K. A. and Vidya, R. (1992). On the Performance of a Test for the Coefficient of Variation. Calcutta Stat. Asoc. Bulletin, 42, March and June, Nos. 165-66, 87-95. [72] Schoenberg, I. J. (1938). Metric Spaces and Completely Monotone Functions Variates. Australian J. Stat., 7, 110-114. [73] Scheff´e, H. (1959). The Analysis of Variance. N.Y.: John Wiley and Sons, Inc. [74] Searle, S.R. (1971). Linear Models. John Wiley and Sons, Inc., New York. [75] Sebestyen, G. S. (1961). Recognition of membership in classes. IRE Trans. on Inf. Th. IT-7, 44-50.
138
BIBLIOGRAPHY
[76] Sen, A. R. and Gerig, T. M. (1980). MLE in Two Normal Samples with Equal but Unknown Population Coefficient of Variation. J. Amer. Statist. Asoc., 75, 371, Sept., 704-708. [77] Shafer, N. J. and Sullivan, J. A. (1986). A Simulation Study of a Test for the Equality of the Coefficients of Variation. Commun. in Statist.: Simul. and Comput., 15, 3, 681-695. [78] Smith, M. D. (1989). On the Expectation of a Ratio of Cuadratic Forms in Normal Variables. J. Mult. Analysis, 31, 244-257. [79] Srivastava, M. S. and Khatri, C. G. (1979). An Introduction to Multivariate Statistics. North Holland. [80] Teng, Ch., Fang H. and Deng W. (1989). The Generalized Wishart Distribution. J. of Mathematical Research and Exposition. 9, 4. 36, 9-106 (supplement). [81] Tiku, M. L. Series Expansions for the Doubly Non-central F Distribution. Australian Journal of Statistics, 7 (November 1965), 78-99. [82] Turin, G. L. (1959). Some computations of error rates for selectively fading multipath channels. Proc. Nat. Electron. Conf. 15, 431-40. [83] Tyler, D. E. (1982). Radial estimates and the Test for Sphericity. Biometrika, 69, 429-436. [84] Umphrey, G. J. (1983). A Comment on McKay’s Approximation for the Coefficient of Variation. Commun. in Statist.: Simul. and Comput., 12, 5, 629-635. [85] Wadsworth, G. P. y Bryan, J. G. (1979). Aplicaciones de la Teor´ıa de Probabilidad y Variables Aleatorias. Ed. Alhambra. Madrid. [86] Weibull, M. (1953). The Distribution of t− and F -Statistics and of Correlation and Regression Coefficients in Stratified Samples from Normal Populations with Different Means. Skandinavisk Aktuarietidskrift, 36, 9-106 (supplement).
BIBLIOGRAPHY
139
[87] Wishner, R. P. (1962). Distribution of the normalizad periodogram detector. IRE Trans. on Inf. Th. IT-8, 342-9. [88] Zellner, A. (1976). Bayesian and Non-Bayesian of the Regression Model with Multivariate Student-t Error Terms. Journal of the American Statistical Association, 71, 400-405.
140
BIBLIOGRAPHY
ANEXO Densidad de la distribuci´ on Gt doble No Centrada Teorema. Sea T ∼ Gt(n, δ, γ; f ), con par´ametros de doble no centralidad δ y γ. Entonces, la densidad de T es n−1
(6.23)
2π 2 gT (t) = 1/2 n−2 n Γ( 2 ) Z∞
Zπ Ã
vn 0
f 0
Ã
1 + t2 2 δ v −2 + γ cos φ1 n n1/2
!
!
v + δ2 + γ 2)
senn−2 φ1 dφ1 dv,
con v > 0, donde δ y γ son los par´ametros de doble no centralidad. Demostraci´on. Sea X = (X1 XT2 )T ∼ ECn+1 (ν, In+1 ; f ), con X1 ∈ IR, X2 ∈ IRn , ν = (µ µTn )T , q
ν ∈ IRn+1 , µ ∈ IR, µ 6= 0, µn ∈ IRn , µn 6= 0 y defina T = X1 / ||X2 ||2 /n. Adem´as, sea
1 0 Q ∈ O(n + 1), Q = , P ∈ O(n), tal que QX = Y = (Y1 Y2T )T = (X1 Y2T )T 0 P y Q ν = (µ ||µn || 0T )T , esto es, Y = (Y1 Y2T )T ∼ ECn+1 (η, In+1 ; f ), con Y1 ∈ IR, Y2 = (Y2 ... Yn+1 )T ∈ IRn y η = (µ ||µn || 0T )T . Note que ||Y|| = ||X|| y ||Y2 || = ||X2 ||, con lo q
cual T = Y1 / ||Y2 ||2 /n. As´ı,
gY (Y) = f ((Y − η)T (Y − η)) = f
Ãn+1 X
!
yi2 + kµn k2 + µ2 − 2µ Y1 − 2kµn k Y2 .
i=1
Considere la transformaci´on de coordenadas esf´ericas generalizadas dada por (Y2 . . . Yn+1 ) −→ 141
142
BIBLIOGRAPHY
(r φ1 . . . φn−2 θ) = (r φ θ), cuyo jacobiano es rn−1
n−2 Y
senn−j−1 φj , de manera que
j=1
³
´
gy1 ,r,θ (Y1 , r φ θ) = f y12 + r2 + kµn k2 + µ2 − 2µ Y1 − 2kµn k cos φ1 rn−1
n−2 Y
senn−j−1 φj .
j=1
Entonces, la densidad de (Y1 r) es 2rn−1 π
gy1 ,r (Y1 , r) =
Γ
³
n−2 2
n−2 2
´
Zπ ³
f y12 + r2 + δ 2 + γ 2 − 2γ r cos φ1 − 2δ y1
´
senn−2 φ1 d φ1 ,
0
con r > 0, δ = µ y γ = kµn k. q
Aplicando el cambio de variables v = r y T = Y1 / r2 /n, de modo que |J| = v/n1/2 , se obtiene que gT,V (t, v) =
2v n−1 π Γ
³
n−2 2
n−2 2
´
Zπ " Ã 2 2 v t
f
0
con v > 0.
!
#
tv v − 2δ 1/2 + δ 2 + γ 2 − 2 v γ cos φ1 + v 2 senn−2 φ1 dφ1 1/2 ; n n n
Finalmente, la densidad de T es n−1
2π 2 gT (t) = 1/2 n−2 n Γ( 2 ) Z∞
Zπ Ã
Ã
1 + t2 2 δ vn f v −2 + γ cos φ1 1/2 n n 0 0 con v > 0, δ = µ y γ = kµn k.
!
!
v + δ2 + γ 2)
senn−2 φ1 dφ1 dv,